Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

Zwiebelsoße schrieb:
Bei dir ist Intel immer die schlechtere Wahl, selbst wenn der Preis dafür spräche.
Immerhin habe ich zusätzlich zu 339 Euro des 11700 noch ne integrierte GPU dabei.
Es gibt ergo Argumente für beide CPUs.

Naja die F i-core sind aber wesentlich günstiger und ohne Test ist dass ding nicht brauchbar.
 
Das Testsystem mit der NV-Karte ist nicht das Testsystem aus dem CPU-Test, wohl aber mit identischer CPU-/RAM-Konfiguration. Wir suchen mit NVIDIA noch nach dem Grund, der sich durchaus aus in einer nicht komplett geschlossenen Anwendung aus der White-List, oder einem fehlerhaften BIOS der 3090 ergeben könnte. Mittlerweile lässt sich das nicht mehr reproduzieren, da ich zig mal hin- und hergetauscht habe. Allerdings habe ich auf der MSI-Karte nun auch 3 BIOSe durch, da das erste aus dem Dragon-Center definitiv fehlerhaft war. MSI hat das auf meinen Hinweis hin auch ersetzt. (.162 für Gaming Mode)

Da ich das Resultat selber in Frage gestellt habe, ist ja in der Chartsgrafik der große Absatz zwischen den Resultaten und der Hinweis auf die Nachfrage bei NV drin. Dass sich die Meute jetzt ohne Verweis auf meine Einschränkungen unreflektiert darauf stürzt, ist leider mittlerweile üblich :D
 
  • Gefällt mir
Reaktionen: IT-Wally, _Cassini_, Ned Flanders und 6 andere
Wau geil MSI ist also bei GPUs auch nur noch Müll klasse testen die überhaupt noch ein Bios vorher.

Naja also Intel 11er Käse RTX30er zu Teuer und AMD auch wau AM4 naja bleibt nur noch der P4. :D


Also der PC als Gaming kutsche wird jedes Jahr uninteressanter kein Wunder bei den Problemen wo bei Windoof auch ein großes ist.
 
Ich habe mal ein paar OC Systeme vom PCGH Community Benchmark zusammengetragen. Der i5-11400F schlägt sich richtig gut. Klar, es gibt auch 10900K Systeme mit 130 FPS, aber in Relation gesehen, ist das schon ordentlich.
1617384619417.png
 
  • Gefällt mir
Reaktionen: PhoenixMDA und Mcr-King
Zwiebelsoße schrieb:
Deshalb sind sie doch attraktiv, oder nicht?

Ist halt ein 11700K mit 100MHz weniger Boost...

Nee da bei den Mobos keine Sau mehr durchblickt will nicht studieren was geht mit B/H/Z jetzt genau wo ist der unterschied was geht an RAM OC und UV Einstellungen.
 
  • Gefällt mir
Reaktionen: Ned Flanders
  • Gefällt mir
Reaktionen: Mcr-King
Also mal ganz ehrlich auch wenn ich mit dem 10900k@oc noch mit am schnellsten unterwegs bin,
ob man sich nun nen AMD 5000ér, nen Intel 10ér oder 11ér holt und etwas RamOC betreibt,
das ist beim zocken doch so ziemlich Wurst. 😉

Das nimmt sich nun alles nicht soviel.Für Leute die wenig einstellen wollen wird wohl der 5000ér oder nen RKL die bessere Wahl sein.
 
  • Gefällt mir
Reaktionen: Mcr-King, Ned Flanders und ZeroStrat
Selbst bei 10 Kernen würde ich wegen Gear 2 Bremse nicht von 10900K auf 11900K upgraden
aber bei 12 Kernen als echter 5900X Konkurrent hätte man den Kompromiss eingehen können.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich warte jetzt noch auf die APUs der 5000er und mal schauen wie die Preise sich entwickeln der i5 11400f ist mit 160€ zu teuer.
 
Taxxor schrieb:
Ach den meinst du.
Sagt ja erstmal noch nichts weils nur eine CPU ist, wenn 11700K, 11900K und auch 5900X mit der 6800xT getestet wurden, wissen wir mehr^^
Das sagt zumindest schon mal, dass Nvidia im CPU Limit die gleichen FPS bringt.
Man weiß natürlich nicht, wie es sich mit einem 11700K verhält, aber der hat leicht mehr Spiele Rohleistung als ein 10900K, insofern wird es vermutlich dasselbe sein.
Ich spekuliere wenn dann auf Unterschiede beim 6 Kerner.^^
 
Hier ein sehr guter CPU-Bench-Vergleich@720p zwischen RX 6900 XT und RTX 3080 von ein um dem selben User: https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-cyberpunk-2077-cpu.601159/

Core i9-10900K@5,4GHz (DDR4-4600) mit RTX 3080 = 134,6 AVG FPS ( AVG GPU Power 309 Watt) https://www.capframex.com/sessioncollections/68e640fa-2468-4d06-8d2d-59352d605a4c

Core i9-10900K@5,3GHz (DDR4-4400) mit RX 6900 XT = 139,4 AVG FPS (AVG GPU Power 120 Watt x 1,18 = 142 Watt*) https://www.capframex.com/sessioncollections/8795fa79-5c02-404e-8ac4-df30b9965de6

Und dann werden (Leistungsaufnahme)Messergebnisse von Igor ins Blaue hinein angezweifelt, nur weil der eigene Horizont bisher nicht über Ampere hinausgeht. Es ist brutal was Big Navi hier mit einem Bruchteil an Energie gegenüber Ampere ausspuckt.



*RX 6900 XT 300W TDP (ganze Karte) / 255W GPU Power only = Faktor ~1,18
 
  • Gefällt mir
Reaktionen: Mcr-King, Der Paule, Zwiebelsoße und 3 andere
i9-11900k+Cooler Master MasterLiquid ML360 Peltier-Kühler mit 150W Leistungsaufnahme allein des Kühlers ❤️

 
Freiheraus schrieb:
Hier ein sehr guter CPU-Bench-Vergleich@720p zwischen RX 6900 XT und RTX 3080 von ein um dem selben User: https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-cyberpunk-2077-cpu.601159/

Core i9-10900K@5,4GHz (DDR4-4600) mit RTX 3080 = 134,6 AVG FPS ( AVG GPU Power 309 Watt) https://www.capframex.com/sessioncollections/68e640fa-2468-4d06-8d2d-59352d605a4c

Core i9-10900K@5,3GHz (DDR4-4400) mit RX 6900 XT = 139,4 AVG FPS (AVG GPU Power 120 Watt x 1,18 = 142 Watt*) https://www.capframex.com/sessioncollections/8795fa79-5c02-404e-8ac4-df30b9965de6

Und dann werden (Leistungsaufnahme)Messergebnisse von Igor ins Blaue hinein angezweifelt, nur weil der eigene Horizont bisher nicht über Ampere hinausgeht. Es ist brutal was Big Navi hier mit einem Bruchteil an Energie gegenüber Ampere ausspuckt.



*RX 6900 XT 300W TDP (ganze Karte) / 255W GPU Power only = Faktor ~1,18
Die Werte von snakeeyes stimmen schon, aber du solltest eines dabei nicht vergessen wir haben das mit max. OC getestet sprich jenseits dessen was gut in der Effizienz ist^^.
Da säuft die 3080 natürlich ordentlich.

Im 24/7 mit UV 1900mhz ziehst du aber mit ner 3080 auch wirklich mal locker die 300-350W ohne FPS Begrenzung.
Bei 2160Mhz sind das schon 400-450W, Effizienz beim übertakten ist nicht.^^

Klar ist bei der GPU AMD sparsamer, du hast aber einen großen Nachteil, du hast derzeit kein DLSS und die RTX Leistung, wer hohe Auflösung fährt ist bei AAA Titeln am Arsch^^.
Wer auf RTX verzichten kann, kommt mit der AMD Karte super klar, da ist sie auch oft die schnellere Karte.

Aber jeder der derzeit überhaupt ne Karte zu keinen abnormalen Preis ergattern kann, kann froh sein.
 
  • Gefällt mir
Reaktionen: Freiheraus
Dazu kommt, dass die 6900XT nur bei den AVG FPS besser da steht. Schaut man sich 1pctile an und insbesondere die Minimum FPS an, sieht es schon wieder ganz anders aus.
 
  • Gefällt mir
Reaktionen: Klever
Ach komm schon foo_1337, die percentils sind nahezu gleich, wegen dem Minimum gabs genau einen einzigen Spike, der im nächsten Lauf mit jeder Karte auftreten könnte.

Edit: Dass die Radeon mit 100MHz weniger CPU-Takt, und 200MHz weniger DDR4-Takt lief, ist dann aber egal. Wenn schon penible, dann bitte konsequent.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und Rockstar85
Freiheraus schrieb:
Und dann werden (Leistungsaufnahme)Messergebnisse von Igor ins Blaue hinein angezweifelt,
Nein, sie werden nicht ins Blaue hinein angezweifelt. Es ging auch gar nicht um den Verbrauch. 30% Leistungsunterschied ist absurd. Und wenn das AMD System (mit GPU und Treiber) zu so etwas führt, dann mögen die Reviewer das Zeuch bitte aus dem Fenster schmeißen.

Aber interessant ist der Vergleich mit dem Verbrauch auf jeden Fall. Danke für den Hinweis, ich hatte das in diesem konkreten Fall noch gar nicht richtig wahrgenommen. Ist halt die Frage, was der AMD Treiber da an "Optimierungen" treibt bei der geringen Auflösung.

Und interessant auch, dass die Verbrauchswerte von CX in diesem Fall akzeptiert werden. :D
 
  • Gefällt mir
Reaktionen: Mcr-King, Zwiebelsoße und PhoenixMDA
Guck dir mal Assassine creed valhalla in 720p low an.
Wenn du da ne 3080@OC und ne 6090XT vergleichst liegen da kleine Welten zwischen.^^

Bei hohen Auflösungen wird sich das natürlich relativieren.Den Fall hatten ma Grad im OCN beim Vergleich RKL zu CML.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben