Test CPU-Spieleleistung im Test: Intel Core i9-9900K vs. AMD Ryzen 9 3900X mit RAM-OC

Er rennt ins Thermal Design Limit, das ist nicht die Temperatur selber, sondern der Strom der maximal fließen soll, um innerhalb der thermischen Spezifikationen zu bleiben... Daher wird TDC auch in Ampère angegeben. Heißt bei dem Strom wird die Spannung (und damit der Takt) abgesenkt, um im Limit zu bleiben, daher dann eben weniger PPT nötig, Intel hat dafür ja so gesehen den AVX Offset, der eben den Multi absenkt um Strom und Temp runter zu kriegen ;)
 
  • Gefällt mir
Reaktionen: Verangry, Esenel und Rage
@Taxxor

Siehe den Post bevor deinem.

Und auch mit thermischen Limit stimmt das nicht ganz.

Alle 5°C kühler entsprechend ca. +25 MHz an all core Takt und das passiert auch weit bevor 80°C.

Praktisch gesehen macht sowas aber eher nur was für Anwendungen aus, und auch nur bedingt.

Bei Games hat das praktisch gar keine Bedeutung, weil die CPU da sowieso kühler läuft und der Effekt durch die Lüfter kaschiert wird. Da heißt bessere Kühlung in der Regel "nur" weniger Lärm und nicht mehr Performance, weil niemand seine Lüfter konstant auf 100% laufen lässt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Interessant wäre mal zu sehen in welches Limit er denn bei AVX rennt, wenn man PBO maxed out fährt... wenn mein 3950X ja nicht freezen würde, der hat aber irgendwie genug mit dem RAM zu kämpfen... Ich probier das später trotzdem nochmal... jetzt beim Überlegen vermute ich reines Spannungslimit, wird er wahrscheinlich auch noch haben...

Gibts hier eigentlich nen Intel User der mal 64 GB auf 4 Riegel (scheint ja sonst nur mit SingleRank richtig zu funktionieren) OC'ed hat?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cm87
Esenel schrieb:
[...]
Kommt drauf an. Es ist in der Tat doch so, dass man unterhalb von 60FPS Schwankungen in den Frametimes bzw. avg FPS je nach Spreizung deutlich wahrnimmt.

Nehmen wir mal die 16%, die einem der Intel in diesem Test in den 99teln Vorteil bietet.
Wo das Intel System in diesem Falle bei 60FPS verbleiben würde, könnte das AMD- System auf 52FPS "dippen".
Und das merkt man, je nach Empfindlichkeit, dann eben schon.
[...]

Den Teil -und allgemein die Korrektheit der Zahlen- habe ich auch nicht angezweifelt oder kritisieren wollen. Aber wir sind eben auch beim 99.8% häufig nicht mehr in dem Bereich, wo es sich zwischen spielbar und unspielbar oder ruckelig und flüssig unterscheidet, sondern ein Unterschied allenfalls noch messbar ist.

Aber vlt. hat da auch insgesamt nur die Frustration aus mir gesprochen, denn ich bin dieser Enthusiasten-Gaming-Bubble, in der aus einem spaßbringenden Hobby eine Wissenschaft gemacht wird, bei dem mehr Zeit darin investiert wird zu benchmarken und Parameter anzupassen um sich anschließend gegenseitig in die Parade zu fahren, inzwischen überdrüssig.
Aus der Vergangenheit betrachtet, leben wir geradezu den Traum in dem man ein unglaubliche Anzahl unglaublich gut aussehender Spiele hochauflösend und hochfrequent spielen kann und hier streitet diskutiert man lieber darüber mehrere hundert oder gar tausend Euro zu versenken nur um die eh schon synchronisierten Frametimes um ein paar Millisekunden zu drücken.

Naja, mir solls egal sein...
 
  • Gefällt mir
Reaktionen: LaZz
@Rage

Ein kleiner Fehler ist mir noch aufgefallen. Die Caches sind bei Zen afaik nicht in der MemClk Domain sondern in der CClk Domain, sprich sie takten immer Full Speed.

Das habt ihr falsch in der Tabelle

Screenshot_20200520-143723.png
 
  • Gefällt mir
Reaktionen: ZeroStrat
v_ossi schrieb:
Den Teil -und allgemein die Korrektheit der Zahlen- habe ich auch nicht angezweifelt oder kritisieren wollen. Aber wir sind eben auch beim 99.8% häufig nicht mehr in dem Bereich, wo es sich zwischen spielbar und unspielbar oder ruckelig und flüssig unterscheidet, sondern ein Unterschied allenfalls noch messbar ist.
Ich kann immer wieder nur betonen -Es sind (Ausnahmen wie VR mal ausgenommen), Luxusprobleme.

Ich persönlich finde es aber hervorragend, dass es überhaupt eine Option gibt, gewisse Dinge, die vielleicht auch unvernüftig scheinen (Titan RTX), 4800MHz DDR4- Speicher, zu produzieren und dem Konsumenten die Wahl zu lassen, ob er das Invest als sinnvoll betrachtet oder nicht.

Man sollte NIE - und ich betone es NIEmals seine eigene Sichtweise auf ein allgemeingültiges Szenario projezieren, wer was zu brauchen hat, oder für wen was sinnlos ist.

Ein Hardwareteil kann völlig unabhängig des Preises seinen Daseinszweck schon dadurch erfüllen, dass der Besitzer sich jeden Tag darüber freut, es durch seinen verglasten Tower anzusehen. Abseits jeglicher sonstiger Funktionalität.

Aber vlt. hat da auch insgesamt nur die Frustration aus mir gesprochen, denn ich bin dieser Enthusiasten-Gaming-Bubble, in der aus einem spaßbringenden Hobby eine Wissenschaft gemacht wird, bei dem mehr Zeit darin investiert wird zu benchmarken und Parameter anzupassen um sich anschließend gegenseitig in die Parade zu fahren, inzwischen überdrüssig.
Das ist wohl wahr.

Aus der Vergangenheit betrachtet, leben wir geradezu den Traum in dem man ein unglaubliche Anzahl unglaublich gut aussehender Spiele hochauflösend und hochfrequent spielen kann und hier streitet ... oder gar tausend Euro zu versenken nur um die eh schon synchronisierten Frametimes um ein paar Millisekunden zu drücken.
Das ist wiederum auch eines der Dinge, die mir gegen den Strich gehen. Für jedes Spiel und jede Technik wird das Standbild mit 400- Facher Vergrößerung und Lupe herausgeholt.
Man hat fast das Gefühl, dass einige garnicht mehr in der Lage sind, ihr Spiel ohne Overlay zu starten, in dem jeder auch noch so kleine technische Aspekt erfasst wird.

Sieht man immer schön an der DLSS Diskussion. Da wird sich beschwert, dass irgendetwas nicht "nativ" aufgelöst wäre. Dass aber das gesamte hochgerühmte Basisbild bereits aus Schnipseln unterschiedlichster Auflösungen und Flickenteppiche zusammengeschustert wird, wird völlig außen vor gelassen.

Zudem müssen es 144FPS in 4K sein, sonst ist alles Mist, minderwertig, macht keinen Spaß mehr usw. usf.
Das hat inzwischen wirklich bedenkliche Züge angenommen.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Paule, Schattenspender, LaZz und 3 andere
HerrRossi schrieb:
Weil man nicht Äpfel mit Birnen vergleicht.
Hm?

Wieso sollte man nicht vergleichen können, wie hoch das FPS/Verbrauchsverhältnis verschiedener Prozessoren bei einem festgelegten Titel ist?

Das versteh ich nicht.

LG
Zero
 
ZeroZerp schrieb:
Genau das^^
Eigentlich doch prima für den Kunden, das es endlich wieder 2 vernünftig konkurrierende CPU Hersteller gibt und man die Wahl hat.
Die Grabenkämpfe nerven halt zeitweise extremst.
 
ZeroZerp schrieb:
Wieso sollte man nicht vergleichen können, wie hoch das FPS/Verbrauchsverhältnis verschiedener Prozessoren bei einem festgelegten Titel ist?
Vergleichen kann man es mMn. nur bei gleicher Kernzahl. Ich verstehe aber auch ehrlich gesagt die Aufregung nicht, der 9900K braucht im Gaming mehr Strom als der 3900X, das ist Fakt, ich habe das ja auch nur erwähnt und nicht als absolutes KO-Kriterium, warum man diese CPU auf gar keinen Fall kaufen darf, hingestellt. Du beschwerst dich über AMD-Fanboys, reagierst aber selber bei Kritik am 9900K total empfindlich.
 
  • Gefällt mir
Reaktionen: Colindo
HerrRossi schrieb:
Ich verstehe aber auch ehrlich gesagt die Aufregung nicht, der 9900K braucht im Gaming mehr Strom als der 3900X, das ist Fakt,
Ist es das?
AMD benutzt viel höhere Spannungen um einzelne Kerne auf leicht höhere Frequenzen zu zwingen(1,5V)....und rudert dann bei allcore Last massiv zurück.(1,2V?)
Guck einfach mal in den neuen Test von heute....Die AMD CPUs brauchen für die 4,5-4,7GHz auf einem Kern mehr Energie als Intel für 5,3GHz....und sind langsamer.

Beim allcore Verbrauch hat sich das umgedreht, und Intel verbraucht viel mehr und ist langsamer.

Also rein logisch muss es irgendwo dazwischen einen Übergang geben, wo beide gleich viel verbrauchen.
Und es wird massiv am Spiel liegen, ob Intel oder AMD mehr Energie verbraucht, und auch welche FPS dabei herauskommen.

Ein altes Spiel, dass nur wenige Kerne nutzt, kann bei Zen2 durchaus ineffizienter sein....ein modernes DX12 Spiel, dass 8 Kerne zwar nicht voll auslastet, aber zumindest hoch auslasten kann, wird bei Intel ineffizienter laufen.

Müsste halt mal jemand zuverlässig messen.
Aber da braucht man schon zwei Strommesszangen und ein riser cable für die Grafikkarte, bei dem man die 12V Versorgung getrennt messen kann.

Und dann kann man auch anfangen die verwendeten Mainboards in Frage zu stellen....gibt ja unterschiedlich effiziente Spannungsversorgungen und bei X570 verbraucht der Chipsatz nochmal unnötige 9W mehr....aber X470 verwenden ist auch problematisch, da es kein PCIe 4.0 bietet....
Und man muss gucken, dass auch beide CPUs im CPU limit sind(Intel ist bei Spielen ja teilweise schneller und dann eher im GPU limtit), und und und.
 
  • Gefällt mir
Reaktionen: Der Paule
ZeroZerp schrieb:
[...]Man sollte NIE - und ich betone es NIEmals seine eigene Sichtweise auf ein allgemeingültiges Szenario produzieren, wer was zu brauchen hat, oder für wen was sinnlos ist.[...]

Hey, leben und leben lassen.

Aber genau wie es Jedem frei steht zu kaufen, was er/sie will, steht es mir auch frei das zu kritisieren.

Ob das jetzt in meinen Augen absurde 700 irgendwas ppi bei Sonys 4K Smartphones sind oder 5ms Unterschied in den Frametimes.

Ist doch auch bezeichnend, dass du bei DLSS genau anders herum argumentierst. Da sieht man den Unterschied nur bei 400% Vergrößerung im Standbild, nicht aber im laufenden Spiel, also ist die Technik gut.

Die im Spielbetrieb bisweilen eben so wenig wahrnehmbaren Framtimedifferenzen, die man erst in der Analyse in der Tabelle oder im Graph stehen hat, ist aber ne wichtige Sache?
 
@v_ossi Die Ergebnisse in Assassins Creed, SoTR, Metro, Anno und Far Cry 5 sind nur eben nicht ausschließlich messbar sondern eklatant spürbar. Obwohl es da um "geringe" Margen geht. Das hier ist kein reiner Selbstzweck. Das sieht man wie gesagt ganz genau, wenn man die Einzelergebnisse vom vorherigen Test in 1440p anschaut.
 
  • Gefällt mir
Reaktionen: gunmarine
@Rage

danke für den Hinweis, hätte ich mich bis dort durchgelesen, hätte ich mir meine Beiträge sparen können. Genau das wollte ich wissen.
 
  • Gefällt mir
Reaktionen: Rage
Baal Netbeck schrieb:
Guck einfach mal in den neuen Test von heute....Die AMD CPUs brauchen für die 4,5-4,7GHz auf einem Kern mehr Energie als Intel für 5,3GHz....und sind langsamer.

Meinst du das hier? https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/4/

Da geht die 3900X von 57W auf 99W, und der 10900K von 47W auf 97W.

Der Ryzen braucht hier also weniger mit 42W vs 50W, also stimmt das hier nicht ganz. Klar, der Ryzen hat im Endeffekt einen höheren Verbrauch, aber das liegt an dem höheren Idle und nicht weil es mehr Watt braucht einen Kerne auf Vollbetrieb zu bringen. (Dummes I/O Chiplet halt. :P Aber zum Glück kann man den noch undervolten.)

Beim 9900K wären es noch +43W.

Ändert jetzt vielleicht nicht viel an deinem Hauptpunkt, aber die "Schuld" am höheren Verbrauch liegt nicht in den Kernen selbst.
 
@sil79 Den Kommentaren nach zu urteilen hätte es aber nichts genutzt, das in den Test zu schreiben. Hätte ich natürlich machen können, aber dass das die Leute so stört ist mir erst beim Kommentare lesen aufgefallen.
 
Naja das Problem ist, durch die Unterschiedliche HW, kommt dann ganz fix der Gedanke, das dadurch doch irgendwie Leistung verloren gehen könnte. Ist ja auch was manche Testen, wo gerade bei den Apu´s 2400er Ram genommen wird und dort dann wirklich Leistung verloren geht, was dann mit 3200er Ram schon ganz anders aussieht. Ich habe ja selber den Ryzen 5 2400G und den Ryzen 5 3400G.
 
HerrRossi schrieb:
Da weiß ich nicht, wie die das messen....vermutlich nur das Netzteilkabel zur CPU Versorgung.

Ich habe ja nicht bestritten, dass Zen2 viel effizienter sein kann, als Intels 14nm....irgendwie logisch.
Aber guck mal in den Test von CB:
https://www.computerbase.de/2020-05...600k-test/4/#abschnitt_die_leistungsaufnahme_
Ein 9900K ist da bei single core Last bei 74W und der Konkurrent in Form eines 3700X bei 84W.

Und der neue 10900K macht seine 5,3GHz bei 97W und der 3950 seine (manchmal) 4,7 bei 101W.

Das ist halt das Gesamtsystem....und das zählt für mich schon dazu, denn ich kann mir ja nicht einen AMD Prozessor auf ein Intel Board schrauben.

Auf die Temperaturen möchte ich nicht groß eingehen, da diese anders erfasst werden und man die nicht vergleichen kann, aber ich habe schon sehr viele Beiträge hier im Forum gesehen, wo Leute in Spielen viel höhere Temperaturen mit Zen2 sehen, als bei Vollast....In Spielen, wo der Boost hoch geht werden die Kerne also sehr ineffizient betrieben.

.....und diese "Quelle" von PCGH zeigt doch arg fragwürdige Ergebnisse!
Ein 3600X verbraucht 1W mehr als ein 3700X...Naja okay
Ein 8700K verbraucht nur 1W weniger als ein 9900K...Hmm
Der 3950X braucht trotz viel besserem Binning, der ihn in vielen Multicore Vergleichen weniger oder ähnlich verbrauchen lässt, bei PCGH plötzlich 35W mehr??? Wenn seine viele 4 Kerne mehr ein Problem wären, würde der 3900X nicht unterhalb eines 3700X liegen.

Das ergibt doch einfach keinen Sinn diese Liste die PCGH da aufgestellt hat.
Keine Ahnung ob die falsch messen, oder die Systeme anders konfigurieren....ander Grafikkarten oder Settings verwendet haben.

Ich meine es ist ja wichtig, ob die CPU 60 mal die Sekunde Drawcalls berechnen muss, oder 120 mal...irgendwas ist da faul.
 
Zuletzt bearbeitet:
Zurück
Oben