Test CPU-Spieleleistung im Test: Intel Core i9-9900K vs. AMD Ryzen 9 3900X mit RAM-OC

@Tonks

Hwinfo, Afterburner. Such dir was aus alle zeigen das Gleiche an. Ist ja auch logisch. Kein Spiel nutzt nur einen Kern. Warum sollte da auch der SC Boost anliegen.
 
WIESO WURDE DER AMD PROZESSOR NICHT ÜBERTAKTET ????

Da wollte ich den Themenersteller für seine vorbildliche 720p Testaufstellung ohne die üblichen sinnlosen Grafiklimits loben, und dann kommt das.

Klar gewinnt ein stark übertakteter Intel Prozessor gegenüber einen nicht wirklich (händisch) übertakteten AMD Prozessor höher als man denkt.

Ich bin mir schon im Klaren darüber, dass der AMD Prozessor bei der Kernanzahl und der Takthöhe bereits ziemlich am Limit läuft und das man da keine 400mhz mehr erwarten darf.
Aber einfach nur im Bios PB OC aktivieren und hoffen, dass da überhaupt etwas passiert, dass kann jeder sofort verneinen.
Das war schon direkt bei der Veröffentlichung festgestellt worden.
Mein Prozessor, ein 3700X, macht auch keine Anstalten, sich da völlig anders als normal einzustellen.
Man muss zwingend selber Hand anlegen, dann geht auch was.
Natürlich deaktiviert man damit alle automatischen Stromsparmechanismen, weshalb die durchgängig höhere Stromaufnahme nicht nur in den Spielen selbst kaum gerechtfertigt werden kann.
Das ist eher was für später, wenn man noch keine Lust auf einen Neukauf hat und dann noch die letzten 200 oder gar 300mhz rausquetschen will oder muss, damit die Grafikkarte noch ausgelastet werden kann.
 
Ja Moment mal, ich bin ja nicht vollkommen verschattet in der Birne. .

Das eine System hat eine geköpft CPU und eine wassergekühlte 2080 TI und das andere System nicht?!
 
Das Ziel dieses Tests ist, einen Überblick über die Leistungsfähigkeit des Core i9-9900K und des Ryzen 9 3900X in einer Auswahl von acht Spielen zu erhalten. Es handelt sich also hauptsächlich um einen CPU-Test. Da die Renderauflösung nichts mit dem Prozessor zu tun hat, sondern ausschließlich die Grafikkarte belastet, wird in einer möglichst niedrigen Auflösung (meist 720p) getestet.
Ich glaube, die Aussage stimmt so nicht. Die Renderauflösung scheint das Threading der Grafiktreiber zu ändern. Schaut man sich z.B. den neuen R3 3300X an, ist dieser in den Frametimes in FullHD 3% schneller als ein R5 3600, in UHD aber ist der 3600 3% schneller. Das System ist ja sonst gleich, kann also keinen Unterschied machen, also muss die Auflösung hier einen Unterschied machen. Und da sieht man, dass die 4-kerner bei UHD deutlich im Vergleich zu FullHD verlieren (auch ein R5 2600 ist auf einmal weiter vorne, der i7-8700k hängt den R3 3300X deutlich ab). Daher kann man meiner Meinung nach die 720p Tests nicht einfach auf höhere Auflösungen umlegen, denn dazu gibt es in den Tests einfach zu viele abweichende Ergebnisse. Die 720p Tests lassen Tendenzen erkennen und zeigen auf, was maximal an FPS möglich ist, aber der Abstand und die Reihenfolge der CPUs kann sich bei höheren Auflösungen durchaus ändern. Das habt ihr in euren Tests schon mehrfach gezeigt.
 
  • Gefällt mir
Reaktionen: Smartbomb
Leider fehlt mir für RAM Optimierung bisschen die Zeit. Aber mit 8 Riegeln 3000 CL15 wird schon passen fürs erste^^ wichtig ist mir vor allem dass keine Datenfehler auftreten da spiele nur eine Nebensache sind passts so wie es ist.

Und wenn ich doch mal spiele ist GPU Limit mein zweiter Vorname.

Unter normalen Bedingungen nehmen sich die CPUs beider hersteller nicht mehr viel. Wer aber das Geld und die Zeit in entsprechende Ausrüstung steckt und eigenhändig nachoptimiert wird feststellen dass gaming eben noch eine Intel Domäne ist. Mal sehen wie das in Zukunft aussieht, aber für gamingenthusiasten, die jeden frame brauchen und der Preis egal ist, ist die Wahl des Prozessors durchaus noch relevant und das zeigt der test sehr gut. Auch wenn man sagen muss dass hier viele Spiele getestet wurden die AMD Traditionell schlecht liegen, hätte man eine breitere Datenbasis und würde in guter Statistischer Manier die Ausreißer nach oben und unten rausnehmen lägen beide CPUs noch etwas näher zusammen.

Aber das sollte man nicht erwarten von einem externen test, der ist so wie er ist klasse! Riesen Lob für den Aufwand! @Esenel

Der Rest kauft für 170 Euro nen 3600 und ist glücklich :D sind aber zwei verschiedene Sorten von Spielern deshalb spielt das für diesen test keine Rolle
 
  • Gefällt mir
Reaktionen: Esenel
Überall liest man, der 3900 lässt sich quasi kaum übertakten, also ist das auch nicht relevant. Aber beim Intel eigentlich ja auch nicht, stock reicht bei beiden völlig, um vergleichen zu können.
 
Ich verstehe den Sinn für das Testen in 720p nicht. Ich möchte erfahren. ob mir die übertakteten CPUs in Verbindung mit dem RAM OC einen Vorteil in realen Auflösungen wie 1440p und 2160p bringen. Und die Ergebnisse mit 720p linear auf die höheren Auflösungen "hochzurechnen" ist eine "Annahme" und keine Tatsache.

Also weiß ich jetzt, dass ich als professioneller CS Spieler einen 9900K brauche (720p, minimale Details, über 500fps). aber was passiert in den Auflösungen die ich wirklich benutze? Die Grenzen zwischen GPU und CPU Limit sind ja manchmal fließend und liegen bei verschiedenen Spielen nicht im selben Bereich .
 
nagus schrieb:
1. blödsinn: das kann 18° bringen!
Ja, weil er den Heatspreader gleich ganz weg lässt. Kann man natürlich machen, ich würde das bei einer CPU > 700€ nicht tun.
 
Supermax2004 schrieb:
Überall liest man, der 3900 lässt sich quasi kaum übertakten, also ist das auch nicht relevant. Aber beim Intel eigentlich ja auch nicht, stock reicht bei beiden völlig, um vergleichen zu können.

Es gibt den Vergleich Stock vs Stock, wie es von den Herstellern als Produkt präsentiert wird.

Es gibt, wie hier, den Vergleich mit den maximalen Möglichkeiten. Niemand holt sich derzeit DDR4-2666, wenn DDR4-3200 weniger Geld kostet. OC ist bei AMD dank des Boost nicht möglich oder notwendig, aber bei Intel nach wie vor eine Option. Dann spielt das Geld die letztlich entscheidende Rolle. Im Gegensatz zum Stock Test ist der Custom Test abhängig von den realen Möglichkeiten.
 
Dickes Dankeschön für den Test und den damit verbundenen Mühen :daumen:
 
  • Gefällt mir
Reaktionen: Colindo und Esenel
Supermax2004 schrieb:
Überall liest man, der 3900 lässt sich quasi kaum übertakten, also ist das auch nicht relevant. Aber beim Intel eigentlich ja auch nicht, stock reicht bei beiden völlig, um vergleichen zu können.
Er lässt sich aber durch CCD OC ein gutes Stück tunen, wenn man also einen OC 9900K mit OC Speicher dagegenstellt, hätte man das auch für den 3900X versuchen können.
(Edit: Wurde von der OC Community wohl als nicht lohnend festgestellt)


Im Allgemeinen suche ich nun aber vergeblich nach den so oft genannten 20-30%, die ein 9900K fast überall vor einem 3900X liegen soll, wenn beide mit 3200er RAM betrieben werden.
Ich sehe hier +9% bei den FPS und -1% bei den Frametimes
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Windell, GUN2504 und 4 andere
1589886561912.png


Ein Wattmeter Diagramm fehlt!
Sowas kostet keine 20,- € (Sonoff Pow) inkl. Ausgabe auf Android. Eure Leistungsangabe ist unbrauchbar.
 
Lonesloane schrieb:
Ich verstehe den Sinn für das Testen in 720p nicht.

Man versucht die reine Leistung mittels 720p zu messen, damit man die Grafikkarte als Limit ausschließen kann. Dann siehst du die reine Rohleistung. Das sagt dir dann, dass CPU 1 > CPU 2 ist. Für sich stimmt das auch. Dann kannst du die Leistung der CPU 1 heute nicht ausnutzen, weil du nur eine 970 4gb hast. Aber in 3-4 Jahren kannst du die Leistung in fast jedem Spiel nutzen, da deine neue 4080Ti mehr CPU Leistung benötigt. Und dann gibt es noch 100 Spiele, welche jedes für sich anders CPU Leistung anfordern.
 
  • Gefällt mir
Reaktionen: Smartbomb, Pjack, Der Paule und 2 andere
Lustig ist wie viel Watt das Netzteil für das Testsystem für AMD bereitstell muss - 550Watt und das von Intel -1000Watt
 
Hab da auch ne Frage die vom Test leider nicht so recht beantwortet wurde bzw. wurde sie vielleicht doch und ich habs nicht kapiert.

Mein Usecase (iRacing) ist eher auf Single Core Leistung ausgerichtet (iRacing nutzt nur zwei Kerne).

Wie groß ist denn der Unterschied vom aktuellen Ryzen zum 9900k in der Single Core IPC? Kommt man sich nah?
 
Lonesloane schrieb:
Ich verstehe den Sinn für das Testen in 720p nicht. Ich möchte erfahren. ob mir die übertakteten CPUs in Verbindung mit dem RAM OC einen Vorteil in realen Auflösungen wie 1440p und 2160p bringen. Und die Ergebnisse mit 720p linear auf die höheren Auflösungen "hochzurechnen" ist eine "Annahme" und keine Tatsache.

Also weiß ich jetzt, dass ich als professioneller CS Spieler einen 9900K brauche (720p, minimale Details, über 500fps). aber was passiert in den Auflösungen die ich wirklich benutze? Die Grenzen zwischen GPU und CPU Limit sind ja manchmal fließend und liegen bei verschiedenen Spielen nicht im selben Bereich .

Das steht doch im Artikel unter dem Abschnitt drin "Aber niemand spielt in 720p!" drin. Damit gezeigt werden kann, was die CPU an sich für fps ohne den Einfluss der Graka liefern könnte. Für Spiel x in Auflösung y ist der Techniktest des jeweiligen Spiels dafür besser aussagend. Da gab es ja letztens erst hier auf CB eine Testreihe beliebter Spiele.
 
  • Gefällt mir
Reaktionen: Pjack, Esenel und Matthias80
Arkada schrieb:
Was verbraucht ein übertakteter i9? 200W?

Sorry, aber für mich sieht das aus als ob Intel mit der Brechstange versucht hat den längsten Balken zu behalten.
Dass man dafür mehr Geld bezahlen und deine deutlich höhere Leistungsaufnahme (ca. 70% mehr) in Kauf nehmen muss, sollte deutlich benannt und den Leuten bewusst gemacht werden.

Es gibt Mainboardhersteller, die den Intel i9 9900K bereits von Haus aus mit 200Watt Stromaufnahme voreingestellt ausliefern. Deshalb gewinnt er die Tests auch alle locker gegen diverse 65/95W AMD Gegenstücke, vor allem bei speziell ausgesuchten Tests, die wenig Kerne auslasten.
Er kann auch im Extremfall 210W schaffen, der KS sogar bis zu 250W.
Der 10900 wird ja sofort mit 250W ausgeliefert, hat aber auch 2 Kerne mehr.
Für Übertakter, die unbedingt die 5Ghz auf allen Kernen sehen wollen und auch mit Wasserkühlung hinbekommen, ist das sicher eine tolle Sache, denen die Stromkosten total egal sind.
In den Spielen bringt das jedoch kaum etwas, weil in den allermeisten Spieleszenarien immer die Grafikkarte das grundlegende Limit setzt.
Es ist eine einfache Kosten-Nutzen Frage, die man bei jedem Hardwareprodukt antrifft.
Ich würde mir eher mehr Kerne für weniger Geld kaufen, um da dann länger mit fahren zu können.
So habe ich es auch mit der neuen NVME SSD gemacht. Lieber 2TB für 200 Euro und nur PCI-E 3.0 mit ca. 3GB/s "bis zum Anschlag" ausreizen, als nur 1TB, dann aber mit PCI-E 4.0 und "sagenhaften" 5GB/s.
Ob ich den Leistungsbonus jemals spürbar irgendwo abrufen würde, ist mehr als fraglich, den Speicherplatz(mangel) werde ich jedoch irgendwann sicher deutlich(st) wahrnehmen.
So war es vor Jahren mit SMT/HT, und heute halt auch mit dem einen oder anderen Kern mehr.
Damals war man doof, wegen Crysis gleich 80 Euro mehr für einen 3770k auszugeben, 7 Jahre später lachte man nur noch darüber, wie billig man sich doch so lange hat durchschlagen können. :-)
 
  • Gefällt mir
Reaktionen: Matthias80
Für mich liest sich das so: Jammern auf hohem Niveau!
 
  • Gefällt mir
Reaktionen: Twin_Four
@Hades85 Die Größe des Netzteils hat doch nix mit dem Verbrauch des Systems zu tun...
 
  • Gefällt mir
Reaktionen: Esenel
Zurück
Oben