Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Wie ich prognostiziert hatte. Rücklichter für 13900K(S) in FPS und Effizienz.
Der kommende 7800X wird das beste Gaming-Produkt dieser Generation am Markt werden.
Damit ist AM5 die Plattform für die aktuelle Spitzenleistung und auch die kommende.
Heißt, ich werde auf den 8800X3D warten und dann erst auf AM5 umsteigen.
So lange reicht mein langsamer, getunter X5800X3D noch^^

PS: Diablo2 R in den Testparcours aufzunehmen kann man nur als Fail bezeichnen. Genausowenig sinnvoll wie CS:Go oder CS:S oder CS 1.3 :D
Ansonsten starker Test, danke fürs RAM-OC Testing!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slayher666
Gut der niedrige Verbrauch wird halt ner 360er AiO zugute kommen, aber ist die CPU da wirklich in so viel leiser als nen 13900k?
Ist es nicht nur messbar sondern auch spürbar?
 
Onkel Föhn schrieb:
Bei NEUEN Games wird es allerdings eng für die "Schnellste" und dann gibt´s da ja noch die stetigen Wundertreiber ... :evillol:
Sind wir jetzt wieder so weit, dass du uns mit Cherrypicking erklären willst, weshalb die 7900XTX schneller ist als eine 4090?
 
  • Gefällt mir
Reaktionen: BlechBuechse_DE und Slayher666
+++ schrieb:
Und wo liegt der Sinn in einem Strategiespiel ~450 FPS zu haben.
Da reichen doch bereits 60 FPS aus.:lol:
Das ist natürlich sehr subjektiv, aber ich spiele mein geliebtes Anno viel lieber auf 120FPS als auf 60. Insbesondere die Mikroruckler von der CPU (und GPU-seitig matschige Texturen wegen zu wenig Speicher) stören mich einfach.
Jedes Einstiegshandy bringt butterweiche 90+FPS, warum sollte ich dann bei meinem Hobby drauf verzichten, gerade wenn man gerne mal "schön" baut und sich das Gewusel ansieht?

Hast natürlich recht, dass man nicht stirbt wegen weniger Frames, wie bei Shootern. Aber in fast allen Spielen wollen die Leute doch mehr FPS weil es "schön und angenehm" ist, und nicht, weil es "muss".
 
  • Gefällt mir
Reaktionen: Rambo5018
Zwirbelkatz schrieb:
Updates per second werden da wohl zugrunde gelegt. Keine Frames. In anderen Titeln des Tests ist von Frames die Rede. So wie ich das verstanden habe knickt, bei entsprechend großer Fabrik im Spiel, trotzdem jede CPU weg.
@DerRico
Bei Factorio geht es in dem Benchmarks darum wie viele UPS (Update per second) die CPU in einem festen Savegame einer für Benchmarks fest vordefinierten Szene noch schafft.
Es ist korrekt das die Simulation auf 60 UPS Standard beschränkt ist. Man könnte mit Konsolenkommando auch das Spiel 5x schneller laufen lassen, dann bräuchte man 300 UPS. Geht das Spiel unter 60 UPS, wird es entsprechend langsamer in der Simulation, auch wenn man noch 600 fps über Grafik schafft. Grafik und Simulation sind also "entkoppelt".

Große Fabriken brauchen viel mehr Bearbeitungszeit auf der CPU, das kann man sich alles in Rubriken in ms anzeigen lassen, wenn man mag.

Punktum brauchen Gigafabriken immer eine massive CPU und gute RAM Anbindung. Bisher beschränkten ausschließlich diese die Größe der Spielerfabriken. Wobei das nur verrückte betrifft. Normale Spieler haben eh keine Probleme.

Aber wer Factorio mit PyMod etc. pp. spielt kommt sonst am Ende auf nur noch 2 UPS mit Gammelcpus bei Quadratkilometer großen Fabriken. Von Multiplayer rede ich mal gar nicht erst, wenn x Personen gleichzeitig anfangen durchzudrehen. Das Spiel begrenzt eben den Spieler nicht, man kann quasi beliebig später die Karte automatisiert vollpflastern.

Persönlich kam ich mit meinem alten 5820k schon an die Grenze, da war ich aber noch etwas grün und achtete gar nicht auf die Rechenoptimierung der Fabrik. Wenn 200 Haltestellen mit Zügen gleichzeitig zweifelhafte Wegfindung (eigenes Schienennetz), Abladelogik (Balancer) und Roboternetz nutzen war es halt bisschen schwierig. Den 5900X habe ich bisher nicht knacken können.
 
Zuletzt bearbeitet:
Eli0t schrieb:
Das mußt Du wissen, ob es Dir das Wert ist... Wenn das deine Hauptspiele sind, dann macht es vermutlich Sinn, mußt nur deinen alten 7950X los werden :)
Man weiß, dass man auf einem Computer-Forum ist, wenn man "7950X" und "alt" in einem Satz liest.
 
  • Gefällt mir
Reaktionen: trb85, BlechBuechse_DE, bad_sign und 10 andere
Erstmal vielen Dank fürs Testen und fürs Update. 👍

Der R9 7950X3D ist schon eine schöne CPU.

Mir persönlich reicht aber mein R9 3900XT noch vollkommen aus, vielleicht hole ich mir mal später den R9 5900X oder den R9 5950X.

VG
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und Klever
Sinatra81 schrieb:
Also mir fehlen hier definitiv noch Ergebnisse in 480p und 240p. Vorher kann ich keine Kaufentscheidung treffen! 🤦🏻‍♂️

Kann doch nicht so schwer sein, mal die Auswirkungen einer neuen CPU in WQHD oder 4K zu testen.
Niemand mit 7950x3d zockt 720p! 😒
Eine CPU liefert immer gleich viel Daten, unabhängig von einer Auflösung.
Möchtest du wissen wie viele der gelieferten Daten GPU x in Auflösung y umsetzen kann schau dir GPU Tests und die für dich interessanten Spiele an.
 
  • Gefällt mir
Reaktionen: iron_monkey, Atnam, MrHeisenberg und 4 andere
SavageSkull schrieb:
Ich kaufe in 2023 keinen 8 Kerner mehr, wenn ich im Preisbudget >400€ unterwegs bin. Auch mit Fokus auf Spiele ist das für mich nicht mehr Zeitgemäß. Der 8/16er heute ist der 4/8er aus 2018.

Hm kommt drauf an wie lang man ihn nutzen will, wenn man zum nächsten "Refresh" noch AM5 hat sollten 8 Cores sicherlich noch reichen.
btw 2017 war mit Zen1 im Mittel und Highend Segment schon 6 und 8 Cores verfügbar. Wirklich viele Spiele die das bisher genutzt haben, gabs noch nicht afaik.
 
Ich finde es auch weiterhin lächerlich und fast schon Täuschung ausschließlich 720p Benchmarks zu zeigen und dann auch noch den "Gaming König" aufgrund dieser zu küren.

Wir hatten die Diskussion schon so oft und die Antwort ist so simpel: einfach in 720p UND 4k testen und alles ist klar. Kriegen andere problemlos hin, bei CB weiterhin Fehlanzeige.

Ich würde mir als Leser von CB sowas von verarscht vorkommen, wenn ich mir aufgrund dieser 720p Benchmarks einen X3D oder 13900K zulege und dann in meiner Konfig und meinen Spielen in meiner Auflösung keinerlei Vorteil sehe.

Für den durchschnittlichen Leser sind diese Benchmarks auch weiterhin nutzlos und verwirrend, da er/sie nicht in der Lage ist das Ergebnis korrekt zu beurteilen und auf die eigenen Bedürfnisse zu übertragen. Ich sehe solche Werte und finde sie auf theoretischer Ebene durchaus interessant, aber für mich persönlich ist die Aussagekraft absolut null, da ihr weder meine Spiele noch in meinen Einstellungen getestet habt.

Nur mal so als reales Beispiel: ich spiele derzeit mit Star Citizen und Escape from Tarkov zwei Spiele, die sehr stark von dem X3D profitieren und zumindest bei EfT kann ich das bestätigen. Bei SC habe ich aber derzeit deutlich weniger fps als ohne X3D und eine 7xxx CPU ohne X3D wäre trotzdem schneller, da eine höhere Taktfrequenz ähnlich viel wie der 3D cache bewirken kann.

Da die Fälle so unterschiedlich und speziell sind, finde ich es von CB einfach mies den 7950X3D als Gaming-King hinzustellen, wenn das einfach nicht der Realität der Meisten entspricht. Ja, es ist der 720p King, aber sonst auch nichts.

So, genug gemeckert, in Zukunft werde ich CPU-Tests bei CB einfach meiden.
 
  • Gefällt mir
Reaktionen: rafiibs, Asder, Tomi_92 und eine weitere Person
aLanaMiau schrieb:
Hm, versteh ich den test nicht richtig? Singlethread ist der ryzen doch 10% langsamer als ein I9, und das ist doch in 99% aller Fälle der Flaschenhals und entscheidet ob die gpu vernünftig ausgenutzt wird?...Mal abgesehen von den paar superoptimierten Spielen die wirklich alle Kerne benutzen können und somit eh nie in cpu Limit hängen würden?
Kommt drauf an. Wenn Deine Engine in den Cache passt, dann wiegt sich das locker auf, weil ich nicht mehr auf den RAM zugreifen muß. Das ist alles ein "tradeoff". Dann ist es egal, ob die CPU ansich 10% langsamer ist, weil die Latenz wesentlich mehr Leistung frisst.
 
So wie es aussieht wird der ganze Spaß ein Paperlaunch werden... Zumindest sind bei Cyberport und Notebooksbilliger keine CPUs im Laden angekommen und sie meinten wenn dann wirds im Onlineshop verkauft.
Bin gespannt welche Shop wirklich ab 15Uhr was haben.
 
Bruder_Joe schrieb:
Eine CPU liefert immer gleich viel Daten, unabhängig von einer Auflösung.
Möchtest du wissen wie viele der gelieferten Daten GPU x in Auflösung y umsetzen kann schau dir GPU Tests und die für dich interessanten Spiele an.
So ist es. Ich verstehe es echt nicht, wieso hier einige 4k Benchmarks fordern.
 
  • Gefällt mir
Reaktionen: Rambo5018, Slayher666, McFritte und 2 andere
Tingel schrieb:
Da die Fälle so unterschiedlich und speziell sind, finde ich es von CB einfach mies den 7950X3D als Gaming-King hinzustellen, wenn das einfach nicht der Realität der Meisten entspricht. Ja, es ist der 720p King, aber sonst auch nichts.

So, genug gemeckert, in Zukunft werde ich CPU-Tests bei CB einfach meiden.
Ich schaue, welche GPU meinem Budget entspricht -> Check
Ich schaue mir GPU Benchmarks an -> Check
Ich schaue mir CPU Benchmarks an -> Check
Ich Checke, ob die CPU die FPS leisten kann -> Jetzt kann ich abschätzen, ob ich eher im CPU oder im GPU Limit mit meinem Setup lande.
 
  • Gefällt mir
Reaktionen: DeMeP
Tingel schrieb:
Ich finde es auch weiterhin lächerlich und fast schon Täuschung ausschließlich 720p Benchmarks zu zeigen und dann auch noch den "Gaming König" aufgrund dieser zu küren.
Es zeigt die Performance die zu erwarten ist, wenn die CPU 1-3 Jahre später verwendet wird.
Du kannst ja gerne bei Igors Lab etc. schauen wie sinnvoll die 4k Benches / CPU für bsp. dich sind.
Normal ergibt diese CPU aber für fast keinen Spieler Sinn. Da die Grafikkarte viel eher begrenzt (außer maybe bei min fps in 4K). Aber man vergleicht halt CPUs, nicht GPUs, da ist 720p schon korrekt.

Tingel schrieb:
Nur mal so als reales Beispiel: ich spiele derzeit mit Star Citizen und Escape from Tarkov zwei Spiele, die sehr stark von dem X3D profitieren und zumindest bei EfT kann ich das bestätigen. Bei SC habe ich aber derzeit deutlich weniger fps als ohne X3D und eine 7xxx CPU ohne X3D wäre trotzdem schneller, da eine höhere Taktfrequenz ähnlich viel wie der 3D cache bewirken kann.
Wenn du für deine Spiele Werte hast, welche hier gar nicht getestet werden, kannst du logisch gesehen den Test hier nicht kritisieren, da er in diesem Gaming Parkour nun mal Fakt schneller ist. Besser wäre es zu kritisieren welche Spiele in der Benchmarksuite sind und zu fragen wieso SC oder Escape from Tarkov nicht dabei sind. Vielleicht hat das sogar schon mal wer beantwortet wieso diese Spiele sich nicht zum Benchen eignen.

Selbstverständlich ist es aber abhängig von dem Spiel. Ich kann halt auch sagen das es in meinen Spiel +73% zu allen anderen CPUs ist und alle anderen als "Täuscher" bezichtigen da der 7950X3D dort Kreise um alle Intels/non-X3Ds zieht.

Tingel schrieb:
So, genug gemeckert, in Zukunft werde ich CPU-Tests bei CB einfach meiden.
Für eine genaue Übersicht der Ergebnisse des Launches empfehle ich dir ansonsten 3DC. Diese werden sicher bis Ende der Woche eine Vergleichsanalyse zwischen allen Fachseitentests haben.
Computerbase ist da relativ oft gut mit dabei.
 
  • Gefällt mir
Reaktionen: trb85
DaBas schrieb:
Ähm doch. Intel wird in Punkto Effizienz um mehrere Lichtjahre deklassiert.
Moin Moin,

Ich muss dazu einfach was sagen, weil es immer wieder falsch dargestellt wird: Ein Lichtjahr ist keine Zeitspanne, sondern eine Strecke bzw. Entfernung zu einem astronomischen Objekt in Kilometern. Es wird zum Entfernungen messen benutzt, nicht um ein Jahr der Zeitspanne länger oder großer auszuschmücken. Und wenn man es genau wissen will, sind das reduziert auf 2 Nachkommastellen 9,46 Billionen Kilometer. Intel ist also 2 Lichtjahre, (18,92 Billionen Km) von AMD entfernt? Soso....

Ich sehe das wie folgt: AMD hat ein Spitzenprodukt hingelegt, gar keine Frage. Mit diesem hat AMD zweifelsfrei zu Intel aufgeschlossen in realistischen Auflösungen, also WQHD und 4K oder Ultrawide etc, und das bei deutlich weniger Energiebedarf. Die echten Werte, sowohl was die Performance, als auch den wahren Energiebedarf angeht, wird die Zukunft zeigen. Die Performance ist auf einem gleichen Level, daher hier ein Patt. +-3% waren normalerweise immer Messungenauigkeit! Hier wird das auf die Goldwaage gelegt wer mehr hat. Aber Endnutzer haben dann doch oft noch andere Erfahrungen, als Magazine! Das darf man nicht vergessen. Man kann einen Test immer in die eine oder andere Richtung lenken.

Die Energiebedarfe weichen sehr stark voneinander ab. Da ist AMD deutlich besser. Ein Wahnsinn an Effizienz! Mit der Aussage zu Intel aufgeschlossen möchte ich niemandem zu Nahe treten oder irgendein Produkt schlechter oder besser machen, aber die Leistung des 13900K lag bereits "Geldverschwendern wie mir" bereits im September vor, während die Ryzen 7000er das Nachsehen hatten. Jetzt sind die X3Ds halt genauso schnell, aber eben bei sehr viel weniger Energieverbrauch. Das bessere Produkt ist ganz klar AMDs X3D 7000er Serie, aber eben kein Wunderwerk der Technik. Hier sehe ich beide ebenbürtig: Der eine, AMD, hat die modernen Prozesstechniken und Fertigungsverfahren, hat dadurch die Effizienz und Leistung auf dem aktuellen Niveau, und der andere, Intel, hat seine Prozesse und Verfahren so dermaßen im Griff, dass die Leistung ebenfalls spitzenmäßig ist aus einem nicht ganz so modernen Verfahren, wenn auch erkauft durch hohen Energiebedarf!

Um es kurz zu machen: Es gibt kein besser oder schlechter, schon gar nicht in reelen Auflösungen wie oben benannt.

PS: Ein Lichtjahr ist eine Strecke, kein Zeitangabe! :)
 
  • Gefällt mir
Reaktionen: bad_sign, H6-Mobs, Kommando und 3 andere
Passt aber doch in den Kontext, wenn Lichtjahre als Synonym für Abstand herangezogen wird.
 
  • Gefällt mir
Reaktionen: trb85 und Slayher666
Hallo 7950x3D
Auf Wiedersehen 7950x.

Ich fiebere schon dem Verkaufsstart entgegen.

Wer Interesse an einem 7950x ungeöffnet hat kann mich gerne anschreiben
 
Helge01 schrieb:
@r_p Dort wird ein kompletter PC getestet mit irgendwelchen Komponenten, das sagt aber nicht über den reinen idle Verbrauch von der CPU aus.
Den ganzen PC zu betrachten ist das Einzige, was Sinn ergibt.
Die Prozessoren sind zu unterschiedlich um sich nur diesen Anzusehen.
Stellt der Prozessor USB-PCIe-Lanes und SATA bereit und wieviele davon oder macht das ein externer Chipsatz, der dann nicht auf dem Konto erscheint?
Oder man schaut sich den reinen Strombedarf der Rechenkerne an - geht ja auch - die Chipsatzfunktionen bleiben außen vor.
 
Zurück
Oben