Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Badly schrieb:
Aber wer will den in Gottes Namen 2023 noch nen fucking Bottle Neck Benchmark in 720p sehen.
Ehrlich???
Ich will das Ding in 1440p oder 4K sehen. Wo sind die Benchmarks.
du interessierst dich also anstelle von CPU Bottlenecks für GPU Bottlenecks, willst daher die GPU Bottlenecks bei CPU Benchmarkparcours sehen... vermutlich hättest du im Gegenzug dann die CPU Bottlenecks bei GPU Benchmarkparcours aufgezeigt?
 
  • Gefällt mir
Reaktionen: Kloin, msv und Dai6oro
Die Leistung und Effizienz mag ja alles toll sein und auch das es einen Gegenspieler für Intel gibt.
Bei den Preisen ist mir das aber schlicht egal, weil das so weit drüber ist über dem was ich für eine CPU zu zahlen bereit bin.
 
Also diese Effizienz ist ja mal abartig, wenn man es mit dem Intel Prozi vergleicht.
Ich bin wirklich beeindruckt. Ich habe zwar einen Apple M1 Chip in meinem Rechner, aber ich würdige jede Möglichkeit mehr Leistung pro Watt zu bekommen. :daumen:
 
rvnbld schrieb:
Der 7950X3D ist ein gutes Argument für den 7800X3D, wenn man wirklich nur spielen will, vor allem wenn sich nicht mit möglichem Scheduler/Treiber-Ärger herumplagen will. Allerdings ist der Hauptknackpunkt eben bei AM5 die Plattformkosten, die locker bis zu einem Viertel über der Konkurrenz liegen können und auch maßgeblich für die schlechten Verkäufe gegenüber dieser verantwortlich waren. Wenn sich das nicht ändert, werden auch die V-Cache-CPUs wie 10-t-Ziegel in den Regalen liegen bleiben.
Allerdings ist AMD da auch Opfer des eigenen Erfolgs.
Der 5800x3D war halt eine Jackpot CPU und neben den 7xxxern haben wir nun die 7xxxer3D.

Sogar die AMD Junkies haben prognostiziert, dass sich hier AMD selbst kannibalisiert, denn viele lauerten bis jetzt, um den 5800x3D hoffentlich noch günstiger abgreifen zu können, was ja WEITERHIN eine top Gaming CPU bleibt!

Wer nicht budgetieren muss, hat die Qual der Wahl bei AMD.
Wer budgetieren muss, ist mit einem 5800x3D als Gaming CPU WEITERHIN perfekt bedient, und wer "nur" nebenbei daddelt und viele Workflows hat, ballert mit einem günstigen 5950x dank 16 Kernen und 32 Threads weiterhin!
Habe den 5950x schon bei 450 Euro gesehen, das ist ein WITZ und absoluter Top Preis für die Computepower, konkurrenzlos.

Und diese Gruppe wird eben die 7000er mit und ohne x3D komplett überspringen.
Das ist irgendwie ein Luxusproblem für AMD, der sale bleibt ja in den AMD Büchern, aber die AMD Flotte ist nun so breit aufgestellt, dass man irgendwo Federn lassen muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: trb85, Snoop7676, danyundsahne und 2 andere
Maine schrieb:
Wobei die geringere Effizienz auch aus dem Blickwinkel des höheren Preises betrachtet werden muss. Bis man die Mehrkosten durch weniger Stromverbrauch reingeholt hat, dauert es Jahre.
Jein, weil in das Board kann ich eine 8000er CPU reinstecken während Du bei Intel 14th Gen wieder für ein neues Board Geld ausgeben darfst. So gesehen ist der 7950X3D eine gute Wahl, der 7900X3D hingegen nicht (außer AMD würde 8 Cores fürs Cachlet und 4 Cores für den Rest verwenden). Für Gamer ist sowieso nur ein 7800X3D sinnvoll.
 
  • Gefällt mir
Reaktionen: EyBananaJoe, trb85, Snoop7676 und 2 andere
Finde ich mega interessant, dass man mit der schnellsten GPU und CPU unter 400W kommt. Gefällt mir der Trend.
 
domian schrieb:
Denn andernfalls suggeriert das dem Standard-Leser, dass die CPU Spiele um xx% schneller macht.
Aber warum suggeriert Dir dann ein GPU-Test nicht, dass meinetwegen eine RTX 4090 beispielsweise 100% auf eine RX 6900XT drauflegt? Das geht ja auch nur dann, wenn Dein Prozessor das überhaupt mitmacht.

Im CPU-Limit kommen die Ergebnisse hier sehr gut hin. Und völlig unabhängig von der Auflösung gibt es einerseits einige Spiele hier im Parcours, die nicht im Bereich von 144-165 fps liegen, wo einige Leute für ihre Bildschirme gerne die Framecaps legen würden, und andererseits gibt es genügend Multiplayerspiele, die hier (verständlicherweise) nicht getestet werden, wo auch schon "sehr früh" ein CPU-Limit einsetzt. BF 2042 beispielsweise hämmert ordentlich.

Was an der Stelle sehr viel wertvoller ist, als mehr Auflösungen zu testen, ist jeweils die Topmodelle von AMD und Nvidia zu testen. Denn deren Treiber verhalten sich unterschiedlich und belasten die Prozessoren anders. In alten OpenGL oder DX9/10/11-Spielen beispielsweise kleben Radeons sehr gerne im Singlethread-Limit und Nvidia-Karten eben nicht. In Low Level-Spielen mit Vulkan, DX12 oder Mantle ist es oft umgekehrt, weil der Software-Scheduler von Nvidia dann eben Prozessorleistung kostet.
 
  • Gefällt mir
Reaktionen: daknoll
Ich habe einen Intel 6600 (4 Kerne), eine 1070Ti und spiele auf 3840*1600. Bisher war es dank G-Sync noch akzeptabel, 60FPS reichen mir, bin alt. :-). Aber bald wird Diablo 4 entscheiden, ob ich aufrüsten muss, wenn ich bei dem Spiel zu viele Details ausschalten müsste, wäre meine persönliche Grenze überschritten, dann wird es der 7800X3D.
 
  • Gefällt mir
Reaktionen: Laphonso
kicos018 schrieb:
Bei dem Preis bietet der 13900k immer noch das deutlich rundere Gesamtpaket.
Nur wenn man die nächste CPU Generation aussen vor läßt und wenn einem die Stromkosten kalt lassen.
Wenn Du Aufrüsten willst, bietet AMD das bessere Gesamtpaket. Für Spieler wird aber der 7800X3D die bessere und günstigere Wahl sein.
 
fox40phil schrieb:
und was genau hat man davon, wenn man gar nicht in 720p zockt? Dann nützen einem die Zahlen auch nichts.
Darum geht es gar nicht ;)
Natürlich spielt praktisch niemand in 720p. Es geht darum, dass in den meisten Spielen bzw. Spielszenen nahezu jeder moderne Prozessor genug FPS liefert, damit die Grafikkarte am Limit arbeitet und man eben dort hängt: im GPU-Limit.

Nun gibt es aber Spiele bzw. Spielszenen, die eine besonders hohe Prozessorleistung erfordern. Anno 1800 mit großer Stadt ist immer ein gutes Beispiel, aber auch Cyberpunk 2077 mit RT mitten in der City mit vielen NPCs.
Da dreht die Grafikkarte Däumchen und hängt mitunter auf nur 50% Auslastung.

Konkretes Beispiel: mein Anno 1800-Spielstand läuft normalerweise mit 90-120 FPS, ist jedoch der Stadtkern meiner größten Stadt im Bild, ist meine 4080 nur zu 50% ausgelastet und die FPS gehen auf 40-50 runter.
Das ist dann das CPU-Limit, die CPU liefert also (trotz 5900X in meinem Fall) nicht mehr als 40-50 FPS.

Und genau dafür testet man in 720p, denn das CPU-Limit ist fast nie dauerhaft gegeben, sondern nur in bestimmten Szenarien. Diese Szenarien für jeden Test exakt zu reproduzieren, ist unfassbar schwierig bzw. oft nicht möglich.

Das Runtersetzen der Auflösung auf 720p nimmt die Grafikkarte mehr oder minder aus dem Spiel und lässt bessere Rückschlüsse über die FPS zu, die die jeweilige CPU bieten kann. Tests in WQHD und 4K hängen praktisch dauerhaft im GPU-Limit und lassen keine Rückschlüsse auf die tatsächliche Prozessorleistung zu.

Stell es dir so vor: Du hast ein Segelboot mit Außenmotor, der dauerhaft mitläuft. Wenn der Wind richtig weht, kannst du den geilsten Motor der Welt haben, du merkst seine Leistung einfach nicht, weil das Segel mehr Vortrieb bringt.
Jetzt ist aber Windstille, das Segel fällt aus der Gleichung raus und du bist nur auf den Motor angewiesen. Und da merkt man dann eben den Unterschied zwischen schwachem und starkem Motor.
 
  • Gefällt mir
Reaktionen: Whetstone, Rockstar85, danyundsahne und 4 andere
Nicht schlecht. Bin zwar noch zufrieden was mein system betrifft aber immer schön zu sehen wenns voran geht.

Erschreckender ist aber hier in den Kommentaren zu sehen, wie wenig Durchblick die leute haben. Gerade im Hinblick auf das Geschrei des 4K tests.

Was soll sich den da ändern? Da dürften alle Balken etwa genau gleich lang sein. Die GPU ist doch in 4k ohnehin schon am Anschlag, was soll den da ne schnellere CPU daran ändern? Das dann in Afterburner plötzlich bei GPU 120% steht???

Ich glaub im einzigen szenario wo man wirklich nen unterschied sieht is wenn ich in 4K zocke und nen 7950 egen nen Pentium antreten lasse. Oh welch wunder.....
Und selbst da würde es mich überhaupt nicht wundern wenn bei einzelnen titeln kaum unterschied zu sehen ist, wenn 4K doch ohnehin fast immer die GPU als endgegner sieht.
 
DiePalme schrieb:
Das ehemalige Threadripper System meiner Frau hat trotz M.2 SSD immer deutlich über 1 Minute gebraucht bis das System tatsächlich einsatzbereit ist. Die Testsysteme auf AM5 in der Firma und einige AM4 Systeme hier brauchen auch fast 1 Minute. Alle Intelsysteme die ich habe oder hier auf Arbeit brauchen ~15 Sekunden bevor sie Einsatzbereit sind. Es liegen keine Welten dazwischen, aber man merkt durchaus einen Unterschied. Ist kein Beinbruch, aber ich verstehe nicht warum das so ist.

Will man die Performance beim Windowsboot objektiv vergleichen, muss man Windows frisch aufsetzen und die Systeme so aufbauen, dass sie sich so minimal wie nur möglich unterscheiden.

Auf diese Beispiele trifft das garantiert NICHT zu, weswegen ein Vergleich pure Zeitverschwendung ist.
 
mcsteph schrieb:
Ja ja, die 4090 liegt ja auch wie Blei in den Läden;)

Außerhalb der Enthusiastenblase tut sie das. Die wenigsten Menschen da draußen wollen 2000 Euro (der Preis von einem gebrauchten Kleinwagen) für eine GPU ausgeben.

Eine 4070 Ti wird gemäß den Meldungen auch viel besser verkauft, bedingt durch den Preis, als die 4080 und 4090. Genauso wird es mit dem 7950X3D sein, die wenigsten werden die Preise bezahlen, viel mehr werden sich entweder den 7800X3D holen oder sich das ganze mit Neuerwerb von Arbeitsspeicher sparen und auf einen 5800X3D setzen, der in z.B. 1440p einem 7900X3D in vielen Spielen (CoD, Apex etc) in nichts nachsteht.
 
  • Gefällt mir
Reaktionen: Inxession und DevPandi
Energieeffizienz - der einzige Balken der wichtig ist! AMD hats verstanden
 
Gaspedal schrieb:
Das ist Aufgabe der Grafikkarte nicht der CPU. Was nützt Dir ein 4K Test wenn die CPU nie ins Limit kommt?
Je höher die Auflösung umso weniger Rolle spielt die CPU beim Rendern bzw. hat mehr Luft. Daher ist es richtig dass es mit 720p und weniger getestet wird.

Ja, das weiß ich wohl, dass bei 4K die GPU mitunter ins Limit läuft.

Es geht doch aber darum, eine Aufrüsteintscheidung zu treffen. Ist ja toll, dass bei 720p und 50% Render-Auflösung 40% Plus rauskommen zum 5800x3d. Bei 1440 oder 4K dann aber nur noch 10-15% mit RTX4090.
Bei 3080/90, 4080 oder vergleichbaren AMD sieht’s ja dann noch bescheidener aus.

Igor hat es in auch in anderen Auflösungen gemessen, fand ich gut und tick besser.

Fazit für mich: bis zum Release der 5090 bleib ich bei AM4. Müsste jetzt fürs Aufrüsten über 1000€ hinlegen, das ist to much. (Neukauf ist natürlich was anderes)

Auf diese Benchmark-Videos geb ich nix. Leider zu of Clickbait oder Fake. Sieht man schon im ersten Test bei Valhalla. 12900K minfps irgendwas bei 147 aber der Durchschnitt bei 116 oder so… beim 13900 passt au nicht. Da liegen die Maxfps unterhalb des Durchschnitts.
 
MrHeisenberg schrieb:
Ja, total deklassiert und kostet nur 200€ mehr :freak:
Was der X3D an Effizienz bringt, frisst der Kaufpreis wieder auf...
Wenn man die Einsparung bei der Kühlung gegenrechnet und eingeschwungene Marktpreise beim X3D abwartet, ist man schnell nur noch bei etwas Aufpreis. Und der wird dann durch die Energiekosten auch noch amortisiert.
 
kicos018 schrieb:
Sicherlich muss das jeder für sich entscheiden, wer regelmäßig upgraded fährt dann mit AM5 günstiger.

Persönlich bin ich mit dem 8700k nach fast 5 Jahren noch mehr als zufrieden, meine Kaufentscheidung würde ich deshalb niemals abhängig von der Aufrüstbarkeit des Sockels machen.
Mein i7700k und die 1070 "funktionieren auch noch. Aber wenn ich die Grafik so stark runterstellen muss und nicht mal dann immer 50 FPS habe, ist irgendwann schluss.
Der 8700k war damals sicher" besser" als, der 1600x usw. jedoch könntest du den 1600x heute zum 5800x3d machen für 300€! Neue GPU und du hättest ein top aktueles System, das deinen 8700k übertrumpft.
Hat alles vor und Nachteile, wenn man nur einzelne Komponenten upgradet, kann man den PC nicht als Paket weiter geben, z.B. in der Familie.
 
  • Gefällt mir
Reaktionen: trb85, Celinna, Snoop7676 und eine weitere Person
Kasjo schrieb:
Nicht schlecht. Bin zwar noch zufrieden was mein system betrifft aber immer schön zu sehen wenns voran geht.

Erschreckender ist aber hier in den Kommentaren zu sehen, wie wenig Durchblick die leute haben. Gerade im Hinblick auf das Geschrei des 4K tests.

Was soll sich den da ändern? Da dürften alle Balken etwa genau gleich lang sein. Die GPU ist doch in 4k ohnehin schon am Anschlag, was soll den da ne schnellere CPU daran ändern? Das dann in Afterburner plötzlich bei GPU 120% steht???

Ich glaub im einzigen szenario wo man wirklich nen unterschied sieht is wenn ich in 4K zocke und nen 7950 egen nen Pentium antreten lasse. Oh welch wunder.....
Und selbst da würde es mich überhaupt nicht wundern wenn bei einzelnen titeln kaum unterschied zu sehen ist, wenn 4K doch ohnehin fast immer die GPU als endgegner sieht.
Hi,

also ich würde gerne wissen, was von dem Unterschied übrig bleibt, wenn ich in gewohnter Auflösung spiele. Daher wäre ein zweiter Test mit einer Mittelklasse Grafikkarte, wie einer 3060 TI, auch sehr schön.
 
Sinatra81 schrieb:
Auf diese Benchmark-Videos geb ich nix. Leider zu of Clickbait oder Fake. Sieht man schon im ersten Test bei Valhalla. 12900K minfps irgendwas bei 147 aber der Durchschnitt bei 116 oder so… beim 13900 passt au nicht. Da liegen die Maxfps unterhalb des Durchschnitts.
Ich hasse diese Benchmark-Videos...auch GamersNexus und die sind noch die besten. Wie soll man denn technisch anspruchsvolle Dinge in Sekundenbruchteilen erfassen, alternativ bleibt nur das ebenso nervige Pause-Weiter-Pause-Weiter-Spiel.
 
  • Gefällt mir
Reaktionen: Nicop, yummycandy und Sinatra81
Zurück
Oben