Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Chilisidian schrieb:
und bei Forest an der Kotzgrenze? Sicher nicht.
Doch, momentan halt (leider) schon. Fast alle Kerne sogar ziemlich auf Anschlag. Ich hoffe wirklich das die nächsten Updates das CPU Limit eher Richtung GPU Limit schieben.
 
M1ximili1n schrieb:
Der 13900k ist (meiner Meinung) etwas ausgewogener
Gleiche Leistung bei halben Energie verbrauch und der 13900K ist "Ausgewogener" :o

Das hat mit "überbewerten" nichts zu tun.
Ich denke hier wird der technologische Vorsprung einfach nicht verstanden.
 
  • Gefällt mir
Reaktionen: Starkstrom, EyBananaJoe, 4lter5ack und 8 andere
supermanlovers schrieb:
Ein teurer CPU (7950X3D) ist schneller als der günstigere CPU (13900k). Sehr beeindruckend.

Mein 13900k langweilt sich momentan in WQHD+ mit der 4090 in den meisten Spielen.
oder anders ausgedrückt: Du hast viel Geld für einen für dich überdimensionierten 13900k rausgeballert, obwohl wahrscheinlich schon ein 5600er oder max ein 5800X3D gereicht hätte. Sehr beeindruckend.
 
  • Gefällt mir
Reaktionen: Starkstrom, EyBananaJoe, 4lter5ack und 7 andere
Pisaro schrieb:
Auch hier: Ich bringe meinen 5900X in 3440x1440 komplett zum kotzen.


Zeig mal.

Framerate? Spiel? Grafikkarte?

Man kann alles komplett zum Kotzen bringen.

Rein für sich alleine ist die Info aus deinem Post, nicht gerade besonders wertvoll.
 
MrHeisenberg schrieb:
Dass die Intel CPU mehr Leistung fürs Geld bietet

Es muss schlimm um Intel stehen, wenn sich die Fanboys inzwischen ins Preis-Leistungs-Verhältnis retten. Und selbst das gewinnt Intel nur haarscharf (7950X3D 5% teurer, aber 3% schneller als 13900KS) und auch nur dann, wenn man die AMD-UVP zum Launch mit dem Intel-Straßenpreis vergleicht.

Abgesehen davon, dass der Zielgruppe 40€ Aufpreis zum 13900KS sowieso völlig egal sind. Wer aufs Preis-Leistungs-Verhältnis schaut, holt sich zum Zocken weder einen 13900K(S), noch einen 7950X(3D).
 
  • Gefällt mir
Reaktionen: trb85, Alex1966, EyBananaJoe und 2 andere
Nabend,

schön, dass es endlich Tests & Tatsachen gibt.
So ein richtiges "haben-wollen-Gefühl" kommt in mir noch nicht auf.

Generell würde ich das CPU Limit gerne etwas verschieben, da es ja aktuell doch ein Thema ist. Aber mein Bauch sagt mir, dass ich eher auf einen 13900k setzen würde. Nur ist der Sockel ja schon wieder am Ende was für mich gleichzeitig auch ein klares "nein" für einen Kauf setzt.

Gespannt bin ich auf die Verfügbarkeit morgen. Ich werde wohl die Preisentwicklung der nächsten Monate abwarten und schauen, ob sich das Ganze irgendwann in ein gutes P/L Verhältnis bewegt.
 
Ozmog schrieb:
So wie die Average und Maxwerte bei den Leistungsaufnahmen liegen, kann man einen 7950X3D in einem ITX-Zwerg verbauen und auf 65W TDP / 88W PPT reduzieren, ohne dabei wirklich an Leistung zu verlieren.

Wäre da ein AM5 mit iGPU nicht sinniger? Wäre ein spannender Test, wie viel Leistung man da einbüßt und ob sich das dann trotzdem gegenüber einer 7xxxG CPU lohnt. Mein nächster Gamingrechner wird auf jeden Fall kein Tower mehr, deshalb finde ich das durchaus spannend.
 
Kenjiii schrieb:
Dann spart man sich ca. 70 Watt/h, wohlgemerkt in 720p, also in Reality dann wohl eher ca. 30-40 Watt, wegen weniger CPU-Auslastung.
Auch bei höheren Auflösungen verbrauchten die CPUs nicht unwesentlich weniger. Du kannst hier also noch locker mit mindestens 50 bis 60 Watt Differenz rechnen.
Kenjiii schrieb:
Wenn ich jeden Tag im Jahr 2h zocke und 40 Watt pro Std. weniger verbrauche, dann hab ich im Jahr ca. 30 Kwh gespart, also satte ~12€. 🤔
Mit angenommenen 60 Watt und 3 Stunden Zocken pro Tag wären das schon rund 65 kWh und somit 26 € pro Jahr. Wenn man die Nutzungsdauer mal mit 4 Jahren annimmt, wären das in diesem Fall schon über 100 € Unterschied. Das ist jetzt nicht astronomisch, aber am Ende schon ein guter Schritt. Vor allem gibt es ja positive Nebeneffekte, wie etwa ein geringerer "Verschleiß" (unter anderem des Netzteils), niedrigere Temperaturen und somit auch eine potenziell geringere Geräuschkulisse. Alles in allem also sehr begrüßenswert, zumal heutzutage ja nicht nur die Kosten, sondern auch die Energiebilanz von Bedeutung sind.
 
  • Gefällt mir
Reaktionen: DaBa
ThirdLife schrieb:
Klar juckt mich das. Warum soll ich neben der CPU schon wieder ein neues Board holen gehen und fünf Stunden an meiner Wakü und dem System rumbasteln wenn der 14900K kommt wenn ich stattdessen auch einfach nur ne neue CPU reinballern kann in 10 Minuten ?

Na komm, wenn der 7950X nächste Gen zu langsam und zu alt wird (schafft er doch nur theoretische 500 fps statt 545 wie der 8590X) kann man sich ja auch dann ein neues Board welches besser zu dem neuesten 8950X passt leisten oder? :)

ThirdLife schrieb:
Das ist mein Grund für AM5 gewesen. Die Möglichkeit nochmal 1-2 CPUs sicher draufknallen zu können ohne jedesmal einen Riesenaufwand zu haben dabei noch Geld rauszufeuern im Unverstand.
Ich wüsste ja nicht warum man Geld rausfeuern sollte für einen 8950X wenn man schon einen 7950X hat, aber jeder wie er möchte. Für mich persönlich wäre das Geldverbrennerei (nur meine Meinung).

Aber das beiseite, den News zufolge wird LGA1700 wohl weiterhin mit der nächsten Gen supported wenn ein Raptor Lake refresh kommt. Da hättest du also locker auf dein MB genauso einen 14900KS schnallen können wenn der Refresh kommt. :D
 
IBISXI schrieb:

Ich muss sagen: Hatte die CPU Auslastung höher in Erinnerung. Ist mein MP Server bei Sons of the Forest, allerdings bin ich da gerade alleine drauf um nen Screenshot zu machen, vielleicht liegt es auch daran. Muss ich morgen mal schauen wenn wieder Leute drauf sind da mein PC der "Host" ist.

3440x1440, RTX 4090, R9 5900X. Grafikdetails alles auf Anschlag, DLSS auf Performance.

Die 4090 pennt, CPU 1 auf dem Bild bei 80%, CPU9 bei 86%. 65FPS bei 12,9 Frametimes. Die FPS sind avg würde ich sagen. Gibt Szenen da komm ich auf 50-55 FPS, gibt aber auch Szenen da komm ich auf 80-90 FPS.
 

Anhänge

  • Sons.png
    Sons.png
    8,9 MB · Aufrufe: 174
Kann CB nicht in 8K oder besser 16K testen? Dann kommt das CPU-Limit richtig zur Geltung.
 
  • Gefällt mir
Reaktionen: sent!nel, Einfallslos^99, karl_laschnikow und 2 andere
Jetzt fehlt nu der Test vom 7900X3D, der juckt mich schon sehr und könnte meinen 5900X über kurz oder lang ablösen.
Guter Test, gutes Produkt!
 
IliadZenith schrieb:
Die Spieleauswahl ist leider größtenteils mal wieder nur der typische Einheitsbrei. Ich hätte mir mehr Simulationen&co gewünscht, wo man die Stärke dieser Chips sehen kann.
In der Tat...Der Flightsimulator und DCS könnten/müssten/söllten/wöllten Einzug halten...
 
  • Gefällt mir
Reaktionen: DannyA4
ThirdLife schrieb:
Eher 20 beim Dual CCD. :D
Die Zen 4-Kerne verbrauchen im Idle tatsächlich fast nichts, der Verbrauch kommt fast ausschließlich vom I/O-Die. Die 16 Kerne meines 7950X fressen im Idle zusammen etwa 2 Watt, die Package-Power liegt jedoch bei etwa 20 Watt. Intel liegt hier meines Wissens nach bei etwa 6 bis 7 Watt, somit ist die Differenz auch beim 16-Kerner "nur" bei etwa 13 bis 14 Watt. In Relation ist das natürlich trotzdem unfassbar viel, es ist ja in etwa das 3-fache wie bei Intel. Ich hoffe, dass AMD hier in Zukunft noch nachbessert, der I/O-Die ist echt ein Krampf :D
 
  • Gefällt mir
Reaktionen: 4lter5ack und ThirdLife
Klever schrieb:
Na komm, wenn der 7950X nächste Gen zu langsam und zu alt wird (schafft er doch nur theoretische 500 fps statt 545 wie der 8590X) kann man sich ja auch dann ein neues Board welches besser zu dem neuesten 8950X passt leisten oder? :)
Nur weil man etwas kann ist es nicht zwingend schlau das zu tun ausser ich hab einen deutlichen Mehrwert.

Klever schrieb:
Ich wüsste ja nicht warum man Geld rausfeuern sollte für einen 8950X wenn man schon einen 7950X hat, aber jeder wie er möchte. Für mich persönlich wäre das Geldverbrennerei (nur meine Meinung).
Weil Spiele gar nicht mein Haupteinsatzgebiet sind. Aber wenn man produktiv damit arbeitet und von CPU zu CPU 25% Leistung holt macht das in der Rechenzeit einen deutlichen Unterschied aus. Mir ist meine Zeit halt wichtig, darum will ich auch nicht jedesmal das Board tauschen und mein Loop zerlegen oder Stunden mit RAM OC verbringen und darum nehme ich gerne zusätzliche Leistung mit.

Zumal man das eben machen kann, gerade WEIL der Sockel das zulässt. Alte CPU verticken, dann nochmal 200€ drauflegen und wieder für ein Jahr ne aktuelle, schnellere CPU.

Ist für mich vertretbarer als jedesmal das halbe System zu tauschen.

Klever schrieb:
Aber das beiseite, den News zufolge wird LGA1700 wohl weiterhin mit der nächsten Gen supported wenn ein Raptor Lake refresh kommt. Da hättest du also locker auf dein MB genauso einen 14900KS schnallen können wenn der Refresh kommt. :D
Kann gut sein, ich kann mich nur an die Infos halten die ich zum Kauf Mitte 22 hatte.
 
  • Gefällt mir
Reaktionen: trb85 und 4lter5ack
Sinatra81 schrieb:
Also mir fehlen hier definitiv noch Ergebnisse in 480p und 240p. Vorher kann ich keine Kaufentscheidung treffen! 🤦🏻‍♂️

Kann doch nicht so schwer sein, mal die Auswirkungen einer neuen CPU in WQHD oder 4K zu testen.
Niemand mit 7950x3d zockt 720p! 😒

Das ist Aufgabe der Grafikkarte nicht der CPU. Was nützt Dir ein 4K Test wenn die CPU nie ins Limit kommt?
Je höher die Auflösung umso weniger Rolle spielt die CPU beim Rendern bzw. hat mehr Luft. Daher ist es richtig dass es mit 720p und weniger getestet wird.
Sieht man auch hier mit RTX 4090 wie minimal die Unterschiede in 4k sind zwischen 9900k bis 13900k
 
  • Gefällt mir
Reaktionen: Pisaro
Zählt man alle Kosten zusammen, kostet ein kompletter PC mit

7950X3D = 2100€ ohne Grafikkarte

7800X3D = 1750€ ohne Grafikkarte

5800X3D = 900€ ohne Grafikkarte

Alle 3 CPUs im 20% Leistungsfenster beim Gaming.
 
  • Gefällt mir
Reaktionen: FightFear und Pisaro
SKu schrieb:
Kann CB nicht in 8K oder besser 16K testen? Dann kommt das CPU-Limit richtig zur Geltung.
Um das CPU-Limit zu testen muss die Auflösung runter, nicht rauf
 
  • Gefällt mir
Reaktionen: McFritte, iron_monkey und Gaspedal
Chilisidian schrieb:
Feiern könnte man AMD, wenn die die 3D direkt gebracht hätten. Insofern können sich die AMD Fanboys bei Intel bedanken. Ohne RPL hätten die noch ewig gebraucht analog zum 5800X3D.
Das ist Quatsch und ich möchte dir auch sagen, warum. Als der 5800X3D den Markt als fertiges Produkt erreicht hatte, war Zen 4 bereits durchgeplant. Zu dem Zeitpunkt hätte man nichts mehr ändern können, ohne den Start massiv nach hinten zu verschieben. Niemand wusste, ob das mit der Massenproduktion so gut funktionieren würde oder ob in der Praxis die gewünschten Effekte erreicht werden würden, wie es sich mit der Hitze verhalten würde usw. Das musste als Massenprodukt erst noch getestet werden. Daher gab es auch keine anderen Varianten des 3D-Caches mit Zen 3. Der Test war erfolgreich, weshalb wir nun die X3D-Variante des Zen 4 heute bestaunen können.

Zum Test: Ich bin beeindruckt, gerade auch nachdem ich Igors Video dazu gesehen habe, ob der Leistung und noch viel mehr ob der wahnsinnigen Effizienz der CPU. Intel wurde hier regelrecht zerstört. Wir reden hier um den Faktor 2. Die Intel-Ingenieure mussten hinter verschlossene Türen ja völlig verzweifelt gewesen sein, als sie das neueste Stück AMD-Silizium in die Finger bekamen und testeten.
 
  • Gefällt mir
Reaktionen: 4lter5ack
Zurück
Oben