Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Dome87 schrieb:
@DevPandi

Nochmal: habe beide Systeme hier und kann sie an der Steckdose vergleichen. Das ist meine Plausibilität die dir fehlt.
Ich habe hier auch ein 5800X3D und für einen Freund wird gerade ein 13900KS zusammen gebaut und installiert und ich habe auch beide Systeme an der Steckdose und kann sie miteinander vergleichen.

Da kommen wir dann jetzt zu dem Punkt, dass - wie erwähnt - Mainboard, Kühler und Co auch eine Auswirkung auf den Bedarf im Leerlauf und Teillast Bereich haben und man daher nicht direkt auf den Zen3, RaptorLake oder eben Zen4 schließen kann, sondern auch alles drumherum noch betrachten muss.

Wenn dein 5800X3D ein "Schluckspecht" im Teillastbereich ist, dann liegt das nicht unbedingt am 5800X3D, sondern kann an verschiedenen Stellen liegen und wie du dein System eingestellt hast. Daraus kann aber kein genereller Schluss gezogen werden, dass der 5800X3D im Teillastbereich mehr oder weniger braucht als der 13900K und ebenso nicht beim Zen 4. Du kannst für dein System sprechen, das war es!

Ich kann es nur für mein System und das eines Freundes, darüber hinaus kann ich noch Messwerte verarbeiten und das war es.

Und genau deswegen nehme ich die Messwerte hier, weil die jeder sehen kann.
Ergänzung ()

mcsteph schrieb:
Die unmöglich Tatsache....getreu nach dem Motto "es kann nicht sein, was nicht sein darf" wird sich beim 13900 an jeden Strohhalm geklammert.
Ach, im Endeffekt ist es egal. Simple Mathematik reicht hier aus. Man muss sich am Ende nur auf die Basis einigen, die man bewerten will. Das sieht man ja auch jetzt an Dome87 und seine Systeme. Ich hab hier auch mehre Systeme, die ich Zusammenbau für Freunde und kann daran messen und weiß eben, dass am Ende die CPU nur ein Baustein ist.

Der 13900K ist eine gute CPU, der 7950X3D ist eine gute CPU. Die Leute sollen kaufen, was sie wollen. Alles andere sind Streitigkeiten, die aboslut unwichtig sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS, Collysis, iron_monkey und 7 andere
@DevPandi

Habe nur Mainboard (beides Asus) und CPU getauscht. SSD, Lüfter, Grafikkarte, Netzteil komplett identisch.

YouTube - Video 5800X3D ca. 25W mehr.
Updates im Hintergrund 5800X3D ca. 40W mehr.
Spotify (APP) läuft 5800X3D ca. 10W mehr.
IDLE 5800X3D ca. 10W mehr

Und am Ende macht ein 13000er das alles auch noch deutlich schneller wegen der besseren Singlecore-Performance.

Da kommt schon was zusammen. Man muss also wirklich überwiegend spielen, um die Vorteile der Effizienz auch ausnutzen zu können. Bei einem System, welches 50/50 (Zocken und Niedriglast-Gedöns) betrieben wird verpufft der Vorteil nämlich.

Jetzt suchst du aber Strohhalme! Beide Systeme mit frischem Windows und allen Treibern.

Und @mcsteph wird dir niemals dabei zustimmen, dass auch der 13900(KS) eine gute CPU ist. Aber darum geht's ja auch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Arcturus128
Mal hier noch dazu der Phoronix-Beitrag über die Linux-Performance. Im Gegensatz zu Windows gibt's hier kein Tool, mit dem gezielt Anwendungen auf entsprechenden Kerne verteilt werden.

Sucht man bei Geizhals nach 7950x3d, gibt's ein paar Trittbrettfahrer, die >1000€ dafür aufrufen. Eigentlich wollte ich mir auch so ein Ding kaufen und finde die UVP schon ziemlich grenzwertig. Ich hoffe, die Preisentwicklung entwickelt sich nicht so wie bei den Grafikkarten.
 
Ich denke nicht dass wir allzulange warten werden müssen bis die CPU a) wieder verfügbar und b) günstiger wird. Es ist halt schon eine Nischencpu die nur wenige anspricht. Viel wichtiger wäre es genug 7800X3D zu produzieren, wobei die ja auch nicht günstig werden.
 
Dome87 schrieb:
Und @mcsteph wird dir niemals dabei zustimmen, dass auch der 13900(KS) eine gute CPU ist. Aber darum geht's ja auch nicht.
Ich weiß nicht was bei dir „gut“ bedeutet. Wäre die Ausgangslage noch so schlecht: Im Schönredewettbewerb wärst du mein Favorit, auf dich würde ich mein gesamtes erspartes Geld wetten. Intel hat jahrelang geschlafen und die Leute abgezockt. Da darf man doch mal für den Underdog Partei ergreifen und erst recht bei dem Produkt.
 
  • Gefällt mir
Reaktionen: joomoo
Man sollte grundsätzlich für keine Firma Partei ergreifen. Wenn du ein lokales Geschäft im Ort unterstützen willst kannst du was "Gutes" tun.

Aber bei zwei Großunternehmen? Das ist doch Quatsch, sorry.
 
ThirdLife schrieb:
Korrekt.

Bei einem Verbrauch von 4-500W dann. Beeindruckend von der Leistung als auch der Leistungsaufnahme. Weiter denken schadet nicht in dem Fall. Oder tut das weh ? :daumen:
Ich denke jetzt einfach daran nicht mehr auf deine Äpfel & Birnen Vergleiche einzugehen. Du scheinst auf jeden Fall nicht viel Ahnung zu haben. Mein persönlicher Tipp an dich: Nehme dir ausgiebig Zeit für Recherchen zu folgenden Themen:
  • "üppiger" 3D V-Cache (sollte erklären wieso die neuen AMD CPUs in Games so gut sind)
  • Herstellungsprozess bzw. kleinere Strukturen bei CPUs (sollte erklären wieso die neuen AMD CPUs effizienter werkeln)
  • P-/E-Cores (sollte den Hybriden-CPU-Ansatz erklären und widerlegen, dass es sich bei den E-Cores um keine "echten" Prozessorkerne laut deiner Aussage handelt)

Intel könnte die oberen Punkte auch in seine neuen CPUs beherzigen und wir wissen glaube ich jetzt schon, wie es dann enden würde. Die Raptor Lake CPUs von Intel sind momentan nämlich von der Leistung her ziemlich gleichauf mit den neuen AMD Zen 4 CPUs trotz altem Herstellungsprozess sowie dem fehlenden 3D V-Cache.

PS: Ich habe meinen Core i9-13900K auf 125.0 W begrenzt und die Leistung ist immer noch ausgezeichnet, obwohl ich meine CPU nicht mehr als deine angeblichen 500 W Leistung schlucken lasse. Da ich eh in hohen Auflösungen (3840x1600) spiele fällt dadurch der Leistungsunterschied, welcher durch das Powerlimit von 125.0 W bei der CPU ensteht, eh nicht sonderlich ins Gewicht. Die GPU leistet eben die "Drecksarbeit" und da kommt es schlussendlich in hohen Auflösungen drauf an und nicht auf die CPU. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rafiibs und MrHeisenberg
till69 schrieb:
Die haben nur leider nichts mit dem Thema Niedriglast/Office zu tun.
Wir kennen nur den Idle-Verbrauch. Was fehlt, ist der Sprung in der Leistungsaufnahme des AMD sobald eine Minilast anliegt.
Richtig, wir kennen die "genauen" Zahlen nicht. Die genauen Zahlen sind für meine Argumentation nicht großer Wichtigkeit. Daher kann ich auch die Zahlen von CB hier nehmen, weil es nur um die Tendenzen geht und das reicht. ...

Dome87 schrieb:
YouTube - Video 5800X3D ca. 25W mehr.
Updates im Hintergrund 5800X3D ca. 40W mehr.
Spotify (APP) läuft 5800X3D ca. 10W mehr.
IDLE 5800X3D ca. 10W mehr
Die Zahlen kann ich hier nicht vollständig reproduzieren mit dem 13900KS und dem 5800X3D. Bei YouTube-Videos komme ich hier auf ein Unterschied von ca. 10 W, bei Updates komme ich auf 0 W Unterschied.

Ich würde dir aber wirklich dringend empfehlen, mal ein Taschenrechner zu nutzen und vor allem erst nachzudenken, dann könntest du nämlich solche Peinlichkeiten vermeiden:
Dome87 schrieb:
Bei einem System, welches 50/50 (Zocken und Niedriglast-Gedöns) betrieben wird verpufft der Vorteil nämlich.
Die Differenz 5800X3D zum 13900K beträgt beim Spielen 70 W, bei 8 Stunden täglich und davon 4 Stunden am Spielen, kommen 350 Wh zusammen, die der 13900K erst mal mehr verbraucht hat oder der 5800X3D weniger.

Nehmen wir eine Stunde Updates, sind des 40 Wh, die wir abziehen können: 310 Wh. Bleiben noch 3 Stunden, nehmen YouTube mit 2 Stunden, kommen 50 Wh zusammen: 260 Wh. Und eine Stunde mit den 10 W, also 1 Wh: 250 Wh stehen am Ende des Tages auf der Uhr, die der 13900K mehr verbraucht hat.

Ich komme hier im Übrigen zu einem Ergebnis zugunsten des 5800X3D in all den Szenarien zu dem 13900KS im Aufbau und nehme ich die Packagepower durch HWInfo, dann ist der 5800X3D auch in den meistzen Szenarien mit etwas weniger Energie unterwegs, dafür aber auch langsamer, richtig. Aber egal, ich brauch meine zahlen an der Stelle nicht.

Wie ich bereits ausführte, der energetische Vorteil des 13900KS gegen+über eines 7950X3D ergibt sich erst, wenn man quasi Spielen aus der Gleichung nimmt.
 
  • Gefällt mir
Reaktionen: LukS, Anon-525334 und joomoo
till69 schrieb:
Und genau das ist die einzig brauchbare Methode.
Nein, und nun reicht es dann auch langsam.

Ich bin immer wieder erstaunt, dass wir hier immer wieder den gleichen Leuten die Grundlagen erklären müssen..
 
DevPandi schrieb:
Auf dem Niveau brauchen wir auch nicht weiter machen ;)

Wird Zeit, dass CB (@Wolfgang) mal einen verlässlichen Test zu dem Thema macht. Verbrauch bei alltäglichen Dingen wie Browsen, Musik hören, Videos schauen etc. und nicht nur IDLE, Gaming und Volllast.
 
DevPandi schrieb:
Entschuldige, aber der Verweis auf Idle, Schwachlast und Teillast ist hier am Ende einfach nur ein Strohhalm
Das komplettiert das Gesamtbild der CPUs und ist ein legitimer Verweis.
Ein weiterer Punkt ist die Thermal Design Power von 13900K und 7950X. Die ist auf maximale Leistung eingestellt und kann manuell ohne spürbare Eingriffe in die Spiele und Anwendungsperformance abgesenkt werden. Der Vorteil kostet dem 7950X3D knapp 10% Anwendungsleistung.
DevPandi schrieb:
Gleichzeitig ist das Greifen nach dem Idle-Verbrauch der RaptorLakes und das Gegenüberstellen beim Zen4 eine kleine Nebelbombe, weil sie mit der Realität nicht viel zu tun hat.
Ich denke die Messungen sind korrekt, somit auch real.
DevPandi schrieb:
Viele wissen nicht wirklich, was Idle bedeutet und Idle wird mit Lastszenarien verwechselt und das beste Beispiel liefert dieses Zitat - ich gehe darauf auch ein und dann geht es bei dir direkt weiter.
Der Intel ist im Idle und Niedriglastbereich etwas sparsamer. Zum Beispiel wenn ich hier meinen Beitrag schreibe, oder im WWW unterwegs bin. Gibt auch viele Messungen anderer Seiten die das bestätigen.
DevPandi schrieb:
Relativ sind das 14 % und ja, das ist auch nicht wirklich wenig.
Und damit auch kein Strohhalm oder Nebel-irgendwas.
DevPandi schrieb:
Unter dem großen Strich nimmt sich ein Zen4 oder ein RaptorLake im Bereich Leerlauf und schwacher Last am Ende des Tages nicht viel und wenn wir hier wieder anfangen wollen, mit Zahlen um uns zu werfen - nur so als Wink mit dem Zaunpfahl: 70 W stehen gegen 140 W im Mittel beim Spielen.
Diese Spielewerte entstehen, wenn der Prozessor völlig ausgelastet ist, somit gehört es auch zum Gesamtbild dazu, dass Unterschiede in Praxiseinstellungen weniger weit auseinanderliegen.

DevPandi schrieb:
Wenn ich - ich nehm mal nur mein Szenario - am Tag den PC 3 Stunden anhabe unter der Woche und davon 1 Spiele und 2 im Idle verbringe, dann kommt der Zen 4 "grob" gerechnet immer noch besser, davon 102 Wh gegen 152 Wh.
Nur spielst du nicht in 720p Auflösung, sondern mindestens in Full HD oder WQHD und hast Settings auf Maximum aufgedreht.
 
  • Gefällt mir
Reaktionen: Dome87
Die Punkte die hier (leider auf unterstem Niveau) angkreidet werden sind so ermüdend belanglos, ich kann mir kaum vorstellen, daß die übrig gebliebenen Akteure das nicht voll und ganz selbst einsehen, es halt nur noch aus Trotz immer wieder aufrollen.

Fakt ist doch ganz klar und absolut kritikfrei, AMD hat sehr schnelle und sehr sparsame CPUs released. Auf einem Spitzen-Niveau welches es so als Gesmtpaket noch nicht gegeben hat. Das bestätigen doch auch durchweg etliche (und ganz besonders die seriösen) Tests aus diversen Quellen.

Dazu kommt eine moderne Plattform, als einziger voller PCI-E 5.0 Support bei Grafik und SSDs und Sockel Support über mehrere Jahre.
Das ist doch alles ein rundum gelunges Paket auf höchsten Ansprüchen, Leistung und Effizienz. Und man bekommt es halt momentan so nur bei AMD, das kann man doch neidlos einfach eingestehen.

Kostet es viel, ja. Muss man es kaufen, nein. Fertig!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CueSystem, Whetstone, Gewuerzwiesel und 8 andere
Dome87 schrieb:
Mein System läuft ~8S Stunden am Tag mit Browsen etc. In diesem Szenario habe ich mit meinem 5800X3D deutlich das Nachsehen
Im Vergleich mit welchem System? Egal ob AMD oder Intel... Die Bandbreite an Idle-Verbräuchen ist doch sowohl bei AMD als auch bei Intel-Systemen ziemlich groß. Habe selbst bei AM4 mit R5 3600 auf B450 anfangs den typischen 42-45 Watt Idle gehabt.
Später mit B550 und 5800X ca. 25 Watt Idle, ohne RAM OC. Andere hatten teils höhere Verbräuche oder auch weniger.

So wie ich das sehe, ist der maßgebliche Faktor das verwendete Mainboard. Dazu die im BIOS gesetzten Einstellungen und wie gut das Board Energiesparfunktionen überhaupt umsetzt. Manche sind da sehr gut andere schlecht. Zusätzliche Steckkarten außer GPU mal außen vor gelassen.

Ich finde Idle und Teillast-Verbrauch auch wichtig. Aber meine Erfahrung: Wer nur auf die CPU-Package-Power schaut, der hat am Ende keine Ahnung. Es hilft nur an der Steckdose zu messen. Sonst macht man sich nur was vor, egal wer oder was dann besser oder schlechter da steht.

P.S. selbes Spiel natürlich bei Intel. Das Mainboard und die Einstellungen entscheiden, was an der Steckdose gemessen wird.
 
  • Gefällt mir
Reaktionen: using_e, Arcturus128, DevPandi und eine weitere Person
ThirdLife schrieb:
Was ist dann weiteres Memory OC mit Subtimings ? Feineres Feingetuntes Memory ? 🤣

Mach dir nix draus, da sind keine Argumente, nur geschwafel.
Wenn er dann merkt, dass er im Unrecht ist, kommt einfach nichts mehr 😂
 
  • Gefällt mir
Reaktionen: ThirdLife
+++ schrieb:
Der Intel ist im Idle und Niedriglastbereich etwas sparsamer. Zum Beispiel wenn ich hier meinen Beitrag schreibe, oder im WWW unterwegs bin. Gibt auch viele Messungen anderer Seiten die das bestätigen.
Der Unterschied ist minimal. Ich habe jetzt mindestens ein Dutzend Systeme mit 7950X3D zusammengebaut und kann einen relevanten Idle oder Niedriglastunterschied nicht bestätigen.
Die Diskussion ist unnötig. Viel mehr holt man raus, wenn man den 13900K optimiert, dann ist der 7950X3D zwar besser in der Spieleeffizienz, aber der Abstand ist verschmerzbar, soll heißen es lohnt nicht da umzusteigen.

DevPandi schrieb:
Einige sollten, zumindest erst mal grob die eigenen Aussagen auf Plausibilität prüfen, bevor sie meinen einen Beitrag zu schreiben.
Da kauft ihr euch für tausende von Euros Systeme und dann streitet ihr euch um 5 oder 10 Watt im Idle. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Whetstone, iron_monkey und DevPandi
@PC_Peter

Mein 12900KS und mein 11900K (AsRock und MSI) haben immer sofort ohne BIOS-Frickelei oder Treiber so niedrige Verbräuche gehabt. Das ist doch auch nur ein Strohhalm. Jetzt ist wieder das BIOS Schuld.

Hatte damals einen 5950X parallel zu einem 11900K und es war dasselbe Spiel. Danach gleichzeitig einen 12900KS und einen 7900X. Wieder so.
 
n00p schrieb:
Wenn er dann merkt, dass er im Unrecht ist, kommt einfach nichts mehr 😂
Ich bin nicht im Unrecht, aber es führt zu nichts, deswegen ignoriere ich es.
Kannst dir aber ruhig einreden, dass es anders wäre, wenn du dich dadurch besser fühlst.

Aber okay, ich erkläre es dir ein letztes mal.
n00p schrieb:
Immer schön nur das zitieren was einem taugt, zeigt von Kompetenz 😌.
Der Rest war nicht relevant bzw. führte zu keiner anderen Aussage. Vollzitate sind hier also nicht nötig.

n00p schrieb:
Ich hab doch sogar geschrieben dass der 720p test wichtig ist für die CPU Leistung, trotzdem kann ich daraus keinen direkten Schluss auf die wqhd Leistung ziehen, weil die 4090 dort eben irgendwann dann nicht mehr im CPU, sondern im GPU Limit hängt.
Doch kannst du. Schau dir den GPU Test an, dann weißt du es.
Du sagst es ja selbst, dass die GPU irgendwann limitiert. Ist das so schwer?

n00p schrieb:
Aber diskutiert ruhig weiter Aggro andere Leute weg, ohne mal eure Scheuklappen zu öffnen.
Weil dieser Unfug in jedem Thread jedesmal diskutiert werden muss, nur weil User wie du zu faul oder zu unfähig sind 1 & 1 zusammen zu zählen.
Was du wissen willst, kannst du dem GPU und CPU Test entnehmen. Ein extra Test ist hierfür nicht nötig und ich bin auch dagegen den Leuten alles vorzukauen.

Das Thema ist durchdiskutiert und stand heute wird es keinen Extratest geben, also deal with it und hör auf rumzujammern.
 
Zuletzt bearbeitet:
ThirdLife schrieb:
"Feintuning im Memory OC Bereich" was dann für dich auf einmal schon XMP Profil setzen ist.
was? das muss auf einer der Seiten gewesen sein, die ich mehr übersprungen als zügig durchgescrollt bin... verdammich noch eins...
Der Begriff "Feintuning" schließt doch XMP sowas von aus, da XMP doch nur die grobe Bud Spencer Gedächtniskelle ist, die die garantierten Werte des Herstellers setzt. "Feintuning" umschreibt ganz klar einen Vorgang, bei dem das jeweils vorliegende System (in diesem Fall der individuell verbaute Ram im Zusammenspiel mit Board und CPU) in einem sehr langwierigen, sehr präzisen Trial and Error Verfahren so lange an die individuelle Leistungsspitze getrieben wird, bis das System als ganzes versagt (und im Extremfall hoffentlich durch ein Fail-Safe Verfahren vor dem Schrotthaufen bewahrt wird)

"Feintung des Ram" mit XMP gleich setzen... ja ne... is klar... und ein Bauarbeiter mit dem 20Kg Vorschlaghammer ist in seiner Freizeit angehender Uhrmacher, der mal eben eine edle vollmechanisierte Präzisionsgelenkzwiebel für Rolex im Wert eines Mittelklassewagens zusammenhämmert... gleich nachdem er immer noch mit eben jenem Vorschlaghammer auch noch ein Elektronenmikroskop und James Webb Weltraumteleskop repariert und eingestellt hat
 
  • Gefällt mir
Reaktionen: Whetstone, OldboyX und ThirdLife
Zurück
Oben