Test AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill

Kuristina schrieb:
Wenn man tagsüber daran arbeitet und abends dann bestmöglich spielen möchte?
Oder man will so ich sich ablenken weil ein Arbeitsleben nicht mehr möglich ist durch Krankheiten, ja Mehrzahl.
Da kommen schon mal ein paar Stunden zocken am Tag zusammen, es ist halt ein Hobby und immer noch besser als sich von den öffentlich rechtlichen berieseln zu lassen.
Nur sollte man CPU und GPU gut einstellen wegen dem Verbrauch.


Hier noch was zum Thema IDLE Prozess:

https://www.howtogeek.com/411569/what-is-system-idle-process-and-why-is-it-using-so-much-cpu/
 
captn.ko schrieb:
Es sind ca. 8h. Und ja das könnte (bei mir) (auch locker ;) ) hinkommen. Wenn das Ding beim surfen, musikhören, Excel Kram für 8h 12w weniger braucht, darf es in einer Stunde zocken auch 100w mehr brauchen um am Ende +-0 zu stehen. Die Woche über mach ich mehr Office Kram und am WE wird mal gezockt.
Zeig mal bitte den Test wo der 13900K(S) 12 Watt bei Surfen und Musik hören weniger vebraucht als der 7950x3d oder ist das wieder idle bei dir?

hier kannste mal schauen was die Programme so fressen, die man gern so nebenbei macht.
https://www.techpowerup.com/review/amd-ryzen-9-7950x3d/25.html
 
  • Gefällt mir
Reaktionen: Rockstar85, n3cro, DerRico und eine weitere Person
MrHeisenberg schrieb:
Das Ding ist, dass @mcsteph und co. ja mit der Effizienzkeule kommen, aber wenns um Idle geht, ist die Effizienz auf einmal wieder egal.
Wenn das nicht ZENs Schwachpunkt wäre, sondern ebenfalls eine Stärke, würden User wie er genau das gleiche tun und es als Argument für AMD nutzen.
Wer da was verteidigt ist mir eigentlich völlig egal. Ich nutzt zuhause sowohl Intel als auch AMD CPUs. Das muss doch jeder für sich ausmachen.

Der AMD braucht bei Officekram 12w mehr und der Intel unter Last 100w mehr. Jetzt kann doch jeder für sich ausrechnen welches System für den eigenen Anwendungsfall effizienter / sparsamer ist.

Für den Ottonormal Nutzer der mal paar Stunden surft (Intel sparsamer) und zockt (AMD sparsamer) geht es da gemittelt um vielleicht 20€ im Jahr. Verstehe das Theater daher sowieso nicht. Ich entscheide nach Performance und Features.

Poweruser die viel rendern oder 50h die Woche zocken können mit dem AMD natürlich gut sparen.
 
  • Gefällt mir
Reaktionen: H6-Mobs und MrHeisenberg
mcsteph schrieb:
Aber das ist doch kein idle und video hängt stark von der GPU ab was der PC verbrauchst.
Ich bin da schon dabei.

Nehmen wir 300 Anschläge/Minute: Das bedeutet vereinfacht , 5 mal pro Sekunde auf den Hardwareinterrupt reagieren, die Tastennummer auswerten, den passenden Glyphen finden und rendern lassen. Das ist reines "Idling".

Der gegenzurechnende Grundverbrauch einer GPU gehört natürlich auch in dieser Effizienzbetrachtung berücksichtigt.
 
  • Gefällt mir
Reaktionen: jusaca, Klever und MrHeisenberg
MrHeisenberg schrieb:
Das Ding ist, dass @mcsteph und co. ja mit der Effizienzkeule kommen, aber wenns um Idle geht, ist die Effizienz auf einmal wieder egal.
NE ist nicht egal aber mein PC befindet sich nie im idle, jedenfalls nicht über Stunden. Ich arbeite dran oder spiele. Aber mein PC lasse ich nicht an,ohne Standby, und verlasse dann das Haus. Ich wusste nicht das idle ein usecase ist. Mein PC geht ganz normal in den Standby Modus, habe nur wenige Minuten im idle
 
  • Gefällt mir
Reaktionen: Enyo79 und Onkel Föhn
mcsteph schrieb:
Zeig mal bitte den Test wo der 13900K(S) 12 Watt bei Surfen und Musik hören weniger vebraucht als der 7950x3d oder ist das wieder idle bei dir?

hier kannste mal schauen was die Programme so fressen, die man gern so nebenbei macht.
https://www.techpowerup.com/review/amd-ryzen-9-7950x3d/25.html
der Test wo du drunter postest. Seite 3 - Teillast. Damit ist das Verbrauchsthema auch durch für mich da der Verbrauch mir bei meinen paar Stunden zocken wurst ist.
1677673960714.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever und Dome87
Gerade wieder mal bei User Benchmarks vorbeigeschaut. Echt hammer, wie man da Intel hervorhebt. Sogar die Preise bei den AMD CPUs stimmen hinten und vorne nicht.... 1100sFr. soll der 7950x3d, laut UserBenchmark, kosten. Trauriger Verein.

Wenn ich nicht am PC bin und ob der im Idle oder Standby ist, was kümmert mich da der reine CPU Idle? Das was er an der Dose zieht, mit allem was angehängt ist, zählt für mich.
 
Stoerdienst schrieb:
Eigentlich müsste halt wirklich mal ein Vergleich zweier Systeme mit genau den gleichen Tätigkeiten über mehrere Stunden geloggt werden
Dafür brauch ich keine Stunden. Edge offen und ein YT Video reicht schon. Mein 5900X lag zwischen 105-110W (Idle ca. 53), mein 13700K liegt bei 65W (Idle ca. 50), bei gleicher GPU. Ob Zen4 es besser kann glaube ich eher nicht.
 
  • Gefällt mir
Reaktionen: Dome87
Mein PC ist definitv die wenigste Zeit im idle außer ich geh mal kacken. Ansonsten tue ich was am PC, surfe, Videos, spiele was auch immer aber was ich nicht tue: Ich sitze vorm PC starre den Desktop an und tue nichts. Das ist aber der idle Verbrauch und das sind die Zahlen dazu. Alles andere ist Teillast oder Vollast.
 
  • Gefällt mir
Reaktionen: DaBa
Sinatra81 schrieb:
Ich bleibe dabei, für ein gescheites Fazit/Einordnung/Kaufempfehlung(gerade wegen des hohen Preises) hätten praxisnahe Tests dazugehört!

Wenn bei 720p die Render-Auflösung zusätzlich auf 25-50% gesetzt oder mit FSR/DLSS Performance Mode getestet wurde, war es dann nicht nur 360p?

intereddy schrieb:
Warum wird in 720p und nicht in 4K getestet?

IBISXI schrieb:
Du kannst von keiner CPU die Performance über 720p Grafiktests abschätzen.
Du kannst damit nur den Einfluss der Grafikkarte minimieren.
Aber die Hardware ist um ein vielfaches komplexer geworden.

Badly schrieb:
Vorab ich will nicht schimpfen...
Aber wer will den in Gottes Namen 2023 noch nen fucking Bottle Neck Benchmark in 720p sehen.

domian schrieb:
So schön die Tests in 720p auch sind, damit nichts ins CPU limit läuft, ist es für mich nicht praxisrelevant. Kein Besitzer einer 4090 wird jemals diese Auflösung nutzen.

fox40phil schrieb:
und was genau hat man davon, wenn man gar nicht in 720p zockt? Dann nützen einem die Zahlen auch nichts.

Miuwa schrieb:
Sorry, falls das inzwischen schon zu Tode diskutiert wurde, aber: Ist ja schön, wenn das die Unterschiede besser darstellt, aber was hilft mir das, wenn die Ergebnisse für mich in der Praxis nicht relevant sind.

usw. usf.

Es wird zwar hier oft an den Symptomen erklärt, warum man in 720p misst, nicht jedoch der technische Hintergrund, womit es bei einigen sicher noch zu Verständnisschwierigkeiten kommt.
Auch fällt immer wieder der Ausdruck "Praxisrelevanz" in diesem Zusammenhang.

Dabei wird die "Praxisrelevanz" umschrieben als ein Zusammenspiel aller sich im PC befindlichen Komponenten inkl. des neu zu testenden Prozessors.

Holen wir also mal ein wenig aus, damit das alles verständlicher wird (hoffentlich):

Schauen wir uns zuallererst an, welche Arbeiten ein Prozessor in Sachen Game- Engine zu erledigen hat:
-Verarbeitung von Szenendaten
-Verarbeitung von Physik
-Verarbeitung der Usereingaben
.... viele, viele andere Kleinigkeiten...

und dann:
-Synchronisation aller Daten mit anschließender Weitergabe der Szenendaten an den Grafikkartentreiber.

Und nun kommen wir auch schon zu einem der am häufigst auftretenden Missverständnisse.
Viele assoziieren mit der Ausgabeauflösung eine erhöhte Detaildichte in Sachen Geometrie, Texturen und Co., die dann wiederum mehr Last auf die CPU legen müsste.

In Wirklichkeit ist es aber so, dass ein Prozessor seine Instruktionen, die von der Game- Engine kommen, komplett auflösungsunabhängig rechnet.
Die Szenendaten liegen nicht Pixelbasiert, sondern Vektorbasiert vor, also quasi in unendlicher Auflösung und Objektdichte.

Die CPU schickt anhand der vorliegenden Daten dann z.B. den Befehl: Zeichne einen Kreis an dieser oder jener Stelle mit Durchmesser XY. Oder - Zeichne dort ein Viereck. Diese Befehle sind die berühmt- berüchtigten Draw Calls.

Das geht dann in Richtung Treiber, der die Zeichenbefehle entgegennimmt, anschließend prüft, welche Auflösung ausgegeben werden soll und die Szenendaten/Koordinaten anschließend ins Verhältnis zur Auflösung setzt, an die Grafikkarte zur Verarbeitung schickt und in die vorgegebene Auflösungsmatrix (Auflösung des Anzeigegeräts) presst.
Diesen Vorgang nennt man Rastern.

Die CPU hat also keinen Berührungspunkt, wenn es um Dinge wie Auflösung geht.
Das Verarbeiten einer Auflösung findet nämlich im Zusammenspiel des Grafikkartentreibers (CPU spielt ab da nur mehr eine untergeordnete Rolle) mit der GPU statt.

Will ich jetzt also wissen, wie oft wie schnell die CPU ihre Daten maximal an den Treiber schicken kann, muss ich möglichst alles ab Treiber, was die Verarbeitung behindern könnte ausblenden.

Eine überlastete Grafikkarte verhindert eine ungestörte Verarbeitung, die zur Ermittlung der Verarbeitungsleistung der CPU notwendig ist.
Der Treiber schickt in diesem Fall ein Signal an den Prozessor, dass dieser mit der Verarbeitung und dem Schicken weiterer Daten warten soll, weil das Bild durch die Grafikkarte noch nicht fertig gerastert ist.

Spätestens ab da ist die Leistungsmessung der CPU durch die langsame Verarbeitung der Grafikkarte für den Mülleimer.

Die ermittelten Werte, wenn man von einer CPU Leistungsmessung spricht, sind also idealer Weise die, die man mit dieser CPU bei der getesteten Software mit einer unendlich schnellen Grafikkarte erreichen könnte.

Dazu auch eine Messreihe, die das Verhalten nachweist:
https://www.computerbase.de/forum/t...t-eine-frage-des-limits.1946885/post-24153414

Wir sehen anhand der Messung - Solange man die CPU ungebremst die Szenendaten verarbeiten lässt, ist völlig egal welche Auflösung gewählt wird. Sie bleibt immer gleich schnell.

Das was die CPU in 300x200 an FPS und min. FPS maximal auf in Richtung Grafikkartentreiber schaufelt, unterscheidet sich nicht von den Werten, die diese CPU auch in UHD erreichen könnte, wäre die Grafikkarte dahinter unendlich schnell.

Somit steht dieser Wert ganz praxisrelevant für sich selbst.
Erreicht die zu messende CPU in Titel XY in niedriger Auflösung nicht mehr als min. 50 FPS, kann ich davon ausgehen, dass dies auch in allen höheren Auflösungen der Fall sein muss. Egal wie schnell die Grafikkarte dahinter ist.

Will ich in entsprechendem Titel also mindestens 60FPS erreichen, käme dieser Prozessor grunsätzlich nicht in Frage- Nebst dem, dass natürlich auch die Grafikkarte mitspielen muss.

Zeigt der CPU- Test, dass Du mit einem Prozessor mindestens 80FPS erreichen müsstest, Du erreichst aber nur 50FPS, dann weisst Du, dass nicht der Prozessor als schuldige Komponente auszumachen ist, sondern dass die Grafikkarte schwächelt.

Somit erhält man mit einem Test in niedrigen und niedrigsten Auflösungen die einzig praxisrelevanten Werte, die man zur Beurteilung der Leistungsfähigkeit einer CPU mit Spiel und Engine XY erhalten kann.
Nebst dem, dass man natürlich eine Aussicht auch für die Leistung bei zukünftigen Spieletitel erhält, da sich die Workload bei Spielen im Normalfall nicht fundamental unterscheidet.

Bei Rückfragen bitte gerne einfach melden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, wrglsgrft, sent!nel und 21 andere
ComputerJunge schrieb:
Ich bin da schon dabei.

Nehmen wir 300 Anschläge/Minute: Das bedeutet vereinfacht , 5 mal pro Sekunde auf den Hardwareinterrupt reagieren, die Tastennummer auswerten, den passenden Glyphen finden und rendern lassen. Das ist reines "Idling".

Der gegenzurechnende Grundverbrauch einer GPU gehört natürlich auch in dieser Effizienzbetrachtung berücksichtigt.
okay, und das Programm was offen ist und gegebensfalls nach updates sucht ist bei dir idle? Okay, dann habe ich eine andere Vorstellung davon was Idle ist. Also wenn du im Word was schreibst ist es Idle, habe ich
das richtig verstanden?
 
Kuristina schrieb:
Wenn man tagsüber daran arbeitet und abends dann bestmöglich spielen möchte?
Versteh das Problem nicht. 🙂
Zu meinem ersten Part: Dann ist man auch nicht im Leerlauf.

Zu meinem zweiten Part: Für mich gibt es auch kein Problem. Ich baue mir kein System mit einem 7950X3D/13900K(S) und einer 4090 zusammen, verwende das System primär für Office-Arbeiten und meckere über einen erhöhten Strombedarf vom 7950X3D im Leerlauf (oder bissl Office). ;)

Bezog sich auf die Leute, die sich das als Argument nehmen.
 
Ich wünsche allen, die sich die neuen CPUs anschaffen, viel Spaß damit :D Vereinzelnt sind sie ja lieferbar. Zumindest der 7900X3D.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Trent
till69 schrieb:
Dafür brauch ich keine Stunden. Edge offen und ein YT Video reicht schon. Mein 5900X lag zwischen 105-110W (Idle ca. 53), mein 13700K liegt bei 65W (Idle ca. 50), bei gleicher GPU. Ob Zen4 es besser kann glaube ich eher nicht.
Dir ist schon klar das Video schauen stark von der GPU abhängt? und mit der CPU meist gar nix zu tun hat. ah du formulierst es richtig, glauben
 
  • Gefällt mir
Reaktionen: Rockstar85
till69 schrieb:
Dafür brauch ich keine Stunden. Edge offen und ein YT Video reicht schon. Mein 5900X lag zwischen 105-110W (Idle ca. 53), mein 13700K liegt bei 65W (Idle ca. 50), bei gleicher GPU. Ob Zen4 es besser kann glaube ich eher nicht.
Also schaust du 24/7 nur Youtubevideos?
 
mcsteph schrieb:
Dir ist schon klar das Video schauen stark von der GPU abhängt? und mit der CPU meist gar nix zu tun hat
Stimmt nicht. Die CPU ist IMMER involviert - egal, was am PC gemacht wird.

Ich habe (an der Steckdose gemessen!) mit meinem 13900KS ca. 15-20W weniger Leistungsaufnahme beim Schauen von YouTube bzw. Browsen als mit dem 5800X3D. Bis auf Mainboard und CPU alles identisch.
 
Wolfgang schrieb:
Artikel-Update: Der Artikel enthält auf der dritten Seite jetzt auch die Messerergebnisse zur Leitungsaufnahme im Leerlauf (weiterhin hoch) sowie unter Last in Anwendungen und Messungen zur Temperatur.
Leerlauf mit welcher GPU? Hoffentlich der RTX 4090 - aus persönlicher Erfahrung weiss ich nämlich dass eine RX 7900 XTX mit dem aktuellen Treiber zu viel im Idle verbrennt :D Oder zieht ihr bei eurer Messung die GPU Board Aufnahme vom Resultat ab? Dann ist es ja nicht mehr der ganze Rechner.
 
iron_monkey schrieb:
Wenn alle Argumente ausgehen, werden Spiele PCs mit 4090 und 400€ CPUs auf einmal den ganzen Tag im Idle "genutzt" und der Idleverbauch ist spontan das wichtigste Kriterium auf der Welt und AMD ja einfach nur
technologisch so weit weg... aber der Verbrauch bei Last ist dann trotzdem egal!
Das sollte man differenziert sehen. AMD ist in der Lage quasi nicht benutzte Kerne unter Spielelast mit den 3D Modellen abzuschalten. Das konnte die vorherige Serie nicht leisten. Zudem war diese auch explizit auf maximale Leistung getrimmt, während die 3D Varianten für eine deutlich niedrigere Anwendungsleistung erheblich den Strombedarf reduziert hat.

Das ist auch mit einem 13900K ganz leicht möglich. Meine CPU ist beispielsweise auf 88 Watt limitiert und büßt dadurch in Spielen etwa 5% an Leistung ein.
iron_monkey schrieb:
Ich stelle mir das ziemlich blöde vor längere Zeit vor dem PC zu sitzen und zuzuschauen wie der nichts macht, weil mit Maus in der Hand und Geklicke ist ja kein Idle!
Der Idle Verbrauch ist eine wichtige Metrik.
Die Leistungsaufnahme der CPU wurde ja nur in 720p vermessen, nicht etwa in der Praxis, wenn beispielsweise die GPU limitiert. Hier sah man in der Vergangenheit deutlich Nachteile bei AMD CPUs.
Natürlich wäre so eine Messung für ein Gesamtbild notwendig.

Diese Werte kann man sich hier anschauen:
https://www.igorslab.de/en/amd-ryzen-9-7950x3d-gaming-and-workstation-review/11/

@4K 39 Watt für den 7950X
@4K 63 Watt für den 13900K

Das gilt natürlich nicht dann, wenn die abgeschalteten Kerne des 7950X andere Aufgaben erledigen.

iron_monkey schrieb:
Wer kennt es nicht, wenn der Porsche einfach im Leerlauf in der Garage weniger verbraucht als der Lambo und die unwissenden Lamboboys es nicht begreifen wollen!
Das ist eben meistens die Aufgabe der Hardware. Nichts oder nur wenig zu tun.
Du hast die Zusammenhänge einfach nicht wirklich verstanden.
 
Es ging mir mit meiner Aussage auch gar nicht darum welche CPU nun besser ist, sondern darum wie die Leistungsaufnahme in realen Usecases ist.
Und das am besten an der Steckdose, mit ansonsten identischen Systemen.
Dabei dann den Gesamtverbrauch ermitteln bei der gleichen Anzahl an abgeschlossenen Arbeitsaufgaben.
 
  • Gefällt mir
Reaktionen: Martinfrost2003
Zurück
Oben