Test Ryzen 5 9600X & Ryzen 7 9700X im Test: AMDs Single-Core-König und Effizienzmeister

Nixdorf schrieb:
Wo ComputerBase 3W mehr misst, hat Heise 8W weniger als beim Vorgänger gemessen.
Zeig mir dein Idle und ich sag dir wer du bist.^^

Wenn man den Verbrauch im Idle selbst überprüft, dann merkt man aber auch das dieser relativ sprunghaft sein kann, bei mir sind es für den gesamten PC an der Steckdose gemessen so ca. zwischen 45 und 55 Watt, also im Durchschnitt 50 Watt.^^
 
  • Gefällt mir
Reaktionen: JarlBallin
mahrhofer schrieb:
Bei allem Ärger, den ich komplett verstehen kann:
Warum machst Du keine RMA bei Intel? Ist ja nicht gesagt, dass der neue auch gleich wieder verreckt.
Sollte ja nun mit der verlängerten Hersteller-Garantie kein Problem sein, oder?
Alle Zahlen, die bisher von verschiedenen Seiten veröffentlicht wurden, zeigen eigentlich, dass die Ausfallquote im niedrigen einstelligen Prozentbereich liegt (und das auch nur für i7 und i9) und nicht bei 50%, was man glauben könnte, wenn man so die Kommentare in den verschiedenen Foren liest.....

Ich werde eine RMA veranlassen, sobald ich das neue Zen 5 System in Betrieb genommen habe, also hoffentlich sehr bald, aber vermutlich wird es ja Oktober werden bis X870E Boards verfügbar sind (ich hätte gerne ein ASUS ROG STRIX X870E-A).

Dann bekommt Intel die faule Gurke zurück und ich hoffentlich eine frische Gurke im Austausch, die dann sofort auf eBay wandert (mit Originalbeleg). Wenn dann noch mal etwas sein sollte, soll sich der Käufer damit rumschlagen. Ich nicht.

#donewithintel :D
 
  • Gefällt mir
Reaktionen: SweetOhm und Rockstar85
mae schrieb:
Woran machst Du das fest?
Die Ryzen 4000er stammen aus dem Jahr 2020. In der Zwischenzeit sind, wenn man die Mobile/APU-only Generationen mitzählt schon fünf neue Ryzen-Generationen "ohne Ryzen 3" (non-PRO) erschienen.
* Edit: Trifft zwar auf die Generation zu, aber nicht auf den 4100.

Ich muss aber ehrlich gesagt zugeben, die Ryzen PRO hatte ich nicht auf dem Schirm, diese haben dann zwar eine andere Zielgruppe, aber rein technisch ist meine Aussage damit dann auch falsch, denn mit dem Ryzen 3 PRO 8300G gibt es somit doch auch einen aktuellen Ryzen 3er, der aber preislich auch eher auf 5er Niveau liegt und damit für Budget-Builds uninteressant sein dürfte.

Eli0t schrieb:
Ein weiterer Grund ist Windows, weil das im Hintergrund viel mehr rumrödelt als Linux
Würde ich so grundsätzlich nicht mal unterschreiben. Bei meinem Labtop hatte ich mal nachgemessen und dort idle-te Linux etwa 2W höher als Windows. Kann aber auch am Kernel gelegen haben. Ich habe den Eindruck, dass der Energieverbrauch nach einem Kernelupdate gesunken ist. Bei meinem Desktop konnte ich überhaupt keinen Unterschied feststellen. Windows ist halt die ersten 10 Minuten nach dem Hochfahren recht ressourcenhungrig, was v.a. auf leistungsschwächeren Systemen auffällt. Wahrscheinlich will man auch gar nicht wissen, was die da machen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blende Up
LencoX2 schrieb:
Oder man holt sich ein Laptop und spart richtig Strom.
naja, aber mWn sind auch AMD Laptops jetzt nicht sooo sparsam. Da hat AMD wirklich noch n Thema.
Im Desktop finde ich das verschmerzbar, im wirklich mobil eingesetzten Laptop ist das aber natürlich schon mehr als nur ärgerlich.
 
FX/OCmaster schrieb:
hahahaa, warum das ? selbst der 14600k lacht die lhmen mühlen aus und dbald kommen die neuen die den amd 9000 in den boden stampfen

Ich bin mir nicht sicher, was "Ihmen mühlen" sind, aber momentan gibt es eher viel über den 14600K zu lachen, da es sich dabei um degradierenden/degradierten Kernschrott handelt :D .
 
  • Gefällt mir
Reaktionen: SweetOhm
Die eigentliche Stärke dieser Generation sind die geringen Kosten. Bei im Prinzip gleicher Node, von der TSMC tonnenweise und mit hohen Yields zur Verfügung hat. weil alle anderen auf N3 gehen, ist ZEN5 sehr klein vom Die her, sogar minimal kleiner als ZEN4.
Die Dinger sind vielleicht sogar billiger als ZEN4 herzustellen und AMD kommt dann am Ende über den Preis.

Wenn man ZEN5 so betrachtet - und natürlich hätte ich mir als Enthusiast auch deutlich mehr Leistung gewünscht - ist es einfach nur ein ZEN4-Refresh mit ein paar neuen Technologien für die Zukunft zu einem zukünftig noch besseren Preis. Das wäre dann schon okay.

Ich vermute, dass Intel am Ende des Jahres mehr abliefern wird mit den neuen Kernen, neuer Architektur usw.
Aber eben auch zu höheren Kosten.
 
  • Gefällt mir
Reaktionen: Galatian und Blende Up
Eli0t schrieb:
Klar, die tragen den Mainboard Herstellern auf, ganz viele LEDs zu verbauen, damit das Board schön leuchtet...
Und mit welcher Schwurbelei erklärst Du dann, dass die intel-Platform wesentlich weniger in idle zieht?
 
Scheint insgesamt ein gutes Produkt zu sein aber der Start hätte auch gerne ein bisschen später erfolgen können. Insgesamt kann man davon ausgehen dass in den nächsten Wochen durch Updates etc. das Produkt erst Marktreif wird. Das ist schade aber keine Katastrophe aus meiner Sicht. Ich bin auf jeden Fall auf die X3D Modelle gespannt da ich doch langsam meinen 3900X in Rente schicken möchte :)
 
  • Gefällt mir
Reaktionen: SweetOhm
OpenSystemFan schrieb:
Moinsen, die Sprungvorhersage ist eher zu sehen, in einem runter gebrochenen Befehl. Wenn man zum Beispiel etwas addiert oder multipliziert, dann werden eine Reihe von Befehlen in die CPU Queue gepackt und es soll einfach der nächste Befehl identifiziert werden, der schon abgearbeitet werden kann, da die Daten schon aus den Speicherstellen ausgelesen wurden und vorliegen. Diese Vorhersagen sind daher eher in Teilberechnungen von Einzelelementen, wie zum Beispiel eines Vektors zu suchen. Was der Spieler als nächstes macht, ist soweit weg, dass die Sprungvorhersage in der Zeit schon millionenfach tätig war. Für die CPU ist es unerheblich was sie berechnet. Am Ende kann sie eh nur addieren und führt alle Operationen darauf zurück. AND, OR, XOR. Das wars. Mein Vater hat den Intel 4004 programmiert, da musste man das per Hand machen. Da gab es beim Kauf ekn Handbuch dazu, wo jede mögliche Aktion drin stand. Im Kern läuft es heute immer noch gleich ab.

Danke fürs erklären, ich hab irgendwie nach ner passenden Analogie gesucht.

Man kann sich ein Computerspiel vielleicht vorstellen, wie das gleiche im echten Leben. Nehmen wir ein Rennspiel bzw. in reales Rennen mit dutzenden Fahrzeugen und einem echten Rundkurs.

Die Sprungvorhersage würde hier nicht vorhersagen, wie sich die Fahrzeuge bewegen oder was ein Fahrer als nächstes macht. Die Sprungvorhersage würde hier wohl eher voraussagen, wie sich einzelne Atome in irgend einem Fahrzeug verhalten.

So "klein" sind im Vergleich eben die Rechenoperationen auf die eine Sprungvorhersage Einfluss hat. Wie du schon sagst. Praktisch unendlich weit weg von dem was wir am Ende als Spiel oder Anwendung wahrnehmen.
 
Zuletzt bearbeitet:
Gravlens schrieb:
Wenn man den Verbrauch im Idle selbst überprüft, dann merkt man aber auch das dieser relativ sprunghaft sein kann, bei mir sind es für den gesamten PC an der Steckdose gemessen so ca. zwischen 45 und 55 Watt, also im Durchschnitt 50 Watt.^^
Kommt halt am Ende auch darauf an, was das Board alles kann, was angeschlossen ist und Co. Schalte ich meine Disko an, ist auch gleich mal fast 20 W mehr auf dem Wattmeter.

Snakeeater schrieb:
Das Spiele immer noch so wenig von Multi Cores profitieren bzw. so stark auf Single Core Leistung reagieren ist ein Armutszeugnis aller Engineentwickler. (?)
Das hat in dem Fall damit zutun, dass sich nicht jedes Problem in beliebigviele Teilproblem zerlegen lässt und je nach Problemstellung auch eine Synchronistation zwischen den einzelnen Teilproblemen hergestellt werden muss.

Es gibt hier zwei Gesetzte in der Informatik, die als Grenzen fungieren: Einmal Amdahls Gesetzt und das von Gustafson. In der Regel bewegt man genau zwischen diesen beiden Gesetzten. Amdahl geht davon aus, dass man ein Problem fester Größe hat, hier rennt man dann unweigerlich irgendwann in die Grenzen, die der serielle Teil des Problems darstellt. Gustafson wiederum besagt, dass man eine feste Zeiteinheit hat und man in der Zeit größere Probleme lösen kann.

Spiele lassen sich bis zu einem gewissen Punkt parallelisieren und bekommen dadurch ein Speedup, ab einem gewissen Punkt bringt das aber nichts mehr, weil der serielle Teil hier der limitierende Faktor wird. Ab dem Zeitpunkt müsste man dann die Probleme vergrößern. Bei Spielen würde das dann bedeuten, dass mehr NPCs, mehr Objekte und Co physikalisch berechnet werden, aber eben nicht das das Spiel per se schneller berechnet wird.

LencoX2 schrieb:
Oder man holt sich ein Laptop und spart richtig Strom.
Einer der Gründe, warum ich für YouTube und Co ein Macbook verwendet.
ElliotAlderson schrieb:
Ist das nicht rausgeschmissenes Geld?
Da das mein Hobby ist und ich nebenbei damit auch Geld verdiene, nein. Würde anders aussehen, wenn das jetzt nur so wäre.
 
  • Gefällt mir
Reaktionen: SweetOhm, LencoX2 und Rockstar85
engineer123 schrieb:
🤣

hat offenbar einen andren Test gelesen 🤣
Im Gaming bringen sie nicht mal was gegen den 6-Kerner 14600K zu stande.

In Anwendungen sind es marginale Zuwächse ohne die Intel Konkurrenz jetzt irgendwie in den Schatten zu stellen.

Für mich haben beide CPUs, 9700X und 9600X, für die neue Generation eine unterirdische Performance.
14 Kerne 20 Threads 181 Watt Maximum Turbo Power und "sterblich"
 
  • Gefällt mir
Reaktionen: SweetOhm und JarlBallin
up.whatever schrieb:
Für den Desktop Einsatz hoffe ich, dass sie irgendwann den Stromverbrauch im Idle runter bekommen.
Laut HWLuxx ist das Problem nicht der IoD, war es auch nie, sondern halt die Ausstattung der Mobo.

Und da haben ich zwischen meinem MSI X470 und einem gigabyte X470 schon heftige messbare Unterschiede gehabt.

Und das ist bei X670E nicht anders
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: SweetOhm, JarlBallin und PegasusHunter
Für Windows gibt es ja Custom Energiesparpläne welche den Idle Verbrauch deutlich senken kann, zumindest für AMD Ryzen.^^

Kann den aber vermutlich durch mein Undervolting nicht nutzen, mein PC schaltet sich im Idle random irgendwann ab und startet neu.^^
 
Zuletzt bearbeitet:
SavageSkull schrieb:
Bei Intel ist das Problem, dass ECC erst auf Xeon Modellen mit teuren Boards geht, was nachher ein Loch ins Portemonnaie reißt.
Seit Alder brauchst du "nur" ein W680 Board um ECC zu nutzen
Bei AMD kannst du ein 8700G Pro holen mit ECC support. Mein Deskmini zieht 6-8W im Idle, wenn man will geht da was.
 
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
So "klein" sind im Vergleich eben die Rechenoperationen auf die eine Sprungvorhersage einfluss hat. Wie du schon sagst. Praktisch unendlich weit weg von dem was wir am Ende als Spiel oder Anwendung wahrnehmen.
Genau so. Normalerweise nimmt eine CPU den nächsten Befehl und versucht diesen auszuführen. Fehlen die Daten stellt er diesen hinten an und nimmt den nächsten. Da oftmals eine Reihe an Befehlen noch nicht reif ist, verschwendet die CPU Taktzyklen. Stattdessen versucht man abzuleiten, welche Berechnung schon ausgeführt werden kann. Spart viel Arbeit und macht die CPU Effizienter. Gleichzeitig hat man die CPU Queue auch länger gemacht, da das auch Vorteile bringt. Beides Zusammen optimiert sich dann irgendwie wieder. Da kannst du wirklich in ein Rabbit Hole stürzen, wenn du das nachvollziehen willst. Bis zu den FX von AMD hab ich das gemacht, weil AMD da eigentlich kluge Sachen gemacht hat. Aber die waren damals noch zu früh. Und hier unbeliebt da keine FPS erzeugt hat.
 
DevPandi schrieb:
Kommt halt am Ende auch darauf an, was das Board alles kann,
Die Schwankungen habe ich ohne das ich irgendwas mache, ich will ja den Verbrauch im "Idle" messen.^^

Ich hatte ursprünglich etwas anderes geschrieben, aber da ich den Heise Test nicht kenne wäre das maximal nur ein Verdacht gewesen.^^
 
Zuletzt bearbeitet:
tso schrieb:
Würde ich so grundsätzlich nicht mal unterschreiben.
Bin ich ganz bei dir. Zwischen Win 10, 11 (nachdem ich es entschlackt hatte) und Manjaro sehe ich kein Unterschied im Idle
 
Ok da ich stark abweichende Ergebnisse sah von zumindest 1 Seite (offenbar nicht die einzige) konnte ich mir gestern nur erklären durch entweder wird 1 Webseite extrem bestochen und lügt offen, oder manche Tester bekommen tatsächlich drastisch bessere Ergebnisse was sonst wäre die Erklärung?

Daher dachte ich schon das wir mal abwarten sollten und das letzte Wort hier noch nicht gesprochen ist und offenbar hatte ich recht:

Also haltet mal die Luft an und wartet einfach ein paar Tage bis die Sache voll aufgeklärt ist. Das ist ne positive und negative Nachricht zugleich, aber die positive überwiegt meiner Ansicht nach.

Denn in Wirklichkeit mit irgendwelchen Updates werden die echten zahlen zumindest in Teilbereichen deutlich besser sein, der negative Part ist das man damit den Release versaut hat und negative Reviews generiert hat.

Ein reviewer PCWorld hat seine Ergebnisse delayed weil die Ergebnisse so inkonsistent sind, kannte ich bisher nicht aber Applaus dafür!
 
  • Gefällt mir
Reaktionen: SweetOhm
Pornstar schrieb:
Die Prozessoren wurden auf dem gleichen Board getestet, ansonsten macht der Test doch überhaupt keinen Sinn.
Sarkasmus erkennen ist leider nicht so einfach in geschriebener Form :) Das ist ein Problem aller Benches, die 500€ Boards als Maßstab nehmen. Außerdem ist der Vergleich selbst am gleichen Board fürn Arsch, weil alle Tester nie und nimma das gleiche Windows verwenden und ich kann mir nicht vorstellen, daß die alle CPUs mit dem aktuellen Windows nachtesten.
Pornstar schrieb:
Das enttäuschende ist die quasi nicht vorhandene Mehrleistung bei gleicher Verlustleistung zum 7700x.
Auch Dir sei erklärt, daß die neue Architektur außer bei AVX512 nicht einfach magisch erscheint. Die Kompiler müssen erst mal auf Zen 5 optimiert sein, damit sich das krasser auswirkt. Guckst Du Phoronix Benchmarks für eine größere Benchmark Auswahl. Man muß auch die Architektur verstehen und nicht nur stumpf irgendwelche Ergebnisser irgendwelcher Benches alleine in Betracht ziehen. Die Server Leute lecken sich jetzt schon alle Finger für die kommenden Server CPUs.
Pornstar schrieb:
Man hat hier immer noch eine high-end Desktop CPU und keine embedded CPU, mobiles Endgerät, das man Sparsam betreiben müsste.
Deswegen gibt's PBO. Was ist daran so schwer zu verstehen? DU selbst kannst das Einschalten und wenn Du viel multi-core Arbeitsauslastung hast, dann bringts Dir auch entsprechend viel. Wenn Du nur zockst, ist es vollkommen irrelevant und dann ist die bessere Effizienz der richtige Weg. Das ist auch für OEMs gedacht und auch nochmals für Dich: Der DYI Markt ist sowohl für Intel und AMD vollkommen irrelevant. Die kümmern sich NULL um Dich oder sonst wen, der sein Gerät selbst zu Hause baut. Zuerst kommt Server, weil da sind die Margen entsprechend hoch, dann kommen die großen OEMs, dann kommen die relativ kleinen Systemintegratoren und dann kommt lange nichts und dann kommst Du. Schaffst Du es über deinen eigenen Tellerrand zu schauen und das große Ganze erkennen? Und kannst Du Dinge differenzierter beurteilen und nicht nur von Deiner Sicht aus?
 
  • Gefällt mir
Reaktionen: Gullveig, SweetOhm, Matthias80 und 4 andere
Zurück
Oben