Test Ryzen 7000 mit 65 Watt im Test: 7900, 7700 & 7600 sind kaum langsamer als die X-Varianten

Die igpu bietet genügend Leistungen für Office Computern. Mehr als Uralt Office PCs deren igpu auch immer noch ausreichend ist.
Für alles andere gibt es Diskrete Grafikkarten oder die Mobile APUs
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Das ist mal ein erfreuliches Line-Up, wie ich mir das von aktueller, zeitgemäßer Hardware erwarte. Wahrscheinlich könnte man die X-Varianten die ganze Zeit schon so konfigurieren, wie sie hier jetzt als "Non-X" erschienen sind, aber in Tests usw. werden halt die Werkseinstellungen getestet, und da sah es bislang nicht so gut aus bezüglich der Effizienz. Vor allem dann nicht, wenn man nur gesehen hat, dass es sich um eine "170 Watt CPU" handelt und diese kaum schneller, bzw. gar nicht schneller ist als z.B. der 5800x3d.

Dass diese beim gleichen Szenario (Spiele) dann auch nicht (großartig) mehr verbraucht, als jetzt z.B. der 7900 ohne X, das wurde dann oftmals gar nicht mehr zur Kenntnis genommen. Da hat AMD sich wohl von Intel verleiten lassen, ich kann mich erinnern, dass Besitzer von den Top Intel CPUs schon oft berichtet haben, dass sie in Spielen auch kaum höhere Verbräuche haben (wenn überhaupt), als die entsprechenden AMD CPUs - und das trotz ca. 240 Watt maximaler Leistungsaufnahme.

Man darf gespannt sein auf die CPUs mit dem 3d Cache, aber die jetzigen non-X Versionen sind schonmal ein guter Anfang ins neue Jahr.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
MrHeisenberg schrieb:
Sehr geile CPUs! Hätte gerne noch den 7950 ohne X gesehen.
Da gehe ich mit, wobei ich glaube das AMD sich das verkneifen wird.
Im Moment, bzw. ab Morgen, ist der 7950x die einzige interessante CPU mit X, zumindest für bestimmte Anwendergruppen.

Ich bin wirklich gespannt auf den Preis des 7900, wenn er erstmal ein paar Tage verfügbar ist.
 
  • Gefällt mir
Reaktionen: Kenzo2019
theGucky schrieb:
Ich sehe das Problem in der Boostkurve ALLER Zen3 und Zen4 CPUs, wobei Zen4 schlimmer geworden ist.

Der Eco-Mode bzw die non-X CPUs cappen die Kurve nur, aber ändern diese nicht.
PBO (Curve Optimizer) zieht die Kurve leicht runter, also weniger Spannung, aber nicht viel bzw nicht genug.
Dann gibt es den Voltage-Offset, aber wenn man den zuviel runterzieht, crasht die CPU im Idle.
Den K(r)ampf hatte ich mit meinem 5950X. (welche im Single bis 1,5V!!! hoch ging)

Die einzige Alternative die half, war einen festen Takt und Spannung zu nutzen. Dadurch boostet die CPU aber natürlich nicht mehr. Aber die Temperatur ging in Spielen und bei Youtube, u.a. um 40°C runter und sie verbrauchte auch weniger. Dabei verlor ich "nur" 10% CPU Leistung im Cinebench Single. Im Multi war sie sogar 10% höher, weil der manualle Takt über dem Stock Takt war.

Was ich von AMD will, ist die Boostkurve manuell anpassen zu können, genau wie eine Lüfterkurve.
Bei GPUs geht das!!!!

Im Test sieht man einfach das die oberen 10% Leistung oftmals 50% des Stroms kosten.
Und DAS gilt es zu verhindern/ändern. Oder lasst den Leuten zumindest die Möglichkeit.
AMD und Intel machen das um die Performancekrone zu bekommen, aber am Ende finde ich es einfach nicht wert.


Ich spreche jetzt nur von Zen 3, aber der Eco Mode macht doch nichts anderes, als bestimmte Werte für PPT/TDC/EDC einzustellen. Also die max. Leistungsaufnahme zu limitieren.

Mir zeigt es auch direkt an, dass PBO aktiviert und diese drei Werte verändert werden, sobald ich den Eco Mode einschalte.

Eco Mode aktivieren oder manuell die gleichen Werte für PPT/TDC/EDC einzutragen führt bei mir auch exakt zum gleichen Ergebnis hinsichtlich Performance, Takt, Leistungsaufnahme und Temperatur.


Der Curve optimizer ist doch hier völlig separat und wird mMn davon nicht beeinflusst.

Letztendlich ist es doch das gleiche wie bei ner GPU, bei der man das Powerlimit einstellt. Das wirkt sich auch nicht auf die Stabilität aus. Curve Optimizer (Spannungsoptimierung bzw. UV) hingegen schon.


Ich lass mich gerne korrigieren, hab den Curve Optimizer nie genutzt, aber dass die PBO Limits darauf Einfluss hätten wäre mir neu.
 
  • Gefällt mir
Reaktionen: bad_sign
Smartin schrieb:
Wenn man die mal gleich gebracht hätte. Dann wäre die 7xxxer Reihe auch nicht so gefloppt, da man deutlich weniger Strom verbraucht hätte und die Preise auf einem vernünftigen Level geblieben wären. So hat man sich leider selbst das Leben schwer gemacht.
Da man das Top Modell nicht eingeholt hat, trotz X, wäre ein non X Release weiser gewesen.
 
W0dan schrieb:
Eco Mode aktivieren oder manuell die gleichen Werte für PPT/TDC/EDC einzutragen führt bei mir auch exakt zum gleichen Ergebnis hinsichtlich Performance, Takt, Leistungsaufnahme und Temperatur.

Das obere stimmt zu 100%
curve optimizer ist etwas anderes.
Sieht man auch im Ryzen Master. Aufpassen muss man leider, wenn man eine AMD catalyst Grafikkarte hat. Die pfuscht einem in die BIOS Settings. Bios wird hier im Sinne UEFI benutzt.

Der Curve Optimizer fuer zu Abstürzen oder Instabilitäten mit meiner Hardware. Ich unterstelle mal, die Leute die diese Guides schreiben haben nicht auf Stabilität getestet. Eine GCC Compiler auf GNU LINUX führt recht rasch zu Fehlern. Windows generiert WHEA Fehler. Curve Optimizer Werte von Maximal 4 je Kern - die notwendige Zeit dies auszutesten - ist nicht wirklich sinnvoll bei einem 5800X auf einem B550 MSI Gaming EDGE Wifi Mainboard. Ich brauche korrekte Binaries - deshalb ist Curve Optimizer für mich - nicht zu gebrauchen - bzw. zu Zeitaufwendig für fast keinen Nutzen.

--

Leider hat mein B550 MSI Gaming Edge Wifi Mainboard, Ryzen 5800X, AM4 Kühler, 2x32GB DDR4 + 2x8GB DDR4 so viel Wertverlust, das(s) ein Wechsel sich nicht auszahlt. Aufgrund DDR5 Zwang bei AMD will ich nicht aufrüsten, obwohl sehr großes Interesse besteht. Auch wird es vermutlich sehr viele UEFI AGESA Fehler geben in den ersten 2 Jahren der Plattform.
 
  • Gefällt mir
Reaktionen: Mimir
Danke für die Test. Scheinbar sind die X-Modelle doch etwas besser. Müssen wohl selektiert sein. Kommt dann wohl auf den Straßenpreis an.
 
Zenx_ schrieb:
Mit nem 5600g kann man ja auch kaum was zocken selbst auf Full HD, ob das sich mit RDNA 3 ändern könnte weiß ich nicht, da würde sich jede gebrauchte GPU für 150€ zusätzlich mehr lohnen.
Du kannst in full hd fast jedes Spiel zocken also übertreib Mal nicht
 
  • Gefällt mir
Reaktionen: TheHille und Öcher Tivoli
Oppagolf schrieb:
op Intel CPUs schon oft berichtet haben, dass sie in Spielen auch kaum höhere Verbräuche haben (wenn überhaupt), als die entsprechenden AMD CPUs - und das trotz ca. 240 Watt maximaler Leistungsaufnahme.

Das ist schön, aber, wie hoch war die CPU Auslastung pro Kern, wie viele Kerne wurden benutzt? Welches Mainboard wurde benutzt? Welcher Chipsatz? Welche Peripherie ist angesteckt? Wie sind die UEFI und der Windows Energie Sparplan?

Bei AMD bin ich denke ich recht nah am optimalen Stromverbrauch. B550 / 5800X / R6600XT GPU

Es zählt immer die ganze Plattform.
Eine 6600XT frisst um ~30-50 Prozent weniger als eine 3070ti, siehe Computerbase Artikel (idle / gaming)
B550 frisst um etliches weniger als X570 Chipsatz, usw.
5800x (etwas naeher am ECO Mode, aber haendisch eingestellt im UEFI)
 
duskstalker schrieb:
ich würde beim 7900X3D nicht so voreilig sein. da bahnt sich schon das nächste unheil an, weil nur ein CCD den 3DVcache hat. im prinzip ist das ein 6kerner mit 3dvcache mit einem zweiten 6kern CCD, der ja keinen gaming thread abbekommen darf.
Ja, die Diskussion wurde hier hart geführt. Ich sehe das noch nicht, die Unterschiede durch die beiden CCDs und den notwendigen Datenaustausch waren bisher immer schon messbar, aber sicher nicht fühlbar. Nicht umsonst hat AMD den beiden "Grossen" mehr Takt mitgegeben als dem 7700x3d um das dann (hoffentlich) auszugleichen.

Meine Prognose (alle Stock mit Standardram): Der 7900x3d ist in Spielen 15-20 Prozent schneller in Spielen als der 7900er und damit knapp schneller als ein 13900ks. In manchen Spielen langsamer, in manchen schneller, spielt am Ende aber keine Rolle.
Dafür braucht er signifikant weniger Strom, kein Luxusram, heizt mir somit nicht die Bude auf und lässt sich unhörbar mit meinem steinalten Dark Rock kühlen, ganz ohne teuren Wakü Bullshit für die CPU. Und wenn er mal arbeiten muss, ist er deutlich und spürbar schneller als ein 5800x3d und nah an einem 13700k / 12900k für die Hälfte des Verbrauchs / der Hitze. Das ist dann genau das, was ich will.
Habe ich Unrecht und es fehlen 5% auf den 13900K(S), wird trotzdem gekauft und weniger wird es hoffentlich nicht sein. Ist er schneller, ist es natürlich schön.

Wer noch mehr Leistung für Anwendungen braucht, geht dann zu 13900K(S) oder zum 7950x(3d), für mich ist der 7900x3d auf dem Papier perfekt - und ich vermute, damit bin ich nicht allein.
Der 7900x und die Intels sind mir zu versoffen / zu heiss / zu laut / zu teuer zu kühlen und die Zen 5 insgesamt bisher nicht schnell genug in Spielen, gerade im Vergleich zu den dort sehr guten Raptor Lake.

Aber ich bin natürlich ein braver Junge und warte auf den CB-Test. Bis dahin liegt meine konfiguration im Alternativen Warenkorb...
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
  • Gefällt mir
Reaktionen: Col.Maybourne und bensen
Wechsler schrieb:
Bei Desktop-iGPUs erwarte ich mindestens die Leistung der mobilen Pendants.
genau so gut kann man auch erwarten, dass du den Unterschied zwischen einer CPU mit iGPU und APU verstehst, sowie die voraussichtlichen Einsatzzwecke der Prozessoren
 
  • Gefällt mir
Reaktionen: ComputerJunge, Miuwa, Col.Maybourne und eine weitere Person
Blood011 schrieb:
Wenns jetzt noch MBs für ~100Euro geben würde....dann wär der 7600 gekauft,aber so..
Ehrlich: Ich glaube, das kommt ganz lange nicht auf unserem (europäischen) Markt. Dafür brauchen wir eine langanhaltende Krise, die uns auf Vorcoronaniveau bringt.
Schon die einzelnen Komponenten wie Spannungswandler und Anschlüsse sind viiiel teurer geworden. Das kommt so schnell nicht zurück.

Ist am Ende aber eigentlich auch egal - ein gleich schnelles System kriegst Du ja mit einem B450 + 5800x3d.
 
JJJT schrieb:
Da stellt sich echt die Frage, warum AMD uns, sich selbst und den Boardpartnern diese hohe tdp bei den x Modellen angetan hat.
Du stellst die richtige Frage. Was wird AMD auf AM5 bis 2025+ an CPU Modelle liefern ^^
 
catch 22 schrieb:
genau so gut kann man auch erwarten, dass du den Unterschied zwischen einer CPU mit iGPU und APU verstehst, sowie die voraussichtlichen Einsatzzwecke der Prozessoren
Ich verstehe AMDs Geschäftsmodell und verzichte deshalb auf diese Produkte. So einfach ist das.

Die "Einsatzzwecke" von "General Purpose" x86-CPUs mit "General Purpose" Compute-Units muß ich dir nicht erklären, oder? Die gibt es schlicht nicht. Für "Einsatzzwecke" werden ASICs gefertigt.
 
Gefällt mir. Mir kommt keine CPU mehr mit mehr als 65 Watt TDP in den Rechner. Aber der 5600X ist erstmal noch schnell genug. Vermutlich auch noch ein paar Jahre lang.
 
JJJT schrieb:
Da stellt sich echt die Frage, warum AMD uns, sich selbst und den Boardpartnern diese hohe tdp bei den x Modellen angetan hat.
Das gleiche Szenario Zen3 gegen Rocket Lake (11er). Intel konnte nur mit hoher TDP gegenhalten.

Jetzt hat es Zen4 schwer gegen Raptor Lake (13er) trotz hoher TDP.
 
Syrato schrieb:
Da man das Top Modell nicht eingeholt hat, trotz X, wäre ein non X Release weiser gewesen.
Es ist ja eher ein "wollen", als ein können.

Wir verstehen die Politik von AMD wohl alle nicht, aber es wäre ja ein leichtes für AMD einen 24-Kerner zusammenzukleben mit x3d, der dann genau so überlegen ist wie sie es bereits im Serverbereich sind. Da sieht Intel bereits kein Land und schafft nicht einmal die Hälfte der Leistung und braucht dafür noch einmal die doppelte Menge Energie.

Ich hätte ehrlicherweise auf mindestens einen 24-Kerner gewettet, als ich die TDPs gehört hatte, natürlich mit x3d-Cash. Damit wären die Rollen klar verteilt gewesen. So hat AMD ein Quartal weggeworfen und Intel (die für `23 absolut nichts in der Pipeline haben) mit RL zurück ins Spiel geholt. Keine Ahnung warum, aber scheinbar soll die Überlegenheit der eigenen Produkte (oder besser der TSMC-Fertigung) erst einmal nur auf Server und Laptops beschränkt werden - dort sehen wir dieses Jahr ja angeblich bald die 4nm-Chips und wie sparsam und schnell die sein können, hat NV ja gerade gezeigt.
 
JJJT schrieb:
Da stellt sich echt die Frage, warum AMD uns, sich selbst und den Boardpartnern diese hohe tdp bei den x Modellen angetan hat.

Man hätte getrost bei den 105 Watt von am4 bleiben können und alles wäre für alle kühler und billiger gewesen und AMD hätte in einem wesentlich besseren Licht dank überragender Effizienz gestanden.

Schräg das Ganze.
Weil dann die Leistungskrone zu Intel vermutlich in nicht greifbare Nähe gerückt wäre.
Und was Intel kann, kann AMD halt auch, sinnlos Energie zu verpulvern bzw. Wärme zu erzeugen.
Das jetzt die sparsameren CPU's and die Reihe kommen, ist vermutlich dem milden Winter in Deutschland geschuldet 😉
 
Zurück
Oben