Test Ryzen 9 7950X & Ryzen 7 7700X im Test: Leistung, Effizienz, IPC, Takt, iGPU und mehr analysiert

Nixdorf schrieb:
Und nun kommen die ersten Infos zu Boards, bei denen Feinde der hohen Temperaturen einfach einstellen können, wie warm es denn werden soll. Lieber 85°C, 75°C oder 65°C als Maximum? Kein Problem.
Das so ein Feature kommt, ist ja nicht überraschend, da es vergleichbar zum Eco Schalter, ein sehr einfaches Mittel ist, um den Energiebedarf zu steuern, ohne dabei brutal viel Performance auf der Straße liegen zu lassen ...

... überraschend dürfte eher sein, dass dieses Feature "noch nicht" drin war, denn die Boardhersteller dürften von dieser Eigenschaft des Zen4 ja schon gewusst haben.
 
Der Idleverbrauch ist echt nicht so prickelnd bei den AMD CPU. Die Boards sind ja bei Intel auch fett ,warum bekommt AMD das nicht so gut hin wie bei Intel. Gleiches Spiel mit Ampere, auch net so prall im Idle.
 
thenebu schrieb:
Ich bin noch auf Ivy Bridge.
jedoch tu ich mir ein wenig schwer beerdigte Standards wie AM4 zu kaufen.

Egal ob AM4 tot ist oder nicht.
Das sind alles Waffen im Vergleich zu Ivy Bridge.
Wenn eh nur 1x im Jahrzehnt aufrüstest, was juckt dich die Plattform?
Ergänzung ()

Kuestennebel79 schrieb:
Hehe nein, aber denkst Du, dass die Abwärme eines 5800x3d nicht das gesamte System belastet?
Das sind Hotspot Temps irgendwo im Kern, die tatsächliche Abwärme ist dabei recht gering, hier sind es bei Games im Schnitt 70W. Da hast mit den 120-170W der Anderen wesentlich mehr Probleme.
Ich hab den 5800X3D unter einem popeligen Freezer34Duo. Im Game werden es so 68-80 Grad.
Das ist unwesentlich mehr als vorher mit dem 2600X.

1664365795453.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, McTheRipper, LukS und 2 andere
Tornavida schrieb:
Der Idleverbrauch ist echt nicht so prickelnd bei den AMD CPU. Die Boards sind ja bei Intel auch fett ,warum bekommt AMD das nicht so gut hin wie bei Intel. Gleiches Spiel mit Ampere, auch net so prall im Idle.
Hat unter anderem mit dem Chiplet-Aufbau zu tun. Schon in früheren Generationen hat man gesehen, dass das Infinity Fabric als Interconnect den Idle-Verbrauch der CPUs ansteigen lässt. Man wird erst mit Meteor Lake wirklich sehen können, ob es Intel hier nicht ähnlich ergeben wird. Bisher gilt der Idle-Verbrauch deshalb jedenfalls als etwas, in dem monolithische Chips "von Natur aus" besser abschneiden.
Mit den verwendeten Mainboards hat das also erst in zweiter Linie zu tun, da dürften sich AMD- und Intel-Modelle so viel gar nicht nehmen.
 
  • Gefällt mir
Reaktionen: Rockstar85, Mydgard und Tornavida
  • Gefällt mir
Reaktionen: McTheRipper, Veitograf, Rockstar85 und eine weitere Person
Wenn ich mir also heute ein neues Rig zum 4k-Daddeln zulegen sollte, wäre wohl die preiswerteste Basis ein 5800X3D mit günstigem X570 Mobo und DDR4, dazu eine GraKa vom Schlage 3080ti (bzw. die neue AMD-GraKa-Generation), oder?
Wenn wg dem neuen Sockel von Ryzen 7k und DDR5 nur noch das Einstiegsmodell auf ein System zum gleichen Preis führt, dann wäre doch die Entscheidung einfach - oder übersehe ich da etwas?
 
heroesgaming schrieb:
Hat unter anderem mit dem Chiplet-Aufbau zu tun. Schon in früheren Generationen hat man gesehen, dass das Infinity Fabric als Interconnect den Idle-Verbrauch der CPUs ansteigen lässt.
Mit den verwendeten Mainboards hat das also erst in zweiter Linie zu tun, da dürften sich AMD- und Intel-Modelle so viel gar nicht nehmen.
Das scheint mir hier nicht der Fall zu sein.

Und das hängt zu 99% vom verwendeten Board und Chipsatz ab. Hat man ja schon bei X570 VS X470 und B550 gesehen.

1664371109954.png
 
Wilhelm14 schrieb:
Also kommen noch "kleinere" AMD CPU?
Derzeit sicher nicht. Die einzigen Modelle, die in nächster Zeit Sinn machen, sind der 7600 und 7800, also 6C und 8C mit max. 88W oder gar 65 W TDP. Ich weiß nicht, ob separate Modelle für die 7900X und 7950X überhaupt Sinn machen. Das binning bei diesen beiden ist grundsätzlich besser, die erreichen höhere Taktfrequenzen. Wer weniger Strom verbrauchen und weniger Wärme erzeugen und damit einfachere Kühlung verwenden möchte, kann den Eco mode nutzen.
Bei 7600 und 7800 stellt sich die Frage, wieviel ein besseres binning überhaupt bringt und der Eco mode nicht auch dort ausreichend ist.
Und die Frage zu günstigeren 7000 Modellen... Da wird eher später als früher Dragon Range bzw. Phoenix erscheinen, wobei ich ersteren als unwahrscheinlicher halte, aber ich weiß auch nicht, wie beide gedacht sind, als nur reine Spekulation. Mendocino wird sicher nicht kommen, dafür ist der nicht gedacht. Ich glaube, dass der auch nur verlötet werden soll. Der macht auch nur in kompakten NUC-artigen Modellen und natürlich Laptops Sinn.
Und dann ist da natürlich AMDs größtes Problem. AM4 CPUs sind noch super nutzbar.

Maximilian.1 schrieb:
Schade dass die iGPU nur 2 CU hat. Mit 6 CU wär das der Knaller.
Hoffentlich kommt ja noch was nach mit 6 CU und dafür Power Limit für CPU Teil niedriger...
Nein, einfach nur ein. Ich verstehe dich ja einigermaßen. Aber diese dicken CPUs mit mehr als einem Displayermöglicher zu designen, ist verschwendetes Silizium. Punkt.
Dafür besser auf die APUs warten und schauen, wieviel weniger Leistung diese bringen. Denn wenn man ein µATX/ATX/mini-ITX Board verwendet, sollte eine günstige sparsame Grafikkarte nicht das Problem darstellen. Und gerade unter Linux könnte man es so einrichten, dass die iGPU für den normalen Betrieb verwendet wird, während zum Gaming die dGPU herangenommen wird.

IronAngel schrieb:
Die hohe Idle Stromaufnahme liegt nicht nur an der CPU. Sondern an den MB Herstellern mit ihren fetten Boards.
Na da bin ich auch gespannt, was sich da mit der Zeit entwickelt. Aber es wäre auch spannend, was mit den jetzigen möglich ist, wenn man diverse UEFI Einstellungen anpasst. In den Standardeinstellungen ist ja normalerweise ALLES aktiv.
Ergänzung ()

tho_schmitz schrieb:
Wenn ich mir also heute ein neues Rig zum 4k-Daddeln zulegen sollte, wäre wohl die preiswerteste Basis ein 5800X3D mit günstigem X570 Mobo und DDR4, [...]
Wieso eigentlich ein X570 Mobo? Was willst du damit anfangen?
 
  • Gefällt mir
Reaktionen: tho_schmitz
gymfan schrieb:
Das einzige, was optimierungsfähig ist, ist der Idle-Verbrauch des Gesamtsystems. Egal, ob das an der CPU, dem Chipsatz oder dem DDR5-Ram liegt.

Für eine hohe Rechenleistung bei weniger Stromverbrauch ist mehr nötig wie nur eine geänderte CPU. Dann muss man sich gleich an das Konzept von Apple anlehnen, alle alten Windows- (und auch Linux-) Zöpfe abschneiden und ein integriertes System inkl. passenden (zwangs) APIs vorschreiben. Natürlich sind dafür große Teile der SW anzupassen oder gleich neu zu schreiben.

Dafür muss man sich ja nur die Cinebench R23 Zahlen des M1 und M2 gegenüber aktuellen x86 CPUs ansehen.

Ja am Besten vergleichen wir nächstens die 25-35W Notebookprozessoren mit den 300W Epyc Serverprozessoren.
Ist ganz genau das Gleiche! Nicht...

Davon ab ist da schon ein Ryzen 7 6800U in 7NM im Schnitt effizienter als die 5NM Apple Chips.
Und wenn ich mir die Effizienzsprünge in niedrigen TDP Bereichen ankucke welche 5NM mit sich bringt,
werden die 7000er Ryzen Notebookprozessoren in 5NM da wohl der neue Benchmark.

Also nein, dafür brauchen wir keine ARM, keine neuen APIs und keine alten Zöpfe abschneiden und keine neue Zwangssoftware.

Daher wer mit Apple will soll bitte, aber wieso deren Alleingänge und Extrawürste immer jeder nachmachen muss hab ich noch nicht begriffen.
 
DRVNabsolute schrieb:
Sorry, Zuverlässigkeit ist natürlich eine subjektive Komponente, aber ich dachte das wäre im Vornhinein jedem klar. Mein Fehler.
Ergänzung ()


Keine Ahnung ob es den AMD Fans hier aufgefallen ist, aber hier gibt es einige subjektive Kommentare, warum darf ich dann meine nicht äußern? Weil ich anders denke?

Keine Ahnung, ob du jeden Morgen dein "Intel-Müsli isst, aber Zuverlässigkeit bei CPUs... "out of the box" halten beide vermutlich eine Dekade oder mehr.
Wenn du aber "zuverlässig" mit "Konsistenz" gleichsetzt, dann hat Intel die definitiv schlechtere Bilanz:
Sockel 1150 -> 1151 -> 1200 -> 1700 = 4 Sockel in 9 Jahren.
AMD hat mit AM5 den 3. Sockel in 11 Jahren vorgestellt.
Klar könnte man Argumentieren: Intel hat 14nm soweit "optimiert" dass da nichts mehr zu zu machen war. Man könnte aber auch sagen: Intel hat extreme Schwierigkeiten gehabt, kleinere Fertigungsprozesse zu meistern.
Intel hat für mich keine Zuverlässigkeit, Intel geht für mich einen Weg, der völlig Sinnlos ist und dazu führt, das Intel an alte "Nordwald" Heizwürfel erinnert. Und ich gehöre zu der Sorte Mensch, die Northwood in Aktion erlebt haben. In Farbe. Und bunt. Und warm.

Sprich also bitte nicht von "Zuverlässigkeit" in Zusammenhang mit Intel...
 
  • Gefällt mir
Reaktionen: iron-man und alkaAdeluxx
Hyourinmaru schrieb:
Will heißen, ich würde sowohl mit Luftkühlung als auch mit Wasserkühlung trotzdem an die 95 °C kommen, die CPU könnte aber bei einer Wasserkühlung etwas höher takten.
Ist das so richtig oder bin ich hier auf dem Holzweg?
Ich würde sagen, sinnvollerweise limitiert man die TPP des 12 und 16 Kerners auf 150-170W also etwa 110-125W TDP und hat dieselbe Multicore Leistung oder minimal weniger (-3-4%) gegenüber voll ausgefahren also 170/230W. Spart dann auch Strom. Das sind dann schnell mal 10-12 Grad weniger. Dann kanner auch ordentlich boosten.
Und der Hase läuft.....
Singlecore und Game ist eh kein grosses Problem wies scheint.
 
  • Gefällt mir
Reaktionen: iron-man und Hyourinmaru
modena.ch schrieb:
Davon ab ist da schon ein Ryzen 7 6800U in 7NM im Schnitt effizienter als die 5NM Apple Chips.
Das klingt nach einer Nullaussage. Ich möchte dem gerne zustimmen, aber ich bin kein Fanboy.
Das wird erstens sicher nicht mit "im Schnitt" gelten, außer man wählt die entsprechenden Benchmarks sorgfältig aus. Aus Sicht der "user experience" wird das noch schwieriger und bei der Akkulaufzeit und gerade Standby-Dauer stimmt es leider nicht.
Du kannst gerne deine Benchmarks auflisten.

modena.ch schrieb:
Also nein, dafür brauchen wir keine ARM, keine neuen APIs und keine alten Zöpfe abschneiden und keine neue Zwangssoftware.
Möchte dem gerne zustimmen, aber ARM und später vielleicht auch RISC-V werden dennoch Vorteile bringen und x86 muss sich entweder stark verändern/anpassen, oder es wird abgehängt.
Ich will, dass alte Zöpfe abgeschnitten werden. Wenn z.B. 32bit Software auch über effiziente Emulation laufen könnte und dabei Vorteile entstehen, dann bitte ich drum. Wenn das Abschneiden anderer alter Zöpfe wiederum weitere Vorteile bringt und diese durch effiziente Emulation ersetzt werden können, gerne. Ich schreibe jetzt als Laie, aber Apples x86 Emulationsansatz hat mich aufhorchen lassen.
Denn wofür sind diese alten Zöpfe wirklich nötig? "Good old Games" und uralte Unternehmenssoftware, die nicht ersetzt werden kann. Emulation beider sollte ja wohl reichen.
tho_schmitz schrieb:
Aber ansonsten würde man dann doch am meisten fürs Geld bekommen, oder?
Was heißt das? Features, die nicht genutzt und gebraucht werden, sind Ballast und raus geschmissenes Geld.
 
  • Gefällt mir
Reaktionen: latiose88
modena.ch schrieb:
Das sind Hotspot Temps irgendwo im Kern, die tatsächliche Abwärme ist dabei recht gering, hier sind es bei Games im Schnitt 70W. Da hast mit den 120-170W der Anderen wesentlich mehr Probleme.
Ich hab den 5800X3D unter einem popeligen Freezer34Duo. Im Game werden es so 68-80 Grad.
Das ist unwesentlich mehr als vorher mit dem 2600X.
Das bedeutet, dass die eigentliche Abwärme eher von der Watt Zahl abhängt und mein Gehäuse und vorallem die GPU nicht mehr Wärme zu kühlen hätten? Der Verbrauch vom 5800x3d ist ja eher gering und ob der Kern intern 20 Grad mehr hat als bspw. mein 5600x, kann mir also egal sein. Müsste lediglich die Lüfterkurve vom Gehäuse anpassen.
 
oder wenn es etwas Extravaganter sein soll, diesen CPU Guard verwenden, den Roman in seinem letztem Video erwähnte
 
  • Gefällt mir
Reaktionen: iron-man
Kuestennebel79 schrieb:
Das bedeutet, dass die eigentliche Abwärme eher von der Watt Zahl abhängt und mein Gehäuse und vorallem die GPU nicht mehr Wärme zu kühlen hätten? Der Verbrauch vom 5800x3d ist ja eher gering und ob der Kern intern 20 Grad mehr hat als bspw. mein 5600x, kann mir also egal sein.
Richtig, die erzeugte Abwärme hängt immer vom Stromverbrauch ab, welcher eben fast zu 100% in Abwärme umgewandelt wird. Die Wärme im Kern kann dir fast egal sein, solange sie sich in den Herstellergrenzen bewegt.
 
  • Gefällt mir
Reaktionen: iron-man, Rockstar85, daknoll und eine weitere Person
Wurde das hier schon verlinkt? Mit etwas anpassen scheint doch alles halb so schlimm zu sein - sollte man Ryzen ja schon von AM4 her kennen.

Link klappte irgendwie nicht - ist das Video von OptimumTech uber PBO2 Tuning ...
 
Zurück
Oben