Test Ryzen 9 7950X & Ryzen 7 7700X im Test: Leistung, Effizienz, IPC, Takt, iGPU und mehr analysiert

rasenschach schrieb:
Link klappte irgendwie nicht - ist das Video von OptimumTech uber PBO2 Tuning ...
Na mal gucken...

 
  • Gefällt mir
Reaktionen: Zwirbelkatz
tho_schmitz schrieb:
Hast recht - ein B550 täte es natürlich auch. Aber ansonsten würde man dann doch am meisten fürs Geld bekommen, oder?
Derzeit? Ich denke auch, wenn es um maximale Gaming-Leistung und -Effizienz fürs Geld geht. Mit dem 5800X3D hat AMD schon eine ziemlich nette Aufrüstoption für alle Bestandsnutzer geschaffen.

Alder-Lake steht P/L-mäßig aber auch ziemlich in Ordnung da. Und wenn man nach den Preis-"Leaks" für Raptor Lake geht, sieht es dort wohl auch nicht schlecht aus.
 
  • Gefällt mir
Reaktionen: tho_schmitz
da!mon schrieb:
Keine Ahnung, ob du jeden Morgen dein "Intel-Müsli isst, aber Zuverlässigkeit bei CPUs... "out of the box" halten beide vermutlich eine Dekade oder mehr.
Wenn du aber "zuverlässig" mit "Konsistenz" gleichsetzt, dann hat Intel die definitiv schlechtere Bilanz:
Sockel 1150 -> 1151 -> 1200 -> 1700 = 4 Sockel in 9 Jahren.
AMD hat mit AM5 den 3. Sockel in 11 Jahren vorgestellt.
Klar könnte man Argumentieren: Intel hat 14nm soweit "optimiert" dass da nichts mehr zu zu machen war. Man könnte aber auch sagen: Intel hat extreme Schwierigkeiten gehabt, kleinere Fertigungsprozesse zu meistern.
Intel hat für mich keine Zuverlässigkeit, Intel geht für mich einen Weg, der völlig Sinnlos ist und dazu führt, das Intel an alte "Nordwald" Heizwürfel erinnert. Und ich gehöre zu der Sorte Mensch, die Northwood in Aktion erlebt haben. In Farbe. Und bunt. Und warm.

Sprich also bitte nicht von "Zuverlässigkeit" in Zusammenhang mit Intel...
da!mon schrieb:
Keine Ahnung, ob du jeden Morgen dein "Intel-Müsli isst, aber Zuverlässigkeit bei CPUs... "out of the box" halten beide vermutlich eine Dekade oder mehr.
Wenn du aber "zuverlässig" mit "Konsistenz" gleichsetzt, dann hat Intel die definitiv schlechtere Bilanz:
Sockel 1150 -> 1151 -> 1200 -> 1700 = 4 Sockel in 9 Jahren.
AMD hat mit AM5 den 3. Sockel in 11 Jahren vorgestellt.
Klar könnte man Argumentieren: Intel hat 14nm soweit "optimiert" dass da nichts mehr zu zu machen war. Man könnte aber auch sagen: Intel hat extreme Schwierigkeiten gehabt, kleinere Fertigungsprozesse zu meistern.
Intel hat für mich keine Zuverlässigkeit, Intel geht für mich einen Weg, der völlig Sinnlos ist und dazu führt, das Intel an alte "Nordwald" Heizwürfel erinnert. Und ich gehöre zu der Sorte Mensch, die Northwood in Aktion erlebt haben. In Farbe. Und bunt. Und warm.

Sprich also bitte nicht von "Zuverlässigkeit" in Zusammenhang mit Intel...
Mit Zuverlässigkeit meine ich Zuverlässigkeit und damit die Resistenz gegen Bugs. Wenn du hier was anderes behauptest bist du einfach ein Fanboy. Ich war Vorbesteller von Ryzen 1700 und hatte später auch 2700, 3600 und 5800 und je neuer desto weniger Bugs natürlich, aber hin und wieder höre ich im Bekanntenkreis davon. Von Intel hatte ich in all meinen Jahren nie ein einziges Problem, wie gesagt subjektiv.
Ergänzung ()

DRVNabsolute schrieb:
Mit Zuverlässigkeit meine ich Zuverlässigkeit und damit die Resistenz gegen Bugs. Wenn du hier was anderes behauptest bist du einfach ein Fanboy. Ich war Vorbesteller von Ryzen 1700 und hatte später auch 2700, 3600 und 5800 und je neuer desto weniger Bugs natürlich, aber hin und wieder höre ich im Bekanntenkreis davon. Von Intel hatte ich in all meinen Jahren nie ein einziges Problem, wie gesagt subjektiv.
Was ich aber absolut peinlich von Intel finde ist beispielsweise das die einfach bei den Diagrammen AMDs Balken nicht langezogen haben ich meine wtf...
 
Deinorius schrieb:
Das klingt nach einer Nullaussage. Ich möchte dem gerne zustimmen, aber ich bin kein Fanboy.
Das wird erstens sicher nicht mit "im Schnitt" gelten, außer man wählt die entsprechenden Benchmarks sorgfältig aus. Aus Sicht der "user experience" wird das noch schwieriger und bei der Akkulaufzeit und gerade Standby-Dauer stimmt es leider nicht.
Also es kommt drauf an. Wenn man den 6800U laufen lässt und 30W gibt ist er trotz Fertigungsnachteil
im Schnitt etwa 6% ineffizienter.
Im klassischen U Segment also bis 15W ist er jetzt schon besser als ein M1 PRO.

Ja im Idle Verbrauch hat Apple noch knapp unter 1 W Vorteil, aber das dürfte sich nach dem Schritt auf 5NM gegessen haben. Akkulaufzeit ist dann schwer vom Anwendungsverhalten abhängig. Aber das tut sich jetzt schon nicht soo viel und da ist AMD mit 5NM sicher voraus.


Und bleib mir weg mit der Apple "user experience", das ist nicht für jeden was.
Mal ein kleines Beispiel, ich als Windows, Linux und Android versauter will ein Lesezeichen im iOS Safari setzen.
Der normal Denkende würde jetzt ein Lesezeichen Zeichen neben der Adresse suchen oder unter Lesezeichen des Browsers kucken und halt für die Seite hinzufügen.
Mit Apple User Experience geht man auf auf teilen, scrollt runter, damit die Option zum Vorschein kommt und setzt dort ein zusätzliches Lesezeichen. Muss ich nicht verstehen...

Beim Schreiben den Cursor in ein Wort direkt an der passenden Stelle setzen, geht einfach nicht.

Einen simplen Wecker setzen geht man auf die Uhr App, direkt über Uhr Widget geht es natürlich nicht, auf den Reiter Wecker und dann kann man erstmal das Schlafrythmusgedöns setzen, was mich 0 interessiert, wenn ich einfach nur einen Wecker setzen will.
Edit: okay das geht direkt übers + bei Wecker auch ohne Schlafrythmusgedöns, ändert nix dass man erstmal dorthin geführt wird. So von wegen Apple experience.


Und da gibts noch so Einiges, nein lass mal. Das reicht mir schon als Firmenphon.



1664380235735.png

1664380296554.png


Deinorius schrieb:
Möchte dem gerne zustimmen, aber ARM und später vielleicht auch RISC-V werden dennoch Vorteile bringen und x86 muss sich entweder stark verändern/anpassen, oder es wird abgehängt
Ich will, dass alte Zöpfe abgeschnitten werden. Wenn z.B. 32bit Software auch über effiziente Emulation laufen könnte und dabei Vorteile entstehen, dann bitte ich drum. Wenn das Abschneiden anderer alter Zöpfe wiederum weitere Vorteile bringt und diese durch effiziente Emulation ersetzt werden können
Sie werden Vorteile bringen, ja, aber auch viele Nachteile. Ein ARM Kern ist nun mal ein ARM Kern und das ist ein recht simpler Kern. Wenn ich ihn aufblase, dass er auf die Leistung und vor allem Funktionalität des x86 Kerns kommt, wird er ziemlich schnell auch das verbrauchen was ein x86 Kern verbraucht.
Wieso sollte man die alten Zöpfe unbedingt abschneiden? Was sparst dir dadurch? Davon ab dass das gar nicht geht im Fall von x86.
Ein aktuelle x86 CPU ist quasi eine RISC CPU die macht nur noch gegen aussen einen auf CISC.
Das ist auch der einzige kleine Nachteil gegenüber reinen RISC CPUs.

Deinorius schrieb:
Denn wofür sind diese alten Zöpfe wirklich nötig? "Good old Games" und uralte Unternehmenssoftware, die nicht ersetzt werden kann. Emulation beider sollte ja wohl reichen.
Wie wenn man einfach so für jede alte Software einen Emulator verwenden könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll
@DRVNabsolute

Naja was Käfer angeht: siehe Jayz2Cents - er hat ein 12th gen Intel System stehen, dass er nicht mit nach Hause nimmt, weil das ding out of the box immer wieder bluescreens produziert.
Auf der anderen Seite habe ich mit meinem Ryzen 5900X auf meinem MSI MEG X570 Unify das problem, dass der SoC/Chipsatz wohl so scheiße ist, dass ich effektiv keine USB Hubs nutzen kann, weil mir sofort die Bandbreite einbricht, bis zu dem Punkt, dass ich sporadische Verbindungsabbrüche für ein paar Millisekunden habe.
Pro Minute etwa 5-10x bei meiner Maus und Tastatur oder auch bei meiner Asus Xonar U7 mk.II

Beide Plattformen geben sich also nicht viel in Sachen Fehler.
Da ich aber aufgrund der USB-Problematik bei AM4 eh wechseln muss, werde ich wohl zu AM5 greifen müssen, weil mir diese P+E-Core scheiße von Intel absolut nicht taugt.
Gib mal "X570/B550 USB bug" bei google ein - beide Chipsätze sind davon betroffen und der Fehler ist nicht bloß bei manchen boards oder ein bisschen vorhanden, ich hatte 3 Mainboards: GigaBreit Aorus X570 Master, MSI MEG X570 Unify und ASRock B550 Taichi. Die einzige Lösung die bisher geholfen hat aber definitiv keine Dauerlösung ist: PCIe 3.0 anstelle von 4.0 nutzen.
Macht aber in UWQHD keinen Sinn mit meiner 3080...
Meine Hoffnung daher: das AMD mit den 670/650er Chipsätzen diesen Mist behoben hat, aber das wird die Zeit zeigen.
Dass du ein Vorbesteller für AMD bist, macht es nicht besser, nur das dein Müsli dann nicht blau, sondern rot ist...

P.S. Ich bin mit sicherheit kein Fanboy. Ich habe von meinem Opteron 170 auf Intel's C2D E8400 gewechselt, von da auf Devils Canyon aka 4790K und von da wieder auf AMD. Das einzige wovon ich Fanboy bin: Leistung in Verbindung mit Effizienz. Ich hätte liebend gerne auf 12th gen Intel gewechselt, aber dieser architektonische fail mit performance und efficiency cores in Verbindung mit den ungeklärten BSOD und dem brachialen out-of-box Verbrauch hat mich einfach mehr abgeschreckt als der PCIe bug bei AMD (von dem ich erst später erfahren habe)...

P.P.S.: Jetzt habe ich etwas anderes behauptet, nämlich das beide Hersteller nach wie vor Bugs haben. Zu was für einem Fanboy macht mich das nun? 💩

Tante Edith schrieb:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius und Rockstar85
Hi

da kann man nur Sagen LOL , wenn der auch noch erscheinen sollte !


mfg.
 
  • Gefällt mir
Reaktionen: M3930 und da!mon
Cave Johnson schrieb:
Was heißt zwingend vorgeschrieben - ist das eine Vorgabe von AMD?
EXPO-Module müssen zwei Profile über JEDEC haben - ja, das ist eine Vorgabe. Bei Gigabyte kannst du im aktuellen BIOS halt nur eines davon aufrufen. Das andere (mit höheren Timings) bleibt dir verborgen. :)
 
  • Gefällt mir
Reaktionen: iron-man und Snooty
DRVNabsolute schrieb:
Ich frage mich einfach warum ich eine unzuverlässigere CPU für den gleichen Preis, aber mit mehr Multi-Core Performance nehmen soll? AMD Prozessoren auch wenn mittlerer weile nur noch wenig aber sie sind etwas unzuverlässiger als Intels.
Ergänzung ()

Was für ein Unfug.
 
  • Gefällt mir
Reaktionen: iron-man, McTheRipper, Veitograf und 5 andere
DRVNabsolute schrieb:
Keine Ahnung ob es den AMD Fans hier aufgefallen ist, aber hier gibt es einige subjektive Kommentare, warum darf ich dann meine nicht äußern? Weil ich anders denke?
Du hast natürlich das Recht auf deine Meinung.. Aber nicht das Recht an eignen Fakten oder keiner Widerrede.. Meinungsfreiheit ist KEINE Einbahnstraße.
Und ich hab beides hier.. Hatte einen 3600 von 10, der Probleme machte.. Dafür 2 Kaputte Intel Bretter, wo ab Werk der LGA Socket im Arsch war und etliche gebogene ADL...
Wenn dann nehmen sich beide nichts, wie man aber die ADL Bending Problematik nicht als Relevant sehen kann, verschließt sich meinem Verständnis.. Ich hab derzeit 5 Bretter hier, wo die ADL PCB so gebogen wurden, dass wir Kotaktprobleme haben..
Nebenbei, Intel tauscht bis heute keine der verbogenen ADL CPU...
Ach ja und es gibt bei Intel seit ich glaube 25 Jahren eine Errata Liste.. für jede Gen
Es gibt keine CPU-Gen ohne Bugs.. Bei keinem
Laut HWunboxed also folgendes:
7700X killt bei Neukauf bei dollar pro Frame einfach alles..
5800X3D ist ebenso wie der 12700K bei Aufrüstung mit bestehenden Modellen sinnig
5800X ist bei denen aber auch nicht zu verachten, gerade in Bezug der Plattformkosten (die CPU kostet 279€, das ist halt echtn Witz)

1664387834677.png
 
Zuletzt bearbeitet:
DRVNabsolute schrieb:
Mit Zuverlässigkeit meine ich Zuverlässigkeit und damit die Resistenz gegen Bugs. Wenn du hier was anderes behauptest bist du einfach ein Fanboy. Ich war Vorbesteller von Ryzen 1700 und hatte später auch 2700, 3600 und 5800 und je neuer desto weniger Bugs natürlich, aber hin und wieder höre ich im Bekanntenkreis davon. Von Intel hatte ich in all meinen Jahren nie ein einziges Problem, wie gesagt subjektiv.
Deine Stichprobe/Beobachtungsmenge n geht gegen 0 und hat daher keinerlei Aussagekraft oder gar Relevanz.
Wer dir widerspricht, wird von dir als Fanboy bezeichnet. Was du schreibst hat nichts mit subjektiver Meinung oder gar Meinungsfreiheit zu tun, sondern sind die inhaltlich schwachen Worten eines ahnungslosen Fanboys. Nicht mehr und nicht weniger.
 
  • Gefällt mir
Reaktionen: iron-man, McTheRipper, M3930 und 6 andere
@Rockstar85
Was heißt denn bitte sehr gebendete auf deutsch weil Google kennt das Wort nicht oder meisnt du eigentlich geblendete damit?

Achja finde es echt interesant wie sich die kleinen schlagen aber die großen enttäuschen. Warum steigen die kleinen mehr als die großen. Ist da bei einigen etwa auslastungs Probleme oder wie?
 
@latiose88
Na gebogen... Oder nenn verbogen.. ILM Problematik und Anpressdruck auf Grund LGA 1700 und dünnerem PCB

Igorslab hat das netterweise mal beleuchtet.. Seitdem bekommen alle meine ILM LGA 1700 Nylonscheiben.. (Die Anpressdrücke an 2 Stellen mittig der CPU sind halt ein Garant für verbogene PCB)
Sorry ich bin bei Siemens, wir reden öfter Denglisch :o

@Drummermatze
Soso Stromhungrig? wo denn das? Der 13900K wird Hardlocked 253W verbraten, der 7950 tut es mit 195W, der 7700X ist da nochmal ne ganz andere Nummer.. Und wie ich es schon mal sagte: Dadurch, dass AM5 mit AM5 Kühlern kompatibel ist, haben wir einen um 75% dickeren IHS...

https://www.igorslab.de/amd-ryzen-7...gsanalyse-temperaturen-hotspots-und-probleme/
laut DerB8auer sind es Direct Die mal eben 20 Grad und 10W weniger.. Wie Thermische Trägheit und andere Physikalische Grundsätze funktionieren, kann auch AMD halt nicht zaubern.
Und ich finde nicht mal bei Verivox einen 1,30€ Tarif, also kann es sein, dass du vllt den Test nicht gelesen hast?
Und du kannst mir gerne Beweisen, wie eine 150W Leistungsabgabe bei 80°C weniger ist, als 70W @95°C.. Wie gesagt der IHS nutzt die Thermische Trägheit und damit nimmt AMD sich eben den Vorteil der besseren Effizienz, auf Grund der Kühlerkompatiblität.
 
Zuletzt bearbeitet:
da!mon schrieb:
Sockel 1150 -> 1151 -> 1200 -> 1700 = 4 Sockel in 9 Jahren.
gab es den 1151 v2 nicht noch? wo Intel künstlich versucht hat die Z390 / Z290 Boards inkompatibel zu machen? Dann wären es 5 Sockel in 9 Jahren :D:hammer_alt:
Was dann später mit mods nachgewiesen wurde, das es rein Technisch doch funktioniert?
Aber ist schon paar Jahre her, ganz genau erinnere ich mich nicht mehr. :confused_alt:
 
  • Gefällt mir
Reaktionen: Rockstar85
Tya bin gespannt wer von euch die neuen cpus kaufen wird. Weil mich interessiert es sehr wie sich die kleineren und die großen also 7900 und 7950x sich so schlagen werden bei meiner Anwendung. Ob die wirklich so schlecht laufen. Weil ziehe ich den takt runter auf 4 GHz bleibt bei der Leistung 1-2 % ürbig und ja h265 lastet die CPU besser raus als h264, mit also schon klar aber ist halt so. Ich akzeptiere dann die werte. Die 5000er pro serie alias 5975 pro runter es dann ab. Damit weiß ich dann ob ich ab nun an keine Steigerung mehr zu erwarten habe weil eben dann nicht mehr so gut mit neuen auskommt.

Software version ist von 2016,bei mehr als 16 Kerner keine smt bzw ht mehr, nur 720x576 videos und ab und zu hd mit 50 vollbilder, keine avx also zu 0 % und alle auf 4 GHz fest gesetzt.
Für kurze Interesse bei mehr als 16 Kerne nur kurz ob smt oder ht Leistung kostet. Es wird mit Windows 10 und Windows 11 getestet aber bevorzugt wird windows 10 und es wird mit 2 Anwendung Gleichzeitig getestet. Bin also gespannt wie sich da die neuen so schlagen werden. Zum Schluss wird es ein minus Ergebnis bei den 7950x geben wer weiß das schon. Es ist ja alles möglich und achja es wird kein handbrake verwendet. Also Steigerung wie hier wird es nicht so geben, da bin ich mir sehr sicher.

Achja kurz wird es auch mal mit boost takt gefahren damit man sehen kann wie es sich bei 4,5 GHz so schlagen weden. Ich tippe mal da drauf das die 6 und 8 Kerner dieses mal als größere Sieger gehen weden als sonst der Fall.
 
Muss sagen der ryzen 5800x3d ist das bessere gesamt paket, wenn man die Kosten berücksichtigt. In der Anschaffung und beim Stromverbrauch im Vergleich zum 7700x, das setup verbraucht 20w mehr in ideal und unter last auch 30% mehr, als gaming cpu, würde ich momentan nur zum 5800x3d greifen, einfach wegen der effizients
 
  • Gefällt mir
Reaktionen: tho_schmitz und Drummermatze
Das ist ein Must Watch Video:
 
  • Gefällt mir
Reaktionen: Veitograf
Easy1991 schrieb:
In der Anschaffung und beim Stromverbrauch im Vergleich zum 7700x, das setup verbraucht 20w mehr in ideal und unter last auch 30% mehr,
Vorsichtig beim vergleich von Daten. Bei den Anschafungskosten zurzeit hast du recht, die AM5-Boards sind viel zu teuer, aber sind auch nur die ersten Bretter. 5800X3D und 7700X sind ansonsten preislich auf Augenhöhe.

Der 5800X3D ist im Gaming-Durchschnitt 3% schneller, und verbraucht auch nur 2W weniger als der 7700X, trotz der hohen TDP des 7700X.
Bei Anwendungen hingegen ist der 7700X dem X3D klar überlegen, selbst wenn man ihn auf 88W drosselt (Eco-Modus), ist der 7700X 28% schneller gegenüber den ungedrosselten X3D. Keine Ahnung, wo du die 30% her hast. Selbst ungedrosselt benötigt das 7700X-System nur 7% mehr unter Volllast (gedrosselt würde es deutlich weniger aufnehmen), bei über 30% mehr im Leitungsrating. Im Single-Core CB sieht der 7700X erst einmal dramatischer im Verbrauch aus, aber ist dazu auch deutlich schneller.
Im Idle muss man sehen, wieviel der Leistung auf das Board entfällt, bei ein einzelnes X670E kann man nicht einschätzen, wie "verschwenderisch" das Board selbst ist und ob es deutlich bessere Varianten gibt, wenn es um Verbrauch geht. Immerhin ist die Package-Power knapp unterhalb des 5800X3D.

Also insgesamt bietet der 7700K durchaus das bessere Gesamtpaket, in Spielen eben kaum spührbar langsamer in Anwendungen aber klar im Vorteil. Nur die teuren Boards zu Beginn verhageln das ganze, später werden aber noch günstigere kommen, auch wenn sie nicht die Preise von den günstigeren B550 Boards unterschreiten werden.
Wenn es ausschließlich um Spiele geht, dann ist der X3D natürlich aktuell eine günstigere Alternative, noch viel mehr, wenn man schon ein AM4-Board hat. Dagegen hat man bei einem AM5-Brett die Möglichkeit später aufzurüsten. Wenn man nicht unbedingt jetzt was neues benötigt, wäre es ratsam, noch abzuwarten, wie sich die Situation mit den Boards entwickelt und bis die X3D bei den 7000ern raus kommen.
 
  • Gefällt mir
Reaktionen: iron-man, Zwirbelkatz, Dai6oro und 3 andere
latiose88 schrieb:
Tya bin gespannt wer von euch die neuen cpus kaufen wird. Weil mich interessiert es sehr wie sich die kleineren und die großen also 7900 und 7950x sich so schlagen werden bei meiner Anwendung. Ob die wirklich so schlecht laufen. Weil ziehe ich den takt runter auf 4 GHz bleibt bei der Leistung 1-2 % ürbig und ja h265 lastet die CPU besser raus als h264, mit also schon klar aber ist halt so. Ich akzeptiere dann die werte.

Wieso sollte ich die neuen 7000er auf 4 Ghz beschränken wollen?
Neben dem minimalen IPC Gewinn ist ja vor allem der Takt der Grund
warum sie schneller sind.
Und auf eine vernünftige TDP von 125-135W beschränkt werden die grossen 7000er auch sicher schneller
und effizienter sein als die 5000er Ryzen.
Sieht man hier an der Stelle sehr gut:
 
Zuletzt bearbeitet:
Zurück
Oben