Test Ryzen 9 7950X & Ryzen 7 7700X im Test: Leistung, Effizienz, IPC, Takt, iGPU und mehr analysiert

Es gibt keine boards, die ddr4 und ddr5 können… und was wo zum Einsatz kam, stand damals im Alder Lake Test. Das können wir nicht jedes Mal wieder mitschleppen. ^^
 
  • Gefällt mir
Reaktionen: iron-man, LukS, Solavidos und 2 andere
Jan schrieb:
Wir haben bis dato keinen 7900X und meinen 7600X - ich rechne morgen damit.
Freue mich schon drauf, auch wenn ich sprachlich in Englisch auf C1, stellenweise C2 Niveau spreche und verstehe, Muttersprache lesen ist immer gemütlicher als Maschinengewehr-gesabbel :)
 
  • Gefällt mir
Reaktionen: Jan und Zwirbelkatz
ETI1120 schrieb:
Das ist kein Argument.

Ich fand es ziemlich hirnverbrand was Intel gemacht hat, und das was AMD macht ist nicht besser.

Der Zuwachs an Performance steht in keiner vernünftigen Relation zum Zuwachs an Power. AMD weiß das. AMD hat Zen 4 für Notebooks und Server ausgelegt. Mark Papermaster hat das bei der Vorstellung durchblicken lassen.
Intels 13900K wird in volllast mal eben 343W brauchen. Erinnert mich frappierend an P4 HT Modelle.

Und AMD muss sich am Ende am Markt orientieren. Wir werden Sehen, wie die Epyc Server CPU Performanen werden, aber bei 77 W Spiele Leistung eines 8C/16T reden wir von 9,6 W pro Kern. Und das ist halt viel weniger als Intels 8 P core brauchen, da sind es lt Anandtech eben 239W 8P 0E. AMD ist da bei knapp 142 W
Die E Core bei Intel sind eben sau Effizient und können abgeschaltet werden.. Am Ende bleibt aber der ADL ein 8C Hybrid.. Also schafft AMD ins gleiche Energiekorsett mal eben 16 Kerne..


https://www.techpowerup.com/review/amd-ryzen-7-7700x/24.html
Hier sieht man Eindrucksvoll, wie effizient der 7700X ist..
Klar ist der 5700X hier ähnlich Effizient, aber auch dieser hat am Ende eben ein bessere Wattage.. Spannenderweise kommt der 7700X bei Anandtech auf 80 W bei der Leistung eines 12900K

@gymfan
Ehrlich? Es werden heute Rechenzentren Ausgestattet nach der benötigten Energiemenge.. Wir reden also davon, dass das Mehr an Energie nicht nur Erzeugt, sondern abgeführt werden muss... Sorry aber damit disqualifizierst du dich. Der Strom kommt weder aus der Steckdose, noch sind in Spielen ~100W noch vertretbar.. Und wenn man sich die ersten Tests zum 13900K anschaut, wird dieser auch nur noch im Teillastbereich wirklich Effizient sein. Da isses dann aber wieder die Leistung, die wichtig ist. Dumm halt, dass ein 12900K immer noch neben dem 12700K die bessere Alternative ist. Sieht man auch am Anandtech Test zum 7700X, was da geht.


Ergänzung ()

till69 schrieb:
Die "Sabotage" gabs schon im 12900K Test:

@Jan
Woher kommt eigentlich die Einsicht, dass die 54W Idle-Verbrauch eines 12900K grober Unfug sind (oder war es nur ein Zahlendreher)? Jetzt sind es nur noch 45W (wie 12700K).
Dass 4 zusätzliche E-Kerne keine 9W im Leerlauf brauchen, hätte eigentlich auffallen können/müssen.
Siehe mein anandtech test..

https://www.anandtech.com/show/1704...hybrid-performance-brings-hybrid-complexity/4
Unterstellst du nun gleich noch Befangenheit? Man muss ich echt mehrfach dir nahelegen die MOBO Ausstattung nachzulesen? Schau dir die Package Power an...
Ich frag mich, seit wann in diesem Techforum der Stammtisch einzug gehalten hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Solavidos
Zuletzt bearbeitet:
Ruebennase schrieb:
Ich warte auf den 13600K für 309USD.. das wären dann hier bummelige 382€ und das ohne die 20% Intel Aufschlag, die angekündigt wurden... Ich vermute folgendes: 13900K vor 7950X aber auch eben 340W Verlustleistung (Hallo PL3) und damit keine Freigabe für alle Mobos..
Und Abseits des 13600K ist dann eh alles ADL..

Der 13600K kostet ohne Mehrwertsteuer in Deutschland schon knapp 400€ .. Schauen wir mal.

Ich hol schonmal Popcorn
 
Rockstar85 schrieb:
Ich warte auf den 13600K für 309USD.. das wären dann hier bummelige 382€ und das ohne die 20% Intel Aufschlag, die angekündigt wurden... Ich vermute folgendes: 13900K vor 7950X aber auch eben 340W Verlustleistung (Hallo PL3) und damit keine Freigabe für alle Mobos..
Und Abseits des 13600K ist dann eh alles ADL..
Du schreibst einen Nonsense...
Die TDP des 13900K liegt bei 253W. Wovon du die ganze Zeit faselst war irgendein unbestätigtes Gerücht.
Die offiziellen Specs von Intel erzählen nichts von 300W+:
https://www.computerbase.de/news/pr...die-katze-raptor-lake-ist-aus-dem-sack.81769/

Und das beste an deinem Unfug ist, dass du in jedem zweiten Post behauptest, dass der 12900K nur 8 Kerne hätte. Sind die anderen 8 Kerne keine Kerne?
Was macht einen Kern denn zu einem echten Kern und warum sind die E-Cores keine?
 
Zuletzt bearbeitet von einem Moderator:
gymfan schrieb:
Für eine hohe Rechenleistung bei weniger Stromverbrauch ist mehr nötig wie nur eine geänderte CPU. Dann muss man sich gleich an das Konzept von Apple anlehnen, alle alten Windows- (und auch Linux-) Zöpfe abschneiden und ein integriertes System inkl. passenden (zwangs) APIs vorschreiben. Natürlich sind dafür große Teile der SW anzupassen oder gleich neu zu schreiben.

Dafür muss man sich ja nur die Cinebench R23 Zahlen des M1 und M2 gegenüber aktuellen x86 CPUs ansehen.


Damit geht es ja schon los. Die Ergebnisse lassen sich noch nicht einmal bei gleichem Quell-Videomatrial und gleichem Codec übertragen, wenn eine andere Handbrake-Version genutzt wird. Kommt dann auch noch sowas wie Adobe Premiere daher, das die GPU mit nutzt, ist es ganz aus. An unterschiedliche Auflösungen oder Videofilter muss man dabei noch garnicht denken.


Für meine Anwendungen (Nikon Raw-Konverter, Handbrake h264/h265 oder AivDemux mit h265, jeweils mit SD bis 4K Videos und diverse eigene Programme) kann ich das seit 10 Jahren ausreichend genau vorhersagen. Der einfache Vergleich der Cinebench-Werte führte dabei immer zum erwarteten Ergebnis.


IPC ist bekanntlich nur irgendein Mittelwert. Nutzt die SW nicht diese Instruktionen sondern andere, wartet zu lange auf den Cache, das Ram oder ist die Sprungvorhersage für exakt diese SW ungünstig, nützt einem der Wert nicht.
Ergänzung ()
Ok danke dir,also ich verwende kaum großarttig Insturkionen.Wie weit AVX bei der neuen CPU ne ROlle spielt kann ich nicht sagen,meine ANwendung verwendet zumindest nicht mal AVX1 ,also fällt ein teil der CPU schon flach.Wie viel IPC bei AVX enstscheidend ist konnte mir bisher keiner sagen und wie Transistoren wie viel davon AVX anpruch nimmt ebenso keiner.Das kann wohl nur der Hersteller selbst. Die niedrigen Settings sowie Auflösung tuen ihr übriges.

Das H264 noch nicht ganz am Ende ist,sehe ich ja beim Ryzen THreadripper Pro 5975WX .Dort gabe es noch Leistungssteigerungen. Wird wohl dank der Extrem Settings mit Full HD ihm gut liegen.Denn beim 5970x war es mit meinen Settings eben anders aus.Und so grundlegend Verschieden wie tag und Nacht ist die 5xxx nun auch wieder nicht.Darum spielt die Settings ne große Rolle.Und danke dir für die Info,dann werde ich einfach nach den Cinchbench Werten schauen,hilft mir sehr.

Achja ich verwende das Programm Xmida Recode ein Freie Software ohne kosten.Und genau da wird das Porblem sein. Sie alle verwenden Handbrake das gut umgehen kann.ALso kann ich das alles eh nicht ganz miteinander Vergleichen. Handbrake geht besser mit Hardware um .Nutzt man das nicht,dann ist es ein rießiger Unterschied.Darum fragte ich auch nach ob dies ne Rolle spielt oder nicht.
H265 werde ich niemals verwenden ,denke als nicht mal dran da an meiner workloard was zu ändern.
Wenn dann soll gefälligst die Hardware besser werden.Ansonsten erwarte ich nichts mehr. Und ja mal sehen wie es weiter gehen wird.
 
Rockstar85 schrieb:
Ich warte auf den 13600K für 309USD.. das wären dann hier bummelige 382€ und das ohne die 20% Intel Aufschlag, die angekündigt wurden... Ich vermute folgendes: 13900K vor 7950X aber auch eben 340W Verlustleistung (Hallo PL3) und damit keine Freigabe für alle Mobos..
Und Abseits des 13600K ist dann eh alles ADL..

Der 13600K kostet ohne Mehrwertsteuer in Deutschland schon knapp 400€ .. Schauen wir mal.

Ich hol schonmal Popcorn
Meinst das der 13600K die Goldene mitte wird so ist wie zbs der 7600x ? das dürfte interessant werden für diesen preis.

Die 340 W ist vermutlich nur mit OC oder ? und 100% Volllast

Leute bitte kein Marken Hate oder der gleichen. Jeder soll sich das kaufen dürfen wo er meint das ist für sein Geld das beste ist
 
Ruebennase schrieb:
Die 340 W ist vermutlich nur mit OC oder ? und 100% Volllast
Das weiß man halt nicht, aber er behauptet es einfach.
In den offiziellen Specs von Intel steht 253W, aber mit 340W lässt sich besser hetzen. Interessiert doch niemanden, ob das OC ist.
 
owned139 schrieb:
Lesen ist halt nicht so deins:
Wenn Intels 13900K in Spielen die 77W unterbieten kann, geb ich dir einen Aus ;)

Sonst solltest du nochmal die Testthematik nachlesen.. Ach und ein 7700X würde bei 4,9GHz auch weniger Verbrauchen.. 180W bei 4,9GHz sind alles aber mit keinem Wort Effizient.. Ein 7950X braucht in Volllast bei 16 echten Hochleistungskernen (2CCD) ganze 196W (195W nach TDP Limit) Der 12900K schafft dies nur mit PL auf 241W und sonst eher bei knapp 300W.. Wenn das der 13900K unterbieten kann, dann ziehe ich meinen Hut.. Aber das wird er nicht, denn dann müsste Intel die Physik austricksen..

Lesekompetenz ist heute extrem wichtig..

@Ruebennase
Ich glaube nicht, dass der 13600K die 309USD hat.. Denn der 12600K hatte mal zum Release 330€ gekostet (da war der Dollarkurs aber auch nicht besser als heute).. Also wenn wir nun 20% mal voll Draufschlagen, dann wird es eher auf 400€ Hinaus laufen.. Ich glaube aber eher wird Intel die I7 teurer machen.. Es kann reichen für den 13600K mit 350€, aber ich glaube nicht, dass das eintritt... Ob der 13600K dann wieder ein hard TDP Limit hat, wird man sehen.. Schau dir den HW Unboxed Test an zum 7600X.. dieser ist bei einem 12900K in Spielen und genau hier müsste der 13600K auch hinkommen.. Eher müsste Intel mehr bieten, denn die Effizienz wird schlechter sein. Man muss halt knapp 70W Spielelast schaffen, und da sehe ich schwarz.
Erste Test zeigen: Wenn man das TDP Limit aufhebt (wie bei AMD), dann säuft der 13900K... Ich finde halt spannend, dass bestimmte Personen nichts zur Volllast Package Power des 7950X sagen.. (die ist nämlich bei 195W und damit ziemlich gut, unter AV1 brauchen wir gar nicht erst Reden) TDP Limit setzen bei beiden bedeutet dann eben auch 195W Maximale Packagepower bei AMD.. Bei Intel sind es 241W für einen 8 Kerner, wenn man mal ketzerisch ist. Da stehen halt fast 20W pro P Core zu buche, ein E Core liegt bei ca 14 W, ist aber halt auch nur so schnell wie ein Skylake. Wäre heute aber richtig krass, so eine only E Core CPU. Dann reden wir bei 8 Kernen von ca 60W (quellen siehst du in meinem Andren Beitrag)

1664294117672.png

Hier zeigt sich aber auch, dass Zen3 in Mobile Sehr sehr gut ist.. Ich würde einen 7900X mit einem PTT von 150W laufen lassen und wäre am Ende immer noch zufrieden.. Diese Werte muss Intel halt erstmal schaffen.. Und das ist Angesichts eines 8P + 16E Core Modells fragwürdig.. Am Ende werden 13600K und 13700K die besseren Intel Modelle sein (der 13900K ist Brechstange)
Spannend werden aber 13600/400 etc, denn diese sind ja ADL 12700er Masken
Ach und die Gamingverbräuche hat CB Netterweise gemessen.. Auch da sieht es eher schlecht aus für einen 12900K und es bleibt Spannend, ob der 13900K auf die 123W eines 16C 7950X kommt.. Ich glaube aber nicht, denn Physik kann auch Intel nicht aushebeln. 180 W in Spielen wäre aber Realistisch.
 
Zuletzt bearbeitet:
owned139 schrieb:
Das weiß man halt nicht, aber er behauptet es einfach.
In den offiziellen Specs von Intel steht 253W, aber mit 340W lässt sich besser hetzen. Interessiert doch niemanden, ob das OC ist.
Ich hab auch was von denn 340W gelesen angeblich ein extra Modus aber ob das stimmt oder nicht werden wir ja sehen. Aber das ist am ende für mich auch egal selbst wenn beide Marken 400W brauchen an die 100% vollast kommt ein Gamer vermutlich nie dran. Wo der verbrauch eh vermutlich zwischen ca 80-160W liegen wird.


Ich bin gespannt was Intel gleich abliefern wird und bin da völlig marken offen das was am besten ist wird am ende bei mir gekauft.
 
zumindest scheinen alle Händler genügend CPUs bekommen zu haben selbst auf AMZON noch immer zur UVP erhältlich. bin gespannt wie sich das im laufe der Woche weiter entwickelt.
Irgendwann mal sagte AMD bzw Lisa selbst das sie unveröffentlichte Produkte nie mit in den Ausblick rechnen.
Vorstellung war nach den Q Zahlen und Marktstart erst 4 tage vor Q3 ende

ich sage AMD geht gegen den Trend und toppt die Vorhersage um das was die 4 Tage noch von Zen4 kommt, sonnst hätten sie Ihn sicher vorher auf den Markt geschmissen und hätten geliefert was geht nur um die Prognose zu halten, selbst wenn nicht lieferbar nach 2-3 Tagen gewesen wäre
 
also definitiv kein Kaufargument, was da nun auf dem Markt liegt
ich freue mich auf Raptor Lake
 
Hm, als reiner Bastler und Mensch der Lust auf neues hat ist das sicher eine Option. Aber bei den aktuellen Preisen ist das ja echt einige Überlegungen wert wenn man es nicht dringend benötigt. Da wird ja ein Board sowie DDR5 Speicher noch fällig. Am Ende knappert man da schon an den 1000€.

Ist es mir persönlich nicht wert, ich werde die nächste Zeit sowieso erstmal nichts "optimieren"
 
  • Gefällt mir
Reaktionen: _Flattermann_
owned139 schrieb:
Das weiß man halt nicht, aber er behauptet es einfach.
In den offiziellen Specs von Intel steht 253W, aber mit 340W lässt sich besser hetzen. Interessiert doch niemanden, ob das OC ist.
Ich zitiere mal aus dem verlinkten Artikel von PCGH die sich auf chinesische/taiwanesische benchmarks berufen:

Für Raptor Lake ist allerdings noch Luft nach oben und so wird Prime95 mit 5,2 GHz All-Core-Frequenz gestartet. Hier ist die obere Grenze mit 378 Watt bei Temperaturen bis 92 Grad Celsius vorerst erreicht.

Wenn das stimmt, dann ist 340W also noch freundlich ausgedrückt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man, McTheRipper und Rockstar85
Bei den Spiele-Benches liegt der 7950X ja bei 118W durchschnittlicher Leistungsaufnahme, kaum mehr, als der Vorgänger 5950X (113W), bietet dafür allerdings gut 20% mehr Leistung. Gar nicht so verkehrt.
Der 7700X ist in Spielen kaum langsamer, aber benötigt im Schnitt nur 72W, der 1% schnellere 12900KS schluckt dabei satte 168W
Bei Anwendungen schaue ich lieber die Werte im Eco-Modus an, dann sind wir bei dem gleichen PPT von 142W. Dort liefert der 7950X 31% mehr Leistung gegenüber seines Vorgängers. Beim 7700X sind es sogar 38% mehr.

Damit ist Zen 4 alles andere als schlecht, wie es so einige behaupten. Mag so aussehen, wenn man einfach nur die Längsten Balken vergleicht und nicht schaut, was sonst so geht. Die X3D kommen dann später auch noch, die dann in Spielen mehr Leistung und mehr Effizienz bringen.

Gerade für sparsame Systeme wie zum Beispiel in SFF-Gehäusen, wo man mit beschränkter Kühlleistung zu tun hat, ist die recht deutlich erhöhte Effizienz von Zen4 durchaus klar vom Vorteil. Wie es bei den X3D dann aussieht mit den Taktraten, die ja beim 5800X3D niedriger sind als beim 5800X, entscheidet, welche CPU man für welche Anwendungen am besten einsetzt. Für Spieler die X3D und für Produktivanwendungen eher die X.

Nur 480€ für einen 7700X finde ich schon recht happig, Board und Ram muss dabei auch noch neu angeschafft werden. Phu... Mehr als 350€ habe ich bisher noch nie für eine CPU ausgegeben. Ich denke, ich bleibe vielleicht doch noch bei AM4, benötiges schon eine Teilaufrüstung. ITX für AM5 ist sowieso noch nicht verfügbar, bei Alternate immerhin eines gelistet für nen schnapperpreis von 630€ :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man und Rockstar85
Rockstar85 schrieb:
Wenn Intels 13900K in Spielen die 77W unterbieten kann, geb ich dir einen Aus ;)

Sonst solltest du nochmal die Testthematik nachlesen.. Ach und ein 7700X würde bei 4,9GHz auch weniger Verbrauchen.. 180W bei 4,9GHz sind alles aber mit keinem Wort Effizient.. Ein 7950X braucht in Volllast bei 16 echten Hochleistungskernen (2CCD) ganze 196W (195W nach TDP Limit) Der 12900K schafft dies nur mit PL auf 241W und sonst eher bei knapp 300W.. Wenn das der 13900K unterbieten kann, dann ziehe ich meinen Hut.. Aber das wird er nicht, denn dann müsste Intel die Physik austricksen..

Lesekompetenz ist heute extrem wichtig..

@Ruebennase
Ich glaube nicht, dass der 13600K die 309USD hat.. Denn der 12600K hatte mal zum Release 330€ gekostet (da war der Dollarkurs aber auch nicht besser als heute).. Also wenn wir nun 20% mal voll Draufschlagen, dann wird es eher auf 400€ Hinaus laufen.. Ich glaube aber eher wird Intel die I7 teurer machen.. Es kann reichen für den 13600K mit 350€, aber ich glaube nicht, dass das eintritt... Ob der 13600K dann wieder ein hard TDP Limit hat, wird man sehen.. Schau dir den HW Unboxed Test an zum 7600X.. dieser ist bei einem 12900K in Spielen und genau hier müsste der 13600K auch hinkommen.. Eher müsste Intel mehr bieten, denn die Effizienz wird schlechter sein. Man muss halt knapp 70W Spielelast schaffen, und da sehe ich schwarz.
Erste Test zeigen: Wenn man das TDP Limit aufhebt (wie bei AMD), dann säuft der 13900K... Ich finde halt spannend, dass bestimmte Personen nichts zur Volllast Package Power des 7950X sagen.. (die ist nämlich bei 195W und damit ziemlich gut, unter AV1 brauchen wir gar nicht erst Reden) TDP Limit setzen bei beiden bedeutet dann eben auch 195W Maximale Packagepower bei AMD.. Bei Intel sind es 241W für einen 8 Kerner, wenn man mal ketzerisch ist. Da stehen halt fast 20W pro P Core zu buche, ein E Core liegt bei ca 14 W, ist aber halt auch nur so schnell wie ein Skylake. Wäre heute aber richtig krass, so eine only E Core CPU. Dann reden wir bei 8 Kernen von ca 60W (quellen siehst du in meinem Andren Beitrag)

Anhang anzeigen 1264657
Hier zeigt sich aber auch, dass Zen3 in Mobile Sehr sehr gut ist.. Ich würde einen 7900X mit einem PTT von 150W laufen lassen und wäre am Ende immer noch zufrieden.. Diese Werte muss Intel halt erstmal schaffen.. Und das ist Angesichts eines 8P + 16E Core Modells fragwürdig.. Am Ende werden 13600K und 13700K die besseren Intel Modelle sein (der 13900K ist Brechstange)
Spannend werden aber 13600/400 etc, denn diese sind ja ADL 12700er Masken
Ach und die Gamingverbräuche hat CB Netterweise gemessen.. Auch da sieht es eher schlecht aus für einen 12900K und es bleibt Spannend, ob der 13900K auf die 123W eines 16C 7950X kommt.. Ich glaube aber nicht, denn Physik kann auch Intel nicht aushebeln. 180 W in Spielen wäre aber Realistisch.
Ich kann nur für mich sprechen ich finde die 230W für 16 Kerne absolut voll ok irgendwo muss die leistung ja herkommen und wenn beide hersteller eine andere lösung hätten dann wäre sie denn auch gegangen um die W leistung zu senken.

Und man darf auch nicht vergessen ob 230W oder 253W die CPU werden ja vermutlich nicht 24/7 auf 100% getrieben. Die 190W beim 7950x wie du sagst ist aus meine augen eine gute leistung auch wenn es viele anders sehen


Junge Junge die machen es im Intel Stream aber auch spannend laber laber laber xD
 
Tja @Ruebennase , das doofe ist nur, dass die Effizienzkerne keine Cove sind.. Also sind es eben ~160 W für 8 Kerne und das ist Übel.. Der Test zeigt das ja.. Wir reden also immer noch von fast 20 W pro Kern.. Wo AMD mit knapp 10W hinkommt und mehr Takt liefert. Intel könnte also keine 10C Cove bauen, ohne dass man am ende Exorbintante Verbräuche hat.. Das sieht man ja wunderbar an der Präsi in Cinebench.. Denn die E Core machen nur bei MT Anwendungen halt Sinn.
Spannend am Test fand ich vor allem wie Krass der 5950X Sockelbedingt ins technische Limit rannte.. Da merkt man was 90W mehr Sockellimit machen.
 
Ein wirklich gut gemachter Test, Jan, vielen Dank und danke an das ganze Team!
 
  • Gefällt mir
Reaktionen: iron-man
Zurück
Oben