Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra

aldaric schrieb:
Das nennt sich Teillast, kein Idle.

Idle bedeutet es wird gar nichts gemacht.
Wie gesagt, die Messwerte von dem System an dem ich gerade hier auf Arbeit schraube, sagen da etwas anderes. Die mit HWINFO ausgelesene CPU Gesamtleistungsaufnahme ändert sich beim Tippen hier gerade gar nicht und beim Scrollen minimal für kurze Zeit. Das ist jetzt ein 285K System mit RTX 4080 Super und MSI Z890 Board. An der Steckdose misst du da kaum was.
TEst.png


Das ist "Scrollen".

Test2.png

Das ist das öffnen eines neuen Tabs, inkl. Scrollen und Maus wild bewegen. Der 9800X3D ist da deutlich drüber und das misst man auch an der Steckdose mit 20-30W Unterschied. Kann ich nachher auch gerne mit 9800X3D zeigen. Der 9800X3D geht da auf 30-40 Watt package Power hoch, der 285K klebt bei maximal 22W für kurze Zeit und geht dann wieder auf ~12W runter. Die 10,4 Watt aus dem CB Test schaffe ich hier nicht, da erstens der Monitor dranhängt und ja X Test-Anwendungen offen sind, bzw. untersch. Board.

Die "Idle" Werte bekommst du ständig auch dann wenn etwas gemacht wird, weil die CPU in diesem Power-State klebt, das ist doch nicht so schwierig zu verstehen!!

Und ich habe jetzt Youtube mit Browser geöffnet, dann springt die CPU kurz auf 32W hoch, danach schaue ich eine Videovorschau und die CPU geht auf 14W runter. Also nur 2 Watt über meinen "Idle" Wert, trotz Video.
Schau ich dann ein Video, geht auch kurz auf 25W hoch und geht dann wieder auf 14,5W runter.

Screenshot 2024-11-07 101559.png

Damit dürfte das Thema doch ein für alle mal geklärt sein. Du arbeitest doch angeblich im HW Großhandel, besorg dir ein System und messe. Wenn ich alle Anwendungen schließe und nur den Browser aufhabe, gehts sogar auf 12,7W runter, trotz YT Video.

Luxmanl525 schrieb:
Nö. Das ist grundfalsch. "IDLE" ist ruhender Desktop, Quasi.
Es gibt von den Messwerten aber keinen signifikanten Unterschied, daher ist das selbstverständlich auch "Idle". Das ist doch ganz einfach rauszumessen.
Luxmanl525 schrieb:
Bei dem was du nennst, ist das System hingegen immer unter einer gewissen "Teillast" egal wie gering dieselbe ist.
Nein. Das System ist auch im "Idle" in einer gewissen "Teillast", weil hunderte, ja tausende Prozesse im Hintergrund für das OS laufen und ob da nun ein Prozess mehr oder weniger offen ist, spielt keine Rolle.
Luxmanl525 schrieb:
Und ja, allerdings wird im Verhältnis wenig Energie für diese Tätigkeiten benötigt. Das stimmt schon. Ist aber nicht mit dem "IDLE" Betrieb zu verwechseln.
Das ist halt einfach falsch.:confused_alt:

Und hier gerne noch mal mit geöffnetem und aktiv bearbeitetem Libre Office Dokument.
Kein Unterschied zum reinen Desktopbetrieb. Also ja, der "Idle" Verbrauch ist sehr wohl real ob euch das jetzt gefällt oder nicht. Jedes mal kommen immer wieder diese Falschinformationen, nur weil manche ein sparsames System wollen.

Tippen.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, SavageSkull und Haplo
MrBravissimo schrieb:
Moin, vielen Dank für den Test. Mir fehlt der Vergleich zum 7950X3D
In Spielen die hier getestet werden, auf dem Niveau des 7800X3D. In Spielen die mehr als 8 Kerne sehr gut auslaste, die werden ja auf keiner Seite wirklich getestet da keine Spiele für die Massen, liegst du natürlich weiter vorne.
 
heroesgaming schrieb:
aber enorme Auswirkungen durch OC gibt es sowieso keine mehr.
Auf den unteren und mittleren Rängen wäre das wieder interessant. Größtes Manko des 5700X3D ist beispielsweise, dass er locked ist. MT Boost von nur 4050MHz ist sehr niedrig, den Abstand zum 5800X3D mit seinen 4500MHz könnte man mit offenem Multi verringern und da kämen dann nochmal bis zu 10% Leistung raus. Ist nicht nichts.

Irgendwann eine Resteverwertung in Form eines niedriger getakteten 9700X3D oder so, dem man dann nochmal 10% entlocken kann, das wäre schon fein für die späten Aufrüster.
 
  • Gefällt mir
Reaktionen: SweetOhm
Youngtimer schrieb:
Nein, praxisnahe Tests unter realen Bedingungen sind unerwünscht.
Das ist ein CPU-Test und kein Komplett-PC-mit-geiler-Grafikkarte-Test. Das Ziel eines CPU-Test ist es, seine Leistung abzubilden! Und wenn möglich nur seine Leistung, nicht die der Grafikkarte, die ich durch die stärkste Lösung im Markt auf die kleinste Beeinflussung des Ergebnisses für die CPU bringen will. Bei 4K-Tests bilde ich aber 99% Grafikkarte ab, habe also keinen CPU-Test mehr, sondern einen Grafikkartentest.

Youngtimer schrieb:
Genau das zeigt es doch und auch warum es sinnlos ist. Das will dir erklären, dass ein Ryzen 3 3300 mit ganzen 4 Kernen nur wenige Prozent hinter den schnellsten CPUs liegt. Im besten Sinne verbiegt das nur die Wahrheit um ein massives Ausmaß .. könnte man aber auch anders ausdrücken^^


Aber wurde ja auch erst 100 Mal erklärt in diesem Thread^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: srz54, or2k, Hunder und 16 andere
Meiner Meinung nach hat AMD da eine sehr schöne CPU auf den Markt geworfen. Die Daten sind super. Jetzt sollte, wer kann noch ein paar Monate warten, denn reguliert sich auch der Preis ein wenig. Denn >500,-€ finde ich zu hoch.
Und klar, der 9800x3d ist kein Anreiz aufzurüsten, wenn man wie ich eine 7800x3d- CPU im Sys hat. Aber wer noch einen 5er x3d hat, oder darunter, für den lohnte es sich schon.
Wer ein komplett neues Sys aufbauen will oder ein schon in die Jahre gekommenes Sys upgraden will (zum Zocken) ist mit dem 9800x3d absolut gut beraten. Und bei den Brettern kann man sich ja einscheiden, was einem wichtig ist. USB4 - dann halt ein 800er Brett, oder möglichst viele m2 - dann halt ein 600er Brett. Sollte für jeden was dabei sein.

OT:
Was mich immer in den Diskusionen nervt ist der Verbrauch der CPUs (egal welcher Harsteller). Da streitet man rum, ob eine CPU jetzt 30 oder 100W verbraucht und was so dramatisch daran ist. Knallt sich aber voller Inbrunst dann eine GraKa ins System, die das drei- und mehrfache dessen verbrät. Mit einem angemessenen Case und Kühler kriegt man das auch unter Luft doch alles gut weg gekühlt. Und kaum jemand zockt doch 24/7. Also sollten die Stromkosten doch auch verkraftbar sein. Oder man kann mehrere Profile anlegen. Ein stromsparendes zum Surfen und Office und ein "entfesseltes" zum Zocken, etc. Da wird keiner arm von.
Das man das durchaus mal diskutiert ist ja in Ordnung, aber die Vehemenz, die teils schon ins Beleidigende geht, das kann ich nicht mehr nachvollziehen. Sorry, aber das musste mal raus.
 
ElliotAlderson schrieb:
Wenn dem so ist, warum gibt es dann Threadripper?
Das ist heute halt einfach eine Workstation-Plattform. Es gibt keine Consumer-Workloads mehr, die signifikant davon profitieren, HEDT einzusetzen, außer extrem anspruchsvollen Hobbys, die man praktisch auf Profi-Niveau ausführt. Die Grenze, wer zu HEDT greift, hat sich einfach verschoben, darum geht es.
 
  • Gefällt mir
Reaktionen: SweetOhm
scryed schrieb:
wie ich schon gesagt habe man will ja wissen ob die CPU in den Auflösungen die man spielt besser ist als seine alte oder ist das egal
Wie f***ing oft müssen wir es denn noch erklären?

Schau dir ein Review deiner gewünschten GPU in der gewünschten Auflösung an, eins deiner gewünschten CPU, nimm den kleineren der zwei fps Werte und fertig.

Was ist der Sinn deines vorgeschlagenen Tests? Der ist sofort hinfällig, wenn jemand es für eine andere GPU oder andere Auflösung wissen will. Denn oh Wunder, genau dieser Einfluss ist aus einem GPU Review ersichtlich.

Darf man vom heutigen Leser nichtmal 5 Minuten Eigeneinsatz erwarten? Ist das Faulheit, Lernresistenz, was ist das?
 
  • Gefällt mir
Reaktionen: Die_antwoord und ElliotAlderson
SavageSkull schrieb:
Die CPU ist für die Mindest FPS zuständig und verbessert das Spielgefühl wenn die Sprünge zwischen Max und Min FPS geringer sind.

Genau deswegen testet CB ja nach wie vor (anders als viele andere Publikationen) auch in 720p
 
Die CPU hol ich mir! Endlich mal Leistung satt! (Habe aktuell einen Ryzen 5600x)
 
  • Gefällt mir
Reaktionen: SweetOhm
sale schrieb:
Bitte um Feedback: Wäre der Ryzen 9950X3d schneller in Spielen als der 9800X3d?
Btw.: Der kommt auch erst später:
The Ryzen 9 9950X3D is slated for release in early 2025, with its official announcement expected at CES 2025.
https://www.guru3d.com/story/amd-ryzen-9-9950x3d-cpu-tested-leak-indicates-faster-than-7950x3d/

Sehr unwahrscheinlich, also nein. -> 7950X3D vs 7800X3D ist 7950X3D gerade mal 1%-3% schneller in Frametimes/FPS -> Wenn dann nur sehr marginal
Wenn der höher taktet, wenn nicht CCD 2 ohne 3D-Cache dazwischen funkt (Gerüchte gibt es die sagen dass beide Teile 3D-Cache haben werden, ich glaube es aber nicht, wir werden sehen), wenn das Spiel das Mehr an Kernen ohne 3D-Cache mag...
sale schrieb:
Oder wäre der 9950X3d gleich schnell in Spielen, hätte aber mehr Cores für Worklods welche von mehr Kernen profitieren?
E: Sehr wahrscheinlich dies. Ja.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und sale
Asgartal schrieb:
Macht auch aktuell noch gar kein Sinn finde ich.
Für welchen Anwendungsbereich denn?
Die astronomischen Aufrüstkosten für den mikrigen Performancegewinn?

Freu dich doch, dass du AM4 damals so günstig abgestaubt hast.
Die wird noch lange durchhalten.
Weiss ich ja. Aber die Balken...

(ist ja nicht rational, und ich werde auch nicht aufrüsten.)
 
SavageSkull schrieb:
plus 300€ Mainboard (mit etwas mehr als das Minimum an Ausstattung) und 250€ Speicher
Weil? Muss es X870E und 128GB sein oder was?
 
  • Gefällt mir
Reaktionen: Veitograf und SweetOhm
devVvon schrieb:
Gibts eigentlich Tests im GPU-Limit, also so wie jeder Spieler Spielt, welche CPU man eigentlich mindestens braucht das man die GPU auslastet.
Sehe ich super selten, variert auch stark je nach Game, Settings, und dann natürlich noch von GPU zu GPU.


Aber vom Prinzip kannst du eine einen GPU und einen CPU Review mit Benchmarks aufmachen und dann einen Quervergleich machen. Such dir die GPU aus, die in deinem Budget liegt, schau wieviel FPS schafft in den Games die für dich relevant ist und such dir dann aus den 720p tests die passende CPU aus.

Du gibst dabei natürlich auf reserven bei der CPU zu haben, falls du in 2-4 Jahren dann nochmal nur ein GPU Upgrade machen wolltest, aber dafür "verschwendest" du kein Geld, bis halt dann ein Spiel kommt, das doch dann auch die CPU ordentlich ausgelastet bekommt und dich im Regen stehen lässt. Aber irgendwas ist ja immer.
Am besten für solche Quervergleiche sind natürlich Quellen, die dann auch mit dem gleichen Parkour CPU und GPU Benchmarks machen.

Wobei ich zugeben muss, mein Ansatz bei sowas war folgender:
GPU-Last kann man eigentlich immer verringern bis man 120 fps erreicht, aber CPU-Last ist in Spielen in der Regel mehr oder minder statisch, als würde ich normalerweise einfach kaufen, was ich brauche für 144 fps und anfangen über ein Upgrade nachzudenken, sobald ich bei 72 angekomme.

Die Sache hat nur einen Hacken. Bei den Spielen, die ich Spiele hat selbst der 9800x3D schon den ein oder anderen Titel wo ich über ein Upgrade nachdenken würde und mein Budget ist nicht unbegrenzt, sprich die Methode funktioniert so gar nicht für mich und läuft ohnehin darauf hinaus fast immer die schnellste CPU zu haben.
Und eigentlich hat sie auch noch nie funktioniert, denn auch bei meinem 4790k von vor 10 Jahren, hat das Ding mit ach und Krach für mich nur 60 FPS geschafft und das auch noch Konstant.

Aber vielleicht klappt es ja mit deiner Spieleauswahl besser, ich fürchte ich hab einfach zuviele Simulationen in meinem persönlichen "Testparcour". ;-)
 
Quidproquo77 schrieb:
Wie gesagt, die Messwerte von dem System an dem ich gerade hier auf Arbeit schraube, sagen da etwas anderes. Die mit HWINFO ausgelesene CPU Gesamtleistungsaufnahme ändert sich beim Tippen hier gerade gar nicht und beim Scrollen minimal für kurze Zeit. Das ist jetzt ein 285K System mit RTX 4080 Super und MSI Z890 Board.
Anhang anzeigen 1541053

Das ist "Scrollen".

Anhang anzeigen 1541054
Das ist das öffnen eines neuen Tabs, inkl. Scrollen und Maus wild bewegen. Der 9800X3D ist da deutlich drüber und das misst man auch an der Steckdose mit 20-30W Unterschied. Kann ich nachher auch gerne mit 9800X3D zeigen. Der 9800X3D geht da auf 30-40 Watt package Power hoch, der 285K klebt bei maximal 22W für kurze Zeit und geht dann wieder auf ~12W runter. Die 10,4 Watt aus dem CB Test schaffe ich hier nicht, da erstens der Monitor dranhängt und ja X Test-Anwendungen offen sind.
Das will immer nur keiner hören. Mein 13900F idelt auch mit 3-4 Watt durch die Gegend und Videos und scrollen sind in einem ähnlichen Bereich.
 
SavageSkull schrieb:
35% höherer Stromverbrauch
"nur" 14% Mehrleistung daraus gewonnen
Trotzdem die schnellste und zweit-effizienteste CPU auf dem Markt.
Die Erwartungen hier teilweise...
 
  • Gefällt mir
Reaktionen: Veitograf, SweetOhm, McFritte und 2 andere
Hallo zusammen,

@duke1976 & @SavageSkull
duke1976 schrieb:
Die 20 Watt effektiv mehr in Kombi mit Deiner 4090/5090? Das ist für Dich eine Brechstange?
Vor allen Dingen kann man einen Wert von 20 Watt ganz Easy an anderer Stelle wieder einsparen. Das ist jetzt nicht die Welt. Sei es im Haushalt, oder eben wenn man mal schaut, was heutige Boards für ein Firlefanz so drauf haben.

Schon alleine durch eine strengere Auswahl beim Board kann man 20 Watt einsparen. Das ist kein Hexenwerk. Dann was tunlichst unter den Tisch gefallen lassen wird, der 9800x3d läßt sich deutlich unkomplizierter Kühlen.

Es braucht also auch keine überbordende Gehäusekühlung oder Kühler oberhalb von 50 € zwingend. 20 Watt ist in meinen Augen ein Klacks und ich bin nun wirklich weithin bekannt für mein Augenmerk auf den Strombedarf / Effizienz.
SavageSkull schrieb:
Ich würde gerne mal die CPU upgraden
Du hast einen 5800x3d. Ganz ehrlich, in meinen Augen lohnt das nicht von dem auf den 9800x3d zu gehen. Ich würde ehrlich gesagt wenigstens noch auf die nächste Generation warten. Denn wirklich spürbar wird der Unterschied in den meisten Spielen eher nicht sein.

Aber das ist natürlich wie üblich meine eigene Präferenz, welches sich niemand sonstig antun muß.

Was den Verbrauch angeht, siehe oben meinen Passus zu dem Kollegen @duke1976. Das ist kein Wert den man nicht an anderer Stelle nicht leicht wieder einsparen könnte. Besonderss wenn man mal bissel beim Board schaut.

So long...
 
Apocalypse schrieb:
Dann lass es halt 2000€ sein, auch wenn hier die meisten wohl ehr Richtung 4080/4090 Gespann gedacht hatten für den 9800x3D, aber selbst mit der günstigsten Empfehlung mit 7800x3D aus dem Leserartikel Der Ideale Gaming-PC geht sich die Rechnung immer noch aus.

Selbst mit nur 10% mehr Leistung für nur 100€ mehr an Kosten.
Ergänzung ()


Wieso? Den 5700x3D gibt es doch schon für 200€?!? Neu!
Habe den 5800X3D drin
 
  • Gefällt mir
Reaktionen: Apocalypse
Vollpanto schrieb:
Gibt's auch Test / Benchmarks der CPUs ausschließlich mit den integrierten GPUs?
Die iGPU ist seit Ryzen 7000 gleich geblieben, kannst also einfach Benchmarks dieser bestehenden iGPU anschauen.
 
Unpopuläre Meinung: Gegen einen 320€ 7800X3D reiht sich der neue nahtlos bei den Gurken und Fails des Jahres ein. Nicht so schlimm wie andere aber 500€ ist auch hier das neue 300€.
 
  • Gefällt mir
Reaktionen: Quidproquo77, SavageSkull und ElectricStream
Botcruscher schrieb:
Gegen einen 320€ 7800X3D
Verlink den doch mal ;)

Zu aktuellen Preisen siehts eben anders aus. Und den kommenden Preisverlauf beider CPUs kennen wir nicht. Vielleicht pendeln beide in den nächsten Monaten langsam wieder auf 300-350€ runter. Man weiß es nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben