Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra

ElectricStream schrieb:
Ich kann nicht anders, als zu denken, dass der 9800X3D Brechstangen-Vibes hat. Er ist teuer und verbraucht mehr Strom als der 7800X3D, und am Ende des Tages ist das Ergebnis für mich nicht so überwältigend.

Kann ich nicht nachvollziehen. Die 20 Watt effektiv mehr in Kombi mit Deiner 4090/5090? Das ist für Dich eine Brechstange?
 
  • Gefällt mir
Reaktionen: SweetOhm, fox40phil, eXe777 und eine weitere Person
ElliotAlderson schrieb:
Ist es wirklich so schwer sich anzuschauen, was deine GPU in deiner Auflösung leistet und anschließend zu schauen, was die CPU in 720p leistet, um dann schlussendlich den niedrigsten Wert zunehmen?
Lass' es gut sein. Wer bis heute noch nicht verstanden hat, warum CPUs in niedrigen Auflösungen getestet werden, wird es auch künftig nicht mehr verstehen. Ich meine, das wird unter absolut jedem CPU-Test diskutiert und sinnvoller werden die Argumente für die vermeintliche Irrelevanz dieser Tests dabei nie.

ElectricStream schrieb:
Ich kann nicht anders, als zu denken, dass der 9800X3D Brechstangen-Vibes hat. Er ist teuer und verbraucht mehr Strom als der 7800X3D, und am Ende des Tages ist das Ergebnis für mich nicht so überwältigend.
Naja ... es ist nun nicht gerade so, als habe es eine Explosion der Leistungsaufnahme gegeben. Das bewegt sich eigentlich alles in dem Rahmen, den man angesichts der höheren Taktraten in Basis und Boost erwarten muss. Entsprechende Mehrleistung in Anwendungen und co. gibt es dann aber eben auch.
ElectricStream schrieb:
Die CPU lässt sich zwar übertakten, was toll ist, aber das geht auf Kosten der Effizienz.
Gut, ein freigeschalteter Multiplikator ist heutzutage sowieso nicht mehr viel mehr als ein zusätzlicher Haken auf dem Feature-Klemmbrett. Mit UV in Verbindung mit OC kann man sicher noch das eine oder andere optimieren, besonders wenn man die Silikon-Lotterie gewinnt, aber enorme Auswirkungen durch OC gibt es sowieso keine mehr.
ElectricStream schrieb:
Letztendlich tut AMD genau das, was Intel seit Jahren macht, nur dass die AMD-CPUs im Vergleich deutlich besser abschneiden. Aber es ist am Ende des Tages das gleiche, und der Idle Verbrauch ist auch noch mehr gestiegen autsch..
Der Idle-Verbrauch ist definitiv etwas, was man fixen müsste. Zen 6 oder spätestens AM6 müssen das wirklich mal leisten.
ElectricStream schrieb:
Würde ich vor der Entscheidung stehen, einen Kauf zu tätigen, würde ich wahrscheinlich eher zum 7800X3D greifen, vorzugsweise gebraucht für maximal 300 Euro.
Was eine sehr legitime Entscheidung wäre.
ElectricStream schrieb:
Ich sehe schon, dass ich nächstes Jahr mit dem von mir gezähmten 13900er weiter verbringen werde.
Für 4K in Kombination mit der 5090 wirds der auch noch tun.. und dann mal sehen.. in wie weit sich der Markt beruhigt hat.
Ein Upgrade von einer High-End-CPU auf eine andere ist ja auch sowieso nicht unbedingt sinnvoll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und ElliotAlderson
9800X3D der neue Gaming König
7800X3D der Vize Gaming König aber immer noch der König beim Bereich niedrigsten Stromverbrauch und Hitzeentwicklung.

bin gespannt wie gut der 9800X3D mit Undervolting klarkommt.
 
arvan schrieb:
Anstatt das ganze Forum zu zu spammen, dass du höhere Auflösungen haben willst, macht dich einfach mal schlau, wie man CPUs testet

Das kann man auch immerwieder behaupten , CPU kann man aber auch komplett ohne GPU mit cinebench und co testen single wie multicore

Keiner streitet ab das man mit 720p die CPU mehr auslastete aber Spieletest kann man schon vereinzelt auch höhere Auflösung bringen , wie ich schon gesagt habe man will ja wissen ob die CPU in den Auflösungen die man spielt besser ist als seine alte oder ist das egal
 
ElliotAlderson schrieb:
Das war damals die Speerspitze im Consumer-/Desktopbereich.
Das stimmt zwar, aber damals gab es auch noch HEDT, das den Namen verdiente. Dieser Markt hat auch schon ähnliche Preise aufgerufen (oder eher höhere), wie man heute für den 9950X zahlt.

In Sachen Leistung haben AMDs 16-Kerner den damaligen HEDT-Markt einfach komplett zerstört bzw diesen weitgehend ersetzt. Natürlich ist dann auch die Ausstattung der Plattform dabei leider schlechter geworden, aber gegenüber 2000€ für einen Intel 7980XE sind 800€ auch ein Preisbrecher.
 
  • Gefällt mir
Reaktionen: SweetOhm
scryed schrieb:
Das kann man auch immerwieder behaupten , CPU kann man aber auch komplett ohne GPU mit cinebench und co testen single wie multicore
Und das bringt dir was? Ich will wissen, wie schnell meine CPU in Spielen performt und nicht in synthetischen Benchmarks. Cinebench spiegelt nicht die Leistung in den einzelnen Spielen wieder.

stefan92x schrieb:
Das stimmt zwar, aber damals gab es auch noch HEDT, dass den Namen verdiente. Dieser Markt hat auch schon ähnliche Preise aufgerufen (oder eher höhere), wie man heute für den 9950X zahlt.
Nein, der 9950X(3D) ist Consumer. HEDT ist Threadripper:
https://www.hardwareluxx.de/index.p...r-amds-hedt-mit-32-und-64-kernen-im-test.html

ZEN -> Desktop/Consumer
Threadripper -> HEDT
EPYC -> Server

stefan92x schrieb:
In Sachen Leistung haben AMDs 16-Kerner den damaligen HEDT-Markt einfach komplett zerstört bzw diesen weitgehend ersetzt. Natürlich ist dann auch die Ausstattung der Plattform dabei leider schlechter geworden, aber gegenüber 2000€ für einen Intel 7980XE sind 800€ auch ein Preisbrecher.
Der Vergleich hinkt. Selbst im Serverbereich war man damals gar nicht in der Lage so viele Kerne zu liefern.
Die Kernzahl steigt mit jeder Generation und deshalb kann man wohl kaum sagen, dass 16 Kerne heute mit 16 Kerne damals verglichen werden, wenn letzteres damals nur im Serverbereich zu finden und extrem teuer war.
 
M4xw0lf schrieb:
Nicht wenn man die absoluten Latenzen unangetastet lässt. Hier wurde fast nur die Bandbreite erhöht, das Resultat war zu erwarten.
ah jetzt erst gesehen. also für richtiges OC muss ich dann wieder auf andere Tests gucken. war zu erwarten von CB
 
Also wenn ich das jetzt richtig lese:

35% höherer Stromverbrauch
"nur" 14% Mehrleistung daraus gewonnen
Kein CUDIMM Support (möglicherweise später als AGESA Update)
Immer noch nur 8/16 Kerne/Threads
für 530€ (sehr wahrscheinlich beim aktuellen Hype im Laden nachher nicht verfügbar oder noch teurer)

Dazu die bekannten Probleme, die AMD schon länger begleiten:
hoher Idle/Teillast Stromverbrauch
Probleme mit OC Speicher, hohen Takt zu fahren
AM5 Plattform mit kurioser PCIe Lane Aufteilung
hohe Kosten für die Boards, wenn man mehr als das absolute Minimum haben will

Die CPU ist nachweislich die schnellste CPU für Spiele.
Aber ein rundes Produkt ist es nicht und günstig gleich dreimal nicht.

Ich würde gerne mal die CPU upgraden, aber 530€ (wovon ich nicht glaube, dass das in dieser Phase bleibt) plus 300€ Mainboard (mit etwas mehr als das Minimum an Ausstattung) und 250€ Speicher, davon abgezogen mein Board+Speicher+CPU bin ich mal irgendwo bei 700€ für das Upgrade. Stecke ich meine aktuelle Hardware in ein anderes System/gebe das in der Family weiter, reden wir schon von einem vierstelligen Preis.
So sehr über die Core Ultra 200 CPUs gelästert wurde. Wenn man im Mittelklasse Segment unterwegs ist, ist man mit den CPUs, auch aufgrund der Boards deutlich besser bei Preis-/Leistung unterwegs.

Selbst mein Bauch hat hier noch keinen Geschmack gefunden. Der Kopf sagt schon die ganze Zeit nein.

Heißt weiter warten auf AM6 oder Intel bringt die neue Architektur bei Core Ultra 300 richtig auf Fahrt.
 
dichter-karl schrieb:
Ähem, nur unter der Annahme, dass er nichts anderes konsumiert oder das er außer europäische Produkte importiert.

Versteh deinen Punkt nicht?
Da es hier nicht zum Thema passt, nur so viel.
Steigt er auf Getränke ect. eines reinen EU Unternehmens um, müssen die nur die Produktion höher fahren. Was aber oft keine neuen Arbeitsplätze schafft, denn eine Produktion innerhalb einer Produktionsstraße zu steigern benötigt weniger Aufwand. Kurz, du meidest z.B. eine Firma mit 100 Mitarbeitern und kaufst bei einer anderen Firma ein. Die muss jetzt ihre Produktion steigern, benötigt dafür aber nur 20 Mitarbeiter mehr, da du nur erweitern nicht komplett aufbauen musst. Du brauchst nicht mehr Vertriebler, nicht mehr Verwaltung und in der Produktion auch nur wenig mehr an Leuten. Heißt, du hast am Ende 80 Leute ohne Job.
 
SKu schrieb:
dann zieht ein AMD-System mit 7800X3D rd. 26W mehr im Idle als das Intel-System. (84W zu 58W) - System mit DDR 6000 und RTX 4090.
Bitte nicht von einem System verallgemeinern. Allein zwischen Mainboards herrscht ein riesen Unterschied.
Ich spare durch den Wechsel von Asus zu Gigabyte 20 Watt.
Aktuell hab ich selbst mit RAM OC von 6400 und dem Gigabyte Board 71 Watt, ohne RAM OC 60 Watt.
Ja Intel ist etwas besser, es muss aber nicht immer so schlimm sein.
Asus ist leider sehr verschwenderisch.

Ich probiere heute einen 9800X3D zu bestellen, dann teste ich selber was so an Unterschied zum 7800X3D ist.
 
  • Gefällt mir
Reaktionen: SweetOhm, fox40phil, NerdmitHerz und 2 andere
ElliotAlderson schrieb:
Nein, der 9950X(3D) ist Consumer. HEDT ist Threadripper:
Ja, aber fängt mit Plattformkosten etc mittlerweile so weit oben an, dass heute HEDT nicht mehr als Gamingplattform interessant ist und auch nicht mehr für kleine Workstations. Darum ging es mir, dass sich Marktsegmente verschoben haben und viele, die früher HEDT gekauft hätten, heute auf der normalen Consumer-Plattform landen.
 
  • Gefällt mir
Reaktionen: SweetOhm und fox40phil
MaverickM schrieb:
Nein, tut es nicht.
Doch, tut es.
Schließ mal ein Messgerät an, dann wirst Du es sehen.
Wenn Du keins hast, schau einfach in den Taskmanager.

@aldaric, K3ks
Und kommt mir nicht mit "Teillast". Nur weil die Taktfrequenz für ein paar Sekunden pro Stunde hoch geht.
Idle = Minimale Taktfrequez = Minimale Spannung = Minimaler Stromverbrauch.

Ich habe mich mit dem Thema schon vor Ewigkeiten ausgiebig beschäftigt und hab da deutlich mehr Kompetenz als so mancher Keyboard-Krieger hier.
 
CCIBS schrieb:
Ich finde es aber schade, dass ohne Not, Effizienz geopfert würde. Bei Games ist diese noch immer sehr gut, immerhin nur vom Vorgänger übertroffen, aber wie gesagt, es gab keine Notwendigkeit dafür.
Das ist aber auch der einzige Wermutstropfen. Haut teilweise aber richtig rein, besonders in Cities Skylines.
Gleiche Performance aber 49% mehr Verbrauch. AMD hat diesen Schritt gehen müssen, ansonsten hätte ihnen fast das gleiche wie bei Arrow Lake gedroht. Die CPU wäre mit der gleichen Effizienz wie Zen 4X3D nicht schneller gewesen. Gleicher Speicher vorrausgesetzt.
 
Luxmanl525 schrieb:
Wer redet hier von einem 3000 € System? Ich ganz bestimmt nicht.
Dann lass es halt 2000€ sein, auch wenn hier die meisten wohl ehr Richtung 4080/4090 Gespann gedacht hatten für den 9800x3D, aber selbst mit der günstigsten Empfehlung mit 7800x3D aus dem Leserartikel Der Ideale Gaming-PC geht sich die Rechnung immer noch aus.

Selbst mit nur 10% mehr Leistung für nur 100€ mehr an Kosten.
Ergänzung ()

Serandi schrieb:
Für über 300€ kommt mir eine CPU nie wieder in den PC!
Dann werde ich eben nur noch gebraucht zwei Jahre nach Release kaufen!
Wieso? Den 5700x3D gibt es doch schon für 200€?!? Neu!
 
heroesgaming schrieb:
Gut, ein freigeschalteter Multiplikator ist heutzutage sowieso nicht mehr viel mehr als ein zusätzlicher Haken auf dem Feature-Klemmbrett. Mit UV in Verbindung mit OC kann man sicher noch das eine oder andere optimieren, besonders wenn man die Silikon-Lotterie gewinnt, aber enorme Auswirkungen durch OC gibt es sowieso keine mehr.

Ich finde die OC test‘s von skattersbench auch immer sehr gut und in den ei zelnen schritten ausführlich erklärt. https://skatterbencher.com/2024/11/06/skatterbencher-82-ryzen-7-9800x3d-overclocked-to-5750-mhz/
 
Pizza! schrieb:
Bitte nicht von einem System verallgemeinern.

Ich schrieb doch, dass der Verbrauch vom Build abhängig ist und die Angaben in den Reviews nur als Richtgröße zu verstehen sind. Mit X670E wird der Verbrauch höher liegen als mit B650.

Und wehe du klaust mir meinen 9800X3D heute um 15 Uhr! :D
 
  • Gefällt mir
Reaktionen: Pizza!
Gibts eigentlich Tests im GPU-Limit, also so wie jeder Spieler Spielt, welche CPU man eigentlich mindestens braucht das man die GPU auslastet.
 
MaverickM schrieb:
Entweder Du verwechselst, was "Idle" wirklich bedeutet... Oder du verbrätst sinnlos Strom, wenn dein Rechner auch einfach im Standby sein könnte. So oder so sind nicht die 20W das Problem...
Häng doch einfach mal ein Messgerät an deinen Rechner und öffne Word, Browser, Webradio, Excel, Steam.
Es verursacht nur kurze Lastspitzen, danach fällt der Verbrauch bei einem ordentlich eingestellten Gerät wieder auf den "Idle Verbrauch" zurück. Und so "Idlet" dein Rechner ständig dahin, selbst bei einem Youtube Video, weil das hauptsächlich die GPU und nicht die CPU belastet.

Auf der CPU rödeln ständig 1000e Prozesse im Hintergrund, ohne dass ich etwas auffälliges an der Steckdose messen kann.

Was heißt das konkret. Ob ich jetzt lediglich den Desktop anzeigen lasse oder hier einen Kommentar abtippe, macht von den Messwerten keinen Unterschied. Ich verstehe gar nicht, warum es darüber immer Diskussionen gibt. Das kann doch jeder selbst messen und sehen und selbst wenn ich die Maus intensiv bewege, geht es nur 3-4 Watt hoch.
MaverickM schrieb:
Besser geht immer. Da Idle aber so gut wie vorkommt, sollte man halt eher realistischere Szenarien betrachten.
Ich denke mal du meinst "so gut wie nie". Aber es kommt ständig vor.
Klar, wenn sich im Hintergrund Windows Updates installieren, dann messe ich durchaus einen Anstieg von 25W auf meinem 5800X3D System, aber hier im Forum mit Internetradio rührt sich gar nichts. Niente.
 
Aduasen schrieb:
Nette Werte.
Jetzt bin ich wirklich gespannt auf den 9950X3D, eben weil ich einen 7950X3D verbaut habe.
So gehts mir auch, aber da AM5 die nächste Gen auch noch unterstüzt wird wird abgewartet.
Das "kaufen" Teufelchen schreit zum Glück nicht so laut diesmal.
 
  • Gefällt mir
Reaktionen: Bassmensch
Zurück
Oben