Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra
Ich werde wohl doch das MSI X670E Gaming Plus WiFi nehmen ... ich habe gerade festgestellt, dass meine Boxen einen USB-C Anschluss haben und diese damit viel besser klingen.
Müssen sie nicht, sie haben auch so 75% Marktanteil. Ob da ein paar Gamer wegen dem 9800X3D abspringen, merkt Intel gar nicht.
Grafikkarten produziert Intel doch nicht für Gamer, wo denkst Du hin? Im Profigeschäft wird damit das Geld gemacht und da machen sich die ARCs gar nicht so schlecht.
Die Gaming-Ableger haben sich übrigens langsam, still und heimlich an die Konkurrenz rangeschlichen.
Steht bei euch auf dem Plan zukünftig in unterschiedlichen Leistungsstufen zu testen? Es wäre zwar viel Arbeit, aber sicherlich auch sehr interessant: Gern würde ich den 5800X3D und 7800X3D im Vergleich zum 9800X3D bei 45 W, 65 W, 95 W und 105 W im Vergleich zur Referenz von 120 W (bzw. halt 105 W für den 5800X3D) sehen wollen...
Ich könnte mir vorstellen, dass 95 W ein Sweet Spot sein könnte. Gerne auch den 9700X dazu - da hatten ja auch schon einige Member hier die Meinung, dass 95 W der beste Kompromiss aus Leistung, Effizienz und Temperatur sein könnte...
Ne Menge wenn man täglich 4-6 Stunden zockt und die 25w quasi gar nicht braucht und aus dem Fenster rausgehn. Effizienz ist das wichtigste bei einer neuen CPU Generation.
Es ist ein offenes Geheimnis, dass die Next-Gen-Grafikkarten mehr Energie als die aktuelle Generation benötigen werden – potentiell viel mehr. In Tests hat sich gezeigt, dass das bisherige, von ComputerBase genutzte Gehäuse des Testsystems mit der abzuführenden Wärme überfordert gewesen ist – deshalb erfolgt nun ein Wechsel.
OC? Wir haben 2024... Und wenn der Prügel 5GHz AllCore laufen sollte, dann wären 500MHz jetzt auch nichts, zumindest ich sehe das so. Damals war OC so +30% oder +60% Takt oder mehr, aber heute? It's /&%ing nothing.
Ich hatte ja vorhergesagt, dass der 9800x3d vermutlich deutlich mehr Strom ziehn wird als der 7800x3d besonders auch wegen dem deutlich höheren Basistakt
Darum geht es ja eben nicht. Aber letztlich hat jeder eine GPU im Rechner und wüsste gern, ob er seinen 5800X nun gegen den 9800X3D tauschen sollte oder nicht.
Auf 4k mit 4090 sind es 7% Unterschied (sparen wir uns an der Stelle die Diskussion um die Frametimes), für die er vermutlich nicht 530€+Board+RAM ausgeben würde, wäre er nicht von der 720p Performance "geblendet", für die er bereit war, das Geld auszugeben.
Die "Rohleistung" hat damit nichts zu tun, es geht lediglich um eine EINORDNUNG für ein typisches System (oder eine Auswahl typischer Systeme, wie sie beispielsweise bei den CPU/GPU Übersichten da ist).
Edit: ein "bei 1440p mit einer 4070S/Radeon RX-weiß-keine-passende-und-möchte-nicht-gegrillt-werden sind das für dich ca n%".
Geht doch nur drum zu sehen wie sinnvoll der aktuelle Kauf für das setup wäre. Genau für Leute wie mich mit einer 4090 wäre es eine zusätzliche Info. Um die reine Performance und Potential der cpu zu beurteilen passen die 720p Tests natürlich. Aber wo bin ich trotzdem überall im gpu Limit in 4k ist frage... klar kann man das auch ableiten aus den normalen gpu benchmarks pro Spiel aber so eine Zusammenstellung für dummies wäre gut sehe es aber auch so, dass bei 4k erst mal eine 5090 mehr müsste. Und dann sollte man ggfs auch mehr als 120hz haben. Trotzdem geile CPU, aber um die echt in der Praxis zi befeuert reicht die 4090 nicht.
Dass es Kerne mag, erklärt die AMD Ergebnisse aber nicht
Egal ob 8 Kerne oder 16 Kerne, egal ob mehr oder weniger Cache, alle AMD CPUs sind gleich schnell.
Tatsächlich ist der 14900K hier auch nur 2-3% schneller.
Nur der 285K hat einen nennennswerten Abstand und dieser hat in Summe weniger Threads als der 14900K
Die "Rohleistung" hat damit nichts zu tun, es geht lediglich um eine EINORDNUNG für ein typisches System (oder eine Auswahl typischer Systeme, wie sie beispielsweise bei den CPU/GPU Übersichten da ist).
dann schaut man einfach mit seiner GPU was diese an FPS in jeweiliger Auflösung hergibt und sieht dass ein 5800X im CPU Index um die 100FPS macht und gleicht diese beiden Werte ab um zu entscheiden lohnt sich das aufrüsten oder lohnt es sich für mich nicht, ist doch echt net so schwer zu kapieren
Da steht wohl ein Upgrade an für meine Stellaris Spiele
-> Hört sich jetzt nicht weltbewegend an die 14,2s/Spieljahr, aber da kommt schnell was zusammen und mit Mods noch wichtiger. War schon vom 5800x3d auf 7800x3d ein spürbares Upgrade und wird hier hoffentlich ähnlich sein.
Mit oder ohne Upscaling?
Viele nutzen mittlerweile Upscaling von 1080p auf 4k, weil man kaum bis gar kein Unterschied sieht und es ordentlich FPS gibt. So ist dann auch wieder ein CPU Limit im Gespräch...
Dann machen Tests in 1080p auch wieder mehr Sinn, weil man darauf (grob) die FPS mit Upscaling ableiten kann.
Es verirren sich jeden Tag Leute hierher und fragen offensichtlich danach (immer wieder die gleichen Fragen, bei jedem Test), weil es eben nicht offensichtlich ist. Wie ich schon geschrieben habe: wenn es nicht der Anspruch der Redaktion ist, die Leute mit einem "was heißt das für mich" Beitrag/Übersicht abzuholen, dann ist das eben so.
Nein, nur Du willst nicht zugeben, dass Du Quatsch forderst.
Ich habe das früher auch getan, mir wurde gesagt es sei Quatsch, dann habe ich mit beschäftigt und es eingesehen. Es ist so einfach. 😉
Du empfiehlst quasi, dass es ausreicht einen 5600X für 4K zu nehmen.
Und was macht der Gamer mit der 5090 wenn er mehr Frames will? Zum Beispiel unnütze Details runter drehen und DLSS mit Quality verwenden.
Und dann bekommt er nicht mehr FPS und schreit hier im Forum, dass er doch in 4K spielt und ihm gesagt wurde die CPU wäre gleichwertig.
Und wenn Du jetzt immer noch „realistischer“ Testen willst, dann weiß ich auch nicht mehr. Suche es Dir doch woanders und gut ist. Irgendwer bench immer irgendwas. Findest bestimmt auch GPU Tests mit nem i3 6000er. 🤷♂️
Genau DAS ist der Grund, warum in 720p getestet wird. Man sieht die Leistungsunterschiede kaum. Das kann zu fatalen Fehlkäufen führen, denn eine CPU, die jetzt noch gut mit einer 4090 klarkommt, kann bei der nächsten Gen schon ins Straucheln kommen.
Wer schon jetzt mit einer 5090 liebäugelt, wird am 9800X3D nicht vorbeikommen. Wie einige hier berichten, hängen sie schon mit einer 4090 oft genug im CPU-Limit - wobei ich nicht weiß, welche CPU die denn so haben. Auf jeden Fall wird das mit der steigenden Leistung der nächsten Graka-Generation nicht besser.
Oh man, da werde ich ja schon schwach meinen 5800X3D inklusive Plattform zu verkaufen und aufzuspringen. Das Ding ist ein Monster und wäre der 4090 nur ein gerechter Partner. Aber auch wenn meine 4090 bei 1440p immer mal wieder limitiert wird, ist es eigentlich nicht so gravierend, dass sich das wirklich lohnt. Die zusätzliche compute Leistung für gelegentliches enkodieren oder cpu rendering wäre aber auch endlich ein Argument. Argghhh.