News CPU-Gerüchte: Ryzen 9000X3D bei gleichem L3-Cache voll übertaktbar

Jaws AT schrieb:
Die große Frage bleibt ob die 9900X3D und 9950X3D auf beiden CCDs den 3D V-Cache haben werden... möchte ungerne von meinem 5900X auf einen 8 Kerner "upgraden". ;-)
Joa war/ist die größte Enttäuschung für mich beim 7x3d Release.
Wollte den 7950x3d haben und dann die Info + Benchmarks + oftmals Fehler in der Anwendung usw..

Ein 9950x3d mit 16x 3D V-Cache wäre echt nice, auch wenn ich ihn nicht brauche, würde ich ihn holen :D
 
Also wieder keine gleichwertige Aufteilung des 3DCashes auf beide CCDs. Schade.
 
stefan92x schrieb:
Das wäre hier die große Hoffnung, und nochmal ein X-Faktor für die X3D-Chips. Wenn die (fast) den gleichen Takt hätten wie die Modelle ohne extra Cache, wäre es plötzlich keine Abwägung mehr, welches Modell man nimmt - X3D wäre immer besser.
Deswegen wahrscheinlich auch der 16 Kerner mit 2x 3D Cache.
Die würden dann schon sehr stark werden.
 
McFritte schrieb:
Das nächste Mal machst du das Klugscheißen aber gleich richtig und vollständig :p
hat der @pajaa doch.... mein Hirn ist im Wochenendmodus, sry, meinte selbstverständlich Silizium 🙄😅
 
Hab keinen Plan von den CPUs, aber das hier hört sich für mich, als Zocker, spannend an:

"Just like the Ryzen 7 7800X3D, the Ryzen 7 9800X3D is going to be a phenomenal chip in regards to gaming performance and should feature impressive performance/$, especially compared to Intel's fastest 14th Gen solutions since Arrow Lake doesn't launch until October 2024."
 
StylishChiller schrieb:
Wie alle jetzt schon am Sabbern sind nach den neuen CPU's obwohl fette Systeme am Start.
Nicht den Leuten ausreden. Die Wirtschaft ist im Eimer und so halten wenigstens die Konsumkranken die Wirtschaft bei Laune.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MegaDriver
StylishChiller schrieb:
Wie alle jetzt schon am Sabbern sind nach den neuen CPU's obwohl fette Systeme am Start. 😂😂😂.
Die einen wollen, die anderen "brauchen"^^
Für 16% hol ich sie mir nicht, aber wenn 30% draus werden, dank (fast) vollen Takt, immer her damit
 
drago-museweni schrieb:
@Haldi wer spielt schon Benschmarks, und eine 4090 bei FHD zu verwenden ist ein Frevel.

Finde OC mittlerweile einfach nutzlos, vielleicht bin ich auch zu alt dafür.

Wenn die neuen Boards erst im September kommen sollen dann habe ich noch Zeit zu warten.
Meine erste CPU war ein K5 120@150mhz. Mit Jumper den Bustakt erhöht :D Dann K6 233@~280mhz waren es glaube ich, dann K6^2 300mhz@350Mhz. Dazwischen hatte ich glaube ich kurzzeitig eine SLOT A CPU. Aber ich weiß nicht mehr viel... Danach ein Duron 800@1150mhz, ein paar zerbröselte Athlons und Durons später einen K6 2 Dualcore (oder war es Athlon X2?), Dann Core2Duo... Inzwischen bin ich bei einem 3600@4Ghz@1Volt VCore. ^^ Irgendwie ist das alles nicht mehr so cool wie früher. Früher hast du 20%, 30%, ja manchmal 50% mehr Leistung mit OC erhalten.

Jetzt kann man sich über 10% freuen. Wenn überhaupt. Auch hat man damals die Leistung auch in Spielen etc. gemerkt, da diese meist rauskamen und oft nicht mal auf aktuellster Hardware liefen (Unreal, Outcast, etc...)

Das hat schon Spaß gemacht. Aber wahrscheinlich ist es auch das Alter. Familie, Arbeit und andere Hobbies wie Werkzeuge, Garten, etc... Da versenke ich lieber mein Geld :D
 
mesohorny schrieb:
Es tut mir leid, dass ich nicht jedes deiner Strategiespiele, die ich selbst nie gespielt habe, ins Cherry Picking mit aufgenommen habe. Ich wollte dir deine CPU nicht madig reden, für den persönlichen Angriff entschuldige ich mich.
Kein Grund für Entschuldigung, bin kein bisschen betupft.

Dieses "4k - die CPU ist egal!" kommt hier im Forum einfach sehr oft, ist aber eben falsch. Gerade vor dem Hintergrund, dass hier eine Menge starke CPUs und schnelle Monitore unterwegs sind - siehe die Signaturen. Es spielt ja "niemand" in 4k 50Hz - die teuren Monitore haben alle +120Hz.
Und hat dann auch nichts mit Cherry-Picking zu tun, weil es viele Szenarien gibt, wo die CPU einen Unterschied macht bei 4k - Gibt dazu endlose Testreihen bei PCGH: Auch bei 4k und insbesondere aufgesamplet hilft eine schnelle CPU gegen Framedrops.

Das gilt oft auch für Spiele, die man lange spielt - Baldurs Gate III ist so ein Kandidat - der 10900k oder der 5800x die ich hier zur Hand habe führen in belebten Gegenden zu unschönen Drops. Der x3d ist stabil flauschig. Das wird vielen egal sein und den Preis für ein High-End-System nicht wert - ist okay und verständlich. Aber der Unterschied ist eben fühl- und messbar.

Mir persönlich ist es insbesonder egal ob 144 oder 240 max. FPS, aber 30 oder 60min. FPS, das macht einen Unterschied für mich.
 
  • Gefällt mir
Reaktionen: iron_monkey, Nooblander und CDLABSRadonP...
Haldi schrieb:
Pff hallo?
Wenn ich nicht alles auf Max Detail stellen kann ist das game Scheisse optimiert.
Wenn man bei einem Spiel alles auf Max setzen kann, war der Entwickler zu faul. Ich finde es gut wenn Spiele auch Details bieten, die vielleicht nur zukünftige Hardware bespielen kann. Nicht jeder spielt das Spiel (nur) an Day 1.
 
  • Gefällt mir
Reaktionen: ThirdLife
Alesis schrieb:
Hast du darüber eine Untersuchung die dies bestätigt, oder ist es dein Bauchgefühl? :D

oh ich hab vergessen zu schreiben, dass ich HWL meinte und nicht CB wo alles stock gelassen wird. sry
 
StylishChiller schrieb:
Wie alle jetzt schon am Sabbern sind nach den neuen CPU's obwohl fette Systeme am Start. 😂😂😂.
In meinem fall gilt, zumindest bei Vrchat in vollen lobbys, her mit der leistung, selbst der 7950x3d reicht da nicht, und auch ein 9950X3D wird da wohl nicht reichen, das game ist wirklich 0 optimiert und dazu kommen noch die custom avis die dem ganzen auch keinen gefallen tun. GPU Ram etc alles nebensächlich, das game braucht den cache und Vram, da kann man nicht genug von haben ^^
 
MehlstaubtheCat schrieb:
Ah ja, die Info auf die sich auch diese CB News mit dem Titel CPU-Gerüchte stützt^^

"Bestätigt" ist da gar nix, solange es nicht direkt und offiziell von AMD kommt.


Wenn es diesmal ohne Taktmalus funktionieren sollte, dann hätte man theoretisch auch einen 9950X3D mit V-Cache auf beiden CCDs bringen können, ohne dass man Nachteile in irgendeiner Form dadurch hat.
Naja, außer eben dass das Teil unnötig teuer wird, denn wirkliche Vorteile hat man dadurch auch nicht.
Ergänzung ()

ChrisMK72 schrieb:
Hab keinen Plan von den CPUs, aber das hier hört sich für mich, als Zocker, spannend an:

"Just like the Ryzen 7 7800X3D, the Ryzen 7 9800X3D is going to be a phenomenal chip in regards to gaming performance and should feature impressive performance/$
Naja, was soll denn daran spannend sein? Natürlich wird er ne gute Gaming Performance haben, alles wie erwartet halt, er reiht sich in die Reihe von 5800X3D und 7800X3D ein.
 
Zuletzt bearbeitet:
Taxxor schrieb:
was soll denn daran spannend sein?
Für mich als Zocker, für einen potentiellen Nachfolger für meine Basis.

Das dumme is, ich hab aufgrund der Idee des neuen Systems gerade extra versucht, in meinem aktuellen Lieblingsgame ins CPU Limit zu kommen. Extra nur auf 1080p eingestellt, zum Testen, obwohl ich eigentlich WQHD spiele.

"Leider" hab ich es nicht geschafft.
Der i9 9900K is wohl leider immer noch gut genug für mich zum Zocken.

Mehr wie 60-70% Auslastung bei immer 98/99% GPU Auslastung hab ich bisher nicht hinbekommen, obwohl ich extra nach fordernden Stellen gesucht habe.

Dachte, ich könnte mir ein neues System irgendwie rechtfertigen.
Aber wenn ich vernünftig bin, sollte ich wohl weiter auf der Basis zocken, bis ich irgendwann einen Grund finde. :D

Naja, Luxusprobleme. Ich nehm's einfach als gute Nachricht. Denn das Game wird wohl die nächsten Jahre mein Lieblingsgame bleiben. Kommt erst frühestens nächstes Jahr als Releaseversion raus (is noch early access).

Möglicherweise könnte irgendwann ein GPU Upgrade helfen, ins CPU Limit zu kommen.
Eine 3090 reicht dafür noch nicht.

Die 5000er überspringe ich aber noch. Also frühestens irgendwas mit 6070 Ti Super, oder so. ;)
 
Ich hätte mich ja eher über 12- und 16-Kern-CPUs gefreut, bei denen beide CCDs den 3D-Cache tragen. Naja.

Gespannt bin ich ja, wie AMD das (angebliche) Problem gelöst haben will, dass zu hohe Spannungen zu thermischen Problemen und stärkerem Verschleiß führen sollen. Ob man den OC-Support wirklich braucht sei mal dahingestellt, loten sich CPUs doch mittlerweile selbstständig bis ans (sinnvolle) Maximum aus, aber schaden tuts nun auch nicht, die Option dazu zu haben.
 
Ich empfinde CPU-OC als Gimmick. Selbst bei Coffeelake hat optimierter RAM mehr gebracht als ein 8700K@5Ghz. Bei AMD verhält sich das ähnlich. RAM-Tweaks bringen mehr als reiner Takt in den meisten Fällen. Zumal bei AMD eh eine harte Taktgrenze einsetzt. Habe OC bei AMD schon seit Summit Ridge und auch mit Pinnacle Ridge schon nur noch als Marketing wahrgenommen. Wenn überhaupt ist UV interessant.

Bei der jetzigen Intel CPU ist max. OC auch eher uninteressant.
 
  • Gefällt mir
Reaktionen: iron_monkey
iGameKudan schrieb:
Gespannt bin ich ja, wie AMD das (angebliche) Problem gelöst haben will, dass zu hohe Spannungen zu thermischen Problemen und stärkerem Verschleiß führen sollen.
Angesichts der gesunkenen TDP der 9000er verglichen zu den 7000er Modellen könnte man spekulieren: Gar nicht. Stattdessen schaffen sie umgekehrt mit weniger Spannung/Stromverbrauch den maximalen Takt.
 
mesohorny schrieb:
Für alle, die auf 4k zocken und genau nichts vom X3D merken würden.

3DX ist gut und recht für FHD aber verliert massiv an Bedeutung, je höher die Auflösung.
Das stimmt so auch nicht,kommt halt auf de spiele an,bei PUBG,WoW,Tarisland,CoH3 und sogar BF2042 renn ich in UHD öfters ins CPU limit.

Da wünsche ich mir schon ein X3D.
 
  • Gefällt mir
Reaktionen: DerRico
Caramelito schrieb:
Joa war/ist die größte Enttäuschung für mich beim 7x3d Release.
Wollte den 7950x3d haben und dann die Info + Benchmarks + oftmals Fehler in der Anwendung usw..

Ein 9950x3d mit 16x 3D V-Cache wäre echt nice, auch wenn ich ihn nicht brauche, würde ich ihn holen :D
:D

So schlimm ist das nicht.

Screenshot 2024-07-08 012058.jpg
 
Zurück
Oben