News CPU-Gerüchte: Ryzen 9000X3D bei gleichem L3-Cache voll übertaktbar

budspencer schrieb:
ins HDMI oder DP Limit rennen
Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?
Besten Dank.
 
  • Gefällt mir
Reaktionen: iron_monkey und 7H0M45
@MichaG
"Bei der ersten Generation (Ryzen 5 5800X3D) gab es keinerlei Overclocking-Optionen, bei den Ryzen 7000X3D konnten zumindest Precision Boost Overdrive und Curve Optimizer genutzt werden."

Auch beim 5800X3D kann der Curve Optimizer genutzt werden.
 
  • Gefällt mir
Reaktionen: *malagant*, Kalsarikännit, Kitsune-Senpai und 10 andere
Schwer zu glauben das Gerücht. Wenn der takt niedriger sein sollte als das Schwester Modell, dann aber oc Support? 🤔
 
  • Gefällt mir
Reaktionen: Flaschensammler
NMA schrieb:
Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?
Besten Dank.
Also Du hast halt Bandbreite-Limitationen durch den Anschluss z.B. bei 3440x1440 HDR10 sind es 144MHz über Displayport. Mehr geht über die Schnittstelle bei 4090 nicht.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Sprechen wir einfach weiter, wenn das Produkt offiziell vorgestellt wurde. Erst dann werden aus Gerüchten Fakten - oder auch nicht.
 
  • Gefällt mir
Reaktionen: Nooblander
Jaws AT schrieb:
Die große Frage bleibt ob die 9900X3D und 9950X3D auf beiden CCDs den 3D V-Cache haben werden... möchte ungerne von meinem 5900X auf einen 8 Kerner "upgraden". ;-)
Angeblich hat AMD das ausprobiert, und es gab fast keinen messbaren Nutzen. Wie auch? Die meisten Spiele Nutzen selten mehr als 6 Kerne, geschweige denn 8. Und wenn doch, müssten die Kerne die Daten im schlimmsten umständlich aus dem Cache des anderen CCDs holen.
Das macht erst Sinn, wenn alle 16 Kerne direkt mit dem Cache verbunden sind. Also frühestens mit Zen 6.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, nyster, Dai6oro und 2 andere
budspencer schrieb:
Afaik sind es bei HDMI weniger, weil NV hier noch ne ältere Schnittstelle verwendet im Gegensatz zu AMD.
Was ein Quatsch. Das bezieht sich nicht auf HDMI sondern DP. NVidia hat HDMI 2.1....
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Das wird ein teures Jahr für mich :D nach 11 Jahren kommt ein komplett Update 😅

Neue Ryzen Cpu
4080
Rest HW
Neuer Oled aua.

Das wird sich locker an die 3-4k kosten 😱
 
  • Gefällt mir
Reaktionen: SalatKatze, Dimensionday, V3ngeance und 5 andere
NMA schrieb:
Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?
Besten Dank.
Ich nehme an, @budspencer meint damit, dass der aktuellste HDMI-Standard maximal 120 Bilder pro Sekunde bei 4 und 8k übertragen kann.
 
  • Gefällt mir
Reaktionen: budspencer
0xffffffff schrieb:
Lohnt sich das bei heutigen CPUs überhaupt noch? Ich meine moderne CPU/GPU loten doch eh den besten Takt in Abhängigkeit von Spannung, Leistungsaufnahme und Temperatur aus, genauso wie bei GPUs.

Ich hab den Eindruck, das beste "OC" heutzutage ist einfach sich bei der "Sicherheitsmarge" gerade hinsichtlich Spannung an den Rand der Stabilität zu tasten. Wenn ich mich richtig ans Studium zurückerinnere, steigt die Leistungsaufnahme ja mit der Spannung quadratisch an. Und schnell ist man in irgendwelchen Clock-Stretching-Szenarien etc...
Was sich noch lohnt ist die Anpassung der Power targets, das Verlängern der Boostdauer und das Übertragen des boosts auf alle kerne und nicht nur einen.
 
Ja wird auch teuer für mich, X3D CPU, 5000er Nvidia,....
 
  • Gefällt mir
Reaktionen: Laphonso und |Maulwurf|
Bin auf jeden fall in den Startlöchern um mein 3900X zu ersetzen und nehm doch mal was mit X3D fürs Gaming. Ich will aber erst sehen wie sich die Energieverbrauch/Temperaturmäsig entwickeln. Mein Rechner ist ein bisschen blöd im Eck am Boden und da ist es kühlungsmäsig vielleicht nicht so günstig. Bin gespannt wie sich die X3D noch mit Luft kühlen lassen ohne das es nerft oder ob da Wasser Pflicht wird.
 
NIGHTFIL schrieb:
Wozu braucht es dann die non X3D CPUs überhaupt noch? ;-)
Für alle, die auf 4k zocken und genau nichts vom X3D merken würden.

3DX ist gut und recht für FHD aber verliert massiv an Bedeutung, je höher die Auflösung.
 
  • Gefällt mir
Reaktionen: Fallout667 und feris
Haldi schrieb:
Naja... Meine 4090 rennt mit dem 7950x3d schon öfters ins CPU Limit wenn ich auf 1920x1080 benchmarke.
w0wka schrieb:
Und wenn du normal spielst? Wie oft rennt da die CPU ins Limit? Du spielst ja nicht von morgens bis abends Benchmarks
Wenn er jetzt schon manchmal bei FHD mit der aktuell stärksten Hardware ins CPU-Limit rennt, kann das bei der nächsten Grafikkartengeneration auch bei höheren Auflösungen passieren, je nachdem, wieviel % diese draufsattelt.

Das ist genau der Grund, warum CPU-Spieletests auf 720p low gemacht werden. Man testet die Reserven, die CPUs für künftig stärkere Grafikleistungen haben.

Mögen mehrere Prozessoren bei jetzt praxisüblichen Auflösungen und Settings gleichschnell sein, weil sie im GPU Limit laufen, kann sich dass mit der nächsten Grafikgeneration ändern, wenn man jetzt den falschen Prozzi kauft, der nicht genug Luft nach oben hat. Das Problem verschäft sich, wenn man ein CPU lastiges Spiel spielt.

Von daher kann man @Haldi zustimmen: Wer aktuell einen 7950 X3D hat, ist natürlich gut aufgestellt. Ganz sorgenfrei im Blick auf eine 5090 (Ti/Super) kann man nicht unbedingt sein.

EDIT Frage an die Cracks unter Euch: 1080p ist doch oft die "Arbeitsauflösung" von DLSS und FSR. Was passiert eigentlich, wenn das Spiel da ins CPU-Limit läuft? Nach meinem Verständnis der Funktion von Upscaling müssten DLSS und Co. in dem Fall doch für den Popo sein. Höhere Frameraten werden doch neben FrameGen dadurch erziehlt, dass im GPU-Limit von 1080p mehr FPS erzielt werden als bei 4 oder 8k. Sprich, wenn auf 1080p die Frameraten wegen CPU-Limit einbrechen, kann DLSS nix mehr richten.
Irgendjemand, der dazu eine qualifizierte Aussage machen kann? Denn wenn meine Vermutung stimmt, könnten sich CPU Limits in Zukunft drastischer bermerkbar machen, als jetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Epistolarius, Sherman789, KarlsruheArgus und 2 andere
w0wka schrieb:
Und wenn du normal spielst?
Auf 7680x2160? XD
Tschau FPS...

99% GPU Load meiste Zeit.

NMA schrieb:
Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?
Mein Monitor würde 240hz unterstützen.
Aber HDMI und DP auf der 4090 können nur 7680x2160@120Hz ausgeben.
 
  • Gefällt mir
Reaktionen: Balikon
paganini schrieb:
Wer einen 5800X3D oder ein 7800X3D braucht sich eh die nächsten ca. 5 Jahre keine Sorgen zu machen
Und die werden, dank dieses Monsters, hoffentlich bald günstiger! 😅
 
  • Gefällt mir
Reaktionen: paganini
Also könnte man davon ausgehen, dass auch in "nicht manuellem OC" Szenarien der "3D Chip" signifikant näher an der Taktgrenze des "normalen" liegt, oder?

Bin ja gespannt. :) Mal sehen, wie ich die nächsten 15 Monate bis zum Win 10 Supportende "überstehe" und was der Markt dann so sagt. Früher will ich ohne technische Fehler (klopft auf Holz) nicht upgraden.
 
  • Gefällt mir
Reaktionen: Sansio
Ach ja, die Gerüchteküche...
Ich lehne mich ganz entspannt zurück und schaue mir finale Tests nach Release an. Und selbst dann interessiert es mich lediglich aus technischer Sicht, da ich mit dem 5800X3D noch einige Zeit gut versorgt bin.
 
  • Gefällt mir
Reaktionen: MegaDriver
Zurück
Oben