NMA
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.626
Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?budspencer schrieb:ins HDMI oder DP Limit rennen
Besten Dank.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?budspencer schrieb:ins HDMI oder DP Limit rennen
Also Du hast halt Bandbreite-Limitationen durch den Anschluss z.B. bei 3440x1440 HDR10 sind es 144MHz über Displayport. Mehr geht über die Schnittstelle bei 4090 nicht.NMA schrieb:Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?
Besten Dank.
Angeblich hat AMD das ausprobiert, und es gab fast keinen messbaren Nutzen. Wie auch? Die meisten Spiele Nutzen selten mehr als 6 Kerne, geschweige denn 8. Und wenn doch, müssten die Kerne die Daten im schlimmsten umständlich aus dem Cache des anderen CCDs holen.Jaws AT schrieb:Die große Frage bleibt ob die 9900X3D und 9950X3D auf beiden CCDs den 3D V-Cache haben werden... möchte ungerne von meinem 5900X auf einen 8 Kerner "upgraden". ;-)
Was ein Quatsch. Das bezieht sich nicht auf HDMI sondern DP. NVidia hat HDMI 2.1....budspencer schrieb:Afaik sind es bei HDMI weniger, weil NV hier noch ne ältere Schnittstelle verwendet im Gegensatz zu AMD.
Ich nehme an, @budspencer meint damit, dass der aktuellste HDMI-Standard maximal 120 Bilder pro Sekunde bei 4 und 8k übertragen kann.NMA schrieb:Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?
Besten Dank.
Was sich noch lohnt ist die Anpassung der Power targets, das Verlängern der Boostdauer und das Übertragen des boosts auf alle kerne und nicht nur einen.0xffffffff schrieb:Lohnt sich das bei heutigen CPUs überhaupt noch? Ich meine moderne CPU/GPU loten doch eh den besten Takt in Abhängigkeit von Spannung, Leistungsaufnahme und Temperatur aus, genauso wie bei GPUs.
Ich hab den Eindruck, das beste "OC" heutzutage ist einfach sich bei der "Sicherheitsmarge" gerade hinsichtlich Spannung an den Rand der Stabilität zu tasten. Wenn ich mich richtig ans Studium zurückerinnere, steigt die Leistungsaufnahme ja mit der Spannung quadratisch an. Und schnell ist man in irgendwelchen Clock-Stretching-Szenarien etc...
Für alle, die auf 4k zocken und genau nichts vom X3D merken würden.NIGHTFIL schrieb:Wozu braucht es dann die non X3D CPUs überhaupt noch? ;-)
Haldi schrieb:Naja... Meine 4090 rennt mit dem 7950x3d schon öfters ins CPU Limit wenn ich auf 1920x1080 benchmarke.
Wenn er jetzt schon manchmal bei FHD mit der aktuell stärksten Hardware ins CPU-Limit rennt, kann das bei der nächsten Grafikkartengeneration auch bei höheren Auflösungen passieren, je nachdem, wieviel % diese draufsattelt.w0wka schrieb:Und wenn du normal spielst? Wie oft rennt da die CPU ins Limit? Du spielst ja nicht von morgens bis abends Benchmarks
w0wka schrieb:Du spielst ja nicht von morgens bis abends Benchmarks
Ich glaube dass das so 'ne 4090/High-End Selbstbläser Nummer ist, scheint vielfach verbreitet zu sein....drago-museweni schrieb:wer spielt schon Benschmarks,
Auf 7680x2160? XDw0wka schrieb:Und wenn du normal spielst?
Mein Monitor würde 240hz unterstützen.NMA schrieb:Ich bin mir nicht sicher, ob ich das korrekt verstehe und möchte deshalb nachfragen, auf was sich das genau bezieht?
Und die werden, dank dieses Monsters, hoffentlich bald günstiger! 😅paganini schrieb:Wer einen 5800X3D oder ein 7800X3D braucht sich eh die nächsten ca. 5 Jahre keine Sorgen zu machen