News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Fye schrieb:
VRAM Belegung ist nicht gleich VRAM Verbrauch, das wurde schon oft genug gesagt und festgestellt. Nur weil ein Spiel 11,5GB belegt heißt es nicht, das es diese 11,5GB auch benötigt.
Bei Star Citizen kann man sich anzeigen lassen, wie viel Vram dass Spiel wirklich gerade benötigt, und wie viel zurück gehalten wird.
Und da sehe ich bei meiner Karte, wirklich gebraucht wurden auf 1080p schon knapp 13GB.
Dass Spiel hat sich etwas Vram reserviert, so dass meine Grafikkarte dann bei knapp 15GB Vram verbrauch war.
Star Citizen 36GB + 15GB Vram.jpg

Und jetzt solltest du mit bedenken, Star Citizen ist ein Spiel ohne Ladezeiten.
Wir bewegen uns in Riesen großen Raumschiffen, und auf riesigen Weltraumstationen oder Monden oder Planeten und dass alles ohne Ladezeiten. Ich will nicht wissen was da mit den Frames, vor allem 1% Percentil passiert, wenn der Vram nicht mal mehr 2GB Vorladen kann.
Und ja mein Vram verbrauch ist von einer Radeon, aber eine Geforce genehmigt sich auch gern 15GB Vram sobald man die Polaris ruft. (Ein Schiff wo man 20 Minuten benötigt um jeden Raum zu erkundigen)
Von daher sollten so Nvidia Fanboys wie Thrid Life und Quidproquo77 die gefühlt für Nvidia Arbeiten, oder aus irgend einem grund ihre Lieblingsfirma verteidigen, mal lieber weniger selbstsicher sein.
Eine 800€ RTX 5070 für SC kann man jedenfalls nicht empfehlen. Die ist Obsolet bevor sie überhaupt auf den Markt kam.

RTX 4090 14,4GB Vram außen.
14,4GB Vram outside Polaris.jpg


RTX 4090 Knapp 15GB Vram Innen
15Gb Vram inside Polaris.jpg

Und die Intel Fanboys hier trollen rum wollen einem klar machen, 8GB Vram reicht, ist klar.
Die RTX 5080 16GB kann man für SC immerhin noch empfehlen.
Also wer dieses Spiel spielen will, sollte entweder eine günstige 16GB Radeon (ab 379€ RX 6800XT) oder 1300€ für eine 16GB RTX 5080 ausgeben um nicht durch Vram Geiz das Potential seiner Karte einzuschränken.
 
Zuletzt bearbeitet:
Dessi schrieb:
Wow die neue 5090 wird der Hammer ! Bald können wir zuschlagen - ich freu mich schon so.
Ich sag dazu nur, zum Glück bin ich nicht verheiratet.
Anderenfalls würde mich wohl meine Frau, wenn ich mit einem solchen Ungetüm antanzen würde,
mit einem Hammer erschlagen.
Mal sehen, mit dem Geld dass ich mir für meine Alte spare, sollte eigentlich
auch noch eine 5090 + ein 911er Porsche dieses, oder das nächste Jahr drin liegen.
Man gönnt sich ja sonst nichts im Leben.:D
Wenn man es so sieht, ist die 5090 schon fast ein Schnäppchen, wo man fast nicht widerstehen kann.
 
  • Gefällt mir
Reaktionen: freezer255 und GOOFY71
Rickmer schrieb:
Bei +33% Shadern erwarte ich +20% Performance in Gaming Benchmarks.
sie hat nicht nur 33% mehr Shader, sondern auch 33% mehr SI und wenn die 4090 schon am SI limitiert, könnte der vorsprung der Gaming Leistung am ende 50% auf die 4090 betragen, das gibts dann sicher auch mit dem Slogan +50% mehr Leistung für nur 40% Aufpreis 2299USD UVP, denke aber wird höher liegen.
die 5090 ist für mich aber nach derzeitigen Stand die einzige Karte die man dann noch von NVIDIA Kaufen kann, eine 16GB Karte max 500€, alles dadrüber sollte schon 20GB+ haben
 
LatinoRamon schrieb:
und weiter? Du kannst auch mit den AMD Karten genug Spaß haben. Der 5070 12GB Krüppel kann man in die Tonne kloppen sonst nix, das ist keine Zukunftskarte und es braucht auch keine1500~2000€ GPU nur um spielen zu können, man kann auch mit ganz anderen Karten sehr gut spielen.
Dann führe ich das mal ganz aus:
Ich habe in keinem Satz erwähnt, dass AMD oder auch Intel schlechte Karten in Ihrem Segment herstellen. Meine letzten AMD-Karten waren eine 6950XT, eine 7900XTX (Reklamation Spulenfiepen) und eine 7800XT. Ich habe diese Karten auch zu Testzwecken und wegen der Gratisbeigaben zuhause gehabt und diese dann recht schnell fast +/- Null verkauft.
Fakt ist, dass Nvidia mit den Worstation Karten und daraus abgeleiteten Gaming Grafikkarten den Markt oben dominiert. Die Verkaufszahlen von MF spiegeln hier auch nicht den Gesamtmarkt wieder.
Unterhalb der 4090 gibt es keine Alternative für Gamer in diesem Segment mit den Features, wie bereits beschrieben.
Zur angekündigten 5070 mit eventuell 12GB Speicher muß man auch dazuschreiben, dass Nvidia das auch bewußt macht, aber auch ein etwas vorteilhafteres Speichermanagment in den vergangenen Gens als AMD hatte. Und mache dich einmal schlau, wieviel VRAM du wirklich für deine Ansprüche brauchst. Tutorials darüber gibt es genug, auch hier auf CB wird darüber geschrieben und auch getestet.
Ausschlaggebend wird wahrscheinlich auch sein, ob AMD mit der neuen 8000er Generation das Generationsdefizit in Sachen Raytracing aufholen wird, oder vielmehr, wieweit man aufschließen kann.
In meinem neuen Setup werde ich dann sehen, wieweit ich leistungstechnisch dieses Mal mit angestrebten 1000€ für eine Grafikkarte im Frühjahr 2025 komme, oder ob ich hier noch eine Schüppe auflegen muß.
Mit meinen angestrebten 60fps und max. Details auf dann UWQHD sehe ich hier gute Chancen auch für AMD.
Momentan spiele ich aus Zeitmangel mit einer 6800XT auf WQHD und bin zufrieden, da ich in der Woche meinen Privatrechner aus Zeitgründen fast nicht zum Spielen benutzen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LatinoRamon
GOOFY71 schrieb:
Zur angekündigten 5070 mit eventuell 12GB Speicher muß man auch dazuschreiben, dass Nvidia das auch bewußt macht, aber auch ein etwas vorteilhafteres Speichermanagment in den vergangenen Gens als AMD hatte.
Bringt halt nur nichts, wenn Raff von PCGH schon bei 1080p bei einer Nvidia RTX 4000 sagt, mindestens 12GB, besser 16GB (Stalker 2 Test, Video schon verlinkt).
Und dass ist nur eines von vielen Spielen die schon in 1080p von mehr Vram profitieren.
Solche Spiele werden nur noch mehr. Es geht in die Zukunft, nicht in die Vergangenheit.
Und eine RTX 5070 ist eine bestimmt 800€ Grafikkarte im Jahr 2025.
Da erwartet man eher 1440p oder gar 3k (UQWHD) oder 4k für das Geld.
Und wie du an meinen Star Citizen Screens siehst, nimmt sich eine RTX 4090 auch schon knapp 15GB.
Und dass ganz ohne Raytracing (Wird erst noch ins Spiel Implementiert 2025 oder 2026)
 
Nighteye schrieb:
Da erwartet man eher 1440p oder gar 3k (UQWHD) oder 4k für das Geld.

Bei den Spieleeinstellungen gehen heute viele User Richtung Upscaling mit DLSS FG und FSRx.x FG bzw. XeSS. Das ist der Trend, und hier auf CB werden die Games auch nicht nur nativ getestet, sonder auch mit Upscaling. Anders sind die Games in angestrebten Auflösungen/ Details auch meist nicht mehr zufriedenstellend spielbar.
Ich hatte letztes Jahr noch eine RTX2080 im Karton gefunden und war erstaunt, wie schnell die Karte nativ noch war. Das war in Sachen Leistung nativ fast eine 4060ti, aber eben ohne DLSS3. Hier hat Nvidia die Weichen bewußt gestellt, um den Anreiz für den Kauf auf eine neue Grafikkarte zu schüren.
Auch da macht es Nvidia allen anderen meistens vor, da DLSS meistens, oder fast immer besser aussieht.
Aber vielleicht wird AMDs FSR in der nächsten Generation weiter herankommen. Mit Grafikkarten von AMD spiele ich meistens auf XeSS, da es hier auch meistens besser aussieht als FSRx.x.
Es sind alles Spekulationen, selbst die Informationen von MLID sind mit Vorsicht zu geniessen, auch wenn die Trefferquoten in Sachen Vorabinformationen bei ihm immer recht hoch sind.
 
Zuletzt bearbeitet:
Nighteye schrieb:
Sogar Computerbase hat dieses Jahr für mehrere Spiele mindestens 16GB Vram empfohlen um sorgenfrei auf Max Details zu spielen.
Max Details für VRam und dann Balance testen, da sonst die FPS unterirdisch sind...entweder teste ich wirklich max, oder eben mit upscalling.
Nighteye schrieb:
Ich sag nur 16GB vs 8GB selbe Karte, 1000% mehr min fps auf 1080p bei einer läppischen Karte der Chip größe einer RTX3050 Laptop GPU. Quelle PCGH Stalker Test. (Schon 2x gepostet)
Das sind PCGoHell Benchmarks. Ich bin mir sicher, dass Du kein einziges forderndes Spiel nach deren Einstellungen spielst...genauso wenig wie ich.
Ansonsten müsste meine alte GTX 980Ti schon beim einschalten überlaufen und ein Standbild erzeugen.
https://www.computerbase.de/forum/threads/stalker-2.1959432/page-39#post-29994221
Dabei geht es garnicht darum, dass ich die Benchmarks anzweifle. Eher die Sprüche...gibt nur Matsch...Du brauchst unbedingt dies und das.
Damit unterstellt man dem Gegenüber nur die Unfähigkeit selber was einzustellen zu können.

Hier aus dem Forum mit einer RTX 4080 in 2560x1440...7.6GB VRam....was ja laut PCGH schon in 1080p nicht möglich ist.
20241123193619_1.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
MalWiederIch schrieb:
Sollte es da nicht eher um die Effizienz gehen, wo die Steigerung gerade im Bereich GPUs mehr als überragend ist?
Wo fällt die Grafikkarte eines berufstätigen Menschen groß ins Gewicht bei den paar wenigen Stunden die Woche, die man zum Zocken kommt?

Man sollte schon nicht immer nur sensationsgeil auf die „großen“ Zahlen („600W+“) gehen - wobei das ein Witz im Vergleich zu vielen anderen Geräten ist - wenn diese Geräte in der Regel nur eine sehr geringe Zeit unter Last laufen. Oder setzt du dich auch für das Beschränken der Leistung eines Toasters oder Föns aufgrund des Verbrauches ein? Das ist doch absurd :rolleyes:

Otto mit seinem kleinen 75W LED Aquarium sammelt da im Vergleich zur besten Grafikkarte für Consumer immer noch deutlich mehr kWh im Monat an, ein absoluter Witz da über die angeblichen „600W+“ einer zukünftigen handvoll RTX 5090 unter Last zu schwadronieren :p

Was du schreibst macht leider absolut keinen Sinn. Ich hoffe du interpretierst meinen Post nicht als persönlichen Angriff, denn es wirkt eher als würdest du hier emotional argumentieren und nicht genau darüber nachdenken was du schreibst.

Versuche mal meinen Post zu lesen ohne eine persönliche Gegenspielerposition einzunehmen.

Und es bleibt wie es bleibt whataboutism sind keine Argumentgrundlage und Untertreibungen um die eigene Position zu stärken sowieso nicht.

Nvidia ist zur Zeit das wertvollste Unternehmen der Welt. Die werden wohl mehr als eine "handvoll" Grafikkarten verkaufen.

Lustigerweise erwähnt du Haartrockner (Föhn mit h übrigens) und der Verbrauch dieser ist tatsächlich Tatbestand meines Berufslebens.
 
Nighteye schrieb:
Und ja mein Vram verbrauch ist von einer Radeon, aber eine Geforce genehmigt sich auch gern 15GB Vram sobald man die Polaris ruft.
Von daher sollten so Intel Fanboys wie Thrid Life und Quidproquo77 die gefühlt für Intel Arbeiten, oder aus irgend einem grund ihre Lieblingsfirma verteidigen, mal lieber weniger selbstsicher sein.
Eine 800€ RTX 5070 für SC kann man jedenfalls nicht empfehlen. Die ist Obsolet bevor sie überhaupt auf den Markt kam.

Und die Intel Fanboys hier trollen rum wollen einem klar machen, 8GB Vram reicht, ist klar.
Hach ja, die VRAM-knappen Geforce-RTX-Grafikkarten von Intel...

Schon blöd, wenn man seine Hassbilder nicht mehr vernünftig trennen kann, wenn man rot sieht. ;-)
 
  • Gefällt mir
Reaktionen: Quidproquo77, hahaqp und Rickmer
Icke-ffm schrieb:
sie hat nicht nur 33% mehr Shader, sondern auch 33% mehr SI und wenn die 4090 schon am SI limitiert, könnte der vorsprung der Gaming Leistung am ende 50% auf die 4090 betragen
Das ist leider so nicht richtig. Erhöhungen von Speicher und Core Takt sind nicht additive Verbesserungen, sondern benötigen einander um überhaupt zu einer proportionalen Leistungserhöhung zu führen.

Da ich spontan keine geeigneten Zahlen gefunden habe, hab ich selber mit meiner RTX 4090 für zwei Spiele den internen Benchmark verwendet um's zu illustrieren:

1732449117718.png


Ich habe den Kerntakt um 7,5% und den Speichertakt um 9,5% angehoben.
Bei nur Kerntakt war ~3,5% mehr Leistung drin, also halb so viel Leistungszuwachs wie Takterhöhung.
Bei nur Speicher war 2,5% mehr drin - also fast ein Viertel der Takterhöhung. Speicherbandbreite hilft also, aber nicht so stark wie Takt.

Die GPU profitiert also von beiden einzeln, aber nicht so wirklich. Es gibt nicht den einen Flaschenhals.

Nur wenn ich beide erhöht habe gab's auch eine vernünftige Leistungserhöhung - und selbst diese eher im Bereich von 2/3 bis 3/4 der Takterhöhung, nicht vollständig proportional. Da ist also an anderer Stelle noch ein Flaschenhals.
Merke auch, dass in Cyberpunk zusätzliche Speichererhöherung keinen Effekt hat und in ROTR einen sehr marginalen Effekt. Ich hatte mit 11257 MHz getestet weil das mein 24/7 OC Profil ist, da höherer Speichertakt bei meiner 4090 sich leider als etwas instabil erwiesen hat.

Die Zeiten in denen etwas OC eine zweistellige Leistungserhöhung gebracht hat sind spätestens seit der 1080Ti vorbei... bei der ließ sich noch 15-20% Leistung holen mit WaKü.


Aber zurück zum Punkt: Bei +33% Shadern und +10% Takt kann man mit +33% Leistung rechnen, was dann auch entsprechend mehr Speicherbandbreite braucht um nicht zu verhungern und in der Praxis am Speicher-Flaschenhals zu krepieren.

(Wobei wenn ich mich richtig erinnere die Speicherbandbreite dank höherem Takt von GDDR7 deutlich stärker erhöht wird, das sind eher +66%)

DaHell63 schrieb:
Max Details für VRam und dann Balance testen, da sonst die FPS unterirdisch sind...entweder teste ich wirklich max, oder eben mit upscalling.
Das wäre eine legitime Beschwerde... wenn DLSS ein optischer Nachteil wäre. Ist es aber nicht (mehr).
 
Cohen schrieb:
Hach ja, die VRAM-knappen Geforce-RTX-Grafikkarten von Intel...
:D danke für den Hinweis, war beim Posten keine 15 Min wach und hatte noch keinen Schwarztee :D
Ergänzung ()

DaHell63 schrieb:
entweder teste ich wirklich max, oder eben mit upscalling.
GOOFY71 schrieb:
Bei den Spieleeinstellungen gehen heute viele User Richtung Upscaling mit DLSS FG und FSRx.x FG bzw. XeSS. Das ist der Trend, und hier auf CB werden die Games auch nicht nur nativ getestet, sonder auch mit Upscaling. Anders sind die Games in angestrebten Auflösungen/ Details auch meist nicht mehr zufriedenstellend spielbar.
Warum ?
Ich zock ohne Upscaling Star Citizen 1440p in 200fps auf Orison (Video davon hab ich auf Youtube) und ohne Upscaling ca 280fps Inspace 1440p.
In Star Citizen gibts auch kein DLSS 3
Da packt eine RTX 4090 Nativ in 4K ohne DLSS dennoch 300fps inspace. (Max Details, nix Medium oder Low)
Nur gönnt sie sich dann auch deutlich mehr Vram als eine RTX 5070 besitzt.

Ich vermute die RTX 5070 ist vom Speed zwischen RTX 4090 und meiner RX6800
Also die sollte locker für Nativ 300fps 1440p in Max Details in dem Spiel reichen.
Und 300fps brauch man eh nicht, also kann man auch locker mit über 144fps Nativ in 4k mit der RTX 5070 Zocken.
Wenn da nicht der Vram wäre...
 
Zuletzt bearbeitet:
DaHell63 schrieb:
Das sind PCGoHell Benchmarks. Ich bin mir sicher, dass Du kein einziges forderndes Spiel nach deren Einstellungen spielst...genauso wenig wie ich.

Im Prinzip ja. Aber ein weiteres Beispiel der letzten Wochen ist z.B. Veilguard.

Ich habe das Spiel durch und muss klar sagen das es technisch eines der am besten polierten Spiele der letzten Jahre ist. Trotzdem zeigt auch Veilguard das es einer 16GB RTX4080 weh tun kann. Mit Einführung der "Nichts-Berührt Optionen" in einem der ersten Patches (also Grafikoptionen > Ultra Level) berichten mehrere RTX4080 User von reproduzierbar limitierenden VRAM und Frametime-Spikes, das ganze in Gebieten in denen bei Ultra-Settings und DLSS-Q 100FPS an der Tagesordnung sind. Ich habe das selbst ebenso reproduzieren können.

Geht man aber minimale Kompromisse ein wie z.B. von
  • Wechsel von DLSS-Quality auf DLSS-Balanced
  • oder der Verzicht auf ein bisschen RT
  • oder man bleibt bei "Ultra" und verzichtet auf "Nichts-Berührt" Settings
dann läuft das Spiel wieder absolut perfekt, Frametimes über Stunden hinweg eine einzige geradeaus laufende Linie.

Wenn man bereit ist sich mit seinem Spiel und System auseinander zu setzen kann man Spiele natürlich ohne weiteres genießen, meistens mit richtig hohen Einstellungen und oft reicht der Optimieren von 1 oder 2 Ressourcenfressern. Betrachtet man dazu das man in der Regel nicht "Standbild" spielt sondern mit der Dynamik der Bewegungen dann oft ohne spürbar optische Qualität zu verlieren.
Hier auch noch mal ein Blick auf Veilguard, dass Spiel lässt sich stufenlos so konfigurieren das sich praktisch mit jeglicher Hardware der letzten Jahre ein individuell sehr gutes Spieleerlebnis einstellen lässt.

Trotzdem lässt es sich nicht abstreiten das die Spiele-Industrie aktuell Schritte geht bei denen 16GB VRAM für Ultra-Settings pauschal nicht mehr ausriechen müssen.

Jetzt kann man sich die Frage stellen ob es ok ist unter dieser Entwicklung eine vermutlich 1.5k EUR RTX 5080 weiterhin mit 16 GB RAM auszustatten. Ich persönlich komme zum Ergebnis das es ebenso wie bei der 10 GB RTX 3080 nicht in Ordnung ist.
Das bedeutet nicht das man mit einer 5080 nicht gut Spielen kann (vermutlich wird es die 2t oder 3t beste GPU auf dem Markt je nach Platzierung zur 4090), aber NVIDIA setzt den Usern praktisch schon das Messer auf die Brust in den nächsten Jahren in Richtung 5080 Super / Ti, 5090, 6080, etc. zu blicken.
Ich bin in solchen Fällen Fan davon dem User die Entscheidung zu überlassen, sei es wie z.B. bei der 4060 TI (8GB oder 16GB) oder wie damals schon bei der legendären TI 4200 (die es mit 64MB oder 128MB gab ;), ich hatte mich zum Glück für 128 MB entschieden)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Powl_0 und Nighteye
Nighteye schrieb:
Also die sollte locker für Nativ 300fps 1440p in Max Details in dem Spiel reichen.
Ich weiß was du meinst, aber schau dir mal die ganzen Tests hier auf CB zu den aktuellen Games z.B. auf der sehr (un) beliebten UE5 an. Ich sehe mir hier auch die Blockbuster Games mehr an. Und du spielst sicherlich nicht nur Star Citizens.
 
Habs sogar noch unterschätzt als ich mich erkundigte.
RTX 4090 reicht Nativ, ohne DLSS in 4K bei Maximalen Details für 400fps bei Star Citizen im Weltall.
1732452664880.png


Also wenn eine RTX 5070 nur halb so schnell wird wie eine RTX 4090, dann kann sie locker 200fps in 4K nativ ohne DLSS auf Max Details in Star Citizen von der rohen GPU Rechenleistung.
Wäre auch angemessen für dass Geld was sie Wert ist.
Nur passt ihr Vram eher zu 1080p.
Zugegeben, die 24GB Vram der RTX 4090 werden nie ausgenutzt, und die RTX 5090 mit ihren 32GB Vram wird beim Zocken wohl ähnlich sein und den meisten Vram nicht benötigen.

RTX 5080 16GB wird knapp, schlecht altern.
RTX 5070 ist Tod vor release (wird von unwissenden dennoch gekauft).
 
GOOFY71 schrieb:
Spieleeinstellungen gehen heute viele User Richtung Upscaling mit DLSS FG und FSRx.x FG bzw. XeSS.
Damit spart man ein wenig vram, aber nicht viel. Der Großteil der Kapazität wird von Assets gefuttert, die auch bei 1080p mit DLSS noch vorliegen müssen. Da kann man natürlich direkt Texturen etc reduzieren, aber das sieht man auch in 1080p, wenn die Kamera nah genug an Objekten steht.

Und das kann doch wohl kaum das Ziel sein, mit einer so teuren Karte direkt mal so billige Settings wie Texturen reduzieren zu müssen.

Möchte man dann die tollen Features der neuen Karten nutzen, braucht es nochmal mehr vram. RT in all seinen Formen, FG, das braucht alles ordentlich Speicher. Blöd, wenn der Hersteller besagter Features dann genau am Speicher wieder geizt.
 
  • Gefällt mir
Reaktionen: GOOFY71
Nighteye schrieb:
RTX 5070 ist Tod vor release (wird von unwissenden dennoch gekauft)
Und schon sind wieder am Anfang: Nvidia domniniert den Grafikkartenmarkt nach Belieben.
 
Zuletzt bearbeitet:
Schade, dass in dieser Zeit die Entwicklung und der Fortschritt sich quasi nur noch auf das Topmodell beschränkt. Gerade in der Mittelklasse sieht man viel zu hohe Preise und nur noch winzige Leistungssteigerungen.
So wird der Abstand zwischen High-End und Mittelklasse immer größer und von Zeit zu Zeit wird eine neue Klasse dazwischen geschoben um die Preise nach oben anzupassen.
Früher war die xx70 mal wirklich obere Mittelklasse.
Heute nur noch untere Mittelklasse, vielleicht bald noch weniger - zu einem Preis der Oberklasse!
Das AMD in der Leistungsklasse nicht mehr mitspielen will, macht es nVidia nur leichter seine Preiserhöhungen durchzusetzen.
 
  • Gefällt mir
Reaktionen: angband1 und GOOFY71
Powl_0 schrieb:
Blöd, wenn der Hersteller besagter Features dann genau am Speicher wieder geizt.
Da hast du Recht, Nvidia näht hier immer hübsch auf der Kante, um immer schön einen Kaufanreiz zur nächsten Generation aufrecht zu erhalten, auch wenn der RTX 4070 (S) auch schon 16GB gut stehen würden, macht der Hersteller hier was er für angemessen hält. Das resultiert aus der Marktdominanz Nvidias.
 
  • Gefällt mir
Reaktionen: Nighteye
Rickmer schrieb:
Das ist leider so nicht richtig. Erhöhungen von Speicher und Core Takt sind nicht additive Verbesserungen, sondern benötigen einander um überhaupt zu einer proportionalen Leistungserhöhung zu führen.
ja das ist schon klar, nur läuft die 4090 ja schon mit Handbremse, wenn die bei der 5090 gelöst wird, und auch noch das SI weiter aufgebort wird ist das schon ordentlich Potential die 4090 hat nur 74MB L2 von 96MB freigeschaltet. hätte sie alles zur verfügung wäre sie auch entsprechent schneller wie die 4080.
https://www.computerbase.de/2022-11/nvidia-aus-msi-zotac-geforce-rtx-4080-review-test/

Rickmer schrieb:
Die GPU profitiert also von beiden einzeln, aber nicht so wirklich. Es gibt nicht den einen Flaschenhals.
ich denke doch, denn die 4090 ist eben gerade beim L2 ordentlich kastriert 50% mehr shader aber nur 15% mehr L2 sieht für mich eindeutig nach einem Flaschenhals aus.
 
Ich wüsste nicht das die rtx4090 mit 1008gb/s irgendwo an der Bandbreite limitiert wird.
Eher ist es die Cpu oder die rop. Was ich aber weis das die rtx4090 massiv power limitiert ist die 450w sind gerade mal 1,07v dann folgt die tdp Limitierung von 84°c/hotspot 100°c
man kann 1,08v versuchen aber man wird zu wenig pt haben den dafür wären 530w notwendig und nvidia hat nenn hartes limit bei 500w gesetzt +10%
 
Zurück
Oben