• ComputerBase erhält eine Provision für Käufe über eBay-Links.

News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Ich wäre ja recht angetan vom 512 Bit SI aber das hatte ich schon mal vor 15 Jahren bei AMD ... Quiz, welche Karte hatte ich?

Die war ohne AA mit OC ganz brauchbar und finanziell und aus Stinkefinger Gründen war damals keine Nvidia drin. Hatte dann noch einen TR GPU Kühler montiert um die Lautstärke in den Griff zu bekommen.

Diesmal wird das dicke SI hoffentlich nützlicher sein...
 
@Nighteye,
hat ja auch alles Hand und Fuß, was du sagst.

Aber "generell zu wenig VRAM" und "max settings" passen nicht zusammen in ein paar Schuhe.
Entsprechend der settings stößt man hier und da an ein VRAM-Limit, das ist korrekt.

Nun kann aber jedes Spiel so designed sein, dass es 48GB VRAM für max settings "braucht" - um das Spiel z.B. für paar Jahre nach Start noch modern zu empfinden.
 
floTTes schrieb:
@Nighteye,
hat ja auch alles Hand und Fuß, was du sagst.
Aber "generell zu wenig VRAM" und "max settings" passen nicht zusammen
Verstehe ich nicht.
Wieso sollte man zb Stalker 2 oder andere Spiele nicht in 1080p auf High Spielen ?
Mein Kumpel hat zb nur einen 1080p Bildschirm und eine RX7900 GRE und Zockt Stalker 2 auf High.

Quidproquo77 schrieb:
Ich würde mal sagen, dass deine V-ram Belegung kein Gradmesser für die wirkliche Nutzung ist.
Doch ist es, siehe dieses Video, dort zeigt Raff, sobald der Vram Voll ist, lagert ein Spiel den weiter benötigten Vram in den System Arbeitsspeicher aus, und dann hat man eine Dia Show von 15fps.

In dem Video hört man übrigens auch, Raff empfiehlt für 1080p eine 16GB Grafikkarte.
Also die neue 1300€ RTX 5080 ist eine 1080p Grafikkarte wegen Nvidias Speichergeiz.
 
  • Gefällt mir
Reaktionen: coral81
Also ich hab ne custom loop Wakü aber über 400Watt geht ich nicht mehr mit. 600 Watt ist imo völliger Irrsinn und ich hoffe das bewahrheitet sich nicht. Gut habe eh keine Interesse an ner 3k Gafikkarte und an Geld mangelt es mir wahrlich nicht aber irgendwann geht für mich die Kosten Nutzen Rechnung nicht mehr auf. Dafür zock ich dann zu wenig.
 
Die 5090 wird einfach nur krank. NVIDIA weiß einfach wie es geht
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
bensen schrieb:
Irgendwie ist unklar auf was du hinaus willst. Beide Hersteller haben doch nicht nur high-end im Angebot. Bei Nvidia sind es 5 verschiedene Dies mit jeweils mehreren Modellen. Deckt doch ne riesigen Bereich ab.
Aktuell ist der Einstieg in Ada Lovelace für ca. 280€ zu haben. Ich habe mein absolutes FHD-Hard-Limit mit Turing, Corona und Krieg auf 300€ angehoben - nicht einen Cent mehr. Das könnte für einige aber immer noch zu hoch sein.
Mir fehlt da das Entry-Level ... oder ... SFF-Grakas ohne extra Strom-Anschluss.

Ärgerlich ist auch das "Verbot", das besagt, dass Karten-Hersteller andere VRAM-Kombinationen nicht frei wählen können. Soweit ich das gelesen habe ...
 
Haldi schrieb:
Na mit den 18% mehr shadern kriegen die sicher 6% mehr Performance hin!
Das hängt auch von den Spielen und dem CPU-Limit ab. Auf TechPoweUp lese ich immer die GPU-Tests und je nach Spiel sind es auch mal +50% für die 4090 in 4k@ultra. Im Schnitt sind es 25%.
 
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
Joa... Und AMD wird "Preistreiberei" vorgeworfen, weil man den 7800X3D nicht weiter für 300€ verramscht. Kannste dir nicht mehr ausdenken.
 
  • Gefällt mir
Reaktionen: Mikash, ThirdLife und Lonex88
Maxminator schrieb:
bald werden die 4090 für 999€ weggehen
Jetzt Mal eine Frage an alle, zu welchen Preis ist die 4090 jetzt dann ein richtig guter Schnapper?
Ist 999€ schon der Hammer, oder geht das noch was? 😂
 
  • Gefällt mir
Reaktionen: Maxminator
Ceberus schrieb:
Die 5080 wird so verkrüppelt & eingeschränkt damit so viele wie möglich einen upsale machen. Alternativ die 5090 kann die Leistung nicht wirklich rüber bringen und deswegen ist die 5080 im Vergleich so beschnitten.
Wieso oder, beides :D
 
Simanova schrieb:
Die RTX 5080 wird mit 16GB wie Blei in den Regalen liegen.
Die meisten werden sich die RTX 5070Ti holen, oder warten.

Was viele offenbar nicht wissen, aber von Nvidia schon seit längerem kommunziert wird:
Eine RTX 5090 ist eine Enthusiasten GPU, die nicht primär für Gamer gedacht ist.
Sie deckt Anwendungen ab, in denen man die Leistung oder den Grafikspeicher braucht.

Der 0815 Gamer der auf einer PS5 keine Unterschiede zu PS5 Pro Grafik erkennt, ist nicht die Zielgruppe der RTX 5090. Daher ist total egal welchen Preis die RTX 5090 bekommt. Die wichtigen Entscheidungen trifft Nvidia bei der Preisgestaltung der 60er,70er, und 80er Serie. Daran wird Nvidia im Gaming Bereich gemessen.
Nun ich werde zur 5080 greifen, weil es für die 70er keine Wasserkühler gibt (optische Gründe und weil ich das bauen liebe) aber mir die 90er zu teuer ist
 
Nighteye schrieb:
Verstehe ich nicht.
Wieso sollte man zb Stalker 2 oder andere Spiele nicht in 1080p auf High Spielen ?
Mein Kumpel hat zb nur einen 1080p Bildschirm und eine RX7900 GRE und Zockt Stalker 2 auf High.
Die Balance zwischen Qualität und Performance muss stimmen. Dabei ist es vollkommen egal, ob es nun high, ultra, cinematic oder Kartoffel-Preset heißt.

Dass Game-/Technik-Reviewer nur max settings wählen, ist deren Problem, nicht das der Entwickler - und schon gar nicht nVidias. Die reiben sich da schön die Hände.
Die Tester sind damit auf den Höher-Größer-Schneller-Besser-Zug aufgesprungen, auf dem sie imho als neutrale Reviewer nix zu suchen hätten.

Gedacht sei folgender Grenzfall:
40FPS für eine 4090 in FHD bei Ultra-Violence-Chansaw-Settings. Was nun?
Das Spiel kann mit diesen Settings aktuell nicht flüssig gespielt werden. In 10 Jahren aber schon noch.
Aus Entwicklersicht scheint mir das schlau.
Da viele Reviewer aber auf oben genanntem Zug sitzen, wird der Backlash/Shitstorm enorm sein. Also muss der Entwickler das Setting 5 Jahre lang verstecken bis die "Gesellschaft" dann so weit ist.

Das ist nur ein Bespiel, warum sich "nicht ausreichen" eigentlich als falsch herausstellt und max settings eben nicht automatisch die Referenz festlegen sollte.

In der Vergangenheit gab es das Tessellation-HairWorks-Problem: die Parameter waren für das visuelle Resultat nicht wirklich ausschlaggebend. Wurden aber so hoch gewählt, dass AMD-Grafikkarten unnötig einbrachen - bei nahezu keinem visuellen Vorteil gegenüber "sanfteren" Parametern.
Die Reviewer haben das imho zu wenig "korrigiert": AMD stand blöd da.
Das nehme ich - als nVidia-Nutzer - nVidia leicht übel, den Reviewern aber sehr. Das hätte groß und breit propagiert werden und das entsprechend faire(!) Setting stattdessen als default gewählt werden müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
MausYmouS schrieb:
Wahrscheinlich werden sie erstmal versuchen die 5090 an den Mann zu bringen und wenn das nicht hilft drücken sie eine 5080Ti mit 24GB zwischen die beiden um nochmal abzusahnen.
Was heißt nicht hilft, es gibt eine Menge die gerne 2300-3500 Euro für ne schnellere Grafikkarte blechen, denen gibt man erstmal nur die Karte, und wenn die alle gekauft haben dann kommt die 5080Ti für die wo 1500 bereit sind zu zahlen. "Geholfen" hat dann der Verkauf an die 1. Gruppe trotzdem :D
 
Nun, sollte die RTX5080 um die 1500€ kosten und im Leistungsbereich einer RTX4090 liegen, würde ich davon ausgehen, dass deren Gebrauchtpreis nicht so stark sinken wird.

Der beste Zeitpunkt wird jetzt kurz vor der Ankündigung und den ersten Performanceangaben liegen.
Viele wollen ihre RTX4090 für ideale ~1500€ abstoßen und spekulieren auf eine 2000€ RTX5090.
Habe auch welche gesehen, die (angeblich) für 1000-1300€ weggegangen sind.

Sollte dann kar werden, dass eine RTX5080 schon >1500€ kostet, keinen nennenswerten Mehrwert zur 4090 hat und die 5090 noch >2500€ kostet, ist die Ernüchterung groß.
Die 4090 Gebrauchtpreise steigen/stabilisieren sich wieder.

Ich gebe auch gerne Geld für mein Hobby aus. Um jede Generation mitzunehmen bin ich dann aber doch zu geizig/vernümftig und freue mich dann umso mehr, wenn ich den nächsten Wechsel vornehme.
Bin jetzt von 1080ti auf 6800XT und dann auf 4090. Die nächste Generation lasse ich auch wieder aus.
 
  • Gefällt mir
Reaktionen: floTTes
Zealord schrieb:
Wat ein absoluter Mammutschinken.
Umso größer ein Chip um so weniger pro Die und um so schlechter die Yieldrate, außer Nvidia kann die vielen Teildefekten Chips dann alle als irgendwas wie 5070 oder so verkaufen, aber auch dann ist das ineffiziente Nutzung des Waver.

Also selbst wenn Nvidia nur ihren üblichen Wucher-Aufschlag wie bei der 4090 ansetzt wird sie schon 2500 Euro kosten müssen, wenn sie wegen Konkurrenzlosigkeit und besseren Preisen bei A.I. Chips die Margen noch weiter anziehen werden, sind wir schnell Richtung 3000 Euro. Tippe so auf 2599-2799 das sind noch zahlen die obwohl extrem hoch, psychologisch halbwegs niedrig aussehen wenn man sich die 2 vorne dran weg denkt :D.

Und der Shitstorm wäre geringer wie bei 3000 oder 3200 oder so, aber ausschließen kann ichs nicht.
 
jfive schrieb:
Jetzt Mal eine Frage an alle, zu welchen Preis ist die 4090 jetzt dann ein richtig guter Schnapper?
Ist 999€ schon der Hammer, oder geht das noch was? 😂
Also jetzt noch kannst du für eine gebrauchte 4090 gut 400-500€ mehr verlangen als es Ende Januar 2025 der Fall sein wird!
 
  • Gefällt mir
Reaktionen: jfive
Haldi schrieb:
Na mit den 18% mehr shadern kriegen die sicher 6% mehr Performance hin!
Quidproquo77 schrieb:
Es sind ja nicht 18%, sondern von 16384 zu 21760 runde 33%.
33% mehr Shader ändert allerdings nichts an der Kernaussage, dass wir schon längst in Bereichen angekommen sind, wo die Leistung für Gaming längst nicht mehr linear zur Anzahl der Shader skaliert

Bei +33% Shadern erwarte ich +20% Performance in Gaming Benchmarks.

Da muss nvidia noch mehr aus dem Ärmel schütteln um einen ordentlichen Generationensprung zu erreichen. Ich denke mal, +10% Takt sind sicherlich drin mit mehr TDP und leicht besserem Node.

Die wirklich spannende Frage ist, was haben die mit der Architektur gemacht, dass die glauben, die 5080 mit 5-10% mehr Shadern (je nachdem ob man die 4080S zählt) wäre ein guter Nachfolger.
Da kommen ja vielleicht 5% Performance von den Shadern, 10% vom Takt und es braucht dann mindestens weitere 15% von anderer Stelle damit die 5080 auf ähnliche Gaming Leistung wie die 4090 kommt.

Grundgütiger schrieb:
Auf eine gebrauchte 4090 welche es demnächst wie Sand am Meer gibt. 1250 -1500€
Maxminator schrieb:
bald werden die 4090 für 999€ weggehen
Die RTX 4090 geht gebraucht für 1350~1600€ weg bei ebay (mit Ausreißern nach oben) und ich glaube nicht, dass da sich was ändern wird bei der prognostizierten Preisgestaltung der 5000er Generation.

Auch wenn die RTX 5080 bei 1300€ gleich schnell wird, wird der höhere VRAM eine gebrauchte 4090 zum gleichen Preis für viele attraktiv machen.

Das haben wir ja auch schon bei der 3090 gesehen - die 3080 geht für 400€ bei ebay, die 3090 selten unter 700€. Das liegt mMn daran, dass die 3090 mit 24GB VRAM für viele mit Interesse an AI einen 'günstigen' Einstieg bietet.

Laphonso schrieb:
Ich habe die 3090 gekauft. Als Gamer.
Ich habe die 4090 gekauft. Als Gamer.
Ich kaufe die 5090. Als Gamer.

Wie viele hier (eher die meisten, die sich die 90er Klasse kauften) in der Computerbase ;-)
Ich würde glatt behaupten, dass viele eher jede zweite oder dritte Generation kaufen. Für meinen Teil war meine letzte Karte vor der 4090 die 1080Ti.

Insbesondere als WaKü Besitzer ist es beim Preis von Wasserblöcken unattraktiv eine midrange Karte zu kaufen, aber gleichermaßen unattraktiv mit jeder Generation einen neuen Block zu kaufen, der später bestenfalls für einen Spottpreis verkauft werden kann wenn man ihn überhaupt los wird.

iron_monkey schrieb:
Ich wäre ja recht angetan vom 512 Bit SI aber das hatte ich schon mal vor 15 Jahren bei AMD ... Quiz, welche Karte hatte ich?
HD 4870 X2?
 
  • Gefällt mir
Reaktionen: Laphonso
Es könnte auch sein, dass es sich bei der 5090 lediglich um einen Papiertiger handeln könnte.
Wieso sollte man einen 744 mm2 Chip für läppische 2000 - 2500€ raushauen,
wenn man das gleiche Stück an Silizium auch für den zehnfachen Preis,
als Data Center GPU verkaufen könnte?

Sie scheinen den Markt momentan ja nicht ausrechend beliefern zu können,
daher ist das einzig Rationale was sie nun tun können, einen nur halb so großen Chip
für den vollen Preis (ca. 1500€) zu verkaufen, dass macht 1000 Mal mehr Sinn.

Allerdings ist auch dieser noch zu groß.
Daher denke ich, dass sie auch bei diesem die Stückzahlen künstlich limitieren werden
und ihren Fokus, wohl auf eine vielleicht in etwa 250mm2 große und
um die 700€ teure 4070 legen werden.
Jeder wird dann wohl denken dass diese Karte im vergleich ein Schnäppchen wäre.
So funktioniert eben gutes Marketing.

AMD macht es bei den bald kommenden RDNA 4 Karten ja auch nicht anders
und konzentrieren sich auf den 150-300 mm2 Bereich.
Das große Geld wird währenddessen mit den Radeon Instinct MI3XXX Karten gemacht.
 
Zuletzt bearbeitet:
Zurück
Oben