News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

GOOFY71 schrieb:
Und Nvidia setzt zu einem neuen Höhenflug an, sie dominieren den Grafikkartenmarkt nach Belieben in diesem Segment.
Darauf würde ich nicht wetten! Ich finde es bemerkenswert, dass man gleich noch eine 5070ti bringen muss, um wohl gegen AMDs Mainstream aka 8800xt bestehenen zu können. Für mich heißt dies. DLSS 4 nur für RTX 5..., aber zwecks IPC tut sich wenig bis nix! Wie vermutet, wird eine 5090 bei ~2500€ hier aufschlagen, welche dann ~40% schneller ist, als ne 4090, aber auch 150w mehr brauchen wird. Sprich ein Nullsummenspiel.
 
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
Der Abstand Nvidias zu AMD's schnellster Karte wird erst recht dreist sein.
Das wird ein F16 Jet gehen einen Dacia sein.
 
  • Gefällt mir
Reaktionen: Quidproquo77
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
Das ist nicht dreist, sondern schlicht Wirtschaft und Verteidigung der Spitze!
Keiner muß die Spitze kaufen, aber es es wird gekauft. Angebot und Nachfrage.
So läuft das Geschäft, so funktioniert Kapitalismus.
Bedeutet nicht, dass ich das gut finde.
 
BlaaaBliiiBluuu schrieb:
Eig. überhaupt nicht. Das haben absolut alle durchschaut und wird genauso diskutiert wie die beschissenen P/L Veränderungen von der 3000er zur 4000er gen. UVP der 80er Karten fast verdoppelt. FPS pro € geht zurück zwischen den 70/80er Karten bezogen auf UVP. Die 2080/3090 waren noch recht nah an der Leistung von 2080Ti / 3090. Die 80er und 70er Karten werden absichtlich runtergedreht damit der Abstand groß wird.

Alles andere als Geheimnisse. Es hat nur keine Konsequenzen. AMD kaufen nur wenige, die machens zwar etwas besser, haben aber Nachteile bzgl upscaling RTX etc.
Und allzu viel günstiger kommt man dann bei AMD auch wieder nicht weg.

Also was willst du mit der info machen, dass du's "durchschaut" hast?
Nvidia hat als gesamtunternehmen 50% marge. Ist also absolut offensichtlich, dass Nvidia seine Kunden komplett abzockt und sehr viel mehr verlangt als nötig/angemessen wäre. Das ist ganz einfach Angebot und Nachfrage.
😂
Natürlich wollte ich die entsprechenden Leute auch ein wenig ärgern.
Einige verdrängen das sicherlich auch oder es ist ihnen schlichtweg egal.
Du hast Recht mit dem was du sagst, denke ich.

Ich bin wenig begeistert über die "Stagnation" in einigen Bereichen (Chipgröße im Vergleich zur 5090, VRAM etc.) bei den Karten unterhalb des Topmodels.

Klar, die Leistung wird auch bei den darunterliegenden Karten wieder etwas steigen. Aber wer gewöhnlich ein xx80er Model ins Auge fasst und in UHD spielt, kann bei den 5000er Karten eventuell auch gleich das nächste Upgrade ins Auge fassen, wenn die neueren Spiele weiterhin so am VRAM zerren.
Und das, obwohl es ja, wie man an der 5090 sieht, auch anders gehen könnte.
Da kommen die Inovationen für 2 oder 3% (hier im Forum vielleicht 10%) um die Leute zum Kaufen zu animieren. Erinnert mich alles ein wenig an Apple.

Es war ja schon ein Witz, dass die 4090 als Topmodel der 4000er Generation quasi die beste Efizienz hatte.

So oder so werde ich mir nächstes Jahr wieder ein Model im Bereich von 800 bis 1000 Euro kaufen, so wie ich es die letzten Male auch getan habe.
Aber mich verarschen zu lassen ist nicht so mein Ding.🤗
 
600 Watt peak. Auch wenn das nur selten abgerufen wird, sollte ich wohl schon mal in einen anderen Stromtarif wechseln.
 
blackiwid schrieb:
Tippe so auf 2599-2799 das sind noch zahlen die obwohl extrem hoch, psychologisch halbwegs niedrig aussehen wenn man sich die 2 vorne dran weg denkt :D.
Ehh Keule, danke für den Tipp! :p

Er ändert einfach von jetzt auf gleich so gut wie alles.

Anstatt mich wie früher oft über hohe Preise aufzuregen oder des öfteren Gedankenkarussell zu Fahren ob's jetzt "Deal" Or jetzt "No Deal" ist, denke ich mir einfach bei allem was mir imaginäre finanzielle Bauchweh bei Kauf bereiten könnte die verdammte erste Zahl weg.

Funktioniert auch nicht ausschließlich nur bei Grafikkarten, sondern bei allem was man kaufen kann. :hammer_alt:

Einfach nur WOW!
So einfach kann's einfach auf einmal sein! :daumen:
 
  • Gefällt mir
Reaktionen: Munkman
Quidproquo77 schrieb:
Und wenn du zur Konkurrenz greifst, musst du das bei fehlender RT Leistung, schwächerem Upscaling usw. dann in keinem Falle Nachteile in Kauf nehmen?
Macht das Nvidias Vram Geiz besser?
"Aber die anderen", ich kanns nicht mehr hören.

Der Kellner spuckt dir in die Suppe, aber du findest das okay, weil im Laden nebenan würzen sie mit Hausstaub?

RogueSix schrieb:
Warum zieht man dann keine Konsequenzen? Da gäbe es ja zahlreiche Möglichkeiten: Grafikkarte mit ausreichend VRAM kaufen (ggf. von der roten Konkurrenz), eine Konsole anschaffen, einen neuen Monitor mit geringerer Auflösung zulegen, sich ein neues Hobby suchen, wenn vorgenannte Optionen alle wegfallen, aber 10 Jahre lang stumpf Grafikkarten mit zu wenig VRAM kaufen = Hä?
Irgendwann muss eben mal neue Hardware her, um neuen Ansprüchen gerecht zu werden.
Deine Vorschläge sind größtenteils nunmal noch schlechter als mich mit knappem vram abzufinden. Was soll das bitte sein? Nochmal merklich schlechtere Bildqualität bzw Hobby ganz aufgeben? Da kann ich nur noch lachen.

2020 hab ich dann aber tatsächlich eine 6900XT geholt. War fantastisch, noch nie so lange mit max. Texturen gefahren lmao.

Mal im Ernst, was ist da für dich so schwer zu verstehen? Bist du immer mit allem zufrieden, was in deinen Hobbies passiert?

Quidproquo77 schrieb:
weil die Hersteller noch nie viel Sinn darin gesehen haben Karten mit besonders viel V-ram auszustatten, und es überhaupt keine Möglichkeit gibt Karten die das bieten zu erwerben.
? Früher gabs von Nvidia Karten oftmals Varianten mit doppeltem vram. Zumindest bis Maxwell.

Bei AMD gibts historisch sehr oft mehr vram. Wir hatten genug Generationen, bei denen die Nvidia Karten reihenweise in vram limits gerannt sind, während ihre AMD pendants weiterhin höhere settings fahren konnten (und ja, natürlich rede ich dabei noch von spielbaren bildraten, bevor dieses dumme "argument" wieder kommt). Da redeten wir regelmäßig von 25-33% mehr vram im gleichen preissegment.

Aber hey, ich red ne wand an. Es gibt ja keine Probleme, wenn man sie einfach ignoriert und schönredet.
 
Zuletzt bearbeitet:
Wahnsinn wenn die Tabelle stimmt hat die 5090 doppelt soviel Power 🤔 da wird 100% noch ne 5080 ti/super/super ti kommen.

Ich Stelle mir mittlerweile das Nvidia Hauptbüro voller zu gedröhnter rafikkis mit Obst stab vor.

Bin mal gespannt was AMD und Intel Treiben bin froh wenn die einzige verbleibende 4080 super endlich aus dem Haus ist 🤣🤣🤣
 
GOOFY71 schrieb:
Und Nvidia setzt zu einem neuen Höhenflug an, sie dominieren den Grafikkartenmarkt nach Belieben in diesem Segment.
und weiter? Du kannst auch mit den AMD Karten genug Spaß haben. Der 5070 12GB Krüppel kann man in die Tonne kloppen sonst nix, das ist keine Zukunftskarte und es braucht auch keine1500~2000€ GPU nur um spielen zu können, man kann auch mit ganz anderen Karten sehr gut spielen.
 
Powl_0 schrieb:
16GB gabs bei AMD schon vor 4 Jahren auf Karten ab 600€. Da wäre es einfach lächerlich, wenn der Industrieprimus Nvidia dafür jetzt weiterhin vierstellige Summen sehen will.
16 GB gabs von AMD schon im Jänner 2019 (in Bälde 6 Jahre) für 350 € mit der RX 570 Blockchain und im Februar ´19 kam die Radeon VII mit ebenfalls 16 GB.

https://www.computerbase.de/2019-01/gpu-mining-sapphire-radeon-rx-570-16-gb-grin/

https://www.techpowerup.com/gpu-specs/sapphire-rx-570-blockchain.b6652
 
Zuletzt bearbeitet:
gedi schrieb:
Darauf würde ich nicht wetten! Ich finde es bemerkenswert, dass man gleich noch eine 5070ti bringen muss, um wohl gegen AMDs Mainstream aka 8800xt bestehenen zu können. Für mich heißt dies. DLSS 4 nur für RTX 5..., aber zwecks IPC tut sich wenig bis nix! Wie vermutet, wird eine 5090 bei ~2500€ hier aufschlagen, welche dann ~40% schneller ist, als ne 4090, aber auch 150w mehr brauchen wird. Sprich ein Nullsummenspiel.
Das sehe ich auch so. AMD muss ein verdammt heißes Eisen im Feuer haben wenn
Nvidia gezwungen ist gleich noch eine 5070ti zu bringen.
 
Würde sagen die 50er Serie boykottieren, aber macht ja eh keiner!!!
 
Portal501 schrieb:
Der Preis ist sicher auch 22 % höher. Kann Nvidia behalten haben für die nächste Zeit noch eine RTX 4080 und die neue PS5 Pro.
Und mit DLSS/FG verdoppelt sich doch noch die Zahl, oder ?!? :cool_alt:
 
Nighteye schrieb:
Die reicht gerade mal für 720p in Stalker.
Ich möchte Nvidias Speichergeiz auf keinen Fall verteidigen, ich finde es aber auch schwierig mit furchtbar schlecht programmierten Games wie Stalker oder noch in der Entwicklung stehenden "Techdemos" wie Star Citizen zu argumentieren:
Wie viele richtige, fertige Games machen denn bei vernünftig gesetzten Settings (also nicht wie in den Tests alles pauschal der Vergleichbarkeit wegen auf Max. gedreht) in der Praxis wirklich Probleme mit dem VRAM?
Mit meiner RTX 3070 hatte ich trotz nur 8GB in WQHD bisher keine größeren Probleme.
Die allermeisten Games lassen sich absolut problemlos spielen, spätestens dann, wenn man mal von Ultra auf High herunterstellt (was man in fast allen Spielen ohne direkten 1zu1 Screenshotvergleich, oder spätestens im laufenden Spiel eh nicht mehr erkennt.)
Ich muss auch nicht jedes neue Spiel was auf den Markt kommt sofort spielen und winke bei technisch mangelhaften Releaseversionen erstmal dankend ab. Es gibt ja weit mehr interessante Games, als ich jemals spielen könnte, da muss ich mich nicht mit derartigen Gurken herumärgern, denn derart unfertig releaste Spiele haben ja idr. noch weit mehr Probleme als "nur" eine schlechte Performance.

Ich habe neulich auch die spannende Theorie gehört, dass Nvidia den Speicherausbau auch bewusst deshalb klein hält, um die Karten für den deutlich lukrativeren AI Markt nicht zu interessant zu machen:
In den Mining Hochphasen haben wir ja miterlebt, wie sehr die Verfügbarkeit einbricht, wenn die Gamingkarten für einen anderen Markt mit sehr viel Budget interessant werden.
Eventuell will man das mit dem begrenzten Speicher bewusst vermeiden, um sich kein unzuverlässiges "können nicht zuverlässig liefern"-Image (im Gamingbereich) aufzubauen und vor allem, um den eigenen (deutlich teureren) KI Beschleunigerkarten keine Konkurrenz machen. Dass die Karten mit weniger VRAM für Spiele potentiell kürzer durchhalten und Spieler früher aufrüsten müssen, ist dabei nur ein (für Nvidia) netter Nebeneffekt und wahrscheinlich nicht der Hauptgrund.
 
iron_monkey schrieb:
Ich wäre ja recht angetan vom 512 Bit SI aber das hatte ich schon mal vor 15 Jahren bei AMD ... Quiz, welche Karte hatte ich?
Gibt mehrere Möglichkeiten :

  • HD 2900 Pro/XT
  • HD 3850 X2 / HD 3870 X2
  • HD 4850 X2 / HD 4870 X2

Meiner einer tippt aber auf Ersteres, da die Dual GPUs 2 x 256 Bit haben.
 
Munkman schrieb:
Ich Stelle mir mittlerweile das Nvidia Hauptbüro voller zu gedröhnter rafikkis mit Obst stab vor.

Ich bin wahrscheinlich nur zu alt für diesen Jugend-Slang, aber was sind denn "rafikkis mit Obst stab"? Ist das was zu essen? :D
 
Zurück
Oben