News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Quidproquo77 schrieb:
Wenn ich nur 30 FPS erziele, dann rückt der V-ram in den Hintergrund, weil ich sowieso Settings reduzieren muss.
Mit genug VRAM müsstest du aber dann ein Setting weniger reduzieren(Texturdetails)
 
sehe ich genau so, hier werkelt seit neuestem ne 1080ti im system da meine 2080ti den geist aufgegeben hat.
wie dem auch sei muss ich damit leben, bei der 2080ti hab ich schon zähneknirschend die €1200.- bezahlt aber jetzt ?
Die haben doch nicht mehr alle latten am zaun, da stell ich das spielen ein.
 
  • Gefällt mir
Reaktionen: Flaschensammler
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
Einerseits "dreist", andererseits bekommt man wenigstens nicht für doppelt so viel Geld wie früher nur 20-30% mehr Leistung.
Für mich sowieso außerhalb des Interessensbereich. Technisch zwar schon spannend, aber ich mag keine GPUs die über 200W fressen, mal schauen, was die 6xxxer Gen oder AMD/Intel bringen um unter 150W.
 
2.500 Euro sind reserviert, warten praktisch nur noch auf den Release der FE. Unermesslich groß, meine Vorfreude.
 
  • Gefällt mir
Reaktionen: beautifulB727
pacifico schrieb:
Die Geforce Titan für damals 1899 Euro haben diese Revisionisten nicht auf dem Schirm oder sie ignorieren diese Karte weil sie nicht zu ihrem Narrativ von den überteuerten GPU passt.
Ich will ja garnicht wissen, in welchem Propaganda-Crashkurs Du dein Wording her hast. Aber mal davon ab, Es geht in erster Linie ja nicht darum, wieviel mal welche Grafikkarte gekostet hat, Namen sind ja erstmal komplett willkürlich uns haben keine Einordnungskraft.. Die Kritik in der jüngeren Vergangenheit war ja, das mit einem Generationswechsel für 20% Mehrleistung auch 20% Aufpreis und teilweise mehr zu bezahlen war. Davor war es ja so, dass man bei gleichem Preis mit einer neuen Generation 20% Mehrleistung bekommen hat. Rund um Corona ging ja der Preis pro Leistung sogar massiv nach oben.
 
  • Gefällt mir
Reaktionen: WinstonSmith101
Sas87 schrieb:
Das ist ja lächerlich, wie die Kunden immer mehr zur xx90er Variante gedrängt werden sollen.

Die haben es geschafft die ehemaligen xx80 TI's zu nehmen, sie weiter von der Leistung der anderen Grafikkarten abzusetzen, und sie jetzt zu verkaufen wie die ehemaligen Titans.

Nvidia hat das so rafiniert gemacht, dass es (selbst in der Tech-Bubble) nahezu niemand durchschaut hat.
Da kann man sich nur bei den entsprechenden Leuten bedanken.🤗😂
Eig. überhaupt nicht. Das haben absolut alle durchschaut und wird genauso diskutiert wie die beschissenen P/L Veränderungen von der 3000er zur 4000er gen. UVP der 80er Karten fast verdoppelt. FPS pro € geht zurück zwischen den 70/80er Karten bezogen auf UVP. Die 2080/3090 waren noch recht nah an der Leistung von 2080Ti / 3090. Die 80er und 70er Karten werden absichtlich runtergedreht damit der Abstand groß wird.

Alles andere als Geheimnisse. Es hat nur keine Konsequenzen. AMD kaufen nur wenige, die machens zwar etwas besser, haben aber Nachteile bzgl upscaling RTX etc.
Und allzu viel günstiger kommt man dann bei AMD auch wieder nicht weg.

Also was willst du mit der info machen, dass du's "durchschaut" hast?
Nvidia hat als gesamtunternehmen 50% marge. Ist also absolut offensichtlich, dass Nvidia seine Kunden komplett abzockt und sehr viel mehr verlangt als nötig/angemessen wäre. Das ist ganz einfach Angebot und Nachfrage.
 
  • Gefällt mir
Reaktionen: Sas87
BAR86 schrieb:
ich mag keine GPUs die über 200W fressen
Du musst die GPU doch nicht an der K0tzgrenze nutzen. Die Effizienz steigt mit sinkender Last. UV, Power Limit oder ein simples FPS-Limit im vernünftigen Bereich und du bist im grünen Bereich.
 
  • Gefällt mir
Reaktionen: Petr88
Taxxor schrieb:
Mit genug VRAM müsstest du aber dann ein Setting weniger reduzieren(Texturdetails)
Macht doch fast jedes Spiel heutzutage automatisch.

Die Spieler bekommen das nicht mit und wissen auch oft nicht wie ein Spiel mit mehr Sichtweite/Details aussieht.

Bei UE5 eine beliebte Option. Ubisoft nutzt das bei ihrer Hausinternen Engine auch sehr ausgiebig.
 
Das Problem ist, dass für Gaming die interessante Software fehlt, die für mich einen Kauf rechtfertigen würden. Das nächste Spiel wird wohl PoE 2 werden und dafür langt wahrscheinlich selbst eine 3060.
 
  • Gefällt mir
Reaktionen: frames p. joule
Nighteye schrieb:
Sogar Computerbase hat dieses Jahr für mehrere Spiele mindestens 16GB Vram empfohlen um sorgenfrei auf Max Details zu spielen.
"Max Details" sind in mehrfacher Hinsicht eine Illusion und/oder am Sweetspot vorbei.

Viel interessanter ist aber:
Nighteye schrieb:
Wenn eine GPU mit der anzahl der Shader einer RTX 3050 von 2020 schon von 16GB profitiert, was soll dass dann auf einer RTX 5080 aus dem Jahre 2025 ?
"Von etwas profitieren" und "etwas brauchen" sind nicht das Gleiche.
Ich würde mir für FHD keine Karte unter 12GB VRAM kaufen, habe aber kein Problem meine 1660 Ti mit 6GB VRAM zu nutzen.
Für QHD würde ich bei Neukauf auf min. 16GB VRAM setzen. Aber auch das ist persönliche Präferenz.

Ich bin allerdings noch bei meinem 300€-GPU-Limit bei FHD, und habe immer noch nicht den Schritt zu QHD-Gaming vollzogen. Jedes Jahr schiebe ich das auf's Neue auf. Hauptsächlich weil ich mich immer noch nicht endgültig für einen neuen QHD-Monitor entscheiden konnte.

Die Suggestion von nahezu allen Reviewern ist, dass ein Spiel in FHD mit weniger als 12GB VRAM absolut unspielbar ist - so vong Performance und Hässlichkeit her.
Das kann man schon so äußern ... allerdings würde ich mir das dann als Reviewer aber auch anständig von AMD/Intel/nVidia vergüten lassen. Die könnten das bei sich unter Marketing abrechnen. :evillol:

Nighteye schrieb:
Interessant. Die PCGH Readakteure sagten, DLSS ist immer ein Nachteil.
Im Computerbase Bild was du mir zeigst, wird von Bildrauschen als Nachteil ohne DLSS gesprochen.
Kannst du mir evtl erklären was die damit meinten ? Sowas wie ein Flimmern bei mangelndem AA ?
Raffael (PCGH, 2024): "Kinder, merkt euch: TAA ist in den meisten Spielen Grütze!"


bensen schrieb:
Nur kann man die Karten eben teurer verkaufen als die 200€ die du gerne hättest.
Die 4060 kann ruhig ihre 280€ kosten, mir egal. Die können die 5090 auch für 4.000€ verkaufen. Mir auch egal. Ich brauche weder das eine noch das andere.

Sollte ich bei FHD bleiben, stände aktuell eine 3060 mit 12GB VRAM für mich an. Schade, dass ich dann nicht in den DLSS3-FG-Genuss komme. Aber dafür gibt's ja AMD. :evillol:

Man siehe meinen Text oben. Das Perverse ist doch, dass ich für einen ähnlichen Preis von 3060/12GB und 4060/8GB lieber zu den 12GB VRAM greifen würde. Da spielen zwar auch Aspekte wie Linux oder PCIe 3.0 x16 mit rein, ich habe es aber auch gern "sorgenfrei".
Ich möchte mögliche VRAM-Knappheit nicht noch mit halber PCIe-Bandbreite kombinieren.
4060 Ti mit 16GB VRAM ist außerhalb des FHD-Budgets und zu langsam für QHD ... also raus.

Acer Nitro Radeon RX 7600 XT OC (16GB VRAM) ist noch mit im Rennen ... allerdings möchte ich ja langsam eigentlich mal auf QHD ... schwierig, schwierig.

nVidia schuldet den Usern nichts und handelt wirtschaftlich. Dafür habe ich vollstes Verständnis.
Ich find's nur schade, dass es keine 4050 (Ti) gibt. Dafür gäbe es sicherlich User-Szenarien (Preis, Performance-Ansprüche).

bensen schrieb:
Ein noch kleinerer Chip macht nicht all zu sehr Sinn. Es gibt zu viele Fixkosten, die dann nicht nach unten skalieren.
Na mit der Aussage kann ich doch arbeiten! Danke. Ich vermutete eine "bessere" Skalierung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Grundgütiger schrieb:
Für 850€ gibts bei Mindfactory den Einstieg in 16gb NV Karten, stand jetzt
*455,13€

Ich weiß, die 4060Ti 16GB ist nicht beliebt, aber für KI-Spielereien der günstigste Einstieg :D
 
  • Gefällt mir
Reaktionen: Grundgütiger
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
ach ihr immer mit euren Phantasien.
Nvidia setzt die Produkte und Preise schon "sehr clever" an. Man muss ja nicht kaufen! "Bodenlos dumm" ist es zu denken, dass irgendeine Firma dem Kunden aus Menschenfreude irgendwas schenkt.

Was verschenkst du denn so? Verzichtest du auf der Arbeit auf Geld wenn man es dir anbietet?

grow up people.
 
frames p. joule schrieb:
Du musst die GPU doch nicht an der K0tzgrenze nutzen. Die Effizienz steigt mit sinkender Last. UV, Power Limit oder ein simples FPS-Limit im vernünftigen Bereich und du bist im grünen Bereich.
Ja das könnte ich, aber ich Spiel nicht gern rum an den Specs, für mich muss das out of the box effizient sein
 
Laphonso schrieb:
Die 5090 wird die Top End GAMING GPU der RTX 5000 Serie.

Ich denke am 15 März 2025 wird sich Nvidia nicht die Chance nehmen einen Titan Nachfolger als 10 Jähriges zu veröffentlichen.

Zu dem dreifachen Preis 2999€ Uvp :D

Nach dem Leak wären am 102 ja noch ein par Shader verfügbar.
 
Laphonso schrieb:
Sorry, das ist Unsinn.
Das war bei der 3090 Quatsch, war bei der 4090 Quatsch und ist bei der 5090 Quatsch.
Nvidia hat verschiedene Produkte für die jeweilige Architektur.

Der Perk dabei lautet, dass diese GPUs Prosumer und CUDA workflows mitstemmen konnten und günstiger waren als die "business" GPUs and daher über Kompromisse auch dort arbeiten konnte.
......
......
Ich habe die 3090 gekauft. Als Gamer.
Ich habe die 4090 gekauft. Als Gamer.
Ich kaufe die 5090. Als Gamer.

Ich hab die Titan und Titan RTX gekauft, als Gamer UND für Compute etc.
Die 5090 wird kosten was die Titan RTX gekostet hat, dafür finde ich die 32 GB VRAM ggü den 24 von vor 6 Jahren jetzt eigentlich auch bisschen mau, aber die x-fache Performance wird's schon sein. ;-)
 
Coeckchen schrieb:
Und da eine Generation mittlerweile 2–3 Jahre dauert zur nächsten ist das ein Halbes Jahrzehnt. Ob du 1x in 5 Jahren 2000€ ausgibst oder Jedes Jahr 400€ wie früher macht da kein großen unterschied.
Macht für mich einen großen Unterschied.
Vorher hatte ich 5 Karten die ich weiter nutzen/verschenken/verkaufen konnte. Jetzt nicht mehr. 🤷‍♂️
 
Zurück
Oben