News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Nighteye schrieb:
Deswegen hab ich ja auch den Screenshot gezeigt, weil ich angeblich nur trolle was ?


Das dürfte das Video sein, right? Bist du sicher, dass du verstanden hast, worum es in dem Video geht?


"Nativ" mein hier nativ gerenderte Frames. Unabhängig davon, ob nun mit einem Upscaler oder eben nicht vs. Interpolation aus dem Treiber bzw. als Frame Generation Implementation im Spiel. Der von dir hier zitierte Satz ist völlig aus dem Kontext gerissen und hat 0,0 mit Upscaling-Verfahren und deren Bildqualität.
 
Powl_0 schrieb:
Genauso wenig kann es der Anspruch sein, für eine 5080 dann gerüchteweise 1500€ hinzulegen und kurz danach schon Einstellungen reduzieren zu müssen - deren Einfluss man bei passender Auflösung auch bemerken könnte - damit es rund läuft.
Und dieses "Einstellungen auf einer 16GB Karte zu reduzieren" ist mit dir und Nighteye zusammen in einem Raum?
Powl_0 schrieb:
Man kauft die Karte doch nicht nur für die nahe Zukunft. Miss also nicht rein daran, ob jetzt (fast!) alles mit 16GB auskommt.
Man kauft eine Karte auch nicht um alles auf den V-ram Verbrauch zu reduzieren und die große Panikkurbel zu drehen. Das ist ja langsam wahnhaft, wenn man nichts anderes hat um irgendwie gegen einen IHV zu stänkern.
Man könnte genauso irgendwelche Pathtracing-Benchmarks verlinken, in denen die Radeons nur 2 FPS haben und dann was von Zukunftssicherheit zu reden. Die Zukunftssicherheit auf einer aktuellen 12GB Karte ist selbst in 4K in wenigen Spielen gerade mal einen einzigen Regler von normal spielbar entfernt.
Powl_0 schrieb:
Gibt es jetzt erste Titel, die bei dem Preis der Hardware entsprechenden Einstellungen ins vram Limit drücken, dann wird es in den nächsten Jahren schnell mehr davon geben.
Derjenige kauft sich dann eine 32GB RTX 5090, wenn er nicht damit leben kann, dass es irgendwann zum V-ram Engpass kommen könnte und vielleicht der ein oder andere Regler oder niedrigere DLSS Stufe aktiviert werden muss. Meistens sind das eh völlig unoptimierte Titel wie Stalker, die gar kein vernünftiges V-ram Managment haben. Und was es überhaupt bringt eine 8GB Karte mit Ultra Settings gegen eine 16GB zu stellen und dann davon abzuleiten, dass 16GB auch nicht mehr reichen sollen, geht mit nicht in den Schädel.
Powl_0 schrieb:
Es ist nicht lang her, da wurden 8 oder 10GB High End Karten verteidigt, weil das ja bis zum jeweiligen Zeitpunkt ausgereicht hatte.
Und heute kann man damit nicht mehr spielen oder was? Realsatire.
Die 3080 10GB schlägt heute selbst mit RT noch immer eine 6800XT, zudem kommt noch DLSS mit dazu.
Ja, sie hat den V-ram Nachteil, wo man manchmal etwas am Regler drehen muss, das bedeutet nicht, dass die Karte deshalb schlechter ist.
Powl_0 schrieb:
Joa, die zahlen aber auch nicht vierstellig dafür, und erwarten auch keine hohe Auflösung mit aktueller Top-Grafik.
Er hat Raffs Empfehlung für das auf ultra gebenchte Stalker dafür benutzt, zu behaupten Raff empfehle nur noch 16GB Karten. Sowas hanebüchenes.
Wer Stalker in dem Zustand inkl. V-ram Bug spielen will, der muss halt die Einstellungen reduzieren, ich kann dir sagen, dass ich in 4K mit alles auf Ultra und DLSS Performance keinerlei Schwierigkeiten mit dem Speicher hatte und der ist auf der Workstation nur 12GB groß.
 
Zuletzt bearbeitet:
Neubauten schrieb:
"Nativ" mein hier nativ gerenderte Frames.
Danke für die Aufklärung. Jetzt verstehe ich den Kontext der aussage besser.
Ich war evtl wegen den Kommentaren zu dem Video der Redakteure verwirrt.
Torsten Vogel von PCGH sagte als Kommentar zu dem Video:
1732377249294.png
 
  • Gefällt mir
Reaktionen: Wichelmanni
Grundgütiger schrieb:
Auf eine gebrauchte 4090 welche es demnächst wie Sand am Meer gibt. 1250 -1500€

Da stellt sich mir die Frage wer so viel Geld für Hardware ausgibt die unter Umständen auch keine Garantie mehr hat.
Für mich persönlich wäre das keine Option.

Da bin ich mal gespannt wie sich der Gebrauchtwaren Markt entwickelt....
 
  • Gefällt mir
Reaktionen: Bänki0815 und Nighteye
Bald braucht die GPU eine eigene Platine und die Karten werden 4 Slots breit.
 
Quidproquo77 schrieb:
Und heute kann man damit nicht mehr spielen oder was?
Die RTX 3070 8GB (gleicher Preis wie meine RX6800 nonXT) packt in 1440p in Star Citizen kaum stabile 60fps.
Kumpel hat die, und meint er hat average 39fps mit seiner RTX 3070 weil Vram Full.
Meine RX6800 16GB dagegen, du weißt selbst.
600fps sc.jpg

Nvidia Karten unterhalb 90er Modelle altern echt schlecht sofern es keine Sondermodelle mit mehr Vram sind.
Wir hatten ja schon dass beispiel. RTX 3070 zu release 35% schneller als GTX 1080ti 11GB.
Jetzt in Stalker ist die GTX 1080ti 11GB beim PCGH Test 3x so schnell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: martin_m und Bänki0815
Quidproquo77 schrieb:
Man kauft eine Karte auch nicht um alles auf den V-ram Verbrauch zu reduzieren und die große Panikkurbel zu drehen
Wo siehst du Panik? Es ist eine Warnung, den Aspekt nicht zu vernachlässigen.
Ich habe den Zyklus bei Nvidia Karten selbst oft genug mitgemacht. Seit locker 10 Jahren knausern sie regelmäßig am Speicher. Relativ kurze Zeit später darf man dann visuell sichtbare Einstellungen reduzieren weil der Speicher nicht reicht, obwohl die Kernleistung noch reichlich genügt.

Das hat mich 2014 bei einer 350€ GTX770 schon gewurmt und wurmt mich bei den heutigen Preisen nur umso mehr.

Besonders mit der Verbreitung der aktuellen Rendering Technologien ist das wieder relevant, weil alles davon ordentlich Speicher futtern kann. Das weiß Nvidia selbst ganz genau, stagniert dann aber trotzdem beim Speicherausbau.

Quidproquo77 schrieb:
gerade mal einen einzigen Regler von normal spielbar entfernt
Aber das ist doch der Knackpunkt. Klar kann man einfach irgendwas reduzieren und dann läufts schon. Dafür sind die Karten aber schlichtweg viel zu teuer. Solche Kompromisse kurz nach Erscheinen erwarte ich bei günstigen Karten, nicht am oberen Ende.

Quidproquo77 schrieb:
Und heute kann man damit nicht mehr spielen oder was? Realsatire
Habe ich nicht behauptet, also zieh es nicht in die Lächerlichkeit. Typisches Denken in Extremen. Bei so einer Art enthalte ich mich der Diskussion, das führt zu nichts.
 
  • Gefällt mir
Reaktionen: martin_m, Haldi und Nighteye
Powl_0 schrieb:
Ich habe den Zyklus bei Nvidia Karten selbst oft genug mitgemacht. Seit locker 10 Jahren knausern sie regelmäßig am Speicher. Relativ kurze Zeit später darf man dann visuell sichtbare Einstellungen reduzieren weil der Speicher nicht reicht, obwohl die Kernleistung noch reichlich genügt.

Warum machst Du das dann "seit locker 10 Jahren" mit? Dann kauf doch nicht, wenn Dir das nicht passt. Packst Du auch täglich auf die eingeschaltete Herdplatte und ärgerst Dich jedes Mal auf ein Neues, dass Du Dir die Pfoten verbrennst?
 
  • Gefällt mir
Reaktionen: Wichelmanni
1331 schrieb:
Da stellt sich mir die Frage wer so viel Geld für Hardware ausgibt die unter Umständen auch keine Garantie mehr hat.
Für mich persönlich wäre das keine Option.
Vorallem ist bei so Geräten wie RTX 4090 die so viel Strom gezogen haben, die Elektromigration sehr viel höher.
Dann gabs zusätzlich noch dass Debakel der Defekte durch den Stromanschluss.
Mal ein paar Reddit Thread Überschriften die ich mal auf eine Paint Collage gebastelt hab.
RTX 4090 problem reddit.jpg

Ich Prophezeie auch der RTX 5090 keine Langlebigkeit bei einer 100% Auslastung über Jahre wenn die Gerüchte sich Bewahrheiten und sie wirklich über 550W ziehen wird.
 
Nighteye schrieb:
Torsten Vogel von PCGH sagte als Kommentar zu dem Video:
Anhang anzeigen 1547049
Da kann ich jetzt zum Kontext natürlich nichts sagen, aber so oder so wird das Zukunft sein.

https://en.wikipedia.org/wiki/Moore's_law

Man wird auf kurz oder lang nicht drum herum kommen, Lösungen in der Software zu suchen. Man kann sicherlich immernoch mal was in der Architektur optimieren, aber die großen Sprünge wurden durch den Fortschritt bei den Nodes gemacht. Da rennen wir aber zunehmend und sehr zeitnah einfach gegen physikalische Grenzen. AI und Machine Learning werden daher in naher Zukunft die Themen sein. Das haben ja auch alle großen Player erkannt und gehen diesen Weg. Zuletzt eben auch Sony. Und das ist auch richtig so.
 
  • Gefällt mir
Reaktionen: Nighteye
RogueSix schrieb:
Das beantworte ich dir vielleicht, wenn du weniger maulig fragst.

Darf man einen Umstand nicht kritisieren, nur weil man ihn zähneknirschend trotzdem mitmacht?
 
Was mich mehr interessiert als die Größe der Dies, ist die Frage ob nvidia wieder ein Feature exklusiv nur für die neueste Grafikkarten-Generation auf den Markt bringt.

Nach anfänglichen Zweifeln als ich mit Frame Gen ganz schlimmes Partikel-Geschmier bei Ratchet & Clank auf dem Bildschirm hatte, hat mich die Technologie zuletzt in Titeln wie Alan Wake 2 und Ghost of Tsushima durchaus überzeugen können.
 
5090 für 2499€ bis 2999€! Denkt an meine Wort! :D

GutenTag schrieb:
ich gehöre zu dem intelligenten Kreis wo dies immer funktioniert hat

Schön, dass du wenigstens die Selbstironie nicht verloren hast und es mit Humor nehmen kannst. :D
 
  • Gefällt mir
Reaktionen: Wichelmanni, Haldi und GutenTag
Powl_0 schrieb:
Wo siehst du Panik?
Hast du die Beiträge überhaupt gelesen auf die ich geantwortet habe? Du hast so eine Antwort zitiert.
Powl_0 schrieb:
Es ist eine Warnung, den Aspekt nicht zu vernachlässigen.
Nein, es ist eine komplette Fokussierung auf das Thema V-ram, bei gleichzeitigem ignorieren von sämtlichen anderen Aspekten wie Preis/Settings/Upscaling/Leistung und FPS Höhe.
Wenn ich nur 30 FPS erziele, dann rückt der V-ram in den Hintergrund, weil ich sowieso Settings reduzieren muss.
Powl_0 schrieb:
Ich habe den Zyklus bei Nvidia Karten selbst oft genug mitgemacht. Seit locker 10 Jahren knausern sie regelmäßig am Speicher. Relativ kurze Zeit später darf man dann visuell sichtbare Einstellungen reduzieren weil der Speicher nicht reicht, obwohl die Kernleistung noch reichlich genügt.
Und wenn du zur Konkurrenz greifst, musst du das bei fehlender RT Leistung, schwächerem Upscaling usw. dann in keinem Falle Nachteile in Kauf nehmen?
Powl_0 schrieb:
Das hat mich 2014 bei einer 350€ GTX770 schon gewurmt und wurmt mich bei den heutigen Preisen nur umso mehr.
Dann musst du in den sauren Apfel beißen und eine 32GB 5090 kaufen, oder auf die Karten mit 3GB pro Chip warten, ist doch ganz einfach.
Powl_0 schrieb:
Habe ich nicht behauptet, also zieh es nicht in die Lächerlichkeit
Du hattest mich innerhalb dieses Kontext zitiert und dabei bleibe ich. Du ziehst es in die Lächerlichkeit.
Aber klar, auf der einen Karte habe ich 5000% mehr FPS.😆
 
Was mich interessieren würde: Was für Schnittstellen wird denn eine 5090 supporten? DisplayPort 2.1 ist ja wohl hoffentlich dabei, aber wird es auch Thunderbolt 5 geben?
 
Powl_0 schrieb:
Das beantworte ich dir vielleicht, wenn du weniger maulig fragst.

Darf man einen Umstand nicht kritisieren, nur weil man ihn zähneknirschend trotzdem mitmacht?

Tut mir leid, aber mir fehlt da völlig das Verständnis. Es scheint für Dich ja ein großes Problem darzustellen, wenn Du seit inzwischen 10 Jahren immer wieder die Details wegen des angeblichen VRAM Mangels reduzieren musst.

Warum zieht man dann keine Konsequenzen? Da gäbe es ja zahlreiche Möglichkeiten: Grafikkarte mit ausreichend VRAM kaufen (ggf. von der roten Konkurrenz), eine Konsole anschaffen, einen neuen Monitor mit geringerer Auflösung zulegen, sich ein neues Hobby suchen, wenn vorgenannte Optionen alle wegfallen, aber 10 Jahre lang stumpf Grafikkarten mit zu wenig VRAM kaufen = Hä?
Warum tust Du das? Das macht doch absolut keinen Sinn und zähneknirschend schon gar nicht, denn das ist nicht gut für die Zähne und Du hast noch die Extrakosten für Zahnbehandlungen an der Backe! :D
 
GutenTag schrieb:
ich gehöre zu dem intelligenten Kreis wo dies immer funktioniert hat

von 980 auf 980ti
von 1080 auf 1080ti
von 3080 auf 3090ti
bei der 40xx serie direkt auf 4090 (ich bin ja nicht dumm)🤣
Ich denke, dass das auch jetzt der cleverste Move ist … Hobby ist halt teuer … aber die 5090 wird 3 Jahre die schnellste Karte sein … und wenn Trump und China richtig loslegen kann die Karte die letzte große Grafikkarte für 10 Jahre sein!

Also werd ich diesmal das Spiel auch mitmachen … obwohl ich 2200€ für eine Grafikkarte echt krass finde …

Und ich verstehe jeden der das blöd findet … da ich damit auch die Preise kaputt mache …
 
  • Gefällt mir
Reaktionen: GutenTag
RogueSix schrieb:
Warum machst Du das dann "seit locker 10 Jahren" mit? Dann kauf doch nicht, wenn Dir das nicht passt. Packst Du auch täglich auf die eingeschaltete Herdplatte und ärgerst Dich jedes Mal auf ein Neues, dass Du Dir die Pfoten verbrennst?
Wahrscheinlich macht er das so lange mit, weil die Hersteller noch nie viel Sinn darin gesehen haben Karten mit besonders viel V-ram auszustatten, und es überhaupt keine Möglichkeit gibt Karten die das bieten zu erwerben.
Weil es auch in den meisten Fällen überhaupt keinen Sinn ergibt.
Hat man ja bei der Radeon VII gesehen, wie lange die in der Community behalten wurde. Die wurde dann selbst gegen eine RX 5700XT rausgeschmissen, ich hatte meine noch am längsten nämlich 5 Jahre. Und ja der Speicher war von Vorteil, aber auch kein großer, weil eh nicht auf max gespielt, da zu wenig Leistung.

Wer GPUs mit viel V-ram will hat die 4080 16GB gekauft, oder ne 24GB 7900XTX, wobei die wahrscheinlich nie die Gelegenheit bekommt ihren Speicher zu nutzen.
 
  • Gefällt mir
Reaktionen: RogueSix
Darf man bei der Serie überhaupt noch über Energieeffizienz sprechen?
Die 80er und 90er bei 400-600W .. finde ich ein bisschen übertrieben...
 
Ohne Tests der Leistungsfähigkeit kann man die Effizienz nicht beurteilen. Der Stromverbrauch ist nur einer von zwei relevanten Werten. Und nicht mal den kennen wir wirklich.
 
  • Gefällt mir
Reaktionen: Cohen und cruse
Zurück
Oben