News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Plonktroll schrieb:
Wie gesagt diese Generation würde ich Komplett auslassen außer man brauch dringend so Ding.
Ich will meine 3060Ti in Rente schicken und 12GB wäre Pflicht. Gerne auch ne 5070Ti oder 8800XT aber dann nicht zu Mondpreisen.
Vllt macht die RDNA4 Technik in der RX8000 ja so einen großen Step, dass Nvidia die Preise senken muss.
RX8800 und RTX5070 für 499 USD wäre echt ein Träumchen.

Allerdings glaube ich da nicht so sehr dran
 
Zuletzt bearbeitet:
Nighteye schrieb:
Also hast du keine Argumente, und versuchst billig abzulenken weil du nichts dagegen sagen kannst.
Auch gut :)
Weil du auf das gesagte nicht eingehst, schon seit dem ersten Beitrag nicht.
 
  • Gefällt mir
Reaktionen: cruse und ElliotAlderson
Mr_Cenk schrieb:
@XD-User Wieso Abzocke? Es wird nunmal alles teurer. Und 32 GB GDDR7 Speicher mit 512 Bit bei solch einem Chip ist teuer. Ihr verdreht wieder Tatsachen und verschweigt, dass eine RTX 5090 inzwischen Pixar-Qualität Grafik in Echtzeit berechnen kann. Wie kannst du dann ernsthaft erwarten, eine RTX 5090 für 500 Euro kaufen zu können?
Ich habe für meine Strix RTX 4090 am Releasetag 2400 Euro bezahlt. Wenn ich die Strix RTX 5090 für 2400 bekäme, würde ich mich wie ein Schneekönig freuen. Aber ich weiss genau, dass die diesmal eher Richtung 3000 Euro gehen wird (2750-3000). Und ich werde sie trotzdem sofort kaufen. Day One!
Zu dir fehlen einem komplett die Worte aber du willst glaub ich auch nur trollen. Solche Realitätsverluste kann man nicht haben...
 
Seht euch den Dollar Kurs an dieser ist aktuell völlig überbewertet dank trump und den techbros mit ihren krypto Einheiten das sorgt aktuell stark für dollar nachfrage..
Das wird sich aber sobald donald die Strafzölle erhebt komplett drehen ich sehe den wahren wert dann bei 1-1,50
Das wird aber bis dahin die preise nicht bestimmen die rtx5090 erwarte ich um die 1799$ bei uns 2060€ dank 1-1,04 maxed +40% an perf mit 32gb gddr7 28gbps
Die rtx5080 wird sich nvidia nicht trauen über den preis der rtx4080 super zu gehen also grob 999$ =1150€ bei uns.
Der Wert wird aber bis ende Januar auf 1-1 fallen daher dürfte die preise noch höher werden
Daher habe ich mich für den Abverkauf mit dem ad104 46sm entschieden
Daher interessiert mich blackwell nur wie es am ende geworden ist den aktuell deutet es auf Monolithen hin was jegliche arch Änderung ausschließt. Da die Si's zu groß sind
Folglich ist es Takt plus von 11% faktisch 3,0ghz nur zu erwarten das ist absolutes Desaster da damit die chance auf deutlich mehr alu die chips dann effizienter geworden wären.
Das Si muss als basis Die sein damit darüber mehr alu kommen können und die vcore auf nur 1,06v limitiert werden kann folglich Effizienz
So wird das nix Somit rechne ich mit rubin ähnliches vorgehen mit doppelten alu per chip womit gr202 effektiv 384sm hat der gr203 192sm und der letzte gr205 96sm
keinen kleinen chip mehr
Wenn nvidia das nur durch mehr sm per gpc löst und an der grundlegende sm Struktur nix ändert bedeutet das stillstand bis gaa kommt 2028 was dann 2030 als next gen ne neue gpu arch kommen wird nach gut 24 Jahren wird es auch zeit das der alte g80 (tesla) Ansatz umgebaut wird erst dann rechne ich jetzt mit ner mcm Lösung.

Womit n3 dann 3,4ghz werden was rtx60 wäre, angefangen bei rtx6070ti /66sm bis rtx6090/192sm
Der refresh in n2 2028 dann mit 3,9ghz

Das ist der Takt Weg und so ziemlich der konservativste.
Nur verdammt schade das es vermutlich keine gpu mehr geben wird unter 250w ab der rtx60 gen.
 
  • Gefällt mir
Reaktionen: cruse
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.
Wenn (wenn!) der Preis der 5080 dann auch bei ca. 50% der 5090 liegen würde, wär die Frechheit wenigstens nicht ganz so bodenlos. Das Hauptproblem werden die Spielehersteller sein, die dann ab 2025 eine 5090 mit 32 GB als den neuen Standard ansehen, was garantieren würde, daß die Spiele auf allen kleineren Karten dementsprechend schlechter laufen.
 
Da die Premiumkarten immer größer werden frage ich mich warum man die nicht gleich in ein externes Gehäuse verpackt?!
 
  • Gefällt mir
Reaktionen: klausk1978
Rockstar85 schrieb:
Vllt macht die UDNA Technik in der RX8000 ja so einen großen Step, dass Nvidia die Preise senken muss.
RX8800 und RTX5070 für 499 USD wäre echt ein Träumchen

Udna kommt erst in der folge Gen also 9000er serie
 
  • Gefällt mir
Reaktionen: Rockstar85
@Quidproquo77
Im Stalker 2 Video von PCGH wird übrigens noch erwähnt, dass man im Spiel oft Stirbt, und dadurch immer wieder neue Ladezeiten hat, und dass die es extrem bemerkt haben, bei weniger als 16GB Vram, dass die Ladezeiten stark länger sind. Die fanden dass sehr betonenswert weil dass sehr nervig war.
Es würde sehr viel Lebenszeit sparen mindestens 16GB Vram bei dem Spiel zu verwenden sagte Raff.
Besser noch mehr Vram. Also mit der RTX 5070 Krücke hat man sogar noch mehr Nachteile als von mir bisher erwähnt.
 
Nighteye schrieb:
Bei Star Citizen kann man sich anzeigen lassen, wie viel Vram dass Spiel wirklich gerade benötigt, und wie viel zurück gehalten wird.
Und da sehe ich bei meiner Karte, wirklich gebraucht wurden auf 1080p schon knapp 13GB.
Dass Spiel hat sich etwas Vram reserviert, so dass meine Grafikkarte dann bei knapp 15GB Vram verbrauch war.
Das will ich gar nicht bestreiten, Star Citizen ist aber auch ein eher extremeres Beispiel. Star Citizen frisst Hardware um Frühstück, das war vor ein paar Jahren schon so und ist heute nicht anders. Natürlich kann man "Cherrypicking" betreiben was den VRAM Verbrauch anbelangt, die große Masse an Spielen dürfte aber deutlich darunter liegen und deshalb kein Problem mit 12 GB VRAM bekommen.

Das Nvidia immer auf Kante näht ist aber richtig und für uns Konsumenten eine Frechheit und auch unverständlich. Aus Nvidia Sicht macht es natürlich Sinn, man "zwingt" die Leute damit zu den höheren Modellen zu greifen wodurch der finanzielle Gewinn steigt. Nvidia ist ein Unternehmen, noch dazu das aktuell wertvollste (auch wenn ich denke das sie overrated sind) - in solche Sphären kommt man nun mal nicht wenn man permanent Kundenorientiert handelt, sondern wenn man selbst Scheiße als Gold verkaufen kann um es mal etwas überspitzt auszudrücken.

Der Lederjacke sind wir Spieler doch vollkommen egal, dort geht es rein um Gewinnzahlen. Noch dazu ist der Gamingsektor für Nvidia mittlerweile doch eher eine Bremse, die Kapazitäten könnten sie auch in den Profi Sektor stecken wo sie pro Karte das x fache verdienen.

Aber zurück zum Thema: 95-98% der aktuell existierenden Spiele am Markt verwenden bzw benötigen keine 16GB VRAM, ich denke auch nicht das sich das die kommenden 1-2 Jahre wirklich ändern wird. Wer sich also eine 5070 mit 12GB in den Rechner ballert, wird damit trotzdem nicht schlecht fahren - zumindest wenn man FullHD - WQHD spielt. Persönlich würde ich auch dort viel lieber 16GB VRAM sehen, aber das würde nicht in Nvidias Verkaufsstrategie passen ;)

Es wäre wirklich gut wenn AMD mal ihren Zen Moment bei den GPUs generieren könnte, das würde uns Spielern helfen, auch wenn ich annehme das AMD in dem Fall ihre Preise ebenfalls weiter anziehen würde (haben sie ja bei der aktuellen Generation schon wunderbar hinbekommen in dem sie sich an Nvidias Mondpreisen orientierten).
 
Nighteye schrieb:
Noch fragen ?
Und ich könnte noch 20 solcher Beispiele bringen.
Wenn meine R6800 nonXT 16GB schon 15GB in 1080p voll hat, wird eine 3-4x schnellere RTX5080 100% mehr als 16GB Vram gebrauchen können.
RTX 5070 mit 12GB wird ein riesen Fail.
Immer wieder der selbe Fehler seit gefühlt 15 Jahren.

Speicherbedarf kann man einfach nicht an einer x beliebigen Stelle mit einem Screenshot festmachen.
Woher nehmt ihr immer diesen Unsinn?

Dass eine Hardware mit viel Speicher dazu neigt (sofern die Software mitspielt), dass möglichst stark zu nutzen ist jetzt auch keine neue Erkenntnis. Und natürlich wird eine 24GB Karte bei einem Spiel, was in der Lage ist auf einer 16GB Karte 15GB zu belegen, normalerweise auch mehr wie 15GB im Speicher halten. Warum? Weil es Sinn macht Speicher zu nutzen anstatt brach liegen zu lassen. Mal davon ab, Speicher ist da um benutzt zu werden. Brach liegender Speicher ist nutzlos.
Nighteye schrieb:
In Stalker hat die RTX 3080 10GB in 1080p gerade mal 3fps mehr als die RTX4060ti, welche selber nicht wirklich schneller als eine RTX 3060ti war.
Das ist hingegen ein Argument, wobei man hier mal prüfen muss/sollte, ob das ggf. andere Gründe hat. Dieses Games ist jetzt nicht unbedingt der Garant für anständig programmiert und durch optimiert. Nutzt dir als Kunde zwar nix, aber damit es am Ende läuft, müssen alle ihre Hausaufgaben machen. Nicht nur der Hersteller Probleme immer nur mit Hardware erschlagen. Denn das hat letztlich zur Folge, dass auch das vollgeballert wird auf Dauer und die selbe Situation dann wieder eintritt.

Das ganze Konstrukt "lebt" davon, dass es eine Spanne "von -> bis" gibt. Würde man jetzt alles einfach 1:1 verdoppeln auf der Hardwareseite, dann würde das letztlich exakt gar nix ändern.
 
Fye schrieb:
Das will ich gar nicht bestreiten, Star Citizen ist aber auch ein eher extremeres Beispiel. Star Citizen frisst Hardware zum Frühstück
Naja würde ich nicht sagen.
Hab ja n Bild gezeigt wo die RTX 4090 meines Kumpels in 4k Nativ ohne DLSS 400fps auf Ultra macht.
Stalker macht in 4k Nativ ohne DLSS auf Ultra mit der Karte keine 50fps.
Also Stalker brauch 4x mehr GPU leistung als Star Citizen.
Sieht man auch gut an meinem Bild wo ich mit meiner Runtergetakteten 330€ Radeon RDNA 2 von 2020 nur 6% GPU last bei 60fps hatte, und dennoch 13GB Vram voll waren bei 1080p Medium Details.
1732525548878.png

Ergänzung ()

fdsonne schrieb:
Woher nehmt ihr immer diesen Unsinn?

Dass eine Hardware mit viel Speicher dazu neigt (sofern die Software mitspielt), dass möglichst stark zu nutzen ist jetzt auch keine neue Erkenntnis. Und natürlich wird eine 24GB Karte bei einem Spiel, was in der Lage ist auf einer 16GB Karte 15GB zu belegen, normalerweise auch mehr wie 15GB im Speicher halten. Warum? Weil es Sinn macht Speicher zu nutzen anstatt brach liegen zu lassen. Mal davon ab, Speicher ist da um benutzt zu werden. Brach liegender Speicher ist nutzlos.
Hatte ich vorher schon erklärt.
Star Citizen kann dir anzeigen wie viel Vram wirklich benutzt werden, und wie viel nicht.
Zb hat meine Graka an Orten wo ich laut Radeon Overlay 12-13GB im Vram hatte, nur dass hier wirklich im Spiel gebraucht.
1732525787743.png

Also 2-3 GB wurden im Vram drin gelassen ohne dass es genutzt wurde.
Dass kann man also schon separieren.
Heißt in diesem Beispiel, wenn eine Graka weniger als 10GB Vram hat, wird der rest in den System Arbeitsspeicher ausgelagert, was massiv Leistung kostet.
Dass war laut Raff auch bei Stalker 2 mit 8GB Karten nativ 1080p der fall.
 
Zuletzt bearbeitet:
Nighteye schrieb:
@Quidproquo77
Im Stalker 2 Video von PCGH wird übrigens noch erwähnt, dass man im Spiel oft Stirbt, und dadurch immer wieder neue Ladezeiten hat, und dass die es extrem bemerkt haben, bei weniger als 16GB Vram, dass die Ladezeiten stark länger sind. Die fanden dass sehr betonenswert weil dass sehr nervig war.
Es würde sehr viel Lebenszeit sparen mindestens 16GB Vram bei dem Spiel zu verwenden sagte Raff.
Besser noch mehr Vram. Also mit der RTX 5070 Krücke hat man sogar noch mehr Nachteile als von mir bisher erwähnt.
Und wieso soll das so sein? Technische Ursache? Wieso hat man mit 16gb vram beim neu laden eines Spielstandes kürzere Ladezeiten als mit 15gb?
Da ist ein Bug viel wahrscheinlicher. Das Game ist mit heißer Nadel gestrickt.
Und es gibt schon memory leak bugs, wenn man sich mal so umschaut. Einige, hat auch pcgh (unwissentlich) dokumentiert (und dessen Ergebnisse hast du gepostet).
Das hab ich schonmal ein paar Seiten weiter vorne erwähnt.

Google einfach mal stalker 2 memory leak:

"but after time it drops to a stutter 4-9fps"

Oder

"Don't know if anybody else's noticed but when you're in the main area of town after going into the building that starts to dialogue for the main quest the vram consumption doubles and never comes down after that also system memory starts to fill up as well closing the game out and going back in always fixes it hope the devs know." https://www.reddit.com/r/stalker/s/MLympj0Mfa

Und reddit und andere Foren sind voll davon.
Einen Post finde ich gerade nicht mehr, ist halt schon ein paar Tage her, der hat den vram allein durch immer wieder erneutes laden des selben spielstandes voll bekommen. Stand vielleicht in der oberen erwähnten Stadt.

Der vram ist hier nicht die Lösung, weil "Spiele nunmal inzwischen so viel verbrauchen", sondern weil es ein bug ist.

Stalker2 ist nicht das erste aufwendige Spiel mit großen Texturen und viel streaming und viel Action im vram. Und trotzdem droppen die anderen nicht auf 5fps(außer vielleicht in den ersten Releasetagen)
Stalker 2 hat einfach Probleme den ram und vram anständig zu befüllen(oder zu leeren). Das wird vermutlich noch gefixed werden.
 
Zuletzt bearbeitet:
cruse schrieb:
Und wieso soll das so sein?
Raff sagte, weil dass Spiel bei Vram knappen Modellen die Spieleumgebung immer wieder aus dem Arbeitsspeicher laden muss. Und das kostet mehr Zeit.
Ab da mal 2 min zuhören.
 
Zuletzt bearbeitet:
Nighteye schrieb:
Hatte ich vorher schon erklärt.
Star Citizen kann dir anzeigen wie viel Vram wirklich benutzt werden, und wie viel nicht.
Kann es das wirklich?

Oder ist das einfach nur ein Zähler der Daten die in den VRAM geladen wurden.
Es gibt technisch haufenweise Möglichkeiten um am VRAM Bedarf rumzuspielen als Entwickler. Von ganze simplen Abfragen des Platzes über dynamische Größen von Speicherpools und sonstwelchen Kram noch.

Am Ende ist das eine Frage, was der Entwickler da rein geladen haben will und was nicht.
Der Kernpunkt der Optimierung ist, dass man nicht unnötig Daten in den VRAM kippt, die man vorhält und dann von außen über das Speichermangement vom Treiber der GPU im Engpassfall wieder wegputzen lassen muss -> was in aller Regel äußerst schlecht funktioniert, weil der Treiber nicht wissen kann ob die Daten relevant sind für das Game und nur reaktiv arbeiten kann.

Zudem ist dein Lieblingsbeispiel in solchen Unterhaltungen irgendwie immer SC. Es gibt Unmengen mehr Spiele auf dem Markt. Bemiss bitte nicht alles an einem Titel, der es bis heute nichtmal überhaupt zu einem Release geschafft hat.
 
  • Gefällt mir
Reaktionen: bensen und cruse
Nighteye schrieb:
Naja würde ich nicht sagen.
Hab ja n Bild gezeigt wo die RTX 4090 meines Kumpels in 4k Nativ ohne DLSS 400fps auf Ultra macht.
Stalker macht in 4k Nativ ohne DLSS auf Ultra mit der Karte keine 50fps.
Also Stalker brauch 4x mehr GPU leistung als Star Citizen.
Stalker 2 hat aber auch noch mit heftigen Performanceproblemen zu kämpfen, da kann (und muss) durch Patches noch einiges passieren. Würde ich jetzt also nicht unbedingt als Vergleich heranziehen.

Zum Bild was du gezeigt hast: Man sollte die FPS in Situationen betrachten wo wirklich was los ist. Im leeren Raum zu schweben oder in dem eigenen Hangar zu sein ist keine gute Referenz. Die Frage ist, wie die Performance sein wird wenn mal ordentlich was auf dem Bildschirm los ist, z.b. in Städten mit vielen Spielern und NPCs oder auch in Dogfights wo mehrere Schiffe dran teilnehmen. Dann wird auch die 4090 in 4k vermutlich ganz schnell wegbrechen und DLSS wird zur Pflicht.

Mit meiner GTX 1080 komm ich in Star Citizen nicht weit :D
 
  • Gefällt mir
Reaktionen: cruse
Icke-ffm schrieb:
ich denke doch, denn die 4090 ist eben gerade beim L2 ordentlich kastriert 50% mehr shader aber nur 15% mehr L2 sieht für mich eindeutig nach einem Flaschenhals aus.
Sie hat 50% mehr Speicherbandbreite und dann noch größeren Cache. Das kann also nicht der Grund für die schlechte Skalierung sein.
Da wird wohl eher intern bei der Organisation der SM was limitieren.
Ergänzung ()

syfsyn schrieb:
Was ich aber weis das die rtx4090 massiv power limitiert ist die 450w sind gerade mal 1,07v dann folgt die tdp Limitierung
Dann zeig mal den Test wo die 4090 mit höherer TDP noch ordentlich an Performance zulegt.
Ergänzung ()

syfsyn schrieb:
Das Si muss als basis Die sein damit darüber mehr alu kommen können
Warum sollte das so sein? Das Speicherinterface ist nicht groß.
Ergänzung ()

cruse schrieb:
Also sind es eher streaming Probleme und Speicherdurchsatz, als Speichergröße. Der Speicherdurchsatz einer 4090 ist doppelt so groß/schnell wie bei einer 4070 und grob 4x so groß wie bei einer 4060.
Wenn etwas in den Speicher geladen wird limitiert der CPU RAM oder PCIe Interface oder die SSD wenn es nicht im RAM vorgeladen ist. Die Speicherbandbreite der GPU hat damit nichts zu tun.
Dein Fazit ist aber trotzdem richtig. Ein paar GB aus dem RAM zu laden dauert wenige Sekunden, über PCIe gehen ja 32 GB/s. Wenn es da zu langen Wartezeiten kommt ist das schlechte Programmierung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
Zealord schrieb:
Wat ein absoluter Mammutschinken. Hab damals schon nicht erwartet, dass die Grafikkarten größer werden und mehr verbrauchen.

Hätte gedacht, unter anderem wegen der Veränderung der Welt hinsichtlich mehr auf den Verbrauch zu achten, dass Grafikkarten so bei 200 bis maximal 250W sich bewegen werden und nicht Richtung 600W+ gehen.
Ging mir genauso. Dachte irgendwann arbeiten ganze Bürogebäude mit Rechnern die nur 2W verbrauchen. Aber du, geh mal in die Autohäuser. Ich dachte auch, dass wir bald Autos fahren, die 0,3L/100km verbrauchen. Stattdessen ist fetter, aufgemotzter und aggressiver das Motto der Stunde.
 
  • Gefällt mir
Reaktionen: Mcr-King
naja, die Rechenleistung die damit erzielt wird ist auch ungleich höher. Also die Effizienz ist deutlich gestiegen. Wo früher ein Grossrechner Tage an einem Film gerendert hat, sind es heute paar wenige Minuten über die Graka. Und auch wenn diese dann 600W+ zieht ist das in Summe noch weniger Energie als vorher - Es ist besser 1 Minute lang 600W zu verbraten, als 3 Minuten lang 300W.

Man kann sich natürlich drüber streiten, ob es ökologisch ist für ein paar temporäre bunte Bildchen daheim solche Energie aufzuwenden. Spiele haben so direkt ja keinen Nutzen, anders als z.Bsp Autos.

Zum Topic: Wenn das Ding 22% grösser wird, kann von einem mindestens 25% höheren UVP ausgegangen werden. Denke kaum, dass nVidia die Margen senken will.
 
Zurück
Oben