News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Ich hab mich gefragt, wie lange es dauern würde, bis eine 70er Karte im VRAM zur kommenden 5090 aufschließt. Das grenzt wahrscheinlich an Wahrsagerei und nicht einmal NVIDIA kennt die Antwort zum jetzigen Zeitpunkt.
Leider kann man sich nicht sicher sein, dass die 90er Karte bis dann zuverlässig ihren Job tut. Dafür ist NVIDIA zu gerissen und wird immer wieder neue Features aus dem Hut zaubern, die der Vorgängergeneration vorenthalten bleiben wird.
 
Pestplatte schrieb:
Mich interessiert wie die Leistung PCIe v4 vs v5 aussieht bei den kleineren Karten (70+ti).
Ein AM5 Board mit PCIe 5 fängt im moment erst bei ca 220€ mit BT an.
Kann ich dir schnell beantworten, genau 0%. Selbst die 4090 kann nicht die komplette Bandbreite von PCIE 4 ausnutzen und nur die 5090 kann das von den 5000er Karten ausreizen. Selbst wenn du über das Limit des PCIE Ports rüber bist, ist die Auswirkung minimal (Die 4090 verliert nur ca 3% Performance mit PCIE 3).

Von daher sollten es genau 0% für alle 5000er Karten außer der 5090 sein, da könnte es evtl 1-3% mehr Performance mit PCIE 5.0 geben. Ein Am5 Board mit PCIE 5.0 lohnt sich also wenn nur wenn du vor hast die 5090 oder in Zukunft 6090 zu kaufen.
 
  • Gefällt mir
Reaktionen: SmashD
Ist schon irgendwie bitter. Man kann also davon ausgehen, dass selbst die nächste Generation nur die Höhste Grafikkarte von pcie5 profitieren würden. Und alles darunter im besten Fall Pcie 4 ausreizt. Welche Komponenten könnten bereits dafür für den Konsumer relevant profitieren?
 
Apocalypse schrieb:
Aber du warst doch, der meinte das kein Casual hier was, 600€ oder 700€ GPU kauft? Fällt die 4070 doch genau rein.
Verschiebst du hier gerade still und heimlich deine Aussage nur um so zu tun als ob du recht hast? Oder hast du das vorher eh anders gemeint? Wie war das mit dem sehr, sehr, sehr viel Nutzen wenn man schon 600€ für ausgibt?
nein, nein, nein. du hast das thema ANGEBER angesprochen. da ging es um 4080 und drüber. darum ging es
dass eine 4070 für jemanden, der nur alle paar monate was spielt vollkommen sinnlos ist, ist ein anderes faß.. und dann wird vielleicht auch noch sims und minecraft gespielt. totale verschwendung
 
Man muss ja fast die 5090 kaufen, den nächsten Speicherkrüppel hol ich mir nicht nochmal. In 2160p werden die Games schon hungrig. Jensens Upselling funktioniert. :-/
 
Der pcie5 x16 slot wird erst dann wichtig wenn die gpu Daten aus dem vram in den ram lagern muss
da alle pcie Signale 400mhz ramdac sind braucht es zudem gleichzeitige zugriffe was die cpu in Vordergrund bringt parallele daten stream klappen nur mit seriellen zugriffen die meisten sind aber sequenziell womit der Bandbreiten Vorteil stark schwindet.
Sprich vom pcie5 x16 ist nur beim laden der daten vom ram beim start des Spiels entscheidend die perf. während des Spielens wo mal der vram vollläuft bewegt sich in einstelligen Bereich.
Schwieriger wird es erst wenn die pcie norm Bandbreite für diese sequenzielle zugriffe langsamer wird.
Darum ist es keine gute idee ne pcie5 x8 gpu (rtx5070) in nen pcie3 x16 zu stecken da dürfte die perf. um etwa 15% senken das zeigt sich primär in cpu limits

also solange man die daten im vram halten kann und wer zeit hat sind pcie5x8 auf pcie4 x16 kein problem
Das gleiche gilt auch für die pcie4 norm bei ada gpu
Nur eben pcie3 wird schwierig das dürften aber die wenigsten mehr haben
Die letzten pcie 3 boards kamen 2019 raus (b450 b460 x470 z490)
zumal blackwell ja neural rendering hat sprich Texturkompression mit den tensor cores akä kleinere Auflösung rendern als wirklich angezeigt wird.
Das dürfte die vram Anforderungen auf ein drittel reduzieren. Die frage die sich nur stellt geht das automatisch ohne Entwickler was kompilieren muss mein verdacht ja.
 
Apocalypse schrieb:
Ich werde wohl AMD kaufen.
Ich bin nicht reich genug, als das ich mir Nvidia leisten könnte,
und nicht arm genug als das ich Nvidia kaufen müsste.

Aber irgendwie scheint dich Nvidia magisch anzuziehen, bei 61 Posts alleine in diesem Thread.
 
  • Gefällt mir
Reaktionen: Catrovacer und Alesis
Ich hab das Thema Angeber angesprochen? Muss mir entfallen sein. ;-)

longusnickus schrieb:
und ich finde, wenn ich 600€ für eine GPU ausgebe, dann nutze ich das ding auch sehr sehr viel und nicht "casual" (es heißt CASUAL nicht CAUSAL. schreib doch Gelegenheitsspieler, wenn du des englischen nicht so mächtig bist)

longusnickus schrieb:
nein, nein, nein. du hast das thema ANGEBER angesprochen. da ging es um 4080 und drüber. darum ging es
dass eine 4070 für jemanden, der nur alle paar monate was spielt vollkommen sinnlos ist, ist ein anderes faß.. und dann wird vielleicht auch noch sims und minecraft gespielt. totale verschwendung

Gerade unter den Simmern sind dann 4090er gar nicht so selten. DCS frisst Hardware halt zum Frühstück, einfach weil es auf ziemlich alter Codebase basiert. Star Citizen auch ;-)

Und ob für Minecraft jetzt ne gute GPU eine Verschwendung ist? Subjektive, ich würde sagen eine 4090/4080 macht für PT Minecraft mehr Sinn als für irgendwelche Shooter. Pathtracing in Minecraft sieht absolut genial aus und ist ne echte Freude. Aber ich würde mir jetzt nicht (mehr) anmaßen einem COD Spieler zu sagen das er seine Zeit und Geld verschwendet. Aus dem Alter bin ich irgendwie raus.
Ergänzung ()

Tr8or schrieb:
Aber irgendwie scheint dich Nvidia magisch anzuziehen, bei 61 Posts alleine in diesem Thread.
Wenn ich dich so anziehe, kannst du ja auch noch meine Posts in den entsprechenden AMD Topics zählen. Du darfst sie gerne auch lesen.

Anyway, sagt ja sogar die Signatur aus, das mir eine 4090/4080 schon gefallen hätte, aber das außerhalb meines Budgets liegt. Und drunter konnte ich halt genauso gut AMD kaufen.
 
Rockbreak schrieb:
Framegeneration und DLSS4 setzt statt bessere Performance und Raytracing Leistung im herkömmlichen Sinne, muss er jetzt auf Framegeneration zurückgreifen. Aktiviert er das nun um seine 60 fps zu kriegen hat er nur 15 echte frames auf 45 generierte, damit hat er den Input Lag eines 15fps Spieleerlebnis, was grottig schlecht ist und nicht auch nur annähernd and das Endergebnis echter Frames (Upscaled oder nicht spielt da keine Rolle weil upscaling ja das Input Lag nicht erhöht) rankommt.

Ich glaube, dass ich erst jetzt so richtig verstanden habe, worauf Du hinaus willst.

DLSS4 als Ökosystem MUSS nicht wie bisher auf "feste" Framefaktoren bei Zuschalten von FG zurückgreifen...

1736498236302.png


Das Verfahren kann, wenn gewünscht, adaptiv auf eine Zielausgabe mit gleichmäßigem Framepacing hinwirken.
Dafür gibt es den Block, der im Bild oben "Blackwell Flip Metering" genannt wird.

Der kann dafür sorgen, dass alle maximal generierbaren berechneten Keyframes erhalten bleiben und nur die, die Frame- Pacing passend bis zur Ziel- FPS- Rate fehlen, per FG hinzufügt.

Bis jetzt war man tatsächlich an feste Faktoren gebunden. Sprich Du hast 60 FPS durch die Bildwiederholrate des Monitors vorgegeben und mit Aktivieren von Framegen geht man auf den Faktor 1:2 was konventionelle Berechnung und AI Berechnung angeht.
Was soviel bedeutet wie dass die konventionellen Frames beim "festen" Verfahren die 30 FPS bei 60FPS fixed Limit nicht überschreiten können.

Du "verschenkst" mit der neuen Technik also keine konventionell berechneten Frames an AI generierte, wenn nicht explizit gewünscht bzw. von der Spielesoftware so vorgesehen, womit die Technik auch für Szenarien niedrigerer Framezahlen höheren Nutzen bringt.

Und natürlich ist die MFG kein Ersatz für den Part der konventionellen Berechnung. Es ist ein rein auf den Sehapparat und deren Wahrnehmung getrimmtes Tool. Gleichmäßig sich ändernde 120 Bilder pro Sekunde wirken auf das Auge nunmal unabhängig von dem, was im Hintergrund passiert deutlich angenehmer, als 40 davon.
Man entschärft damit nur eine der Aufgaben, die einem die zukünftige Performanceentwicklung stellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, Rockbreak, BornBad und 7 andere
@.Sentinel. Danke für deinen Beitrag. Das hatte mich auch sehr interessiert und ich hatte deswegen im 3DC noch gefragt:

Ich hätte da auch noch eine Frage zur Frame-Generation bzw auch MFG. Wird dadurch die Anzahl der echten Frames halbiert, oder nur bis zur Ziel-FPS aufgefüllt?

Beispiel: Ziel ist 4K/120.
GPU schafft aber nur 100 FPS.

Mit (M)FG: Sinken die echten FPS auf 60, 30 ect. dann wird bis 120 multipliziert?

Oder wird nur die Lücke von 100 bis 120 mit generierten Frames "aufgefüllt".

Also wie du es beschreibst mit dem Blackwell Flip Metering werden nur bei Bedarf die fehlenden Frames bis z.b. in meinem Fall 4K/120 generiert?
 
Youngtimer schrieb:
Also wie du es beschreibst mit dem Blackwell Flip Metering werden nur bei Bedarf die fehlenden Frames bis z.b. in meinem Fall 4K/120 generiert?
Ja- Kann man so einstellen. Es überwacht das Framepacing und greift ein, wenn dort was aus dem Ruder läuft.
Die Faktoren sind in der Laufzeit variabel anpassbar. Und das ist eben doch nochmal ein relativ großer Fortschritt.

Es kann aber auch mit festen Faktoren wie üblich arbeiten. Wenn Du z.B. auf max. Performance auf einem VRR Bildschirm unter eine MFG Stufe 1x 2x 3x aus bist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, A.Xander, Youngtimer und 2 andere
Rockbreak schrieb:
Das Endergebnis stimmt aber nicht, das ist der Punkt.
Wieso nicht? Woher willst du das wissen? Haste schon mit einer 5000er Karte gezockt?

Rockbreak schrieb:
Da zockt jemand auf nem 60Hz 4k Monitor mit einer 5000er Karte und will das neueste Triple A spiel mit Path Tracing spielen, da die Rohleistung aber nicht da ist weil man nun auf Framegeneration und DLSS4 setzt statt bessere Performance und Raytracing Leistung im herkömmlichen Sinne, muss er jetzt auf Framegeneration zurückgreifen. Aktiviert er das nun um seine 60 fps zu kriegen hat er nur 15 echte frames auf 45 generierte, damit hat er den Input Lag eines 15fps Spieleerlebnis, was grottig schlecht ist und nicht auch nur annähernd and das Endergebnis echter Frames (Upscaled oder nicht spielt da keine Rolle weil upscaling ja das Input Lag nicht erhöht) rankommt.
Also zuerst einmal steckt in DLSS 4 auch noch das Upscaling. Du hast also keine 15 FPS, sondern 30 als Basis und FG setzt Reflex voraus, was die Latenz drückt. Du hast also am Ende keine Latenz von 15 FPS mit angezeigten 60 FPS, sondern vermutlich irgendwas zwischen 30 und 60 FPS.

@.Sentinel. du wolltest mal einen kleinen Test mit DLSS3 FG auf Ampere raushauen. Kommt da noch was?
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Also zuerst einmal steckt in DLSS 4 auch noch das Upscaling. Du hast also keine 15 FPS
Na er meinte sicher schon 15 mit DLSS vor MFG. Alles andere würde ja keinen Sinn machen. Hat er iirc auch schon an anderer Stelle erwähnt.


Anyway, klingt auf jeden Fall ganz viel versprechend was .Sentinel hier erläutert, wenn das alles so halbwegs funktioniert, bin ich echt gespannt. Vielleicht ja dann doch dieses Jahr mal eine Geforce zum testen, selbst wenn AMD nun genug RT Performance hat.

Setzt hier MFG eigentlich Gsync voraus für das adaptive Generieren der Frames passend zur Zielausgabe oder bekomme ich damit auch noch einen antiken 144hz Bildschirm genau richtig gefüttert?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
.Sentinel. schrieb:
Ja- Kann man so einstellen. Es überwacht das Framepacing und greift ein, wenn dort was aus dem Ruder läuft.
Die Faktoren sind in der Laufzeit variabel programmierbar. Und das ist eben doch nochmal ein relativ großer Fortschritt.

Das sehe ich auch so und wäre vielleicht sogar eine Alternative zum VRR bzw. G-Sync. Wenn ich als Ziel 120FPS habe aber bei gewissen Spielszenen diese nicht erreichen kann, springt die KI ein und glättet mir den Framedrop bis zu Faktor 4, also runter bis auf 30FPS damit ich meine konstanten 120FPS bekomme.

Wäre schon ne große Sache.
 
  • Gefällt mir
Reaktionen: Apocalypse
Youngtimer schrieb:
springt die KI ein und glättet mir den Framedrop bis zu Faktor 4, also runter bis auf 30FPS damit ich meine konstanten 120FPS bekomme.
Wobei iirc der tatsächlich Faktor in der Regel wahrscheinlich nicht 4 erreichen würde, also vielleicht dann trotz MFG Richtung 60 Base FPS zu 144hz Ausgabe dann planen, oder wie auch immer das Ergebnis dann in der Realität aussieht.

Wirkt auf jeden Fall jetzt mächtig mehr interessant. Und natürlich je nach Genre und Spiel will man sicherlich immer noch unterschiedliche Base FPS erreichen. Vielleicht mit MFG auch ein wenig höher als ohne, weil die Latenz ja leicht steigen soll, vielleicht auch viel höher, das wird sich zeigen.

Es wird auf jeden Fall deutlich smarter und flexibler als ich zuerst angenommen hatte.
 
Youngtimer schrieb:
und glättet mir den Framedrop bis zu Faktor 4, also runter bis auf 30FPS damit ich meine konstanten 120FPS bekomme

Ja theoretisch hast dann zwar eine konstante Framerate, aber einen erhoehten und schwankenden Inputlag.
Von 1 Prerendered Frame auf bis zu 4(!).
Ne danke!
 
Wenn du keinen erhoehten Input Lag siehst, wenn die echten FPS von 120 auf 30 droppen, dann verstehst du Grundlagen nicht.
 
longusnickus schrieb:
nein, nein, nein. du hast das thema ANGEBER angesprochen. da ging es um 4080 und drüber. darum ging es
dass eine 4070 für jemanden, der nur alle paar monate was spielt vollkommen sinnlos ist, ist ein anderes faß.. und dann wird vielleicht auch noch sims und minecraft gespielt. totale verschwendung

Aber was interessiert es dich denn so sehr, was Leute mit ihrem Geld machen? Hast du keine eigenen Sorgen?

Vielleicht wird ja auch andersherum ein Schuh daraus: Wer wenig Zeit zum Spielen hat, möchte dann wenigstens keine Kompromisse eingehen und die höchstmögliche Qualität in Form von Auflösung und Bildrate.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Holgmann75, ElliotAlderson, Fallout667 und 2 andere
Zurück
Oben