News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

whyme schrieb:
Quellen?
Du hast doch sicher Fakten für deine Aussagen, ansonsten ist das nur hetze gegen AMD, ein typischer Nvidia F.... ;)
hä nvidia Präsentation gesehen? Man man man hier AMD Leute seid echt witzig.
Schrei du mal weiter Fake. Ich lache nur über euch.
 
soso, das wurde alles bei der Nvidia Präsentation gesagt? Muss ich wohl verpasst haben
"Die RX 9070 ist auf dem Niveau einer 4070"
"Die RX 9070XT ist auf dem Niveau einer 4080"
"Die RX 9070XT soll für ca. 1000€ kommen."
"Die 5070 die deutlich schneller als die RX 9070XT ist kommt für 650€."
 
  • Gefällt mir
Reaktionen: Obvision, PrimeskyLP, garfield296 und eine weitere Person
Lefty220 schrieb:
hä nvidia Präsentation gesehen? Man man man hier AMD Leute seid echt witzig.
Schrei du mal weiter Fake. Ich lache nur über euch.
Man sollte zumindest unabhängige Tests abwarten, bevor man ein endgültiges Urteil fällt. Alles andere ist überwiegend nur Marketing, auch wenn man davon vielleicht eine Tendenz ablesen kann.
 
  • Gefällt mir
Reaktionen: Obvision, iron_monkey, PrimeskyLP und eine weitere Person
whyme schrieb:
Quellen?
Du hast doch sicher Fakten für deine Aussagen, ansonsten ist das nur hetze gegen AMD, ein typischer Nvidia F.... ;)
Screenshot 2025-01-08 220508.png

steht alles da
Ist es echt so schwer heutzutage sich nur ein bisschen zu informieren?
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Also obwohl ich den guten LTT eigentlich nicht mehr regelmäßig schaue, so habe ich tatsächlich kürzlich zufällig das Video gesehen, wo Nvidia Linus eingeladen hat die 5090 im Vergleich zur 4090 in Cyberpunk mit 4K Ultra Settings und eben DLSS FG je nach Fähigkeit des Modells aktiviert zu testen.

Dort erreichte die 4090 um die 120 FPS, die 5090 mehr als das Doppelte. (Mit den dort fest gesetzten Settings, die waren nicht änderbar).

So und an dieser Stelle fühle ich mich in meinem Gedanken etwas bestätigt, dass sich mir nicht erschließt, inwiefern eine 5090 gegenüber einer 4090 attraktiv ist, sofern man nicht eh was älteres hat und ganz neu kaufen will.

Die Verbreitung von 120Hz 4K Monitoren ist schon dünn genug außer vielleicht bei TVs. Alles darüber entsprechend dünner, gibt’s ja auch noch kaum was am Markt. Bis sich das im größerem Stil ändert, haben wir die 6000er Reihe, weil Monitore werden ja eher nicht so oft getauscht wie der Rest der Hardware. Und wir wollen mal nicht vergessen, dass uns schon zur 3090 „endlich 8k Gaming“ versprochen wurde… hust hust…

Man könnte ja sagen hey, high end Sparte halt, aber eben jene füllt ja offensichtlich die 4090 bereits weiterhin aus. Im Prinzip erschummelt sich die 5090 also mit viel Tamtam noch mehr Frames, die aber dann einfach in den Äther geblasen werden, weil der Monitor eh zu lahm ist.

Nicht falsch verstehen, die Technik ist beeindruckend, so wie die Karte selbst. Aber die großen Stärken spielt das Ganze doch nur bei Karten aus, die sonst einfach Leistungsprobleme hätten. Alle andern Goodies außer MFG bekommt die Vorgängergeneration ja auch.

Wo also liegt im Highend Segment der nutzbare Mehrwert außer Habenwollen? Es erschließt sich mir nicht so richtig. Die 3090 wurde von der 4090 seinerzeit allein schon in Rohleistung klar deklassiert. Nicht zuletzt auch in Sachen Energieeffizienz. Bei der 5090 erscheint mir der Sprung eher ein sehr teurer Hüpfer zu sein.

Aber wer weiß, am Ende liege ich völlig daneben mit meinem Gedankengang.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bogge101
Nolag schrieb:
Die Unschärfe von der wir reden entsteht einzig und allein durch die Dauer, mit der das Bild dargestellt wird. Bewegt sich ein Objekt mit 1000 Pixel/s über den Bildschirm, wird es bei 60Hz mit einer Unschärfe von ca. 16 Pixel dargestellt. Bei einer Bildrate von 240Hz sind er nur noch 4 Pixel.

Bei einem LCD ist die Dauer, die Pixel benötigen, um von einem Bildinhalt auf den nächsten umzuschalten, nicht konstant, sondern hängt davon ab von welcher Ausgangsfarbe und -helligkeit auf welche Zielfarbe und -helligkeit gewechselt werden muss. Der Umstand, dass ein Panel mit 240hz angesteuert werden kann, bedeutet nicht, dass jeder beliebige Wechsel auch in diesem Tempo stattfinden kann, d.h. je nach Bildinhalt werden manche Pixel rechtzeitig fertig und andere nicht. Eine Steigerung der Eingangsfrequenz bedingt bei diesen Panels daher nicht notwendigerweise eine schärfere Bewegtbilddarstellung.
 
  • Gefällt mir
Reaktionen: .Sentinel. und [SM]Valen
Lefty220 schrieb:
steht alles da
Ist es echt so schwer heutzutage sich nur ein bisschen zu informieren?
Und wo steht da irgendwas zur RX 9070?
Wenn du schon meinst, man soll bei den Fakten bleiben, dann hast du doch sicher Fakten zur RX 9070 und deine Behauptungen beruhen nicht auf Grüchten und Wunschdenken....
 
  • Gefällt mir
Reaktionen: Pisaro, PrimeskyLP, Inxession und 4 andere
whyme schrieb:
Das verstehe ich nicht ganz. Wenn MFG die Zukunft vorhersagt, warum ist dann die Latenz im vergleich zu normalem FG nicht niedriger?
Ist sie doch:
Dass DLSS 4 MFG gleichmäßigere Fps und auch eine niedrigere Latenz als DLSS 3 Frame Gen bieten kann, zeigte bereits ein Vorabtest mit Cyberpunk 2077.
Abgesehen davon müssen die 3 Frames ja trotzdem interpoliert werden, was Zeit dauert und somit die Latenz erhöht. Es ist also nicht ungewöhnlich, dass die Latenz minimal höher ausfallen kann.
 
Das ist ein Multiplikator anstatt 1 frame zu rechnen werden drei ausgegeben damit ist mfg nicht mehr Latenz als fg
Das neue ist das angebliche reflex 2 das daten früher ausgibt bevor das bild generiert wird dadurch reduziert sich die Eingabe latenz um maximal die hälfte von verlorerene latenz für ein frame vom fg
Das wird essentiell bei mfg und fg in 30-60fps nativ
Das gute diese Software update bekommen alle mit ner rtx gpu ist aber nur in Kombination mit fg nutzbar
 
Raider_MXD schrieb:
Bei einem LCD ist die Dauer, die Pixel benötigen, um von einem Bildinhalt auf den nächsten umzuschalten
Warum erwähnst du immer LCDs? Die Unschärfe von der wir reden träte auch auf einem idealen OLED mit 0ms Schaltzeit auf.
 
  • Gefällt mir
Reaktionen: Apocalypse
Lefty220 schrieb:
hä nvidia Präsentation gesehen? Man man man hier AMD Leute seid echt witzig.
Schrei du mal weiter Fake. Ich lache nur über euch.
Sorry, mir war nicht bewusst das Nvidia die Preise der neuen AMD Karten gleich mit bekannt gegeben hat ... in anbetracht der Tatsache das bei der Presentations DLSS 3 mit FG mit DLSS 4 mit MFG verglichen wurde um ein Massives Leistungsplus zu suggerieren und anscheinend ebenfalls bei der AI Performance man anscheinend gegenüber Ada jetzt die Precisions halbiert hat ... ohne das in den Slides anzugeben.

Ja, klar, zuzutrauen würde ich es in dem Kontext. Anyway, deine 1000€ AMD Karte hat noch keinen Preis, aber die meisten Gerüchte Sprachen von 500 bis 700€

Aber ja steht alles da, sowohl das FG vs MFG bei den FPS Angaben, als auch das FP4 vs FP8, das ist absolut lächerlich. Aber den Preis für die AMD Karte habe ich trotzdem nicht gesehen, den wirst du wohl auch die nehmen müssen. ;-)
 
  • Gefällt mir
Reaktionen: garfield296
ElliotAlderson schrieb:
Frames zu interpolieren kostet Rechenzeit. Wenn du also 3 statt einen interpolieren musst, dauert das auch 3x solange. Die Leistung sinkt also bei Ada anstatt zu steigen.
Ist jetzt nur ein theoretisches Beispiel, denn bei Blackwell funktioniert FG technisch auch anders als bei Ada.
Bei DLSS 3 wird aus Frame 1 und 2 ein Zwischenframe generiert. Bei DLSS 4 wird versucht die Zukunft vorher zu sagen und nach Frame 1 den 2-4 Frame zu generieren, anstatt einen Frame dazwischen. Das kann Ada nicht.
Siehe hier: https://www.pcgameshardware.de/Gefo...e-281029/News/Multi-Frame-Generation-1463150/
Vielleicht bringe ich da etwas durcheinander. Korrigiert mich hier gerne. Mich irritiert es deswegen, weil hier laut dem Artikel auf Computerbase die Optical Flow Hardware der Tensor Kerne nicht mehr genutzt wird, da die Funktion nun Bestandteil des KI Modells bzw. das Transformer Modells ist. Würde man jetzt das Modell in Ada Lovelace nutzen, bleibt die Optical Flow Hardware unberührt, dennoch könnte ja das Transformer Modell auf den Tensor Kernen ausgeführt werden. Die Frage ist dann nur, ob die Ada Lovelace Tensor Kerne leistungsfähig genug sind? @Taxxor hatte hier bereits gesagt, dass die Recheneinheiten dafür nicht schnell genug sind. Vielleicht kann man es nicht für die ganze 4000-Serie zu Verfügung stellen, aber möglicherweise für die 4090, 4080 Super und 4080?

@Stoerdienst hatte bereits eine Einordnung der TOPS durchgeführt:
Stoerdienst schrieb:
Ist halt die Frage, was da so angenommen wird.
Laut der Folie wird FP4 mit FP8 verglichen.

Laut Nvidia ADA GPU Architecture Dokument steht da folgendes:

Anhang anzeigen 1566785
(Letzte Spalte = 4090)
Quelle: https://images.nvidia.com/aem-dam/S...idia-ada-gpu-architecture-whitepaper-v2.1.pdf

Irgendwas passt da nicht so richtig zusammen.
Eventuell schlägt wirklich die RTX5070 die RTX4090.
Dann scheint aber die Beschreibung auf der Folie nicht ganz genau zu sein, weil FP4/INT4 in der Regel den doppelten Durchsatz im Vergleich zu FP8/INT8 hat (siehe auch 4090 Whitepaper).

Stoerdienst schrieb:
Das wäre dann aber wieder realistischer, wenn man die RTX5090 mit 3352 INT4/FP4 annimmt und die RTX4090 mit 2642 INT4/FP4.
Das passt, meiner Meinung nach, ziemlich gut zusammen.

Das wäre jetzt nur für die RTX 4090. Aber so sollte es zumindest schnell genug sein um DLSS MFG ebenfalls ausführen zu können. Beim PCGH Artikel konnte ich aus der Technik von MFG auch nicht herauslesen, was genau bei der Hardware von Ada Lovelace nicht ausreichen würde. Eher im Gegenteil:

"Unser neues KI-Modell zur Frame-Generierung ist 40 % schneller, verbraucht 30 % weniger VRAM und muss nur einmal pro gerendertem Frame ausgeführt werden, um mehrere Frames zu generieren." - Quelle

Also beim Wechsel von Ampere zu Ada Lovelace brauchte man die Optical Flow Hardware. Da das nun das Transformer Modell übernimmt, wird meines Verständnis nur noch genügend Tensor TOPS benötigt, oder? Demnach könnte es theoretisch auch auf Ampere und Turing laufen (wenn genug Tensor Kerne vorhanden wären)... mir ging es aber erstmal nur um das Verständnis, warum das für die 4000-Serie nicht gehen sollte.

Update: Vielleicht noch etwas um darüber nachzudenken. Wir wissen natürlich nicht, wie stark die KI Modell optimiert wurden. Mit Model Pruning können die Modelle nochmals verkleinert werden so, dass die Modelle auch auf mobiler Hardware laufen würden. Nvidia hat hier auch Anwendungsfälle, da sie die Hardware für Nintendo herstellen und Nintendo DLSS nutzen wollen. Siehe auch das Patent von Nintendo: https://www.eurogamer.de/neues-nint...e-grafik-und-speicher-der-switch-2-optimieren.
Zugegeben Modell Pruning bedeutet auch, dass die Performance der Modelle schlechter werden. Ich bezweifle jedoch, dass es so schlecht wird, dass man es nicht nutzen könnte.

Update 2: Okay, habe was gefunden nach dem Hinweis von @Hungerstreit (danke dir):
To address the complexities of generating multiple frames, Blackwell uses hardware Flip Metering, which shifts the frame pacing logic to the display engine, enabling the GPU to more precisely manage display timing. The Blackwell display engine has also been enhanced with twice the pixel processing capability to support higher resolutions and refresh rates for hardware Flip Metering with DLSS 4." - Quelle
 
Zuletzt bearbeitet:
Blackwell hat hardware um sicherzustellen dass das frame pacing mit 3 fake frames sauber funktioniert deswegen gibt es das nicht fuer die 40xx Karten.
 
  • Gefällt mir
Reaktionen: .Sentinel., ElliotAlderson und RealSamFisher
Vielleicht sollte man hier auch mal definieren, was alle mit nativ meinen, die darüber schreiben

für mich ist nativ = ohne Upscaling oder FG
aber mit Kantenglättung (DLAA oder TAA)

Ich teste in jedem Spiel am Anfang unterschiedliche Kombinationen und entscheide nach Optik und FPS. Die benutzte Technik dahinter ist mir dann eigentlich egal, wenn ich zufrieden bin.

DLSS war IMHO meistens nicht zufriedenstellend, sondern höchstens die Notlösung.

Ich habe in den letzten Jahren viel mit RTX 3060 und 4090 gespielt, auch auf Konsolen. Hatte und hab viel nachzuholen. Aktuelle Vergleiche habe ich jedenfalls genug.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey und PrimeskyLP
Martyn schrieb:
GeForce RTX 4070 Super hat man bis November für knapp unter 600€ bekommen, und das war dann schon ein Preis den ich für Causal Gamer noch in Ordnung finde.
und ich finde, wenn ich 600€ für eine GPU ausgebe, dann nutze ich das ding auch sehr sehr viel und nicht "casual" (es heißt CASUAL nicht CAUSAL. schreib doch Gelegenheitsspieler, wenn du des englischen nicht so mächtig bist)

Martyn schrieb:
Aber wenn man sich eine richtige Grafikkarte kauft, dann führt kein Weg an Nvidia vorbei.

Da kann man schon sagen das Nvidia bei Grafikarten fast konkurrenzlos ist, und AMD und noch mehr Intel völlig hinterherhinken.
so ein quatsch! mehr schreibe ich dazu nicht. ist mir die mühe nicht wert
 
  • Gefällt mir
Reaktionen: PrimeskyLP
Wakasa schrieb:
Das muss doch Marketing sein. Die Frage ist nur, worauf soll das hinaus.
Naja, es verkauft sich halt wesentlich besser wenn man behauptet die 5070 wäre einer 4090 gleich als wenn Jensen gesagt hätte "Also letztendlich ist die 5000er Serie einfach die 4000er Serie nur halt mit GDDR7 Ram, allerdings nicht mehr Ram außer die 5090 und damit eigentlich nicht wirklich viel von nutzen und das einzige was wir sonst zu bieten haben ist noch mehr Framegeneration. Ach ja und die einzige Karte die ordentlich mehr Shadereinheiten bekommen hat wird auch nochmal um einiges teurer weil uns die 4090 noch nicht teuer genug war, bei den anderen ändert sich ja nichts, also bleibt der Preis gleich".

Wenn nicht jeder für 2500€ ne 5090 kauft wie soll Jensen da seine Lederjackensammlung erweitern?
 
longusnickus schrieb:
und ich finde, wenn ich 600€ für eine GPU ausgebe, dann nutze ich das ding auch sehr sehr viel und nicht "casual" (es heißt CASUAL nicht CAUSAL. schreib doch Gelegenheitsspieler, wenn du des englischen nicht so mächtig bist)
Aber warum? Also, du brauchst das natürlich nicht beantworten, aber …

Das klingt so nach "wenn ich schon 500€ im Jahr für dieses MMO ausgebe, dann spiel ich das doch wenigstens Hardcore und nicht nur wenn's hoch kommt 7 Stunden die Woche".

Es ist doch egal ob ich jetzt viele hunderte von Stunden im Jahr am Rechner daddel oder nur ein paar Stunden die Woche. Wenn mir nix besseres mit meinem Spaß Geld einfällt oder ich halt einen bestimmten Anspruch an die Grafik habe oder ein bestimmtes Spiel es braucht ... dann geben auch Casuals 600€ für ne GPU aus. Oder auch 6k für ein Cockpit. 😅

Enthusiast und Gelegenheitsspieler schießen sich ja nicht gegenseitig aus.
 
  • Gefällt mir
Reaktionen: DiamondDragon, Veitograf, iron_monkey und eine weitere Person
Lefty220 schrieb:
Die test sind 5090 mit RT + DLSS vs. 4090 mit RT +DLSS gemacht wurden.

Die 5070 kommt mit DLSS4 an die 4090 mit DLSS3 ran.
Wenn das gilt und 1 echter plus 1 generierter für 4090= 1 echter und 3 generierte Frames für 5070, zeigt mir das dass die 5070 ohne magisches Hokuspokus immer noch nur etwa halb so schnell ist wie ne 4090 im klassischen Raster und damit einfach eine 4070 unter anderem Namen. Ich glaube dass diese Generation denn niedrigsten Rasterperformancesprung vermutlich aller Zeiten erreicht. Ich glaube der Sprung von einer 4070 auf ne 5070 oder ne 4080 auf ne 5080 ist geringer als der Sprung der 1000er auf die 2000er Serie und das fanden Leute schon Kacke. Aber hey, zumindest haben sie DLSS4 um Leute zu blenden.
 
Rockbreak schrieb:
Wenn das gilt und 1 echter plus 1 generierter für 4090= 1 echter und 3 generierte Frames für 5070, zeigt mir das dass die 5070 ohne magisches Hokuspokus immer noch nur etwa halb so schnell ist wie ne 4090 im klassischen Raster und damit einfach eine 4070 unter anderem Namen. Ich glaube dass diese Generation denn niedrigsten
DF meinte das man nur 71% mehr FPS erreicht, also, dann wären wir immer noch bei so 17% mehr Performance rum ;-)
Also bisserl was wird schon übrig bleiben, ist ok. Aber fürs Marketing sind die MFG Zahlen halt soviel besser.
 
  • Gefällt mir
Reaktionen: Raider_MXD
Zurück
Oben