News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

legenddiaz schrieb:
Ihr habt die Karten nichtmal in eure Händen, also wie könnt ihr da von fake reden?!
Weil alles was interpoliert ist = per se Fake ist. Die Technik ist dabei Rille. Daher Böse und gehört auf den Scheiterhaufen! :stacheln:
Dazu muss man die RTX 50xx nicht erst getestet haben. Das hat man im Urin.

Video-Aufnahmen, Fernseher, Beamer .... only nativ! Ansonsten Boykott.
Die erzielbaren Ergebnisse interessieren nicht.

/s

Da kannst´e 1000 Mal sagen, oh ja interessant aus Gründen. ABER warten wir mal besonnen die Tests ab denn am Ende kackt die Ente.
Aber nö, die Leute wissen es vorher immer besser. Und noch besser!, sie werfen dir vor du würdest vorgeben es selbst ja besser wissen zu wollen. Und das geht ja mal gar nicht ;)
Politik und Hardware-Releases lassen den Äther kochen! Kannst du dir nicht ausdenken :daumen:
 
  • Gefällt mir
Reaktionen: mazO!, SaschaHa, LamaMitHut und 2 andere
PS habe irgendwo mal erwähnt vor langer Zeit DLSS4 Only RTX50er und so wird es weitergehen bis zum Abo Modell RTX60er plus Pro Abo für DLSS5 oder so.
Ergänzung ()

Zhan schrieb:
Als AI-Karte ist die 5090
Naja stimmt nicht ganz Ai braucht VRAM und da ist auf der RTX5090 viel aber nicht genügend.

Deswegen ja AMDs Strix Halo 😅
 
  • Gefällt mir
Reaktionen: Dittsche und QXARE
Wie ich damals 4000 Schilling (in DMark durch 7 xP) in der Unterstufe für die Monster 3D elend lange zusammengekratzt habe...
Einen größeren Grafikschub wird es wohl nie wieder auch nur ansatzweise geben :) Ausser evtl mal mit ner QuantenGPUs oO

Btt: ich verstehe das gesudere nicht, PL ist AMD sehr gut aufgestellt, NV hat halt mittlerweile das teurere stärkere Zeug
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und iron_monkey
Wenn ich Lederjäckchen wäre, hätte ich diese Generation nur MFG 3x gebracht. 4x dann erst nächste Generation.

Insofern ist nV hier ungewohnt generös. Wahrschienlich gibt's nen technischen Grund, warum man 4x und nicht 3x machen kann. ^^
 
Kraeuterbutter schrieb:
ch sprach aber von 4k x 4k ish Dispalys..
Achso, ich dachte du meinst 4k display pro Auge, und nicht ein quadratisches 4kx4k display und das dann 2x.

Und ja, die 3840 x3744 Displays mit den 51ppd würde ich auch gerne mal ausprobieren, einfach nur ums mal gesehen zu haben, am besten gleich auch mit dem autofocus und 51 ppd passthrough.

Aber anders als bei einer 4090/5090 fällt die aktuelle Varjo für mich komplett raus, da könnte ich nicht mal, wenn ich wollte, aber mal testen wäre schon nett. Hmm, scheinbar gibt es in der Stadt nur läden mit der Aero. Schade.
Ergänzung ()

Kommando schrieb:
Wenn ich Lederjäckchen wäre, hätte ich diese Generation nur MFG 3x gebracht. 4x dann erst nächste Generation.

Insofern ist nV hier ungewohnt generös. Wahrschienlich gibt's nen technischen Grund, warum man 4x und nicht 3x machen kann. ^^
Achwas, MFG x8 kommt dann nächste Generation und x16 danach, bis man halt bei 1000hz Monitoren und passender FPS ist. Und dann halt auf Mobile Gamer konzentrieren, weil am Desktop nix mehr zu holen ist.
 
  • Gefällt mir
Reaktionen: Kommando und Mcr-King
Sierra1505 schrieb:
Weil alles was interpoliert ist = per se Fake ist. Die Technik ist dabei Rille. Daher Böse und gehört auf den Scheiterhaufen! :stacheln:
Dazu muss man die RTX 50xx nicht erst getestet haben. Das hat man im Urin.

Video-Aufnahmen, Fernseher, Beamer .... only nativ! Ansonsten Boykott.
Die erzielbaren Ergebnisse interessieren nicht.

/s

Da kannst´e 1000 Mal sagen, oh ja interessant aus Gründen. ABER warten wir mal besonnen die Tests ab denn am Ende kackt die Ente.
Aber nö, die Leute wissen es vorher immer besser. Und noch besser!, sie werfen dir vor du würdest vorgeben es selbst ja besser wissen zu wollen. Und das geht ja mal gar nicht ;)
Politik und Hardware-Releases lassen den Äther kochen! Kannst du dir nicht ausdenken :daumen:
Danke für deine Antwort, hast meine Gedanken nur bekräftigt 😅👍
 
Sas87 schrieb:
Tja, genau wie ich vermutet und gesagt habe, Nvidia wird die Preise nicht noch weiter erhöhen.
4090 1.949 Euro
5090 2.329 Euro
Also wenn 380€ für dich kein(e) Geld (Erhöhung) ist, kannst du mir das jeden Monat auf mein Konto überweisen :daumen:
 
  • Gefällt mir
Reaktionen: Zhan, OpenSystemFan, valnar77 und 9 andere
Abwarten, Tee trinken und auf die richtigen Benchmarks warten! Was mich interessiert, ob GDDR7 positiven Einfluss auf den Speicher hat (Ergo weniger VRAM -Verbrauch?)
 
Eorzorian schrieb:
Also Hardware unter RTX 5090 soweit beschneiden, sodass man weitere „Fake-Frame-Technologien“ bringt um FPS-Vergleiche positiv darzustellen? Somit wird dem Kunden ein gutes Angebot suggeriert, wenn besagte Spiele die Features unterstützen „sollten“.
Großes Kino, aber den Film habe ich schon mehrmals gesehen.
Die Preise mit dieser VRAM-Bestückung sind auch ein Witz.

Wird ebstimmt auch noch paar nachteile mitbringen, dlss 3 hat auch hin und wieder bildflackern.
 
  • Gefällt mir
Reaktionen: iron_monkey und DagdaMor
Sierra1505 schrieb:
Weil alles was interpoliert ist = per se Fake ist. Die Technik ist dabei Rille. Daher Böse und gehört auf den Scheiterhaufen! :stacheln:
Dazu muss man die RTX 50xx nicht erst getestet haben. Das hat man im Urin.

Video-Aufnahmen, Fernseher, Beamer .... only nativ! Ansonsten Boykott.
Die erzielbaren Ergebnisse interessieren nicht.
:daumen:
wobei:
wenn die Leistung für Raytracing bei 4k nicht reicht (nativ) und man das abschaltet..
dann ist man eigentlich ja auch schon wieder in der Fake-World..
Spiegelungen sind dann quasi "gefake", schatten nicht korrekt etc. etc.
 
Sierra1505 schrieb:
Weil alles was interpoliert ist = per se Fake ist.
Leider hat dieses Upscaling immer noch einen sehr schlechten Ruf, obwohl es auf andere Weise in sehr vielen Bereichen zum Einsatz kommt.

Das gesamte Rasterization-Verfahren ist lediglich eine Abstraktion dessen, was man eigentlich erreichen will. Alle Algorithmen sind so ausgelegt, dass sie mit einer bestimmten Leistung in einem bestimmten Zeitintervall bewältigt werden können. Dinge, die viel Rechenleistung kosten, wie etwa Reflektionen etc., wurden (insbesondere ohne Ray Tracing) vorgerendert oder angepasst und dann beispielsweise als Textur auf die entsprechenden Objekte gelegt und lediglich dynamisch verschoben, um eben den gewünschten Effekt möglichst authentisch zu machen. Wirklich präzise bzw. realitätsgetreu ist das jedoch nicht.

"AI-Upscaling" ist lediglich ein weiterer Algorithmus, um hier mehr Leistung aus der Hardware herauszuholen, und in diesem Fall höchst dynamisch und in Echtzeit. Per Definition mag man es als Fake definieren, aber das passiert wie gesagt an sehr vielen anderen Stellen auch, und dann meist ohne "Standard" und mit sehr gemischten Ergebnissen.

Auch Smartphone-Kameras erreichen ihre Ergebnisse vor allem durch AI. So wird beispielsweise der Weißabgleich und die Farben angepasst, und dann werden mehrere Aufnahmen zu einer zusammengefasst (HDR), um ein authentisches und gutes Ergebnis zu erzielen. All das wäre per Definition "Fake", da eben nicht die nativen Daten gespeichert werden. Aber das Ergebnis ist dann eben besser als das, was man sonst hätte.

Die Kritik am Upsclaling kann ich durchaus nachvollziehen, aber dennoch ist das Ergebnis ein absoluter Mehrwert in den meisten Situationen. Von daher eine gute Entwicklung, aber eben mit Schwächen. Viele sehen das anders - und das verstehe ich - aber das ist dann eben eine Art "Grauzone" und kein Schwarz und Weiß.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und valnar77
  • Gefällt mir
Reaktionen: coral81
Kraeuterbutter schrieb:
wobei:
wenn die Leistung für Raytracing bei 4k nicht reicht (nativ) und man das abschaltet..
dann ist man eigentlich ja auch schon wieder in der Fake-World..
Spiegelungen sind dann quasi "gefake", schatten nicht korrekt etc. etc.
Naja - keine Ahnung, ob Du es schonmal wahrgenommen hast... aber... Computerspiele sind IMMER "Fake" :D

Ich finde das "Fake"-Gedöns auch nicht schlimm.
Mich ärgert, dass offenbar sehr ähnliche Technik... also quasi ältere Technik nicht wesentlich günstiger verkauft wird. Darüber redet irgendwie niemand.

Offenbar wird hier neue DLSS-Software verkauft. SOFTWARE. Das finde ich völlig OK. Diese wird zwangsverbundled mit Hardware - dies ist offenbar ähnlich in der Leistung, wie die 40xx-Technik. Finde ich gar nicht schlimm.
Aber üblicherweise wird ausgereifte Technik nach Jahren günstiger am Markt angeboten! Und das geschieht hier nicht. Und das spricht auch kaum jemand an. Finde ich nicht so wirklich gut.
 
  • Gefällt mir
Reaktionen: OpenSystemFan und bogge101
So wie ich mir das bereits dachte.
Die RTX 5090 wird sich wohl bezüglich der Raster-Performance in etwa 30% vor der RTX 4090 einreihen,
wird dafür aber wohl auch 20-30% mehr Strom verbrauchen.
1736289266949.png

Eine böse Zunge könnte schon fast von einer Nullnummer, bezüglich der FPS / W sprechen.
Dazu gibt es noch in einigen ausgewählten Titeln 4x Fake Frame Generation.
Auch das dachte ich mir bereits das Nvidia in diese Richtung gehen wird um damit das Tor zur Hölle
aufzustoßen.
Die nächsten sind dann wohl Intel mit 6x Fake Frame Generation
und dann AMD mit 8x und dann wieder Nvidia mit 20x.

Aber mal abwarten was die Tests am Ende bringen werden, vielleicht gibt es ja doch noch etwas Hoffnung
und es ist doch nicht ganz so düster wie es momentan den Anschein erweckt.
Aber diese Vorstellung war auf jeden Fall mehr als dürftig und passt eigentlich gar nicht so recht zu Nvidia.
Was bleibt denn am Ende noch ohne die ganzen Fake Frames?
 
  • Gefällt mir
Reaktionen: bogge101, Ralle321, Simonsworld und 6 andere
SaschaHa schrieb:
Die Kritik am Upsclaling kann ich durchaus nachvollziehen, aber dennoch ist das Ergebnis ein absoluter Mehrwert in den meisten Situationen. Von daher eine gute Entwicklung, aber eben mit Schwächen. Viele sehen das anders - und das verstehe ich - aber das ist dann eben eine Art "Grauzone" und kein Schwarz und Weiß.
FG, FFG passt halt so schön, mal davon ab trennt es sehr schön Frames voneinander ab Input erlauben direkt zu verfolgen, von solchen die nicht.

Das FG oben drauf noch recht viel Ghosting Probleme, etc hatte, darauf gepfiffen.

Bildqualität war ja nie 100% zwischen Herstellern vergleichbar, und jetzt es es das halt dann auch nimmer zwischen Unterschiedlichen DLSS Featuren, ist ja egal.

Bringen tut es ja was, aber eben primär bei der Optik und weniger fürs Spielgefühl. Bin trotzdem voll dafür, so man Ghosting und Artefakte besser in den Griff bekommt das ganze bis Faktor 10 oder so auszubauen.

Dann klappt das mit den 1000hz Screens und 1000 FPS vielleicht noch dieses Jahrzehnt und man kann endlich mal wieder Text lesen, während man ein Fenster verschiebt. ;-)
 
  • Gefällt mir
Reaktionen: Quidproquo77, Mcr-King, Capthowdy und 2 andere
ArrakisSand schrieb:
Die nächsten sind dann wohl Intel mit 6x Fake Frame Generation
und dann AMD mit 8x und dann wieder Nvidia mit 20x.
Ich hoffe mal das bei 20x dann Schluss ist, klingt nicht zielführend darüber hinaus zu gehen ... oder braucht man wirklich mehr als 2000hz Displays? 120hz CRT war ja ziemlich nett, hat 200hz wirklich noch mehr Schärfe in Bewegung gehabt?
 
Zurück
Oben