News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Pisaro schrieb:
Finde ich für Gaming definitiv. Wie viel schneller war die 4090 im Vergleich zur 3090 im Minimum, also ohne DLSS etc? Irgendwas um 80%?
Und man hat 2-2.5 Nodesteps dafür mitgenommen. Hier gabs keinen Nodestep. 30% Mehrleistung sind daher durchaus respektabel.

Pisaro schrieb:
Hier werden das wohl um die 30% sein. Also ja, für mich seit langer Zeit mal wieder eine richtige Gurkenkarte im Highend von nVidia.
Naja. Das ist wie als wenn du in der Firme ohnehin schon 60-70% besser performst als der Nächstbeste und man dir sagt "du Scheiss Gurke hast nur 30% mehr Sales dieses Jahr generiert" während die Anderen alle nur 10% generiert haben und eben noch min. 60% hinter dir liegen. 😂

Also eine Gurke sieht für mich anders aus. Warten wirs mal ab, ich bin gespannt wie die Teile performen werden. Als nächsten Monitor hätte ich durchaus den neuen 5k2k von LG auf dem Schirm.:daumen:
 
  • Gefällt mir
Reaktionen: stevefrogs, daVinci und Fallout667
@SavageSkull

Na um die Regler weiter nach Rechts drehen zu können, Strom zu sparen und für VR kann man eh nie genug FPS haben wenn es denn mit MFG funktioniert.
 
Schlumpfbert schrieb:
Viele scheinen an der 5080 interessiert zu sein, kaum einer an der 5070 Ti, warum ist das so?
Weil es psychologische Hindernisse gibt, eine xx80(Super) gegen eine 5070Ti auszutauschen.
Und viele werden vermutlich ein Leistungsplus von 50% anstreben wollen.
 
  • Gefällt mir
Reaktionen: Apocalypse
Cat Toaster schrieb:
Es ist doch nicht so schwer zu verstehen, dass die 2000er-Serie für die meisten 1000er-Besitzer kein Gen2Gen Must-Buy-Upgrade wahr.
aha, wann war denn ein GPU Upgrade jemals ein "Must buy"?
Cat Toaster schrieb:
Kein Grund da wieder den gesamten Weltschmerz reinzuinterpretieren.
Gejammert, dass es eine langwegilige GEN sei, obwohl sie die 2 aktuell wichtigsten Technologien, bei denen überhaupt noch was passiert warst ja wohl du, das zum Thema "Schmerz"
 
Ich finde es schon lustig wie einige Leute damals den Start von der 40XX Serie wieder vergessen haben. Selbst seriöse Händler hatten damals 1000€ auf den Verkaufspreis der 4090 raufgeschlagen, und das über viele Monate.

Klar, damals war Corona, aber jetzt haben wir das viel größere "Problem" das Nvidia die nur knapp verfügbaren Fertigungslinien sicherlich kaum für Grafikkarten benutzen wird wo 300% Gewinn möglich sind, sondern für die AI-Karten wo 3000% Gewinn zu erzielen sind.

Naja mal schauen was in den Foren los sein wird wenn die 5090 bei Mindfactory und Konsorten dann nicht für unter 4000€ zu bekommen ist, wenn man sie überhaupt kaufen kann :D
 
  • Gefällt mir
Reaktionen: Raidiri
  • Gefällt mir
Reaktionen: jonderson
Gsonz schrieb:
Weil es sonst nur hakelige 30fps wären. Deswegen nutzt er ja FG, um die 60fps zu erreichen.
Und die 30fps (mit Reflex eingeschaltet) sind hakeliger als die 30+30Fake FPS mit demselben Inputlag?
Zumindest wird es nicht viele Artefakte geben, wenn nicht viel am Bildschirm passiert, wobei man ja bei wenigen Basis FPS sagt, dass die Artefaktbildung schlechter wird.

Tornavida schrieb:
und für VR kann man eh nie genug FPS haben wenn es denn mit MFG funktioniert.
Bei VR geht es einzig um den Inputlag, damit einem nicht schlecht wird. Da helfen Fake Frames mal gar nicht.
Für VR macht es Sinn eine höhere Auflösung mit DLSS zu füttern und zu downsamplen, was allerdings jede bisherige Nvidia kann
 
  • Gefällt mir
Reaktionen: jonderson und Apocalypse
Ich frag mich ob Nvidia rein technisch in der Lage wäre Dlss 4.0 auf die Vorgängerkarten zu packen, oder ob da wirklich irgendwas an der Hardware verknüpft ist?
 
  • Gefällt mir
Reaktionen: jonderson
Sollten Rohleistung und Effizienz bezüglich Raster und RT passen, könnte eine 5080 durchaus interessant sein.
Der Multi-FG part von DLSS4 ist m.M.n. aber ziemlich einfallslos. So etwas ähnliches, gibt es, wenn ich mich nicht irre, bereits mit lossless scaling für alle Karten.
Und entgegen den Behauptungen von Nvidia steigt die Latenz zwangsweise an.
DIe gezeigte Vergleichsfolie geht immer von der gleichen Basis Framerate aus. Ist klar, dass die Latenz da im Vergleich kaum steigt. Die Anzahl der "echten" Frames, bei denen auch die Eingaben verarbeitet werden bleibt ja schließlich gleich. Das grenzt ja schon an Täuschung.
Ein echter Vergleich würde die Latenzen bei gleicher Zielframerate zeigen. Erst wenn die Latenzen da nicht ansteigen stimmt die Behauptung auch.
 
  • Gefällt mir
Reaktionen: Recharging
Cameron schrieb:
Bis 2.400 EURO geh ich mit, sagte ich schon im September. Insofern: hammer News!

Und 5070 für 600 EUR... mit 4090 Performance, einfach stark, nVidia!

Freut mich als nVidia Aktionär, das man die Leute schon dazu bekommen hat, 2400 Euro als "Ok" anzusehen, und damit die Preise zu supporten.

Damit spielt man dann vielleicht 3-5 Blockbuster, und zahlt Effektiv für das Spiel mehrere hundert Euro (Spiel+Hardware)

Eigentlich total unvernünftig. Aber Geld scheint ja da zu sein :D
Von den Aktien Gewinnen, bezahl ich die 5090 aktuell daher aus der Portokasse :D

Aber schon traurig, das Performance "nur" noch mit Pseudo Bildern machbar ist und verkauft wird.
 
  • Gefällt mir
Reaktionen: jonderson, Brrr, Beatmaster A.C. und 5 andere
Laphonso schrieb:
Es sei denn FSR4 kann zaubern bei einer Handvoll exklusiver RDNA4 Titel, ich fürchte und denke, dass AMD dieses Schwert einfach zücken muss.

AMD hat nicht die Marktmacht um hier mit DLSS konkurrieren zu können, da die meisten Entwicklerstudios bei einem Market Share von 90 % auch DLSS in ihre Software implementieren werden. Eine handvoll exklusiver FSR4 Titel macht den Kohl nicht fett und wird nicht zu einem Verkaufsargument führen. AMD müsste iņ erster Instanz erst einmal die Entwickler überzeugen und das wird bei dem Marktanteil die größte Herausforderung.
 
  • Gefällt mir
Reaktionen: jonderson
Das Kühlkonzept ist der Hammer. 2 Lüfter die frei durchblasen können, weil die Platine in der Mitte sitzt.

Wenn Nvidia das bei der 5070Ti auch so handhabt, wird das eine echt leise Karte.

1736236933825.jpeg
 
  • Gefällt mir
Reaktionen: Apocalypse
SavageSkull schrieb:
Wenn das Gameplay doch einfach ist und 60FPS reichen, warum dann überhaupt Fake Frames einschalten?
Es gibt eben keine 60 FPS durchgehend, weil der MSFS/Flusi seit jeher (mit MSFS 2024 besser) prinzipiell CPU-limitiert ist und man in komplexen Szenarien und dutzenden Addons leicht in die 20er und 30er Zone gerät. Mit FG einfach Bilder verdoppelt - seitdem ist das Fliegen wirklich eine weit angenehmere Dimension.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JPsy, Apocalypse und Gsonz
5070 mega attraktiv aber leider wieder nur 12gbVRAM. Das reicht auf Dauer einfach nicht mehr.
 
Cameron schrieb:
mit 4090 Performance
und 4070 Speicher :freak:

Clayman79 schrieb:
5070 mega attraktiv aber leider wieder nur 12gbVRAM
Ja was denn jetzt? Mega attraktiv oder zu wenig Speicher?

@Artikel
Ich weiß ja echt nicht, was ich von dieser künstlichen Frame erzeugung halten soll. Ist das nicht jetzt schon stark von den Ausgangs FPS abhängig? Also 60 zu 100 ist gut aber 30 zu 60 eher Mist? Und dann wollen sie aus 30 FPS gleich 120 machen? Mit lauter Fake Bildern? Wo führt das hin? Die GPU berechnet nur noch 10 FPS und die restlichen 90 kommen von einer KI?

Ich weiß nicht...
 
  • Gefällt mir
Reaktionen: Solavidos und jonderson
Welches Netzteil für einen SFF PC wird denn Karte befeuern können glaubt ihr?
 
Ein Preisrückgang bei den "kleineren" Modellen indiziert, das nVidia mich größerer Konkurrenz in diesem Bereich rechnet. War damals mit der 2000 Generation und RDNA 2 auch schon so. Ob sie dieses mal Angst for RDNA 4 oder vor Battlemage haben wird sich aber noch zeigen müssen.
 
killerpixel schrieb:
Bei Entwicklern, die sich für die Performance der Games nicht auf Upscaling und vor allem Fake-Frame Slop verlassen können. Dann bräuchten wir den ganzen Scheiß auch gar nicht.
Die Argumentation kannst du genauso auf neue Fertigungsprozesse und Grafikgenerationen ummünzen.
Denn hätte man die nicht gehabt, weil bei 100nm Schluss gewesen, hätten sich die Entwickler ja mehr Mühe geben und einfach 10 Jahre lang optimiert... :D

Nein ganz im Ernst. Ich kann es immer noch nicht glauben mit welch einer Arroganz Entwicklern immer dasselbe vorgeworfen wird, obwohl absolut keine Expertise vorhanden ist. Einfach eine Frechheit.
killerpixel schrieb:
Das wird absolut widerliches Spielen mit Input Lag des Todes und man wird in neuen Titeln keine Wahl haben, weil die alle wie Dreck laufen.
Der Input Lag ist auch nicht schlechter wie man früher gespielt hat. Aber früher war ja alles besser.
Dann spiel mal bitte ein Spiel von damals. Hoher Inputlag, Flimmer-Grafik, Verwaschene Texturen, Bildstabilität des Grauens im Gegensatz zu heutigen Techniken wie die DLSS Transformer Models. Das einzig widerliche ist deine Technikverdrossenheit.
RaptorTP schrieb:
Kleinere, dünnere, fragilere PINs können logischerweise nicht das doppelte mitmachen. Ganz einfach.
Dann zeige mir bitte die entsprechenden Messungen die deine Theorie belegen. (Die gibt es nicht)
Tatsache ist, das kann man durch eine höhere Qualität der Steckverbindung sehr wohl, wenn Weiblein und Männlein eine stabile und mit ausgleichendem Druck/Fläche versehene Kontaktfläche aufweisen, welche bei den alten Steckern viel größer aber viel weniger genau war.
RaptorTP schrieb:
kA wie man diesen Kernschrott supporten kann. Ein absolutes Trauerspiel.
Ich supporte das nicht, ich reagiere nur allergisch, wenn jemand mit Erfindungen um sich wirft und dann auf Nachfrage nie etwas konkretes liefert.
RaptorTP schrieb:
5070 Ti mit 16GB und 2x 8pin würde ich feiern. Aber Nvidia ist halt Nvidia.
Spielt absolut keine Rolle. Spar dir deine Verschwörungstheorien.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daVinci
So heftig wie von mir erwartet, sind die Preise dann ja doch nicht geworden. Allerdings werde ich diesmal wohl sehr wahrscheinlich zu einer AMD-Karte greifen, bessere P/L. Finde ich zumindest. Außerdem kann ich dann weiterhin diesen neuen Stromanschluss von Nvidia aus dem Weg gehen. Na ja, bin insgesamt sowieso noch nicht sicher, ob ich schon in diesem Jahr upgraden werde. Eigentlich habe ich keine Probleme mit meiner RTX 2070 Super. :D
 
Zurück
Oben