News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

kachiri schrieb:
Das haut alles schon in etwa hin. Vermutlich kalkuliert NV halt Kursschwankungen mit ein oder was auch immer.
Heute würde die 4070S wohl eine UVP von 699 Euro verpasst bekommen.
Unter GARANTIE nehmen die etwas mehr als absolut nötig, einfach damit sie nicht alle fünf Tage ihre Preise anpassen müssen. 🤣
Die haben keine Lust Währungsrisiken in Kauf zu nehmen für hunderttausende GPUs im Lager und potentiell Millionen zu verbrennen nur weil man hier "zu niedrig" war.
 
  • Gefällt mir
Reaktionen: kachiri
SKu schrieb:
Das HD-PCB sieht interessant aus. Das können die kleinsten wassergekühlten GPUs werden. Bei einem 2-Slot Luftkühler und 575W TDP würde ich keine leise Geräuschkulisse erwarten.
Aus meiner Sicht ist das PCB tatsächlich das interessanteste an der ganzen Meldung. Man sieht, dass Nvidia in der Consumer Sparte nun ähnlich nachverdichtet wie im Datacenter Umfeld. Das ist eine gute Entwicklung, wenn ich mir anschaue, wie grobschlächtig oder ungelenk so manche PCBs in den letzten Jahren aufgebaut waren. Eine Nachverdichtung des PCB erhöht natürlich ggf. auch die Anzahl der nötigen Layer etc. und damit auch die Kosten, aber Grafikkarten müssten abseits des Kühlers oft nicht mehr so groß sein. Vllt. setzt das einen Trend zu etwas kleiner werdenden Karten.

Patrick.Star schrieb:
Schon krass wie klein das PCB der FEs und jetzt alle 2 Slot sind. Bei den custom designs hat sich da bei den ersten Ankündigungen eher wenig getan. Bin schon gespannt wie sich das auf die Kühlleistung auswirkt. Meine 4090 FE läuft nämlich unter Vollast meistens nur zwischen 50-55 C.
WIe gut sich das ganze so hochverdichtet kühlen lässt wird sich zeigen. Die GPU und der VRAM sollten hier aber die meiste Abwärme erzeugen. Bzgl. GPU und VRAM hat sich nicht wirklich etwas verändert.

Taxxor schrieb:
Und hätten Spiele mit der Optik von heutigen Medium Settings im Bestfall, weil die Hardware zu mehr nicht in der Lage ist.
Das ist ein Irrtum. Aktuelle Spielereleases der neunten Generation sind bis auf einige wenige positive Ausnahmen nicht wesentlich hübscher als Spiele aus vorherigen Generationen. Der Unterschied liegt aber im Leistungshunger, welcher daraus resultiert, dass die Industrie aktuell einen starken Fokus auf die Unreal Engine legt und es in den frühen Versionen Performanceprobleme mit Nanite und Lumen gibt. Diese Lösungen fressen sehr viel von der prinzipiell vorhandenen Mehrleistung auf. Hier wurde mit Updates allerdings stark nachgebessert. Es ist aber nicht zu erwarten, dass ältere Releases der neunten Generation mit neuen Engine Versionen versehen werden. Zusätzlich ist der Support und die Dokumentation seitens Epic mit dem Versionssprung mMn auch etwas schlechter geworden.

Four2Seven schrieb:
Früher musste man das Beste aus den begrenzten Ressourcen rausholen. Heute wird fast nichts mehr großartig optimiert, DLSS und FSR werdens schon irgendwie richten. Fängt ja teilweise sogar bei 1080p an. Vorausgesetzt, man nutzt keinen Frame Lock und bildet sich ein, alle Regler auf rechts zu stellen. Gepaart mit den fast schon absurden Preisen ist das schon eine sehr traurige Entwicklung.

Für mich halbwegs interessant scheint die 5070 Ti zu sein.
Siehe meinen obigen Kommentar. Das ist kein guter Trend, leitet sich aber daraus ab, dass die Spieleindustrie wesentlich profitorienter Arbeit als noch vor einigen Jahren. Spiele werden schlecht optimiert auf den Markt geworden und die Targetsysteme auf die optimiert wird siedeln sich in der höheren Leistungsklasse an. Es gab mal Zeiten da konnte man zwar zwischen Low und Ultra gewaltige Unterschiede in der grafischen Präsentation erkennen, allerdings haben die Entwickler es geschafft, die Spiele mit niedrigen Details dennoch hübsch aussehen zu lassen. Dieser Trend ist zunehmend weniger erkennbar, niedrige Settings bedeuten mittlerweile eine gewisse grafische Unerträglichkeit.

Shader schrieb:
Die Founders Edition scheint ein weiteres erstklassiges Hardwaredesign zu sein.
Solch ein Mini-PCB ist schon eine Ansage und das der Lüfter auf beiden Seiten durchblasen kann, nicht schlecht der Specht.

Und auch zu "durch die Hilfe von AI immer weniger Frames klassisch zu erstellen.", dann scheint AI hier nicht gerade für ein Energiewunder zu stehen. Die Richtung nach oben ist jedenfalls bedenklich.
Siehe auch meinen obigen Kommentar dazu.

MoD23 schrieb:
Tja jetzt sind wir endgültig und total an dem Punkt den Nvidia schon seit Jahren betont, nämlich das sie eine Software Company sind, die dazu passende Hardware anbietet. Alles ist Software und Features.

Was ich irgendwie tragisch finde, dass die Entwicklung von Technologien wie DLSS, FSR und FG eigentlich fantastisch ist, wenn sie denn als das gesehen und genutzt werden würden, was sie für mich sein sollten, nämlich optionale Zusatzfeatures. Leider war es fast schon abzusehen, dass diese Technologien natürlich sofort "missbraucht" werden, um das Einzige zu steigern, was nun mal in unserem Wirtschaftssystem wichtig ist, nämlich den Profit.

CB hat schlicht Recht, dass Nativ zumindest für die überwiegende Zahl an AAA Games tot ist. Wir haben doch die Benchmarks gesehen, wo selbst eine 4090 in 1080p die einzige Karte war, die über 60fps lag und das in 1080p! Was soll man da schon machen? Es bleibt dir gar nichts anderes übrig, als DLSS oder FSR zu aktivieren oder halt die Regler massiv nach links zu ziehen, allerdings kommt man sich da schon ziemlich verarscht vor, wenn man das mit seiner neuen z.B. 1000€ Graka machen muss.

Leider haben wir ja auch auf der Engine Seite eine unschöne Dominanz der UE5. Ich habe nun tatsächlich nicht den Einblick und die Expertise zu wissen, ob die UE5 wirklich schlecht performed oder ob die Entwickler einfach Zeit und Kosten sparen, um Performance Probleme mit eben Upscaling zu erschlagen, aber weil sich halt alles um Kohle dreht tendiere ich schon in die Richtung. Games werden immer aufwändiger und teurer in der Entwicklung und Zeit ist Geld. Das die "fertigen" Games, dann beim Kunden reifen, ist ja leider alles andere, als die Ausnahme von der Regel.

Alles keine guten Entwicklungen und ich würde mir wünschen, dass man da als PC Gamer Community mehr zusammen halten und Druck aufbauen würde, statt irgendeinen vollkommen albernen und total unlogisch kindlichen Lagerdenken anzuhängen und Konzerne anzubeten, die nur euer Bestes wollen, nämlich eure Kohle.

Sorry, für die Predigt über das große Ganze. 🤣
cypeak schrieb:
Manche können das offenbar so gar nicht einordnen, und man merkt fast schon, dass das Dranklatschen von "AI" an alles Mögliche Früchte trägt – Rasterizing wird als lästige Vergangenheit angesehen und als das notwendige Übel, damit "AI" etwas zum Verarbeiten hat, woraus dann auf wundersame Weise FPS entstehen.

Sicherlich hat KI eine Relevanz und wird vieles verändern, und ja, DLSS/FSR und Konsorten haben auch Gutes gebracht, aber dass Leute dann so blind und gutgläubig sind und einfach Marketing-Narrative übernehmen, ist schon erschreckend.

Dass man sich an proprietäre Lösungen einzelner Hersteller bindet? Ach was, halb so wild...

Monopolartige Marktstellung? Passt schon...
n8mahr schrieb:
Bin ich der Einzige, der es bedenklich findet, dass die größten "Leistungszuwächse" vermutlich durch herstellerabhängige Kombinationen aus Software und Hardware erreicht werden, und die Karten faktisch gar nicht so viel "schneller" sind in Rohleistung, sondern besser mit speziellen Tricks arbeiten, die – wie hier zum Beispiel – nur auf NVIDIA-Karten und nur bei bestimmten Spielen funktionieren?

Als Kunde stellt sich mir die Frage: Werden wir eventuell verarscht, und das meiste davon könnte auch mit älteren Karten gut funktionieren und eine große Leistungssteigerung bewirken? Meine Laienmeinung dazu: Ja, wird aber künstlich verhindert.
Das Marketing und auch das Vendor Lock-In funktioniert an der Stelle sehr gut. Zusätzliche werden Applikationen immer komplexer, weshalb sich weniger Leute mit derart anspruchsvollen Themen tiefergehend auseinander setzen. Das ist keineswegs despektierlich ggü. den Personen gemeint, da dies auch einen gewissen zeitlichen Mehraufwand bedeutet, aber genau da setzt das Marketing an. Zusätzlich gibt es eine aktuelle augenscheinliche Marktdominanz von Epic, wo man mit den ersten Versionen der Unreal Engine 5 noch massive Performanceprobleme hatte. Diese sind zwar mittlerweile gelöst oder werden in späteren Releases angegangen, aber die wenigsten Entwicklerstudios werden hingehen und die Releases auf neuere Personen migrieren, da dies kaum einen Mehrgewinn bringt. Die Spieleindustrie ist noch wesentlich zahlen- und gewinngetriebener als sie es vor vllt. 15 Jahren und früher war, was sich auch massiv auf die Qualität der Spiele niederschlägt, von rühmlichen Ausnahmen mal abgesehen. Dass prinzipiell grafisch anspruchsvoll und hochperformant auf Mittelklasse Hardware geht zeigen dann solche Spiele wie Tiny Glade, welches aktuell eine der fortschrittlischsten Realtime Global Illuminations nutzt. (Hacker News Beitrag dazu) Den Entwickler ist das natürlich eher wenigen anzulasten als den Konzernen und dem Management bzw. den turbokapitalistischen Interessen, welche dahinter stecken. Allgemein ist der aktuelle Trend zu Schrottreleases und dem Verpuffen von Mehrleistung kein guter. Den haben allerdings auch "wir" als Konsumenten zu verschulden. Vllt. auch gerade die Leute, die sich jedes Jahr gebetsmühlenartig und total unkritisch Ihr Battlefield, CoD, Fifa etc. kaufen.

Shoryuken94 schrieb:
Monitoranschlüsse kann man zur Not mit zweiter Platine und ggf. Kabelverbindung leicht verlegen, aber PCI Express wird da schon schwerer. Freu mich schon, wenn die ersten auseinandergeschraubt werden. Und wie gut das funktionieren wird.
Vmtl. wird es sich hier lediglich um den Teil der Platine in dem Rendering halten, welcher alle elementaren Komponenten der Grafikkarte enthält. Vllt. oder wahrscheinlich verfährt man hier wie mit anderen ähnlich hochintegrierten Lösungen aus dem Datacenter-Umfeld und der gezeigte Part ist auf eine weitere Platine aufgesattelt, auf welcher die Displayanschlüsse und das PCIe Interface verbaut sind. Erste Hands-Ons und Tests werden es zeigen, ich bin sehr gespannt!

Laphonso schrieb:
1000 Postings geknackt, Respekt😁
Wovon die meisten ehrlich gesagt sehr wenig Inhalt hatten. Mal gucken wie lang der Thread noch wird.
 
  • Gefällt mir
Reaktionen: BlueBringer, Abrexxes, edenjung und 2 andere
Simanova schrieb:
Schau dir mal Kingdome Come Deliverance 2 an.
so sehr ich mich auf das Spiel freue, aber grafisch überzeugt mich bisher noch kein Trailer wirklich.
Und der Knackpunkt ist wieder mal die Beleuchtung, bei der die Charaktere alle eingefügt wirken und sich nicht richtig in die Umgebung einbinden.
Da sind die letzten UE5 Spiele allesamt imposanter gewesen.

Auch bezeichnend, dass es für das extra rot markierte Ultra Setting ganz ohne DLSS nur ne 4080 für 1440p 60FPS benötigt. Da sieht man, was an Potential liegen gelassen wurde
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, Celinna, ElliotAlderson und eine weitere Person
Sehr interessante Info:

RTX 4090: 76.3 Milliarden Transistoren auf 609 mm² = 125 MTr/mm²
RTX 5090: 92 Milliarden Transistoren auf 744* mm² = 124 MTr/mm²

Im TSMC N3 Prozess sind wir dagegen bei >200 MTr/mm². Z.B. hat das SoC vom iPhone 16 ~19 Milliarden Transistoren auf 90 mm², also 211 MTr/mm². Ich denke wenn dann 2027/2028 die RTX 60 Generation vielleicht den Schritt zu 3nm wagt (größere Chips mehr schwierig), dann dürfte dieses Verhältnis auch in Rohleistung umgesetzt werden.

* +- "hat noch keiner den Messschieber drangehalten"-Toleranz

"4N" ist btw. der nVidia-Marketingname für eine Variante von TSMC N5 (2020 production, u.a. zu finden im iPhone 12 SoC).
 
Kraeuterbutter schrieb:
ist bissal wie beim Auto: wenn ich da sage: ABS ist fake... man soll gefälligst Bremstests nur mit ausgeschaltetem ABS machen
Ach der Autovergleich hinkt bei der Bremse aber ganz schön, wenn es um die rohe Leistung geht. Die bekommst Du dort nur mit mehr Energie, also Leistung. Nicht mit Software. Vlt. maximal mit der Einspritztechnik oder ähnliches, aber das ist eher wieder Hardware statt Software.
 
  • Gefällt mir
Reaktionen: Rockbreak, edenjung, iron_monkey und eine weitere Person
Die Hohen Balken sind ja nur Augenwischerei ... interessant wird ein Vergleich von Vorgänger zur neuen Karte also z.B. 4080 zu 5080 mit DLSS 2 bei beiden Grafikkarten, also ohne AI Gedöns ... dann wird man sehen wieviel fixer die neuen Karten wirklich sind.

Ich z.B. habe eine 4070ti und nutze nie DLSS 3 ... DLSS 2 hingegen fast immer sofern möglich.
 
  • Gefällt mir
Reaktionen: MasterXTC
Shelung schrieb:
Ich brauche rohe Rechenleistung.

Muss Nvidia gerade nicht liefern, Benchmark-FPS müsse reichen...

Bzgl. Grafikqualität.

Wer die Schlieren bei bewegten Objekten nicht sieht, will sie nicht sehen!
 
  • Gefällt mir
Reaktionen: Teropet
CastorTransport schrieb:
Ach der Autovergleich hinkt bei der Bremse aber ganz schön, wenn es um die rohe Leistung geht. Die bekommst Du dort nur mit mehr Energie, also Leistung. Nicht mit Software. Vlt. maximal mit der Einspritztechnik oder ähnliches, aber das ist eher wieder Hardware statt Software.
darum gings mir doch nicht im Vergleich..
was ich meine:
wenn die Meisten (in Zukunft) DLSS nutzen werden, warum soll es dann so wichtig sein für normale User, dass Raw-Leistungen verglichen werden

das spiegelt dann nicht das wieder, was in der Praxis dann erfahren wird, nämlich: sehr viel mehr Fps
 
  • Gefällt mir
Reaktionen: Fallout667
Gottseidank muss ich weder aufrüsten noch neu kaufen.
Bei den Preisen bekommt man ja echt das 🤮
Evtl. wird die 5070ti ja interessant oder ne gebrauchte 4090.
 
  • Gefällt mir
Reaktionen: TheHille
Mydgard schrieb:
Ich z.B. habe eine 4070ti und nutze nie DLSS 3 ... DLSS 2 hingegen fast immer sofern möglich.
Du nutzt auch DLSS 3, du nutzt nur kein FG
 
  • Gefällt mir
Reaktionen: Mydgard, Apocalypse und ThirdLife
Kenjiii schrieb:
Naja, das widerspricht jetzt nicht unbedingt meinem Kommentar, obwohl du meinst "so nicht". 😂
Also wird ja nur das Gesehene eingefügt und man sieht ihn eben erst nach 0.1 Sekunden in dem Beispiel selbst wenn es dann eben 40 Fps sind, zählen nur die 10 wirklichen Fps, da bringen mir die 3 extra Fps dazwischen nichts, verstehst du?
Diese "Zwischen-Fps" sind praktisch nur eine Zwischenrechnung und ein Abgleich der "wirklichen Fps", dadurch siehst du den Gegner aber eben keine Millisekunde früher.
Aber stimmt in einem hast du Recht, es ruckelt dann nicht.......dennoch bleibt es bei den 0.1 Sek Verzögerung.
Bei 40 richtigen Fps wären es dann eben 0.025 Sek. im Vergleich.
1-2-3-4-5-6-7-8-9-10
Jede Zahl repräsentiert ein nativer Frame. Bei 10FPS wäre ein Frame 0,1 sek.
DLSS4 macht dies:
1-1.25-1.5-1.75-2-2.25-2.5-2.75-3
Jeder ganze Frame ist immernoch 0,1 sek und jeder Zwischenframe ist 0,025sek.
Wenn jetzt ein Gegner bei 2 nicht zu sehen ist und erst bei 3 auftritt, kannst du den Gegner schon bei 2.25 sehen.
Weil FG die Bewegung des Gegners anhand dem Unterschied zwischen 2 und 3 interpoliert.
Also müsstest du ihn früher sehen!
Das Denkproblem an der Sache ist ja, das der Gegner ja nie sofort angezeigt wird, sondern der PC einen Moment braucht um alles zu berechnen.
Das heißt dein PC ist schon mit Frame 3 fertig, wenn gerade Frame 2 angezeigt wird.
Du siehst auf dem Bildschirm die Vergangenheit, nicht die Zukunft.
So etwa funktioniert FG und aus dem Grund fühlt es sich auch bei wenig "Basis"-FPS schwammig an.

Die Hitbox wird übrigens von der CPU simuliert, nicht von der GPU.
Allerdings "weiß" deine CPU aber auch, das der Gegner hinter der Wand ist. Die GPU weiß das nicht.

Wenn du eine CPU mit 10FPS hättest, dann wäre es auch möglich, das du den Gegner verfehlst, wenn du auf die FG-Frame schießt.
Die CPU müsste also mindestens die FPS schaffen, die FG anzeigt, damit die Hitbox wieder stimmt.

LTT hat das mal in CS:GO getestet, indem sie die Anzeige eines Monitors auf 60hz gestellt haben, aber das Spiel mit 300FPS lief.
Und dann einmal mit 60hz und 60FPS. Bei 60FPS war die Hitbox "sprunghaft" und es gab die Möglichkeit zwischen den Frames zu verfehlen.

Edit: Kleine Anmerkung zum Beispiel.
Die GPU weiß bei Frame 2 auch noch nicht, wie weit weg der Gegner von der Kante ist.
So kann es passieren, das der Gegner schneller oder langsamer auftaucht als er in Wirklichkeit ist.
Aber das passiert im Grunde ja nur innerhalb eines Frames.
So schnell kann kein Mensch reagieren oder es im Normalfall bemerken.
Testet man es aber und schaut es Bild für Bild in einem Video an, so würde man vermutlich einen Sprung in der Bewegung sehen.
Es ist nicht perfekt, keine Frage.
Aber das lässt FG auch immer schlimmer aussehen als es beim normalen Spielen ist.
Und je höher die Basis-FPS ohne FG sind, desto besser läuft es halt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung, Kenjiii und Kraeuterbutter
Kraeuterbutter schrieb:
wenn die Meisten (in Zukunft) DLSS nutzen werden,
Die Umfrage für dieses Jahr ist ja fast fertig, es sind mittlerweile unter einem Drittel der Teilnehmer, die es nicht nutzen
 
  • Gefällt mir
Reaktionen: Shoryuken94 und Kraeuterbutter
johnieboy schrieb:
@Jan @Wolfgang Ich hätte ne kleine Hausaufgabe für euch.



Das sollte man doch mit ner 4090 nachbenchen können an dieser Stelle im Spiel mit Außnahme von DLSS4.

IMG_4993.png


Hat mich auch interessiert

Ich komme auf 24 FPS

und mit DLSS Performance RT PT auf 70 FPS
 

Anhänge

  • 70FPS.png
    70FPS.png
    8,9 MB · Aufrufe: 66
  • 24FPS.png
    24FPS.png
    9,1 MB · Aufrufe: 68
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und Simanova
Was mir bei den Leistungsangaben aufgefallen ist: A Plaque Tale: Requiem unterstützt kein DLSS4 - ergo sind die Balken ein Performancevergleich zwischen den jeweiligen Modellen unter DLSS 3 Bedingungen.

1736263639999.png


Nimmt man diese Balken als Grundlage, (ich hab die Pixel nachgemessen),
so hat z.b die 5070ti zur 4070ti einen 41% Leistungsvorsprung.

1736263596739.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, mazO!, Computerbasler und 2 andere
iron_monkey schrieb:
Wenn ich sie doch nicht mehr haben wollen würde auch ohne Spulenfiepen, wäre das dann mein gezahlter Preis + 1x Versandkosten (+- 0,-)
Ein echter Engel :D Toll :heilig:
 
Die Founders Edition sieht schon echt lecker aus muss ich sagen.

Ich werde aber wohl passen. Meine 4090 reicht mir noch für die paar Spiele, die ich zocke.

Mich hat aber die 5070 überrascht. Hätte hier tatsächlich mit deutlich mehr Kosten gerechnet. Ändert aber nichts daran, dass 12GB einfach lächerlich sind. Da bringt das Totschlag-DLSS auch nichts.
 
Janson Huang hat doch eingangs auch selbst gesagt: GeForce hat die AI ermöglicht und nun ermöglicht AI die GeForce.
Somit hat er selbst zugegeben:

BACKWELL ist eine REINRASSIGE AI-Architektur und keine fürs Gaming!
 
Reine native Rasterleistung findet bei nVidia nicht mal mehr Erwähnung. Damit sind wohl die Zeiten für "Puristen" wohl endgültig gestorben. Ich höre jetzt schon die Debatten. :D
 
  • Gefällt mir
Reaktionen: Flexatainment und Viper80511
theGucky schrieb:
Wenn jetzt ein Gegner bei 2 nicht zu sehen ist und erst bei 3 auftritt, kannst du den Gegner schon bei 2.25 sehen.
Weil FG die Bewegung des Gegners anhand dem Unterschied zwischen 2 und 3 interpoliert.
hier hab ich ein Verständnisproblem:

Annahme:
wir sind bei Frame 2 am Bildschirm..
Gegner noch nicht sichtbar (laut CPU bei Frame 2)

CPU ist aber schon weiter, Gegner bereits sichtbar für die CPU

das berechnen des nativen Frame 3 durch die Grafikkarte dauert aber etwas länger..
hier rechnet dann die Graka die Zwichenframes rein
bei 2,25 von der Graka am Bildschirm ist dann laut deinem Beispiel der Gegner dann schon sichtbar
(Frame 3 muss dafür schon cpu-seitig fertig sein)

wie funktioniert das mit den Zwischenbildern?
wie kann die Graka Zwischenbilder zwischen 2 und 3 berechnen, ohne das 3 fertig ist?
wenn sie anfangsbild und endbild für das Zwischenbild benötigt?

Kannst du ein wie ich glaube gutes Beispiel hier noch etwas präzisieren?
 
Zurück
Oben