News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

alkaAdeluxx schrieb:
Wie kann sich scalpen noch lohnen, wenn die Lager voller Ware sind? Die holbirnis können doch nicht alles leer kaufen.
wenn alle an tag 1 hinstürmen aus angst sie könnten ohne eine neue gpu dastehen, dann erzeugt das schon einen mangelsituation-hype - und bei der heutigen "fomo", spielt das jedem scalper in die hände.

bisher musste man, abgesehen zu corona/mining zeiten, bestenfalls 2-3 monate warten und man konnte die neuerscheinungen dann regulär zu vernünftigen preisen kaufen.
kann es riesige nachfragen und etwas wartezeit geben? ja, kann es, aber wenn man selbst dafür keine geduld hat, muss man in seinem leben echt andere probleme haben...
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
fox40phil schrieb:
Können wir die beiden Generationen nicht einfach überspringen?! und darauf hoffen dass in 1-2 Gens die native Leistung ohne KI-Murks wieder steigt?! man man man
Und dass die Engines sparsamer werden.
UE 5.5 hat es mit MegaLights gezeigt, es geht auch anders.
 
  • Gefällt mir
Reaktionen: fox40phil, nikonF33 und rentex
fox40phil schrieb:
Können wir die beiden Generationen nicht einfach überspringen?! und darauf hoffen dass in 1-2 Gens die native Leistung ohne KI-Murks wieder steigt?! man man man
Schon, nur braucht es dafür halt auch mehr Transistoren, und die kommen wohl erst nach einem Wechsel zu einem 3 nm-Verfahren. Aktuell gibt es ja weiterhin für Nvidia "nur" N4(P). RTX 6000 dürfte dann aber wieder einiges drauflegen - hoffentlich.
 
  • Gefällt mir
Reaktionen: fox40phil
fox40phil schrieb:
Können wir die beiden Generationen nicht einfach überspringen?! und darauf hoffen dass in 1-2 Gens die native Leistung ohne KI-Murks wieder steigt?! man man man
Ich würde eher damit rechnen, das es noch mehr KI geben wird...
Wenn man sich z.B. mal Cyberpunk mit Pathtracing (was auch eher mehr als weniger zur Anwendung kommen wird) ansieht, da schafft selbst die 5090 nativ keine 30 FPS in 4K, wie Nvidia ja freundlicherweise selbst zeigt.
Wieviel Watt würde wohl aktuell eine Karte ziehen, die 60 FPS nativ schafft?
Natürlich kann man jetzt schreiben "der Stromverbrauch interessiert mich nicht!", aber wenn man liest wie viele Leute sich schon Sorgen machen, wie man 575 Watt leise (mit Luft) kühlen soll.... 🤔
Aber wir können den Markt natürlich auch Leuten überlassen die bereit sind, tausende Euro für Waküs usw. auszugeben, nur ist der PC Markt dann sehr bald tod!
 
  • Gefällt mir
Reaktionen: fox40phil und Darkwater
Norebo schrieb:
Na, das Daniel Owen Video mit dem dem Standbild (basierend auf dem DF Video) zeigt erhebliche Bildunterschiede:

Das DF Video ist ganz schlecht, da viele Szenen nicht Framesynchron sind und keine Vergleichbarkeit erlauben.
Schlampige Arbeit oder Vorsatz?

Ich bin utmost umimpressed - man kann ahnen, das DLSS4FGx4 erhebliche Bildverfremdung und Qualitätseinbuße bedeutet!
Hättest du das Video gesehen, würdest du wissen, dass man Frame Gen nicht richtig auf YouTube zeigen kann.

Ich Zitiere mal jemand von DF zu diesem Video zu jittering und artefakten.

That is due to the capture and how it has to be presented in YT - it has to be captured with standard Vsync at 120hz, No Gsync. That means internal framerate before framegen is merely 30 FPS. This is then complicated by the fact that Standard Vsync without Gsync is not 💯 percent smooth in DLSS Frame Generation in many titles as NV designed it around VRR seemingly.in top of this, to actually Show generated frames WE need to slow footagebdown by 50% so they actually Show in the video Container.

Basically, it is impossible to Show the real subjektive quality of frame gen above 60 FPS on YoutTube and it is impossible to capture the actual intended unlcoked experience.

It is a Situation that Frustrates me deeply, but we are at the Limits of Tech and Infrastrukture there.

Aber schwurbel mal ruhig weiter und unterstell DF, dass hier schlampig gearbeitet wurde.
 
@Holgmann75
Wenn man bedenkt, dass Nvidia durch KI die FPS nun auf das bis zu 8-fache steigert (obwohl die Tensor-Kerne ja nur einen Bruchteil der Die-Fläche einnehmen), lässt sich ja sogar in etwa abschätzen, wie groß ein entsprechender Chip sein und welche Leistung er ziehen müsste, damit das nativ ginge. Da würden wir selbst ohne Tensor-Kerne etwa von der Die-Fläche eines Blatts Klopapier reden. Ohne Multi-Chip-Design und entsprechenden Problemen wäre das aktuell vollkommen undenkbar. Und selbst, wenn es ginge, wäre ein solcher Chip derart teuer, dass die Karten absolut unbezahlbar wären. Ganz abgesehen von der Kühlung.

Also ja, ich stimme dir zu. Bis dahin vergehen noch einige Jahre. Ich sehe den Schritt von Nvidia daher ganz positiv, auch wenn er mit Nachteilen verbunden ist. Die Preispolitik ist natürlich die reinste Katastrophe, ohne Frage.
 
  • Gefällt mir
Reaktionen: fox40phil, Windell, nikonF33 und eine weitere Person
fox40phil schrieb:
Können wir die beiden Generationen nicht einfach überspringen?! und darauf hoffen dass in 1-2 Gens die native Leistung ohne KI-Murks wieder steigt?! man man man

Der "KI-Murks" dürfte eher Standard (und mit jeder Generation besser) werden, während die native Leistung immer Langsamer steigt da, es schwierig wird den Fertigungsprozess noch weiter zu verkleinern...

Außerdem ist dieser für NVIDIA und Co. attraktiv weil sie jede DLSS-variante Generationen Exklusiv machen (aber vielleicht gibt es da in Zukunft auch mehr Konkurrenz)...
 
  • Gefällt mir
Reaktionen: dohderbert und Holgmann75
GreatEvil schrieb:
Nvidia ist nicht fähig die Rohleistung deutlich zu erhöhen, weshalb wir noch mehr grafikqualitätzerstörende BS-Feature bekommen.
Ich übersetze das mal: Nvidia ist fähig die Sackgasse der node Verkleinerung durch moderne und extrem effiziente Ansätze zu umgehen. Damit hat man die Grafikqualität auf ein nicht erwartbares Niveau gehoben, ein Niveau, wie sie mit Brute Force Rendering erst in 10 oder 20 Jahren möglich wäre.

Wenn nur noch 1/16 des Bildes durch "Roh-Power" berechnet wird, hast du mit DLSS und FG mal locker 5-10 GPU Generationen und teure Fertigungsprozesse eingespart. So bleiben GPUs mit AI weiterhin erschwinglich.
GreatEvil schrieb:
Und Fanboys und Jubelpresse feiern das als Fortschritt.
Die Technikbegeisterte Presse und interessierte Gamer freuen sich auf die ganzen Features.
 
  • Gefällt mir
Reaktionen: Fallout667, DerDawn und Holgmann75
Quidproquo77 schrieb:
Damit hat man die Grafikqualität auf ein nicht erwartbares Niveau gehoben, ein Niveau, wie sie mit Brute Force Rendering erst in 10 oder 20 Jahren möglich wäre.
Ich glaube das haben viele vergessen oder nicht mitbekommen!
Ich erinnere mich noch gut an Artikel wo Raytracing gezeigt wurde (Gerendert auf Rechnern) und es hieß, das es diese Qualität wohl nie oder nur in ferner Zukunft für private Nutzer, geschweige denn in Spielen geben würde.
Das ist gar nicht mal so lange her!
 
  • Gefällt mir
Reaktionen: Fallout667, Quidproquo77 und nurfbold
Ich kann mich noch erinnern als ich zwischen 1980 und 2010 alle zwei Jahre für €200 die doppelte Leistung bekam. Naja, meine Geforce 1070 hat jetzt acht Jahre gehalten, da will ich über den Preis von €400 nicht meckern und bin ja auch grundsätzlich bereit etwas mehr zu zahlen. Allerdings ist die 70ti für €880 schon ein ziemlicher Happen.

Die rohe Leistung der neuen Karten scheint ja in Ordnung zu gehen aber 16GByte RAM bei der 80er und 70ti? Das ist jetzt nicht so beeindruckend... Mein KI-Zeug läuft dann wohl weiter auf der CPU meines 20-Kern-Xeons den ich fürn Euro abgestaubt habe - der frißt auch 96GByte Modelle.
 
  • Gefällt mir
Reaktionen: Windell und rentex
Also bei Indiana Jones pfeift die Rtx 4090 aus dem letzten Loch.
Dlss auf Qualität ist sogar zu wenig.
Mit Fg springen die FPS auch mal unter 40.
Fg nervt mich sowieso wg den Zeilenverschiebungen im Bild.
 
  • Gefällt mir
Reaktionen: Markenprodukt, Mcr-King und rentex
So die erste AMD Karte mit dem 12V Stecker kommt dann auch bald :D
Aber bevor jemand "Was die zieht 600 Watt?" schreit: Die Red Devil kommt mit 2x8 Pin -.-
 

Anhänge

  • 7BkSzCwLyQGLI2mP.jpg
    7BkSzCwLyQGLI2mP.jpg
    242,3 KB · Aufrufe: 112
  • Gefällt mir
Reaktionen: Quidproquo77, mazO! und Mcr-King
heisenberg001 schrieb:
Also bei Indiana Jones pfeift die Rtx 4090 aus dem letzten Loch.
Dlss auf Qualität ist sogar zu wenig.
Mit Fg springen die FPS auch mal unter 40.
Fg nervt mich sowieso wg den Zeilenverschiebungen im Bild.
Und der Titel war grafisch nicht mal der schönste in 2024.
 
  • Gefällt mir
Reaktionen: Mcr-King
Icke-ffm schrieb:
Einzig interessant ist die Rohleistung der Karte samt Vram ausstattung.
Die Rohleistung ist schon länger nicht mehr das einzige Kriterium.
Wenn man sich das ganze Featurefeuerwerk anschaut wird Software und AI viel bzw. spezielle HW Wie Matrix Cores usw. entscheidender sein.
Icke-ffm schrieb:
FG, und was es sonst noch an Software dazu gibt ist einfach nur teuer und muss noch reifen.
So oft wie das angeblich reifen soll ist das schon lange im Kompost und die nächste Iteration ist da.
Icke-ffm schrieb:
bis das dann wirklich etwas bringt dauert noch min 1Gen. so wie nun in Indi zu sehen erstes Game was RT immer nutzt und siehe da Nativ sind die AMD Rx6800 schneller wie alles was es bei Tuning unterhalb der 3080ti gab,
Dann stellst du bei der 3080 den Pool auf Mittel und Haare auf Low ( optisch keine Nachteile) und dann bleibt sie schneller.
Icke-ffm schrieb:
da denen einfach der Vrm ausgeht, da hilft auch kein DLSS oder bessere RT Hardware von vor 4Jahren nichts mehr,
Man ist nicht gezwungen alle Regler auf ultra zu nutzen. Das gilt auch für RT und die Radeon.
Icke-ffm schrieb:
heute sind die Karten nur noch Einsteigerklasse,
Du unterliegst wirklich einem grandiosen Zwangsdenken dir alles so hinzubiegen, dass es entweder nicht ausgereift sei oder dann nach 4-5 Jahren vielleicht einen Fall gibt wo man diese Vorteile nicht ohne mal nen Regler zu bedienen ausspielen kann.
Icke-ffm schrieb:
genauso ergeht es den 16GB Karten der Aktuellen Gen dann auch nicht mehr reichen und Dank DLSS 5 werden die am ende auch garnicht mehr unterstützt
Dann am besten nie eine neue GPU kaufen, weil die vielleicht irgendwann nicht für ultra reicht.
 
  • Gefällt mir
Reaktionen: Fallout667
Aber was bringt mir FG wenn es sichtbare Zeilenversch. hat?
Hat das neue FG bei der RTX 50xx diese dann nicht mehr?
 
ElliotAlderson schrieb:
Hast du das denn oder ist das nur ne Nebelkerze?
Das ist kein Scherz, bei FG oder FMF wird mir mit der Zeit schlecht und die Kopfschmerzen fangen an.

Nur, und das muss ich noch mal klar stelle: FG und ebenso MFG sind deswegen nicht schlecht oder unbrauchbar! FG ist eine tolle Technik, um in bestimmten Szenarien mehr FPS zu bekommen und auch MFG wird hier entsprechend noch mehr fps bringen.

FG kann und MFG wird die Bewegung auch effektiv weiter glätten und das bedeutet auch, dass am Ende das Spielerlebnis besser sein kann.

Ich mag DLSS/FSR/XeSS und ebenso mag ich FG/FMF. Das ich letztere nicht nutzen kann, geschenkt.

Ich bin MFG sehr offen gegenüber, wie ich schon geschrieben habe: vielleicht wird es sogar besser. Testen werde ich es. Ich kann ja erst danach sagen ob es die Probleme immer noch für mich gibt oder nicht.
 
  • Gefällt mir
Reaktionen: [SM]Valen und Quidproquo77
Icke-ffm schrieb:
DLSS ist gut, nur eben nicht offen, da Nvidia das nur für seine Karten anbietet, klar ein vorteil.
Kein Wunder, dass man führende Technologie nicht leichtfertig an die Konkurrenz weitergibt.
Icke-ffm schrieb:
Aber:
DLSS3.5 läuft nur auf Ada und Backwell
Nein, das läuft auch auf Turing.
Icke-ffm schrieb:
DLSS4 läuft nur auf Backwell
DLSS 4 wird auch auf Turing laufen, nur MFG nicht.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Interessant, bin wie immer auf die unabhängigen Tests gespannt. Langsam dürfte es dann mit der Balkenskalierung schwierig werden, wenn schon meine 4070tis bedeutend weniger liefert als die 4090... Wie schauts dann bei ner 5090 aus?
 
iron_monkey schrieb:
Im schlimnsten Fall wieder 7, wie bei der 4090 auch, bis eine dabei ist ohne Spulenfiepen aus der Hölle!
Wegen dir wurden Leute bei Mindfactory gesperrt die nichts verbrochen haben….
 
  • Gefällt mir
Reaktionen: nurfbold
Vielleicht kommt noch eine RX 5060 Ti mit 8 GB VRAM, welche die Leistung einer 4090 fast erreicht :o
 
  • Gefällt mir
Reaktionen: Sennox und Tornavida
Zurück
Oben