News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

thepusher90 schrieb:
Hmmm...mich würde mal interessieren wie hart mein 12700K mit DDR4 4000 CL 17-15-15 die 5090 bottlenecken würde.
Das kann man nicht pauschal sagen. Es kommt aufs Spiel an und ob es überhaupt relevant ist.

Spiel X : CPU schafft 600 FPS, die 5090 schafft 1000 FPS > Bottleneck ja, relevant nein
Spiel Y : CPU schafft 200 FPS , die 5090 nur 120 FPS > Bottleneck ja, relevant in Bezug auf die CPU oder der Spielbarkeit = nein
Spiel Z : CPU schafft 20 FPS, die 5090 schafft 150 FPS > ja CPU Bottleneck

Irgendwas limitiert immer, aber wichtig wird's erst wenn eine Komponente so stark limitiert dass es spürbar unangenehm wird.

Pestplatte schrieb:
Mich interessiert wie die Leistung PCIe v4 vs v5 aussieht bei den kleineren Karten (70+ti).
So lange der Speicher der Grafikkarte nicht voll wird, ist es in der Regel kaum spürbar. Es sind meist 1-3%.
Ist der Speicher dauernd übervoll gibt's Nachladeruckler. Die würden vermutlich mit PCI-E 5 weniger stark als mit PCI-E 4.0 ausfallen, aber trotzdem vorhanden sein.

Fies wird es wenn die Grafikkarte selbst bereits mit einem beschnittenden Speicherinterface ankommt, auf die ältere Schnittstelle gesteckt und dann der Speicher voll wird.
Dann gibt's wirklich massive Probleme.
So wie bei AMD. Es war die RX 6600 oder so ähnlich, nur 8x angebunden, statt PCI-E 4.0 nur Mainboard mit 3.0 und fertig die Katastrophe.
 
longusnickus schrieb:
solche typen würde ich aber weder als gelegenheitsspieler, oder enthusiasten einstufen. eher als angeber
und genau da liegts du absolut falsch, die Aussage von @Pisaro war das jemand mit einer 80er Karte 5h/Woche spielt.
Solange er das mit Begeisterung tut, ist er ein enthusiastischer Gelegenheitsgamer. Das schließt sich nicht aus.
Ob er damit angibt kannst du gar nicht beurteilen, da du ihn nicht kennst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holgmann75, Apocalypse, cvzone und eine weitere Person
.Sentinel. schrieb:
Ich glaube, dass ich erst jetzt so richtig verstanden habe, worauf Du hinaus willst.

DLSS4 als Ökosystem MUSS nicht wie bisher auf "feste" Framefaktoren bei Zuschalten von FG zurückgreifen...
Ja jetzt hast du mich verstanden, das ist exakt das worauf ich die ganze Zeit hinauswollte, auf das Problem wegscheiden echter gerenderter Frames wie beim bisherigen FG um einen geraden Faktor zu erhalten.
.Sentinel. schrieb:
Das Verfahren kann, wenn gewünscht, adaptiv auf eine Zielausgabe mit gleichmäßigem Framepacing hinwirken.
Dafür gibt es den Block, der im Bild oben "Blackwell Flip Metering" genannt wird.
Wenn es wirklich so ist dass es nun adaptiv funktioniert und tatsächlich nur die Frames generiert und hinzugefügt werden welche auf die Zielauflösung fehlen und FG sagen wir mal bei 43 gerenderten Frames dann 17 FG Frames hinzufügt um auf 60 zu kommen, wie statt bisher die gerenderten echten Frames auf 30 runtersenken muss um genau 30 FG Frames in einem 1:1 Verhältnis hinzufügen zu können, ist es wirklich ein Fortschritt. Aber wie fügt das Blackwell Flip Metering bei ungerader Frame Anzahl die Frames dann ein wenn es keine festen x1, x2 Multiplikator verfolgt? Sagen wir wir haben wie oben im Beispiel 43 fps in der einen Sekunde im Spiel, als Primzahl hat 43 keinen natürlichen Teiler außer sich selbst und 1, fügt Blackwell Flip Metering dann einmal nach dem 7ten, dann nach dem 15ten oder 23ten echten Frame einen generierten ein? Welchem Algorithmus folgt Frame Gen in einem solchen Szenario?

Wie berechnet Blackwell Flip Metering bei Primzahl FPS die nicht teilbar sind wie und in welchem Abstand es die FG Frames zwischen die echten Frames einfügt? Zumal die Anzahl der generierten echten Frames dann ja auch noch ständig schwanken kann
.Sentinel. schrieb:
Und natürlich ist die MFG kein Ersatz für den Part der konventionellen Berechnung. Es ist ein rein auf den Sehapparat und deren Wahrnehmung getrimmtes Tool. Gleichmäßig sich ändernde 120 Bilder pro Sekunde wirken auf das Auge nunmal unabhängig von dem, was im Hintergrund passiert deutlich angenehmer, als 40 davon.
Eben das meinte ich. Natürlich sind 120fps mit Framegeneration besser als 40fps nativ, aber 40fps nativ sind besser als 40fps mit Framegen oder 120fps nativ sind besser als 120fps mit Framegen, deswegen meinte ich ja dass ein FG Frame einem nativ gerenderten Frame eben nicht "gleichwertig" zu setzen ist.
 
Rockbreak schrieb:
Wenn es wirklich so ist dass es nun adaptiv funktioniert und tatsächlich nur die Frames generiert und hinzugefügt werden welche auf die Zielauflösung fehlen und FG sagen wir mal bei 43 gerenderten Frames dann 17 FG Frames hinzufügt um auf 60 zu kommen, wie statt bisher die gerenderten echten Frames auf 30 runtersenken muss um genau 30 FG Frames in einem 1:1 Verhältnis hinzufügen zu können, ist es wirklich ein Fortschritt.

So verstehe ich z.B. Daniel Owen der im extra Video noch mal auf das Thema eingeht.



Im Beispiel senkt DLSS2 die Latenz um die hälfte, da doppelte native Frames, mit DLSS3 und 4 inkl. Frame-Generation kommt aber keine bzw. kaum neue Latenz hinzu.
 
  • Gefällt mir
Reaktionen: Rockbreak
Pizza! schrieb:
Fies wird es wenn die Grafikkarte selbst bereits mit einem beschnittenden Speicherinterface ankommt, auf die ältere Schnittstelle gesteckt und dann der Speicher voll wird.
Dann gibt's wirklich massive Probleme.
So wie bei AMD. Es war die RX 6600 oder so ähnlich, nur 8x angebunden, statt PCI-E 4.0 nur Mainboard mit 3.0 und fertig die Katastrophe.
Ja wenn die Karten nur mit 8x Interface angebunden wären könnte man tatsächlich "evtl" bei den 5000ern unterhalb der 5090 schon einen Unterschied merken, von den Daten die bisher bekannt sind ist aber sogar die kleine 5060 mit x16 Interface angeschlossen um damit die volle und nicht nur halbe Bandbreite von PCIE 4.0 nutzen zu können (Vor allem da die 5060 ja nur 8GB VRAM hat). Ich denke Nvidia hat hier der 5060 bewusst ein x16 statt wie der 4060 ein x8 Interface verpasst um genau das zu verhindern. Wobei ich eher bezweifle dass die 5060 selbst x8 PCIE 4.0 schon ausgereizt hätte.

Meistens ist es so gewählt dass die kleinsten Karten ein x8 haben weil sie eh nicht mehr Durchsatz haben und ab der 70er und aufwärts verpasst Nvidia hier eigentlich den Karten immer ein x16 Interface. Das gleiche gilt für AMD. Von daher ist der Unterschied 4.0 vs 5.0 für Grafikkarten vermutlich erst in 5-6 Jahren relevant und dann auch nur eingeschränkt solange man keine x8 Karten kauft.
 
.Sentinel. schrieb:
Wie gesagt- Es kommt doch nur auf das Ergebnis an! Welchen Rechenweg man geht, ist für das Ergebnis egal, solange es stimmt.

Die Ergebnisse müssen oft nicht einmal stimmen, sie müssen einfach nur gut genug sein.
Das wusste schon John Carmack als er seine Fast Inverse Square Root Funktion für Quake 3 entworfen hat.

Im Grunde werden wir also seit Jahrzehnten bei 3D Grafik um exakte Bilder zugunsten von besserer Performance betrogen.
 
  • Gefällt mir
Reaktionen: Apocalypse, xexex und Youngtimer
Fighter1993 schrieb:
Was geht denn bei dir ab?
Scapler ausschließen
whyme schrieb:
Gab ja auch noch scalper die X Karten bestellt hatten. Wenn sie sie nicht innerhalb von 14 Tagen bei Ebay losgeworden sind, haben sie sie schnell zurück geschickt.
Genau das
Ergänzung ()

shaboo schrieb:
die 4080 end of life war und nicht mehr produziert wurde, ist es die 4080 Super, die Vorgängerin der 5080 und damit auch Vergleichsmaßstab für Preis und Leistung ist, nicht die 4080.
Genau das ist der Punkt, gibt eine Aufarbeitung dazu, genau zu dem Thema.
Mit dem Refresh gab es mehr Leistung für weniger Geld (was einem Preisverfall gleich kommt) und genau damit muss sich die neue Gen messen.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockbreak
Zurück
Oben