News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

thepusher90 schrieb:
Hmmm...mich würde mal interessieren wie hart mein 12700K mit DDR4 4000 CL 17-15-15 die 5090 bottlenecken würde.
Das kann man nicht pauschal sagen. Es kommt aufs Spiel an und ob es überhaupt relevant ist.

Spiel X : CPU schafft 600 FPS, die 5090 schafft 1000 FPS > Bottleneck ja, relevant nein
Spiel Y : CPU schafft 200 FPS , die 5090 nur 120 FPS > Bottleneck ja, relevant in Bezug auf die CPU oder der Spielbarkeit = nein
Spiel Z : CPU schafft 20 FPS, die 5090 schafft 150 FPS > ja CPU Bottleneck

Irgendwas limitiert immer, aber wichtig wird's erst wenn eine Komponente so stark limitiert dass es spürbar unangenehm wird.

Pestplatte schrieb:
Mich interessiert wie die Leistung PCIe v4 vs v5 aussieht bei den kleineren Karten (70+ti).
So lange der Speicher der Grafikkarte nicht voll wird, ist es in der Regel kaum spürbar. Es sind meist 1-3%.
Ist der Speicher dauernd übervoll gibt's Nachladeruckler. Die würden vermutlich mit PCI-E 5 weniger stark als mit PCI-E 4.0 ausfallen, aber trotzdem vorhanden sein.

Fies wird es wenn die Grafikkarte selbst bereits mit einem beschnittenden Speicherinterface ankommt, auf die ältere Schnittstelle gesteckt und dann der Speicher voll wird.
Dann gibt's wirklich massive Probleme.
So wie bei AMD. Es war die RX 6600 oder so ähnlich, nur 8x angebunden, statt PCI-E 4.0 nur Mainboard mit 3.0 und fertig die Katastrophe.
 
longusnickus schrieb:
solche typen würde ich aber weder als gelegenheitsspieler, oder enthusiasten einstufen. eher als angeber
und genau da liegts du absolut falsch, die Aussage von @Pisaro war das jemand mit einer 80er Karte 5h/Woche spielt.
Solange er das mit Begeisterung tut, ist er ein enthusiastischer Gelegenheitsgamer. Das schließt sich nicht aus.
Ob er damit angibt kannst du gar nicht beurteilen, da du ihn nicht kennst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holgmann75, Apocalypse, cvzone und eine weitere Person
.Sentinel. schrieb:
Ich glaube, dass ich erst jetzt so richtig verstanden habe, worauf Du hinaus willst.

DLSS4 als Ökosystem MUSS nicht wie bisher auf "feste" Framefaktoren bei Zuschalten von FG zurückgreifen...
Ja jetzt hast du mich verstanden, das ist exakt das worauf ich die ganze Zeit hinauswollte, auf das Problem wegscheiden echter gerenderter Frames wie beim bisherigen FG um einen geraden Faktor zu erhalten.
.Sentinel. schrieb:
Das Verfahren kann, wenn gewünscht, adaptiv auf eine Zielausgabe mit gleichmäßigem Framepacing hinwirken.
Dafür gibt es den Block, der im Bild oben "Blackwell Flip Metering" genannt wird.
Wenn es wirklich so ist dass es nun adaptiv funktioniert und tatsächlich nur die Frames generiert und hinzugefügt werden welche auf die Zielauflösung fehlen und FG sagen wir mal bei 43 gerenderten Frames dann 17 FG Frames hinzufügt um auf 60 zu kommen, wie statt bisher die gerenderten echten Frames auf 30 runtersenken muss um genau 30 FG Frames in einem 1:1 Verhältnis hinzufügen zu können, ist es wirklich ein Fortschritt. Aber wie fügt das Blackwell Flip Metering bei ungerader Frame Anzahl die Frames dann ein wenn es keine festen x1, x2 Multiplikator verfolgt? Sagen wir wir haben wie oben im Beispiel 43 fps in der einen Sekunde im Spiel, als Primzahl hat 43 keinen natürlichen Teiler außer sich selbst und 1, fügt Blackwell Flip Metering dann einmal nach dem 7ten, dann nach dem 15ten oder 23ten echten Frame einen generierten ein? Welchem Algorithmus folgt Frame Gen in einem solchen Szenario?

Wie berechnet Blackwell Flip Metering bei Primzahl FPS die nicht teilbar sind wie und in welchem Abstand es die FG Frames zwischen die echten Frames einfügt? Zumal die Anzahl der generierten echten Frames dann ja auch noch ständig schwanken kann
.Sentinel. schrieb:
Und natürlich ist die MFG kein Ersatz für den Part der konventionellen Berechnung. Es ist ein rein auf den Sehapparat und deren Wahrnehmung getrimmtes Tool. Gleichmäßig sich ändernde 120 Bilder pro Sekunde wirken auf das Auge nunmal unabhängig von dem, was im Hintergrund passiert deutlich angenehmer, als 40 davon.
Eben das meinte ich. Natürlich sind 120fps mit Framegeneration besser als 40fps nativ, aber 40fps nativ sind besser als 40fps mit Framegen oder 120fps nativ sind besser als 120fps mit Framegen, deswegen meinte ich ja dass ein FG Frame einem nativ gerenderten Frame eben nicht "gleichwertig" zu setzen ist.
 
Rockbreak schrieb:
Wenn es wirklich so ist dass es nun adaptiv funktioniert und tatsächlich nur die Frames generiert und hinzugefügt werden welche auf die Zielauflösung fehlen und FG sagen wir mal bei 43 gerenderten Frames dann 17 FG Frames hinzufügt um auf 60 zu kommen, wie statt bisher die gerenderten echten Frames auf 30 runtersenken muss um genau 30 FG Frames in einem 1:1 Verhältnis hinzufügen zu können, ist es wirklich ein Fortschritt.

So verstehe ich z.B. Daniel Owen der im extra Video noch mal auf das Thema eingeht.



Im Beispiel senkt DLSS2 die Latenz um die hälfte, da doppelte native Frames, mit DLSS3 und 4 inkl. Frame-Generation kommt aber keine bzw. kaum neue Latenz hinzu.
 
  • Gefällt mir
Reaktionen: Rockbreak
Pizza! schrieb:
Fies wird es wenn die Grafikkarte selbst bereits mit einem beschnittenden Speicherinterface ankommt, auf die ältere Schnittstelle gesteckt und dann der Speicher voll wird.
Dann gibt's wirklich massive Probleme.
So wie bei AMD. Es war die RX 6600 oder so ähnlich, nur 8x angebunden, statt PCI-E 4.0 nur Mainboard mit 3.0 und fertig die Katastrophe.
Ja wenn die Karten nur mit 8x Interface angebunden wären könnte man tatsächlich "evtl" bei den 5000ern unterhalb der 5090 schon einen Unterschied merken, von den Daten die bisher bekannt sind ist aber sogar die kleine 5060 mit x16 Interface angeschlossen um damit die volle und nicht nur halbe Bandbreite von PCIE 4.0 nutzen zu können (Vor allem da die 5060 ja nur 8GB VRAM hat). Ich denke Nvidia hat hier der 5060 bewusst ein x16 statt wie der 4060 ein x8 Interface verpasst um genau das zu verhindern. Wobei ich eher bezweifle dass die 5060 selbst x8 PCIE 4.0 schon ausgereizt hätte.

Meistens ist es so gewählt dass die kleinsten Karten ein x8 haben weil sie eh nicht mehr Durchsatz haben und ab der 70er und aufwärts verpasst Nvidia hier eigentlich den Karten immer ein x16 Interface. Das gleiche gilt für AMD. Von daher ist der Unterschied 4.0 vs 5.0 für Grafikkarten vermutlich erst in 5-6 Jahren relevant und dann auch nur eingeschränkt solange man keine x8 Karten kauft.
 
.Sentinel. schrieb:
Wie gesagt- Es kommt doch nur auf das Ergebnis an! Welchen Rechenweg man geht, ist für das Ergebnis egal, solange es stimmt.

Die Ergebnisse müssen oft nicht einmal stimmen, sie müssen einfach nur gut genug sein.
Das wusste schon John Carmack als er seine Fast Inverse Square Root Funktion für Quake 3 entworfen hat.

Im Grunde werden wir also seit Jahrzehnten bei 3D Grafik um exakte Bilder zugunsten von besserer Performance betrogen.
 
  • Gefällt mir
Reaktionen: .Sentinel., Quidproquo77, Apocalypse und 2 andere
Fighter1993 schrieb:
Was geht denn bei dir ab?
Scapler ausschließen
whyme schrieb:
Gab ja auch noch scalper die X Karten bestellt hatten. Wenn sie sie nicht innerhalb von 14 Tagen bei Ebay losgeworden sind, haben sie sie schnell zurück geschickt.
Genau das
Ergänzung ()

shaboo schrieb:
die 4080 end of life war und nicht mehr produziert wurde, ist es die 4080 Super, die Vorgängerin der 5080 und damit auch Vergleichsmaßstab für Preis und Leistung ist, nicht die 4080.
Genau das ist der Punkt, gibt eine Aufarbeitung dazu, genau zu dem Thema.
Mit dem Refresh gab es mehr Leistung für weniger Geld (was einem Preisverfall gleich kommt) und genau damit muss sich die neue Gen messen.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo, Apocalypse, Fighter1993 und eine weitere Person
alkaAdeluxx schrieb:
Mit dem Refresh gab es mehr Leistung für weniger Geld (was einem Preisverfall gleich kommt) und genau damit muss sich die neue Gen messen.
Interessantes Video, die 5070 wird ja die Krücke des Jahrhunderts.
 
alkaAdeluxx schrieb:
Genau das ist der Punkt, gibt eine Aufarbeitung dazu, genau zu dem Thema.
Mit dem Refresh gab es mehr Leistung für weniger Geld (was einem Preisverfall gleich kommt) und genau damit muss sich die neue Gen messen.
Naja, eigentlich gab's eher gleiche Leistung für weniger Geld (das Leistungsplus ist ja von eher symbolischer Größe gewesen), und von daher war das Ganze im Kern nichts anderes als eine Preissenkung.

Um das zu verstehen, sollte es aber eigentlich auch keine Aufarbeitung brauchen, sondern lediglich einen Hauch gesunden Menschenverstandes. Das ist ja keine Raketenwissenschaft.
 
  • Gefällt mir
Reaktionen: Rockbreak und Fallout667
snickii schrieb:
Wünsche allen viel Glück eine Karte von den 10 produzierten weltweit zu UVP zu bekommen.

Danach heißt es erstmal Geduld für einige Monate.

Ich habe wegen der prognostizierte Preise den Wattzahlen am 31.12 eine RTX 4070 S hier einfliegen gehabt.
Da könnte ich noch einen Wiederruf machen. Und mein Hirn mahlt...
Aber was Du schreibst ist halt auch ein Faktor.

Nach dem was ich so lese, ist das mit de MFG nicht das schlechteste und vielleicht sollte man nicht nur auf die Rohleistung schauen. Aber ich denke, ich behalte die Karte (Ich finde es auch nicht korrekt, Hardware welche keine Mängel hat, zurück zu schicken. Zumindest, wenn ausgepackt und eingebaut). Weil mein Fazit:

So viele Spiele untstützen MFG aktuell auch nicht nativ und wenn die Basis FPS es nicht packen, bringt es imo auch nicht so viel und da reicht mir die 4070 S Custom von Asus mit leisem Kühler.
Und Custom Asus mit leisem Kühler ist eigentlich immer 50-100 Euro mehr zu UVP+Straßenpreis.

Ob DLSS 4.0 MFG was bringt, werden wir sehen. In Zukunft stelle ich es mir schon interessant vor, um ggf. aus 100 FPS 140 zu machen, um an den Sweerspot des Monitor zu kommen. Input Lag wird sich ziegen.
 
Weiß jemand wie die Einfuhrabgabensätze bei Einfuhr von Grafikkartten in die EU sind?
Das sind Beispiele beim Zoll:

Da sind zwar Notebooks, Monitore etc gelistet, aber keine Grafikkarten. Ich bin bin während es Verkaufstarts der 5090 (30 Januar) in den USA, da wäre das eine Idee eine 5090 Founders Edition dort zu bekommen, Best Buy ist der Reseller. Ich weiß, dass man die 19% VAT bei der Einfuhr bezahlen muss, aber die Zollegebühren selbst sind nicht klar, das kann zwischen 0 und 17% liegen.
Mir geht es hier nicht darum ein Schnäppchen zu machen sondern bei der 5er Generation endlich wieder eine FE zu bekommen nachdem ich bei der 4er Generation keinen Glück hatte und einen 4090er Custom Klotz ertragen musste. Etwas Aufpreis dafür ist akzeptabel, zumal mir die 5090FE mit dieser high density Platine viel besser gefällt als all diese Monster-Kühl-Klötze mit standard Platinen.
Ich vermute, dass die Verfügbarkeit dort besser sein wird als hier beim nVidia Partner Notebooksbillige.de.
 
Auf Grafikkarten fallen keine Zollgebühren an, nur die 19% EUSt.
 
  • Gefällt mir
Reaktionen: BetaHydri
Danke, das ist also gut machbar und eine Option auf dem Tisch :).
 
BetaHydri schrieb:
aber die Zollegebühren selbst sind nicht klar, das kann zwischen 0 und 17% liegen.
Fahre doch mal mit dem Fahrad zum Zoll und frage dort nach oder schreib dem Zoll einen Brief. Vielleicht können sie Dir Deine Fragen beantworten. Oder mach doch eine Anfrage beim Zoll mit FAX. :schluck:
 
Ist eigentlich mit Tests zu 5080/5090 vor dem 30.01. zu rechnen oder sind Tests unter NDA-Verschluss bis dahin? Weiß jemand Genaueres?
 
PegasusHunter schrieb:
Oder mach doch eine Anfrage beim Zoll mit FAX. :schluck:
Sie werden keine Zeit haben da sie bereits mit Temu Nonsense Paketen alle Hände voll zutun haben
 
Kinder, so schwer ist das echt nicht. Einfach hier in der passenden Kategorie nachschauen, und wenn es dort nicht irgendwo aufgelistet ist, gibt's auch keine Zolltarifnummer und somit keine Zollgebühren:

https://www.zolltarifnummern.de/
 
Zurück
Oben