Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

Klar, da das ja auch ein super beliebtes Computerspiel ist (wer kennt sie nicht, die gute alte Zeit als wir jeden Abend competitive immer bei grün um die Wette geklickt haben...) und da jeder der versucht in Online-Shootern gut zu sein mit fetten Tearing spielt da auch am FPS Limit des Monitors Vsync off nochmal ein paar Millisekunden mehr bringen...

Mal ganz davon abgesehen das sich mein paar Millisekunden auf DLSS3 anhand der veröffentlichen Daten bezieht, nicht auf euren "Vsync ist bereits casual" Quatsch.

EDIT: Erster Klick bereits unterhalb des Human Averages mit 173ms auf meinem TV mit Gsync und zwölf Jahre alter kabelloser Logitech Maus

:-p

Take that, internet!
 
Zuletzt bearbeitet:
AnkH schrieb:
Und wann kommt der Artikel: "sind 600W Grafikkarten noch zeitgemäss"?
TheWrongGuy6 schrieb:
Nun sind wir bei bis zu 600 Watt bei der 4090...
Geringverdiener schrieb:
Bei dem Preis hätte ich noch Verständnis (wer das Neuste und Hippste haben will, der muss dafür tiefer in die Tasche greifen) aber bei 600 Watt bin ich raus.

Die 4090 liegt bei 450 Watt. Weiß nicht wo ihr die 600 Watt her habt.
 
  • Gefällt mir
Reaktionen: Coeckchen, Pro_Bro und Geringverdiener
Zu Reflex gabs mal ne ausführliche Berichterstattung hier: https://www.computerbase.de/2020-10/nvidia-reflex-analyzer-test/

Für mich macht DLSS 3.0 keinen soliden bzw. fertigen Eindruck: Im brauchbaren Qualitätsmodus sollte die Latenz demnach deutlich nach oben gehen. Ob das Reflex glattbügeln kann, muss dann wohl mal gründlich getestet werden.

Wenn man Grafik 13 und 15 betrachtet sollte man bemerken, dass jedes zweite Frame reingemogelt wird. Klar man hat jetzt nicht immer Situationen wo es auf 1 ms ankommt - bloß vom Empfinden würde ich sagen, jedes dritte oder vierte Frame zu beschei***n wäre dreist genug.

Schade, dass es größere Pufferspeicher und Speicherinterfaces nicht in die 40er-Generation geschafft hat. Die Anzahl der Trasistoren und Cores ist vielversprechend, aber wird sich wahrscheinlich nicht vollends entfalten können (mal ausgenommen für gut Vorhersehbares).
 
Chilisidian schrieb:
Absurde Euro-Preise, die trotz Wechselkurses jeder Grundlage entbehren.

4080 12 GB: MSRP $899 * 1€/$1 * 1,19 MWSt = 1069,81€, UVP = 1.099€
4080 16 GB:
MSRP $1199 * 1€/$1 * 1,19 MWSt = 1426,81€, UVP = 1.469€
4090:
MSRP $1599 * 1€/$1 * 1,19 MWSt = 1.902,81€, UVP = 1.949€

In den USA kommt übrigens auch die Mehrwertsteuer des jeweiligen Bundesstaates noch obendrauf. Die wird dort nur nicht ausgewiesen, da sie sich, anders als in Deutschland, je nach Bundesstaat unterscheiden kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Asghan und rumpeLson
„Das Erstellen eines 8K-Videos im H.265-Codec soll gar in 25 statt 10 Minuten erledigt sein.“

Andersrum.
 
Sagt euch Black Frame Insertion etwas ? Ist die günstigste Art um Motion Blur etwas besser weg zu kriegen.

 
Also DAS flasht mich ja schon

Aber dazu muss das Moddingtool auch gut sein. Aber Morrowwind in RTX wäre schon geil
oder Stalker, oder Crysis, Mafia, Dawn of War, oder jedes andere Spiel, welches Modbar ist


https://www.nvidia.com/en-us/geforce/news/rtx-remix-announcement/
 
  • Gefällt mir
Reaktionen: Laphonso
Serphiel schrieb:
Vorhin erst die Nvidia-Balkendiagramme gesehen.
Interessant das in den eignen Nonsense-Charts tatsächlich Titel ohne jeglichen DLSS-Unterstützung waren. Und damit war diese sagenumwobenen Leistungsgewinne dann auch futsch.
Wenn der ganze Murks aus ist könnte man Pi mal Daumen aus den Nvidia eigenen Balken deuten das die 4080 12GB sich in etwa zwischen 3090 und 3090 Ti einordnet, die 4080 16GB grob etwa 20% auf eine 3090 Ti legt und die 4090 grob 50% zu einer 3090 Ti zulegt.

Siehst du zu 100% richtig und das habe ich mir auch angeschaut. Der Unterschied zwischen 4090 und 4080 ist einfach enorm und viel größer als es noch bei der 3090, 3080 war.

3080: 100% Leistung 699€
3090: 110% Leistung 1499€
-> Klar, die 3090 hatte 24GB und war für Anwendungen gedacht. Für Gamer war die 3080 aber enorm viel besser.

4070 (4080 12GB): ~110% 1100€
4080 16GB: ~130-140% 1500€
4090: 200% 2000€

Das wäre meine Einschätzung zur Leistung ohne diverse Zusätze und Raytracing. Die 4070 und 4080 ist viel weiter weg von der 4090, dafür mit dem Preis viel dichter dran. Keine Ahnung wer sich das ausgedacht hat.
 
  • Gefällt mir
Reaktionen: Beg1
Serphiel schrieb:
Da die 3000 Serie ja afaik erst mal am Markt bleibt...

Ja, aber wahrscheinlich nicht alle. Da muss man schon genau hinschauen.

Auf diesem Bild sieht man schön, wie nVidia sich das offenbar längerfristig vorstellt. Oben die RTX 4090 und die beiden RTX 4080er ab $899.

Aber bei den 3000ern ist keine Spur mehr zu sehen von RTX 3090Ti, RTX 3090 oder RTX 3080Ti, sondern es geht von oben mit der RTX 3080 los.

Ich interpretiere das als klares Zeichen, dass die Bestände der RTX 3090Ti/3090/3080Ti inzwischen schon so dezimiert sind, dass man mit einem zeitnahen Abverkauf und Auslaufen (EOL) dieser Karten in den nächsten Wochen rechnet.

Bei RTX 3080, RTX 3070 und RTX 3060 dagegen scheint es wesentlich mehr Überbestände zu geben, so dass diese vorerst ab $329 das Portfolio nach unten abrunden werden.
Wie lange das so bleiben wird, weiß natürlich kein Mensch, aber ich gehe schon von Monaten aus, denn die Folie heißt ja "The new GeForce RTX family", als ob das Portfolio so erst mal für eine Weile fix ist.

Bis dahin wird es sicherlich keine RTX 4000er Karten geben, die im Revier der RTX 3080 (und darunter) wildern. Die RTX 4070 könnte also noch länger/lange auf sich warten lassen.
 
  • Gefällt mir
Reaktionen: Laphonso und syfsyn
Viel gelesen und gehört, aber wieso kein DP2.0 und PCIE 5.0? Der letztere ist uninteressant, aber DP 2.0 nicht zu integrieren bei den gestiegenen Leistungsdaten sieht nach einem Eigentor aus.
 
@Eorzorian

Das hier haben nVidia in der Q&A Runde dazu gesagt...

The current DisplayPort 1.4 standard already supports 8K at 60Hz. Support for DisplayPort 2.0 in consumer gaming displays are still a ways away in the future.

... und ich denke sie haben recht. Wenn man auf Geizhals filtert, dann gibt es exakt null DP 2.0 Monitore bisher. Die Monitorhersteller sind notorisch gut im Ankündigen und Präsentieren auf Messen, aber bis Geräte im Handel erscheinen, vergehen dann teils Jahre. Und teils kommen ja die gezeigten Geräte sogar gar nicht, sondern verschwinden irgendwie von der Bildfläche.

Es wird sicherlich irgendwann nächstes Jahr langsam los gehen mit DP 2.0 und vereinzelten Monitoren, aber von Marktdurchdringung wird man noch lange Zeit nicht im Ansatz sprechen können.
Insofern finde ich das nachvollziehbar, dass noch auf DP 2.0 verzichtet wird. Zudem haben sie so ggf. für die RTX 5000er Serie einen kleinen Extra-Anreiz zum Aufrüsten :D .
 
Vitec schrieb:
Da erscheint doch die 4080 12Gb wie ein Schnäppchen, wenn man nun für 899$ fast 3090Ti Leistung bekommt :evillol: .
Interessante Perspektive - laut dem Diagramm sieht das so aus, als sei die 4080 12GB dann in "non-cheat" rasterizer-Spielen genauso schnell wie heute eine 6900 XT. Die gibt's grad aber schon für ~780€.

Ich kann es echt nicht erwarten, das volle Bild zu sehen. :jumpin:
 
Ich verstehe die Latenz nicht, wieso hat eine RTX3090ti bei native 1440p RT Psycho 21,8ms und eine 4090 75.4ms?


1663886873363.png





1663886847768.png


1663887453055.png
 
Zuletzt bearbeitet:
ShiftyBro schrieb:
Interessante Perspektive - laut dem Diagramm sieht das so aus, als sei die 4080 12GB dann in "non-cheat" rasterizer-Spielen genauso schnell wie heute eine 6900 XT. Die gibt's grad aber schon für ~780€.

Ich kann es echt nicht erwarten, das volle Bild zu sehen. :jumpin:

1. Die 3090ti hat mit 24GB doppelt soviel Speicher wie die 40"70".
2. Die 40"70" kostet 1100€ und es gibt keine Founder Edition, also eventuell sogar noch mehr für Custom Modelle.
 
  • Gefällt mir
Reaktionen: ShiftyBro
Ahja. Die 3090ti braucht also 21.8ms um den nächsten Frame zu berechnen. Also ist die Latency, die bei Videocardz angegeben wird, etwas anderes? Steht leider keine Erklärung dabei und es wurde direkt unter den FPS angegeben.
 
RogueSix schrieb:
und ich denke sie haben recht. Wenn man auf Geizhals filtert, dann gibt es exakt null DP 2.0 Monitore bisher
Das ist natürlich auch ein Argument dagegen, aber wieso soll dem Kunden das vorenthalten werden? Es ist ein sehr weit hergeholtes Beispiel, aber als PS mit Bluray kam, da waren die Preise für Standard-Bluray-Player auch hoch und der Standard hatte sich nicht mal durchgesetzt. Bei dem „aktuellen“ Preis was Nvidia verlangt, erwartet/erwarte der Kunde/ich selbstverständlich State-of-Art, aber wird/werde anderweitig getröstet. Ich kaufe ihnen das nicht ab und vor allem wird man dann die Kunden eben für die nächste Generation mit der Schnittstelle DP 2.0 ködern. Ich rieche eher wenn auch sehr gering den Kostenfaktor, es ist nur reine Vermutung.
 
Zuletzt bearbeitet:
Die 21,8ms sind die frametimes
das hat rein gar nix mit dem latenz zutun wovon wir hier reden du siehst den frame erst gar nicht
also zu den frametime die die gpu vorrechnet werden min 1 frame addiert also dann die zeit zum nächsten Bild dann 43,6ms
Das ist das optimum was man erreichen kann wenn blöd läuft ist wie bei den Tv mit motion blur Reduktion
das nochmal 2 frame addiert
Das Ergebnis ist wie bei vsync + nochmal nen frame mehr
wenn blöd läuft ist die Handlung schon 3 -5 Bilder voraus
3 Bilder bei 60hz sind 48ms das mal 2 weil man ja reagiert biste bei unegfär 300-400ms und glaub mir das ist bei Reaktionsspielen Tödlich.
Meine Reaktionszeit ist etwa 200-300ms testen kann an sich selber mit browserprogramm wie humanbenchmark.
Jugendliche erreichen da etwa 150-200ms
Der monitor sollte aber schnell sein hätte ichn 144hz oder 240hz panel käme ich auch im schnitt bei 150ms an
Aktuell 75hz
 
Zurück
Oben