Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

Ah, also wie schnell das Game auf die eigenen Eingaben reagiert und diese umsetzt. Danke für die Auffrischung.
 
CyrionX schrieb:
Ab ca 120Hz bis hin zu 360Hz und bald 500Hz Bildschirmen ist der "Flüssigkeits"-Unterschied minimal bis nicht wahrnehmbar.
Ohne 240Hz OLED sollte man solche Behauptungen nicht aufstellen denn nur weil man auf einem
Fake ähm Fast IPS 240Hz kaum einen Unterschied sieht weil die LCD Panel Reaktionszeit limitiert,
muss das auf OLED nicht genauso sein. Bereits auf einem schnellen TN Panel sieht man es deutlich.
Nach einer Runde mit 240 oder sogar 360Hz (mit dementsprechend viel FPS) wirkt 120Hz unscharf.

Wenn Nvidia jetzt mit einer Art Zwischenbildberechnung arbeitet dann kann man sogar in UHD/4K
240FPS schaffen und um die wahrzunehmen braucht man eben 240Hz also wird das der neue Scheiß.
Natürlich absurd, dass man bei DP 1.4 bleibt weil weder das noch HDMI 2.1 können 4K 240Hz, oder ?
 
0ssi schrieb:
Ohne 240Hz OLED sollte man solche Behauptungen nicht aufstellen denn nur weil man auf einem
Fake ähm Fast IPS 240Hz kaum einen Unterschied sieht weil die LCD Panel Reaktionszeit limitiert,
muss das auf OLED nicht genauso sein.
Lies meine Behauptung dann doch wenigstens korrekt ;)
In Bezug war ohnehin von der Inputlatenz die Rede, nicht von der Panel Reaktionszeit. Diese ist hier völlig irrelevant da ein eigener, unabhängiger Faktor. Eine fiktive Inputlatenz von 1 Sekunde bleibt 1 Sekunde, selbst wenn ein XLED bei 0,1 Nanosekunden läge
0ssi schrieb:
Bereits auf einem schnellen TN Panel sieht man es deutlich.
Nach einer Runde mit 240 oder sogar 360Hz (mit dementsprechend viel FPS) wirkt 120Hz unscharf.
Verwechsle bitte nicht Schärfe mit Flüssigdarstellung mit Reaktionszeit. Dann ergeben sich solche "Widersprüche" auch nicht.
0ssi schrieb:
... 240Hz also wird das der neue Scheiß.
Das ist schon "alter Sch***" , siehe hier
 
CyrionX schrieb:
In Bezug war ohnehin von der Inputlatenz die Rede, ...
Ok dann wäre der klassische Begriff "Gameplay" am besten um Mißverständnisse zu vermeiden
und dann gebe ich dir Recht weil selbst 120Hz mit V-Sync spielen sich schon fast flüssig/lagfrei.
Aber bei der sichtbaren "Flüssigkeit" bzw. Bewegtbildschärfe ist noch viel Luft nach oben. :daumen:
 
  • Gefällt mir
Reaktionen: CyrionX
0ssi schrieb:
Ok dann wäre der klassische Begriff "Gameplay" am besten um Mißverständnisse zu vermeiden
und dann gebe ich dir Recht weil selbst 120Hz mit V-Sync spielen sich schon fast flüssig/lagfrei.
Aber bei der sichtbaren "Flüssigkeit" bzw. Bewegtbildschärfe ist noch viel Luft nach oben. :daumen:
Yo, an die quasi Instant-Reaktionszeit der "guten alten CRT" kommt bisher nichts heran.
Bei der "Flüssigkeitserkennung" sind wir allerdings schon längst über die neurophysiologische Grenze hinaus, Flackern bei 200-300 Hz nehmen einzelne, ganz sensible Individuen bei bestimmten Lampenarten mittels Kopfschmerzen wahr. Mehr geht nicht, alles darüber ist Kompensation für die Nachteile der LCD Technik. Das Problem der Schlieren/Ghosting ist also erstmal ein plattformspezifisches.
 
0ssi schrieb:
Wenn Nvidia jetzt mit einer Art Zwischenbildberechnung arbeitet dann kann man sogar in UHD/4K
240FPS schaffen und um die wahrzunehmen braucht man eben 240Hz also wird das der neue Scheiß.
Natürlich absurd, dass man bei DP 1.4 bleibt weil weder das noch HDMI 2.1 können 4K 240Hz, oder ?
Doch das müsste gehen. Der Samsung Odyssey Neo G8 bietet genau diese Werte. Dann aber natürlich mit DSC.
 
RogueSix schrieb:
.. und ich denke sie haben recht. Wenn man auf Geizhals filtert, dann gibt es exakt null DP 2.0 Monitore bisher.
Nö! Das ist ziemlich Blödsinn den sie veranstalten nur ein paar Cent zu sparen, weil AMD so mit ganz wenig Aufwand dort eigene Produkte platzieren kann. Du siehst keine Monitore mit DP2.0? Heute mag es so sein, wieso sollte es auch welche geben, es gibt noch keine GPU dafür. Morgen kommt dann das erste 4K 144Hz Display oder ein beliebiges 5K Gaming Display und der Nvidia Käufer zieht den kürzeren.

Es gibt schlichtweg keinen plausiblen Grund bei einer aktuellen >1000€ GPU auf DP2.0 zu verzichten, egal was Nvidia so behauptet. GPUs laufen auch mal 3-5 Jahre und in dieser Zeit werden immer mehr Monitore auf den aktuellen Standard setzen.

RogueSix schrieb:
Es wird sicherlich irgendwann nächstes Jahr langsam los gehen mit DP 2.0 und vereinzelten Monitoren, aber von Marktdurchdringung wird man noch lange Zeit nicht im Ansatz sprechen können.
Wir reden auch nicht von Massenware bei einer 4090, sondern von einem absoluten Enthusiastenprodukt. Genau die Kundengruppe die dann als erstes bei 4K oder 5K Gaming Monitoren zuschlägt und nicht nur 60-120Hz "Sparbrötchen" will, von 8K reden wir schon besser gar nicht erst. Da bezahlt man 2000-2500€ für ein GPU und braucht Bildkomprimierung um den Wunschmonitor zu betreiben? Damit macht sich Nvidia keine Freunde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beg1
Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt, auch wenn die Lederjacke was ganz anderes zu der Zeit sagt xD.
Sub.png

Einfach Untertitel in dem Video auf Englisch stellen, dann sieht man es selbst.

Also mMn lohnen sich die beiden 4080 nicht, es scheint sich um eine Mischkalkulation zu handeln, denn trotz der Weltweiten Inflation finde ich den Aufpreis für die 4090 fair(+100$) und ich meine für den schlechten Eurokurs kann Nvidia ja nix.... Die kleinen 4080er (70TI) musste er so bepreisen, ansonsten bekommt er die Lagerbestände der 30er Reihe niemals leer ohne weitere Milliarden Abschreibungen.

Ich warte auf externe Reviews, aber ich denke mal +25% Raster Performance werden es schon sein und wenn DLSS 3 noch etwas reift, dann kann die PIMAX 12K kommen 8)
 
Ich habe ein be quiet! Dark Power 12 1000W, was genau bedeutet das nun? Kann ich eine 4090 damit überhaupt betreiben? Ich meine wegen den Anschlüssen. Das Netzteil hat weder einen 12VHPWR Anschluss noch ATX 3.0 sondern sagt: Kompatibel mit ATX12V 2.52 and EPS12V 2.92 standards. Benötige ich also 3x dieses PCIe (6+2 pin) Y-Kabel, von denen ich jeweils nur einen in den Adapter stecke? So das am Ende drei PCIe Anschlüsse des Netzteils an dem Adapter hängen oder wie? Und habe ich dadurch einen Nachteil gegenüber einem ATX3.0 Netzteil mit 12VHPWR Anschluss (außer dem kabelsalat)? Ich habe gerade mal geschaut, von be quiet! gibts nichts mit ATX3.0. Also kann ich mir nicht mal ein passendes Netzteil kaufen? Toller Anschluss.

Xoodo schrieb:
Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt [...]
Ohne es jetzt überprüft zu haben aber sicher das dort nicht von SER geredet wird? Das deckt sich zumindest mit dem Artikel das SER die allgemeine Performance um 25% pushen kann. Zitat: "Bei Rasterizer-Programmen spricht Nvidia von bis zu 25 Prozent mehr Leistung."
 
Xoodo schrieb:
Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt, auch wenn die Lederjacke was ganz anderes zu der Zeit sagt xD.
Irgendwie passt der Untertitel allgemein überhaupt nicht bei mir. Der redet zu der Zeit etwas ganz anderes.

Aber die 25% beziehen sich dort denke ich rein auf Shader Execution Reordering.

Xoodo schrieb:
trotz der Weltweiten Inflation finde ich den Aufpreis für die 4090 fair(+100$) und ich meine für den schlechten Eurokurs kann Nvidia ja nix....
Der Euro-Kurs ist ja für die Dollar-Preise egal. Man darf aber nicht vergessen dass es in den USA auch eine Inflation gibt. Zwar nicht so stark wie hier aber stärker als gewöhnlich.
Dazu noch der deutlich bessere Prozess (TSMC N4 statt Samsungs 8nm) - die USD-Preise der 4090 sind gut.

Bei uns ging es von 1500€ für die 3090 auf 1950€ für die 4090, was 30% sind und das ist schon recht viel.
 
borizb schrieb:
Was, eine neue Technik die nicht einen Tag nach Ankündigung perfekt in jedem
Szenario perfekt funktioniert? Diese Welt geht langsam wirklich den Bach runter.
Das darf aber nicht bei einer 2.000€ Grafikkarte passieren, das ist inakzeptabel. Das hat nichts mit "die welt geht den Bach runter" zu TUN, höchstens die Preise gehen den Bach runter.
 
Nachdem für den Microsoft Flight Simulator 2020 nun endlich das SU10 veröffentlicht wurde, welches ua DLSS 2 als AA bringt, muss ich bei UHD-Auflösung sagen, es hat mich aus zweierlei Gründen bereits enttäuscht:

  • beinahe keine FPS-Steigerung und wenn würde ich das auf Messungenauigkeit schieben (RT Server) ... evtl. liegt das aber daran, dass NVidia noch keinen neuen GameReady-Treiber nachgeschoben hat.
  • Der viel gravierendere Punkt, die Details im Cockpit, besonders Schrift und Symbolik, ist deutlich verwaschener auch mit nachträglichem Schärfen. Während die äußere Ansicht in der Bewegung kaum Unterschiede ausmacht (zumal auch die Bing-Darstellungen manchen Detailgrad schlucken), ist es eben bei eher statischen Elementen sehr auffällig und auch extrem störend, wenn ein Eingabeknopf gedreht wird und die Anzeige erst ne halbe Sekunde später reagiert bzw den Wert anzeigt. Zwischenwerte werden verschluckt. Das erinnert mich sehr an die ersten trägen Touchdisplays mit Stifteingaben.
Ich hätte gehofft, hier mehr rauszuholen, nativ sieht weiterhin besser aus.

Aber vielleicht ist ja auch nur die Implementierung seitens Asobo halbgar und man korrigiert sehr zur Unfreude das ganze Thema erst mit DLSS 3.

Soweit mein kleiner Einblick.
Daher wäre mir bei der neuen Generation auch die dezidierte Angabe der reinen Rasterisierungsmehrleistung recht. Aber die Benchmarks kommen hoffentlich bald.

Rein interessehalber, denn seitens Preis und Verbrauch muss ich derzeit ohnehin sehr genau überlegen, ob sich das noch rein für den MSFS 2020 noch auszahlt, der ansonsten gut läuft und auch mit weniger FPS (seit eher) annehmbar ist.
 
@Recharging

ich denke/hoffe der GR Treiber wird es richten, da die Beta bei mir astrein lief und jetzt durch das Update im Vergleich es wie ein Sack Nüsse läuft. Die FPS stimmen zwar und es sind ein paar mehr als bei der Beta aber das jetzt vorhandene Stocken macht es praktisch unspielbar. Deutet alles auf Vram Optimierungsbedarf hin, es hilft die Terrain Lod zu verringern.

Der neue Studiotreiber 517.40 soll wohl bei Einigen geholfen haben. Der GR Treiber lässt ja noch auf sich warten.
 
  • Gefällt mir
Reaktionen: Recharging
DRVNabsolute schrieb:
Ich würde meinen die meisten nehmen lieber die doppelte Frameratr als es wegen so Kleinigkeiten seien zu lassen.
Also das sieht nicht nach Kleinigkeiten aus.
 
ThePlayer schrieb:
Also das sieht nicht nach Kleinigkeiten aus.
Das ist Ansichtssache den offensichtlich bin ich der Meinung. Mal davon abgesehen dieses Spiderman Beispiel ist sicherlich nicht repräsentativ für alle Spiele und wir reden hier auch noch über ein bisher noch nicht erschienenes Feature. Wie wäre es wenn wir einfach mal die Tests abwarten bevor wir hier über nichts diskutieren?
 
  • Gefällt mir
Reaktionen: Tortellino
@Recharging Das liegt möglicherweise daran, dass FS2020 CPU limitiert ist. Bei mir hat der Wechsel von einem 3600XT zum 5800X3D einen sehr deutlichen Leistungsschub gebracht.
 
  • Gefällt mir
Reaktionen: xexex
  • Gefällt mir
Reaktionen: Asghan, S.Kara und anappleaday
Zurück
Oben