Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions
Ohne 240Hz OLED sollte man solche Behauptungen nicht aufstellen denn nur weil man auf einemCyrionX schrieb:Ab ca 120Hz bis hin zu 360Hz und bald 500Hz Bildschirmen ist der "Flüssigkeits"-Unterschied minimal bis nicht wahrnehmbar.
Fake ähm Fast IPS 240Hz kaum einen Unterschied sieht weil die LCD Panel Reaktionszeit limitiert,
muss das auf OLED nicht genauso sein. Bereits auf einem schnellen TN Panel sieht man es deutlich.
Nach einer Runde mit 240 oder sogar 360Hz (mit dementsprechend viel FPS) wirkt 120Hz unscharf.
Wenn Nvidia jetzt mit einer Art Zwischenbildberechnung arbeitet dann kann man sogar in UHD/4K
240FPS schaffen und um die wahrzunehmen braucht man eben 240Hz also wird das der neue Scheiß.
Natürlich absurd, dass man bei DP 1.4 bleibt weil weder das noch HDMI 2.1 können 4K 240Hz, oder ?
Lies meine Behauptung dann doch wenigstens korrekt0ssi schrieb:Ohne 240Hz OLED sollte man solche Behauptungen nicht aufstellen denn nur weil man auf einem
Fake ähm Fast IPS 240Hz kaum einen Unterschied sieht weil die LCD Panel Reaktionszeit limitiert,
muss das auf OLED nicht genauso sein.
In Bezug war ohnehin von der Inputlatenz die Rede, nicht von der Panel Reaktionszeit. Diese ist hier völlig irrelevant da ein eigener, unabhängiger Faktor. Eine fiktive Inputlatenz von 1 Sekunde bleibt 1 Sekunde, selbst wenn ein XLED bei 0,1 Nanosekunden läge
Verwechsle bitte nicht Schärfe mit Flüssigdarstellung mit Reaktionszeit. Dann ergeben sich solche "Widersprüche" auch nicht.0ssi schrieb:Bereits auf einem schnellen TN Panel sieht man es deutlich.
Nach einer Runde mit 240 oder sogar 360Hz (mit dementsprechend viel FPS) wirkt 120Hz unscharf.
Das ist schon "alter Sch***" , siehe hier0ssi schrieb:... 240Hz also wird das der neue Scheiß.
Ok dann wäre der klassische Begriff "Gameplay" am besten um Mißverständnisse zu vermeidenCyrionX schrieb:In Bezug war ohnehin von der Inputlatenz die Rede, ...
und dann gebe ich dir Recht weil selbst 120Hz mit V-Sync spielen sich schon fast flüssig/lagfrei.
Aber bei der sichtbaren "Flüssigkeit" bzw. Bewegtbildschärfe ist noch viel Luft nach oben.
Yo, an die quasi Instant-Reaktionszeit der "guten alten CRT" kommt bisher nichts heran.0ssi schrieb:Ok dann wäre der klassische Begriff "Gameplay" am besten um Mißverständnisse zu vermeiden
und dann gebe ich dir Recht weil selbst 120Hz mit V-Sync spielen sich schon fast flüssig/lagfrei.
Aber bei der sichtbaren "Flüssigkeit" bzw. Bewegtbildschärfe ist noch viel Luft nach oben.
Bei der "Flüssigkeitserkennung" sind wir allerdings schon längst über die neurophysiologische Grenze hinaus, Flackern bei 200-300 Hz nehmen einzelne, ganz sensible Individuen bei bestimmten Lampenarten mittels Kopfschmerzen wahr. Mehr geht nicht, alles darüber ist Kompensation für die Nachteile der LCD Technik. Das Problem der Schlieren/Ghosting ist also erstmal ein plattformspezifisches.
Doch das müsste gehen. Der Samsung Odyssey Neo G8 bietet genau diese Werte. Dann aber natürlich mit DSC.0ssi schrieb:Wenn Nvidia jetzt mit einer Art Zwischenbildberechnung arbeitet dann kann man sogar in UHD/4K
240FPS schaffen und um die wahrzunehmen braucht man eben 240Hz also wird das der neue Scheiß.
Natürlich absurd, dass man bei DP 1.4 bleibt weil weder das noch HDMI 2.1 können 4K 240Hz, oder ?
Nö! Das ist ziemlich Blödsinn den sie veranstalten nur ein paar Cent zu sparen, weil AMD so mit ganz wenig Aufwand dort eigene Produkte platzieren kann. Du siehst keine Monitore mit DP2.0? Heute mag es so sein, wieso sollte es auch welche geben, es gibt noch keine GPU dafür. Morgen kommt dann das erste 4K 144Hz Display oder ein beliebiges 5K Gaming Display und der Nvidia Käufer zieht den kürzeren.RogueSix schrieb:.. und ich denke sie haben recht. Wenn man auf Geizhals filtert, dann gibt es exakt null DP 2.0 Monitore bisher.
Es gibt schlichtweg keinen plausiblen Grund bei einer aktuellen >1000€ GPU auf DP2.0 zu verzichten, egal was Nvidia so behauptet. GPUs laufen auch mal 3-5 Jahre und in dieser Zeit werden immer mehr Monitore auf den aktuellen Standard setzen.
Wir reden auch nicht von Massenware bei einer 4090, sondern von einem absoluten Enthusiastenprodukt. Genau die Kundengruppe die dann als erstes bei 4K oder 5K Gaming Monitoren zuschlägt und nicht nur 60-120Hz "Sparbrötchen" will, von 8K reden wir schon besser gar nicht erst. Da bezahlt man 2000-2500€ für ein GPU und braucht Bildkomprimierung um den Wunschmonitor zu betreiben? Damit macht sich Nvidia keine Freunde.RogueSix schrieb:Es wird sicherlich irgendwann nächstes Jahr langsam los gehen mit DP 2.0 und vereinzelten Monitoren, aber von Marktdurchdringung wird man noch lange Zeit nicht im Ansatz sprechen können.
Zuletzt bearbeitet:
Xoodo
Cadet 4th Year
- Registriert
- Okt. 2007
- Beiträge
- 86
Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt, auch wenn die Lederjacke was ganz anderes zu der Zeit sagt xD.
Einfach Untertitel in dem Video auf Englisch stellen, dann sieht man es selbst.
Also mMn lohnen sich die beiden 4080 nicht, es scheint sich um eine Mischkalkulation zu handeln, denn trotz der Weltweiten Inflation finde ich den Aufpreis für die 4090 fair(+100$) und ich meine für den schlechten Eurokurs kann Nvidia ja nix.... Die kleinen 4080er (70TI) musste er so bepreisen, ansonsten bekommt er die Lagerbestände der 30er Reihe niemals leer ohne weitere Milliarden Abschreibungen.
Ich warte auf externe Reviews, aber ich denke mal +25% Raster Performance werden es schon sein und wenn DLSS 3 noch etwas reift, dann kann die PIMAX 12K kommen 8)
Einfach Untertitel in dem Video auf Englisch stellen, dann sieht man es selbst.
Also mMn lohnen sich die beiden 4080 nicht, es scheint sich um eine Mischkalkulation zu handeln, denn trotz der Weltweiten Inflation finde ich den Aufpreis für die 4090 fair(+100$) und ich meine für den schlechten Eurokurs kann Nvidia ja nix.... Die kleinen 4080er (70TI) musste er so bepreisen, ansonsten bekommt er die Lagerbestände der 30er Reihe niemals leer ohne weitere Milliarden Abschreibungen.
Ich warte auf externe Reviews, aber ich denke mal +25% Raster Performance werden es schon sein und wenn DLSS 3 noch etwas reift, dann kann die PIMAX 12K kommen 8)
Tortellino
Cadet 4th Year
- Registriert
- Nov. 2020
- Beiträge
- 108
Ich habe ein be quiet! Dark Power 12 1000W, was genau bedeutet das nun? Kann ich eine 4090 damit überhaupt betreiben? Ich meine wegen den Anschlüssen. Das Netzteil hat weder einen 12VHPWR Anschluss noch ATX 3.0 sondern sagt: Kompatibel mit ATX12V 2.52 and EPS12V 2.92 standards. Benötige ich also 3x dieses PCIe (6+2 pin) Y-Kabel, von denen ich jeweils nur einen in den Adapter stecke? So das am Ende drei PCIe Anschlüsse des Netzteils an dem Adapter hängen oder wie? Und habe ich dadurch einen Nachteil gegenüber einem ATX3.0 Netzteil mit 12VHPWR Anschluss (außer dem kabelsalat)? Ich habe gerade mal geschaut, von be quiet! gibts nichts mit ATX3.0. Also kann ich mir nicht mal ein passendes Netzteil kaufen? Toller Anschluss.
Ohne es jetzt überprüft zu haben aber sicher das dort nicht von SER geredet wird? Das deckt sich zumindest mit dem Artikel das SER die allgemeine Performance um 25% pushen kann. Zitat: "Bei Rasterizer-Programmen spricht Nvidia von bis zu 25 Prozent mehr Leistung."Xoodo schrieb:Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt [...]
Irgendwie passt der Untertitel allgemein überhaupt nicht bei mir. Der redet zu der Zeit etwas ganz anderes.Xoodo schrieb:Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt, auch wenn die Lederjacke was ganz anderes zu der Zeit sagt xD.
Aber die 25% beziehen sich dort denke ich rein auf Shader Execution Reordering.
Der Euro-Kurs ist ja für die Dollar-Preise egal. Man darf aber nicht vergessen dass es in den USA auch eine Inflation gibt. Zwar nicht so stark wie hier aber stärker als gewöhnlich.Xoodo schrieb:trotz der Weltweiten Inflation finde ich den Aufpreis für die 4090 fair(+100$) und ich meine für den schlechten Eurokurs kann Nvidia ja nix....
Dazu noch der deutlich bessere Prozess (TSMC N4 statt Samsungs 8nm) - die USD-Preise der 4090 sind gut.
Bei uns ging es von 1500€ für die 3090 auf 1950€ für die 4090, was 30% sind und das ist schon recht viel.
@Wolfgang WoDas Erstellen eines 8K-Videos im H.265-Codec soll gar in 25 statt 10 Minuten erledigt sein.
Das scheint jetzt aber nicht der Knaller zu sein😉
Liest sich wie immer beeindruckend, bin auf die Realperformance gespannt
Ben_computer_Ba
Lt. Commander
- Registriert
- Sep. 2021
- Beiträge
- 1.147
Das darf aber nicht bei einer 2.000€ Grafikkarte passieren, das ist inakzeptabel. Das hat nichts mit "die welt geht den Bach runter" zu TUN, höchstens die Preise gehen den Bach runter.borizb schrieb:Was, eine neue Technik die nicht einen Tag nach Ankündigung perfekt in jedem
Szenario perfekt funktioniert? Diese Welt geht langsam wirklich den Bach runter.
Recharging
Captain
- Registriert
- Dez. 2011
- Beiträge
- 4.093
Nachdem für den Microsoft Flight Simulator 2020 nun endlich das SU10 veröffentlicht wurde, welches ua DLSS 2 als AA bringt, muss ich bei UHD-Auflösung sagen, es hat mich aus zweierlei Gründen bereits enttäuscht:
Aber vielleicht ist ja auch nur die Implementierung seitens Asobo halbgar und man korrigiert sehr zur Unfreude das ganze Thema erst mit DLSS 3.
Soweit mein kleiner Einblick.
Daher wäre mir bei der neuen Generation auch die dezidierte Angabe der reinen Rasterisierungsmehrleistung recht. Aber die Benchmarks kommen hoffentlich bald.
Rein interessehalber, denn seitens Preis und Verbrauch muss ich derzeit ohnehin sehr genau überlegen, ob sich das noch rein für den MSFS 2020 noch auszahlt, der ansonsten gut läuft und auch mit weniger FPS (seit eher) annehmbar ist.
- beinahe keine FPS-Steigerung und wenn würde ich das auf Messungenauigkeit schieben (RT Server) ... evtl. liegt das aber daran, dass NVidia noch keinen neuen GameReady-Treiber nachgeschoben hat.
- Der viel gravierendere Punkt, die Details im Cockpit, besonders Schrift und Symbolik, ist deutlich verwaschener auch mit nachträglichem Schärfen. Während die äußere Ansicht in der Bewegung kaum Unterschiede ausmacht (zumal auch die Bing-Darstellungen manchen Detailgrad schlucken), ist es eben bei eher statischen Elementen sehr auffällig und auch extrem störend, wenn ein Eingabeknopf gedreht wird und die Anzeige erst ne halbe Sekunde später reagiert bzw den Wert anzeigt. Zwischenwerte werden verschluckt. Das erinnert mich sehr an die ersten trägen Touchdisplays mit Stifteingaben.
Aber vielleicht ist ja auch nur die Implementierung seitens Asobo halbgar und man korrigiert sehr zur Unfreude das ganze Thema erst mit DLSS 3.
Soweit mein kleiner Einblick.
Daher wäre mir bei der neuen Generation auch die dezidierte Angabe der reinen Rasterisierungsmehrleistung recht. Aber die Benchmarks kommen hoffentlich bald.
Rein interessehalber, denn seitens Preis und Verbrauch muss ich derzeit ohnehin sehr genau überlegen, ob sich das noch rein für den MSFS 2020 noch auszahlt, der ansonsten gut läuft und auch mit weniger FPS (seit eher) annehmbar ist.
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.439
@Recharging
ich denke/hoffe der GR Treiber wird es richten, da die Beta bei mir astrein lief und jetzt durch das Update im Vergleich es wie ein Sack Nüsse läuft. Die FPS stimmen zwar und es sind ein paar mehr als bei der Beta aber das jetzt vorhandene Stocken macht es praktisch unspielbar. Deutet alles auf Vram Optimierungsbedarf hin, es hilft die Terrain Lod zu verringern.
Der neue Studiotreiber 517.40 soll wohl bei Einigen geholfen haben. Der GR Treiber lässt ja noch auf sich warten.
ich denke/hoffe der GR Treiber wird es richten, da die Beta bei mir astrein lief und jetzt durch das Update im Vergleich es wie ein Sack Nüsse läuft. Die FPS stimmen zwar und es sind ein paar mehr als bei der Beta aber das jetzt vorhandene Stocken macht es praktisch unspielbar. Deutet alles auf Vram Optimierungsbedarf hin, es hilft die Terrain Lod zu verringern.
Der neue Studiotreiber 517.40 soll wohl bei Einigen geholfen haben. Der GR Treiber lässt ja noch auf sich warten.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.254
Also das sieht nicht nach Kleinigkeiten aus.DRVNabsolute schrieb:Ich würde meinen die meisten nehmen lieber die doppelte Frameratr als es wegen so Kleinigkeiten seien zu lassen.
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 12.036
Ja, das wird spannend werden, besonders die Diskussionen hierShiftyBro schrieb:Ich kann es echt nicht erwarten, das volle Bild zu sehen.
D
DRVNabsolute
Gast
Das ist Ansichtssache den offensichtlich bin ich der Meinung. Mal davon abgesehen dieses Spiderman Beispiel ist sicherlich nicht repräsentativ für alle Spiele und wir reden hier auch noch über ein bisher noch nicht erschienenes Feature. Wie wäre es wenn wir einfach mal die Tests abwarten bevor wir hier über nichts diskutieren?ThePlayer schrieb:Also das sieht nicht nach Kleinigkeiten aus.
@Tortellino Genau so ist es, 3 PCIe Anschlüsse gehen in einen Adapter, der den Grafikkarten beiliegt.
Ein hochwertiges groß ausgelegtes Netzteil sollte keine Probleme mit den kurzfristigen Leistungsspitzen haben, die in der ATX 3.0 vorgesehen sind. Hier ein guter Artikel dazu: https://www.igorslab.de/atx-3-0-vs-...staendnis-oder-kompromiss-mit-hintertuerchen/
Ein hochwertiges groß ausgelegtes Netzteil sollte keine Probleme mit den kurzfristigen Leistungsspitzen haben, die in der ATX 3.0 vorgesehen sind. Hier ein guter Artikel dazu: https://www.igorslab.de/atx-3-0-vs-...staendnis-oder-kompromiss-mit-hintertuerchen/
@Recharging Das liegt möglicherweise daran, dass FS2020 CPU limitiert ist. Bei mir hat der Wechsel von einem 3600XT zum 5800X3D einen sehr deutlichen Leistungsschub gebracht.
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 12.036
Die Inflationsrate in den USA ist höher als in D, 8,3% vs. 7,9%.S.Kara schrieb:Man darf aber nicht vergessen dass es in den USA auch eine Inflation gibt. Zwar nicht so stark wie hier aber stärker als gewöhnlich.
Auch in den USA ist je nach Staat noch die sales tax fällig: https://en.wikipedia.org/wiki/Sales_taxes_in_the_United_Statesdie USD-Preise der 4090 sind gut.
Ähnliche Themen
- Antworten
- 66
- Aufrufe
- 9.942
- Antworten
- 313
- Aufrufe
- 46.620
- Antworten
- 148
- Aufrufe
- 18.677
- Antworten
- 286
- Aufrufe
- 43.893
- Antworten
- 3.241
- Aufrufe
- 295.164