Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions
- Registriert
- Feb. 2019
- Beiträge
- 5.721
ragnarok666 schrieb:Ich bin hier sehr skeptisch, bin auf Tests gespannt, am besten mit E-Sportlern in einem AB Blindtest.
Das Feature ist nicht für E-Sport gedacht, sondern für Titel wie Cyberpunk. Sieht man auch deutlich an der Liste, welche Titel DLSS3 überhaupt unterstützen werden. Da ist weder CS noch Valorant dabei. Macht aber wie gesagt auch keinen Sinn.
Das Zwischenframe (Frame 2) kommt ja durch Frame 1 und Frame 3 zu Stande. Heißt Frame 3 (das Neuste) wird zurückgehalten, damit erst Frame 2 ausgespielt werden kann und danach kommt dann das Frame 3. Heißt du siehst später deinen Gegner.
Im Singleplayergame ist das egal und das Bild wirkt weicher. Bei E-Sport-Titeln willst du aber immer die aktuellste Ausgabe sehen, weil du so natürlich deine Gegner eher wahrnimmst. Oder anders ausgedrückt. Du könntest eventuell deine Framezahl verdoppeln, siehst aber deine Gegner trotzdem später. Das will niemand!
theGoD
Lt. Junior Grade
- Registriert
- Nov. 2010
- Beiträge
- 391
Sehe ich nicht so. Bestenfalls dürfte sich die Latenz um ein Bild erhöhen im Vergleich zur Input Auflösung. Wenn du nach dem DLSS2 Anteil zum Beispiel bei 60 Bildern bist hast du die Latenz welche das Spiel bei dieser Framerate hat (und ja, da gibt es massive Unterschiede je nach Spiel) + zusätzliche 16,6ms nach dem der DLSS3 Anteil deine FPS auf 120 oder noch mehr erhöht hat. 16,6 ms ist ein Bereich den du mit einem halbwegs gutem Monitor nicht merkst und auch generell eine Varianz ist welche verschiedene als "gut zum spielen" bewertete Monitore untereinander haben.Sun-Berg schrieb:Wäre ich potentieller 4xxx Käufer, würde ich das Feature gerne einmal selber testen, bevor ich mich für eine solche GPU entscheide. Denn ich glaube es wird schwierig das Spielgefühl durch interpolierte Frames über Videoberichte nachzuvollziehen.
Und dies ist natürlich alles im Vergleich zu DLSS3 vs DLSS2 + Reflex, welches viele aktuelle Spiele (oder AMD Grafikkarten generell) nicht mal haben während es auf Lovelace für DLSS3 Titel zur Pflicht wird. Nvidia's Cyberpunk Beispiel zeigt das du wenn du jetzt zur Zeit noch kein Reflex nutzt (Spiel unterstützt es nicht oder du hast eine AMD GPU) du praktisch gar nichts im Vergleich zur DLSS3 Input Latenz verlierst.
Was natürlich beachtet werden muss ist das DLSS3 halt auch deine Latenz nicht verbessert. Auch wenn du wie in meinem Rechenbeispiel dann 120 oder mehr Bilder angezeigt bekommst hast du immer noch die Latenz wie bei 60 fps. Aber IMO ist das ab so ca 60 fps (vielleicht auch schon bei 40) nicht mehr wirklich entscheidend. Ich spiele praktisch nur in dem Bereich 60 bis 120 fps und was ich bei unter 90 fps wirklich vermisse ist einfach die Smoothness beim Umschauen, nicht das sich die Eingabe träger anfühlt.
theGoD
Lt. Junior Grade
- Registriert
- Nov. 2010
- Beiträge
- 391
Streaming vom PC zum Handy zum Beispiel? Ich kann genauso gut fragen was dir die CPU Komprimierung bringt wenn du dann massive FPS Einbrüche hast und dennoch die Latenz super hoch ist. Außerdem hat Nvidia erhöht die AV1 Unterstützung auch gleichzeitig die Qualität.wern001 schrieb:was bringt das schnellere encodieren von h.256 wenn die Qualität weiterhin schlecht ist.
ein 8 bit cpu codiert sieht genauso aus wie 10 bit nvidia gpu codiert. bei sonst gleichen parametern.
extrem sieht man das bei feinen farbverläufen wie nebel. Bei nvidia/amd GPU gibt es oft so unschöne tonwertabrisse.
Selbst bei 10 bit gpu und 10 bit cpu ist die CPU-Version kleiner
Aber IMO sind Qualitätsverbesserungen ohnehin nur für Twitch-Streamer interessant, wo halt die Bandbreite künstlich auf lächerliche Werte beschränkt ist. Jetzt mal ohne Scheiß, ein Hard-Limit auf 6mbit/s in 2022? 8mbit/s für Twitch-Partner... Bereits vor 10 Jahren konnten DSL 16000 Nutzer bereits mehr.
Wer mit 40mbit/s im Heimnetzwerk streamt oder recorded kann dies egal sein.
Ergänzung ()
Ich hätte kein Problem dies auch bei schnellen MP Spielen zu aktivieren und bin mir sicher das ich mit 120 FPS besser spiele als mit 60 FPS bei einem Frame extra Latenz...Ayo34 schrieb:Genau, DLSS3 ist für Singleplayerspiele, wenn deine Leistung nicht ausreicht. Feature verfügbar bei den Monsterkarten 4080/90.
Feature verfügbar bei den Monsterkarten 4080/90
Ich hab ne 3080 und dennoch gibt es mehr als genügend Spiele bei denen ich selbst mit DLSS keine 4K120 im GPU Limit packe, von CPU Limits mal ganz abgesehen. Und dann lad dir mal irgendwelche halbwegs realistischen UE5 Demos runter.
3080 war auch mal ne Monsterkarte und dennoch dürften die meisten Besitzer DLSS 2 fast immer nutzen wenn es verfügbar ist.
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 12.002
Nein, da ist kein Widerspruch.DRVNabsolute schrieb:Ich verstehe deine Frage ehrlich gesagt nicht, allein weil du dir im ersten Satz selbst widersprichst.
Gleiches erreicht man, wenn man RT abschaltet.DRVNabsolute schrieb:Warum man DLSS3 braucht ist denke ganz einfach zu beantworten, für mehr FPS.
Ich bekomme damit eine geringere Auflösung und von der AI gut geratene Pixel serviert. Das kann gut aussehen oder auch nicht. Ich halte nichts mehr* von solchen Krücken, ich möchte das Spiel in seiner vollen Pracht genießen können, besonders wenn ich viel Geld für die neueste Technik ausgebe, von der mir suggeriert wird, sie wäre zwei- bis viermal schneller. Doppelt so schnell wurde übrigens auch schon bei Turing suggeriert, war natürlich auch nicht korrekt.DRVNabsolute schrieb:Wenn man DLSS3 und RT nutzt und dadurch bei RT also kaum Leistungseinbußen gegenüber keinem RT hat, ist das doch super?
*Nicht mehr, weil ich DLSS in der Anfangsphase durchaus als Gamechanger aufgefasst habe, um RT auch in hohen Auflösungen flüssig darstellen zu können. Aber mittlerweile sind wir zwei Gens weiter, da muss der Kram auf den dicksten und teuersten GPUs auf 4K nativ laufen, DLSS ist dann was für die kleinen Chips, damit die auch RT flüssig darstellen können.
Man sollte sich IMMER Testberichte von - mehr oder weniger - neutralen Testern ansehen, ehe man sich sowas kauft.DRVNabsolute schrieb:Ich fände es aber ehrlich gesagt schöner wenn Nvidia mehr mit nativen Zahlen also ohne DLSS werben würde, den irgendwie wird das alles ziemlich unübersichtlich und führt dazu das sich der Consumer auch nach der Präsentation zig Benchmarks anachauen muss um ein Urteil zu fällen.
Die allermeisten Kunden haben nunmal keinen Goldesel im Keller, der ihnen immer fleißig Nachschub liefert, egal wie hoch Nvidia die Preise schraubt.DRVNabsolute schrieb:Was ich einfach 0 nachvollziehen kann ist immer wieder die Reaktion der Konsumenten.
Ich weiß ja nicht, wie alt du bist, aber bislang war es immer so, dass die 70er Karte das Topmodell der vorherigen Gen schlägt. Und das zu einem Preis von unter $500. Jetzt bringt Nvidia eine verkappte 4070, nennt sie 4080, verlangt $899 dafür und dann ist die in der normalen Rasterleistung auf den eigenen Slides noch nichtmal schneller als das vorherige Topmodell. DAS hat sich geändert. Und da wunderst du dich über die entsprechenden Reaktionen der Konsumenten? Ich nicht.
Zuletzt bearbeitet:
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 889
theGoD
Lt. Junior Grade
- Registriert
- Nov. 2010
- Beiträge
- 391
Jo und anstatt das neue Spiderman zu spielen kann ich auch einfach das Spiel von 2012 spielen um eine höhere Leistung zu bekommen...HerrRossi schrieb:Gleiches erreicht man, wenn man RT abschaltet.
Wo ist da dein Argument? Natürlich kann man (mit halbwegs moderner Hardware) immer die Grafik runterschrauben, aber das möchte man halt einfach nicht. Gerade RT ist in fast jedem Spiel das es nutzt ein absoluter Gamechanger, selbst RT AO weißt in vielen Szenen bereits riesige Unterschiede auf. Ich habe jetzt RT fähige Hardware seit fast vier Jahren und außer in den letzten zwei BF Titeln (wegen einfach zu schlechter Performance für das gebotene) habe ich nie RT komplett ausgeschaltet, lieber reduziere ich andere Settings.
Oder noch besser, ich schalte DLSS ein welches ich im Quality Preset entweder gar nicht bemerke oder sogar ein besser AA bekomme.
Ich bekomme damit eine geringere Auflösung und von der AI gut geratene Pixel serviert. Das kann gut aussehen oder auch nicht.
Seit DLSS1 durch DLSS 2 ersetzt wurde kannst du die Games in denen DLSS mit hohen Auflösungen schlecht aus sieht an einer Hand abzählen. In der Regel hast du insgesamt (hier ein paar Vorteile auf der einen und ein paar auf der anderen Seite) die gleiche IQ wie mit TAA und nativ, häufig sieht DLSS Quality sogar besser aus. Du kannst dir dies in ein paar Dutzend Digital Foundry Videos gerne im Detail + Zoom anschauen. Ich für meinen Teil auf 4K schalte DLSS meistens sogar ein wenn ich die Performance nicht benötige (z. B. bei Sifu) weil es einfach gutes AA ist.
Der einzige Titel wo ich DLSS in letzter Zeit trotz Performance Not ausgeschaltet habe ist das aktuelle Spiderman, da es dort zu starkem Rauschen der RT Reflektionen führt. Aber selbst in dem Game ist es ansonsten FSR2 und nativ überlegen.
Warum muss es das? Wenn morgen alle anfangen sich 8K360 Monitore zu kaufen muss dann vier Jahre später Nvidia ne GK raus bringen die dies bei jedem Spiel nativ kann? Warum sollten wir Performance oder Grafik wegwerfen wenn wir eine effizentere Möglichkeit haben Spiele zu berechnen? Ich habe lieber geile RT Effekte (seriously, Screen Space Reflektionen sehen scheiße in so vielen Spielen aus und Shadomap Flackern nervt mich schon seit spätestens TES: Skyrim) als zu wissen das jeder Pixel eigens nativ berechnet wurde (was eh Quatsch ist, viele Effekte werden schon seit nem Jahrzehnt mit geringerer Genauigkeit berechnet..).Ich halte nichts mehr* von solchen Krücken, ich möchte das Spiel in seiner vollen Pracht genießen können, besonders wenn ich viel Geld für die neueste Technik ausgebe, von der mir suggeriert wird, sie wäre zwei- bis viermal schneller. Doppelt so schnell wurde übrigens auch schon bei Turing suggeriert, war natürlich auch nicht korrekt.
*Nicht mehr, weil ich DLSS in der Anfangsphase durchaus als Gamechanger aufgefasst habe, um RT auch in hohen Auflösungen flüssig darstellen zu können. Aber mittlerweile sind wir zwei Gens weiter, da muss der Kram auf den dicksten und teuersten GPUs auf 4K nativ laufen, DLSS ist dann was für die kleinen Chips, damit die auch RT flüssig darstellen können.
EDIT: Und natürlich hat der Typ der sagt RT braucht man nicht und DLSS ist doof eine Grafikkarte von AMD die mit RT massiv Performance verliert und kein DLSS nutzen kann...
- Registriert
- Feb. 2019
- Beiträge
- 5.721
theGoD schrieb:Ich hätte kein Problem dies auch bei schnellen MP Spielen zu aktivieren und bin mir sicher das ich mit 120 FPS besser spiele als mit 60 FPS bei einem Frame extra Latenz...
Wie willst du besser (erfolgreicher) sein, wenn du deine Gegner später siehst? Wenn du Dir die Profis anschaust, dann werden sogar Dinge wie GSync ausgeschaltet, die viel weniger Einfluss als DLSS3 haben. Da nimmt man jeden kleinen Vorteil mit.
Außerdem ist der Unterschied zwischen 60 Frames + Reflex und 120 Frames + DLSS3 + Reflex sehr groß und da garantiere ich dir, wird sich keiner für die zweite Option entscheiden. Abgesehen davon erreicht man in den meisten Games dort auch so schon über 300 Frames, ohne DLSS und Co.
Wie gesagt, wenn du geringe Frames hast und nicht competetiv unterwegs bist, okay, sonst nicht!
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 12.002
Dummes Geschwätz. Ich habe eine wassergekühlte 2080ti im Custom Loop. Plonk.theGoD schrieb:EDIT: Und natürlich hat der Typ der sagt RT braucht man nicht und DLSS ist doof eine Grafikkarte von AMD die mit RT massiv Performance verliert und kein DLSS nutzen kann...
R
random12345
Gast
Sehr interessant! Sehr schön was NV Leistet. Hoffe aber das sich ein offener Standard bezüglich „Temporalem Upscaling“ etabliert.
Illithide
Ensign
- Registriert
- Juli 2017
- Beiträge
- 173
+1Ayo34 schrieb:Wie willst du besser (erfolgreicher) sein, wenn du deine Gegner später siehst? Wenn du Dir die Profis anschaust, dann werden sogar Dinge wie GSync ausgeschaltet, die viel weniger Einfluss als DLSS3 haben. Da nimmt man jeden kleinen Vorteil mit.
Außerdem ist der Unterschied zwischen 60 Frames + Reflex und 120 Frames + DLSS3 + Reflex sehr groß und da garantiere ich dir, wird sich keiner für die zweite Option entscheiden. Abgesehen davon erreicht man in den meisten Games dort auch so schon über 300 Frames, ohne DLSS und Co.
Wie gesagt, wenn du geringe Frames hast und nicht competetiv unterwegs bist, okay, sonst nicht!
…und wenn ich niedrige FPS habe, habe ich bereits low framerate compensation per Free/GSync.
Je länger ich darüber nachdenke, desto spanischer kommt mir der Nutzen von DLSS3 vor.
Zuletzt bearbeitet:
Capthowdy
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.968
Das stimmt so aber nur für die PCIe 8-Pin Anschlüsse, nicht für den 12-Pin am Netzteil. Wie viel der hergibt hängt von den Rails des jeweiligen Netzteils ab, das können gut und gerne über 450W pro 12-Pin sein, da würde dann sogar nur ein Anschluss reichen.cloudman schrieb:Laut spec sind 150W pro Anschluß erlaubt. Für 450W sollten es dann 3 Kabel sein.
450W sind 37.5 A das ist zuviel für ein Kabel
Ergänzung ()
Das klingt aber nicht so toll, immerhin gibt es so gut wie keine ATX 3.0 Netzteile.Garack schrieb:Wäre vorsichtig eine neue Nvidia ohne atx3.0 Stecker zu betreiben. Die Adapter Kabel können abrauchen…
Zotak z.b empfiehlt die Dinger nicht mehr als 30 mal an und ab zu stecken
R
RogueSix
Gast
Garack schrieb:Wäre vorsichtig eine neue Nvidia ohne atx3.0 Stecker zu betreiben.
Der Stecker hat nix mit ATX 3.0 zu tun. Das wird gerne verwechselt.
- Der 12VHPWR Stecker (12+4 polig) gehört zur PCIe 5.0 Spezifikation eines Netzteils
- ATX 3.0 ist eine Spezifikation des Netzteils, die diesem erlaubt für eine bestimmte Dauer (in Millisekunden) ein Lastvielfaches auszuhalten, also Lastspitzen effektiv abzufangen
Bei einem neuen Netzteil würde ich auch darauf achten, dass es beides hat und ATX 3.0 Netzteile werden wohl (fast?) alle mit dem 12VHPWR PCIe 5.0 Stecker ausgestattet sein.
Aber weitaus gängiger ist momentan noch der umgekehrte Fall. Es gibt inzwischen eine ordentliche Anzahl von Netzteilen, die zwar den PCIe 5.0 ATX 12VHPWR Anschluss haben, die aber nicht der ATX 3.0 Spezifikation entsprechen.
Serphiel
Lieutenant
- Registriert
- Okt. 2004
- Beiträge
- 588
Vorhin erst die Nvidia-Balkendiagramme gesehen.
Interessant das in den eignen Nonsense-Charts tatsächlich Titel ohne jeglichen DLSS-Unterstützung waren. Und damit war diese sagenumwobenen Leistungsgewinne dann auch futsch.
Wenn der ganze Murks aus ist könnte man Pi mal Daumen aus den Nvidia eigenen Balken deuten das die 4080 12GB sich in etwa zwischen 3090 und 3090 Ti einordnet, die 4080 16GB grob etwa 20% auf eine 3090 Ti legt und die 4090 grob 50% zu einer 3090 Ti zulegt.
Da kommt mir was Verdächtig vor:
3090 Ti FE: 1,329.00€ + 50% = 1,999.30€ und 4090 FE: 1.949€.
3090 Ti FE: 1,329.00€ + 20% = 1,594.80€ und 4080 16 GB FE: 1.469€
Da die 3000 Serie ja afaik erst mal am Markt bleibt bringt Nvidia für mich hier keinen richtigen "Nachfolger" im eigentlichen Sinne sondern ergänzt sein Portfolio einfach nach oben.
Wer jetzt sagt das wäre ja eine andere Klasse: Die 3090 Ti ist laut CB ~30% schneller im Mixed-Performancerating als eine 3080. Also ist meiner Milchmädchenrechnung nach die 4080 16GB am Ende um die 50% schneller als eine 3080 wobei sie aber 89% mehr Geld kostet.
Mal sehen ob das nur einer meiner Gehirnfürze bleibt...
Interessant das in den eignen Nonsense-Charts tatsächlich Titel ohne jeglichen DLSS-Unterstützung waren. Und damit war diese sagenumwobenen Leistungsgewinne dann auch futsch.
Wenn der ganze Murks aus ist könnte man Pi mal Daumen aus den Nvidia eigenen Balken deuten das die 4080 12GB sich in etwa zwischen 3090 und 3090 Ti einordnet, die 4080 16GB grob etwa 20% auf eine 3090 Ti legt und die 4090 grob 50% zu einer 3090 Ti zulegt.
Da kommt mir was Verdächtig vor:
3090 Ti FE: 1,329.00€ + 50% = 1,999.30€ und 4090 FE: 1.949€.
3090 Ti FE: 1,329.00€ + 20% = 1,594.80€ und 4080 16 GB FE: 1.469€
Da die 3000 Serie ja afaik erst mal am Markt bleibt bringt Nvidia für mich hier keinen richtigen "Nachfolger" im eigentlichen Sinne sondern ergänzt sein Portfolio einfach nach oben.
Wer jetzt sagt das wäre ja eine andere Klasse: Die 3090 Ti ist laut CB ~30% schneller im Mixed-Performancerating als eine 3080. Also ist meiner Milchmädchenrechnung nach die 4080 16GB am Ende um die 50% schneller als eine 3080 wobei sie aber 89% mehr Geld kostet.
Mal sehen ob das nur einer meiner Gehirnfürze bleibt...
theGoD
Lt. Junior Grade
- Registriert
- Nov. 2010
- Beiträge
- 391
Ayo34 schrieb:Wie willst du besser (erfolgreicher) sein, wenn du deine Gegner später siehst?
Ach komm jetzt aber, wir reden von ein paar Millisekunden. Wenn mein TV einen leicht geringeren Input-Lag hat als dein Display dann sind die vielleicht schon wieder ausgeglichen und ich rede jetzt nicht von Gaming-Monitor vs totale Office-Grütze.
Und desto höher die Input-FPS desto geringer die zusätzliche Verzögerung.
Heck, selbst die DPI Einstellung deiner Maus kann einen höheren Einfluss auf den Input Lag haben:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Von unterschiedlichen Eingabegeräten mal ganz zu schweigen:
https://external-preview.redd.it/ru...bp&s=e14221067c8964801751e98bafe47b1a9201c0e0
Bei der gleichen Logik sind AMD-Karten übrigens Rotz in jedem Spiel mit Reflex (also allen DLSS 3 Titeln in der Zukunft).
Und um deine Frage zu beantworten, weil ich bei super smoothen 120 fps ich einfach weniger abgelenkt bin, das Spielgeschehen (was bei den meisten Shootern ohnehin wichtiger ist) besser erfassen kann und ich auch mehr Bock habe weiter zu spielen, was einfach zu mehr Training führt.
Das erinnert mich an früher als jeder der Basketball gespielt hat die gleichen Schuhe wie Jordan oder Rodman haben wollte weil sie dachten damit dann auch besser spielen zu können.Wenn du Dir die Profis anschaust, dann werden sogar Dinge wie GSync ausgeschaltet, die viel weniger Einfluss als DLSS3 haben. Da nimmt man jeden kleinen Vorteil mit.
Profis spielen auch Counterstrike auf 4:3 Bildschirmen mit winzigen Auflösungen und allen Details runter weil es ihnen Vorteile bringt, welche sich direkt auf ihr Einkommen und ihre Karriere auswirken.
Auch wenn ich bei Online-Shootern versuche so gut wie möglich abzuschneiden spiele ich dennoch zu meiner Unterhaltung, was bei mir schon immer bedeutet hat Max Settings falls möglich, inklusive Vegetation und Co.
Und du willst mir doch jetzt auch nicht sagen das G-Sync was schlimmes ist weil es die Profis ausschalten?
Denk einfach über die dahinter liegende Technik nach. Ein Frame ist bereit ausgegeben zu werden was in sagen wir mal 60 Bildern pro Sekunde resultieren würde; also 16,6ms pro Bild. Aber stattdessen wird es zurückgehalten und nach 8,3ms ein künstliches ausgegeben bis es dann weitere 8,3ms später endlich zum Bildschirm geschickt wird. Das ist eine Verzögerung von genau 16.6ms. Und wenn das gleiche bei einer Ursprungsleistung von 100 FPS erfolgt sind wir runter auf 10ms.Außerdem ist der Unterschied zwischen 60 Frames + Reflex und 120 Frames + DLSS3 + Reflex sehr groß und da garantiere ich dir, wird sich keiner für die zweite Option entscheiden.
BTW, wenn ich einen schnellen Online-Shooter wirklich nur mit 60 Bildern spielen könnte würde ich lieber was anderes spielen. Ich spiele eigentlich alles mit mindestens 80-90 im Durchschnitt (und alles unter 90 fühlt sich einfach nicht smooth genug an); ironischerweiße ist ein langsameres Singleplayer Spiel wie Cyberpunk das einzige wo ich noch wirklich 60 fps akzeptiere. Selbst Elden Ring mit dem Gamepad war mit 90 fps für mich sehr viel spielbarer als mit dem 60 fps Limit, und das sicherlich nicht wegen der Latenz.
Klar, Warzone mit Max-Settings hat 300 FPS ohne DLSS und Co... Mal eben so der beliebteste Shooter online, mal ganz vom demnächst kommenden Nachfolger abgesehen. Bei BF2042 hatte ich auch keine 120 FPS, trotz DLSS und sogar deaktiviertem RT. Escape from Tarkov rennt eher langsamer als schneller. Und Squad kann bis unter 60 fps fallen auf 4K mit Max-Settings.Abgesehen davon erreicht man in den meisten Games dort auch so schon über 300 Frames, ohne DLSS und Co.
Sorry, aber nicht jeder spielt immernoch in 1080p...
Man kann auch competetiv unterwegs sein ohne darauf angewiesen zu sein mittels niedrigster Settings zu punkten. Im Endeffekt werden auch 30ms weniger Latenz (auf einem gutem Bildschirm!) nicht so viel ausmachen wie z. B. drei oder vier Stunden pro Woche mehr zu trainieren...Wie gesagt, wenn du geringe Frames hast und nicht competetiv unterwegs bist, okay, sonst nicht!
Aber ich sag ja, alles wie früher in der 6. Klasse beim Basketball...
Zuletzt bearbeitet:
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.241
Ähnliche Themen
- Antworten
- 66
- Aufrufe
- 9.938
- Antworten
- 313
- Aufrufe
- 46.610
- Antworten
- 148
- Aufrufe
- 18.674
- Antworten
- 286
- Aufrufe
- 43.885
- Antworten
- 3.241
- Aufrufe
- 294.667