Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Das hier Nativ dann nicht mehr als 60FPS drinnen sind wundert mich nicht, ohne RT und dessen ganzen Features schafft die Karte wohl logger 3 Stellige FPS's nativ.
Reflex, G-Sync, FastSync ist alles nicht DLSS exklusiv, sodass es im Vergleich identisch eingestellt gehört. Und die >70ms als Referenz bei ~60 FPS deuten stark auf eine abweichende Konfig beim Buffering bzw. bei der Bildausgabe hin. Der minimale Vorteil des kürzeren Rendering durch die niedrigere Auflösung bei DLSS, wird vermutlich durch das längere Post-Processing des Upscalers aufgefressen. Aber niemals wird dies in Summe gar 20ms schneller sein, da dies länger ist als ein komplettes Frame bei ~60 FPS benötigt. Hier müssen Äpfel mit Birnen verglichen werden.
Da hat Nvidia eine spannende Cyberpunk Demo verwendet. Im CB Benchmark packt die 3090Ti schon 83 bzw. 70fps. Bin gespannt wie sich DLSS 3 in der Realität schlägt...
Hab die Settings übersehen: 2.540 × 1.440 Pixeln mit höchsten Einstellungen inklusive Raytracing auf Ultra und Psycho gerendert wurde.
RT frisst halt unfassbar viel Leistung. Entweder du nutzt solche Tricks oder du hast in 10 Jahren noch nicht genug Leistung dafür.
Das ist der einzige Weg RT in absehbarer Zukunft wirklich für die Masse tauglich zu machen.
Natürlich muss sich DLSS 3.0 erst noch beweisen. Da wird es sicher nach Release eine Menge Tests geben die das aus allen erdenklichen Blickwinkeln betrachten und Pro und Contra auflisten.
Und bis DLSS 3.0 wirklich selbst ein Produkt für die Masse wird, sprich der Einstiegspreis bei maximal 300-400 € liegt vergehen sicher auch nochmal 2-4 Jahre, bisdahin sind mögliche Kinderkrankheiten auch ausgebügelt.
Bis dahin nutzt man dann DLSS 2 oder FSR 2 oder Intels Lösung falls sie denn was taugt.
Das ergibt schon sinn.
1. Weiß man nicht ob bei der nativen Auflösung Reflex verwendet wurde
2. Die DLSS3-Render-Auflösung ist unter der Nativen, somit mehr Standardframes und somit weniger Inputag. Hier wäre der Inputlag von DLSS2 zu DLSS3 interessant gewesen zzgl. Reflex bei DLSS2
Den Link habe ich nicht als solchen bzw. als einen zu einem Artikel interpretiert. Sieht eher aus wie ein genereller Link zu WCCFTech.
Allerdings findet sich da ja auch eine schöne Tabelle, die CB größtenteils übernommen und sogar erweitert hat. Die wichtige Info zur DLSS Stufe hat man hier allerdings einfach mal weggelassen UND nicht im Fließtext erwähnt. Wäre sicher sinnvoll zu ergänzen @SVΞN
Infos zum Lärm fehlen aber leider generell. Daher ist diese Temperaturangabe fast wertlos.
Ich erwarte bei der Raster-Leistung die üblichen 50-60%. Da kommen nach 2 Jahren endlich die neuen Karten und da zeigen die grünen Agenten ein Benchmark von einem 2 Jahre alten Spiel auf Steroiden 🙄
Nvidia sollte zu seinen "Briketts" optional eine Thermohülle anbieten, dann kann man sie in den kommenden Gas- und ölarmen kalten Wintern zum Aufwärmen mit unter die Bettdecke nehmen.
Das wäre mal ein echter Mehrwert des Produkts...
Ja, man muss ja schon fast einen Auslesefehler vermuten oder dass die Software die Ada Daten noch nicht richtig interpretieren kann.
Andererseits könnte die Temperatur natürlich auch "echt" sein. Die Karte hat drei verschiedene Arten von Cores. Shader, RT und Tensor. Die werden nie/kaum alle am Limit laufen und somit könnte das vielleicht schon sein, dass es wegen der sehr unterschiedlichen Lastverteilung generell eher kühl zugeht bei der Karte trotz nominell hoher Watt-Zahlen, wobei die 348W (minus 112W gegenüber nativ) bei Verwendung von DLSS 3 mit einer beinahe Verdreifachung der Leistung gegenüber nativ ja schon beachtlich ist.
Wenn man jetzt wie ich ein 144Hz Display besitzt, man in der G-Sync Range unter ca. 141fps bleiben möchte und sich per Limiter vielleicht auch mit 100 bis 120fps zufrieden gibt, dann wird das eine äußerst effiziente Angelegenheit.
Die wichtige Info zur DLSS Stufe hat man hier allerdings einfach mal weggelassen UND nicht im Fließtext erwähnt. Wäre sicher sinnvoll zu ergänzen @SVΞN
Es ist beinahe egal wie schnell die Karte / Gen ist.
Noch viel unsinniger ist die Taktfrequenz als Kaufargument.
Bei dem Preis ist einfach Schluss mit lustig.
In 2 Jahren gibt es wieder eine Gen die schneller ist.
Soll diese dann noch teurer werden?
Wo soll das den hinführen?
Das Publisher für die <1% Leute entwickeln die eine solche Karte kaufen die 2-3x schneller ist als die der restlichen 99% glauben die doch selber auch nicht.