Zomb2k schrieb:
Ist ja gut Nvidia Fanboy, werden sie bestimmt nachholen und ebenfalls durch testen.
War jetzt absichtlich mal überspitzt und ich finde zu recht. Es ist ja allgemein bekannt, dass hier tendenziell eher die AMD-Fanboys rumhängen und so wie hier der Vorteil durch SAM zelebriert wurde, wodurch die BigNavi-Karten einen kurzzeitigen Vorteil hatten, kann man jetzt auch mal ein bisschen Salz in die Suppe streuen, da Ampere diesen Vorteil nun neutralisiert. Jetzt heißt es auch bei CB mal Rankings aktualisieren. Wenn man ehrlich ist hatte bis vor kurzem, mit den BIOS-Updates, sowieso keiner eine kompatbile CPU oder das passende Board, trotzdem traten natürlich nur noch RX-Karten mit SAM gegen Nvidia-FEs @stock an, obwohl man die Technologie im BIOS aktivieren musste.
Die SAM-"Ich_mach_mir_die_Welt_wie_sie_mir_gefällt"-Vergleiche sind jetzt aber vorbei. Packt bei den Ampere-Karten auch entsprechende Prozente drauf und gut ist. Sind auch deutlich mehr als deine kolportierten 3%.
n8mahr schrieb:
dann ist die komplette letzte Generation (2xxx) von rtx Karten peinlich?
Ich persönlich habe diese Generation boykottiert, da sie mir im Verhältnis zu teuer war, nur die RTX2080Ti ein lohnendes Upgrade gewesen wäre und sowohl RT als auch DLSS1.0 noch nicht in Fahrt gekommen waren, was sich spätestens seit DLSS2.0-Release geändert hat. Darum hatte ich bis Dezember noch die GTX1080. Die RTX3090FE gabs zur UVP bei NBB. Und jetzt sind die Karten auch endlich mal RT-4K-60FPS-fähig, also brauchbar. Vorher waren höchstens die RTX2080Ti und die RTXTitan einigermaßen gute RayTracing-Karten. Ampere ist diesbezüglich deutlich performanter.
Fighter1993 schrieb:
Metro hat aus 100 fps mit RT oft 50 fps gemacht.... Dachte ein ganz neues game schafft das auch.
Dann ist die RT-Implementation in Cyberpunk eben deutlich intensiver. Ich habe Metro noch nicht gespielt, aber wenn der FPS-Einbruch ohne DLSS nur so gering ist, dann scheint nicht viel RT drin zu sein - ganz logisch gedacht. Bei Cyberpunk fällt es an vielen Stellen halt schon sehr auf. Ich könnte jetzt Vergleichsvideos und Bilder rausholen, wenn einer von den üblichen Experten meint es gäbe keine Unterschiede, aber eigentlich ist das bei dem Spiel ein allgemeingültiger Fakt, wenn man es persönlich getestet hat. ^^
Fighter1993 schrieb:
Wenn man bedenkt das nur die Beleuchtung, Reflektionen und Schatten sich ändern sind schon 50%fps Einbruch absolut nicht zu rechtfertigen. 65% aber sind naja, warum implementiert man es überhaupt wenn es absolut unspielbar wird.
Erstens, klar ist es zu rechtfertigen bzw zu erklären. Es ist eben eine hochkomplexe Rechenoperation für die Grafikkarte. Man ging ja vor einigen Jahren nicht davon aus, dass wir Echtzeit-RT in weniger als 10 Jahren überhaupt in eine Heim-GPU bekommen. Zweitens, bei Nvidia läuft es ja perfekt, zumindest mit DLSS2.0. Warum also weglassen? Für AMD kann man es ja weglassen, aber es gab ja Gejammer. Jetzt im Nachhinein hätte man es besser weggelassen.
RTX3090:
WQHD + RT-Psycho(!!) + DLSS-Quality --> ca 60FPS avg
4K + RT-Psycho(!!) + DLSS-Balanced --> knapp 60FPS avg
Super spielbar mit diesen FPS bei bombastischer Grafik.
Und ja Betonung auf RT-Psycho, weil das höher ist als die Voreinstellung im Ultra-Preset und auch sichtbar besser aussieht. Geht auch nochmal deutlich auf die FPS im Vergleich zu "nur" RT-Ultra.
Da kann man halt echt nur noch hoffen, dass AMDs Fidelity FX Super Resolution irgendwas rettet...
MaLow17 schrieb:
Wieso wurden Grafikkarten aus der GeForce-RTX-20xx-Serie (Turing) bei dem Raytracing-Benchmark (mit und ohne DLSS) nicht miteinbezogen?
Warum soll man aktuelle Grafikkarten mit Grafikkarten von 2018 vergleichen? Und falls man es tut, dann bitte mit DLSS2.0, damit es auch richtig schön peinlich wird.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
DLSS gehört bei Nvidia RTX sowieso dazu. Kein Mensch würde das ernsthaft freiwillig abschalten und sich von ca 60% der FPS verabschieden.
(Außer man ist ein Theoretiker ohne entsprechende Karte und macht es für einen sinnlosen Vergleich.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
)