Da bin ich wohl in der Minderheit derjenigen, die von der Leistung insofern enttäuscht sind, als dass es:
- kaum eine Architekturleistungsverbesserung im gaming gibt: In "4K" (also die reine maximal mögliche GPU gaming performance und nicht CPU-bound) ist sie gegenüber der 3090 Ti (auch eine 450W Karte) nur 70% schneller, das ist gerade mal das, was die beiden full node shrinks ca. ausmachen: SAMSUNG's 8 nm basiert auf deren 10 nm und TSMC's N4 basiert auf deren N5; full node shrinks sind 10nm->7nm->5nm (10/√2->~7; 7/√2->~5; usw.). Da interessiert es nicht was alle Reviewer, die die Karte geschenkt bekommen haben, schreiben (außer sie kommen auf höhere Werte und CB hätte iwas inkorrekt gemacht). Insofern man SAMSUNG's "nm" Zahl mit TSMC's "N" Zahl direkt verglichen kann, wobei bei gleicher Zahl TSMC SAMSUNG immer überlegen zu sein scheint (soweit ich weiß aber auch teurer).
- Außerdem ist die Karte dabei auch noch entsprechend 60% teurer. Also keine/kaum Verbesserung.
Ja, TSMC's N4 Fertigungsprozess ist bestimmt einer der teuersten die sie aktuell anbieten, aber ich vermute selbst dann will NVIDIA hier einen überproportionalen Gewinn machen. Sie wissen ja spätestens seit dem mining-boom, was die Leute bereit sind zu zahlen (NVIDIA
hust GREEDIA
hust ist eben kein gemeinnütziger Verein).
Und ja, ich hätte es auch besser gefunden, wenn die Karte statt 450W 350W hätte: 3% langsamer in 4K, 22,22% weniger Stromverbrauch und die Übertakter hätten etws mehr Spaß ("etwas mehr" weil +10% mit 600W ist jetzt nicht gerade viel).
Irgendwo habe ich gehört, dass das damals seit der Einführung von RTX bzw. Raytracing, welches durch denoising aus nur wenigen Rays viel anfangen kann, schon in vorher öffentlich zugänglichen Akademikerarbeiten zu sehen war und NVIDIA hier das ganze nur in Hardware übertragen hat (also nicht NVIDIA's eigene Erfindung war), obs mit DLSS 3 auch so ist? Trotzdem sehe ich es NVIDIA positiv an, dass sie Raytracing (und jetzt Frame generation mit DLSS 3) somit überhaupt erst eingebracht haben, wenn auch erst mal die FPS nicht so waren/sind. Kann nur besser werden, aber selbst mit RTX 4000 hätte ich mir ehrlich gesagt mehr gewünscht.
Edit:
Persönlich habe ich eine 6600XT (durch 32MB "Infinity Cache" am besten nur für FullHD geeigent) und möchte auf OLED 4K,120Hz upgraden..DayZ läuft bei 1680*1250,MSAA=2 insofern nicht so flüssig, als dass es oft auf 80-90 FPS fällt (99% GPU Auslastung) und mit 144 Hz sieht es deutlich schöner/flüssiger aus. 'Ne Karte die 4-5 mal schneller ist als meine aktuelle wäre schön/nötig. Mal sehen was AMD mit RDNA3 liefert. Es wird wohl eine 7800XT oder 7900XT werden, je nachdem weilche offiziell schon für 4K gaming geeignet ist (vermutlich beide wie bei RDNA2). Wahrscheinlich wird selbst das top Modell nicht ganz für 4K und stabile 120 Hz reichen, aber mal schauen. 2k€ bin ich aber nicht bereit zu zahlen, außer die gaming Leistung ist überproportional bzw. dann auch für das 1k€ Modell.