@Wolfgang
Wie immer herzlichen Dank für diesen ausführlichen Artikel.
Die Karte überrascht, ernüchtert und enttäuscht zugleich - je nach dem, wo man die Messlatte anlegt.
Überrascht bin ich von der doch recht hohen Leistung mit DLSS + FG, die ich so nicht einmal erwartet hätte. Ernüchert bin ich beim Strombedarf, denn der war von vorne herein klar und die Ada Lovelace-Karten sind allgemein positiv zu bewerten, was die Performance pro Watt (Rohleistung - bei DLSS/FG noch mehr) betrifft.
Enttäuscht hingegen bin ich vom Gesamtkonstrukt - also rohe Leistung, Ausstattung (VRAM/Speicherbandbreite/PCIe-Interface) und Kaufpreis. Gemessen an einer gleichteuren 3060 Ti zahlt man hier im Endeffekt lediglich für "Treiberfeatures" (DLSS3/FG), denn schneller in Rohleistung ist sie ja ganz offensichtlich nicht - im Gegenteil, sie liegt ein gutes Stück messbar und je nach Szenario auch spürbar zurück.
Genau das ist ja auch die Hauptkritik, die von den bereits verlinkten Youtube-Kanälen, namentlich Linus, Steve aka GamersNexus und Hardware Unboxed ausgeht.
Klar, knapp über 300 Euro sind keine Unsumme und nichts, weshalb man ins Armenhaus gehen muss. In Zeiten, in denen Full HD einfach "die" Auflösung ist und DLSS(3), FSR, XeSS eben nicht in jedem Spiel integriert sind und auch nicht nachgepatcht werden, ist es aber traurig, dass man selbst für 300+ Euro bei nVidia keine Grafikkarte bekommt, mit der man bedenkenlos ohne an den Grafiksettings Hand anzulegen, ein Spiel spielen kann. Wir reden hier von 60 FPS, das ist wahrlich keine Zauberei und auch ganz bestimmt nicht zu hoch gegriffen.
Gestern habe ich mit einem Bekannten, der über einen neuen 1440p-Gaming-PC nachdenkt, auch über die passende Grafiklösung sinniert und auf dem Papier standen sich RX 6800 XT und RTX 4070 gegenüber. 16 GB VRAM vs. 12 GB VRAM zum einen, zum anderen natürlich das durchaus bessere Featureset bei nVidia plus die wirklich gute Leistungseffizienz - beides zum Preis von ca. 600 Euro. Das ist schon ne Menge Holz für ne Grafikkarte, die nichtmal für 4K UHD gedacht ist.
Der nächst-logische Schritt auf der nVidia-Seite wäre dann die 4080 (die 4070 Ti hat ja auch "nur" 12 GB VRAM). Hier hat man dann neben dem bereits erwähnten Featureset auch endlich die zukunftssicheren 16 GB VRAM - für sage und schreibe 1099 Euro (mindestens, günstigstes gelistetes Modell). 1100 Euro! Und dann sind wir ja bekanntlich immer noch nicht am Ende der nVidia-Fahnenstange angelangt.
Man kann sagen, was man will, da steckt eine ordentliche Portion geplante Obsoleszenz dahinter. Jeder, der sich jetzt eine Ada Lovelace-Grafikkarte mit "nur" 12 oder gar nur 8 GB VRAM kauft, in seinen gespielten Spielen von der GPU-Performance her aber problemlos damit auskommt, der wird zweifellos in zwei, drei, vier Jahren vermehrt auf Probleme stoßen - und zwar so sehr, dass das Reduzieren der Grafikdetails irgendwann keinen Sinn und/oder einfach keinen Spaß mehr bereitet, selbst wenn die GPU (ob mit oder ohne DLSS sei dahingestellt) fürs eigentliche Rendern des Spiels noch ausreichend wäre.
Nur deshalb jedoch zur vierstellig bepreisten RTX 4080 zu greifen, kann aber auch keine Lösung sein.
Vielleicht ist es sogesehen wirklich besser, immer nur das zu kaufen, was man Stand jetzt wirklich braucht - und dann beißt man in den sauren Apfel und kauft in spätestens 3 Jahren einfach wieder die nächste Budget-Lösung. Ich weiß es nicht, was hier "richtig oder falsch" ist, das kann auch niemand pauschal beantworten.
Persönlich versuche ich natürlich auch mit etwas Weitsicht zu kaufen und kaufe mir stets Hardware mit dem Hintergrund der Upgradeability und Nutzbarkeit auch noch in vielen Jahren... und was tue ich dann, wenn die vielen Jahre vorbei sind? Richtig, statt vereinzelt Upgrades durchzuführen, sehe ich mich dann doch immer wieder dabei, nahezu alle relevanten Teile am PC auszutauschen.
Mein PC ist also wie eine Versicherung: ich zahle einen gewissen Betrag um für alle Fälle gewappnet zu sein, nur um dann (zum Glück) zu sehen, dass der Fall der Fälle sowieso nie eintritt
Gortha schrieb:
@CB
Ich hätte anstelle vom "Performance" DLSS2 Profil lieber mal das "Balanced" Profil getestet gesehen. Oder eben beide.
Es werden doch Performance und Quality durchgeführt - also beide Enden der Fahnenstange letztlich. Balanced kannst du, da es von der Auflösung her rechnerisch exakt in der Mitte der beiden Presets liegt, ganz einfach errechnen.
syfsyn schrieb:
Dlss und fsr Nutzt man nur wenn man MUSS
Sprich dxr
Nativ ist immer zu bevorzuge OHNE TAA MSAA
Es geht hier um Schärfe des Bildes
Kantenglättung macht bei ner pixeldichte erst ab 82dpi sinn Was 32 zoll FHD wäre.
FHD mit 92dpi bis 96dpi 24 - 22,5zoll will ich den sehen der da in schrägen Stufen sieht
Ja das gibt es aber da muss man schon arg zurück auf 2006 da die interne Auflösung bei 576p war/4:3
Ach herrjeh, welch wahnsinnige Verallgemeinerung.
Selbstverständlich siehst du Pixelabstufungen, wenn du bei einem 22" FHD-Monitor ohne Kantenglättung arbeitest. Wenn da die Stromtrasse durch die Luft hängt, schwarz und kräftig, dahinter aber der strahlend blaue Himmel leuchtet, dann hast du wunderbare Sägezähne. Du tust ja gerade so, als würdest du erst seit gestern Videospiele spielen, dabei sollte man eigentlich meinen, dass du dich auskennst.
Dann jedoch deine Aussage bezüglich "2006" ... was war denn da 576p? Was hat denn die Standard-PAL-Auflösung jetzt hier auf einmal verloren? Klar, auch auf PCs kann man (mit etwas Trickserei) 720x576 Pixel fahren, aber wieso will man das? Das wollte man auch 2006 schon nicht und davor schon dreimal nicht.
Gängige Auflösungen waren immer
in 4:3
- 320x200 (frühes DOS/VESA)
- 320x240 (Hochzeit der DOS-Spiele)
- 512x384 (Poor man's DLSS der frühen Windows 9x-Zeit)
- 640x400 (Eher selten, DOS)
- 640x480 ("High Def"-Zeit unter DOS, gängig in Windows 95)
- 800x600 (selten und von wenigen Spielen unter DOS genutzt, gängig in Win9x)
- 1024x768 (noch seltener unter DOS genutzt, gängig in Win9x)
- 1280x960 (Zu Win98-Zeiten gehobener Standard, Gaming nur mit High End-Hardware)
- 1600x1200 (das 4K UHD der Early 2000-Zeit)
- 2048x1536 (Overkill)
in 5:4
- 1280x1024 (thats it - alles andere war eher ungewöhnlich im frühen TFT-Zeitalter)
in 16:9
- ... you get the idea, jetzt sind wir eh schon in der neueren Zeit angelangt.
All das übrigens aus dem Kopf - wieso? Weil ich den Sh*ce lange und exzessiv genug schon mitgemacht habe und auch immer noch betreibe (besonders die 4:3-Geschichten mit nativer Hardware).
Long story short: 2006 waren eher die hohen 4:3-Auflösungen, die genannte 5:4-Auflösungen oder sogar schon 16:9 bzw. damals eher noch 16:10 (1920x1200) gängig. Ich weiß es noch wie heute, dass ich 2006 Oblivion in 1600x1200 gespielt habe.
Native Auflösung + gängige Kantenglättung (TAA, MSAA, FXAA etc.) sind IMMER zu bevorzugen anstatt komplett native Auflösung oder gar Spiele-internes Upsampling (Prozentuale Renderauflösung verstellen).
Zu guter Letzt noch dein Spruch betreffend DLSS (bzw. FSR/XeSS, ich setze das jetzt mal gleich).
Man nutzt dieses Feature nicht, wenn man "muss", sondern dann, wenn man es "will" - und nicht zwingend in Full HD, aber aller spätestens in WQHD, also 2560x1440 ist es eigentlich nicht nur ratsam, sondern fast schon PFLICHT, DLSS hinzuzuschalten! Nicht nur hat auch ComputerBase bereits mehrfach in Tests bewiesen und es deutlich benannt, dass DLSS oftmals nicht nur gleichwertige, sonder gar bessere Ergebnisse als interne Kantenglättung liefert, es spart auch noch Strom, produziert weniger Abwärme UND sorgt für einen rundum leiseren Betrieb bei höherer Performance. Was will man denn bitte noch?!
Bei FSR & XeSS muss man nochmal unterscheiden, hier fallen die Ergebnisse leider von Spiel zu spiel doch stark unterschiedlich aus.