Den lange ueberfaelligen Ausbau der GPU-Architektur bei nVidia mit Turing im Vergleich zu Pascal (als getunten Maxwell Shrink) kann man nVidia sicherlich anrechnen, aber - wie schon im Artikel erwaehnt - ist es fraglich in welchem Ausmass die neuen Shadertechniken, Hybrid-Raytracing-Rasterization(HRR) oder auch noch SLI per NVLink sich (bei vielen Entwicklern) etablieren werden und (wann?) beim Kaeufer ankommen/genutzt werden.
Auch aufgrund der durch Turing/nVidia demnaechst massiv steigenden GPU-Preise (die wohl nur nVidianer, Early Adopter und Hobby-Enthusiasten anfaenglich bereit sein werden zu zahlen, zumal ja kaum daraufhin optimierte Spiele zum Marktstart vorhanden sein werden) werden voraussichtlich relativ wenige Leute auf Turing RTX Karten umsteigen.
Selbst wenn es eine RTX 2060 (mit mittelklassekaeuferschaft-tauglicherem Preis?) geben sollte, wuerde das darin enthaltene RTX Feature wohl eher ein eingeschraenkter Gimmick/ziemlich unbrauchbar sein, weil die Rohleistung von Anfang an schon in Full-HD (bei den RTX 2070/2080er Modellen) nicht genuegend reissen koennte und die Frames zu sehr einbrechen wuerden.
So gesehen ist es wahrscheinlich, dass bspw. eine GTX 1070Ti zu einer GTX 2060 umfunktioniert werden koennte (alter Wein in neuen Schlaeuchen eben).
Die RTX 2070 (mit moeglichen spaeteren "light" oder "Ti"-Varianten) ist durch den TU 106 Chip (trotz der deutlich gewachsenen/notwendig gewordenen Groesse) dann auch endgueltig in die (obere) Mittelklassrolle geschliddert und keine untere Ober-/Performanceklasse-GPU mehr (die Ober-/Performanceklasse hat nun den neuen TU 104 Chip der RTX 2080 und von dessen Varianten; darueber findet sich dann mit der RTX 2080Ti wie gewohnt die Enthusiasten-/Luxusklasse mit dem TU 102 Chip) und das ist dann schon ein massiver Preissprung und ich bin gespannt, wie sich die schwachbruestigste RTX GPU (an RTX Einsteiger gerichtet) bei den heftigen Preisen verkaufen wird.
Die verbesserte Speicherkompression ist zwar schoen und nett, aber dadurch werden die GPUs nicht wirklich langlebiger werden (stagnieren auf dem Level der Pascal Generation speichertechnisch), insbesondere dann, wenn irgendwann doch Samsung GDRR6 mit doppelter Kapazitaet (16 Gbit, 2 GB pro Chip) genommen werden sollte anstelle des Micron GDDR6 Speichers (oder eben von Micron oder auch SK Hynix, wenn diese eben auch doppelte Kapazitaet bei GDDR6 liefern koennen).
Daneben herrscht nicht Klarheit, ob nVidia noch im kommenden Jahr einen 7nm Refresh mit (in etwa) gleicher Architektur bringen wird - je nachdem wie stark oder schwach AMDs/RTGs Navi GPUs ausfallen werden - und wenn dem so waere, dann waere man mit dem Kauf der ersten Turing GPU-Generation schon angeschmiert, denn nicht nur Verbrauch aber auch Leistung duerften in 7nm deutlich steigen gegenueber 12nm (wie man es ja bei Pascal im Vergleich zu Maxwell gut ablesen kann).
Der Spieler muss wiederum GeForce Experience installieren, da das Tool die Ergebnisse der KI herunterladen und über die NGX-API integrieren kann. Theoretisch können auch über das Spiel selbst (per Patch) oder über den Grafiktreiber die Algorithmen ausgeliefert werden. Nvidia sieht aktuell aber anscheinend nur die Variante per GeForce Experience vor.
Tja, und dann gibt es zu guter Letzt natuerlich noch den angekuendigten Zwang zu GeForce Experience (Datenspionage inklusive) und ob man darauf Lust hat (als moeglichen ersten Schritt und evt. weiterer Gaengelung durch das "Treue"-Programm danach, von dem man sich abhaengig macht) oder nVidia mit den eigenen System-Daten trauen moechte, obwohl es eigentlich per Integrierung ins Spiels (per Patch) oder Treiber moeglich sein sollte, ist dann noch ein weiterer Knackpunkt.
Es gibt voraussichtlich Licht bei den kommenden Turing RTX Grafikkarten aber eben auch viel Schatten
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
.