Die Grafikkarte richtet sich laut Nvidia an den Enthusiasten-Spieler und an Content-Creators mit den höchsten Anforderungen inklusive „8K-Gaming“.
"8K-Gaming", so ein Huang'scher nVidia Marketingschmarrn, davon ist auch die RTX 3090Ti meilenweit entfernt, vielleicht reicht es ansatzweise fuer 5K, mehr aber auch nicht bei gerade einmal 10% Mehrleistung gegenueber einer RTX 3090 (unter normalen,
nicht EVGA Kingpin Modell-Bedingungen, welche theoretisch mit mehr als 1200W angebunden sein soll aufgrund von zwei 16-Pin Steckern).
Ich bezweifle auch, dass eine RTX 4090(Ti) uneingeschraenkt 8K-Gaming wird leisten koennen, denn dazu sind die Anforderungen zu hoch, RT-Raytracing nicht einmal ansatzweise ausgereift und die Anforderungen von Spielen (ob nun resourcen- oder programmiertechnisch gerechtfertigt oder nicht) steigen auch staendig und werden dieses auch in Zukunft tun trotz DLSS, FSR, XeSS, Infintiy-Cache, usw.
Die RTX 3090Ti Karten sind nur als technische Einschaetzung im Hinblick auf kommende Lovelace Karten interessant wie
schon eine Weile bei Igor's Lab als erstes nachzulesen oder anzusehen:
Trotzdem ist natuerlich der Testaufwand, der hier betrieben wurde aller Ehren wert, auch wenn die GPU an sich unsinnig ist so kurz vor dem gemunkelten Ada Lovelace Start im September diesen Jahres, gibt es bestimmt einige wenige, die sich so eine RTX 3090Ti anschaffen werden, ob nun aus technischer Neugierde oder um damit hausierend/prahlend das eigene Selbstwertgefuehl steigern zu koennen.
Sinnvoll ist so eine RTX 3090Ti Anschaffung aktuell mitnichten, auch wenn bei den Lovelace GPUs schon ein deftiger Preisanstieg sich abzeichnet, wenn man bedenkt wie die nVidia RTX 3090Ti Founder's Edition jetzt preislich angesetzt wurde, aber angeblich soll die neue GPU-Generation ja Leistungsverdoppelung in einigen Bereichen bieten, das wohl auf Kosten der Effizienz (auch wenn man versuchen wird sich den Energiehunger ueber die Mehrleistung schoen zu rechnen, zumal die Konkurrenz in Form von RDNA3 da vermutlich um einiges effizienter unterwegs sein duerfte, wenn wahrscheinlich auch noch hungriger als bei RDNA2 oder Ampere aktuell).
Bezueglich der sich ankuendigenden neuen dGPU-Hoechstpreise bzw. dem, was der Markt hergibt, duerften
sich als nVidia und AMD/RTG jetzt schon einig sein.
Es fragt sich nur wie viel der echten Kundschaft/urspruenglichen Zielgruppe - also abseits von Scalpern, Kryptominern, Abzockhaendlern, Early Adoptern und Hobbyenthusiasten - diese Entwicklung finanziell per Kauf absegnen werden?
Vorstellen kann ich mir sehr gut, dass dieses in einer neuen Ausstiegswelle bzw. einem verstaerkten Exodus zu Konsolen hin muenden wird, da das Ganze preis-leistung-technisch immer unsinniger/weniger zu rechtfertigen wird fuer viele Gamer.
Ob das auch auf die Lust - sich ueber diese unsinnigen bepreisten Produkte hier und anderweitig zukuenftig zu informieren - umschlagen wird, wird man sehen muessen (ich hoffe ja nicht und vielleicht erwaegt man ja leistungsunabhaengige Effizienz neben dem veranschlagten Preis mit in die Produktbewertung mit auf zu nehmen, m.E. schon lange ueberfaellig)?
Die Gier der daran beiteiligten Unternehmen und Einzelpersonen ist leider ein wenig besorgniserregend und die Bodenhaftung scheint zunehmend verloren zu gehen in dem Bereich, was die Entwicklung zu immer energiehungrigerer Hardware und immer hoeheren Preisen (die einem normalen Nutzprofil/den Marktbeduerfnissen der Mehrheit immer weniger entsprechen auf der staendigen Jagd nach den laengsten Balken und um jeden Preis); dGPUs sind da das Vorzeigebeispiel, aber Entwicklung und Verkauf immer abstruser ausgestatteter Mainboards, immer frisierterer CPUs, usw. - die dann auch noch hier und da abgesegnet werden und nur fuer eine kleine Nische passend sind und komplett am Bedarf der grossen Mehrheit vorbei entwickelt werden - komplettieren das Bild.
Es bleibt die Hoffnung, dass Intel sich zumindest anfaenglich etwas von dieser Preis- und Kundenpolitik als Neueinsteiger im Gaming-dGPU Markt abkoppeln wird, aber wie viel man dann sparen wird im Vergleich zu nVidia und AMD/RTG Produkten und welche technischen Nachteile man anfaenglich dafuer in Kauf nehmen wird, bleibt natuerlich abzuwarten.