ElliotAlderson schrieb:
Ja, es ist eine Verschwörungstheorie.
Nur weil du es sagst wird es nicht so.
ElliotAlderson schrieb:
Wenn die Consumerkarten jetzt kein RT, DLSS und co. könnten, würde Nvidia trotzdem KI Karten wie die H100 und co. verkaufen. Das sind zwei völlig unterschiedliche Bereiche. Was ein Geschwurbel...
Ja in ner Welt wo es Einhörner gäbe würde Nvidia wohl auch KI Karten produzieren.
Du hast die Ursache -> Wirkung Dynamik verkehrt rum. Ich habe niemals behauptet wie du mir zu unstellen scheinst, das Nvidia K.I. Produziert weil sie RT und DLSS für Gamingkarten gebaut haben, nein umgekehrt wird ein Schuh draus, primär btw RT, DLSS kommt dann indirekt wegen RT weil man dadurch die Anforderungen so in Himmel schraubt das Nativ moderne Karten plötzlich doch wieder zu schwach sind.
Aber konzentrieren wir uns auf RT, also Nvidia wollte Geld mit K.I. machen, das war das Hauptziel das ging voll auf, nun hat man aber eine Unified Architectur sprich man hat massive Vorteile wenn man nicht 2 komplett unterschiedliche Karten für Rechenzentren und Gamer konzipieren muss. Daher statt extra Gaming Karten zu bauen die dann speziell nur gut für Gaming sind, was auch Vorteile theoretisch haben kann, speziell am Anfang hatte man viel RT Hardware die der Kunde mit zahlen musste aber es gab noch sehr wenig Software, also hatte man ne schlechte Preis/Leistung (für Gamer zumindest) und ein Stück weit stimmt das bis heute, speziell bei Raster was aber natürlich auch an ner extrem hohen Marge bei Nvidia liegt.
Also wenn man dann den Hammer (die K.I. Karte) hat, dann wird jedes Problem ein Nagel und dann muss eben aus der Schraube Gaming ein Nagel gemacht werden und dann wird eben den Spielefirmen geholfen aus der Schraube einen Nagel zu machen.
Daher nein hätte Nvidia nicht K.I. Karten verkaufen können an Rechenzentren hätten sie wohl nicht RT mit diesem Nachtrug oder Zeitpunkt wenn überhaupt bei Gaming eingeführt.
Also nächste mal erstens Zuhören bevor man einen Strohmann-Argument macht, zweitens informieren das Nvidia eine Unified Architektur hat daher nicht Gaming und Rechenzentrum einfach komplett andere Dinge machen kann, bevor man falsch Leute als Schwurbler bezeichnet.
Aber klar man kann auch Stück weit AMD die Schuld geben, hätten die alternativ irgendwelche Techniken veröffentlicht die Raster schöner machen, I guess Lumen geht in die Richtung auch wenn es Raytracing ist nur eben in Software und nicht proprietär, aber hätte man andere Möglichkeiten genutzt um Bildqualität zu erhöhen dann hätte Nvidia das nicht durch ziehen können.
Wenn man halt letztlich in Raster und Raytracing hinten ist und zu guter Letzt auch Preis/Leistung zwar leicht besser ist aber nicht deutlich besser, ja dann spielt das RT irgendwann auch ne untergeordnette Rolle.
AMD hätte halt ne 7900XTX oder 7950XTX für 1500-2000 Euro raus hauen sollen die bei RT ne enttäuschung ist aber die 4090 in Raster deutlich besiegen hätte müssen, oder alternativ die 7900xtx zum zum Launch zum preis von ner 4070ti verkaufen müssen, dann hätte man ne stärkere Rasterleistung mit 24gb statt 12gb gehabt und dann vielleicht noch bisschen bessere Stormverbräuche dann hätte niemanden mehr gejuckt das die Radeons bei RT schwächeln wegen mir hätte man das dann auch komplett entfernen können.
Und dann vielleicht Texturmods für viele Games die mehr als 12gb 16-24gb verlangen und ähnliches Releasen können. Wobei die 7900xtx ja lange erst ab 1400-1500 verfügbar war obwohl die UVP bei 1150 war... also das das dann niemand aus der Stube vorlockt und ide 7900xt kaum günstiger ist auch klar... Also ja AMD machte es Nvidia einfach.