ElliotAlderson schrieb:
H100 ist Hopper und das sind reine KI Chips.
Versuchst du meinem Argument bewusst aus dem weg zu gehen mein Punkt war das Hopper eine Weiterentwicklung von Ampere ist und das ja relevant ist sind die ersten Generationen ob die bei der 4er wirklich aufgeteilt haben oder nicht (darüber kann man vielleicht streiten) aber zuerst war es zumindest 1 Architektur mit den ersten Generationen von RTX Karten aka RTX 20 und RTX 30, das heißt meine "These" das K.I. erst in diese Architektur eingebaut wurde wegen Datacentern und Workstation und man dann eben schnell versucht hat irgendwie diese Hardware auch für Games Nutzbar zu machen da die Hardware eben da ist, widerspricht dem nicht, selbst wenn mit Hopper eine Aufspaltung statt gefunden hätte, ob dem wirklich so ist, scheint mir auch nicht so eindeutig aber A100 war Datacenter und das war Ampere und das ist die selbe Architektur wie Geforce 30 und bei bei Geforce 20 wars eben Turing wo es von RTX 20 bis hin zu Tesla T40 (datacenter) alles gab, eine Architektur.
https://en.wikipedia.org/wiki/Turing_(microarchitecture)#Turing_dies
Also deine Aussage das es 2 verschiedene Architekturen seien könnten wir jetzt ein Battle machen ob es für die noch aktuelle Generation stimmt oder nicht, aber seh denn Sinn nicht wenn es bei RTX 20 und RTX 30 nachweislich so ist, reicht das damit meine Aussage stimmt ob es für RTX 40 noch stimmt.
Man kann auch den Wikipedia Artikel zitieren zu Nvidia RTX generell der quasi ungefähr das sagt was ich auch sagte:
Nvidia RTX (also known as
Nvidia GeForce RTX under the
GeForce brand) is a professional visual computing platform created by
Nvidia, primarily used in
workstations for designing complex large-scale models in architecture and product design, scientific visualization, energy exploration, and film and video production, as well as being used in
mainstream PCs for gaming.
Übersetzt die Architektur wurde für Anwendungen von Workstation hin entwickelt und Gaming war nur nen Afterthought. Auch finde ich die Diskussion ob Datacenter zuerst im Focus stand oder nicht bzw ob das dann andere Architektur sei auch nicht sooo wichtig, mein Punkt war das es nicht für Gaming spezifisch oder auch nur primär entwickelt wurde, weil da einfach am wenigest Geld zu holen ist, und das man dann eben versucht hat die vorhandene Hardware die bei reinem Raster Gaming eben teilweise brach liegen würde durch fördern von Raytracing also das zu puschen die Nachfrage danach zumindest teilweise künstlich zu erzeugen.
Ich weiß das das einige hier positiv finden, aber selbst wenn glaube ich es ist gut sowas zu wissen, dann kann man zumindest auch realistischer vermuten wie stark RT in Spielen vertreten sein wird wo Nvidia nicht irgendwie assistiert. Wie hoch die priorität bei Entwicklern ist wenn sie es nicht von 3. finanziert oder teilfinanziert bekommen.