Fighter1993 schrieb:
Global gesehen nicht, die Rechenleistung die benötigt wird das du die AI nutzen kannst,ist immens höher wie der Verbrauch von so ein paar 3090ern...
Weiß nicht, ob man das so bewerten sollte. Für die Entwicklung einer GPU selbst brauchst du ja auch schon Rechenleistung...
Mir gehts einfach um den Gedanken, dass du auf der GPU ein Trainiertes AI Model ausführen kannst. Die Qualität und das Ergebnis dieses Models wird aber durch das Deep Learning im Rechenzentrum definiert und nicht wirklich durch die Rechenleistung deiner Hardware.
Die Frage die man sich stellt: Wie gut kann das AI Model und dessen Ergebnis bei immer gleicher Hardware beim User theoretisch werden?
Wenn das AI Model immer besser wird, wozu dann überhaupt noch neue Hardware?
Klar sind uns in der Praxis aktuell viele Grenzen gesetzt. Aber wenn man die Gedanken mal etwas fliegen lässt stellt ich mir eben schon die Frage, wie sich das ganze zumindest in der Theorie entwickeln kann.
Klar einige Verschreien hier gerne AI und Deep Learning als Marketing gag. Aber wer vielleicht mal auf dem YouTube Kanal von Two Minute Papers vorbeigeschaut hat, der muss dann auch anerkennen, dass Nvidia und co. hier enorme Ressourcen für Forschung und Entwicklung investieren und Wahnsinns Fortschritte in so vielen Bereichen erzielen. Der Fortschritt im Bereich Deep Learning/AI scheint seit ein paar Jahren exponentiell zu verlaufen und wirkt in einigen Bereichen fast schon wie Magie.
Vielleicht betrachte ich das zu enthusiastisch, aber die Ergebnisse sprechen eigentlich schon eine deutliche Sprache. Nvidia arbeitet ja sogar daran, Raytracing selbst mit Deep Learning zu beschleunigen. Das geht halt dann schon deutlich weiter, als "einfach" nur die interne Renderauflösung mit DLSS zu reduzieren.
Ich würde mal vorsichtig behaupten, dass sich da langsam ein gewaltiger paradigmenwechsel auftut.