DonConto schrieb:
Schönes Beispiel dafür, wie eine KI arbeitet und wie sie mir in Spielen NICHT hilft. Die Frage ist ja, wieso sollte eine GPU eine KI Einheit (was ist das überhaupt?) besitzen. Im Spiel erlebe ich eine Situation genau 1x. Was soll da eine KI machen? Antwort: Nix. Du kannst als Entwickler vielleicht verschiedene Situationen x-mal durchlaufen um deine Algorithmen zu trainieren (nichts anderes versteht man unter KI). Dazu brauche ich aber keine KI auf meiner GPU.
Ich hatte dich so verstanden, dass du KI auf der GPU, die in meinem Rechner steht, haben willst. Die Frage ist also was sie da machen soll? 1000x zwei Wassertropfen zusammenstoßen lassen?
Nee. Der Punkt von Berechnungen per neuronalem Netz ist eben, dass du nicht mehr 1000 Wassertropfen berechnen musst, wie bei der bisherigen Methode.
Ich glaube du Unterschätz das Potzenzial der moderner GPUs auch ein wenig. Da wird ja bei weitem nicht mehr nur Grafik drauf berechnet. Ein Großteil der Leistung wird mittlerweile für Compute Operationen unterschiedlichster Art verwendet.
Du kannst auf der GPU quasi alles berechnen was du willst und die CPU kann anschließend auch auf Ergebnisse im VRAM zugreifen um sie in der Gameengine zu nutzen. Der Hype um Smart Access Memory ist ja nicht umsonst so groß.
Den Größten Vorteil von neuronalen Netzen sehe ich aber überall dort, wo es um Interpolation geht.
Das fängt bei DLSS an, wo die Auflösung der Grafik anhand von mehreren vorher berechneten Bildern interpoliert und heraufskaliert wird.
Ebenso ließe sich die Framerate interpolieren und aus 60 fps 120 fps machen indem man Zwischenbilder generiert. Das wäre besonders für VR sehr wichtig. Stichwort: Asynchronous Reprojection.
Das man Animationen wunderbar interpolieren kann hat Ubisoft in dem Beispiel gezeigt, dass ich in meinem ersten Beitrag geposted habe.
Interpolation ist quasi die Paradedisziplin neuronaler Netze. Gib dem Netz zwei Zustände und frag es, wie wie die Zwischenzustände aussehen würden. Dafür sind die perfekt.
Wir sollten hier übrigens auch aufhören von KI zu sprechen, sondern sollten es neuronale Netze nennen.
Damit wird vielleicht etwas klarer, wofür man die Hardware in der GPU tatsächlich nutzen kann.
Wie wir wissen kann das auch wunderbar zur Rauschunterdrückung und ähnlichen Dingen genutzt werden.
Sowas fällt schwer unter den Begriff KI. Und genau wie bei der Rauschunterdrückung im Audiobereich kann all das natürlich auch super zu diversen Bildbearbeitungs- und Grafikberechnungen genutzt werden.
Ich sehe da also unendlich viele Möglichkeiten wie neuronale Netze (KI) in Computerspielen genutzt werden kann, selbst wenn du es auf den Grafikbereich beschränken würdest.
Von daher hoffe ich sehr, dass die KI Kerne, die in allen anderen Versionen des Xe Chips enthalten sind, beim HPG Chip nicht entfernt werden. Ich meine jedenfalls mal sowas gelesen haben, dass man die dort eventuell nicht für nötig hält und die Transistoren lieber für Shader nutzt. Das kann ich zwar auch verstehen, fände ich aber dennoch schade.