Es wird doch trotzdem ein fertig Trainiertes AI Model auf den Tensor Cores ausgeführt.
Klar, das Deep Learning findet im Rechenzentrum statt, da wird das Modell trainiert.
Damit das Modell aber auf dem PC performant lauffähig ist braucht es dafür spezialisierte Einheiten. Bei Nvidia eben die Tensor Cores.
Ich hab in der Vergangenheit mal mit Topaz Video Enhance AI herumgespielt. Das nutzt auch Deep Learning, um Videos hochzuskalieren, zu deinterlacen, zu entrauschen usw.
Auch da kannst du dir verschiedenste AI Models runterladen, die eben vorher auf gewisse Stärken hin trainiert wurden und dann auf der GPU mittels CUDA und Tensor Flow ausgeführt werden.
Ich hab das damals auf einer Maxwell GPU getestet und später auf einer Ampere. Der Performanceunterschied war ungefähr Faktor x10...
Kleiner Einwurf am Rande: Es wäre doch mal ne feine Sache, wenn Computerbase zu solchen Themen Wissensartikel macht. Ich weiß nicht, ob das Know How da ist oder ob es sinnvoll wäre, aber das wäre mal Content für das ich auch mal Pro abonnieren würde (ggf. auch nochmal in einer höherpreisigen Stufe)
EDIT: Okay witzig, ich sehe gerade, auch Nvidia spricht von einem Beschleunigungsfaktor von 10x bei den Tensor Cores. https://www.nvidia.com/de-de/data-center/tensor-cores/
Lag ich also gar nicht mal daneben.
EDIT2: Gut, bis zu 20x bei Ampere...
Klar, das Deep Learning findet im Rechenzentrum statt, da wird das Modell trainiert.
Damit das Modell aber auf dem PC performant lauffähig ist braucht es dafür spezialisierte Einheiten. Bei Nvidia eben die Tensor Cores.
Ich hab in der Vergangenheit mal mit Topaz Video Enhance AI herumgespielt. Das nutzt auch Deep Learning, um Videos hochzuskalieren, zu deinterlacen, zu entrauschen usw.
Auch da kannst du dir verschiedenste AI Models runterladen, die eben vorher auf gewisse Stärken hin trainiert wurden und dann auf der GPU mittels CUDA und Tensor Flow ausgeführt werden.
Ich hab das damals auf einer Maxwell GPU getestet und später auf einer Ampere. Der Performanceunterschied war ungefähr Faktor x10...
Kleiner Einwurf am Rande: Es wäre doch mal ne feine Sache, wenn Computerbase zu solchen Themen Wissensartikel macht. Ich weiß nicht, ob das Know How da ist oder ob es sinnvoll wäre, aber das wäre mal Content für das ich auch mal Pro abonnieren würde (ggf. auch nochmal in einer höherpreisigen Stufe)
EDIT: Okay witzig, ich sehe gerade, auch Nvidia spricht von einem Beschleunigungsfaktor von 10x bei den Tensor Cores. https://www.nvidia.com/de-de/data-center/tensor-cores/
Lag ich also gar nicht mal daneben.
EDIT2: Gut, bis zu 20x bei Ampere...
Zuletzt bearbeitet: