Die Zielgruppe für die 4090 sind nicht nur Gamer. Es gibt inzwischen eine nicht mehr so kleine Gruppe von Menschen, die mit Künstlicher Intelligenz experimentieren.
- Bilder aus Text erzeugen, oder bestehende Bilder zu verändern -> Stable Diffusion
- Geschichten schreiben (lassen) oder eigene Text-Adventures spielen, die live von der KI erzeugt werden. -> KoboldAI (bzw. als Onlinedienst NovelAI).
Da gibt es inzwischen unzählige Discord-Server und Reddit-Seiten zu diesen Themen mit vielen tausend Nutzern.
Das Problem mit KI Anwendungn ist. Die brauchen sehr viel VRAM und funktionieren nur auf GPUs performant. Mit meiner 2080 kann ich gerade so Bilder in Stable Diffusion erzeugen, bei KoboldAI kann ich aber maximal 1.3B Modelle nutzen, da diese schon die 8GB VRAM nutzen. Desto größer das Modell, desto größer ist der Fundus/ das Gedächnis der KI und desto bessere Geschichten erzeugt sie. Es gibt auch 6B, 13B und 20Ber-Modelle. Modelle ab 13 gelten als sehr gut. ab 6 sind Modelle schon gut. 6B braucht aber schon 16GB VRAM (manche Modelle auch gerade etwas mehr, dass eine Karte mit 16GB VRAM nicht mehr funktioniert), 13B etwas braucht mehr knapp 30GB VRAM.
Mit der neuen 4090 könnte ich also gerade mal die 6er Modelle lokal nutzen. Oder ich warte auf die 4090TI, bei der man von 48GB VRAM munkelt, damit würde man dann gute KI-Modelle zu Hause lokal nutzen können.
Die Alternativen sind bisher Google Colab oder sich Cloudsysteme zu mieten. Eine fertiges Cloudsystem mit einer 3090 kostet aktuell ~0,3 EUR pro Stunde, jede weitere im gleichen Rechner kostet nochmal so viel.
Die kommen aber nicht mehr mit der Nutzeranzahl hinterher. Die stellen immer neue Systeme mit mehreren 3090, A6000 oder sogar A8000 ein, die sofort ausgebucht sind.