Danke für die weiteren Antworten. Auch wenn sich irgendwie vieles widerspricht ^^
Mal geht es nicht, dann wieder doch. Aber was ich daraus jetzt nehme: "Noch" geht es wohl nicht, auch nicht im AI Bereich. Bei Games wohl eher nie, weil die Entwickler das nicht einbauen wollen/Aufwand zu groß (Wobei das für mich ja eh keine Rolle spielt). Bei AI ist die Chance größer, dass das irgendwann kommt. Aber dann haben wir vermutlich schon wieder neue GraKas (eventuell sogar auf AI spezialisierte Consumer-Karten) oder andere Techniken, damit auch eine mittelstarke Karte oder die von AMD ohne Abschläge genutzt werden kann.
Für mich heißt das konkret: Erst mal warten und hoffen, dass sich da was tut. Entweder bei den Preisen oder den Technologien im Hintergrund, egal ob Software- oder Hardwareseitig.
dms schrieb:
Die Nennung von Dirext XXX, CLI und Crossfire geht am AI Thema erstmal vorbei
[...]
Danke für die Einordnung und die Links. Hab das aber auch nur grob überflogen. Geht mir dann doch deutlich zu tief in's Thema. Soll immerhin nur ein Hobby sein. Ich erhoffe mir vor allem, dass ich die KI als Datenbank für meine Pen & Paper Runden nutzen kann (irgendwann vielleicht auch als Game-Master) und damit meine Fan-Fiction schreiben (lassen) kann. Also so was wie, dass man die KI mit den Werken einer Welt (HdR, HP,...) füllt, und man dann neue Abenteuer darin erleben kann, die sich möglichst wie die Originalen oder modernere Varianten derselbigen anfühlen.
Mit ChatGPT konnte ich schon recht gute Story's schreiben. Der vergisst aber eben auch irgendwann wichtige Pfeiler der Welt oder der Rahmenhandlung. Daher darf die nicht all zu detailliert sein. Wenn ich aber im Datensatz selber die Bücher drin habe, dann sollte zumindest das Problem mit der konsistenten Welt und der wichtigen Figuren behoben sein. Hoffe ich zumindest. Was ChatGPT schon kann, ist schon beeindruckend. Ich weiß aber nicht, wie das rechtlich ist, wenn ich die urheberrechtlich geschützten Bücher da einspeise. Daher: Alles lokal.
Plus ChatGPT zensiert zu schnell. Selbst bei Szenen, die ich nicht als brutal oder FSK 18 einstufen würde, meckert er schon. Oft weiß ich nicht mal, was er zu beanstanden hat. Lokal am Rechner hat man auch hier mehr Freiheiten.
Eine Powermaschine brauche ich da nicht. Nur ein möglichst langes Gedächtnis und eine Verarbeitungsgeschwindigkeit, die an meine Lesegeschwindigkeit herankommt oder diese besser noch leicht übertrifft. Und das sollte man auch mit kleineren als der 4090 hinbekommen, wenn ich das richtig bei den ganzen Videos und Vergleichslisten gesehen habe. Die 4090 hat mit den 24GB aber eben den mit Abstand größten VRAM, und damit das längste Gedächtnis.
Wobei es auch da schon neue Entwicklungen gibt, dass das Gedächtnis irgendwie anders angesprochen wird und man so nicht alles permanent im Speicher halten und bei jedem Prompt verarbeiten muss, sondern nur je nach Prompt auch gezielt Info's aus der längeren Vergangenheit ausgewählt und dann verarbeitet werden können. Bin gespannt, was sich da noch tut. Vielleicht brauche ich in ein paar Monaten dann nicht mal mehr so einen großen VRAM. Wobei der natürlich auch nicht schaden wird.
Noch tendiere ich eher zu ner großen Karte, egal was sich noch tut. Kann aber auch noch etwas warten.