Haldi schrieb:
Und dann gibt es die 150-244mb Loras und Lycoris die einen ähnlichen Korrektur Effekt erziehlen können bei wesentlich weniger Aufwand!
Du musst bei solchen Modellen immer unterscheiden, wie "mächtig" diese am Ende sind und was du alles damit anstellen kannst.
@4nanai beschreibt das sehr gut. Mit Loras und/oder Lycoris kommst du nicht sehr weit, sondern du musst selbst noch Arbeit hinein stecken und auch dann ist es "limitiert", besser stark spezialisiert. Das funktioniert nur sehr gut, wenn du selbst entsprechend dann Vorstellungen hast, was du machen magst und du keine große Flexiblität haben möchtest und dann bist du aber auch schnell bei ein ein paar Gigabyte, wenn du entsprechend gute Bilder haben möchtest.
Die großen Modelle bei Stablefusion sind dann eher Generalisten, die ein breites Spektrum abdecken und dafür auch entsprechende Grundlagen benötiigen um "gut" zu sein. Und selbst bei Modellen mit 15 - 20 GiB, bist du manchmal limitiert, was die Vielfältigkeit angeht. Das geht sogar teilweise soweit, dass du am Ende sogar mehre Modelle zusammen schaltest für entsprechende Flexiblität.
Aber ja, du hast recht: Man kann das ganze auch "effizienter" gestalten, dann sind es aber eben Spezialisten, keine Generalisten.
79luca79 schrieb:
Der Bard ist ja mal ein totaler Reinfall verglichen mit GPT-4, ChatGPT und mittlerweile sogar Open Assistant, den ich hauptsächlich benutze.
Bitte jetzt nicht als Kritik oder Angriff verstehen: Für mich ist das immer irgendwie "verwirrend", wenn man auf der einen Seite die Namen der Modelle nennt und dann gleichzeitig auch ein Produktname einpflegt. ChatGPT - wenn ich es richtig im Kopf habe - basiert ja auf einem verbesserten GPT-3-Modell?
Gibt es eigentlich schon GPT-4 in freier Wildbahn?
79luca79 schrieb:
Natürlich ist er noch nicht so gut wie ChatGPT oder GPT-4 aber ein Gratisprogramm ist schwer zu schlagen.
Der Vorteil der Opensource-Modelle ist oft, dass man - wie bei Stablefusion für "Kunst" - ist ja, dass die meisten Systeme flexibel sind und man auch verschiedene Modelle kombinieren kann, die auf entsprechende Bereiche optimiert werden.
Es ist durchaus eine berechtige Frage, ob man "allmächtige" Systeme auch braucht. Das, was GPT-3/ChatGPT so beeindruckend macht, ist gleichzeitig auch das, was diese Systeme so "ineffizient" macht. Und die Frage stellen nicht nur ich mir gerade, sondern auch Experten auf diesem Gebiet.
Man kann aber gespannt sein, was kommt. Wenn man aber bedenkt, was vor 6 - 8 Jahren bereits dazu geschrieben wurde - Weltuntergang - und jetzt, sind die Parallele faszinierend.
duAffentier schrieb:
10 Mrd. Dollar Invest, mal schauen wann die ROI hier erreicht werden soll.
Bei solchen Investements geht es oft nicht darum, dass man wirklich das "Geld" wieder raus bekommt, sondern dass man Zugriff auf die Technologie erhält. Es kann sein, dass Microsoft "nie" das Geld direkt aus dem Investment bekommt, sondern dadurch, dass andere Sparten davon profitieren.