News KI-Anwendungen für die Verwaltung: Wie Aleph Alpha ein Geschäftsmodell entwickeln will

milliardo schrieb:


Ich rechne nicht damit, in den nächsten 10 Jahren irgendwas "KI"-generiertes aus den Verwaltungen zu sehen, das über einfache Informationsschreiben, Empfangsbestätigungen, Rechnungen, Bewilligungsbescheide ohne Abweichungen, oder dgl. hinausgeht. (Was umgekehrt aber heißt, ich sehe auch Usecases) …
Sehe ich genauso. Meine Versuche mit KI sind da alle komplett in die Hose gegangen. Selbst wenn man aktuelle Modelle zu im Internet verfügbaren Dokumenten online fragt, kommt da nur Murks bei raus. Liegt teilweise sicher auch daran, dass bei Regelwerken viele Begriffe genau definiert sind, diese im gewöhnlichen Deutsch aber was anderes bedeuten. Das zu verstehen bedarf wahrscheinlich viel Training auf Basis von sehr spezifischen Datensätzen, von denen es auch nicht so viele gibt.

Aber ich lasse mir gerne eines besseren belehren! :-)
 
NoNameNoHonor schrieb:
Und dann eine KI aus der Cloud?
Steht doch schon im Artikel, dass die LLMs zentral laufen sollen.

NoNameNoHonor schrieb:
Oder läuft das nur lokal (kann ich mir nicht vorstellen) ?
Wieso nicht? Lokal laufende LLMs sind weder etwas neues noch etwas hoch kompliziertes. Gibt genügend Lösungen dafür, die das auch sehr einfach machen.
Ich benutze beispielsweise gerne für das Prototypen LM Studio: https://lmstudio.ai/
Damit kann ich lokal einen Server laufen lassen - welcher obendrein noch über übliche OpenAI Packages in Python ansprechbar ist - oder direkt einen Chat darin starten. Hat auch nicht das (künstliche) Token-Limits der Cloud-AIs und kostet mich höchstens Rechenleistung. Läuft auf einem M2 MacBook Air mit 16GB RAM bereits sehr komfortabel, man bekommt auch vom Tool selbst Informationen, ob es mit dem zur Verfügung stehenden RAM läuft.

Wenn man es Open Source haben möchte, gibt es zig weitere Tools. Wenn man nur einen Server möchte, kann man Ollama verwenden: https://github.com/ollama/ollama
Mit einem RAG integriert kann man etwa auf Dot zurückgreifen: https://github.com/alexpinel/Dot
Gibt auch einige Docker-Images, mit denen man das einfach deployen kann.
 
  • Gefällt mir
Reaktionen: Zhan und s1ave77
Es gibt sicherlich genug Einsatzfelder in der Verwaltung; das ist nicht das Problem.

Das Problem ist im Bereich der gesamten Digitalisierung die Vielstaaterei in Deutschland:

  • die Kommunen haben ein verfassungsrechtlich abgesichertes Selbstverwaltungsrecht (und machen in Bezug auf IT teils wirklich, was sie wollen)
  • die Länder sind auch unabhängig und stehen teils auch politisch in Konkurrenz zueinander
  • der Bund möchte oft gern, darf aber den Ländern und Gemeinden nicht "hinein regieren"
  • selbst innerhalb von Bundes- und Landesverwaltung gibt es die ebenfalls verfassungrechtlich gesicherte Ressorthoheit

Solange sich da nichts ändert, bekommen wir die begrenzten Mittel nicht vernünftig für Digitalisierung gebündelt.
 
  • Gefällt mir
Reaktionen: Slainer und s1ave77
tomgit schrieb:
Die Schwarz-Gruppe ist inzwischen deutlich mehr als Lidl.

Ja.. und sie hat 167 Mrd. Umsatz in 2023… und die neu gegründete Schwarz Digits 1,9 Mrd.
Ich kenne Leute aus deren IT… man mag von der Schwarz Gruppe halten, was man will, aber sie sind gut organisiert und ich traue denen einiges zu.
 
"Nische" ist theoretisch gar nicht schlimm, da man dank dieser theoretisch wenn man es richtig macht deutlich spezifischere und präzisere Lösungen für den jeweiligen Use-Case anbieten kann. Ob das so wie "KI" aber heute funktioniert überhaupt möglich ist, das bezweifle ich dann doch etwas. Hier wäre statt Buzzword-Bingo und Hype-Train wahrscheinlich eine Art "smartes Nachschlagewerk" welches einem statt "mit Wahrscheinlichkeit für Halluzination" immer das gibt, was man auch sucht, plus sinnvolle Filter, Zusammenfassungen/ Vorschau oder andere sinnvolle Optionen um die Ergebnisse einzugrenzen bzw. sie leichter zugänglich zu machen.

Aber gut, wenn man so lange braucht um überhaupt ein Geschäftsmodell zu entwickeln, dann wird das Produkt wahrscheinlich noch mal XX Jahre mehr brauchen. Wie üblich hat man hier "habe KI Bla-Bla, suche Problem für Lösung!" und entwickelt somit ein Produkt das eher so semi-sinnvoll ist...
 
tomgit schrieb:
(..) Würde mich nicht überraschen, wenn bei einem entsprechend guten Ergebnis auch Ressourcen des HLRS zu Sonderkonditionen zur Verfügung gestellt werden könnten.
Auch StackIT könnte entsprechend mitwirken, schließlich könnten sie als Cloudressourcenanbieter entsprechend davon profitieren.
Das Inferencing hingegen ist recht günstig, und wenn die Parameter klein genug ausfallen könnten Aleph Alphas Modelle auch lokal laufen.

(..)

Ganz trocken gesagt, nö. Das HLRS hat keinerlei Erfahrung im Betrieb von großen GPU-Clustern, und besonders auch nicht beim richtigen Training von KI-Modellen. Habe noch nie mit StackIT gearbeitet aber im ML/KI-Bereich sind die keine Nummer. Für ein Startup was eh schon in Schieflage liegt ist das zu viel Risiko sich hier jemanden ans Bein zu binden welcher erst noch die Kompetenz aufbauen muss.

Im großen Ganzen ist das hier ein Pivot in die Realität, welcher aber zu spät kommt und kaum davon ablenken kann, dass Aleph Alpha einfach nicht kompetent ist. In den USA hat bereits die Konsolidierungswelle unter den ML-Startups eingesetzt, wo einige große Namen der letzten Jahre wie Adept, und Inflection AI ausgekauft wurden. Und beide Unternehmen hatten weitaus bessere Modelle als die sub-par Modelle von Aleph Alpha.

Für das Bauen von spezialisierten KI-Anwendungen durch das Anpassen von e.g. dem neuesten Llama Modell oder anderen Open Source Modellen gibt es bereits andere Anbieter, die ihr Geschäft genau verstehen, und auch mit entsprechenden Erwartungen finanziert wurden.

In Europa werden die französischen Startups um Mistral, KyutAI, und H das Feld dominieren.
 
  • Gefällt mir
Reaktionen: stevefrogs und interesTED
Passend zum Thema hat Sabine Hossenfelder (Wissenschaftlerin & YouTuber) ein Video über die Kosten des KI-Hypes herausgebracht. Darin zitiert sie Ökonomen und Wirtschaftler, die davor warnen, dass aktuell möglicherweise mehr Geld in KI investiert wird, als in den nächsten Jahren damit verdient werden kann.

Wer sich dafür interessiert, kann ja mal einen Blick rein werfen.
 
  • Gefällt mir
Reaktionen: s1ave77
icetom schrieb:
Die Entscheider in der Verwaltung wollen eigentlich keine zusätzliche IT einsetzen, aus Angst dass die eigene Inkompetenz auffliegt. Deutschland geht genau den anderen Weg und baut immer mehr Stellen in der Verwaltung auf.

Ich durfte mir letztens noch anhören, dass wir "solche Probleme 1992 nicht hatten".

Das Problem löst m.E. nur die Zeit.
 
  • Gefällt mir
Reaktionen: Nefcairon und Three of Nine
icemanspirit schrieb:
Das HLRS hat keinerlei Erfahrung im Betrieb von großen GPU-Clustern,
Das ist aber Schade, wenn die allermeisten Systeme im HLRS auf GPU-Cluster aufbauen :freak:
icemanspirit schrieb:
und besonders auch nicht beim richtigen Training von KI-Modellen.
Aber vielleicht Aleph Alpha?
icemanspirit schrieb:
Habe noch nie mit StackIT gearbeitet aber im ML/KI-Bereich sind die keine Nummer.
Wurde auch erst 2018 gegründet, könnte ggf damit zu tun haben. Trotzdem bieten sie schon drei Locations an.
icemanspirit schrieb:
In Europa werden die französischen Startups um Mistral, KyutAI, und H das Feld dominieren.
Erneut, wer sagt, dass das Sinn und Zweck von Aleph Alpha sein muss? Kopf in Sand stecken, weil man keine marktübergreifende Dominanz aufbauen kann, wenn es genügend Nischen gibt, wo man ansetzen kann und sich etabliert?
 
  • Gefällt mir
Reaktionen: s1ave77
tomgit schrieb:
Das ist aber Schade, wenn die allermeisten Systeme im HLRS auf GPU-Cluster aufbauen :freak:
Welche denn?

Es gibt den Hawk-Ausbau, welcher allerdings viel zu klein ist. Und ansonsten ist das HLRS ein CPU-Laden.

tomgit schrieb:
Aber vielleicht Aleph Alpha?

Du verwechselst hier etwas Grundlegendes. Ja, man braucht Expertise zum Training auf der Softwareseite, aber man braucht die Expertise auch auf der Hardware- und Clusterseite. Das kriegt man nur wenn man solche Workloads konstant unterstützen muss. Nur Mal als Beispiel aus dem aktuellen Llama Bericht von Meta:

"The complexity and potential failure scenarios of 16K GPU training surpass those of much larger CPU clusters that we have operated."

I.e. Sachen mit denen das HLRS keinerlei Erfahrung hat.

Addendum: Und StackIT auch nicht im Ansatz.
 
Zuletzt bearbeitet:
icemanspirit schrieb:
Welche denn?

Es gibt den Hawk-Ausbau, welcher allerdings viel zu klein ist. Und ansonsten ist das HLRS ein CPU-Laden.
Hawk, das unbenannte AMD-System, auch Cray haben GPU-Cluster-Kapazitäten. Und das kommende Hunter-System wird wohl ein GPU-Cluster-System werden, entsprechend wird man Kenntnisse benötigen, sofern sie nicht bereits vorhanden sind.

icemanspirit schrieb:
Du verwechselst hier etwas Grundlegendes. Ja, man braucht Expertise zum Training auf der Softwareseite, aber man braucht die Expertise auch auf der Hardware- und Clusterseite. Das kriegt man nur wenn man solche Workloads konstant unterstützen muss.
Aleph Alpha betreibt in Bayern einen eigenen Server, wahrscheinlich wird das (auch im Hinblick auf „Nachhaltigkeit“) kein reiner CPU-Server sein. Die Kenntnisse werden dort wohl in einem gewissen Umfang selbst vorhanden sein.

Natürlich geh ich nicht davon aus, dass die aus dem Stegreif ein Rechenzentrum in der Größe eines Azure Sweden oder ähnliches betrieben bekommen, aber den Laden einfach nur abzuschreiben ist sowohl zu einfach als auch wird es den doch vorhandenen Kompetenzen nicht gerecht.
 
  • Gefällt mir
Reaktionen: s1ave77
tomgit schrieb:
Die sind hervorragend vernetzt, die brauchen Geld. Und Investoren, die die Vorteile sehen und dann nutzen können, u.a. in verschiedenen Verwaltungsbereichen, Büro usw. Da gibt es vieles.
 
  • Gefällt mir
Reaktionen: tomgit
Krik schrieb:
Passend zum Thema hat Sabine Hossenfelder (Wissenschaftlerin & YouTuber) ein Video über die Kosten des KI-Hypes herausgebracht. Darin zitiert sie Ökonomen und Wirtschaftler, die davor warnen, dass aktuell möglicherweise mehr Geld in KI investiert wird, als in den nächsten Jahren damit verdient werden kann.

Wer sich dafür interessiert, kann ja mal einen Blick rein werfen.
Hab das Video (noch) nicht geschaut, aber Geld scheint bei den KI Enwicklern, bzw. ja eher Firmen wohl nicht das Problem zu sein. Siehe Artikel hier.

Edit: ich will damit sagen, die werdern sicherlich nicht, weil es aktuell unrentabel ist, aufhoeren. In Zukunft wird es sehr rentabel.
 
  • Gefällt mir
Reaktionen: Kuristina
tomgit schrieb:
Hawk, das unbenannte AMD-System, auch Cray haben GPU-Cluster-Kapazitäten. Und das kommende Hunter-System wird wohl ein GPU-Cluster-System werden, entsprechend wird man Kenntnisse benötigen, sofern sie nicht bereits vorhanden sind.

Sie haben die Kompetenz noch nicht, brauchen sie aber. Aber um einen Schritt spezifischer hier zu sein. Ein GPU HPC-Cluster hat andere Nutzungspattern als ein KI Trainingscluster. HPC ist viel granulärer, während KI von wenigen großen Jobs welche die gesamte Maschine, und vor allem die Netzwerkbandbreite voll belegen.

Das war auch bei Hawk das Hauptproblem vom HLRS. Das Netzwerk hat die Maschine über lange Zeit extrem instabil gemacht. Gift für ein KI-Training welches Monate an Stabilität braucht.

tomgit schrieb:
Aleph Alpha betreibt in Bayern einen eigenen Server, wahrscheinlich wird das (auch im Hinblick auf „Nachhaltigkeit“) kein reiner CPU-Server sein. Die Kenntnisse werden dort wohl in einem gewissen Umfang selbst vorhanden sein.

Das besagte Cluster ist meines Wissens nach um die 1000 H100 groß. Das reicht bei weitem nicht aus.

Zudem, viele Probleme beim richtigen Clusterbetrieb treten erst bei den großen Skalen auf wenn das Netzwerk richtig belastet wird. Ein Wissen welches sie noch nicht haben können. Es gibt viele Startups mit >= 1000 H100 Clustern. Nur werden diese normalerweise von Coreweave betrieben im Namen der Startups welche davon auch wirklich Ahnung haben. Die Zeit Dir dieses Wissen anzueignen hat man als Startup einfach nicht.

I.e. Kompetenz die wiederum nicht bei Aleph Alpha liegt.

Um meine Bedenken Mal bündig auf den Punkt zu bringen:
  • Aleph Alpha hat keinerlei Kompetenz "Frontier"-Models wie Llama etc. selbst zu bauen, und lässt auch seit bald 2 Jahren jeglichen Versuch dies zu tun nicht erkennen. Entweder ihnen fehlt es an Richtung oder sie haben elementare Fehler in ihrem Trainingscode, ihrem Datenmix, oder noch schlechter ihnen fehlt es an den guten Leuten welche wirklich die Details dieser Modelle verstehen.
  • Das Kernproblem von InflectionAI warum sie am Ende ihr Cluster + Geld zurückgegeben haben, und sich von Microsoft haben anheuern lassen war, dass sie nicht die richtig guten Leute kriegen konnten, und somit keinen Weg sahen bei den modernen Modellen mitzuhalten. Aleph Alpha genießt hier einen noch schlechteren Ruf, und ist in der KI-Szene komplett absent.
  • Ihr Funding ist auf das Bauen von Frontiermodellen / Foundation Models ausgerichtet, welches zuvor auch der Pitch von Aleph Alpha war. Dem liegen gewissen Gewinnerwartungen zu Grunde, als auch Ausgabenerwartungen. I.e. >10M Euro teure Trainingsruns. Sie ziehen sich jetzt hiervon zurück. Das Geld was man braucht als Startup um spezialisierte Modelle zu bauen ist weitaus kleiner. Was macht man jetzt mit dem vielen Geld? In Teilen zurückgeben? Weil die Gewinnerwartungen von den ersten Runden werden sie nie erfüllen können.
  • Es gibt bereits Startups welche von Anfang an auf spezialisierte Modelle ausgerichtet waren. Zwar hat Aleph Alpha gute Verbindungen, aber das wird sie nicht lange über Wasser halten können.
  • Die wirkliche Baseline ab der Du heute als Firma mit KI-Modellen Geld verdienen kannst wird von Llama 3.1 gesetzt, i.e. dem besten Open Source Modell von Meta. Von dieser Baseline ist Aleph Alpha weit weg, und mit ihren Modellen werden sie kein Geld verdienen können as is. Was auch die Strategie von Meta, Google und Co. zu sein scheint.

Getrennt davon, was ich an dem Ganzen am meisten schade finde ist es dass es sehr viele Deutsche gibt die in KI extrem kompetent sind, jedoch alle für ausländische Firmen arbeiten, und/oder direkt gleich komplett im Ausland tätig sind. Falls Aleph Alpha untergehen sollte, wird dies die Funding-Umgebung auf Jahre hinweg zerstören während gleichzeitig in Frankreich, und vor allem in den USA und China Nägel mit Köpfen gemacht werden. I.e. Zeit welche eigentlich nicht existiert wenn man hier auch nur ein Wort mitreden will.

Die jetzige Umgebung ist bereits schon nicht gut genug um nach Deutschland zurückzukommen.
 
  • Gefällt mir
Reaktionen: s1ave77, interesTED und tomgit
Bin in der Verwaltung tätig. Prognose: in 5 Jahren wird es ein Projekt geben, das nach weiteren 5 wieder eingestellt wird. Das ist alles so (dümmlich) komplex, dann gibt es Einzelfallentscheide....
 
  • Gefällt mir
Reaktionen: Nefcairon
Zurück
Oben