News Eigene Chips/Fabs von OpenAI: Sam Altman auf der Suche nach Partnern und Finanzierung

Allerdings geht man damit auch ein größeres Risiko ein. Wer sagt das ihre eigenen Chips auf Dauer mit der Entwicklung von GPUs mithalten können? Auch wenn es ein maßgeschneidertes System ist, dass eigentlich klare Vorteile bringt, kann es 1-2 Jahre später gegen neuere Chip Generationen diese Vorteile eingebüßt haben. Und nur für AI Anwendungen die Entwicklungszyklen von GPUs mitzugehen scheint mir sehr kostspielig.
 
DeusExMachina schrieb:
Das Kernproblem der generativen vortrainierten Transformatoren wird dadurch nicht gelöst.
Von welchem "Kernproblem" sprichst du hier bitteschön!?

Bei den meisten Anwendungen geht es gerade erst los, und wo siehst du da die Mauer gegen die wir gerade rennen?

Was ist denn die Alternative im Bereich der Codegenerierung, EDA-Tools, Bildverarbeitung/Generierung, Proteinfaltung, bei Wettervorhersage, Übersetzungsprogrammen, Materialforschung, etc.

Kann mich mal bitte einer dieser "KI ist bald kein Thema mehr"- Experten aufklären?
 
Interessant wäre zu wissen, mit welcher Ausbringungsmenge an Chips Altman hier wirklich plant. Mit eigenen Fabriken müssten das ja Millionen von Chips sein, damit sich die Fabrik rechnet. Dann ist da noch das Zeitproblem bis die Fabriken überhaupt gebaut sind. Ansich ist der Ansatz aber nicht schlecht, siehe zB Google TPUs.
 
KarlsruheArgus schrieb:
Eine gewisse Kompetenz ist aber vorhanden.
Die MI300X sollte man nicht unterschätzen.

Ich glaube Hardware ist da eine Sache, die Kompetenzen bei der Implementierung, Anpassung, Beratung eine andere. Sieht man doch auch bei klassischen GPUs seit Jahren bei AMD. Auch da war nie die Hardware das Problem, eher alles äußere um die Produkte auch wirklich vernünftig zu nutzen und die Leute, die dafür Anwendungen schreiben vernünftig zu unterstützen. Support und Beratung ist in der Industrie sehr wichtig, ansonsten kauft man teure Briefbeschwerer, die in der Theorie toll sind, die man aber nicht in die eigenen Workflows integriert bekommt. Ich denke genau das wird hier das Thema sein, ohne mich speziell in dem Bereich auszukennen.
 
Ja klar würde man gerne... Aber mal so von 0 NVIDIA und TSMC einzuholen... hm...

Als man von eigenen Fabs redete war mir jedenfalls klar das es ein Traumschloss ist.
Wenn er nicht Elon Musk³ ist wird das nix.
Und selbst der hatte immerhin den Riecher wann eine Technologie soweit war das man Sie für entsprechende Nische adaptieren konnte und entsprechende Nische auch noch frei war (SpaceX, Tesla etc.).
Und auch bei dem gehen einige Ideen kräftig nach hinten los.
 
Mr.Seymour Buds schrieb:
siehe zB Google TPUs
Meinst du die hier?
https://www.berrybase.ch/google-coral-usb-accelerator-fuer-raspberry-pi

Das einzige was das ding tut ist Bilder zu erkennen:
https://coral.ai/examples/
https://www.reddit.com/r/unRAID/comments/zr7eij/is_the_google_coral_tpu_useful_for_anything_else/

Btw Frigate ist ein Plugin für Home assistant für Überwachungskameras.

Also "AI Hardware" ist so ziemlich das Kurzlebigste was man sich vorstellen kann.
Es gibt ja noch nicht mal definierte Aufgaben was AI Hardware erledigen können muss, weil einfach jeder sein eigenes süppchen kocht.
Sobald also OpenAI mit ChatGPT 6 oder 7 kommt das auf eigener Hardware läuft kommt dann eine Konkurrenz Technologie die auf einer anderen Basis funktioniert, besser ist, und die komplette Hardware nutzlos werden lässt. ^^
 
heroesgaming schrieb:
Die zum jeweiligen Zeitpunkt vorherrschende Leitkultur hat andere Sprachen immer schon geprägt - und dank den USA und ihrem Einfluss in der Welt ist nun einmal Englisch die Lingua franca. Mit einer "hippen" Erscheinung hat das längst nichts mehr zu tun. Im Zuge einer US-dominierten Globalisierung sind etliche englische Begriffe in alle möglichen Sprachen eingedrungen.
Öhm, speziell auf die IT bezogen mag das so stimmen, aber mit der Verbreitung von Englisch als Lingua Franca haben dann doch die Briten und ihr Empire ein wenig zu tun gehabt 😁.
heroesgaming schrieb:
Ist nicht schlimm, gab es auch früher schon und kann man allmählich auch einfach mal hinnehmen. Niemand zwingt dich, den Begriff selbst zu verwenden. Dass er gängig ist, wirst du aber nicht mehr ändern können und eine Diskussion darüber führt nirgendwo hin.
Das stimmt irgendwo, allerdings kann man auch mal Kritik so stehen lassen. Ich find Fab auch Recht sinnlos. Wenn wir kein passendes Wort hätten oder dieses umständlich oder lang wäre ok, aber so? Trotzdem ist es natürlich eine Kleinigkeit und ich Fang jetzt auch nicht an mich über Anglizismen allgemein auszulassen :).
heroesgaming schrieb:
@topic:

Eigene Fabs aus dem Nichts aufzubauen, um eigene Custom-Chips fertigen zu können, mutet fast schon ein wenig größenwahnsinnig an. Meine spontane Reaktion wäre es, zu vermuten, dass das nichts werden wird, aber letztlich bleibt's wohl abzuwarten.
Wär auch mein erster Gedanke, erstmal sehen. Ich wüsste nicht wo das Know-How oder auch nur das Geld herkommen soll, aber vielleicht nutzt man ChatGPT bzw. Abwandlungen zur Planung? Ich bin skeptisch.
 
  • Gefällt mir
Reaktionen: heroesgaming
ManInNight schrieb:
Eigentlich macht das verdammt viel Sinn was OpenAI da macht. Sobald das Modell auf ein ordentliches Level trainiert wurde, kann das für Kundenanfragen auf speziell dafür hergestellten Chips laufen.
Für eigene Chips braucht man keine eigene Fertigung.
Das ist auch völlig Banane. Selbst AMD mit einem recht planbaren Absatz hat keine eigene Fertigung. Aber für ein Produkt mit noch nicht absehbarer Nachfrage will man eine eigene Fab hochziehen?
Und mit wessen Technologie? Warum sollte TSMC die lizenzieren? Dass openAI selbst die Fertigungstechnologie entwickelt ist ja völlig utopisch.
Ergänzung ()

Haldi schrieb:
Wohl eher die hier:
https://en.m.wikipedia.org/wiki/Tensor_Processing_Unit
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr.Seymour Buds und Cruentatus
ElectricStream schrieb:
Weil AMD in diesem speziellen Bereich nicht die erforderliche Kompetenz und Expertise aufweist.
Das ist aber definitiv die interessanteste Frage hier im Thema.
Weg von Nvidia ok.
Aber eigene Chips bauen kostet nicht nur astronomische Summen Geld, sondern auch massives Know How, insbesondere im Bereich der Konstruktion. Ich würde behaupten, die Anzahl der Personen, die solche Chips entwerfen können ist auch international sehr überschaubar.

Sprich OpenAI muss nicht nur eigene Produktionskapazitäten aufbauen, sondern auch im signifikanten Umfang Experten bei anderen Unternehmen abwerben.
Im vergleich dazu scheint es mir schon sinnvoll sich mit einem Partner wie z.B. AMD oder auch Intel zusammenzutun, die in diesen Bereichen zumindest schon ein gutes Fundament haben und da im Rahmen einer Kooperation/Joint Venture eine Lösung zu finden.
 
Nach allem, was ich bisher gehört habe, macht es der Sam komplett richtig.

Ungewollt, war er plötzlich in aller Munde und jetzt geht er direkt zu den Menschen, die ihn finanzieren sollen, wenn sie an sein Projekt glauben. Wenn dich der arabische Scheich eines "Schurkenstaates" feuert, erfährst du es sicher nicht, aus der Presse. Mit solchen "Machenschaften" muss man dann auch leben.

Natürlich reden wir hier über Zeiträume, die 2-3 Jahre sind, bis die ersten Erfolge eintreffen. Aber so gestaltet man die Zukunft.

Der junge Mann gefällt mir sehr (rein wirtschaftlich) und ich denke, da ist viel Potential.

mfg
 
Schinken42 schrieb:
Öhm, speziell auf die IT bezogen mag das so stimmen, aber mit der Verbreitung von Englisch als Lingua Franca haben dann doch die Briten und ihr Empire ein wenig zu tun gehabt 😁.
Schon richtig, aber bis ins 20. Jahrhundert war selbst das Deutsche noch als potenzielle Weltsprache im Gespräch, da es speziell auch in der Wissenschaft aufgrund seiner Präzision enormes Ansehen besaß. Mit den Weltkriegen hatte sich das dann allerdings endgültig erledigt.
Noch dazu ist Englisch heutzutage auch in der Geschäftswelt breit angekommen - auch in Ländern, die mit dem britischen Empire nie etwas zu tun hatten. Das eine bedingte sicherlich das andere, da dass Englische dank der Kolonialmacht Großbritannien bereits sehr weit verbreitet war, in den letzten hundert Jahren waren aber sicherlich eher die USA die ausschlaggebende Kraft dafür, dass ihre Sprache sich durchsetzte.
Schinken42 schrieb:
Das stimmt irgendwo, allerdings kann man auch mal Kritik so stehen lassen. Ich find Fab auch Recht sinnlos. Wenn wir kein passendes Wort hätten oder dieses umständlich oder lang wäre ok, aber so? Trotzdem ist es natürlich eine Kleinigkeit und ich Fang jetzt auch nicht an mich über Anglizismen allgemein auszulassen :).
Es war nicht meine Absicht, die Kritik nicht so stehen zu lassen. Ich wollte nur deutlich machen, dass eine weitergehende Diskussion, die sich ja irgendwie schon anbahnte, wenig Sinn hätte. Da finde ich manchen Scheinanglizismus, der auch bei deutschen Muttersprachlern sehr tief sitzt, viel nerviger. Etwa den Beamer. Oder das Handy. Wobei gerade letzteres ja schon derart üblich ist, dass es niemandem mehr auffällt :D
Schinken42 schrieb:
Wär auch mein erster Gedanke, erstmal sehen. Ich wüsste nicht wo das Know-How oder auch nur das Geld herkommen soll, aber vielleicht nutzt man ChatGPT bzw. Abwandlungen zur Planung? Ich bin skeptisch.
Sofern Microsoft nicht plötzlich Ambitionen hätte, in die Chipfertigung zu investieren, wüsste ich auch nicht, welche Mittel für so ein Vorhaben herangezogen werden könnten. Und diese Bestrebung sehe ich bei MS mal sowas von gar nicht. Software- und dann noch Infrastructure-as-a-Service sind dort die Gebote, denen schon seit vielen Jahren gefolgt wird. Ist beides weit besser und günstiger skalierbar und deutlich weniger riskant als High-End-Chipfertigung.
bensen schrieb:
Für eigene Chips braucht man keine eigene Fertigung.
Das ist auch völlig Banane. Selbst AMD mit einem recht planbaren Absatz hat keine eigene Fertigung.
Genauso wenig wie Apple, Qualcomm oder Nvidia - drei der größten Chiphersteller (oder zumindest "Chipentwickler") der Menschheitsgeschichte. Eine eigene Bleeding-Edge-Fertigung aufzubauen ist ein extrem riskantes und absurd teures Unterfangen und dürfte sich für die allerwenigsten Unternehmen lohnen.
bensen schrieb:
Aber für ein Produkt mit noch nicht absehbarer Nachfrage will man eine eigene Fab hochziehen?
Den Sinn darin sähe ich auch nicht. Ebenso gut könnte man mit entsprechenden Mitteln Kapazitäten bei TSMC buchen und aus dem Stand auf die beste Fertigung am Markt zurückgreifen. Oder man arbeitet mit Samsung zusammen und profitiert von geringeren Preisen, die im Gegenzug mehr Volumen ermöglichen.
 
Zuletzt bearbeitet:
heroesgaming schrieb:
aber bis ins 20. Jahrhundert war selbst das Deutsche noch als potenzielle Weltsprache im Gespräch

Wir hatten unsere Chance. Den 1ten WK hätte man uns evtl. noch verziehen. Den 2ten WK aber nicht, den wir einem größenwahnsinnigen aus Braunau zu verdanken haben, der ein nicht erklärbares Problem mit einer Religion hatte und damit alles mit Füßen getreten hat, was Friedrich II von Preußen damals sagte:

  • "Die Religionen Müsen alle Tolleriret werden und Mus der fiscal nuhr das auge darauf haben, das keine der andern abruch Tuhe, den hier mus ein jeder nach Seiner Fasson Selich werden." - Rand-Verfügung des Königs zum Immediat-Bericht des Geistlichen Departements. Berlin 1740 Mai 22: Katholische Schulen und Proselytenmacherei - In: Max Lehmann: Preussen und die katholische Kirche seit 1640. Nach den Acten des Geheimen Staatsarchives. 2. Theil. 1740-1747. Leipzig: Hirzel, 1881. S. 4* Internet Archive
Wir waren das Land der Dichter und Denker.

"Das Deutsche wurde ab dem Ende des 18. Jahrhunderts infolge der Weimarer Kulturpolitik (siehe Weimarer Klassik, vertreten durch Dichter und Politiker wie Goethe, Schiller und die Brüder Humboldt, aber auch durch die Wichtigkeit der Schriften der philosophischen Aufklärung, insbesondere Kants, siehe: Dichter und Denker) eine sehr bedeutende Sprache in Wissenschaft und Kunst; es verlor diesen Status jedoch nach den Niederlagen in den beiden Weltkriegen und wohl auch infolge des diesen Kriegen vorangegangenen kontinuierlichen Verfalls aufklärerischer Ideale."

Wir waren mal wer. Heute sind wir nur noch ein Schatten unserer selbst und weder die Rechtsaußen, noch die Weltverbesserer mit grünem Mäntelchen, werden daran etwas ändern.

Wir sind jetzt im besten Falle, Zaunkönige und dürfen in der ersten Reihe zuschauen, wie Weltpolitik gemacht wird. Jedes mal, wenn Anna Lena das hört, ist sie natürlich total beleidigt. Aber das ist die Wahrheit.

mfg
 
  • Gefällt mir
Reaktionen: Shoryuken94, Timesless, Sansio und 4 andere
[wege]mini schrieb:
Wir waren mal wer. Heute sind wir nur noch ein Schatten unserer selbst und weder die Rechtsaußen, noch die Weltverbesserer mit grünem Mäntelchen, werden daran etwas ändern.
Das "Wir" lässt tief blicken.
Ziehe ein Dasein im Schatten übrigens vor. :D
 
[wege]mini schrieb:
Wir hatten unsere Chance. Den 1ten WK hätte man uns evtl. noch verziehen. Den 2ten WK aber nicht, den wir einem größenwahnsinnigen aus Braunau zu verdanken haben, der ein nicht erklärbares Problem mit einer Religion hatte und damit alles mit Füßen getreten hat, was Friedrich II von Preußen damals sagte:
[...]
Ja, wie ich bereits sagte: Bis zu den Weltkriegen war Deutsch als Sprache noch hoch angesehen. Aber so ist die Geschichte nun einmal verlaufen. Darauf hatten wir, die wir hier heute darüber sprechen, nie Einfluss und nun müssen wir es eben nehmen, wie es ist.
[wege]mini schrieb:
Wir sind jetzt im besten Falle, Zaunkönige und dürfen in der ersten Reihe zuschauen, wie Weltpolitik gemacht wird. Jedes mal, wenn Anna Lena das hört, ist sie natürlich total beleidigt. Aber das ist die Wahrheit.
Das ist kein spezifisch deutsches Problem. Keine der heutigen europäischen Mittelmächte besitzt heute noch den kulturellen, politischen oder militärischen Einfluss, den sie in früheren Zeiten mal besaßen. Den Briten und Franzosen, als Siegermächten des zweiten Weltkrieges, wird heute nicht einmal mehr zugetraut, mit ihren kombinierten Atomstreitkräften Russland abschrecken zu können, einfach weil ihr Arsenal so signifikant viel kleiner ist.
Die EU gibt es nicht ohne Grund und wer entsprechenden Weitblick besitzt, müsste eigentlich für deren langfristige Entwicklung zu einem Bundesstaat sein. Bedauerlicherweise ist das im Europa des dritten Jahrzehnts dieses Jahrhunderts wohl nicht mehr wirklich denkbar.
 
  • Gefällt mir
Reaktionen: medsommer, Doomshroom, Timesless und 2 andere
heroesgaming schrieb:
Bis zu den Weltkriegen war Deutsch als Sprache noch hoch angesehen.
Die sind nur eine Folge der Probleme, die wir vorher schon hatten. "Rattenfänger" finden nur dann gehör, wenn es zu viele "Ratten" gibt.

[wege]mini schrieb:
und wohl auch infolge des diesen Kriegen vorangegangenen kontinuierlichen Verfalls aufklärerischer Ideale

Da hat sich nichts geändert. Die Aufklärung in Deutschland ist so schlecht, dass es weh tut. LER als Schulfach (gibt es das Flächendeckend) ist doch nicht genug und die Gräben, die dauerhaft aufgerissen werden, auch von den Kanzeln der Prediger her, sind doch nicht mehr feierlich.
Da schaue ich sehr sauer zu den muslimischen Menschen und ihren Predigern rüber, in einigen Teilen von Bayern ist es aber auch nicht lustig, was da so gepredigt wird.

heroesgaming schrieb:
müsste eigentlich für deren langfristige Entwicklung zu einem Bundesstaat sein.

Ein Staatenbund wäre das Mittel unserer Wahl. Nach Vorbild der USA. Man muss das Rad ja nicht neu erfinden. Evtl. sind unsere Landesfürsten dann sauer. Immerhin ist ja Deutschland schon ein Staatenbund.

heroesgaming schrieb:
Bedauerlicherweise ist das im Europa des dritten Jahrzehnts dieses Jahrhunderts wohl nicht mehr wirklich denkbar.

Wir sind im 3ten Jahrzehnt dieses Jahrtausends. Ob ich es noch erleben werde, kann ich nicht sagen. Ich hoffe aber, in diesem Jahrhundert wird es noch kommen. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: medsommer
LamaMitHut schrieb:
Von welchem "Kernproblem" sprichst du hier bitteschön!?

Bei den meisten Anwendungen geht es gerade erst los, und wo siehst du da die Mauer gegen die wir gerade rennen?

Was ist denn die Alternative im Bereich der Codegenerierung, EDA-Tools, Bildverarbeitung/Generierung, Proteinfaltung, bei Wettervorhersage, Übersetzungsprogrammen, Materialforschung, etc.

Kann mich mal bitte einer dieser "KI ist bald kein Thema mehr"- Experten aufklären?

Du wirfst da mehre Sachen in einen Topf die nicht zusammen gehören.

Ich sprach ausdrücklich nur von GPT

Bei Codegenerierung spielt das noch keine nennenswerte Rolle und da sehe ich bei unseren intermediate Entwicklern eher ein dümmer werden als eine Beschleunigung durch KI Hilfen.

Bei EDA werden Musterkennungsalgorithmen verwendet die genauer und schneller als Menschen arbeiten.

Bei Materialforschung hab ich rein zufällig heute mit einem Freund drüber gesprochen der da auf einem Kongress in Barcelona ist und die sind sich seiner Aussage sehr uneins was KI da bringt.

GPT artige LLM wird massiv misstraut und das zu recht das sind Würfelautomaten.
Grundsätzlich ist man sich aber einig das algorithmusbasierte Analysen und Mustererkennung (hatten wir das nicht schonmal?) in den Messwerten eine gute Sache sind und uns voran bringen weil man damit genauere Simulationsmodelle erzeugen kann.

Hat aber auch wieder nix (na sagen wir sehr wenig) mit den Stochastischen Papageien zu tun.

Für Wettervorhersage gilt das gleiche das sind Muster deren Simulationen immer Komplexer werden je mehr Informationen hinzukommen und mit steigender Komplexität halt auch entsprechend langwieriger zu berechnen.
Da sind die bestehenden Simulationsmodelle aber schon sehr gut da wird KI wenig bringen. Da das Kernproblem die die Prognoseunschärfe ist und die Geschwindigkeit mit der man ein Modell neu durchrechnen kann wenn die Parametersätze sich aktualisieren.

Und Übersetzungen und Proteinfaltung sind doch schon seit Jahren eigentlich durch, KI bringt da keine Durchbrüche nur Verbesserungen der bestehenden Modelle. Die ja parallel unabhängig von OpenAI weiterentwickelt werden

Für die es auch kein ChatGPT braucht, deren Modelle sind deutlich Spezialisierter und für den Anwendungsfall trainiert.


Also wiederhole ich meine Frage wie wird das Kernproblem von GPT gelöst?
 
  • Gefällt mir
Reaktionen: Doomshroom und [wege]mini
heroesgaming schrieb:
Schon richtig, aber bis ins 20. Jahrhundert war selbst das Deutsche noch als potenzielle Weltsprache im Gespräch, da es speziell auch in der Wissenschaft aufgrund seiner Präzision enormes Ansehen besaß. Mit den Weltkriegen hatte sich das dann allerdings endgültig erledigt.
Noch dazu ist Englisch heutzutage auch in der Geschäftswelt breit angekommen - auch in Ländern, die mit dem britischen Empire nie etwas zu tun hatten. Das eine bedingte sicherlich das andere, da dass Englische dank der Kolonialmacht Großbritannien bereits sehr weit verbreitet war, in den letzten hundert Jahren waren aber sicherlich eher die USA die ausschlaggebende Kraft dafür, dass ihre Sprache sich durchsetzte.
Würde ich so nicht unterschreiben (Englisch in der Geschäftswelt? Das haben die East- und Westindia Company schon geschafft ;). Und da die USA ebenfalls ursprünglich Teil des Empires waren 😁... Naja, das ist spannend, aber gehört nicht hierher.
heroesgaming schrieb:
Es war nicht meine Absicht, die Kritik nicht so stehen zu lassen. Ich wollte nur deutlich machen, dass eine weitergehende Diskussion, die sich ja irgendwie schon anbahnte, wenig Sinn hätte.
Passt so :).
heroesgaming schrieb:
Da finde ich manchen Scheinanglizismus, der auch bei deutschen Muttersprachlern sehr tief sitzt, viel nerviger. Etwa den Beamer. Oder das Handy. Wobei gerade letzteres ja schon derart üblich ist, dass es niemandem mehr auffällt :D

(...)
Beamer hätt ich nichtmal gewusst xD.
Allerdings find ich beides zumindest praktisch um die leicht sperrigen deutschen Alternativen auszusparen. Mehr auch nicht.
 
DeusExMachina schrieb:
Da sind die bestehenden Simulationsmodelle aber schon sehr gut da wird KI wenig bringen. Da das Kernproblem die die Prognoseunschärfe ist und die Geschwindigkeit mit der man ein Modell neu durchrechnen kann wenn die Parametersätze sich aktualisieren.

So wie man "KI" heute verkauft, wird sie durch die Fehlschläge der Wetterfrösche gefüttert und sie stellt eine Wahrscheinlichkeitsrechnung auf, wer nach Sachlage ihrer gesammelten Datensätze richtig liegen wird und daher die potentiellen Möglichkeiten anders gewichtet, als die Mathematik es macht.

Das kann total schief gehen. Muss es aber auch nicht.

Wenn "KI" als Buzzword schon vor Jahrzehnten erfunden worden wäre, würde uns der Wetterbericht sowieso als "KI made" verkauft.

DeusExMachina schrieb:
wie wird das Kernproblem von GPT gelöst

Wenn man als "Kernproblem" ansieht, dass "KI" nur schon bekannte Lösungen zusammenfasst, dann nicht morgen. "Neue" Lösungen, wird "KI" wohl in den nächsten 5-10 Jahren nicht liefern können.

Evtl. nie.

Time will tell.

mfg

p.s.

Auf jeden Fall ist die KI so irgend etwas wie "neutral"

Als der Gaspreis vom deutschen Staat künstlich aufgebläht wurde, weil alles gekauft wurde, was der Markt hergab und dieses mit dem bevorstehenden kalten Winter erklärt wurde, habe ich mal höflich gefragt, warum man das schlechteste Modell nimmt, was der Computer ausgespuckt hat. Alle anderen Modelle haben einen milden Winter vorhergesagt.

Die Antwort war klar und eindeutig: Es ist politisch gewollt und es wird alles teurer. Liebesbriefe wurden auch noch verschickt an den Typen, dem man dann alles in die Schuhe geschoben hat.

Wenn ich den Strompreis sehe, der für 2027+ geplant ist, wird mir schlecht. Dann lieber eine KI.
 
Zuletzt bearbeitet:
Bin mal gespannt, was daraus wird. Sam Altmann gilt als gut vernetzter Manager, aber was die Chipfertigung betrifft, betritt auch er Neuland. Da wird er gegenüber potenziellen Geldgebern schon sehr überzeugend sein müssen, um die nötigen Mittel für ganze Fabs inkl. eigenem AI Chip Design einzuwerben. Und wie schon im Artikel erwähnt, reden wir hier von langfristigen Sachen. Da ist das Risiko für Investoren groß und der Markt über lange Sicht kaum vorherzusagen.

MrTony schrieb:
Im vergleich dazu scheint es mir schon sinnvoll sich mit einem Partner wie z.B. AMD oder auch Intel zusammenzutun, die in diesen Bereichen zumindest schon ein gutes Fundament haben und da im Rahmen einer Kooperation/Joint Venture eine Lösung zu finden.

Das war auch mein erster Gedanke. AMD ist selbst "nur" ein Chipdesigner und lagert die eigentliche Fertigung an TSMC aus. Wie man so liest, will sich AMD selbst mehr auf AI konzentrieren. Die Hardware ist dazu schon jetzt mit ROCM in der Lage, allerdings fehlt meist der Support für die populären Python Frameworks. Wenn man hier konzentriert nachbessert und die Chips für AI weiter verbessert, sehe ich durchaus Potenzial für AMD eine Größe im AI Geschäft zu werden.

Intel stellt immerhin eigene Chips her und designed sie zugleich. Aber hier ist man wohl noch ein Stück von NVIDIA entfernt.

Bei beiden wären jedoch Manpower und Know-How vorhanden, welches OpenAI noch gar nicht zur Verfügung steht. Ein Abwerben von Schlüsselpersonen wäre denkbar, aber wohl sehr kostspielig.
 
Mondgesang schrieb:
Das macht die Sache nicht besser. Dann könnten wir ja sagen wir kaufen im grocery store ein. Oder einfach im store. Oder tippen auf keyboards, oder einfach keys.

Ich weiß, ich weiß, es klingt alles sehr hip, englische Begriffe zu verwenden. Aber ist das Wort Fabrik wirklich so unsäglich?
Machen wir doch. Anglizismen sind schon sehr lange angesagt, und mit Globalisierung und Internet immer häufiger in der deutschen Sprache anzutreffen.
Smartphone, Happy End, Email, you name it..
 
Zurück
Oben