Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsEigene Chips/Fabs von OpenAI: Sam Altman auf der Suche nach Partnern und Finanzierung
Ja dann brauchst du aber immer noch 20 bis 30 Milliarden, vor allem da du bei absolut fucking NULL anfängst. Die haben 0 eigene IP, null Erfahrung, nichts in dem Bereich!
Ansonsten siehe Intel in Deutschland. Für einen Campus bekommen sie 10 Milliarden vom Staat als Subvention, die anderen 20 Mrd stemmen sie. Und sie haben extrem viel Know How, tausende Patente usw usw..
Mag ja sein, dennoch hat niemand behauptet (gegensätzlich zum „Update“) das die 10B $ die Kosten decken würden, dies hier ist nur als eine Finanzspritze zu verstehen und keine Schlagzeile oder Drama wert.
Soweit ich weiß will OpenAI mit eben solchen Firmen, die Chips herstellen, zusammenarbeiten, alleine wollten sie es nie machen.
„Damit lässt sich in der heutigen Zeit aber kaum eine moderne Fabrik errichten“
Hat auch keiner behauptet. Bei den Fakten bleiben.
Gemäß neuen Berichten soll Sam Altman auf der Suche nach 8 bis 10 Milliarden US-Dollar sein. Damit lässt sich in der heutigen Zeit aber kaum eine moderne Fabrik errichten, eher ein Forschungs- und Entwicklungscampus und Design-Studio für die passenden Entwürfe und Baupläne für die Chips.
Und was macht das besser? Es ist kein Eigenname, also übersetzt man. Allgemein (also nicht auf den Autoren hier gemünzt) denke ich eher, daß viele bei Verwendung von Anglizimen nicht in der Lage sind die korrekte Übersetzung zu kennen,folglich die Sprache nicht mehr Beherschen. Ob das im Sinne von Pluralität und Diversität sinnvoll ist, so sehr eine Weltsprache auch Vorteile bietet, wage ich zu bezweifeln. Zumal bei manchen Begriffen wie Device die Vielfalt verloren geht, da so ziemlich alles Device ist, im Deutschen aber normalerweise Eigenbegriffe genutz, werden.
KarlsruheArgus schrieb:
Das ist nicht mehr "hip" sondern normal und das seit mind. einer Dekade.
Nö, nur manche Medientypen suggerieren dies und vereinzelte Personen springen auf. Sinn macht es keinen, wenn nicht hip, was soll der Motivationsgrund sein statt Gerät Device zu sagen, statt Rosinen picken cherry picking etc. Warum muß man Begriffen, die seit Dekaden existieren krampfhaft versuchen zu ersetzen mit Begriffen aus genau einer (!) anderen Sprachquelle ohne dabei auch nur einen Sprachgewinn durch weitere Wortnuancenbildung zu generieren?
Lies dir meinen Kommentar nochmal unter Berücksichtigung des ursprünglichen Kommentars auf den ich reagiert habe.
Dort wurden Beispiele geliefert mit konstruierten Abkürzungen von anderen Wörtern. Das ist bei "Fab" aber nicht der Fall.
Artikel-Update: In einem neuen Beitrag via X/Twitter klingt Sam Altman deutlich realistischer, als das, was die Gerüchte zuletzt verlauten ließen. Es bräuchte mehr Kapazität für Künstliche Intelligenz, schreibt Altman, aber eben in allen Bereichen von Fabs bis hin zur Stromversorgung. OpenAI will dabei helfen, schreibt er. Ob das eine eigene Infrastruktur einschließt, erklärt Altman nicht.
[Embed: Zum Betrachten bitte den Artikel aufrufen.]
Warum muß man Begriffen, die seit Dekaden existieren krampfhaft versuchen zu ersetzen mit Begriffen aus genau einer (!) anderen Sprachquelle ohne dabei auch nur einen Sprachgewinn durch weitere Wortnuancenbildung zu generieren?
Ich persönlich mache das nicht krampfhaft, ich kommuniziere schlicht viel mehr in Englischer Sprache (Zumindest schriftlich).
Dazu kommt das viele dieser Begriffe in der Softwareentwicklung verwendet werden und wenn ich dann die Übersetzung verwende ist nicht mehr allen im Chat klar was gemeint ist.
Bei Begriffen wie Device/Gerät gilt das aber natürlich nicht.
Wir hatten unsere Chance. Den 1ten WK hätte man uns evtl. noch verziehen. Den 2ten WK aber nicht, den wir einem größenwahnsinnigen aus Braunau zu verdanken haben,
Ohne den nicht nachhaltigen Waffenstillstandsbedingungen von Compiègne wäre auch ein WK2 nicht entstanden. AH hätte erst gar nicht die Voraussetzungen gehabt, sein Saat auszubringen. Die Alliierten haben nach dem WK2 nicht nur deswegen (auch wegen der Angst vor Stalin) deutlich anderer Bedingungen diktiert. Und die Auswirkungen des WK2 waren ungleich größer denn des WK1.
[wege]mini schrieb:
Wir sind jetzt im besten Falle, Zaunkönige und dürfen in der ersten Reihe zuschauen, wie Weltpolitik gemacht wird. Jedes mal, wenn Anna Lena das hört, ist sie natürlich total beleidigt. Aber das ist die Wahrheit.
Aber nur aufgrund meiner Neugier: Welchen Sprachstamm möchtest du fixieren? Indogermanisch? Westgermanisch? Germanisch? Hochdeutsch? Lateinisch? Oder möchtest du die Sprache zu einem bestimmten Zeitpunkt einfrieren? Sagen wir die 50iger?
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ein sehr schönes Argument, welches ich bei dir demnächst abkupfern werde, ohne dich als Quelle zu nennen.
Ob Chaiselongue oder Sofa ist doch total egal, so lange man miteinander redet und sagen kann, worüber wir überhaupt reden.
btt:
AI wird immer mehr zu einem "Buzzword". Die Tatsache, dass man für den Fortschritt Menschen braucht, die Investitionen tätigen, ist aber immer und überall ein Fakt und da geht es nicht immer um Geld.
Und ohne Partner, ist die Welt sowieso sehr einsam.
Noch mehr Halbleiterkapazitäten? Ich verstehe ja, dass TSMC ausgebucht ist. Aber alleine in den USA werden ca. 10 neue Halbleiterwerke aktuell geplant oder bereits gebaut (darunter TSMC, Samsung und Intel). Drei weitere kommen in Deuschland dazu (darunter Intel) und ein neues TSMC-Werk in Japan. Ach ja, und China schläft auch nicht, wenn auch durch Sanktionen verlangsamt.
Selbst verständlich. Wir sind immer noch am Anfang dessen, was im Jahr 2050 "normal" sein wird. Als die ersten Pferdekutschen von Autos abgelöst wurden, fragten sich auch viele Menschen, warum man so viele Raffinerien baut.
Das was man heute "KI" nennt, wird aber sehr viel von den Dingen übernehmen, die heute noch von Menschen erledigt werden. Dafür braucht man Chips.
mfg
p.s.
Alleine um die Busfahrer, Lastkraftwagenlenker, Taxifahrer und andere Piloten zu ersetzen, braucht man echt viele Chips.
p.s.s.
Und ich schaue jetzt mal böse zu Herrn Weselsky rüber. Im Jahr 2024 sind die Typen in ihrer Lok, die einen "Totmannschalter" haben, echt überflüssig.
Leg dich nicht mit Menschen an, die die Zukunft gestalten.
Nun OpenAI wird sicher vor allem für das Trainieren von AI Netzen spezialisierte Chips haben wollen - die unterscheiden sich durchaus in vielen Aspekten von denen auf denen später das Netz dann läuft.
Und da macht es halt u.U. auch nicht unbedingt Sinn auf bestehende Anlagen zu setzen, die man trotzdem zusätzlich braucht, die klassische IT stribt ja nicht von heute auf morgen aus - KI ist erst am Anfang - das muss parallel laufen.
KI ist halt letztendlich wenig komplex Rechnen afür abartig massig viel gleichzeitig im Zugriff haben. Das untercheided sich haltr shcon masiv vom bisherigen Chip Design - denn bisherhiges CPU Design (abgesehen evtl von GPU) ist viel allgemeiner.
Ich persönlich mache das nicht krampfhaft, ich kommuniziere schlicht viel mehr in Englischer Sprache (Zumindest schriftlich).
Dazu kommt das viele dieser Begriffe in der Softwareentwicklung verwendet werden und wenn ich dann die Übersetzung verwende ist nicht mehr allen im Chat klar was gemeint ist.
Bei Begriffen wie Device/Gerät gilt das aber natürlich nicht.
Das kann ich zum nachvollziehen, da ich in einer internationalen Firma arbeite, FirmenbSprache ist englisch, aofeen nicht flämisch, keinesfalls aber deutsch), dazu auch wissenschaftlicher Hintergrund, wo die Sprache bekannterweise englisch ist. Ich spreche auch gerne englisch. Bei echten Fachwörtern seh ich daher auch kein Problem, aber es sind die Alltagsbegriffe wie worst case z.B. (oder statt z.B. e.g.) oder noch schlimmer ganze Sätze, woraud ich hinaus wollte.
Die Frage ist doch, was für Know-How soll er den haben um Chips für AI zu entwickeln. Nicht ohne Grund ist Nvidia da ja unangefochten an der Spitze im Moment. Wenn sie könnten würden da glaube ich einige gerne Mitspielen und was vom Kuchen mitnehmen.
Nicht nur "know-how".... du brachst ja infrstruktur, investoren, partner, eine riesiege armee aus ingeneueren (know-how) und das alles musst gemanaged, ein funktionierendes "Team" werden, ein "Uhrwerk".
Äußert ambitioniert. Muss aber nichts bedeutetn. Vor 30 Jahren hätte wohl auch jeder darüber gelacht wen man gesagt hätte, musk baut irgendwann raketen die zur iss und zum mond fliegen.
Allerdings, allein an ARM sieht man wie lange so etwas dauern soll. Von der gründung bis zur ersten lizensierung soll Arm 8-12 Jahre gebraucht haben.... also das wird nicht von heute auf morgen passieren. Also wir werden noch gute 10 Jahre über nVidia Schimpfen dürfen.
Ergänzung ()
hallo7 schrieb:
Allerdings geht man damit auch ein größeres Risiko ein. Wer sagt das ihre eigenen Chips auf Dauer mit der Entwicklung von GPUs mithalten können? Auch wenn es ein maßgeschneidertes System ist, dass eigentlich klare Vorteile bringt, kann es 1-2 Jahre später gegen neuere Chip Generationen diese Vorteile eingebüßt haben. Und nur für AI Anwendungen die Entwicklungszyklen von GPUs mitzugehen scheint mir sehr kostspielig.
Kommt auf die Archetektur an. Kommt darauf an was er mit AI Chip meint und was realisierbar wäre.
Wen es um logische CPUs/GPUs geht, mit ALUs, hast du vieleicht recht. Wen es um in silizium "gegossene" auf neuronale Netze spezialiserte Halbleider geht, könnte das auch Unsinn sein. Weil du da ganz andere geschwindigkeiten, latenzen verwirklichen könntest. Sieht man ja auch an beispieln an den halbleiter, ASICS, fpgas.... die dinger die du in Marschflugkörpern findest. Du kannst nicht überall ne CPU oder GPU packen.... Die sind eigentlich ultra langsam, dafür billig, gut hoch zu skalieren und damit gleicht man das dann aus. indem man nen dutzend, hunderter, tausende zusammen schaltet.... das ist aber noch nicht zu 100% auf AI optmiert.
Punkte wo eine dezidierte AI-Archetektur von vorteil sein könne:
Spezialisierte Architektur: AI-Chips können eine dedizierte Architektur für spezifische KI-Operationen aufweisen, während GPUs allgemeinere Architekturen sind. Dies ermöglicht eine höhere Effizienz für bestimmte KI-Berechnungen.
Hochgradige Parallelität: KI-Modelle, insbesondere tiefe neuronale Netzwerke, erfordern oft hochgradige Parallelität. Während GPUs sehr parallel sind, können AI-Chips noch spezifischer auf die Parallelisierung von KI-Workloads ausgelegt sein.
Geringer Energieverbrauch: AI-Chips können für den Betrieb bei niedrigerem Energieverbrauch optimiert sein, was besonders in batteriebetriebenen Geräten oder IoT-Anwendungen wichtig ist.
Speicheroptimierung: AI-Chips können eine spezielle Speicherarchitektur haben, die für KI-Workloads optimiert ist, um den Zugriff auf gewichtete Daten und Aktivierungen zu beschleunigen.
Flexibilität für verschiedene Modelle: Einige AI-Chips können so konzipiert sein, dass sie eine breitere Palette von KI-Modellen effizient unterstützen können, ohne auf spezifische Modelle festgelegt zu sein.
Niedrige Latenz: Spezialisierte AI-Chips können niedrige Latenzzeiten bieten, was in Echtzeitanwendungen entscheidend ist.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.