News 485.000 KI-Beschleuniger: Microsoft war dieses Jahr Nvidias bester Kunde

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
10.407
  • Gefällt mir
Reaktionen: the_IT_Guy, nERdWIN, knoxxi und 2 andere
Oh weh.... Platz 2 und 3 sind Marketingspezialisten. Die werden AI Marketing sowas von voran treiben, dass wir damit auf ganz neuen Kanälen noch mehr überhäuft werden. Es werden Algorithmen entstehen, die noch verrückter sind als jetzt sowieso schon.
 
  • Gefällt mir
Reaktionen: flo.murr, Fritzler, nosound und 9 andere
DiePalme schrieb:
Die werden AI Marketing sowas von voran treiben, dass wir damit auf ganz neuen Kanälen noch mehr überhäuft werden.
Und sie werden die Zielgruppe genau so wenig treffen, wie zuvor.

Aber nVidia hat gut verdient.
 
  • Gefällt mir
Reaktionen: KingL, polyphase, MalWiederIch und 2 andere
Wobei man auch erwähnen muss, dass Microsoft weite Teile der Infrastruktur für OpenAI bereitstellt. Die beiden Firmen müsste man also quasi zusammen zählen.
 
  • Gefällt mir
Reaktionen: the_IT_Guy, Zagrthos, snoop83 und 7 andere
Ein guter Moment aus dem ganzen Quatsch auszusteigen. Können wir wieder zurück zu Web 2.0? Nennt mich nostalgisch, aber das war schön.
 
  • Gefällt mir
Reaktionen: Wallwatcher, Weyoun, cb-leser und 9 andere
  • Gefällt mir
Reaktionen: CB_User, polyphase, Der Puritaner und 2 andere
Sorry Leute, aber die Pionierszeit des Internets ist vorbei. Jetzt wird kontrolliert, reguliert gebannt und ausgebeutet.
 
  • Gefällt mir
Reaktionen: CB_User, lalanunu, Fritzler und 17 andere
Interessant auch, anscheinend hat Microsoft auch gesagt, dass es keine Verfügbarkeitsprobleme mit KI Chips gibt. Heißt, Angebot und Nachfrage sind wohl aktuell auf einem Niveau
 
schrotti12 schrieb:
Können wir wieder zurück zu Web 2.0? Nennt mich nostalgisch, aber das war schön.
https://docs.near.org/concepts/web3/nfts
Keine sorge, es gibt doch Web2 NFTs :)

screaming into the void
Ergänzung ()

7H0M45 schrieb:
Interessant auch, anscheinend hat Microsoft auch gesagt, dass es keine Verfügbarkeitsprobleme mit KI Chips gibt. Heißt, Angebot und Nachfrage sind wohl aktuell auf einem Niveau
Nein. NIcht beiden Preisen.

Vor2 Jahren hatte nvidia einen Listenpreis von ~30.000$ bei den High End Chips
Wenn man mehr als 10 bestellt hat gab es mindestens 60% Rabatt. 80% Waren realistisch. Klassiche Enterprise Preise halt.
Heute wird da liste gezahlt, wenn man nicht 5-Stellig Chips abnimmt.
Alle wollen mehr kaufen als am Markt ist.
 
  • Gefällt mir
Reaktionen: Harpenerkkk, schrotti12 und Haldi
Haldi schrieb:
Wie sieht das aus wenn man 30'000 Stück davon bestellt für eine Serverfarm?


Please take more of our money, please.
No, no. You are not taking enough of our money

@Rickmer (sorry wegen look ahead)
MS, Amazon, ORacle und alleanderen planen derzeit fuer Rechenzentren im 100 Milliarden Scale.
Gab da letzte Woche ein Interview mit Dario Amodei.
Kommt auch in dem Video hier von Ellison
 
  • Gefällt mir
Reaktionen: [SM]Valen
Moment, Microsoft hat im Bereich von 10~20 Milliarden USD für GPUs ausgegeben bei nvidia?
 
  • Gefällt mir
Reaktionen: Harpenerkkk und madmax2010
@Rickmer Naja, wenn man bedenkt dass Microsoft 2023 knapp 80 Milliarden USD an Gewinn gemacht hat, sind 10-20 Milliarden $ Ausgaben für die Zukunft ja eher ein Schnäppchen. Und dazu sind es eben die Kosten für Microsoft und OpenAI.

Das Ganze zeigt aber auch schön, dass man im AI-Bereich nur mitspielen kann, wenn man finanziell ganz vorne mitspielt... und es zeigt auch, warum Gamer quasi nichts mehr am Gewinn von Nvidia ausmacht. Wir sind da nur Peanuts.
 
madmax2010 schrieb:
Alle wollen mehr kaufen als am Markt ist.
Da sagt Satya Nadella wohl was anderes. Aber klar, was weiß der schon. Der ist ja nur CEO von Microsoft. Da hat ein CB Forist sicher deutlich mehr Ahnung...
 
Ayo34 schrieb:
Das Ganze zeigt aber auch schön, dass man im AI-Bereich nur mitspielen kann, wenn man finanziell ganz vorne mitspielt... und es zeigt auch, warum Gamer quasi nichts mehr am Gewinn von Nvidia ausmacht. Wir sind da nur Peanuts.
Jein. Sollte sich bewahrheiten, dass der scaling-Ansatz bei den aktuellen Architekturen für den Moment eine Grenze erreicht hat verschiebt sich der Fokus evtl. wieder weg von purem Kapitaleinsatz. Das Announcement von NXAI bzgl. xLSTM kürzlich zeigt z.B. einen alternativen Weg auf, und da waren vergleichsweise nur peanuts im Spiel.
 
@Phunkberater Jein. Wir scheinen wirklich an einem Punkt zu sein wo mehr Hardware nicht proportional zu besseren Modellen führt, aber das heißt nicht, dass wir mit ein paar Millionen auf einmal irgendwo mitspielen könnten. Aber ja, aktuell scheinen viele Modelle auf einem ähnlichen Niveau zu sein und die Sprünge werden kleiner.

Vielleicht sind jetzt andere Ansätze und Ideen gefragt, zusätzlich zu der Hardwareleistung, um ganz vorne mitspielen zu können. Aber die besten Leute zu bekommen, ist ja auch nicht ganz einfach. Nicht umsonst werden ständig von OpenAI, Deepmind und Co. Leute abgeworben und für viele Millionen $ "verpflichtet".

Cool wäre, wenn man irgendwie einen dezentralen OpenSource Ansatz hinbekommen würde, wo dann auch dezentral Modelle trainiert werden könnten. Funktioniert aber noch nicht so ganz aus diversen Gründen, auch wenn es Ansätze gibt.
 
Also allein ca 2 Mio High-End GPUs nur für die AI-Industrie...kein Wunder dass nVidia einfach die "Gamer"-Preise um den Faktor 4 angezogen hat...
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Microsoft und Nvidia waren eine schöne Zeit, gehören aber schon lange nicht mehr zu meinen Top-Favoriten, beruflich muss ich mich mit dem scheiß noch abgeben, aber Privat bin ich schon lange bei Linux.

Es wird natürlich auch bei Linux nicht mehr so lange dauern sich auch mit KI zu beschäftigen, aber man kann auch seine eigenen Wege gehen.
 
Zurück
Oben