Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsWeniger Abhängigkeit von Nvidia: Meta testet erste eigene Chips für KI-Training
Meta will seine Abhängigkeit von externen Anbietern wie Nvidia weiter verringern und hat bereits im vergangenen Jahr damit begonnen, erste eigene KI-Prozessoren als Beschleuniger einzusetzen. Nun soll das Unternehmen einen eigenen Chip für das Training künstlicher Intelligenz entwickelt haben, die derzeit getestet werde.
Ich bin mal gespannt ob das den Gamern wieder mehr Aufmerksamkeit seitens Nvidia bringen wird.
Es ist sehr verständlich dass alle KI-Anbieter ihre Abhängigkeit von Nvidia reduzieren wollen und falls das gelingt, wären die Gamer vielleicht wieder ein größeres Stück von Nvidias Profiten...
@Aslo gescalped ist wirgendwie ein gruseliges wort. deutsche alternative wäre z.B abgezockt.
Ist doch klar das Nvidia die Preise nach oben treibt ohne echte Konkurenz
Wie man sieht, ist das zu kurz gedacht. Durch die enormen Preise schafft man sich Konkurrenz. Würde man weniger gierig verkaufen, würde es sich für andere nicht rentieren einzusteigen.
@KarlsruheArgus
Klar ne NPU hat auch den Anwendungsfall, aber ich stell mir eher etwas in GPU größe vor das ich in den PCIe slot packen kann mit brachialer Leistung für KI Anwendungen
"Rentieren" ist aber nicht einfach "es spart uns 2mrd$/Jahr im Einkauf". Es gibt andere gute Gründe, als das der Zulieferer "zu teuer" verkauft:
-Wenn alle die gleichen Produkte in der Wertschöpfung nutzen, gibt es auch weniger Möglichkeiten, das eigene Produkt zu differenzieren
-Strategisch ist es immer ungünstig, für zentrale Dinge nur einen Zulieferer zu haben
-Facebook weiß eh nicht wohin mit ihrem Geld, da muss man auch sehen, was die Alternative gewesen wäre -> Opportunitätskosten anderer Investentscheidungen -> das Geld ins Metaverse zu stecken wäre sicherlich schlechter angelegt gewesen.
Es hätte also gut sein können, dass wir diese News trotzdem gelesen hätten, auch wenn Nvidia nur die Hälfte der Preise aufgerufen hätte. Daher nimmt man lieber das Maximum an Preisen mit, was aktuell eben geht, statt zu hoffen, dass man in 5 Jahren gemittelt ggf. mehr eingenommen hätte, weil manche Kunden vielleicht keine eigene HW entwickelt hätten.
@KarlsruheArgus
Klar ne NPU hat auch den Anwendungsfall, aber ich stell mir eher etwas in GPU größe vor das ich in den PCIe slot packen kann mit brachialer Leistung für KI Anwendungen
Die aktuelle KI-Produkte wie B100 haben ja immer noch Shader (ALUs) und sonst was, sind halt keine reinen KI- Beschleuniger und haben noch diesen ganzen Rattenschwanz dran, damit die noch kompatibel mit CUDA bleiben. Würde man das alles raus schmeißen und nur Tensor-Kerne verbauen konnte man die KI-Leistung bestimmt nochmals deutlich steigern, ich denke das ist genau der Ansatz den Meta und Google mit ihren eigenen Chips verfolgen.
Ich hoffe auch das NV deren grenzenlose Gier, wie sie die absurd hohen Gewinnmargen verdeutlichen, komplett um die Ohren fliegt, damit die dann demütig zu uns Gamern zurück gekrochen kommen mit Produkten die auch verfügbar sind mit besserem P/L.
löblich, nur bleibt die Zeit nicht stehen. Ich denke gerade in den Anfängen ist es wohl extrem wichtig am Ball zu bleiben - und Zeitersparnis, bedingt durch hohe und schnelle Rechenleistung, geht aktuell wohl nur mit NV.
Bei KI scheint wohl jeder schnellstmöglich aufspringen zu wollen. Also fast jeder, Mikronesien, Afrika, EU und Polynesien sind noch nicht soweit, wobei ich mir mit Afrika, Poly- und Mikronesien nicht sicher bin...
Merkwürdig, wie alle NV als den Bösen Haluken sehen - würdet ihr eure Waren für günstiger verkaufen, wenn ihr seht es gibt NIEMANDEN neben euch, der das gleiche an Leistung und Verfügbarkeit anbieten kann?
Ich würde mir das auch direkt preislich vergolden lassen...
Da spricht bei vielen wohl eher das blutende Gamer-Herz als der Wirtschaftsweise...
Wer ernsthaft glaubt man könnte plötzlich etwas aus dem Hut ziehen was auch nur annähernd konkurrenzfähig ist zu dem was Nvidia da grade hat, hat einfach keine Ahnung.
Wenn das so wäre hätte ein Intel oder AMD, mit deutlich mehr Erfahrung in dem Bereich, das längst getan.
Selbst wenn es Ihnen gelingen würde, die Verbreitung von KI Hardware ist einzig und alleine gehemmt von verfügbaren Produktionskapazitäten. Die Nachfrage ist immer noch um ein vielfaches höher als überhaupt produziert werden kann. Genau daher stammen auch die absurden Preise. Und auch ein Nvidia schläft nicht und entwickelt Produkte auf spezifische Bedarfe der Industrie weiter. Also bevor man hier Trauergesänge für Nvidia einstimmt, bitte erstmal mit der Realität beschäftigen.
So viel Aufwand und Kosten für Null Nutzen.
Es geht nur um Kundendaten und Copyrightverletzung, mehr nicht.
Da ich das alles nicht brauche und auch nicht nutze, ist alles wunderbar.
Sollen andere sich fragen, warum die Oligarchen Billionen an Gelder ausgeben, die sie mehrfach von ihren Nutzern zurück bekommen wollen und auch werden.
@BxBender Die KI/AI Bildgeneratoren sind schon eine witzige sache.
Allerdings die ganzen Chatbots sind doch mehr oder weniger nichts anderes als eine andere Art von Suchmaschine. Deren "Intelligenz" wird sogar von einer Hauskatze übertroffen.
@KarlsruheArgus
Klar ne NPU hat auch den Anwendungsfall, aber ich stell mir eher etwas in GPU größe vor das ich in den PCIe slot packen kann mit brachialer Leistung für KI Anwendungen