News Konkurrenz für AMD, Intel und Nvidia: Arm soll an diskretem GPU-Design arbeiten

Hurricane.de

Lt. Commander
Registriert
Okt. 2009
Beiträge
1.200
  • Gefällt mir
Reaktionen: ComputerJunge, PietVanOwl, eastcoast_pete und 18 andere
Da bin ich auf die Treiber gespannt. Bei der MTT S80 ist es steinig nach wie vor

https://www.computerbase.de/2024-03/moore-threads-mtt-s80-mtt-s30-china-gpus-test/

Bei Intel sehen wir mittlerweile einen ganz stabilen Treiber, da steckt richtig Geld und viel Zeit dahinter. Auch wenn Wolfgang etwas traumatisiert vom Intel depüt ist...


Mal sehen ob ARM so viel Geld in die Treiber steckt. Bei der Hardware sehe ich keine Probleme, das wird man hin bekommen. Hat MTT und Intel auch hin bekommen
 
  • Gefällt mir
Reaktionen: flo.murr, gartenriese, Innocience und 6 andere
Konkurrenz belebt das Geschäft, hoffe wir als Endkunden können davon profitieren.
 
  • Gefällt mir
Reaktionen: jps20, Pltk, SupaRichi und 14 andere
Glaube eher an AI als auf Grafik fokusiert.
 
  • Gefällt mir
Reaktionen: Wallwatcher, Steini1990, SupaRichi und 12 andere
@Abrexxes Glaube ich auch, aber mal sehen, was da abfällt. Der Consumermarkt ist eigentlich zu uninteressant, am ehesten vllt. noch als Entwicklungspfad, der dann abgespeckt in einer Windows-on-ARM Architektur wieder aufgenommen wird.
 
  • Gefällt mir
Reaktionen: DaBo87
Na dann: Viel Erfolg 🍀
 
  • Gefällt mir
Reaktionen: aid0nex, gartenriese, Apocalypse und 2 andere
@konkretor sehe ich auch so - der Treiber wird primär entscheiden ob eine dGPU von ARM ein Erfolg werden kann oder nicht.
 
  • Gefällt mir
Reaktionen: konkretor
Hört sich so an, als hätte der Raja Koduri einen neuen Arbeitgeber ... ;)
 
  • Gefällt mir
Reaktionen: aid0nex, BxBender, MeisterOek und 3 andere
Kurz mal in den Klugscheißermodus geschaltet: Arm ist ein Körperteil. Entweder nutzt ihr die alte Abkürzung ARM oder die neue Eigenschreibweise arm - die logischerweise auch am Satzanfang klein geschrieben wird.
 
  • Gefällt mir
Reaktionen: Wallwatcher, eSportWarrior, Wilfriede und eine weitere Person
shaboo schrieb:
Kurz mal in den Klugscheißermodus geschaltet: Arm ist ein Körperteil. Entweder nutzt ihr die alte Abkürzung ARM oder die neue Eigenschreibweise arm - die logischerweise auch am Satzanfang klein geschrieben wird.
Die Firma heisst Arm Ltd, die Prozessor-Architektur heisst ARM. Also alles korrekt im Artikel.
Wers immer noch nicht glaubt: https://www.arm.com/company
 
  • Gefällt mir
Reaktionen: Wallwatcher, Kitsune-Senpai, Oudenstekelig und 17 andere
Ich meine Apple modifziert seine ARM Designs natürlich minimal aber was alleine 45 Watt ARM Design heute schon schaffen kann, das sehen wir doch in den MBPs von Apple und wahrscheinlich bald in den M4 Chips die auch ins Studio oder Mini wandern.
Dabei muss natürlich fest gehalten werden, das Argument für ARM ist ja eigentlich durchweg Effizienz und das Problem mit diskreten GPUs ist, besonders wenn sie dann auf einem Level der 7900 XTX oder 4080/4090 agieren, das Watt Verbrauch und Leistungsentfaltung nicht im selben Maße skalieren.
Dann kommt natürlich hinzu, das viele hier zu recht spekulieren, ob es nur um Antreiber für K.I. Anwendungen geht oder eben auch Endverbraucher-GPUs.
Ich würde mich per se mehr darüber freuen, wenn in den nächsten Jahren an der Architektur generell bei der integrierten GPU noch mal nen paar Prozente mehr raus gekitzelt werden könnte.
Weil erst dann wäre eine Snapdragon APU auch in einer SteamDeck Alternative wirklich nutzbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BlinkBlink
Na hoffen wir mal das sich die Ambitionen nicht in Rauch auflösen.

Ein brauchbarer Gegenpol zu Nvidia wäre wünschenswert, ich glaube aber kaum das aktuell jemand die Chance hat aufzuholen. - Dafür müsste eine grundsätzlich andere technische Herangehensweise entdeckt werden bei der NVidia keinen Know-How Vorsprung hat.
 
  • Gefällt mir
Reaktionen: BlinkBlink und stevefrogs
Abrexxes schrieb:
Glaube eher an AI als auf Grafik fokusiert.

Ja das scheint mir auch wahrscheinlicher bzw. rentabler. Consumer Grafik kann man auch über etwas größere integrierte GPUs realisieren, siehe Apple, das einzige was da übrig bliebe an Zielgruppe ist eigentlich Gaming.
AI / Datacenter hingegen wäre ziemlich naheliegend zumal ja eh bereits alle Größen eigene CPU Designs auf ARM Basis haben und die dann noch durch ARM GPUs zu unterstützen würde ja Sinn machen und der Markt ist ungleich größer.
 
Glaube ich erst, wenn ich es sehe. Gaming GPUs sind von den potentiellen Möglichkeiten das Geschäftsfeld zu erweitern die letzte die ich annehmen würde.

Zum einen ist die Einstiegshürde bei der Hardware hoch. Zum anderen steckt hier sehr viel Softwareaufwand dahinter. Fängt beim Treiber an, den man erst mal auf die Beine stellen muss, geht aber auch noch weiter. Videoencoding, Streaming, Leistungsüberwachung, OC, Zusatzfunktionen wie z.B. Broadcast von NVIDIA etc.

Und selbst wenn man eine super GPU, gute Treiber und Funktionen hat, kommt noch die schwerste Herausforderung. Kunden überzeugen keine NVIDIA GPU zu kaufen. Und das als Firma die in dem Bereich neu ist, dort keine Legacy hat und auch ansonsten noch nie durch brillantes Marketing aufgefallen ist. Diese teure Entwicklung für einen Markt mit verhältnismäßig niedrigen Margen. Ich denke eher das wird wenn dann eine HPC / AI Geschichte und nichts für Gamer.
 
  • Gefällt mir
Reaktionen: freezer255 und BlinkBlink
Na da darf man ja gespannt sein ob und was bei rauskommt.
Rein von Markt und vom Portfolio her würde es schon Sinn ergeben für ARM bei GPUs mit einzusteigen.
Nur ob die Consumer davon irgendwas abbekommen werden, da bin ich dann doch skeptisch. Selbst wenn der "KI" Gold-Rausch endlich endet, bleiben die Margen im Data-Center/Pro-Bereich deutlich größer.
Wobei ich es natürlich befürworten würde, wenn wir mehr Consumer-GPUs bekommen: mehr Auswahl ist immer gut und hat dabei auch immer das Potential die Preise endlich wieder in Regionen zu drücken, die Sinn ergeben.
 
Alle wollen in den AI-Markt, also werden auch passende Lösungen entwickelt. Hier geht es nicht um Gamerkarten, sondern ums Big Business und keine Peanuts.
 
  • Gefällt mir
Reaktionen: Zarlak
konkretor schrieb:
Da bin ich auf die Treiber gespannt. Bei der MTT S80 ist es steinig nach wie vor
MTT S80 zeigt gleichzeitig aber auch, dass selbst bereits "etablierte" Architekturen nicht zwangsweise einen guten Treiber haben. MTT S80 baut scheinbar auf PowerVR auf und dort gab es die letzten wirklichen Windows-Treiber vor gut 10 Jahren, als Intel Power VR für einige Chips nutze.

Arm hat zwar "Android"-Treiber, dass ist aber auch noch mal was anderes als Treiber für Linux im ganzen und erst Windows. Man kann das "Desaster" ja aktuell bei Qualcom etwas mitverfolgen. Da ist eine durchaus brauchbare Architektur, die aber nicht das liefert, was sie kann, weil Qualcom auch die Treiberentwicklung unterschätzt hat.
kenny12 schrieb:
Konkurrenz belebt das Geschäft, hoffe wir als Endkunden können davon profitieren.
Kommt halt darauf an, ob Arm am Ende wirklich die Treiberentwicklung "übernimmt", oder dass auf die Lizenznehmer zum Teil abwälzt. Wälzt Arm die Sache auf die Lizenznehmer ab, dann wird Mali als GPU im Desktop als auch Server sehr schnell untergehen.

Bereits jetzt ist das Problem, dass jeder SoC-Hersteller quasi noch mal "eigene" Treiber für ihre SoCs bereitstellen müssen und man darauf angewiesen ist, dass die möglichst "schnell" die Entwicklungen von Arm "einpflegen".

Es gibt zu viele SoCs von Mediatek, Broadcom und Co, die zwar einen initialen Treiber bekommen, anschließend aber sich der Support eher auf "Sicherheitslücken" und Co beschränkt, während der Rest quasi runter fällt. Ähnlich wie früher bei Notebooks mit ATi und Nvidia-GPUs, bei denen man auf die Pflege der Hersteller angeweisen war.
HanneloreHorst schrieb:
Ich meine Apple modifziert seine ARM Designs natürlich minimal aber was alleine 45 Watt ARM Design heute schon schaffen kann, das sehen wir doch in den MBPs von Apple und wahrscheinlich bald in den M4 Chips die auch ins Studio oder Mini wandern.
Apple verwendet keine Arm-Designs, weder bei CPU noch GPU. Sie nutzen die ARM ISA, dass war es dann aber schon.

Apple hat Anfangs die Arm-Kerne verwendet, zusammen mit PowerVR-GPU. Seit dem A6 verwendet Apple "eigene" Kerne, seit dem A10 modifiziert Apple die PowerVR-Architektur und seit A12 ist es wohl dann eine "weitgehend" eigene Architektur.
HanneloreHorst schrieb:
Dabei muss natürlich fest gehalten werden, das Argument für ARM ist ja eigentlich durchweg Effizienz
Was für die GPUs in dem Fall nicht mal so wirklich gilt. Es hat schon einen Grund, warum viele SoC-Anbieter gerne zwar ARM-Kerne, gleichzeitig aber auch zu PowerVR gegriffen haben.

Genauso greift Mediatek jetzt ja nicht umsonst auch nach Nvidia als "GPU".
HanneloreHorst schrieb:
Weil erst dann wäre eine Snapdragon APU auch in einer SteamDeck Alternative wirklich nutzbar.
Das liegt nicht an Arm, sondern hier müsste Qualcom ihre Treiber aufpolieren.

Magellan schrieb:
AI / Datacenter hingegen wäre ziemlich naheliegend zumal ja eh bereits alle Größen eigene CPU Designs auf ARM Basis haben und die dann noch durch ARM GPUs zu unterstützen würde ja Sinn machen und der Markt ist ungleich größer.
Arm hätte in diesem Markt das gleiche Problem wie quasi alle Anbieter: Die CPU lässt sich heute relativ einfach austauschen. Bei der GPU sieht es aber anders aus. Viele Framework sind zwar Hardwareagnostisch, gleichzeitig sind quasi alle "Treiber" unter den Frameworks auf CUDA gemünzt und vieles auf CUDA optimiert.

Egal ob Gaming oder HPC-Markt, hier muss viel Geld in die Software-Entwicklung in die Hand genommen werden.
Shoryuken94 schrieb:
Videoencoding, Streaming, Leistungsüberwachung, OC, Zusatzfunktionen wie z.B. Broadcast von NVIDIA etc.
Videoencoding und Decoding sind kein Problem und quasi das kleine Ein-mal-Eins. Damit verbunden Streaming genauso wenigt. Leistungsüberwachung sind in SoCs auch Gang und Gäbe.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Cat Toaster, eastcoast_pete und 5 andere
Zurück
Oben