konkretor schrieb:
Da bin ich auf die Treiber gespannt. Bei der MTT S80 ist es steinig nach wie vor
MTT S80 zeigt gleichzeitig aber auch, dass selbst bereits "etablierte" Architekturen nicht zwangsweise einen guten Treiber haben. MTT S80 baut scheinbar auf PowerVR auf und dort gab es die letzten wirklichen Windows-Treiber vor gut 10 Jahren, als Intel Power VR für einige Chips nutze.
Arm hat zwar "Android"-Treiber, dass ist aber auch noch mal was anderes als Treiber für Linux im ganzen und erst Windows. Man kann das "Desaster" ja aktuell bei Qualcom etwas mitverfolgen. Da ist eine durchaus brauchbare Architektur, die aber nicht das liefert, was sie kann, weil Qualcom auch die Treiberentwicklung unterschätzt hat.
kenny12 schrieb:
Konkurrenz belebt das Geschäft, hoffe wir als Endkunden können davon profitieren.
Kommt halt darauf an, ob Arm am Ende wirklich die Treiberentwicklung "übernimmt", oder dass auf die Lizenznehmer zum Teil abwälzt. Wälzt Arm die Sache auf die Lizenznehmer ab, dann wird Mali als GPU im Desktop als auch Server sehr schnell untergehen.
Bereits jetzt ist das Problem, dass jeder SoC-Hersteller quasi noch mal "eigene" Treiber für ihre SoCs bereitstellen müssen und man darauf angewiesen ist, dass die möglichst "schnell" die Entwicklungen von Arm "einpflegen".
Es gibt zu viele SoCs von Mediatek, Broadcom und Co, die zwar einen initialen Treiber bekommen, anschließend aber sich der Support eher auf "Sicherheitslücken" und Co beschränkt, während der Rest quasi runter fällt. Ähnlich wie früher bei Notebooks mit ATi und Nvidia-GPUs, bei denen man auf die Pflege der Hersteller angeweisen war.
HanneloreHorst schrieb:
Ich meine Apple modifziert seine ARM Designs natürlich minimal aber was alleine 45 Watt ARM Design heute schon schaffen kann, das sehen wir doch in den MBPs von Apple und wahrscheinlich bald in den M4 Chips die auch ins Studio oder Mini wandern.
Apple verwendet keine Arm-Designs, weder bei CPU noch GPU. Sie nutzen die ARM ISA, dass war es dann aber schon.
Apple hat Anfangs die Arm-Kerne verwendet, zusammen mit PowerVR-GPU. Seit dem A6 verwendet Apple "eigene" Kerne, seit dem A10 modifiziert Apple die PowerVR-Architektur und seit A12 ist es wohl dann eine "weitgehend" eigene Architektur.
HanneloreHorst schrieb:
Dabei muss natürlich fest gehalten werden, das Argument für ARM ist ja eigentlich durchweg Effizienz
Was für die GPUs in dem Fall nicht mal so wirklich gilt. Es hat schon einen Grund, warum viele SoC-Anbieter gerne zwar ARM-Kerne, gleichzeitig aber auch zu PowerVR gegriffen haben.
Genauso greift Mediatek jetzt ja nicht umsonst auch nach Nvidia als "GPU".
HanneloreHorst schrieb:
Weil erst dann wäre eine Snapdragon APU auch in einer SteamDeck Alternative wirklich nutzbar.
Das liegt nicht an Arm, sondern hier müsste Qualcom ihre Treiber aufpolieren.
Magellan schrieb:
AI / Datacenter hingegen wäre ziemlich naheliegend zumal ja eh bereits alle Größen eigene CPU Designs auf ARM Basis haben und die dann noch durch ARM GPUs zu unterstützen würde ja Sinn machen und der Markt ist ungleich größer.
Arm hätte in diesem Markt das gleiche Problem wie quasi alle Anbieter: Die CPU lässt sich heute relativ einfach austauschen. Bei der GPU sieht es aber anders aus. Viele Framework sind zwar Hardwareagnostisch, gleichzeitig sind quasi alle "Treiber" unter den Frameworks auf CUDA gemünzt und vieles auf CUDA optimiert.
Egal ob Gaming oder HPC-Markt, hier muss viel Geld in die Software-Entwicklung in die Hand genommen werden.
Shoryuken94 schrieb:
Videoencoding, Streaming, Leistungsüberwachung, OC, Zusatzfunktionen wie z.B. Broadcast von NVIDIA etc.
Videoencoding und Decoding sind kein Problem und quasi das kleine Ein-mal-Eins. Damit verbunden Streaming genauso wenigt. Leistungsüberwachung sind in SoCs auch Gang und Gäbe.