Zurückhaltend ist treffend, aber aufholjagt - weiß ich nicht.
Apple verbaute schon im iPhone X 2017 den ersten SoC mit neural Engine der solche Workloads beschleunigen konnte. Das ist jetzt 6 Jahre her. Der SoC müsste demnach also schon einige Jahre vorher so geplant gewesen sein.
Ich denke viel früher hätte man da gar nicht einsteigen können. Seitdem hat man die Rechenleistung der neural Engine immer weiter gesteigert und zwar von anfangs 0,6 TFLOPS auf jetzt 35 TFLOPS im iPhone 15 Pro.
Entweder sind die Entwicklungen softwareseitig noch nicht so weit wie bei der Konkurrenz oder man wartet einfach grundsätzlich auf ein besseres Niveau, bevor man es auf die Kundschaft loslässt, weil man sich sonst nur wieder kritik anhören muss von wegen falscher Fakten usw. Die LLM von OpenAI und Google sind ja schon sehr gut und extrem beeindruckend, aber eben noch immer fehleranfällig.
Da man gerade bei Apple immer das Haar in der Suppe sucht und gerne mal mit zweierlei Maß misst, wäre das abwarten nur verständlich. Denn wirklich ausgereift ist da bei Google und OpenAi noch lange nichts. Gerade bei Google war das ja ein ziemlicher Schnellschuss und OpenAI wollte wohl eher demonstrieren "schaut her, das funktioniert ja erstaunlich gut" bis dann Microsoft gesagt hat, nix da, das wird sofort in Bing integriert, egal ob es fehlerhaft ist oder nicht.
Ob man bei den Umständen wirklich von Hinterherlaufen bei Apple reden kann, während die anderen sich mit unausgereifter Software im Alpha Stadium um die Aufmerksamkeit in den Medien schlagen. Hmmm...