Gedacht ist die Augensteuerung für Leute mit hohem Querschnitt, ALS und ähnlichem - Wie der Frau im Video.
Augensteuerung an Windows- und iPadOS gab es bislang auch schon, allerdings nur mit externen Trackern, bspw.
von Tobii. Leider wird so etwas nicht unbedingt von Krankenkassen übernommen, und da man die Lösungen nie direkt von den Herstellern beziehen kann sondern immer noch mal ein Sanitätshaus in der Mitte sitzt sind solche Lösungen oft nicht mehr bezahlbar! Das kann ich aus eigener Erfahrung leider so sagen.
Wenn Apple das nun "out of the box" hinbekommt wäre das
fanstastisch!
In die gleiche Kerbe springen mehr Möglichkeiten, Shortcuts per Sprachbefehl steuern zu können. Wenn man das wirklich richtig parametrieren kann ergeben sich damit
sehr viele tolle Möglichkeiten - Praktisch Siri beizubringen, was man
wirklich will.
PS: Ich hatte da früher einen falschen Eindruck, aber was es in iOS/iPadOS mittlerweile an Hilfsmöglichkeiten gibt (Sprachsteuerung, Augensteuerung, Schaltersteuerung wie Mundmaus, ...) ist echt gewaltig. Bitte weiter so.