@incurable Du laberst Quark, die Vision Pro ist wirklich von Anfang an nicht für den Ottonormalnutzer ausgelegt.
Wurde so kommuniziert, auch wenn man in der Werbung natürlich auch allgemeinere Einsatzfelder gezeigt hat.
Aber weißt du was wirklich der simpelste, offensichtliche Beleg für diese Klassifizierung ist?
Sie heißt Apple Vision
Pro!
Apple hat aktuell kein einziges Produkt, bei dem es nur ein Pro-Modell gibt, außer der Vision Pro.
Es gibt das iPhone und das iPhone Pro, es gibt das iPad und das iPad Pro, es gibt das MacBook Air und das MacBook Pro, es gibt die AirPods und die AirPods Pro, es gibt den iMac und es gab den iMac Pro...
Bei der Vision Pro bedient Apple zuerst den zahlungskräftigen Highend/Enthusiastenmarkt und später, wenn die Kosten für die notwendigen Komponenten gesunken sind, kommt dann die reguläre Apple Vision oder Apple Vision Air etc.
Und neben den Forschungskosten ist die Vision Pro auch so teuer weil die Komponenten halt auch teuer sind, die Displays sollen wohl allein 400 $ pro Stück kosten, aber um die "Qualität" des Benutzungserlebnisses zu erreichen sind schlechtere und günstigere Displays halt einfach nicht angemessen.
Der einzige Punkt an dem die Vision Pro klar krankt ist, dass sie nur einen M2 verwendet, etwa zeitgleich aber sowohl neue Macs mit dem M3 erschienen und wenige Wochen später sogar das iPad Pro mit dem M4, das wirkte einfach sehr unglücklich zeitlich geplant.
Aber es ist halt auch eine erste Generation, die lange in Entwicklung war - es ist jetzt nichts neues, das eine neue Produktkategorie von Apple in der ersten Generation untermotorisiert ist. (Aber ausreichend um das zu erreichen was mit dem Produkt erreicht werden soll)
@Azeron iPhones sind seit dem iPhone 3GS vorbildlich durch Blinde bedienbar, dank VoiceOver und anderer Funktionen
@Weyoun Die Fotos-App analysiert bereits jetzt (und seit Jahren) lokal auf dem Gerät Bilder und klassifiziert und "tagged" sie, du suchst nach Bilder mit einem Strand oder Schrank, tippe den Begriff einfach ein und es werden entsprechende Bilder angezeigt. Mit der neuen Generation von Apple Intelligence sollen nur mehr UND-Funktionen dazukommen, so dass Kombinationen verschiedener Begriffe besser gefunden werden.
Zur Bedienung eines Smartphones komplett via AI mit der Stimme muss ich jedoch anmerken, dass es imho oft viel schwerer ist Dinge verbal auszudrücken und der AI zu diktieren, als sie manuell umzusetzen.
Nehmen wir mal als Beispiel ich möchte die smarten Lampen im Wohnzimmer einschalten, jedoch nicht alle sondern nur einige. Ich habe 8 Lampen, nummeriert als Wohnzimmerlampe 1-8 oder als WoZi Esstisch, WoZi Sitzecke, WoZi Leselicht etc.
Das alles in einem gesprochenen Befehl an Siri, AI, sonstwas zu formulieren ist imho eine größere Kopfarbeit und dauert auch länger, mit mehr Gefahr sich zu verhaspeln, als wenn man die App öffnet und in einer Liste oder Zimmerübersicht die gewünschten Lampen direkt antippt.
Schneller und per Sprachbefehl geht es dann eigentlich nur, wenn man sich vorher mal die Arbeit gemacht hat und spezifische Lichtszenen erstellt hat, die verschiedene Lampensetups aktivieren.
KI und Sprachbefehle funktionieren imho am besten wenn es sehr simple Aufgaben sind ("Schicke folgende Nachricht an ...", "Schalte alle Lampen im Wohnzimmer ein") oder die Aufgaben so komplex sind, dass sie manuell nicht mehr vernünftig umzusetzen sind - dann muss die AI aber so fortgeschritten sein, dass sie den Kontext immer perfekt versteht und idealerweise quasi meine Gedanken lesen kann.
Das Mittelfeld (wie oben beschrieben) ist imho ein schlechtes Einsatzfeld für AI, weil ich ihr dabei noch so sehr Händchenhalten muss, dass ich die Aufgabe auch selbst erledigen kann.