News Nach Entwicklungsproblemen: Apples KI-Chef verliert Kontrolle über Siri an internen Kritiker

Loro Husk schrieb:
“Hey Siri, öffne WhatsApp und antworte Person XY… sag ihr, dass ich bald einkaufen fahre und noch wissen will, was sie braucht.”
In der gleichen Zeit habe ich Signal geöffnet und die gleiche Nachricht per Sprachchat an die gewünschte Person geschickt. Wo ist also der Vorteil?
Loro Husk schrieb:
oder das Siri Wikipedia Artikel lesen und im Original vorlesen kann…
Das würde mich nur ablenken, wenn mir jemand einen Artikel laut vorliest. Vorlesen lasse ich mir nur Hörbücher. Für Fachartikel reicht es bei mir noch aus, dass ich sie aufmerksam (in Ruhe) durchlese.
 
  • Gefällt mir
Reaktionen: JustAnotherTux und incurable
aid0nex schrieb:
Muss ich mich nochmal wiederholen?
Du darfst Dich gern wiederholen, "Vision Pro" wird dadurch nicht weniger ein Rohrkrepierer.

Du kannst Technik und Preis nicht auseinanderdividieren, sie sind integrale Bestandteile des Produktes des mutmaßlichen neuen Sirivorstehers.
 
Azeron schrieb:
Du hast 5000 Bilder auf deinem Smartphone, suchst ein bestimmtes und hast davon nur noch ein paar Details im Kopf aber weißt weder das genaue Datum noch wo das war noch wer auf dem Bild aller drauf ist, dann sagst du einfach du suchst ein Foto aus dem Urlaub wo jemand Kleidung X in Farbe Y getragen hat bei einem See, vermutlich irgendwann zwischen Juni und August aufgenommen und im Hintergrund ist noch XY zu sehen.
Gruselig! Wehe, du hast unwissentlich etwas verbotenes fotografiert und machst dadurch gewisse Kreise auf dich aufmerksam, wenn dein Foto in irgendeinem "Trainingsordner" auftaucht...
 
  • Gefällt mir
Reaktionen: ldos und Whitehorse1979
M@tze schrieb:
Es wurde von Anfang an so kommuniziert, das die Vision Pro kein normales Endanwenderprodukt für den Consumermarkt werden wird.
"Von Anfang an" ist Quark, aber ja, das war Teil der Vermarktung des Produktes, welches am Ende auf dem Markt kam. (und kläglich scheiterte)
 
Weyoun schrieb:
Das würde mich nur ablenken, wenn mir jemand einen Artikel laut vorliest.
Und was ist mit Personen die eingeschränkt sind? Für die wäre das eine Hilfe.

Wenn ich Siri nach was aus dem Netz Frage, vorallem wenn ich sie über den Homepod frage, bekomme ich nicht selten die Antwort "Hier habe ich einige Links die du dir ansehen kannst", falls überhaupt. Ist halt lächerlich.

Weyoun schrieb:
Gruselig! Wehe, du hast unwissentlich etwas verbotenes fotografiert und machst dadurch gewisse Kreise auf dich aufmerksam, wenn dein Foto in irgendeinem "Trainingsordner" auftaucht...

Ich fände die Funktion sehr praktisch und wenn das nur lokal auf dem Telefon läuft, who cares. Das was du hier ansprichst könnte man genauso jetzt schon umsetzen ohne jeglicher "KI".

Und die Bilder werden ja jetzt schon auf dem Gerät indiziert, andernfalls könnte man nicht nach so Begriffen suchen wie "Pizza" oder "See" oder "Autos" oder oder oder. Nur ist es dann halt nochmal viel granularer dass man viel genauer danach suchen kann.

Vorallem für Videos wäre das wirklich mal ne nützliche Funktion. Nicht selten suche ich ein Video wo irgendwas bestimmtes drin gesagt wurde und ich natürlich keine Ahnung mehr hab wo. Da alles durchzuschauen ist zu aufwändig. Viel einfacher wäre es zu sagen "Hey Siri, in welchem Video habe ich XY gesagt?" und dann wird mir das Video mit Timestamp zu der Stelle präsentiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 9t3ndo
Azeron schrieb:
Und was ist mit Personen die eingeschränkt sind? Für die wäre das eine Hilfe.
Für Sehbehinderte gibt es abseits von und lange vor Siri ganz andere Tools, um sich Webseiten oder Bücher vorlesen zu lassen. Zudem haben Sehbehinderte oft spezielle haptische Tastaturen mit Brailleschrift, die oft sogar feedbackfähig sind (die Tastatur wird dann quasi zum tastbaren Monitor).
Azeron schrieb:
Ich fände die Funktion sehr praktisch und wenn das nur lokal auf dem Telefon läuft, who cares. Das was du hier ansprichst könnte man genauso jetzt schon umsetzen ohne jeglicher "KI".
Du meinst die Bildersuche? Wie soll die auf dem Telefon lokal funktionieren, wenn die KI rein offline nicht trainiert werden kann?
 
Weyoun schrieb:
Für Sehbehinderte gibt es abseits von und lange vor Siri ganz andere Tools, um sich Webseiten oder Bücher vorlesen zu lassen.
Und auf die wäre man dann nicht mehr angewiesen wenn Siri das könnte. Und was ist mit Leuten die gerade, wegen was auch immer, die Hände nicht frei haben? Was ist mit denen die gar keine Hände haben und sich leichter tun würden wenn man nicht alles anklicken müsste? Worüber diskutieren wir hier eigentlich? DU brauchst es nicht, schön. Keiner zwingt dich dann diese Funktion zu nutzen wenn es sie mal gibt. Andere die das möchten und/oder brauchen, profitieren davon. Wie kann man nur so Anti sein wenn es um Fortschritt geht?
Weyoun schrieb:
Du meinst die Bildersuche? Wie soll die auf dem Telefon lokal funktionieren, wenn die KI rein offline nicht trainiert werden kann?
Warum funktioniert die derzeitige Bildersuche denn Offline?
Warum sollten viele andere KI-Funktionen, wie von Apple angekündigt, offline funktionieren und gerade das nicht?

Und selbst wenn nicht: Dann nutze es doch einfach nicht wenn es die Funktion mal gibt. Kein Mensch zwingt dich dazu aber zu sagen "Ist unnötig, braucht man nicht." ist halt einfach idiotisch. DU brauchst es nicht aber DU bist nunmal nicht der Mittelpunkt der Welt.
 
  • Gefällt mir
Reaktionen: Alphanerd
Loro Husk schrieb:
Stell dir vor du könntest wirklich dein Handy über Sprache steuern:

“Hey Siri, öffne WhatsApp und antworte Person XY… sag ihr, dass ich bald einkaufen fahre und noch wissen will, was sie braucht.”
Also exakt dieses Beispiel funktioniert seit Jahren mit Siri ohne Mucken. Nutze ich immer beim Autofahren über CarPlay. Dafür brauchts kein KI, nur paar Schnittstellen. WhatsApp, iMessage oder SMS, geht alles. Nur Signal weigert sich, da eine Integration zu bieten.
 
Weyoun schrieb:
In der gleichen Zeit habe ich Signal geöffnet und die gleiche Nachricht per Sprachchat an die gewünschte Person geschickt. Wo ist also der Vorteil?

Das würde mich nur ablenken, wenn mir jemand einen Artikel laut vorliest. Vorlesen lasse ich mir nur Hörbücher. Für Fachartikel reicht es bei mir noch aus, dass ich sie aufmerksam (in Ruhe) durchlese.
Brudi... zum Beispiel beim Kochen, beim Wäsche aufhängen, beim rad fahren... Oder wenn ich einfach mal nicht auf einen Bildschirm gucken will. Die Geschwindigkeit ist mir dabei auch egal, hauptsache es passiert.

Zum Thema Vorlesen: es muss natürlich gut gemacht sein, man muss sie auch unterbrechen können etc.
 
  • Gefällt mir
Reaktionen: DNS81, Pontus und Azeron
Es gibt ja wenig was Apple so verkackt, aber bei Apple Intelligence haben die echt nen Kopfsprung ins Klo gemacht. :D Groß angekündigt und nen halbes Jahr später immernoch ganz (hierzulande) oder teilweise abwesend.
 
Autokiller677 schrieb:
Also exakt dieses Beispiel funktioniert seit Jahren mit Siri ohne Mucken. Nutze ich immer beim Autofahren über CarPlay. Dafür brauchts kein KI, nur paar Schnittstellen. WhatsApp, iMessage oder SMS, geht alles. Nur Signal weigert sich, da eine Integration zu bieten.
Das wusste ich nicht. Meine Erfahrung mit Siri und einfachsten Wissensfragen ist meist: jo, dazu weiß ich nichts, soll ich eine Websuche machen. Und dann muss ich manuell wikipedia durchlesen... wenn ich siri diktiere, eine Notiz zu erstellen, versteht sie mich in 50% der Fälle nicht oder falsch, bei Namen oder deutsch/englisch gemsicht Katastrophe.
 
Ich hab etwa 30.000 Bilder katalogisiert ohne KI und siehe da wenn ich etwas suche, finde ich es auch tatsächlich wieder. Drei Kriterien, nämlich "Ort, Datum, Thema" reichen dazu völlig aus. Eine rumschnüffelnde KI ist vollkommen unnötig.
 
Sehr cool @Whitehorse1979. Ich schick das sofort weiter an Apple und sag ihnen dass sie aufhören können daran zu arbeiten weil wenn du es nicht brauchst und alles selber machst, braucht es keiner und es wäre vergebene Mühe und Geldrausschmeißerei.
 
  • Gefällt mir
Reaktionen: Cr4y, Alphanerd, eL_ImmIgrAntÄ und 4 andere
Ich bevorzuge immernoch Brain.exe ist doch meine Sache oder? Kannst Dich ja ausspionieren lassen. Bist ja ein freies großes Täubchen mit Ausweis.
 
  • Gefällt mir
Reaktionen: VollkommenEgal
@incurable Du laberst Quark, die Vision Pro ist wirklich von Anfang an nicht für den Ottonormalnutzer ausgelegt.
Wurde so kommuniziert, auch wenn man in der Werbung natürlich auch allgemeinere Einsatzfelder gezeigt hat.
Aber weißt du was wirklich der simpelste, offensichtliche Beleg für diese Klassifizierung ist?
Sie heißt Apple Vision Pro!
Apple hat aktuell kein einziges Produkt, bei dem es nur ein Pro-Modell gibt, außer der Vision Pro.
Es gibt das iPhone und das iPhone Pro, es gibt das iPad und das iPad Pro, es gibt das MacBook Air und das MacBook Pro, es gibt die AirPods und die AirPods Pro, es gibt den iMac und es gab den iMac Pro...

Bei der Vision Pro bedient Apple zuerst den zahlungskräftigen Highend/Enthusiastenmarkt und später, wenn die Kosten für die notwendigen Komponenten gesunken sind, kommt dann die reguläre Apple Vision oder Apple Vision Air etc.

Und neben den Forschungskosten ist die Vision Pro auch so teuer weil die Komponenten halt auch teuer sind, die Displays sollen wohl allein 400 $ pro Stück kosten, aber um die "Qualität" des Benutzungserlebnisses zu erreichen sind schlechtere und günstigere Displays halt einfach nicht angemessen.
Der einzige Punkt an dem die Vision Pro klar krankt ist, dass sie nur einen M2 verwendet, etwa zeitgleich aber sowohl neue Macs mit dem M3 erschienen und wenige Wochen später sogar das iPad Pro mit dem M4, das wirkte einfach sehr unglücklich zeitlich geplant.
Aber es ist halt auch eine erste Generation, die lange in Entwicklung war - es ist jetzt nichts neues, das eine neue Produktkategorie von Apple in der ersten Generation untermotorisiert ist. (Aber ausreichend um das zu erreichen was mit dem Produkt erreicht werden soll)

@Azeron iPhones sind seit dem iPhone 3GS vorbildlich durch Blinde bedienbar, dank VoiceOver und anderer Funktionen

@Weyoun Die Fotos-App analysiert bereits jetzt (und seit Jahren) lokal auf dem Gerät Bilder und klassifiziert und "tagged" sie, du suchst nach Bilder mit einem Strand oder Schrank, tippe den Begriff einfach ein und es werden entsprechende Bilder angezeigt. Mit der neuen Generation von Apple Intelligence sollen nur mehr UND-Funktionen dazukommen, so dass Kombinationen verschiedener Begriffe besser gefunden werden.

Zur Bedienung eines Smartphones komplett via AI mit der Stimme muss ich jedoch anmerken, dass es imho oft viel schwerer ist Dinge verbal auszudrücken und der AI zu diktieren, als sie manuell umzusetzen.
Nehmen wir mal als Beispiel ich möchte die smarten Lampen im Wohnzimmer einschalten, jedoch nicht alle sondern nur einige. Ich habe 8 Lampen, nummeriert als Wohnzimmerlampe 1-8 oder als WoZi Esstisch, WoZi Sitzecke, WoZi Leselicht etc.
Das alles in einem gesprochenen Befehl an Siri, AI, sonstwas zu formulieren ist imho eine größere Kopfarbeit und dauert auch länger, mit mehr Gefahr sich zu verhaspeln, als wenn man die App öffnet und in einer Liste oder Zimmerübersicht die gewünschten Lampen direkt antippt.
Schneller und per Sprachbefehl geht es dann eigentlich nur, wenn man sich vorher mal die Arbeit gemacht hat und spezifische Lichtszenen erstellt hat, die verschiedene Lampensetups aktivieren.

KI und Sprachbefehle funktionieren imho am besten wenn es sehr simple Aufgaben sind ("Schicke folgende Nachricht an ...", "Schalte alle Lampen im Wohnzimmer ein") oder die Aufgaben so komplex sind, dass sie manuell nicht mehr vernünftig umzusetzen sind - dann muss die AI aber so fortgeschritten sein, dass sie den Kontext immer perfekt versteht und idealerweise quasi meine Gedanken lesen kann.
Das Mittelfeld (wie oben beschrieben) ist imho ein schlechtes Einsatzfeld für AI, weil ich ihr dabei noch so sehr Händchenhalten muss, dass ich die Aufgabe auch selbst erledigen kann.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Azeron
Weyoun schrieb:
Du meinst die Bildersuche? Wie soll die auf dem Telefon lokal funktionieren, wenn die KI rein offline nicht trainiert werden kann?
Warum sollte der User die KI selber trainieren?
 
  • Gefällt mir
Reaktionen: Cr4y und Obvision
KI, AI, AppleIntelligence als zuverlässiger oder gar dazulernender Assistent ?

Ist das nicht a bisser'l viel der Erwartungen an die Intelligenz des Apple Systems ?

Selbst Autofahren funktioniert nur so halb obwohl da schon zig Jahre mit Heidenaufwand dran rumgebastelt wird. Das die KI Gemeinde jetzt vom Auto zu menschähnlichen Bots zu Siri&Co weiterzieht macht die Lösungen nicht besser. Das Auto sowieso nicht.

Braucht vielleicht ein bißchen mehr schnöde Low-Tech ? Beim Auto doch mal besseres GPS, wettertaugliches und cm-genaues TerrestrialPS vielleicht ? Und reichlich V2x. Und bei Siri, das partout nichts lernen will, z.B. das was der Kunde eigentlich regelmäßig fragt, dann vielleicht zur Hilfestellung ne händisch erstellte oder diktierte ASCII Text Datei mit Regeln der Art wenn ich "...." sage dann bitte folgendes tun "...", "....",..,"...." ?

Und endlich mal ne klare definierte Kommandoliste "...." für jede einzelne fernsteuerbare Aktion von Rechner und Zuhause (home automation) die das Sytem "tun" kann würde die Home Automation dann vielleicht auch mal aus der Bastelecke holen. Ganz ohne KI.
 
Weyoun schrieb:
In der gleichen Zeit habe ich Signal geöffnet und die gleiche Nachricht per Sprachchat an die gewünschte Person geschickt. Wo ist also der Vorteil?
Der Vorteil ist, dass man keine 100€ zahlen muss, weil man das Handy am Steuer benutzt hat.
 
Naja, den Mann als "Siri-Kritiker" zu bezeichnen lässt jetzt aber auch nicht das richtige Bild entstehen. Der hat ja kein Problem mit Siri als solchem, sondern damit wie eingeschränkt und feature-arm Siri ist und hat seit Jahren immer wieder Vorschläge für neue Features gemacht.

Das jetzt als "Siri-Kritiker" zu betiteln finde ich nicht richtig.
 
Azeron schrieb:
Und auf die wäre man dann nicht mehr angewiesen wenn Siri das könnte. Und was ist mit Leuten die gerade, wegen was auch immer, die Hände nicht frei haben?
Unnütze Dinge weglegen und sich auf eine Sache konzentrieren?
Azeron schrieb:
Was ist mit denen die gar keine Hände haben und sich leichter tun würden wenn man nicht alles anklicken müsste?
Ich schrieb doch bereits weiter vorn, dass man z.B. über Signal auch ohne Hände Sprachnachrichten verschicken kann. Geht auch ohne KI, wenn die Stimme einmal erkannt wurde.
Azeron schrieb:
Worüber diskutieren wir hier eigentlich? DU brauchst es nicht, schön. Keiner zwingt dich dann diese Funktion zu nutzen wenn es sie mal gibt. Andere die das möchten und/oder brauchen, profitieren davon. Wie kann man nur so Anti sein wenn es um Fortschritt geht?
Ich bin als Hardwareentwickler und auch politisch alles andere als "Anti"! Dennoch sehe ich wenig Sinn an zusätzlichem KI-Gedöns, wenn es derzeit auch ohne KI funktioniert.
Azeron schrieb:
Warum funktioniert die derzeitige Bildersuche denn Offline?
Wenn die KI etwas spezielles finden soll, dass der Algorithmus erst nach erneutem Training in der Lage ist zu finden, dann findet die KI auch nichts, wenn ausschließlich offline ohne ständiges "KI-Ugrade" gesucht wird. Die KI findet offline vielleicht triviale Dinge wie "Baum", "Haus" oder "lachendes Gesicht".
Ergänzung ()

Loro Husk schrieb:
Who the fuck is "Brudi"???
Loro Husk schrieb:
zum Beispiel beim Kochen, beim Wäsche aufhängen, beim rad fahren...
Der Mensch ist nicht für Multitasking gemacht. Beim Kochen konzentriere ich mich auf Kocharbeiten wie Schälen, Schneiden, Panieren etc. Beim Wäscheaufhängen höre ich nebenbei maximal Musik, beim Radfahren achte ich auf den Straßenverkehr.
Ergänzung ()

iSight2TheBlind schrieb:
Die Fotos-App analysiert bereits jetzt (und seit Jahren) lokal auf dem Gerät Bilder und klassifiziert und "tagged" sie, du suchst nach Bilder mit einem Strand oder Schrank, tippe den Begriff einfach ein und es werden entsprechende Bilder angezeigt. Mit der neuen Generation von Apple Intelligence sollen nur mehr UND-Funktionen dazukommen, so dass Kombinationen verschiedener Begriffe besser gefunden werden.
Wenn das wirklich nur offline stattfindet, kommen aber keine weiteren "Tags" hinzu, wenn man mal was "außer der Reihe" suchen möchte (erst wieder beim nächsten Betriebssystemupdate und auch das nur möglicherweise). Mein Synology NAS kann das prinzipiell auch seit Jahren, dennoch ist das für mich keine echte KI.
Ergänzung ()

bensen schrieb:
Warum sollte der User die KI selber trainieren?
Wer sagt, dass der User die KI trainieren soll? Ich meinte damit Möglichkeit, nach stets neuen Parametern die Bilder zu durchforsten, was aber nicht geht, wenn die Suche offline stattfindet und somit nur meinetwegen 965 verschiedene Suchparameter nach Objekten, Personen oder Stimmungen zur Verfügung stehen.
Ergänzung ()

zett0 schrieb:
Der Vorteil ist, dass man keine 100€ zahlen muss, weil man das Handy am Steuer benutzt hat.
Vorsicht! Man kann auch eine Strafe zahlen, wenn man das Gerät nicht in der Hand hält! Es reicht schon aus, wenn das Gerät den Autofahrer ablenken kann.
https://www.adac.de/verkehr/recht/verkehrsvorschriften-deutschland/handyverstoss/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crabman
Zurück
Oben