Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGoogles KI-Assistent: Spotify lässt sich mit Gemini per Spracheingabe steuern
Eine neue Erweiterung für den generativen KI-Assistenten: Google verbindet Spotify mit Gemini. Auf diese Weise ist es möglich, den Streaming-Dienst mit natürlicher Spracheingabe zu steuern, um etwa Songs oder Alben abzurufen.
Ist Google Gemini eigentlich mittlerweile auch in den Google (Nest) Lautsprechern integriert oder wird da für Wissensfragen nach wie vor die klassische Google Suche benutzt? Laut älteren Pressemitteilungen wird daran gearbeitet...
Ich spiel mal wieder den alten Mann: Ich habe schon die ganzen Sprachassistenten im Telefon (OK Google, Alexa etc.) nicht benutzt. Nicht mal im Auto, da fahre ich lieber kurz an den Straßenrand und bediene das große Display manuell. Aus meiner Sicht geht es manuell/"klassisch" in 99,9% aller Fälle deutlich schneller. Der einzige Grund, auf Sprachsteuerung zu setzen (Bedienungshilfen für betroffene mal ausgenommen) ist für mich die Eingabe von bspw. fremden Städtenamen, deren Schreibweise man nicht kennt.
Daher finde ich diese Neuerung hier maximal nutzlos. Aber der ein oder andere wird sich da sicherlich drüber freuen...
Ich fahre mit dem Rad zur Arbeit. Dabei habe ich einen(!) Ohrhörer im Ohr.
Bei dem Wetter gerade geht ohne Handschuhe da nix. Das heißt ich müsste immer anhalten um kurz einen Song zu wechseln, nach der Uhrzeit zu fragen oder jemand schnell anzurufen.
Das geht mit dem "Ok Google" alles sehr gut und ich bin froh das nutzen zu können.
Mein Pixel hat mir auch vorgeschlagen zu Gemini zu wechseln. Das war, ohne Spotify integration, keine Option. Gut das hier nachgebessert wird.
Dank physischer Knöpfe konnten wir das früher (Oh Gott, jetzt fühle ich mich wirklich alt...) blind bedienen. Und es gibt Handschuhe, die Touchscreen-tauglich sind.
@Mills97
Wie bereits geschrieben funktioniert das mit physischen Knöpfen wunderbar. Ging früher ja auch. Das Problem heutzutage ist eher, so Geräte zu finden. Die meisten TWS In-Ears haben ja nur noch schlechte Touch-Steuerung...
Wenn die Spracheingabe von Gemini genauso schlecht ist wie der Rest, dann muss man sicherlich eine ganze Weile quatschen bis dann auch mal der Song kommt den man haben wollte...
Bisher hab ich aus dem Sprachmodell selten nützliche Info ziehen können. Und in vielen Fällen waren die Infos die kamen auch noch fehlerhaft.
@MaverickM
Mein Smartphone ist in der Seitentasche verpackt, mein InEar befindet sich zwar im Ohr, aber (wieder bei dem Wetter) befindet sich darüber eine Laufmütze und darüber ein Helm.
Und selbst mit meinen Handschuhen (die Smartphonetauglich sind) müsste ich erst den Helm und die Mütze abnehmen bevor ich ein Lied weiter machen kann.
Mein weg zur Arbeit sieht also so aus: InEars rein, Mütze und Helm auf und dann "hey google, setz die Lautstärke auf x%, spiel ... von Spotify, ...welche Termine gibts heute" und wenns mal etwas länger dauert "hey google wie spät ist es" oder "ruf xx an".
Das mit Hand zu bedienen während ich Fahrrad fahre halte ich für absolut unverantwortlich obwohl ich nicht einmal auf einer Bundesstraße unterwegs bin und durchweg nur Radweg fahre.
Funktioniert doch seit Jahren mit dem Google Assistent. "Hey Google spiele Bauch Beine Po im Wohnzimmer". Bei englischen Titeln hat er manchmal Probleme (vielleicht ist meine Aussprache auch nicht perfekt)
Auf meinem Smartphone habe ich Gemini als Sprachassistenten ausgewählt. Bei Google Home läuft mM noch der alte Assistent. Allerdings bekomme ich gelegentlich Antworten auf Englisch.
Wenn man seine Geschwindigkeit anpasst, den Blick auf der Straße lässt und notgedrungen halt doch anhält, wenn nötig, halte ich das für absolut akzeptabel. Aus meiner Sicht alles besser als Spracheingabe.
Da bin ich jetzt etwas überrascht.
"Ok google, spiele Slayer Raining Blood auf Spotify" funktioniert doch schon ewig? Und auch auf jeden Fall vor Gemini.
ok das war genau meine frage
hab noch nie spotify oder so benutzt aber irgendwie fehlt mir die news.
frage mich wann dieser ganze KI kram das erste mal was nützliches für mich kann: den tv auf pause stellen wenn ich den raum verlasse!
ich hampelmann kann nicht still sitzen und muss 30 mal am tag zurückspulen
(und ich bezweifle, dass man dafür auch nur ein funken ki braucht und das eigentlich schon seit 15 jahren über helligkeitssensor, mikrofon, fernbedienung möglich wäre.... nur leider scheinen die entwickler nicht so dumm zu sein wie ich)
@usernamehere : Ich vermute das man mit Gemini dann auch nach “Spiele das Lied am Ende von Fight Club” oder “Spiele das Lied mit Baby Baby im Refrain” oder (je nach Einbindung) “Spiele das Lied das mir Peter empfohlen hat” und sowas fragen kann.
Aber mein erster Reflex war auch, dass Gemini damit endlich die Funktion abdeckt, für die 90% der Leute ihre Sprachassistenten nutzen.
Hatte das Problem auch mit Gemini, Ich war überrascht, dass es darüber nicht Mal möglich war die Spotify App zu starten, dann bin ich wieder auf den klassischen Assistent gewechselt.
Da bin ich jetzt etwas überrascht.
"Ok google, spiele Slayer Raining Blood auf Spotify" funktioniert doch schon ewig? Und auch auf jeden Fall vor Gemini.
Jup. Verwende ich so auf meinem Beoplay A9 und habe selten Probleme. Vor allem scheint er auch zu lernen, dass gewisse Playlists so heißen, wie sie heißen. Meine Playlist heißt Vibe-Machine. Am Anfang kam oft irgendwas mit Waschmaschine, irgendwann hat es das dann aber gecheckt und den Fehler nicht mehr gemacht.