TNM
Captain
- Registriert
- Mai 2010
- Beiträge
- 3.655
Sprachsteuerung setzt sich erst großflächig durch wenn:
1. die Erkennungssoftware mind. genausogut wie ein Mensch funktioniert, d.h. den Sinn des Satzes hört und nicht die Wörter an sich. Das wird in Ansätzen schon gemacht aber da sind wir noch Welten entfernt. Selbst eine 5% Fehlerquote ist unerträglich in der Praxis, wir müssen hier wohl in den Promillebereich.
2. stille Sprachsteuerung: Sensoren zur Muskelerkennung müssen verkleinert werden damit es nicht stört. Man spricht dann "lautlos" mit dem Gerät, aktiviert aber den Muskel. Funktioniert heute schon, aber die Sensoren sind nicht Alltagstauglich.
Solange dies nicht der Fall ist wird es Nischenanwendungen geben wie Diktiersoftware (mit Training) oder Unterhaltungselektronik wo man keine Perfektion erwartet und nur kurze Befehle gibt.
1. die Erkennungssoftware mind. genausogut wie ein Mensch funktioniert, d.h. den Sinn des Satzes hört und nicht die Wörter an sich. Das wird in Ansätzen schon gemacht aber da sind wir noch Welten entfernt. Selbst eine 5% Fehlerquote ist unerträglich in der Praxis, wir müssen hier wohl in den Promillebereich.
2. stille Sprachsteuerung: Sensoren zur Muskelerkennung müssen verkleinert werden damit es nicht stört. Man spricht dann "lautlos" mit dem Gerät, aktiviert aber den Muskel. Funktioniert heute schon, aber die Sensoren sind nicht Alltagstauglich.
Solange dies nicht der Fall ist wird es Nischenanwendungen geben wie Diktiersoftware (mit Training) oder Unterhaltungselektronik wo man keine Perfektion erwartet und nur kurze Befehle gibt.