hi bigtail,
das war mal meine Abschlußprüfung als Informatikkaufmann. Hier mal ein paar Auszüge:
4.4. Produktanforderungen
4.4.1. Hardware
Die Hardwareanforderungen der Spracherkennungsprogramme waren, gemessen am aktuellen Leistungsstandard, nicht zu hoch.
Die Hersteller gaben an:
• Mindestens einen Pentium II mit 400 MHz
• 128 MB RAM
• 500 MB freien Festplattenspeicher
• 16Bit- Soundkarte, Windows kompatibel
• Headset oder Stand- alone Mikrofon
• Evtl. Lautsprecher zur akustischen Wiedergabe
• CD-ROM-Laufwerk.
Mein Testrechner erfüllte diese Kriterien.
Zum Einsatz kam ein digitales USB- Headset (Soundkarte integriert, Plug & Play fä-hig), da der Test unter optimalen Bedingungen durchgeführt werden sollte.
4.4.2. Betriebssystem/Software
Zur Verwendung der Spracherkennungssoftware können folgende Betriebssysteme bzw. Versionen eingesetzt werden:
• Windows 98 SE
• Windows ME
• Windows 2000
• Windows XP (Home/Pro Edition)
Zur Texteingabe kann der im Programm enthaltene Texteditor, oder auch Office-Programme wie Microsoft Word oder StarOffice verwendet werden.
4.4.3. Merkmale
Die Programmunterschiede sind nicht sehr groß, sie bieten fast das gleiche Leis-tungsspektrum.
Um hier diese Dokumentation nicht mit Leistungsmerkmalen zu überhäufen, habe ich mich nur auf die wesentlichen Punkte beschränkt.
Bei den unten aufgelisteten Programmen handelt es sich um Einzelplatzversionen. Eine Netzwerklösung bietet nur Linguatec VoicePro 10, da Sie aber nicht zum Test-einsatz kam, gehe ich nicht weiter darauf ein. Begründung ist unter Punkt 4.1 nachzu-lesen.
6.1. Treiber-Deinstallation und Installation
Um Treiberkonflikte mit der Software des digitalen USB-Headsets zu vermeiden ent-fernte ich die Soundkarte und die dazugehörigen Treiber aus dem Testrechner.
Die Empfehlung des Herstellers für das Headset war, die Software inkl. der Treiber
vor dem anschließen des Headsets zu installieren.
6.2. IBM-Software
Die Installation verlief reibungslos, die anschließende Konfiguration erwies sich je-doch als undurchsichtig und langwierig.
6.3. Dragon-Software
Die Installation erfolgte unter gleichen Vorraussetzungen.
Schon bei der Installation rechtfertigte das Programm seinen hohen Preis.
Sie verlief reibungslos und die Konfigurationseinstellungen waren klar und deutlich programmiert.
7. Konfiguration der Software
7.1. IBM-Software
Die Sprachkonfiguration war sehr aufwendig, da die Erkennung der gesprochenen Wörter teilweise überhaupt nicht funktionierte.
Ebenso fehlte ein Einführungs-Guide um den Anwender leichter ins Programm einzu-führen.
Der Zeitaufwand für die Konfiguration lag bei ca. 1 Stunde, um das Programm für sei-ne eigentlichen Aufgaben vorzubereiten. Die Erkennungsgenauigkeit bei der Konfigu-ration lag hier bei ca. 50%.
7.2. Dragon-Software
Die Konfiguration war klar und verständlich programmiert, und die Einführung in das Programm wurde mit einem Konfigurations-Guide fortgeführt.
Zuerst wurden vorprogrammierte Beispiele gezeigt, anschließend konnte man diese Beispiele gleich in der Praxis umsetzen.
Meiner Einschätzung nach lag die Erkennungsgenauigkeit bei der Konfiguration von Anfang an bei ca. 90%.
8. Softwaretest
8.1. IBM-Software
Das Erstellen von Textdokumenten mittels Sprache gestaltete sich genauso schwierig wie die Konfiguration.
Trotz des höheren Vokabularumfangs wurden sehr viele Wörter nur schlecht, oder teilweise überhaupt nicht erkannt.
Nicht erkannte Wörter mussten manuell trainiert werden, was sehr zeitraubend war. Meiner Einschätzung nach lag hier die Erkennungsgenauigkeit beim Diktieren ebenso bei ca. 50%.
Der Softwaretest dauerte ca. 2,5 Stunden.
Um das Programm einigermaßen vernünftig anwenden zu können, werden zirka 25 Stunden benötigt (Hochrechnung).
8.2. Dragon-Software
Das Erstellen von Texten mittels Sprache war fast ein " Kinderspiel ".
Zirka 90% der eingegebenen Wörter wurden sofort erkannt, denn diese Wörter waren alle schon im Vokabular enthalten und auch besser programmiert. Somit entfiel die aufwändige manuelle Nachbearbeitung (Sprachtraining).
Waren jedoch einzelne Wörter nicht im Vokabular enthalten, konnten diese manuell eingegeben und mit einem leicht zu bedienenden Aufnahmerekorder aufgenommen werden.
Der Softwaretest dauerte ca. 1 Stunde. Danach lag meiner Einschätzung nach hier die Erkennungsgenauigkeit beim Diktieren ebenso bei ca. 90%.
9. Nutzwertanalyse
9.1. Nutzen
Anhand der unten aufgeführten Tabelle ist zu erkennen, wie die Bewertungen im Ein-zelnen vergeben wurden.
Dabei wurde der Schwerpunkt auf das Diktieren, Formatieren und Korrigieren gesetzt.
Den zweitgrößten Anteil besitzt die Trainingsdauer der Programme, denn was nützt ein Programm, das sozusagen erst lange auf die Stimme „programmiert“ werden muss.
Hierbei schnellen dann die Kosten in die Höhe.
Das Leistungsspektrum beider Programme hält sich fast die Waage, wobei sie sehr stark in der Trainingszeit differieren.
Ein Unterschied ist auch in der Erkennungsleistung zu bemerken, obwohl IBM Via-Voice mehr Vokabeln zur Verfügung stellt.
Das, was auf den ersten Blick teuer erscheint, muss nicht gleich das Teuerste sein. Im Gegenteil, nach Testende erwies sich Dragon NaturallySpeaking sogar als die günstigere und bessere Software.
Um eine hohe Erkennungsgenauigkeit zu erreichen, sollten die Programme bzw. die Wörter öfters trainiert werden.
Bei einem Programm mehr, einem anderen Programm weniger.
Ein geübter zehn Fingerschreiber ist zuerst auf herkömmliche Weise besser bedient, als mit einer untrainierten Spracherkennungssoftware.
Aber bringt dieser Zeit, Training und etwas Geduld mit, kann sogar er genauso schnell die Texte per Sprachsoftware eingeben.
Für Ungeübte, ist die Spracherkennungssoftware das optimale Werkzeug zur Erstel-lung eines Textes.
Sprachsoftwareprogramme werden von Version zur Version immer leistungsstärker, genauer und effektiver.
Zukunftsvisionen wie die SCIFI-Serie "Star Trek" wo man mit dem Computer "spricht", werden in naher Zukunft vielleicht schon Wirklichkeit.
vielleicht hilft es dir ein wenig...
gruß