Verbraucherschützer: Algorithmen dürfen für Nutzer keine Black-Box sein
Algorithmen dürfen nicht zu einer Black-Box verkommen, denen die Nutzer hilflos ausgeliefert sind, fordert der Bundesverband der Verbraucherzentralen (vzbv). Entscheidend sei daher, dass die Politik aktiv wird und klare Regeln aufstellt.
Klar ist, dass Algorithmen samt der auf Big Data basierenden Geschäftsmodelle immer bedeutsamer werden. Vorreiter sind die Tech-Riesen wie Amazon, Facebook und Google, immer mehr Branchen ziehen aber nach – zu den prominentesten Beispielen zählt etwa das autonome Fahren.
Algorithmen-Entscheidungen müssen nachvollziehbar sein
Das Problem ist nach Ansicht der Verbraucherschützer allerdings, dass Algorithmen meistens unter das Geschäftsgeheimnis fallen. Daher lässt sich von außen nicht prüfen, nach welchen Kriterien die Algorithmen entscheiden. So erklärt vzbv-Vorstand Klaus Müller: „Automatisierte Entscheidungen auf Basis von Algorithmen können Verbraucherinnen und Verbrauchern das Leben erleichtern. Sie können aber auch zu falschen Entscheidungen führen und Verbraucher diskriminieren.“
Deswegen sei die Politik gefragt. „Eine nächste Bundesregierung muss Algorithmen aus Sicht des Verbraucherschutzes genau unter die Lupe nehmen“, so Müller. Vorschläge unterbreiten die Verbraucherschützer in einem Thesenpapier (PDF). Zentral für das Konzept ist mehr Transparenz und der Umstand, dass Betroffene die Entscheidung sowohl nachvollziehen als auch anfechten können.
Die Bundesregierung selbst war bei Algorithmen bislang zurückhaltend. Der noch geschäftsführende Justizminister Heiko Maas (SPD) hatte im Frühjahr Regeln für diskriminierungsfreie Algorithmen ins Gespräch gebracht. Bei den Jamaika-Sondierungen hatten sich CDU/CSU, FDP und Grüne aber nur darauf verständigt, eine Kommission zu dem Thema einzurichten.
Nutzer haben nur wenig Vertrauen in Algorithmen
Bei den Thesen berufen sich die Verbraucherschützer auf die Resultate einer repräsentativen Online-Umfrage, die Civey im Auftrag des vzbv durchgeführt hat. Demnach geben 75 Prozent der Nutzer an, dass automatisierte Entscheidungen eine Gefahr sind, wenn die Datenbasis und Entscheidungsprinzipien unklar sind. 80 Prozent wollen zudem, dass Firmen die Daten und Kriterien offenlegen. 77 Prozent sprechen sich zudem für eine staatliche Kontrolle aus.
Zur Methodik: Civey befragte zwischen dem 27. November und 1. Dezember 2017 online 5.000 Personen, die zur wahlberechtigten Bevölkerung in Deutschland gehören. Die Umfrage wird als repräsentativ bezeichnet.
Lufthansa-Ticketpreise als warnendes Beispiel
Inwieweit sich Algorithmen bereits auf den Alltag der Bürger auswirken, verdeutlicht ein Bericht von ZDF heute über das Preissystem der Lufthansa. Das Problem: Seit der Pleite von Air Berlin mehren sich die Beschwerden, dass die Preise für Inlandsflüge bei der Lufthansa massiv gestiegen sind. Der Konzern selbst bestreitet aber, an der Preisschraube gedreht zu haben. „Wir haben die Preise nicht geändert, weder vor der Insolvenz von Air Berlin noch nach der Insolvenz“, sagte ein Sprecher der Fluglinie im ZDF.
Der Haken ist nun das automatische Preisfindungssystem, das Fluglinien wie Lufthansa einsetzen. Selbst wenn sich die Grundpreise nicht ändern, kann es – wie etwa im Fall der Air-Berlin-Pleite – auf eine gesteigerte Nachfrage reagieren. So erklärt dann auch Bundeskartellamt-Präsident Andreas Mundt: „Wir müssen der Frage nachgehen, ob so ein Algorithmus nicht für eine ganz andere Marktsituation geschaffen und programmiert worden ist.“ Denkbar sei daher, dass eine „Weiternutzung in unveränderter Form“ möglicherweise schon einen Missbrauch der Marktmacht darstellt, die die Lufthansa seit der Air-Berlin-Insolvenz innehat.