Schinken42 schrieb:
Der steht im Artikel und wurde auch schon tausendmal genannt: Die Algorithmen lernen.
Lernen von Menschen. Menschen haben Vorurteile. Ende.
Was aber immer gerne wegignoriert wird:
Wie entstehen Vorurteile oder Klischees?
Sobald Menschen aus/mit XYZ überdurchschnittlich ABC sind/haben, kommt direkt ein "Captain Obvious" um die Ecke und sagt, dass nicht alle so sind. Dann wird versucht, ein statistischer Wert fälschlicherweise glatt zu bügeln (50%), obwohl Fakten - aufgrund verschiedener Umstände - belegbar bleiben.
Damit dreht sich diese Diskussion immer im Kreis.
Es ist bereits lächerlich genug, dass harmlose Witze zensiert werden, wenn man eine KI danach fragt.
Wenn man aber allgemeine Witze hören möchte, kommen diese zensierten Witze trotzdem durch das System.
Am schlimmsten ist aber die einseitige Zensur von bspw. Männer/Frauen, Weiß/Schwarz, ReligionA/ReligionB, da dadurch erst echter Rassismus bzw. Diskriminierung entsteht.
Bei "uns" in Deutschland bzw. Europa ist alles noch größtenteils okay. Aber in den USA sieht man, wie extrem es ausarten kann.
Meiner Meinung nach sollte man KIs nicht zensieren, sondern in einer Differenzierung oder Aufklärung trainieren. Am besten mit Zahlen/Fakten, falls es welche gibt und der Begründung für die Enstehung dieser Zahlen/Fakten.