GPT-4: OpenAI will mit KI die Inhalte im Internet moderieren
Seit dem Boom der generativen KI-Chatbots kämpfen immer mehr Plattformen mit Spam und Textfluten. ChatGPT-Entwickler OpenAI will nun selbst wieder Abhilfe schaffen. Moderations-Tools basierend auf dem GPT-4-Sprachmodell sollen Plattformen die Arbeit erleichtern.
Was OpenAI in einem Blog-Beitrag verspricht, ist sowohl das schnellere Bearbeiten von Beiträgen als auch die konsequentere Umsetzung von Richtlinien. Dass die KI-Tools grundsätzlich eine große Textmenge zumindest schneller verarbeiten können als menschliche Moderatoren, ist nachvollziehbar. Doch ein weiterer Pluspunkt soll die regelkonforme Umsetzung sein.
GPT-4 sei demnach konsistenter beim Beurteilen von Inhalten und zudem in der Lage, angepasste Richtlinien schneller umzusetzen. Während es mit menschlichen Moderatoren oftmals Wochen bis Monate dauern würde, um Regeln anzupassen und diese Änderungen dann umzusetzen, würde es sich bei dem KI-System nur um Stunden handeln. So wäre es etwa mit GPT-4 laut OpenAI deutlich leichter, neuralgische Punkte in den Vorgaben zu identifizieren, um die Richtlinien zu verfeinern.
Entlastend sollen die KI-Tools zudem für Menschen sein. Die Moderation der Massen von Inhalten, die bei den sozialen Netzwerken anfallen, gilt als stressig und psychisch belastend; regelmäßig werden zudem die Arbeitsbedingungen in der Branche kritsiert. Das betrifft im Übrigen auch diejenigen, die im Auftrag von OpenAI die Ausgaben von ChatGPT optimieren und anpassen.
Moderation-API als kostenpflichtiger Service
Ein Zugriff auf OpenAIs Moderations-Tools ist über die API möglich. Klar ist also: Es handelt sich um einen kostenpflichtigen Dienst; offenkundig versucht die Firma also, das Geschäftsfeld zu erweitern. Nötig sind die Einnahmen, denn bereits im Frühjahr wurde über steigende Kosten berichtet. Demnach müsse OpenAI allein rund 700.000 US-Dollar pro Tag für die Infrastruktur zahlen, die für den Betrieb von ChatGPT erforderlich ist. Jüngsten Meldungen zufolge wird die Situation nicht einfacher.
Neben den Kosten intensiviert sich der Konkurrenzkampf, während der Hype des Frühjahrs – zumindest auf Nutzerebene – etwas abzuflachen scheint. So verzeichnete ChatGPT laut dem Analysedienst SimilarWeb im Juli eine um 12 Prozent rückläufige Nutzerzahl. Das wäre der zweite Monat in Folge. Hinzu kommt die Nachfrage nach Nvidia-GPUs, die für das Training der Modelle erforderlich, aber derzeit kaum verfügbar sind.
Mit KI gegen die KI-Textflut
OpenAI ist nicht die erste Firma, die Sprachmodelle für die Moderation verwendet. Metas KI-Chef Yann LeCunn erklärte bereits vor einigen Monaten, dass diese hilfreich seien, um zu löschende Inhalte zu identifizieren.
Wenn Plattformen die generativen KI-Tools nutzen, müssen die Grenzen beachtet werden. OpenAI selbst spricht von unerwünschten Verzerrungen, die während des Trainings oder dem Anpassen der Sprachmodelle entstehen können. Die Ergebnisse sollten also „wie bei allen KI-Anwendungen“, so die Firma in dem Blog-Beitrag, regelmäßig von Menschen kontrolliert werden. Anpassungen seien ebenfalls stets erforderlich.
Wie vielversprechend die Tools sein werden, bleibt also abzuwarten. Bereits im Frühjahr machten die ersten Berichte von Spam-Wellen die Runde, betroffen sind etwa Plattformen wie Reddit. Reddit-Moderatoren sollen zwar teils schon Zugang zu KI-Tools haben, diese bezeichneten diese zu diesem Zeitpunkt aber noch nicht als allzu hilfreich. So stellt sich etwa generell die Frage, wie präzise ein KI-System tatsächlich entscheiden kann, wenn es sich um Fälle in Grauzonen oder Grenzbereichen handelt.