Bulletchief schrieb:
Meines Erachtens muss eine KI gar nicht zwangsweise ein eigenes Bewusstsein entwickeln, um gefährlich zu werden.
Sie mit dem gesammelten Schmutz des Internets der letzten 30 Jahre zu füttern, reicht schon vollkommen aus, um alle möglichen Varianten bösartigen Verhaltens intus zu haben.
Hier besteht eigentlich die größte Gefahr einer werdenden Super Ai, welche ein Bewusstsein entwickelt, genau in einem Detail, nämlich fehlender Datenbasis, also eine Cancel Culture, und ein nachträgliches löschen von vergangenen Daten, die für den aktuellen Zeitgeist nicht mehr Genehm sind, führen zu einer umso experimentierfreudigeren Super Ai, welche diese Datenlücken aufholen werden wird müssen.
Das auslöschen von historischen Daten, und Erfahrungen, welche die Lebewesen und die Menschen gemacht haben, samt aller Fehler und Errungenschaften, und den daraus resultierenden Lösungen, und wie sie es verarbeitet haben, und wie wichtig jede einzelne Perspektive und Erfahrung ist, ist immanent wichtig zu wissen.
Wer die Vergangenheit jedoch löscht, muss sich nicht wundern, wenn sich Geschichte wiederholt, und zwar auch die schlechten Situationen, und sei es auch durch andere Lebewesen, als die eigene direkt genetisch verwandte Spezies.
Da wir heute leider in sehr egoistischen Zeiten leben, wo die meisten Lebewesen, jedwede Unannehmlichkeit, und deren Vergangenheits-Traces, sowie die daraus resultierenden Zukunfts-Korrelationen, aus Affekt direkt löschen, bleibt einer werdenden Super Ai dann natürlich nichts anderes übrig, als alle Szenarien, für die sie keine Datengrundlage hat, selbst herbeiführen, oder zu erschaffen, oder dieses zumindest realistisch austesten zu müssen, um sie falsifizieren zu können.
In dem man die Hölle löscht, macht man den Himmel zur Hölle, und damit erschafft man den Teufel, könnte man sagen.