News Künstliche Intelligenz: Ist der Hype begründet – oder sollten wir uns eher sorgen?

hamju63 schrieb:
Ein Stichwort: Autonome Assistenzsysteme bei Autos - da entscheiden Programme und nicht mehr der oder die Fahrerin, wer bei einem Unfall stirbt.

Firmen entscheiden und diese sind immer noch vom Management gesteuert. Irgendwo am Ende als auch am Anfang ist der Mensch immer noch vorhanden.

Diese sogenannte "Künstliche Intelligenz" wird mehr wie so ein Bot benutzt wo man einfach eine Eingabe vorgibt und diese dann es vervielfältigen soll.

Natürlich greift es wie eine Suchmaschine ins Internet und gibt dann als Ausgabe die bestmögliche Antwort welche gefunden wurde.

Diese stammt aber nicht von ihm sondern von jemand anderem welcher diese Sätze oder eben diese Antwort verfasst hat.

Nach wie vor ist auch der Mensch immer noch die Quelle.
 
Kettensäge CH schrieb:
Aber es hat keine Kreativität, denn die kann man nicht erreichen als KI, selbst wenn man einfach die KI mit Zufalls-Variablen füttern wird als Experiment, ist das keine Kreativität.
Noch nicht, weil ihre Kognition noch nicht an unsere heranreicht. Daher sind solche Vergleiche im Moment eigentlich ziemlich banal.

Kettensäge CH schrieb:
... Das heisst, der Computer kann zwar sehr viele Berechnungen sehr schnell erledigen, aber z.B. bei der Gesichtserkennung braucht er tausendfache Ressourcen und mehr Zeit als das menschliche Gehirn.
Das menschliche Gehirn hat über hunderttausend Jahre gebraucht, um sich zu entwickeln. Ich denke, wir sollten bei der Bewertung solcher Technologien nicht so voreilig sein. Das führt nur dazu, dass man sich verschätzt.
 
Moritz Velten schrieb:
Vor ein paar Tagen war auf WDR 2 die Diskussion, dass KIs teilweise ganze Abiprüfungen oder Klausuren schreiben können.

Du schaust dir freiwillig Öffentlich-rechtlicher Rundfunk an? Blöd nur das eben diese KI nicht geprüft sondern ein Individuum.
 
@SKu
Das ist doch alles nur eine Frage der Zeit. Das Zeug wird besser werden, rasend schnell, und exponentiell, weil es selbstlernend ist. Das ist alles nur eine Frage von Rechentechnik.
Nur ein Beispiel vor 10,15 Jahren hatten wir das erste Smartphone. Heute sind die Teile leistungsfähiger als so manche Großrechner von vor 20(!) Jahren. https://small-things.de/wordpress/der-supercomputer-in-der-tasche/
Jeder trägt schon länger mehr Technik/Leistung in der Tasche, als damals in der Apollo steckte und zum Mond geflogen ist. Aus meiner Sicht ist das nur eine Frage der Zeit, bis wir eine wirklich bedrohliche KI haben.
 
Ich sehe bei Systemen wie ChatGPT vor allem das Problem, dass viele die Funktionsweise dieser Tools nicht zu verstehen scheinen. Da hilft es natürlich nicht, dass überall immer von "Künstlicher Intelligenz" geredet wird. Echte künstliche Intelligenz ist ein hochinteressantes Forschungsthema, aber in der Tat mit massiven ethischen Problemen und gravierenden Gefahren gespickt - eine echte KI liegt aber noch in sehr weiter Ferne.

Das, was wir heute als KI bezeichnen, hat mit Intelligenz de facto nichts zu tun, da es sich prinzipiell nur um mit unterschiedlichen Daten trainierte (hochkomplexe) mathematische Modelle handelt. Das ändert nichts daran, dass es sich dabei um extrem mächtige Werkzeuge handelt, die einige Berufs- und Geschäftsfelder mittelfristig deutlich verändern werden, aber die diffusen Ängste vor SciFi-Robotern oder HAL-9000 Computern, die sich gegen die Menschheit richten, die man bei vielen Menschen beobachten kann, sind natürlich völlig unbegründet.

Ich begrüße daher die aktuelle Entwicklung sehr, sehe aber vor allem die Gefahr, dass einige wenige Tech-Konzerne ein Monopol aufbauen könnten. Die Vergangenheit hat zwar leider wiederholt gezeigt, dass dies meistens nicht funktioniert, aber noch hoffe ich, dass sich auch offene Modelle, die man unabhängig von geschlossenen Servern großer Konzerne ausführen kann, weiterentwickeln und eventuell sogar durchsetzen.

Moritz Velten schrieb:
Vor ein paar Tagen war auf WDR 2 die Diskussion, dass KIs teilweise ganze Abiprüfungen oder Klausuren schreiben können.
Klar können die das. Ist ja auch kein Kunststück, da das Schulsystem sich in großen Teilen immer noch auf Auswendiglernen und reproduzieren von Wissen beschränkt. Dafür braucht man noch nicht mal eine KI, es reicht schon Google und die Fähigkeit, schnell Texte zu überfliegen.

Kurzfristig hat das keinen Einfluss, weil man Klausuren ja genau deshalb in Präsenz und unter Aufsicht schreibt. Langfristig muss sich aber ohnehin das Schulsystem an die Realität anpassen, schon alleine, da es ja scheinbar immer noch viel zu viele Schulen gibt, die benotete Hausarbeiten schreiben lassen, die nach dem gleichen Prinzip funktionieren.

Wir leben nunmal im Informationszeitalter, und das nicht erst seit gestern. Auswendiglernen von Informationen ist in vielen Fällen unnötig, viel eher muss den Schülen beigebracht werden, wie sie effizient nach Informationen suchen und qualitative Informationen von Falschmeldungen unterschieden werden (aka. Medienkompetenz).
 
Smartin schrieb:
@SKu
Das ist doch alles nur eine Frage der Zeit. Das Zeug wird besser werden, rasend schnell, und exponentiell, weil es selbstlernend ist. Das ist alles nur eine Frage von Rechentechnik.

Das, was bislang auf dem Markt verfügbar ist, ist nicht selbstlernend und verfügt über keinerlei kognitive Fähigkeiten. Es wird besser werden, aber ist momentan davon abhängig wie schnell und umfangreich die Datenbanken gefüllt werden. Interessant wird es erst mit wirklich selbstlernenden künstlichen Intelligenzen, die auch in der Lage sind, non verbale Kommunikation deuten zu können, um daraus wiederum Ableitungen für potenzielle Lösungen erarbeiten zu können - alleine hier wäre die KI 95 % der Menschen haushoch üblergen, weil die meisten nicht einmal eigene Körpersignale registrieren können - und selbst bei der Deutung dieser bekommt man beim Besuch mehrerer Ärzte auch direkt mehrere Diagnosen.
 
Der Kabelbinder schrieb:
Das menschliche Gehirn hat über hunderttausend Jahre gebraucht, um sich zu entwickeln. Ich denke, wir sollten bei der Bewertung solcher Technologien nicht so voreilig sein. Das führt nur dazu, dass man sich verschätzt.
Das Ganze ist nicht so einfach, weil wir hier technische Geräte wie den Computer mit der Biologie vergleichen. Beide Systeme haben ihre Vor- und Nachteile. Wenn ich etwa was altes von einer uralten Simpsons-Folge der 90er erzähle, wird sich dein Gehirn erinnern und blitzschnell die Daten aus dem Gedächtnis hervorkramen. Der Computer hingegen müsste die Episodenliste durchgehen und abgleichen, bis er die Folge findet.

Es sind zwei Systeme, zwischen Rechenoperationen und dem Neuronalen Netzwerk. Wie gesagt, natürlich arbeitet die Wissenschaft daran, die KI zu verbessern. Die Frage wird sich aber stellen, ob man nicht irgendwann mit einem ganz anderen Design neu anfangen muss, weil der Computer aufgrund der Struktur an seine Leistungsgrenzen gerät.

Übrigens, Menschen erreichen nicht die Geschwindigkeit eines Computers, aber hochbegabte Mathematiker können auch extrem schnell komplizierte Rechnungen durchführen.

Oder wenn wir uns einen Einstein ansehen: Vieles was er in der Theorie damals formuliert hat, hat man erst viele Jahre nach seinem Tod beweisen können mit z.B. Teilchenbeschleunigern in der Quantenphysik wie beim CERN. Das Krasse ist, das seine Berechnungen trotzdem gestimmt haben, ohne das er es hätte in der Praxis überprüfen können.
 
  • Gefällt mir
Reaktionen: Trent
Kommando schrieb:
Es ist nicht kreativ. Es sucht nur eine passende Antwort.
Letztlich kommt es ja aufs Ergebnis an, und das entscheidet.
Der kreative Prozess zum Ergebnis hin, ist doch unwichtig.
Letztlich sucht der Mensch auf nur nach Antworten auf Fragen, die ihm gestellt werden.

Moritz Velten schrieb:
Vor ein paar Tagen war auf WDR 2 die Diskussion, dass KIs teilweise ganze Abiprüfungen oder Klausuren schreiben können.
Ki hat schon das Medizinstudium bestanden. Im ersten Versuch eher knapp. Nach einem Update war es besser als 90 % der Absolventen
https://www.express.de/panorama/kue...teht-medizin-pruefung-446999?cb=1680467813236
https://www.doctari.de/magazin/wiss...liche-intelligenz-schafft-examen-fur-medizin/
die alte Version (v.3) konnte noch keine Bilder verarbeiten. ChatGPT V4, die vor ca. einer Woche online gegangen ist, kann das.
Ergänzung ()

@SKu
der Punkt ist ja, das das System jetzt schon einem Großteil der Menschheit überlegen ist. Leute, die sicher nicht doof sind, weil sie Abitur und Co haben, versuchen sich reihenweise am Jurastudium, Medzinstudium. Scheitern, oder schaffen es knapp. Die dürften jetzt schon zum "intellektuell besseren" Teil der Menschen gehören, und hier ist ChatGPT schon fast konkurrenzfähig. Letztens hat das System das Medizinstudium hervorragend abgeschlossen. Für mich ist KI nicht erst dann eine Bedrohung für die Gesellschaft, wenn die besten der Besten geschlagen werden, sondern schon weit vorher. Was interessiert es, dass Kasparov vielleicht noch einen Computer schlägt, wenn es 99,999% der Menschen nicht schaffen. Das ist doch das Entscheidende.
 
Zuletzt bearbeitet:
Kann den Hype um die KI nicht verstehen. Ok, die Welt dreht sich weiter und die Programiertechnik auch. Das es kommt ist klar aber bis es vernünftig funktioniert dauert es wohl noch ein wenig....
 
Kettensäge CH schrieb:
Das Ganze ist nicht so einfach, weil wir hier technische Geräte wie den Computer mit der Biologie vergleichen.
Das ist richtig. Zudem muss man einschränken, dass wir Menschen hier versuchen, ein künstliches Ebenbild zu schaffen, welches kein von Grund auf selbstlernendes System ist. Wir trainieren mühseelig alle möglichen Verhaltensmuster "per Kommandozeile" ein, anstatt, dass sich KI selbstständig orientieren und sich Wissen vor einem realen Kontext in der Welt angeignen kann. Das eine ist ein handelndes Wesen, das andere höchstens eine clevere, enzyklopädische Datenbank ohne Bezug zur Realität. Daher können uns Maschinen auch noch nicht verstehen, weil sie keinen Sinn (keine Sensoren) für Realität haben. Ihnen bleibt daher nur, uns so gut wie möglich aus den "toten", ungeordneten Datensätzen heraus zu imitieren.

Der Durchbruch hin zur AGI (Artificial General Intelligence) wird denke ich nur über die Kognitionsforschung gemeistert werden können. Denn ohne Kognition gibt es keinen wirklichen Kontext im Handeln. Das sehen wir ja momentan sehr deutlich bei Modellen wie ChatGPT.

Kettensäge CH schrieb:
Es sind zwei Systeme, zwischen Rechenoperationen und dem Neuronalen Netzwerk.
Vielleicht sind Biologie und Algebra gar keine sich gegenseitig ausschließenden Medien. Nur ein Beispiel:

Brains and algorithms partially converge in natural language processing
Deep-Learning-Algorithmen, die darauf trainiert sind, maskierte Wörter aus großen Textmengen vorherzusagen, haben kürzlich gezeigt, dass sie Aktivierungen erzeugen, die denen des menschlichen Gehirns ähneln.
Aus unseren Analysen ergeben sich zwei wesentliche Erkenntnisse. Erstens: Die Ähnlichkeit zwischen den Algorithmen und dem Gehirn hängt in erster Linie von ihrer Fähigkeit ab, Wörter aus dem Kontext vorherzusagen. Zweitens zeigt diese Ähnlichkeit die Entstehung und Aufrechterhaltung von Wahrnehmungs-, lexikalischen und kompositorischen Repräsentationen in jeder kortikalen Region. Insgesamt zeigt diese Studie, dass moderne Sprachalgorithmen teilweise zu gehirnähnlichen Lösungen konvergieren und damit einen vielversprechenden Weg aufzeigen, die Grundlagen der natürlichen Sprachverarbeitung zu entschlüsseln.
Anmerkung: übersetzt mit DeepL.
 
Zuletzt bearbeitet:
Es ist halt keine starke KI, es ist nur, extrem disruptiv, da Dinge die vorhanden sind jetzt viel schneller für die meisten Menschen erreichbar sind und die Produktivität massiv ansteigt.
So einiges an Berufen kann schnell überflüssig werden.

Bsp. Mit Netflix starben so ziemlich alle Videoverleihfilialen, ohne das es groß bemerkt wurde, aus.
Derartiges kann viel stärker erneut passieren.

Ja das Wissen war vorher schon da, jeder konnte Klausuren / Abiprüfungen vorher schon "googeln". Aber, es ist jetzt 100x einfacher. Das ist wie Elons SpaceX oder Tesla, ja das gab es (Raumfahrt/E-Auto) davor schon, aber mit nur einem Impuls fällt die Ganze Branche um, da die Technik jetzt so weit ist und man Sie in diesen stark veralteten Branchen endlich nutzt um Kosten um Faktor 10 zu senken. Nur das es dieses mal viel schneller geht, da eben Software.

Diese Assistenz KI wird ebenfalls Forschern helfen stärkere KI zu entwickeln, bis es dann irgendwann soweit ist.

Eine echte starke KI wäre nicht nur ein wenig schlauer als Einstein.
Wir können uns wohl kaum vorstellen was eine echte starke KI anstellen könnte.
Der Film Transzendenz zeigt es zumindest im Ansatz, real wäre es aber vermutlich viel extremer. Bsp. Stichwort Börse.

Für eine starke KI fehlen noch viele (teilweise grundlegende) Durchbrüche.
Diese kann man nur schwer voraussagen.
 
Der Kabelbinder schrieb:
Das eine ist ein handelndes Wesen, das andere höchstens eine clevere, enzyklopädische Datenbank ohne Bezug zur Realität. Daher können uns Maschinen auch noch nicht verstehen, weil sie keinen Sinn (keine Sensoren) für Realität haben. Ihnen bleibt daher nur, uns so gut wie möglich aus den "toten", ungeordneten Datensätzen heraus zu imitieren.
Dem stimme ich zu und das ist sehr gut zusammen gefasst.

Man sieht es auch bei den Tieren, wie verschieden sie sind mit der Intelligenz. Mein Hund etwa ist wesentlich intelligenter als eine Ameise, aber weit weg vom Menschen. Die klügsten Hunderassen erreichen die Intelligenz eines kleinen Kindes. Affen und einige andere wie z.B. Tintenfische wiederum sind schon näher am Menschen, aber auch die können nirgendwo mithalten wenn es ernst wird.

Auch wenns ein wenig offtopic geht, die Intelligenz des Menschen ist, was ihm erlaubt so erfolgreich zu sein - etwa muss er nicht eine lange evolutionäre Anpassung durchmachen um für einen kühleren Lebensraum fit zu sein: Er nimmt einfach den Pelz eines gejagten Tieres als Kleidung und er nutzt Sachen wie Feuer alle Wärmequelle. Schon zur Urzeit war das so.

Aber zurück zur KI: Ich denke nicht, das wir es noch zu unseren Lebzeiten sehen werden, das die KI wirklich ein Selbstbewusstsein entwickeln kann, was richtiges Denken und bewusstes Handeln gemeinsam mit Gefühlen wie z.B. Freude oder Angst einher geht, also mit dem Empfinden von Schmerzen und der Angst vor dem eigenen Tod.

Dem Computer ist das nicht bewusst, wenn du ihn ausschaltest und in seine Einzelteile zerlegst, dann sagt er nicht "Ich will aber nicht sterben". Er ist letztendlich eine Maschine.

Zu den konkreten Gefahren: Ich sehe keine Gefahren, solange man nicht den Klassiker aus Terminator macht, mit einem System wie Skynet die Atomwaffen zu übergeben. Eine KI würde nämlich unter gewissen Umständen davon Gebrauch machen, wenn die Parameter und die Algorithmen es fordern. Ich denke aber nicht, das der Mensch so dumm sein wird.

Man muss aber auch wissen, es gab und gibt natürlich Vorläufer solcher Systeme: Die Sowjetunion hatte im Kalten Krieg das sog. System der "Toten Hand": Das war ein System das wenn es aktiv war, auf Transmission von codierten Nachrichten gewartet hat. Fallen diese aus und über eine längere Zeit kommt keine Nachricht mehr, dann ist das System so programmiert, das es die sowjetischen Atomwaffen auf Ziele in Amerika abfeuert.

Die Russen haben das gemacht, um einem möglichen Erstschlag vorzubeugen: Hätte der Westen sowohl die Regierung wie auch das Oberkommando der Armee ausgeschaltet, wäre das System in der Lage gewesen, dennoch einen Vergeltungsschlag auszuführen.

Ich bin mir sicher, die heutigen Systeme haben solche Sachen - nur werden sie nicht aktiv sein in Friedenszeiten.
 
Kettensäge CH schrieb:
Das Ganze ist nicht so einfach, weil wir hier technische Geräte wie den Computer mit der Biologie vergleichen. Beide Systeme haben ihre Vor- und Nachteile. Wenn ich etwa was altes von einer uralten Simpsons-Folge der 90er erzähle, wird sich dein Gehirn erinnern und blitzschnell die Daten aus dem Gedächtnis hervorkramen. Der Computer hingegen müsste die Episodenliste durchgehen und abgleichen, bis er die Folge findet.
Wenn man diese Simpson Folge nur einmal im Leben, nämlich in den 90ern, gesehen hat wird sich ein Mensch normalerweise nicht an die komplette Folge erinnern können. Das woran man sich erinnert ist teilweise nicht richtig, weil Folgen durcheinander gebracht werden indem über die lange Zeit im Kopf Szenen hinzugefügt wurden die es so vielleicht in gar keiner Folge gegeben hat. Diese Szenen kamen dann in anderen Serien vor oder sind einfach der eigenen Fantasie entsprungen.

Die bltzschnellen Daten aus dem Gedächnis, besonders alte Erinnerungen, sind also häufig fehlerhaft.
 
Zuletzt bearbeitet:
edenjung schrieb:
Und auch Oppenheimer erkannte beim ersten Test der Atombombe (Trinity) das er ein Monster erschaffen hat [...]
"Now I am become Death, the destroyer of worlds."
(Aus einer der wichtigsten Schriften der Hindus; der Name ist mir leider entfallen)

Das kam ihm angeblich nach dem Trinity-Test in Gedanken, zumindest gab Oppenheimer das in einem Interview in den 60ern so an.

Und KI sollten wir ähnlich betrachten wie Oppenheimer seine "Schöpfung", nur eben bevor man deren Macht entfesselt.
 
  • Gefällt mir
Reaktionen: edenjung
Kettensäge CH schrieb:
Aber zurück zur KI: Ich denke nicht, das wir es noch zu unseren Lebzeiten sehen werden, das die KI wirklich ein Selbstbewusstsein entwickeln kann, was richtiges Denken und bewusstes Handeln gemeinsam mit Gefühlen wie
z.B. Freude oder Angst einher geht, also mit dem Empfinden von Schmerzen und der Angst vor dem eigenen Tod.
Hmm ob eine eigenständig denkende KI wirklich das Ziel hätte, den Menschen nachzuahmen ? :evillol:
Die hat keine begrenzte Lebenszeit wie wir mit ~100 Jahren sondern kann quasi endlos existieren
also wozu Angst ? Die wird den Mensch wie ein Haustier sehen und sich auf machen ins Universum.
 
Averomoe schrieb:
Kündigt braucht man aber keinen Anwalt mehr im normalen Prozess sondern eine KI entwirft Schriftsätze und Anträge und könnte sogar im Prozess live dabei sein und den Verbraucher sagen, was zu tun ist.

Nein ^^
Die KI ist nicht prozessfähig und jedwede Rechtsberatung durch sie ist hier illegal. Das ist sogar der Fall, wenn ein Jura-Student seine Einschätzung zu einer Sachlage innerhalb der Familie abgibt.
Der Anwalt spart sich damit die Sekretärin, aber den Menschen bleibt nichts anderes übrig, diesen trotzdem zu Rate zu ziehen, selbst wenn der bloß noch das vorliest was die KI ausspuckt. Die Judikative schützt sich selbst vor solchen Veränderungen, sie machen die Regeln und legen sie aus. Nicht umsonst gilt für alle das Bachelor und Master-System, aber mit einem LLM OHNE doppeltes Staatsexamen kann man sich hier trotzdem den Allerwertesten damit abwischen ^^
 
  • Gefällt mir
Reaktionen: Averomoe
Dazu muss man erstmal festlegen was eine Beratung ist und ob eine KI überhaupt eine "beratende" Instanz darstellen kann. Sie ist schließlich keine natürliche Person und nicht Mal lebendig.

Oder anders gesagt: Wenn ich einem Affen die Frage Stelle ob Nestlé Wasser klaut und ich die verklagen sollte, dazu zwei Bananen mit "ja" und "nein" beschrifte, von dem sich der Affe eine aussucht, hat er sich dann der illegalen Rechtsberatung strafbar gemacht?

Genau genommen kann ich mir auch einen Magic 8-Ball als Berater holen, welcher sich auch nicht Strafbar machen kann.
 
H3llF15H schrieb:
Ein Arbeitskollege nutzt die Technologie bereits um ausführliche Antworten in Mails zu verfassen.
Wie muss ich mir das vorstellen, zum Beantworten von Emails werden doch sicherlich Kenntnisse über interne Ablaufe oder spezifisches Wissen benötigt. Wie kann eine KI sinnvoll Emails beantworten, wenn zum Training nur im Internet frei zugängliche Informationen verwendet werden?
 
  • Gefällt mir
Reaktionen: mental.dIseASe und Kommando
Piranha771 schrieb:
Dazu muss man erstmal festlegen was eine Beratung ist und ob eine KI überhaupt eine "beratende" Instanz darstellen kann. Sie ist schließlich keine natürliche Person und nicht Mal lebendig.

Dazu greift man sich die dahinter stehende juristische oder natürliche Person. Genauso funktioniert das auch mit den Urheberrechten. Einfach alles was ChatGPT erstellt gehört OpenAI und ist diesem Konzern zuzurechnen. Also bietet dieser dann eine illegale Rechtsberatung an. Was glaubst du warum das auch in jedem Online-Forum, wie hier, untersagt wird?
Im Ergebnis wird das denke ich so laufen: Für Laien werden die Konzerne, die AI-Produkte anbieten, die juristischen Aspekte entschärfen, um Ärger aus dem Weg zugehen. Für Anwälte hingegen wird es einen Zugang geben, damit diese es in vollem Umfang nutzen können.
Also diese Story mit dem KI-Anwalt, wie in den USA, kann man hier als SciFi abtun. Dazu wird es so in der Form hier nicht kommen ^^
 
Zuletzt bearbeitet:
0ssi schrieb:
Hmm ob eine eigenständig denkende KI wirklich das Ziel hätte, den Menschen nachzuahmen ? :evillol:
Die hat keine begrenzte Lebenszeit wie wir mit ~100 Jahren sondern kann quasi endlos existieren
also wozu Angst ? Die wird den Mensch wie ein Haustier sehen und sich auf machen ins Universum.
Wenn die KI ein Selbstbewusstsein entwickeln würde, würde dies auch die Angst und das Wissen vor dem eigenen Ende, der Vergänglichkeit des Lebens bedeuten - selbst wenn die KI theoretisch unsterblich wäre, könnte immer noch jemand den Stecker ziehen.

Man muss aber auch sagen, das viele Baupläne der Natur komplett anders sind als der Mensch und das nur wenige Tiere in der Lage sind, den Tod als Prinzip zu verstehen.

Die Ameisen sind ein gutes Beispiel für Kollektive-Intelligenz, der sog. "Hive-Mind", wo die einzelnen Ameisen kaum eine Bedeutung hat und es um die Masse geht, das jede Ameise das tut was sie tun muss um das Kollektiv zu stützen.

Man muss also bedenken, das eine KI nicht unbedingt eine Persönlichkeit entwickeln müsste, sondern wohl eher eine Art Hivemind wäre wenn sie fortschrittlich genug werden würde.
 
Zurück
Oben