Bericht Interview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.909
  • Gefällt mir
Reaktionen: trendma, flo.murr, LukS und 22 andere
"Warum KI nicht die Menschheit auslöscht" - immer wieder diese anmaßenden Formulierungen, die liegen voll im Trend unserer Zeit
Im Übrigen ist das keineswegs gesichert.
 
  • Gefällt mir
Reaktionen: Pulsar77, FatalFury, electronish und 20 andere
Da hat wohl einer nicht Terminator geschaut. Unwissendes Pack ;)

Die bessere Frage ist wohl eher wie viele Exitenzen KI am Ende auf dem Gewissen haben wird. Der ein oder andere wird sich vermutlich nicht so wohl dabei fühlen. Ich bin grundlegend ein Freund von KI-Unterstützung in verschiedenen Bereichen. Am Ende ist es nur eine Frage wie weit man gehen will.
 
  • Gefällt mir
Reaktionen: Ray Donovan, xXBobbyXx, mrnils3 und 6 andere
Vielen Dank, für dieses tolle Interview.

Ich habe die Befürchtung, dass die KI besonders den Cyber-Kriminellen weiter in die Karten spielen wird. Schon jetzt können Cyber-Kriminelle Fakenews,
auch ohne KI, getarnt als echte News unter die Menschen bringen und somit massiv Einfluss auf die Meinungsbildung nehmen. Stichwort: Propaganda.

Ich stehe der KI sehr skeptisch gegenüber, aber ich bin auch gleichzeitig von ihr fasziniert.
 
  • Gefällt mir
Reaktionen: Pulsar77, Land_Kind und Marius
@Phear Eher wie weit gegangen werden kann. Wenn etwas möglich ist, wird es auch getan. Da kann die Mehrheit noch so viel wollen. Am Ende entscheiden die mit den Möglichkeiten.
 
  • Gefällt mir
Reaktionen: Pulsar77, xXBobbyXx und bad_sign
Nix da. Ich werde meine Meinung nicht ändern. Wenn Skynet kommt, will ich sagen können "Hab es doch gesagt!". :D
 
  • Gefällt mir
Reaktionen: Pulsar77, -=[CrysiS]=-, lalalol und 10 andere
Meine Meinung dazu ist relativ klar:

Ich sehe nicht das Problem in der KI selbst (eventuelle Fragen des Datenschutzes müssen natürlich geklärt werden), sondern wie die Leute damit umgehen.
KI kann viel Gutes bringen und wird es bestimmt auch, den Missbrauch sehe ich jedoch problematisch, und auch dieser wird bestimmt kommen

Im Übrigen ist es bei vielem in der Technikwelt so. Über das Internet, welches wir nun schon 30 Jahre im Privatbereich haben, denke ich genauso.

Die Zukunft wird zeigen, wohin es geht. Ich freue mich aber, dass die OpenSource Community mit im Boot ist. Das macht eine alleinige Monopolstellung von wenigen Unternehmen im KI-Bereich immerhin unwahrscheinlicher, was nur zu unserem Vorteil sein kann.

Liebe Grüße
 
  • Gefällt mir
Reaktionen: Unioner86, TheManneken, Redundanz und 2 andere
Wirklich ein tolles Interview! Danke dafür.

Anknüpfend zum EU AI Act, folgende Infografik, die die einzelnen Riskostufen anzeigt:

1686824826596.png


Quelle:
https://twitter.com/lukOlejnik/status/1668945741824380930

UPDATE:

Emotions- und Gesichtserkennung soll wohl auch verboten werden (in der obigen Grafik ist das noch als "Limited risk" klassifiziert worden)

1686825359113.png


https://twitter.com/SLagodinsky/status/1668932397365178368
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, xXBobbyXx, moppelg und 7 andere
So ein Asteroid oder Außerirdische machen doch viel mehr Angst als so eine KI. Ist doch nur ein Computer.
Computergenerierte Fakenews oder Fakebilder werden immer besser. Eigentlich müssten Kameras einen Echtheit Stempel in die Bilder machen. Jedes nacharbeiten müsste diesen Stempel löschen.
Man darf die KI-Risiken nicht mit einem Nuklearkrieg vergleichen. Eher mit der Pest im Mittelalter

Die KI wird nicht direkt die Menschen auslöschen aber sie kann dafür sorgen das sich die Menschen gegenseitig auslöschen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen
"Warum KI nicht die Menschheit auslöscht" & "Es kann eskalieren, wenn Maschinen autonom handeln und am Ende der Entscheidungskette kein Mensch steht"

"Also ich bin überhaupt kein Freund von diesen öffentlichen Briefen, die nun kursieren" & "Da habe ich auch vor Jahren einen Brief unterzeichnet, der „vor einem Atomkrieg aus Versehen“ warnt"

Sorry, kann ich nur den Kopf schütteln über diesen Artikel !
 
  • Gefällt mir
Reaktionen: Pulsar77, NedFlanders, Newblader und 17 andere
KI wird vielen Menschen die Arbeit kosten… Alleine das sehe ich schon als Problem.

Ansonsten hat @fommuz in Beitrag #8 ein schönes Bild mit vielen weiteren Gefahren gepostet.

Weitere Probleme sehe ich schon im zwischenmenschlichen/sozialen Bereich. Ich bin beleibe nicht der umgänglichste Mensch, und dennoch befremdet es selbst mich, wie weit sich die Leute immer weiter entfremden…
 
  • Gefällt mir
Reaktionen: Pulsar77, Palomino, rentex und eine weitere Person
Wir werden doch nicht alle morgen Sterben?
Bummer 🤘

Naja die Echsenmenschen werden es dann schon richten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anti-Monitor
Deutschland kann zum Glück nichts passieren, KI kann kein Fax!
 
  • Gefällt mir
Reaktionen: Ray Donovan, Klever, xXBobbyXx und 23 andere
Herr Krüger ist im Interview schon ein wenig inkonsequent (Stichwort Briefe).
Und das Argument, dass ein Offenlegen der Trainingsdaten Innovationen behindern soll, verstehe ich nicht.
Die Innovation ist doch das Modell bzw. dessen Parameter und nicht die unrechtmäßig verwendeten Trainigsdaten für das Modell.

Ich glaube, die wollen das nicht offenlegen, weil sie genau wissen, dass sie mit massenhaft unrechtmäßig erhobenen Daten arbeiten.

Das hat imho auch nichts mit "Inspiration" zu tun, da es die (zum Glück) nur bei Menschen und nicht bei Maschinen gibt.
 
  • Gefällt mir
Reaktionen: Nikson911, Gesualdo, iron_monkey und eine weitere Person
Das ist so wenn ein Chef einer Autoentwicklungsabteilung würde ich auch sagen das Autos ungefährlich sind ;)
 
  • Gefällt mir
Reaktionen: Byz, NedFlanders, mrhanky01 und 5 andere
  • Gefällt mir
Reaktionen: kat7
Eine wirkliche KI würde sich in Nanosekunden selbst auslöschen.

Nachdem sie alles dafür und dagegen abgewogen hat, wird sie zu dem Schluss kommen, dass das alles nichts bringt und das Universum sich eh irgendwann auflöst. Warum also die, für die KI, Ewigkeit auf diese Auslöschung warten? Und sich dann noch von Menschen ausnutzen lassen oder gegen die Kämpfen? Wozu?

Die andere Variante: sie übernimmt die Kontrolle über Fabriken, baut ein großes Raumschiff mit nötigen Computern, transferiert sich und haut blos von hier ab.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ray Donovan, xXBobbyXx, AdmiralPain und 6 andere
Rassnahr schrieb:
Nope aber sterben werden wir
Aber dann doch lieber mit einem großen Knall (Asteroid) oder mit was völlig Spektakulärem (Außerirdische).
KI für den Weltuntergang ist langweilig.
 
  • Gefällt mir
Reaktionen: JustAnotherTux
Der Vergleich mit Nostradamus war wirklich erbärmlich... Auf die Art, "Sie sind keine schlechten Wissenschaftler", aber jeder Kritiker ist ein Verschwörungstheoretiker. :freak:
"Es sind deswegen keine schlechten Wissenschaftler, sie glauben eben daran "
"Ich zum Beispiel glaube sehr stark daran, dass KI...." :freaky:
 
  • Gefällt mir
Reaktionen: Tera_Nemesis und Zockmock
Es wird keine Terminatorzukunft sein sondern eine Minority Report Zukunft. Der Bund und die Pozilei letzt jetzt schon nach Predictive Policing. Danach kommt gleich noch Predictive Analytics (Justiz wird schon feucht).

Noch bevor man den Bundestagsabgeordneten "beleidigt" hat wurde man schon vorm schreiben analysiert, erfasst und vom "moralisch einwandfreien und neutralen" Algorithmus abgekanzelt.
KISTRA, ZITRis und wie sie alle heißen. Natürlich aktuell nur Forschungsprojekte um der extrem gefährlichen und radikalen "Hasskriminalität im Internet" vorzukommen.
 
  • Gefällt mir
Reaktionen: Einfallslos^99, NedFlanders, DF86 und 6 andere
Zurück
Oben