Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtInterview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft
Viele Weltuntergangswarnungen kursieren angesichts der aktuellen KI-Entwicklung. Welche Risiken tatsächlich im Zeitalter von ChatGPT und Bildgeneratoren wie MidJourney bestehen und was für eine Regulierung sinnvoll ist, bespricht ComputerBase im Interview mit Prof. Antonio Krüger, dem CEO vom Deutschen Forschungszentrum für KI.
"Warum KI nicht die Menschheit auslöscht" - immer wieder diese anmaßenden Formulierungen, die liegen voll im Trend unserer Zeit
Im Übrigen ist das keineswegs gesichert.
Da hat wohl einer nicht Terminator geschaut. Unwissendes Pack
Die bessere Frage ist wohl eher wie viele Exitenzen KI am Ende auf dem Gewissen haben wird. Der ein oder andere wird sich vermutlich nicht so wohl dabei fühlen. Ich bin grundlegend ein Freund von KI-Unterstützung in verschiedenen Bereichen. Am Ende ist es nur eine Frage wie weit man gehen will.
Ich habe die Befürchtung, dass die KI besonders den Cyber-Kriminellen weiter in die Karten spielen wird. Schon jetzt können Cyber-Kriminelle Fakenews,
auch ohne KI, getarnt als echte News unter die Menschen bringen und somit massiv Einfluss auf die Meinungsbildung nehmen. Stichwort: Propaganda.
Ich stehe der KI sehr skeptisch gegenüber, aber ich bin auch gleichzeitig von ihr fasziniert.
@Phear Eher wie weit gegangen werden kann. Wenn etwas möglich ist, wird es auch getan. Da kann die Mehrheit noch so viel wollen. Am Ende entscheiden die mit den Möglichkeiten.
Ich sehe nicht das Problem in der KI selbst (eventuelle Fragen des Datenschutzes müssen natürlich geklärt werden), sondern wie die Leute damit umgehen.
KI kann viel Gutes bringen und wird es bestimmt auch, den Missbrauch sehe ich jedoch problematisch, und auch dieser wird bestimmt kommen
Im Übrigen ist es bei vielem in der Technikwelt so. Über das Internet, welches wir nun schon 30 Jahre im Privatbereich haben, denke ich genauso.
Die Zukunft wird zeigen, wohin es geht. Ich freue mich aber, dass die OpenSource Community mit im Boot ist. Das macht eine alleinige Monopolstellung von wenigen Unternehmen im KI-Bereich immerhin unwahrscheinlicher, was nur zu unserem Vorteil sein kann.
So ein Asteroid oder Außerirdische machen doch viel mehr Angst als so eine KI. Ist doch nur ein Computer.
Computergenerierte Fakenews oder Fakebilder werden immer besser. Eigentlich müssten Kameras einen Echtheit Stempel in die Bilder machen. Jedes nacharbeiten müsste diesen Stempel löschen.
Man darf die KI-Risiken nicht mit einem Nuklearkrieg vergleichen. Eher mit der Pest im Mittelalter
Die KI wird nicht direkt die Menschen auslöschen aber sie kann dafür sorgen das sich die Menschen gegenseitig auslöschen.
"Warum KI nicht die Menschheit auslöscht" & "Es kann eskalieren, wenn Maschinen autonom handeln und am Ende der Entscheidungskette kein Mensch steht"
"Also ich bin überhaupt kein Freund von diesen öffentlichen Briefen, die nun kursieren" & "Da habe ich auch vor Jahren einen Brief unterzeichnet, der „vor einem Atomkrieg aus Versehen“ warnt"
Sorry, kann ich nur den Kopf schütteln über diesen Artikel !
KI wird vielen Menschen die Arbeit kosten… Alleine das sehe ich schon als Problem.
Ansonsten hat @fommuz in Beitrag #8 ein schönes Bild mit vielen weiteren Gefahren gepostet.
Weitere Probleme sehe ich schon im zwischenmenschlichen/sozialen Bereich. Ich bin beleibe nicht der umgänglichste Mensch, und dennoch befremdet es selbst mich, wie weit sich die Leute immer weiter entfremden…
Herr Krüger ist im Interview schon ein wenig inkonsequent (Stichwort Briefe).
Und das Argument, dass ein Offenlegen der Trainingsdaten Innovationen behindern soll, verstehe ich nicht.
Die Innovation ist doch das Modell bzw. dessen Parameter und nicht die unrechtmäßig verwendeten Trainigsdaten für das Modell.
Ich glaube, die wollen das nicht offenlegen, weil sie genau wissen, dass sie mit massenhaft unrechtmäßig erhobenen Daten arbeiten.
Das hat imho auch nichts mit "Inspiration" zu tun, da es die (zum Glück) nur bei Menschen und nicht bei Maschinen gibt.
Eine wirkliche KI würde sich in Nanosekunden selbst auslöschen.
Nachdem sie alles dafür und dagegen abgewogen hat, wird sie zu dem Schluss kommen, dass das alles nichts bringt und das Universum sich eh irgendwann auflöst. Warum also die, für die KI, Ewigkeit auf diese Auslöschung warten? Und sich dann noch von Menschen ausnutzen lassen oder gegen die Kämpfen? Wozu?
Die andere Variante: sie übernimmt die Kontrolle über Fabriken, baut ein großes Raumschiff mit nötigen Computern, transferiert sich und haut blos von hier ab.
Der Vergleich mit Nostradamus war wirklich erbärmlich... Auf die Art, "Sie sind keine schlechten Wissenschaftler", aber jeder Kritiker ist ein Verschwörungstheoretiker.
"Es sind deswegen keine schlechten Wissenschaftler, sieglauben eben daran "
"Ich zum Beispiel glaube sehr stark daran, dass KI...."
Es wird keine Terminatorzukunft sein sondern eine Minority Report Zukunft. Der Bund und die Pozilei letzt jetzt schon nach Predictive Policing. Danach kommt gleich noch Predictive Analytics (Justiz wird schon feucht).
Noch bevor man den Bundestagsabgeordneten "beleidigt" hat wurde man schon vorm schreiben analysiert, erfasst und vom "moralisch einwandfreien und neutralen" Algorithmus abgekanzelt.
KISTRA, ZITRis und wie sie alle heißen. Natürlich aktuell nur Forschungsprojekte um der extrem gefährlichen und radikalen "Hasskriminalität im Internet" vorzukommen.