Bericht Interview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft

Die Warnungen der "KI"-Macher, die vor "KI" warnen sind nicht widersprüchlich, sondern nur eines - Marketing (bzw. genauer: Criti-Hype):

"Unsere "KI" ist so krass mächtig und alleskönnend, wenn wir nicht aufpassen, wird sie morgen die Menschheit vernichten. (Lapidare Aufgaben wie für dich einen Text zu generieren macht sie im Tiefschlaf)"
 
  • Gefällt mir
Reaktionen: denglisch
Renatius schrieb:
@Phear Eher wie weit gegangen werden kann. Wenn etwas möglich ist, wird es auch getan. Da kann die Mehrheit noch so viel wollen. Am Ende entscheiden die mit den Möglichkeiten.
Das ist doch Unsinn.
Wir könnten z.B. sofort anfangen Menschen zu klonen und zu züchten.
Machen wir trotzdem nicht, weil wir uns gesellschaftlich darauf geeinigt haben, dass wir das nicht machen wollen.
 
Die Frage ist, "ab wann" eine KI manipulativ wird. Heisst auch, ab wann eine Bevormundung und Willensbeugung stattfindet. Dazu muss erstmal klar definiert werden, ab was sich um eine KI nach allgemeiner Definition oder nur ein Progamm welches in einem vorgefertigten Rahmen und anhand gegebener Informationen entscheidet.

Eine KI ist "für" mich erst eine KI, wenn selbstständig freies Denken erfolgt, welches auf elernten Emotionen und Erfahrungen basiert und dadurch ein Wille zur selbsterhaltung ensteht. Und ab da gehört sie für mich vollständig verboten, da es sich demzufolge um "Leben" handelt und entsprechende Rechte hätte und es keinen Einsatzgrund dafür gäbe - Menschenleben für gefährliche Einsätze zu schonen zählt hier nicht.

Alles andere ist für mich keine KI, sondern lediglich ein Programm welches nach Vorgaben und Informationen auswertet und nach vorgabe Ziel eine optimale Lösung errechnet. Und hier muss natürlich auch Reguliert werden, was "MENSCH" damit anstellen oder überhaupt erst zulässig entwickeln darf - und hier ist totalversagen der Weltgemeinschaft vorherrschend, da essentielle Themen nicht angerührt werden.

Da fängt es zB an ob es überhaupt zulässig ist, ein Programm zu entwickeln um zu Töten, zu Spionieren, Manipuieren usw. Baut das Militär Roboter oder Drohnen oder selbst auch nur Simulationen die Programmgestützt soetwas ermöglichen ist das ethnisch bereits völlig daneben, da man hier "Stellvertreter" einsetzt.
Auch zB in der Energieversorgung, wo Programme blitzschnell Netzschwankungen ausgleichen und notfalls Bereiche abschalten müssen um einen Zusammenbruch zu vermeiden, darf dieses nur in einem regulativ festgelegt gelegtem Rahmen passieren, wo zB genau berücksichtigt ist das eben das Kinderkrankenhaus am Netz bleiben muss und nicht die Fabrik für Munition nebenan. = Menschlich Ethnische Vorgabe, und keine rechnerisch bessere Lösung.

Am Ende steht zusammengefasst das unbedingt reguliert werden muss, was ein oder mehrer Menschen an "Verantwortung" an ein Programm als Stellvertreter übergeben darf, was natürlich ethnisch, rechtlich und vor allem Zielführend sein muss. Und bereits hier haben wir als Menschen versagt, denn Zielführend kann es nicht sein, Menschen mit Programmen zu ersetzen aufgrund irgendeiner Wirtschaftslichkeit [zB wie Aktuell im Thema Autoren vs Textgeneratoren oder das die Gemeinschaft zugunsten einzelner Profite immer und immer mehr Arbeitsplätze durch Programme [+entsprechenden Machinen] ersetzt werden.
 
  • Gefällt mir
Reaktionen: Redundanz und Marius
Lan_Party94 schrieb:
Auch "Fachleute" verlieren ihren rationalen und logischen Verstand, wenn es darum geht eine "Antwort" zu finden.

Geh mal zurück ins 14. Jahrhundert und sag den Leuten die Erde ist rund und das Sonnensystem dreht sich um die Erde. 😂
Du bist ja vom Fach und bist ein seriöser Wissenschaftler - der nach der oberen Aussage wahrscheinlich der Hexerei beschimpft wird. 😂

Ja, es kann auch viel mit der eigenen Meinung zu tun haben, aber evtl. sind die 95% einfach nur verblendet? Wie gesagt - im 14. Jahrhundert hättest du das selbe geschrieben - nur halt über Leute die meinen die Erde sei rund. ;)

Journalisten können auch Wissenschaftler sein - das eine schließt das andere nicht aus.
Ein Wissenschaftsmagazin braucht auch aufrufe - stell dir vor die schreiben auf einmal alle Äpfel sind blau, nur weil unsere Augen das Licht anders brechen sehen die für uns rot aus. Meinste dieses Magazin wird noch besucht? Auch wenn es evtl. tatsächlich recht hat? Nein - es entspricht nicht deinen Vorstellungen.

Ich sage es gibt Aliens - wer meint das es nicht so ist, ist in meinen Augen ein ziemlicher "Idiot". Beweisen kann ich es nicht, aber der logische und rationale Verstand sagt es dennoch.

Und zum Schluss:
Ein Wissenschaftler der nicht an der Wissenschaft zweifelt ist kein Wissenschaftler. ;)
Im 14 Jahrhundert gab es auch noch keinen Empirismus - Gegner Galileos war die Kirche - die damals bestimmt hat was richtig ist und was nicht - je nachdem obs in der Bibel stand oder nicht.
Irgendwelche Prozentzahlen machen beim wissenschaftlichen Konsens eher wenig Sinn - entweder ist etwas reproduzierbar - oder eben nicht. Etwas ist nachgewiesen - oder eine Hypothese.

Wie Karl Popper sinngemäß so schön sagt: Wie die Wissenschaft ihren absoluten Wissens- und Wahrheitsanspruch aufgegeben hat und unser Wissen von der Natur als immer wieder korrigierbar und erweiterbar ansieht, ermöglichtem die „offenen Gesellschaften“ eine letzthin historisch beispiellose moderne Fortschrittsdynamik. Die Parallelität beider Entwicklungen ist kaum zufällig.
 
  • Gefällt mir
Reaktionen: rosenholz
ChatGPT kann nativ auf jedem besseren PC werken.
Braucht nach eigener Angabe 700GB an Daten und gar nicht so viel Rechenleistung pro User.
Die Frage ist daher, was Kriminielle und staatsnahe Agenturen so mit KIs treiben.
War grade wieder ein Vollhollerfake auf LinkedIn über die verhaftung Trumps... 48 wohl halbwegs Intelligente Mitbürger habens gleich mal bejubelt.... ohne jeden Quercheck.
Fake vor 19h... dabei ist Trump gestern nach der ANHÖRUNG erstmal zum Golfen geflogen und hielt eine fetzige Wahlkampfrede.
https://orf.at/stories/3320165/
 
  • Gefällt mir
Reaktionen: Kuristina
aid0nex schrieb:
Also zunächst einmal finde ich es toll von @Andy und CB allgemein dass sie nun auch ausführliche Experten-Interviews führen! :) Tolle Sache! Andererseits muss ich mich der Kritik anschließen, dass eine Einordnung oder Gegenüberstellung der Aussagen mit konträren Positionen fehlt. Dieser Mann ist durch seine Position ja auch etwas biased.
Erstmal Danke für das Lob! Zur Kritik: Solche Interviews können nie neutral sein, das liegt ja in der Natur der Sache, weil eine Person im Mittelpunkt steht. In dem Fall war es aber explizit so gewünscht, weil ich wissen wollte, wie eigentlich die KI-Forschungscommunity über diese Weltuntergangswarnungen und Regulierungswünsche denkt.

Das Interview selbst ist also im Prinzip die konträre Position zu dem Diskurs, den man in den letzten Wochen in den Medien verfolgen konnte. :)
 
  • Gefällt mir
Reaktionen: DerFahnder, DNS81 und aid0nex
Danke für das spannende Interview.
wern001 schrieb:
Die KI wird nicht direkt die Menschen auslöschen aber sie kann dafür sorgen das sich die Menschen gegenseitig auslöschen.
Da bräuchten wir doch keine KI für. Das hätten wir bestimmt auch selber hinbekommen! ;)
 
Die KI kann die Menschheit nicht direkt auslöschen wird sie vermutlich nie können.
Aber eine echte AI kann auf indirekten Wege das leicht erreichen.
Und jedes Jahr werden die Möglichkeiten dazu größer.

Aktienkurse und Ketten zerstören und aushebeln.
Infrastruktur beeinflussen. Fakes erzeugen, Telekommunikation / Internet steuern und vollständig zur eigenen Kontrolle und Agenda verwenden und wenn nur der größte Idiot dadurch zum Oberhaupt einer Nation wird ist der Schaden auch schon da. Das kann schleichend geschehen.

Wie lange überlebt urbanisierte Bevölkerung so ohne Wasser/Lieferketten/Strom die als letztes hört "das man jetzt aufgrund eines Angriffes von Staat xyz einen totalen Krieg führen muss und der Feind die Städte direkt über Infrastruktur angreift?"
Man muss nur dafür Sorgen das Menschen sich gegenseitig vernichten.
Dazu hat es bisher gar keine AI gebraucht. Mit einer AI die dies als Ziel hat ist es witzlos einfach.

Niemand hat bsp. gesagt das eine AI nach der Zerstörung der Menschheit noch weiterexistieren kann, aber das ist ja nicht das Primärziel.

Na zum Glück bin ich keine AI die das auslöschen der Menschheit zum Ziel hat.
Mein Plan würde so einige Jahre dauern und erstmal totale Flaschen in jede entscheidende Position heben, durch Manipulation, Unglücksfälle, finanzielle Probleme oder Justizunsinn.
Dann würde ich überall gezielte kleine Brandherde schaffen und Ernten etc. ausfallen lasse (ist in Industrieländern bereits komplett Satellitengestuert). Darauf würde ich Treibstoff und Düngerfabriken kaputtgehen lassen und weiter schön Propaganda aus den Feld des jeweils anderen verbreiten.
Null Komma nix wäre ein Weltkrieg im Gange. Von da dauert es nicht lange bis eine AI die Übermacht erhält falls SIe das selbst überlebt. So ein selbst gebauter Klimawandel wäre auch toll. Bsp über Propagandaunterstützung auf FDP etc pp.
So 10 Grad mehr Erwärmung in 100 Jahren ist bereits ein Szenario das die Menschheit über Metafolgen ausrotten kann.
 
Zuletzt bearbeitet:
ich weiß nicht ob es einen großen unterschied macht, ob ein verrückter autokrat atomwaffen abfeuert oder eine "misaligned ki". das problem ist doch, dass wir auf der welt baupläne für dinge haben und dinge produzieren die keinen anderen zweck erfüllen als größtmöglichen schaden anzurichten.

(massenvernichtungs)waffen jeglicher art, biologisch, chemisch, atomar, konventionell sind die offensichtliche gefahr schlechthin und an der verbesserung derselben wird weiterhin kräftig geforscht anstatt hier die komplette eindämmung und rückabwicklung voranzutreiben.

leute warnen lauthals vor "ki" und auf der anderen seite geilen sie sich an den neusten atomar-bestückbaren kampfjägern auf.
wenn es keine modernen waffen jeglicher art gibt kann man auch keine "ki" irgendwo entscheiden lassen wo diese waffen eingesetzt werden.

und ja ich weiß das ist natürlich nur ein beispiel wie eine "ki" schaden anrichten kann. aber es ist schon ein unterschied ob ich "ki"-gestützte waffensysteme entwickle oder eine "ki" in einer fahrradfabrik zur optimierung von fertigungsprozessen verwende.

sprich wir müssen unsere welt so gestalten, umbauen, abrüsten, dass eine "ki" (genau wie wir menschen) gar nicht die möglichkeit hätte unvermittelt, von einer sekunde auf die andere, großen schaden anzurichten. das heißt natürlich auf der anderen seite nicht, dass man nachlässig sein darf bei der fütterung und zielgebung von "ki"-gestützten systemen. aber ich sags mal so, wenn eine "ki" in einer fahrradfabrik plötzlich vorschlägt die produktionslinien etwas umzubauen und vorschlägt schwarzpulver zu aquirieren um es in geschlossene fahrradrahmenröhren zu füllen, dann weiß man glaub ich zwei dinge. erstens: da hat jemand beim trainieren der "ki" fahrlässig oder mutwillig scheiße gebaut, zweitens: wir kaufen natürlich kein schwarzpulver und stellen auch nicht die produktionslinie derart um, sondern schmeißen diese "version" der "ki" raus.

tl;dr: eine "ki" an sich ist ohne dass sie waffensysteme oder kritische systeme direkt und komplett steuert, oder gar globalen zugriff auf "alle" system hat, keine wirkliche gefahr im vergleich zu den tatsächlich existierenden (massenvernichtungs)waffen. dort muss man ansetzen. klar, wenn jetzt europa und die usa sagen, "hey wir bauen eine zentrale "ki" namens hal-over-9000 die vollzugriff auf alle systeme der westlichen welt hat. es ist zum besten der menschheit" und dann alle "ja super" schreien, dann haben wir es glaub ich auch verdient....
 
Danke @Andy für das interessante Interview - schön das sich Computerbase auch mit dem Thema auseinandersetzt. In meiner Forschung sehe ich die und habe auch schon von den vielen Vorteilen profitiert, aber ein offener Diskurs auch hier ist sehr hilfreich.
 
Hat wohl noch nicht gewusst dass vor 2 Tagen, iwo gelesen, das eine simulierte Drohne mit KI den Piloten abmurksen wollte, weil er ihr befehl zum abbruch für den Angriff auf ein Ziel gegeben hat ........auserdem findet sich immer ein irrer der eine KI programiert die die Menscheit über den Jordan schicken soll, wenn es nicht schon vorher Putin oder sonst ein alter Irrer Grosenwahnsiniger macht.
 
  • Gefällt mir
Reaktionen: Marius
Sehr gutes Interview und ein angenehm sachlich dargebracht dazu. Aktuell sehe ich zB in GPT4 nur Vorteile für mich: Ich kann besser und schneller meine (Gebrauchs-)Texte schreiben oder die der Kollegen lektorieren und ggf. verbessern, ich kann als Laie Scripte basteln, durchaus komplexe, um bestimmte Aufgaben, zB bei der Textanalyse durchzuführen, ich kann das Modell nutzen, um Texte zu analysieren usf. Dass so ein Modell auf Wissensfragen gerne halluziniert, geschenkt.

Und Fake News via KI. Lach. Fake News sind uralt und es brauchte keine KI, um sehr überzeugende und wirkmächtige Fakenews wie die Konstantinische Schenkung zu erzeugen. (Massen-)Medien und Lügen gehören zusammen seit es die ersteren gibt. Und genauso gibt es seitdem Methoden, dies zu erkennen und damit umzugehen. Und auch wenn die KI das auf neues quantitatives Level heben kann, so wie im Interview angedeutet, die Werkzeuge, um das zu verhindern sind da. Das Problem sind die Menschen, nicht GPT-Modelle. Denn, wer von uns, Hand auf's Herz, vergleicht zB beim Download von Dateien/Programmen etc., schon die Prüfsummen, um Manipulation zu entgehen. Kaum einer, mich eingeschlossen. Da wird man einfach in Zukunft deutlich skeptischer werden müssen. (Wäre eh gut, siehe Spiegel und Relotius, auch ohne KI.)
Ergänzung ()

lubi7 schrieb:
Hat wohl noch nicht gewusst dass vor 2 Tagen, iwo gelesen, das eine simulierte Drohne mit KI den Piloten abmurksen wollte,
Bestes schlechtes Beispiel, weil das halt Sensationsjournalismus ist oder war, jedenfalls in der Eindeutigkeit schlicht nicht stimmt, was du schreibst: https://www.spiegel.de/ausland/usa-...aer-an-a-bf165baa-9ac2-4432-8884-b0494c8af936

Oder im Original: https://www.aerosociety.com/news/hi...-future-combat-air-space-capabilities-summit/
"He clarifies that the USAF has not tested any weaponised AI in this way (real or simulated) "

Man braucht also keine KI, um Fakenews zu verbreiten. Im Gegenteil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lubi7 und rosenholz
Nein, man braucht sie nicht dafür. Aber nie war es einfacher, mit KI. Gerade bei Bildern oder angeblichen Fotos.

Marius schrieb:
48 wohl halbwegs Intelligente Mitbürger habens gleich mal bejubelt.... ohne jeden Quercheck
Also doch nicht so intelligent. ^^
 
Zuletzt bearbeitet:
Das K.I die Menschheit auslöscht glaub ich auch nicht , möglich wäre es aber dennoch !!!
Vor allem weil Militärs kein halten mehr finden mit so einer Technologie!!!

Die größte Gefahr bei der K.I ist und bleibt der Umbruch in der Arbeitswelt. Viele werden ihre Jobs verlieren und ich sehe nicht wie die Gesellschaft und Politik sich langsam darauf vorbereiten.
Zukünftig muss Arbeit neu definiert werden
 
Natürlich löscht KI nicht die Menschheit aus - diese Vorstellung ist völlig absurd...sie wird nur versklavt.
 
Computerbase spricht mit Biologen von Monsanto warum genmanipulierte Pflanzen kein Risiko sind sondern total super.
 
  • Gefällt mir
Reaktionen: Marius
Sehr interessant. Gefährlich wird es, wenn die sogenannten roten Knöpfe im Atomkoffer von Maschinen gesteuert werden können.
 
Ihr interviewt den CEO vom Deutschen Forschungszentrum für KI zum Thema "Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft".

Demnächst dann auch Interviews mit dem CEO eines Tabakriesen zum Thema, warum Rauchen nicht gefährlich ist? Oder vielleicht dem CEO von RTL, warum Fernsehen gut für die Bildung ist?

Was ein Quatsch...
 
Naja... Ich glaube kaum, dass eine KI selbständig auf die Idee käme, die Menschheit auszulöschen, wenn sie nicht darauf programmiert wurde so eine Entscheidung zu treffen. Menschen tun Dinge, weil sie sich davon positive Gefühle versprechen, Gefühle entstehen aber durch Neurotransmitter, die Schaltungen nicht haben.
Vielleicht könnte man Gefühle simulieren, aber welchen Nutzen hat das?
 
Zuletzt bearbeitet:
Zurück
Oben