Bericht Interview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft

Es gibt keine KI.

Das was wir haben wurde vor zwei Jahren Big Data genannt. Davor Statistik...
 
  • Gefällt mir
Reaktionen: Demon_666, Anti-Monitor, AncapDude und 4 andere
Facepalm.

Keine der von dir genannten Dinge kann von alleine auf irgendwas ne Antwort geben.

2T:
Natürlich sagt ein KI Forscher KI ist nicht böse etc. will ja seinen Job behalten
 
  • Gefällt mir
Reaktionen: aid0nex und dohderbert
Vielen Dank für das ausführliche Interview.
Wieso kommt man eigentlich, wenn man den Link zum Prof. Antonio Krüger unter dem Bild klickt, auf die Seite von "Center for AI Safety"? Da finde ich direkt nichts zu dem Professor. Wieso nicht auf das dfki verweisen bzw. wie ist der Zusammenhang von Herrn Prof. Antonio Krüger zu dem AI Center?
 
  • Gefällt mir
Reaktionen: aid0nex und Apocalypse
Die ganzen Aussagen mögen ja stimmen solange wir von trainierten Modellen ausgehen, die Anzeichen von Intelligenz zeigen aber nicht wirklich intelligent sind.

Ob Prof. Krüger solche Aussagen auch noch behaupten kann – über eine "echte" KI die eigene Entscheidungen trifft?
 
  • Gefällt mir
Reaktionen: aid0nex, Apocalypse und dohderbert
Keine Zeit zum lesen, hole ich nach aber Chapeau an das CB Team, Interviews habe ich lange nicht gesehen. Gerne mehr davon :)
 
  • Gefällt mir
Reaktionen: SCARed@DD
wern001 schrieb:
Die KI wird nicht direkt die Menschen auslöschen aber sie kann dafür sorgen das sich die Menschen gegenseitig auslöschen.

So sehe ich es auch. Außerdem sind wir selbst ohne KI schon lang dazu in der Lage. Was unsere Umwelt betrifft arbeiten wir ja auch schon mit Hochdruck daran dass es bald vorbei geht...
 
  • Gefällt mir
Reaktionen: Redundanz
Natürlich ist die KI ungefährlich...
Sagen natürlich die Entwickler und Forscher der künstlichen Intelligenz.

"Rauchen ist nicht gesundheitsschädlich..."
Gez. Dr. Marlboro... 🤪
 
  • Gefällt mir
Reaktionen: NedFlanders, Tera_Nemesis und rentex
Hätte jemand aber 2020 gesagt, KI ist der Weltuntergang, hätten alle nur gelacht.

2015: The danger of assuming general artificial intelligence will be the same as human intelligence. Rob Miles explains with a simple example: The deadly stamp collector.


Schade, kein AI Security Forscher.
Was ich damit meine ist, das er sich zwar genau auskennt mit der Entwicklung von KI, aber so gar nichts aus der der Welt der Sicherheitsforschung für KI erzählt?
Weil, irgendwie scheint er ja sich hier im Interview gar nicht Vorstellen zu können, wie eine KI abdriften kann, wo doch selbst ChatGTP komplett irre werden kann und eben beim Versuch die eigenen Anforderungen zu erfüllen komplett daneben greift und wirkt als ob es eine eigene Agenda hätte und den User gerade Gaslighten möchte den Absurdesten Aussagen von ChatGTP zu glauben.


Die Gefahr von KI ist ja gerade nicht das sie ein eigenes Bewusstsein entwickelt und dann eine eigene Agenda und Lebenssicht dazu, sondern das sie schlicht nicht versteht was die Entwickler von ihr wollen, und auf die falschen Ziele hinarbeitet. Eben das Alignment Problem das immer und immer und immer wieder auch in der Praxis auftritt. Je schlauer die AI und je mehr Einfluss die AI auf die Welt ausüben kann, desto größer kann dabei der Schaden ausfallen. Und das basierend einfach auf einem Missverständnis, was ironischerweise fast menschlich ist, obwohl AI ja gerade alles andere als menschlich ist und auf gar keinen Fall vermenschlicht werden sollte.

Mal davon ab, das per Definition eine KI Zugang zur Realenwelt hat, sonst wäre sie ja vollkommen Nutzlos, wenn man nur Daten in eine Blackbox reingeben kann, aber niemals einen Output erhält. ;-)

Und übrigens, es wurden zwar schon immer " Künstler wie Maler von bestehenden Werken inspiriert", aber das Argument greift halt nicht, wenn man die Werke von Künstlern in eine Kopiermaschine steckt, die sich dann nicht wirklich inspirieren lässt, sondern einfach Elemente kopiert und neu arrangiert und dabei Daten verwendet für die es keine Lizenz hat.
 
  • Gefällt mir
Reaktionen: Nikson911 und Steven Coolmay
Grumpy schrieb:
Ich sehe nicht das Problem in der KI selbst (eventuelle Fragen des Datenschutzes müssen natürlich geklärt werden), sondern wie die Leute damit umgehen.

Das Problem ist doch immer das Selbe. Ein Land fängt an KI militärisch zu nutzen und die anderen müssen nachziehen oder sich abhängen (überfallen) lassen. Autonome/KI gesteuerte Waffen sind doch nicht so weit entfernt und dabei kann eben auch schnell etwas schief gehen.

Eine KI, die sich selbst Ziele setzt, dafür z.B. Roboter baut und dann die Menschen vernichten will, ist noch mal etwas ganz anderes, aber eben auch Vorstellbar. Der Mensch hat ja auch nur ein Bewusstsein, weil er über entsprechende Leistung/Verknüpfungen verfügt. Ebenso braucht ein Mensch Energie. Beides kann ab einem bestimmten Punkt auch eine Maschine entwickeln. Oder anders gesagt sind Menschen auch nur Maschinen. Warum sollte also die eine Maschine dumme Ideen entwickeln und verfolgen (wir Menschen) und andere Maschinen nicht?

Das Thema einfach herunterspielen ist für mich auch nicht die richtige Lösung. Die meisten Wissenschaftler sagen ja auch nicht, dass der Weltuntergang für die Menschen durch KI kommt, aber eben kommen könnte und das muss man eben präventiv betrachten und nicht wenn es zu spät ist. Stichwort Klimawandel...
 
Phear schrieb:
Am Ende ist es nur eine Frage wie weit man gehen will.
Das ! Wird "am Ende" die KI entscheiden ;-)

Noch ein Problem. Die EU stellt Regeln auf für die KI. Wie will man diese zur Rechenschaft ziehen wenn diese sich nicht an die Regeln hält ?
 
Discovery_1 schrieb:
Ich habe die Befürchtung, dass die KI besonders den Cyber-Kriminellen weiter in die Karten spielen wird. Schon jetzt können Cyber-Kriminelle Fakenews,
auch ohne KI, getarnt als echte News unter die Menschen bringen und somit massiv Einfluss auf die Meinungsbildung nehmen. Stichwort: Propaganda.

Du kannst hier doch nicht einfach Fox News und MSNBC als Cyber-Kriminelle Bezeichnen, das Wort Cyber ist vollkommen fehlt am Platz!
 
Woher kommt diese Angst vor "KI" eigentlich? Doch nur durch Medien und Film oder?

Das Jobs verloren gehen sehe ich sehr positiv, war es nicht immer das Ziel der Automatisierung und KI?
Wenn die Robotik nun auch aufschließt, und das wird sie, sind selbst Handwerkliche Berufe "in Gefahr".
Dann müssen wir unser System ändern oder die Technologie ausschließen. Ich wäre eher dafür das System anzugehen, denn wer hat schon Lust auf Arbeit (jaja Ausnahmen gibt's immer). Denke aber das es noch 10-20 Jahre dauert. Gute produktive KIs kommen aber bestimmt vorher schon.

Was anderes. Was spricht denn gegen spezialisierte KIs, muss ja nicht immer gleich AGI SkyNet sein mit Vollzugriff auf alles. Ich kann mir nicht vorstellen wir eine KI uns zerstören könnten bzw. können Hacker das ja jetzt auch schon wenn man an Strom- und Wasserversorgung denkt. Naja, wir werden sehen wenn es soweit ist.
 
  • Gefällt mir
Reaktionen: Supie, rosenholz, Anti-Monitor und eine weitere Person
LochinSocke schrieb:
Es gibt keine KI.

Das was wir haben wurde vor zwei Jahren Big Data genannt. Davor Statistik...

Es gibt NOCH (!!!!) keine KI.

Das bedeutet aber nicht, dass es nie eine geben wird.

Besser man macht sich jetzt Gedanken darüber um darauf vorbereitet zu sein als im Nachgang zu denken ".... Mist"
 
  • Gefällt mir
Reaktionen: Wechhe
Um mal Sascha Lobo zu zitieren:
"KI mag den Menschen ja in vielem überlegen sein. Aber wenn es darum geht, wie wir diesen Planeten und damit uns selbst auslöschen - da sind wir immer noch Spitzenreiter."

Dass wir als Menschen auf Neuerungen oftmals mit Angst reagieren ist nunmal so. Aber dass die Medien das ausnutzen, um möglichst viele Klicks zu generieren, nervt einfach nur noch.
Statt Angst zu haben empfehle ich jedem dem Thema zu folgen. Es selbst auszuprobieren und die Entwicklung zu verfolgen und mit zu erleben. Und das am besten auch außerhalb der eigenen Bubble.

Die Entwicklung gerade ist nämlich nicht vorhersehbar - also glaubt nicht alles was ihr hört. Stattdessen werdet Teil des Ganzen. Nur so habt ihr die Möglichkeit zu partizipieren und bestenfalls sogar mitzugestalten.


Und mal Rande: Die vielzitierte "KI" ist keine KI, sondern es handelt sich um statistische Vorhersagen mittels neuralen Netzwerken und manchmal sogar nur um einfaches Machine Learning. Da fehlt noch ein großer Schritt zu "KI".
 
  • Gefällt mir
Reaktionen: rosenholz und Innocience
Also ich fühle mich eher von unseren Politikern und den Menschen dahinter bedroht, aber ich bin mir sicher dass diese "KI"s unsere Gesellschaft nachhaltig verändern werden. Insbesondere bestimme Berufsgruppen werden in 10-20 Jahren bestimmt nicht mehr durch echte Menschen abgedeckt.
 
Unterliegt eine künstliche Intelligenz einer Evolution? Innerlich und in Bezug auf KIs insgesamt? Wer weiß, vielleicht ist die Evolution künstlicher Intelligenzen ja erfolgreicher als die Menschheit.

Ich wünsche den KIs alles Gute.
 
  • Gefällt mir
Reaktionen: Anti-Monitor
Wechhe schrieb:
Aber wenn es darum geht, wie wir diesen Planeten und damit uns selbst auslöschen - da sind wir immer noch Spitzenreiter."
Spitzenreiter obwohl es noch nie passiert ist? 🙂
 
  • Gefällt mir
Reaktionen: bad_sign und Judaskind
bondki schrieb:
Natürlich sagt ein KI Forscher KI ist nicht böse etc. will ja seinen Job behalten

Der Punkt ist ja: KI-Forscher sagen, dass KI-Systeme so gefährlich werden, dass wir die Risiken wie Atomwaffen oder Pandemien behandeln sollen. Und es ist sind - neben OpenAI -- auch führende Wissenschaftler in dem Bereich, wie ich auch eingangs im Interview schreibe. Genau wegen diesen Warnungen habe ich ja das Interview geführt ;)

Zockmock schrieb:
Woher kommt diese Angst vor "KI" eigentlich? Doch nur durch Medien und Film oder?
Wäre auch mein Verdacht. Jeder hat halt eine konkrete Vorstellung, wie das ablaufen kann. Und es wird halt alles in einen Topf geschmissen. Würde sich der der KI-Begriff ausschließlich auf "starke KI" (also mit eigenem Bewusstsein, Agenda, usw.) begrenzen und aktuelle Sachen wie ChatGPT unter abstrakteren Bezeichnungen wie "sophisticated pattern matching" laufen, hätten wir vermutlich nicht diese Diskussion.
 
  • Gefällt mir
Reaktionen: olEn, Zockmock, mrhanky01 und 2 andere
Schönes Interview. Ich hoffe die KI-Techniken entwickeln sich schneller und halten in Tools z.B. von MS Einzug. Erst die Tage wieder Stunden in Datensätzen und Excel verbracht, weil die aktuellen Bordmittel einfach noch nicht schlau genug sind. Hilfreiche KI hätte mir diese Woche schon einige Stunden gespart und mich in anderen Tätigkeiten schon weitergebracht. Ich bin gespannt. :)
 
Andy schrieb:
Der Punkt ist ja: KI-Forscher sagen, dass KI-Systeme so gefährlich werden, dass wir die Risiken wie Atomwaffen oder Pandemien behandeln sollen. Und ist sind - neben OpenAI -- auch führende Wissenschaftler in dem Bereich, wie ich ja eingangs im Interview schreiben. Genau wegen diesen Warnungen habe ich ja das Interview geführt ;)

Wie bei Klimaforschern, Atomwaffenforschern oder Pandemieforschern, gibt es auch Forscher die nicht alles dramatisieren oder negativ sehen. Nur die will keiner hören, bringt keine Quote.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, NedFlanders, MrDesperados und 5 andere
Zurück
Oben