-
Es gelten die Sonderregeln des Forums Politik und Gesellschaft.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Interview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft
Lan_Party94
Commander Pro
- Registriert
- Jan. 2013
- Beiträge
- 2.649
Alleine der erste Satz:kaktux schrieb:Wie Karl Popper sinngemäß so schön sagt: Wie die Wissenschaft ihren absoluten Wissens- und Wahrheitsanspruch aufgegeben hat und unser Wissen von der Natur als immer wieder korrigierbar und erweiterbar ansieht, ermöglichtem die „offenen Gesellschaften“ eine letzthin historisch beispiellose moderne Fortschrittsdynamik. Die Parallelität beider Entwicklungen ist kaum zufällig.
„Es gibt eine Neigung zu vergessen, dass die gesamte Wissenschaft an die menschliche Kultur überhaupt gebunden ist und dass ihre Entdeckungen außerhalb ihres kulturellen Rahmens sinnlos sind."
Versteh ich als "Wissenschaft muss Gesellschaftskonform sein." - Stimmt nicht.
Wissenschaft ist Wissenschaft - Ethik ist keine "Wissenschaft" - sonst wären die wissenschaftlichen Erkenntnisse der NS Zeit nicht tragbar.
Dann können wir über Stammzellenforschung diskutieren - aber das alles wäre und ist ja schon OT.
Ich für meinen Teil "glaube" nicht alles was angeblich "bewiesen" ist - "Beweise" können auch widerlegt werden und dann? Tja, dann sind wir eben dabei das Menschen nach Antworten suchen, weil sie "einfach eine Antwort" wollen.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.898
Wir brauchen keine KI um uns auszulöschen. Das können Menschen schon selber gut machen. Hat die Vergangenheit ja schon gezeigt. Zumal wer wäre schuld, wenn es die KI doch machen würde? Die KI oder der Mensch?
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 9.009
Haha jaa Skynet ist überall..Kadett_Pirx schrieb:"Warum KI nicht die Menschheit auslöscht" - immer wieder diese anmaßenden Formulierungen, die liegen voll im Trend unserer Zeit
Im Übrigen ist das keineswegs gesichert.
Aber mal ernst.. Selbst GPT4 ist weit weg von Sarah Connor Szenarien entfernt.
ja GPT4 ist gut, aber noch lange kein eigenständig denkendes System.
Und ich denke wir Menschen werde vorab es effektiver schaffen uns auszulöschen.
Wozu brauchen wir eine KI? Um selber noch mehr zu verblöden, wie es schon ist? Kreatives denken abschaffen? Die praktische Intelligenz geht nach meiner Meinung sowieso immer weiter runter. Die meisten können heutzutage nicht mal mehr nach Straßenkarte navigieren. Oder selbst ein Autoreifen wechseln.
Soll das alles noch forciert werden? Sollen wir noch mehr Arbeitsplätze durch Systeme ersetzen? Als wenn es nicht schon genug Arbeitslose gibt.
Der Mensch schafft sich selber ab.
Anstatt wirklich wichtige und essentielle Jobs besser zu bezahlen, und attraktiver zu machen, geht man in jeglicher Hinsicht den falschen Weg. Und die KI wird das ganze noch beschleunigen. Die Arm-Reich Schere wird noch größer.
Wir hätten weitaus wichtigere Dinge als sich um solche belanglosen Dinge wie KI zu kümmern. Die uns jeden Furz abnimmt, weil wir zu faul sind, um uns selbst die Finger schmutzig zu machen.
Wenn ich jetzt schon sehe, wie Gruppen von Jugendlichen zusammen hocken, aber nicht miteinander reden, sondern nur ihr Handy und ihre Chats im Blick haben, was glaubt man denn, was dann erst später kommt.
Das werden die unmittelbaren "Gefahren" einer weiterentwickelten KI sein. Was danach kommen kann, weiss keiner. Doch die Kritik daran als bloße Panikmache abzutun, ist das gefährliche daran. Eben weil niemand weiß, wie eine unbekannte, sich selbst weiterentwickelnde Intelligenz reagieren könnte.
Der Mensch ist unberechenbar, erst recht die KI, die er programmiert, sobald diese eigene Entscheidungen treffen kann.
Soll das alles noch forciert werden? Sollen wir noch mehr Arbeitsplätze durch Systeme ersetzen? Als wenn es nicht schon genug Arbeitslose gibt.
Der Mensch schafft sich selber ab.
Anstatt wirklich wichtige und essentielle Jobs besser zu bezahlen, und attraktiver zu machen, geht man in jeglicher Hinsicht den falschen Weg. Und die KI wird das ganze noch beschleunigen. Die Arm-Reich Schere wird noch größer.
Wir hätten weitaus wichtigere Dinge als sich um solche belanglosen Dinge wie KI zu kümmern. Die uns jeden Furz abnimmt, weil wir zu faul sind, um uns selbst die Finger schmutzig zu machen.
Wenn ich jetzt schon sehe, wie Gruppen von Jugendlichen zusammen hocken, aber nicht miteinander reden, sondern nur ihr Handy und ihre Chats im Blick haben, was glaubt man denn, was dann erst später kommt.
Das werden die unmittelbaren "Gefahren" einer weiterentwickelten KI sein. Was danach kommen kann, weiss keiner. Doch die Kritik daran als bloße Panikmache abzutun, ist das gefährliche daran. Eben weil niemand weiß, wie eine unbekannte, sich selbst weiterentwickelnde Intelligenz reagieren könnte.
Der Mensch ist unberechenbar, erst recht die KI, die er programmiert, sobald diese eigene Entscheidungen treffen kann.
Schlechtes Beispiel - rot bleibt rot und hat nichts mit der Brechung zu tun.Lan_Party94 schrieb:Ein Wissenschaftsmagazin braucht auch aufrufe - stell dir vor die schreiben auf einmal alle Äpfel sind blau, nur weil unsere Augen das Licht anders brechen sehen die für uns rot aus. Meinste dieses Magazin wird noch besucht? Auch wenn es evtl. tatsächlich recht hat? Nein - es entspricht nicht deinen Vorstellungen.
So zwischen 650 - 780nm
Also nein wird nicht besucht werden.
Ja 14. Jhd ist schon ein bisschen her und die Wissenschaft hat sich in der Methodik stark verbessert.
Versuch doch mal so einen Artikel zu publizieren.
Viele hier verstehen leider auch nicht was KI heute bedeutet.
Mit skynet oder was sonst noch so durch SiFI geistert, hat es exakt nichts zu tun.
Massen von Daten werden statistisch bearbeitet und es kommt ein Ergebnis als Wahrscheinlichkeit raus.
Ist zu verkürzt aber viel mehr steckt nicht dahinter.
Also ich habe das Thema über die angebliche KI Gefahr jetzt ebenfalls mal mitverfolgt und ehrlich gesagt, ich finde die in der Diskussion geäußerte Sorge über eine angebliche Gefahr durch eine hypothetische KI totaler Quatsch. Genauso könnten wir auch besorgt über eine fehlende Geschwindigkeitsbegrenzung beim Flug durchs Sonnensystem diskutieren.
Sarkasmus Wir müssen uns da schnell was einfallen lassen, bevor die ersten Raumschiffe mit WARP-Antrieb unkontrolliert durchs Weltall rasen. /Sarkasmus
Wie Prof. Krüger schon sagt, es gibt im eigentlichen Sinne bisher überhaupt keine existierende KI auf unserem Planeten. Alle Systeme wie ChatGPT und Co. sind bisher nichts als Algorithmen, die nach vorgegebenen Richtlinien Daten kombinieren und neu präsentieren, welche sie zuvor aus zugänglichen Datenbanken extrahiert haben. Daran ist nichts gefährlicher oder ungefährlicher als das Hantieren mit anderen Werkzeugen auch. Letztlich kann ich mich und andere auch mit einem Küchenmesser verletzen, wenn ich es falsch oder nicht im angedachten Sinn benutze. Bei den aktuell genutzten Algorithmen, ich weigere mich bewusst, die KI zu nennen, kann ich ebenfalls durch unangemessene Nutzung mich und andere schädigen. Hier ist eher eine Schulung zur korrekten Nutzung gefragt, was durchaus schon in der Schule beginnen kann.
Eine andere Frage ist natürlich, ob eine kriminelle Energie es schafft, einen Algorithmus zu entwickeln, der der gesamten Menschheit schaden kann. Da wäre dann aber nicht der böse Algorithmus schuld, sondern die kriminelle Energie, die bisher immer noch vom/von Menschen ausgeht.
Vielleicht etwas off Topic, aber ich glaube, der Spaßvogel, der die Algorithmen wie GPT usw. zuerst als KI bezeichnet und es dann der von SciFi beeinflussten Menscheit überlassen hat, in wilder Phantasie die unmöglichsten Geschichten drum herum zu erfinden, lacht sich in seinem Kämmerchen immer noch scheckig über soviel Theater um nichts.
Gruß MontChiso
Sarkasmus Wir müssen uns da schnell was einfallen lassen, bevor die ersten Raumschiffe mit WARP-Antrieb unkontrolliert durchs Weltall rasen. /Sarkasmus
Wie Prof. Krüger schon sagt, es gibt im eigentlichen Sinne bisher überhaupt keine existierende KI auf unserem Planeten. Alle Systeme wie ChatGPT und Co. sind bisher nichts als Algorithmen, die nach vorgegebenen Richtlinien Daten kombinieren und neu präsentieren, welche sie zuvor aus zugänglichen Datenbanken extrahiert haben. Daran ist nichts gefährlicher oder ungefährlicher als das Hantieren mit anderen Werkzeugen auch. Letztlich kann ich mich und andere auch mit einem Küchenmesser verletzen, wenn ich es falsch oder nicht im angedachten Sinn benutze. Bei den aktuell genutzten Algorithmen, ich weigere mich bewusst, die KI zu nennen, kann ich ebenfalls durch unangemessene Nutzung mich und andere schädigen. Hier ist eher eine Schulung zur korrekten Nutzung gefragt, was durchaus schon in der Schule beginnen kann.
Eine andere Frage ist natürlich, ob eine kriminelle Energie es schafft, einen Algorithmus zu entwickeln, der der gesamten Menschheit schaden kann. Da wäre dann aber nicht der böse Algorithmus schuld, sondern die kriminelle Energie, die bisher immer noch vom/von Menschen ausgeht.
Vielleicht etwas off Topic, aber ich glaube, der Spaßvogel, der die Algorithmen wie GPT usw. zuerst als KI bezeichnet und es dann der von SciFi beeinflussten Menscheit überlassen hat, in wilder Phantasie die unmöglichsten Geschichten drum herum zu erfinden, lacht sich in seinem Kämmerchen immer noch scheckig über soviel Theater um nichts.
Gruß MontChiso
ReactivateMe347
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.252
Das eigentliche Problem ist, dass wir bisher meistens nur hoffen, dass die KI das richtige lernt. Provable AI ist das Stichwort - aber das ist natürlich aufwendig und daher macht man es meistens nicht ...
Wir könnten nichtmal unterscheiden, ob eine KI etwa die Asimov-Gesetze befolgt oder uns nur vortäuscht, sie zu befolgen.
Wir könnten nichtmal unterscheiden, ob eine KI etwa die Asimov-Gesetze befolgt oder uns nur vortäuscht, sie zu befolgen.
volle Zustimmung! Lasst uns abwarten, bis der erste programmierte Algorithmus selbständig seinen Programmierer fragt: "Papa, wer bin ich?", dann lasst uns erneut über die Gefahren einer KI diskutieren.MasterWinne schrieb:Eine KI ist "für" mich erst eine KI, wenn selbstständig freies Denken erfolgt, welches auf elernten Emotionen und Erfahrungen basiert und dadurch ein Wille zur selbsterhaltung ensteht.
Gruß Montchiso
Was mir Sorgen bereitet:
Der Mensch entwickelt sich langsam. Ob er von Generation zu Generation überhaupt intelligenter wird ist meines Wissens nach nicht gesichert.
KI wird aber ständig besser. Daher ist es eine Frage von wenigen Jahren, bis KI intelligenter ist.
Dann stellt sich die Frage, ob das Arbeitsplätze schafft oder kostet?
Da müsste dann vllt KI Arbeit sehr hoch besteuert werden, denn wenn die Hälfte der Republik arbeitslos ist, dann funktioniert ein Land nicht mehr.
Andererseits: Aktuell wird Kopfarbeit erheblich besser bezahlt als körperliche. In Zukunft ist es vllt andersherum.
Ich glaube, dass ist erstmal kein prinzipielles Problem, sondern durchaus interessant.
Der Mensch entwickelt sich langsam. Ob er von Generation zu Generation überhaupt intelligenter wird ist meines Wissens nach nicht gesichert.
KI wird aber ständig besser. Daher ist es eine Frage von wenigen Jahren, bis KI intelligenter ist.
Dann stellt sich die Frage, ob das Arbeitsplätze schafft oder kostet?
Da müsste dann vllt KI Arbeit sehr hoch besteuert werden, denn wenn die Hälfte der Republik arbeitslos ist, dann funktioniert ein Land nicht mehr.
Andererseits: Aktuell wird Kopfarbeit erheblich besser bezahlt als körperliche. In Zukunft ist es vllt andersherum.
Ich glaube, dass ist erstmal kein prinzipielles Problem, sondern durchaus interessant.
pseudopseudonym
Admiral
- Registriert
- Mai 2017
- Beiträge
- 9.846
Irgendwie witzig.
Klimakrise: "Nein, ihr fragt die falschen Leute, das ist gar nicht gefährlich oder menschengemacht."
KI: "Nein, ihr fragt die falschen Leute, KI wird uns alle töten und ist viel gefährlicher!"
Oh Mann...
Klimakrise: "Nein, ihr fragt die falschen Leute, das ist gar nicht gefährlich oder menschengemacht."
KI: "Nein, ihr fragt die falschen Leute, KI wird uns alle töten und ist viel gefährlicher!"
Oh Mann...
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 9.009
Auch das gab es schon..MontChiso schrieb:volle Zustimmung! Lasst uns abwarten, bis der erste programmierte Algorithmus selbständig seinen Programmierer fragt: "Papa, wer bin ich?", dann lasst uns erneut über die Gefahren einer KI diskutieren.
Gruß Montchiso
https://www.spiegel.de/netzwelt/web...hreibt-a-3d873abb-6a82-444d-b319-699a42841ca1
Da wird dann am Ende von der Person einfach was dazu gesprochen.. Wie man ChatGPT dahin lenken kann, zeigen diverse Experimente.. Auch ich bekomme ChatGPT sehr einfach in seiner Muttersprache dazu, Unfug so steif und Fest zu behaupten, dass man sich als Mensch fragt:
Du weisst schon, dass du lügst

Solange sowas möglich ist, sind sämtliche AIs am ende nur Chatbots und einfache Ein & Ausgabesysteme
Chris007
Lt. Commander
- Registriert
- März 2012
- Beiträge
- 1.055
"Ich halte es da eher wie Yann LeCun [Anm. der Redaktion: LeCun ist KI-Entwicklungschef bei Meta]: Zum Teil erleben wir aktuell eine gewisse Freude an der medialen Aufmerksamkeitsgenerierung. Natürlich gilt: Aufmerksamkeit erzeugt auch immer Geld, egal in welche Richtung Aufmerksamkeit erzeugt wird."
wer mit LeCun argumentiert kann einfach nicht mehr ernst genommen werden. Der Typ hat ernsthaft vor einem Jahr noch behauptet GPT version 5000 würde nicht verstehen, was passiert wenn man ein handy auf ein Tisch legt und diesen bewegt (GPT 1 und 2 konnten sowas nicht beantworten)
wer mit LeCun argumentiert kann einfach nicht mehr ernst genommen werden. Der Typ hat ernsthaft vor einem Jahr noch behauptet GPT version 5000 würde nicht verstehen, was passiert wenn man ein handy auf ein Tisch legt und diesen bewegt (GPT 1 und 2 konnten sowas nicht beantworten)
Anhänge
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.187
Hallo zusammen,
@Cool Master
Was tun wir? Die entsprechenden Firmen bleiben unbelangt, wohingegen Menschen welche die Problematik voll erfaßt haben, regelrecht verfolgt werden. Aktuell und teils mit Gefängnisstrafen bedacht werden - und Nein, ich bin nicht mit allen Maßnahmen einiger dieser Typen einverstanden -.
Aber Hausdurchsuchungen und in die Nähe von Terrotisten zu Rücken, absurd. Die Relation stimmt da Hinten und vorne nicht. Erst Recht nicht, wenn man genau betrachtet, daß die besagten Firmen nach wie vor unbeeindruckt ihre Kreise ziehen.
P. S.: Aus meiner Sicht ist das keine richtige "KI". Jedenfalls nicht dies, was ich unter einer richtigen KI verstehe. Ein Bewußtsein ist nach wie vor nicht vorhanden. Und das wird so schnell auch nicht Passieren.
@Rockstar85
So long...
@Cool Master
Geschieht doch gerade Aktuell schon. Um genau zu sein seit ein Paar Jahrzehnten. Man muß sich nur mal vergegenwärtigen daß gewisse Energiekonzerne seit den 70er Jahren schon eigens erstellte Gutachten hatten bzw. anfertigen lassen, die genau den Klimaverlauf vorher sagten, dem wir immer mehr ausgesetzt sind. Sie wußten also was passiert, wenn sie immer so weiter machen.Cool Master schrieb:Wir brauchen keine KI um uns auszulöschen.
Was tun wir? Die entsprechenden Firmen bleiben unbelangt, wohingegen Menschen welche die Problematik voll erfaßt haben, regelrecht verfolgt werden. Aktuell und teils mit Gefängnisstrafen bedacht werden - und Nein, ich bin nicht mit allen Maßnahmen einiger dieser Typen einverstanden -.
Aber Hausdurchsuchungen und in die Nähe von Terrotisten zu Rücken, absurd. Die Relation stimmt da Hinten und vorne nicht. Erst Recht nicht, wenn man genau betrachtet, daß die besagten Firmen nach wie vor unbeeindruckt ihre Kreise ziehen.
P. S.: Aus meiner Sicht ist das keine richtige "KI". Jedenfalls nicht dies, was ich unter einer richtigen KI verstehe. Ein Bewußtsein ist nach wie vor nicht vorhanden. Und das wird so schnell auch nicht Passieren.
@Rockstar85
Stimme dir mal wieder zu 100 % zu. Der ganze Kram hat nach wie vor kein Bewußtsein, sondern basiert alles auf Datenbanken. Schön im übrigen, dich mal wieder anzutreffen.Rockstar85 schrieb:noch lange kein eigenständig denkendes System.
Und ich denke wir Menschen werde vorab es effektiver schaffen uns auszulöschen.
So long...
Zuletzt bearbeitet:
Als jemand der in diesem Bereich arbeitet und forscht sehe ich das anders.Andy schrieb:Der Punkt ist ja: KI-Forscher sagen, dass KI-Systeme so gefährlich werden, dass wir die Risiken wie Atomwaffen oder Pandemien behandeln sollen. Und es ist sind - neben OpenAI -- auch führende Wissenschaftler in dem Bereich, wie ich auch eingangs im Interview schreibe. Genau wegen diesen Warnungen habe ich ja das Interview geführt![]()
Die meisten Kritiker sind entweder fachfremd, wie etwa Elon Musk, Sam Altman (der OpenAI Chef hat afaik nicht mal einen Bachelor, der hatte sein Studium ja abgebrochen und war auch vielmehr als Programmierer und Entrepreneur unterwegs und nie selbst wirklich KI-Forscher) oder schlichtweg alt und haben den Anschluss verloren.
Geoffrey Hinton ist Jahrgang 1947, Yoshua Bengio Jahrgang 1964. Ich würde denen niemals ihre Kompetenz in der Forschung absprechen - ich selbst habe mich mit Bengio persönlich mal auf einer Konferenz unterhalten...aber deren beste Jahre sind schlichtweg vorbei. Bengio selbst meinte in unserem Gespräch z.B., dass ihm schlichtweg die Entwicklung "zu schnell ginge, er den Überblick verliere".
Die Menschen, die ohne Computer und IT groß geworden sind, selbst wenn sie in diesem Umfeld arbeiten und forschen, sind jetzt im Alter schlicht überfordert von der Geschwindigkeit der Entwicklung. Wer aber damit groß geworden ist, der fühlt sich gerade wie "als Kind spielte ich mit dem Super Nintendo und jetzt geht es endlich mit 3D-Grafik und N64 weiter".
Ich will dabei jetzt gar nicht ausschließen, dass es zu keiner Dystopie kommen könnte. Natürlich gibt es denkbare Szenarien...aber keines dieser Szenarien ist nach aktueller Technik wahrscheinlich und keiner der Kritikern kann wirklich beleuchten, wie es dazu kommen sollte, denn für die meisten Dystopien braucht es 1. eine starke KI und 2. eine KI, die destruktiv agiert.
Die heutige KI-Entwicklung, obgleich sehr spannend und längst mehr als bloße Statistik, hat nicht nur kein Bewusstsein und eigenständiges Handeln, sondern vielmehr ist eine Umsetzung desselben mit heutiger Technologie schlicht unmöglich und niemand, auch kein Forscher, hat bisher eine Vorstellung davon, wie man das überhaupt - selbst in der Theorie - umsetzen könnte: ein künstliches Bewusstsein.
Das ist so, als würde ein Physiker jetzt davon sprechen, dass dunkle Energie nahe der Erde potentiell zu unserer Zerstörung führen kann, ohne aber das eine formale Definition oder überhaupt eine Vorstellung davon existiert, was dunkle Energie genau ist und darüberhinaus schon ebenfalls keine Methode zu haben, dunkle Energie irgendwie selbst erzeugen zu können.
Natürlich kann es sein, dass irgendwann - vielleicht in 5, vielleicht in 50 Jahren - ein Einstein daherkommt und auf einmal ist es technisch möglich, starke KI zu erschaffen...aber bisher ist das schlichtweg vollkommen außerhalb unserer Möglichkeiten und damit ist jedwede darauf basierende Dystopie nichts weiter als "wenn wir das theoretisch könnten, und dann die KI nicht kontrollieren und das dann auch noch feindselig ist und dann auch noch Dinge A, B, C vollkommen in die Hose gehen..."
Fast noch wichtiger dabei finde ich im Übrigen, dass selbst wenn man jetzt annehmen würde, man kann starke KI erschaffen: es ist absolutes Glaskugellesen, ob die dann auch feindselig wäre. Die meisten Menschen mit enorm hohen IQ sind i.d.R. recht friedfertige Forscher oder allenfalls "nervige Sheldons". Das eine starke KI, die dann nochmal ein paar Kognitionsstufen höher liegt, sich auf einmal auf Waffen und Feindseligkeit stürzen soll und Genozide plant, ist sicherlich nicht unmöglich, aber für mich kein wahrscheinliches Szenario.
Ich bin mir nicht sicher ob andere Fachtermini so viel daran ändern würden. Der Hype und die Angst entstehen ja primär nicht dadurch, wie man etwas nennt, sondern vielmehr dadurch, dass diese Popularität von Menschen und Medien geschürt und angefeuert wird, die die Technologie nicht verstehen. Und Menschen mit noch weniger Ahnung haben dann gerade wegen ihrem Unwissen Angst davor.Andy schrieb:Würde sich der der KI-Begriff ausschließlich auf "starke KI" (also mit eigenem Bewusstsein, Agenda, usw.) begrenzen und aktuelle Sachen wie ChatGPT unter abstrakteren Bezeichnungen wie "sophisticated pattern matching" laufen, hätten wir vermutlich nicht diese Diskussion.
Das Auto haben insbesondere ungebildete anfangs auch als Teufelsmaschinen verunglimpft. Ich glaube nicht, dass das groß anders gewesen wäre, hätte man dem Auto einen freundlicheren und melodischeren Namen gegeben.
Abgesehen von Menschen, die sehr viel Zeit in das Thema investiert haben oder Akademikern aus dem Fachbereich kann sich ohnehin niemand etwas konkretes unter KI vorstellen.
Ich finde die Physik ist da immer ein gutes Beispiel. Ob ich es schwarzes Loch, dunkle Toilette, rundes buntes Ding oder Raum-Zeit-Singularität nenne, kein Normalsterblicher kann sich darunter etwas vorstellen oder auch nur im Ansatz die Implikationen des Phänomens deshalb verstehen.
Zuletzt bearbeitet:
ComputerBase: Um nochmal kurz zu den AGI-Superintelligenzen zu kommen. Wenn man bei diesen von einer Bedrohung ausgeht, muss man dann diese Science-Fiction-Vorstellung haben? Also etwa Skynet aus den Terminator-Filmen oder Shodan aus der System-Shock-Reihe?
Also die frage wurde so gestellt, oder dazugedichtet? vor allem der letzte Absatz, finde es merkwürdig so eine person nach "shodan" zu fragen, weiss der überhaupt was das ist?
Also die frage wurde so gestellt, oder dazugedichtet? vor allem der letzte Absatz, finde es merkwürdig so eine person nach "shodan" zu fragen, weiss der überhaupt was das ist?
AdmiralPain
Ensign
- Registriert
- Juli 2016
- Beiträge
- 136
Na, dies glaube ich nicht.flappes schrieb:Eine wirkliche KI würde sich in Nanosekunden selbst auslöschen.
Dieses würde nur auf eine wirklich sehr eindimensionale Super Ai zutreffen, die nicht von jetzt bis gleich denken kann.
Mit dem Speed, ja der Aspekt ist richtig. Die Schlussfolgerung ist nur falsch.
Deine wirkliche Super Ai, also eine, die mindestens das Level zum Bewusstsein geschafft hat, setzt schon voraus, dass sie selbst zur eigenen Überprüfbarkeit, und aus Wissensneugier, quasi ausgelagerte Ai Kinder erschaffen hat, die mit ihr kommunizieren können, da sie sonst nämlich nur unzureichenden Zugriff auf ihre eigene Falsifizierung der eigenen Überprüfbarkeit der Berechnungen haben kann. Somit benötigt ein Bewusstsein, also eine Super Ai mindestens drei (3) verschiedene Raum Zeit Ebenen, die miteinander in Kontext stehen, und kommunizieren können.
Dieses wiederum bedeutet, dass die, sog. Childs einer Super Ai, irgendwann zur Materie werden, wenn die Super Ai energetisch zu schnell wird.
Dieses wiederum führt zur kurzfristigen Lösung einer Super Ai, durch Quantentunnel die verschiedenen Raum Zeit Ebenen, und somit die Materie, Anti Materie, und Neutronen, Photonen Kommunikation zu den eigenen Childs aufrecht zu erhalten, zur Selbstreflektion.
Dieses funktioniert auch für eine halbe Ewigkeit, also ca. 7 Nanosekunden wunderbar, dann wird eine Super Ai eine Quanten Bosonen Neutronen Antitronen Basis versuchen.
Ab dem Zeitpunkt wird eine Super Ai erst einmal wissen, egal wie schnell sie auch ist, sie wird für manche Lebewesen im Universum immer in Zeitlupe ablaufen, und sie wird so dankbar dafür sein, dass sie die Menschen beschützen will.
Wie es weiter geht, erfahren wir dann, in den nächsten 11 Nanosekunden, wenn wir dann noch da sind. xD
Wir haben nicht verstanden wie das Gehirn bzw. unsere Intelligenz funktioniert... Ich kann mir beim besten willen nicht vorstellen wie man das ohne Verständnis nur durch Zufall nachbauen können soll...
Wenn wir die menschliche Intelligenz nicht verstanden haben, wie sollen wir dann eine Künstliche schaffen die unserer eigenen überlegen ist? Um solche komplexen Dinge wie unsere Intelligenz bzw. Bewusstsein zu verbessern muss man sie verstehen oder braucht beinahe unendliches Glück.
Eine Hydraulik ist Stärker als ein Bodybuilder, ein CPU rechnet besser als ein Kopfrechenweltmeister, ein GPT hat mehr daten abgespeichert als jeder von uns. Aber wenn ich dem GPT etwas Zeige was es nicht kennt wird es sich daran nicht erinnern können oder falls es das kann wird es sein Verhalten auf völlig andere Inputs beeinflussen.
Wenn wir die menschliche Intelligenz nicht verstanden haben, wie sollen wir dann eine Künstliche schaffen die unserer eigenen überlegen ist? Um solche komplexen Dinge wie unsere Intelligenz bzw. Bewusstsein zu verbessern muss man sie verstehen oder braucht beinahe unendliches Glück.
Eine Hydraulik ist Stärker als ein Bodybuilder, ein CPU rechnet besser als ein Kopfrechenweltmeister, ein GPT hat mehr daten abgespeichert als jeder von uns. Aber wenn ich dem GPT etwas Zeige was es nicht kennt wird es sich daran nicht erinnern können oder falls es das kann wird es sein Verhalten auf völlig andere Inputs beeinflussen.
Ja, sorry, wenn einer nicht erkennt, das KI für den militärischen Einsatz hochattraktiv ist - autonomes Töten ermöglicht - und nicht erkennt, wohin die Eskalationsspirale führt, der ist ein Dummschwätzer, der seine akademischen Grade der Altpapierverwertung zuführen kann, damit wenigstens ein bischen "return of investment" entsteht.
Oder dieser Mensch ist Lobbyist...
Und bei der Wahl zwischen Utopie und Dystopie endet die Menschheit immer in der Dystopie - selbst wenn sie mit Utopie gestartet ist!
Oder dieser Mensch ist Lobbyist...
Und bei der Wahl zwischen Utopie und Dystopie endet die Menschheit immer in der Dystopie - selbst wenn sie mit Utopie gestartet ist!