News Forschungsprogramm: OpenAI entwickelt Technik zur Kontrolle von Superintelligenzen

Ich bin da recht pragmatisch: die Wahrscheinlichkeit, dass eine die Weltherrschaft erlangende KI schlimmer als unsere aktuellen Herrscher wird ist relativ gering. Es geht zwar immer schlimmer, aber in meinen Augen ist so insgesamt gesehen deutlich mehr Luft nach oben als nach unten ;)
Daher: Welcome, our AI overlord! :freak:
 
  • Gefällt mir
Reaktionen: flo.murr, IllusionOn, bad_sign und 14 andere
Superintelligenzen, die Menschen überlegen sind, bezeichnet OpenAI schon öfter als Risiko bei der KI-Entwickelung. Um Sicherheitsmaßnahmen im Umgang mit solchen Systemen zu erfinden, hat OpenAI nun ein separates Team aufgestellt, das 20 Prozent der Rechenleistung des Unternehmens nutzen soll.
Wäre es nicht Sinnvoll gewesen ein solches Team von Anfang an aufzustellen? Ich frage für einen Freund... 🤔
 
Wie das? Entwickeln die einen Roboter, der im Notfall per KI den Stromstecker zieht?
 
Ich frage mich, wie das ganze in 40-50 Jahren irgendwie unter Kontrolle gehalten werden kann. Da hat ja jedes Smartphone eine ganz andere Rechenleistung.

Und was ist mit Quantencomputern, müssten die nicht ideal bei der Suche nach den perfekten Algorithmen / Trainingsdaten sein?

Was ist in einigen Jahrzehnten stand der Dinge beim Thema Brain Computer Interface?
 
Freu mich schon auf die langen Gesichter in 2 Jahren, wenn das ganze Hypegebilde in sich zusammengefallen ist.
Die Meldungen werden immer nerviger.
 
  • Gefällt mir
Reaktionen: Gabber, dafReak, Revolvermann01 und 3 andere
Das gibt dem Sprichwort "den Bock zum Gärtner machen" eine völlig neue Bedeutung
 
  • Gefällt mir
Reaktionen: drmaniac
Mit anderen Worten: Man hat gerade keinen Bedarf für 20% seiner Kapazitäten und muss mal wieder die Werbetrommel rühren.
 
  • Gefällt mir
Reaktionen: Gabber, -=[CrysiS]=- und 7H0M45
Wie heißt dieses "Monitor-Programm"? Etwa "TRON"? :daumen:

Ich seh eigentlich als einziges "Risiko", dass die Menschen noch denkfauler werden und auch für einfachere Sachen die KI nutzen. Ob das nun der natürliche Lauf der Dinge ist (was ich glaube) oder der Weg in den Untergang der Menschheit... Wir werden sehen...

Ist wie der Unterschied zwischen schriftlich rechnen/Kopfrechnen und einem Taschenrechner. Wir vertrauen 100%ig drauf dass Letzterer keine Fehler eingebaut hat.

Wie war das nochmal mit dem ersten Pentium und dem Nachkommafehler?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockhound, -=[CrysiS]=-, machiavelli1986 und eine weitere Person
Taigabaer schrieb:
Wie heißt dieses "Monitor-Programm"? Etwa "TRON"?

Ich seh eigentlich als einziges "Risiko", dass die Menschen noch denkfauler werden und auch für einfachere Sachen die KI nutzen. Ob das nun der natürliche Lauf der Dinge ist (was ich glaube) oder der Weg in den Untergang der Menschheit... Wir werden sehen...

Ist wie der Unterschied zwischen schriftlich rechnen/Kopfrechnen und einem Taschenrechner. Wir vertrauen 100%ig drauf dass Letzterer keine Fehler eingebaut hat.

Wie war das nochmal mit dem ersten Pentium und dem Nachkommafehler?

Ich glaube, dass das bereits längst der Fall ist. Also, insbesondere bezogen auf "KI für einfachere Sachen nutzen". ChatGPT usw. ist das neue Google. Siehe Bing und die Integration der KI. Recherche findet wahrscheinlich noch weniger, wenn überhaupt, statt weil die KI einem alles schön zusammengefasst und formuliert präsentiert.
 
Das geht schief.
Kommt wohl so, wie es nicht kommen soll.
Bin zwar kein Pessimist aber der Mensch ist, wie er ist.
 
  • Gefällt mir
Reaktionen: drmaniac, Holgmann75 und tritratrullala
DerFahnder schrieb:
Freu mich schon auf die langen Gesichter in 2 Jahren, wenn das ganze Hypegebilde in sich zusammengefallen ist.
Die Meldungen werden immer nerviger.
Ist halt die nächste Sau, die durch Dorf getrieben wird.
 
  • Gefällt mir
Reaktionen: dafReak, Holgmann75 und DerFahnder
Eidgenosse schrieb:
Wie das? Entwickeln die einen Roboter, der im Notfall per KI den Stromstecker zieht?
Frei nach dem Motto: Wer kontrolliert den Kontrolleur?

Man sollte doch erstmal beschreiben, welches Risiko man denn sieht. Um Macht auszuüben müsste man der KI auch erstmal die Entscheidungshoheit und Kontrolle über Machtapparate geben.
 
  • Gefällt mir
Reaktionen: MysticStuff und Holgmann75
Palomino schrieb:
die Entscheidungshoheit und Kontrolle über Machtapparate geben.
Au ja... "Shall we play a Game?" Was soll schon schief gehen? :daumen:
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Eine starke Regulierung würde dazu führen, dass insbesondere große Konzerne die Anforderungen erfüllen und die damit verbundenen Kosten tragen können.

Wer mal Stable Diffusion (beispielsweise) genutzt hat, weis wie wenig das Original kann und wie viel mehr die vielen nachtrainierten oder komplett neu trainierten FOSS Modelle drauf haben. Beispielsweise verlangt Open Ai für 100 Bilder aus Dall-E gute 3-4$, erzeuge ich vergleichbar viele Bilder in einer lokalen Instanz mit SD 1.4, dann für 5-6c an Stromkosten. Mit anderen Worten die gehostete Version kostet 50x mehr. Solche Spannen gibt es nirgendwo.

Wird nun dick reguliert, dann ist die Open Source Community komplett draußen und diese Option fällt weg, ich denke das ist der Hintergrund dieser "Beiträge" von Open Ai, nämlich durch Regulierung Open Source und kleine Firmen aus dem Wettbewerb zu nehmen und dann zu kassieren.
 
  • Gefällt mir
Reaktionen: Gabber, CharlieBarlie, DerFahnder und 2 andere
Holgmann75 schrieb:
Wäre es nicht Sinnvoll gewesen ein solches Team von Anfang an aufzustellen?

Nein das würde zu viel verhindern siehe Google KI Ethikrat die alle gefeuert wurden :D
 
  • Gefällt mir
Reaktionen: Holgmann75
Eidgenosse schrieb:
Wie das? Entwickeln die einen Roboter, der im Notfall per KI den Stromstecker zieht?
Ich schätze die machen den Bock zum Gärtner
 
Palomino schrieb:
Frei nach dem Motto: Wer kontrolliert den Kontrolleur?

Man sollte doch erstmal beschreiben, welches Risiko man denn sieht. Um Macht auszuüben müsste man der KI auch erstmal die Entscheidungshoheit und Kontrolle über Machtapparate geben.
Laut der Nasa sind ja die Satelliten mittlerweile so weit, dass sie imstande sind, vom Weltall aus ein einziges Nummernschild fotografieren und identifizieren zu können.

Dies wird wohl auch der Grund sein, warum die Chinesen Spionageballons losgeschickt haben :D

übrigens : Der grösste Helium Verbraucher der Welt ist <Trommelwirbel> : die NASA :daumen:

Den Leuten kannst du den grössten BS auf die Nase kleben, sie glaubens.
 
Holgmann75 schrieb:
Wäre es nicht Sinnvoll gewesen ein solches Team von Anfang an aufzustellen? Ich frage für einen Freund... 🤔
Es gab so lange kein Bedarf, bis die Regierungen durch falsches Verständnis von KI (wie auch von allem, was mit Internet zu tun hat) diese Entwicklung verbieten oder selbst regulieren wollten.

Und wer sich auch nur ein bisschen mit gesetzgebender Politik mal beschäftigt hat, weiß, dass die Gesetzesvorlagen "gegen" OpenAI von Unternehmen wie (oder direkt) OpenAI geschrieben werden, damit die Politiker es quasi bloß in "alt-griechisch-juristen-deutsch" umformulieren und unterschreiben müssen.
Das ist auch der Grund, warum nahezu alle Gesetze, die etwas regulieren sollen, so vage und oberflächlich geschrieben werden, dass die Unternehmen nahezu nichts ändern müssen.

Solange es für Laien toll und vertrauenswürdig klingt, ist es gut genug.

Und das ist nicht neu...
Auszug aus dem letzten Link: (4 Jahre alt)
Aktuell versuchen schätzungsweise 25 000 Lobbyisten mit einem Jahresbudget von 1,5 Milliarden Euro in Brüssel Einfluss auf die EU-Institutionen zu nehmen – häufig mit Erfolg. Untersuchungen der Plagiatsjäger von LobbyPlag.eu zeigen: Teilweise werden Handreichungen von Firmen und Organisationen wortgleich in Gesetze übernommen. So schaffte es beispielsweise der Wohnungsvermittler Airbnb, Leitlinien für ein Gesetz zu seinen Gunsten zu beeinflussen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Zockmock, Cool Master, Eidgenosse und eine weitere Person
Ich habe irgendwie so ein iRobot und Terminator Gefühl ^^
 
  • Gefällt mir
Reaktionen: RayAlpha
Zurück
Oben