News Ex-OpenAI-Chefwissenschaftler: Ilya Sutskever gründet AI-Startup für sichere Super­intelligenz

skynet?
 
Chris007 schrieb:
wenn du Sam Altman jetzt schon komisch findest, dann warte mal bis du von den Vorwürfen der Schwester hörst
Wat?

Muntermacher schrieb:
Noch krasser finde ich übrigens die Nebenbei Nachricht des Ex NSA Direktor. Das hat imho einen eigenen Artikel verdient.
Wieso?
Weil der Typ mal bei der Armee gearbeitet hat? Oder was ist daran so interessant?
Das hier oder?
https://openai.com/index/openai-appoints-retired-us-army-general/
 
Haldi schrieb:
Wieso?
Weil der Typ mal bei der Armee gearbeitet hat? Oder was ist daran so interessant?
Das hier oder?
Hast Du Snowden verpaßt? NSA ist übrigens National Security Agency, wie Du auf Armee kommst ist mit schleierhaft. Jedenfalls ist es deren Hauptaufgabe Informationen zu sammeln.
 
NSA inside. Jo ist klar. Demokratieverbrecher erstellen Superintelligence mit ihren Milliarden Terrabytes an gestohlenen Trainingsdaten. Ekelhaft.
 
habla2k schrieb:
Aus künstlicher Intelligenz wird jetzt schon Superintelligenz?

Ich weiß nicht, meiner Meinung nach dürfte die Blase gern mal platzen. Der eingeschlagene Weg des Profits mit KI und der Stand der Gesellschaft lässt mich nicht erkennen, dass wir "bereit" für das Thema sind.
Von jetzt redet doch keiner!
https://de.wikipedia.org/wiki/Existenzielles_Risiko_durch_künstliche_Intelligenz#Superintelligenz

Aber man sollte sich vorher Gedanken machen! Denn danach wäre es mit einem Atomkrieg zu vergleichen!

Auch wenn es länger als 10 Jahre dauert, sollte man sich vielleicht schon vorher über "Skynet" Gedanken machen.

https://openai.com/index/governance-of-superintelligence/


1718994651211.png


https://www.spiceworks.com/tech/artificial-intelligence/articles/everything-about-superintelligence/

1718994940268.png



https://de.wikipedia.org/wiki/AI-Alignment

https://fortune.com/2023/05/02/godf...s-artificial-intelligence-nightmare-scenario/


Eine Superintelligenz könnte gefährlicher als die entwicklicklung der Atombombe sein. Ganz einfach, weil sie sich irgendwann unserer Kontrolle entziehen könnte. Und schon bei der AGI haben die "Entwickler" oft keinen Plan, warum und wie etwas funktioniert, wie man bei dem Celebrity sehen konnte, der nur will das ChatGPT das falsche Geburtsdatum korrigiert.
 
Zuletzt bearbeitet:
Zurück
Oben