Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsEx-OpenAI-Chefwissenschaftler: Ilya Sutskever gründet AI-Startup für sichere Superintelligenz
OpenAIs ehemaliger Chef-Wissenschaftler Ilya Sutskever hat ein Startup gegründet, das sich explizit mit Sicherheit bei der Entwicklung von KI-Systemen beschäftigt. Mit der Ausrichtung grenzt sich das neue Unternehmen von OpenAIs derzeitigem Kurs ab.
dann wäre er ja bei openai geblieben.. schon mal ein interview mit sutskever gesehen? oder allgemein jemanden der gründer von openai, anthropic oder google deepmind?
Und ich sehe auch nirgendwo, dass etwas durchdacht wurde. Das einzige sind haltlose Behauptungen, nirgendwo ist ein Plan dafür, eine Roadmap oder sonst etwas.
Ich sehe das hier eher als Scam an um schnell noch Geld zu bekommen, bevor man in der Bedeutungslosigkeit versinkt, weil er noch mehr bei OpenAI ist.
Naja, ein paar gut klingende Phrasen in den Raum gestellt, einen One-Pager im Stile eines Word-Dokuments als Webseite veröffentlicht und das wars.
Überzeugt jetzt nicht auf Anhieb und lässt auch keinerlei Tendenz in irgendeine Richtung erkennen.
Aus künstlicher Intelligenz wird jetzt schon Superintelligenz?
Ich weiß nicht, meiner Meinung nach dürfte die Blase gern mal platzen. Der eingeschlagene Weg des Profits mit KI und der Stand der Gesellschaft lässt mich nicht erkennen, dass wir "bereit" für das Thema sind.
Sollte. Ja definitiv. Frag aber mal bei OpenAI & Co. nach wie deren Safety Board sowie Maßnahmen aussehen
xerex.exe schrieb:
Und ich sehe auch nirgendwo, dass etwas durchdacht wurde. Das einzige sind haltlose Behauptungen, nirgendwo ist ein Plan dafür, eine Roadmap oder sonst etwas.
"Scam" ist etwas hart oder? Das Ding sieht und liest sich wie jedes andere "KI" Start-Up nur setzt man hier den Marketing Fokus auf "Sicherheit", was auch immer das heißen soll bei den aktuellen sehr generellen Modellen.
Solang sie den Ansatz nicht komplett ändern würden, wird "Sicherheit" hier auch mehr ein Label sein als alles andere. Wobei selbst wenn sie nur ein klein wenig mehr auf "Sicherheit" setzen und nur etwas davon umsetzen, dann sind sie direkt besser als OpenAI & Co.
Brauchen tut sowas hier am Ende keiner aber dank Hype werden sie sicher XX- XXX Mio. einnehmen weil "KI and to the moon!!11!" und in wenigen Jahren wars das weil man wie alle anderen "KI" Firmen kein Geschäftsmodell hat
Also man hat die Wahl jemanden die Daumen zu drücken, der entweder auf Sicherheitsaspekt keinen Wert legt (OpenAI und Co) und jemand, der behauptet es zu tun. Nun die Wahl ist doch einfach, eine Chance ist besser als keine Chance.
Noch krasser finde ich übrigens die Nebenbei Nachricht des Ex NSA Direktor. Das hat imho einen eigenen Artikel verdient.
Ich hab mich nach den letzten Monaten, und diversen Handlungen und Aussagen von Altman festgelegt: Ilya ist nicht der Bad Guy der Story, Sam Altman gibt mir Patrick Bateman Vibes
@Chris007 Diese sind mir bekannt und lassen mich auch mit einiger Irritation zurück. Allerdings gilt es hier zu differenzieren: a) jemand ist sexuell ist gestört: ich würde hoffen, dass seine restlichen Fähigkeiten rationale Entscheidungne zu treffen hiervon nicht beeinträchtigt werden b) der Umgang damit: Es gibt hier für mich zwei Möglichkeiten: 1. Die MEdien sind gleichgeschaltet keiner traut sich (aluhelm absetz) 2. Es ist Teil der ekelhaften Schmutzkampagnen die in den USA deutlich verbreiteter sind als bei uns, deshalb greift es keiner auf... fehlen mir belastbare Infos dazu
Diese Sichtweise ergibt deutlich mehr Sinn, genau wie dass sie sich NSA Management Wissen zur Überwachung holen wollen. "Sicherheit" im Sinne von "ist es sicher zu nutzen" sowie "ist es sicher für die Nutzer" spielt da sicher keine, maximal eine minimal untergeordnete Rolle... Sonst hätte man die vorher existierenden Mechanismen nicht ohne Ersatz über Board geworfen.