Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsKünstliche Intelligenz: Microsoft entlässt für KI-Ethik verantwortliches Team
Die Entlassungswelle im Tech-Sektor macht auch vor Microsoft nicht halt. Betroffen ist allerdings auch das Team, das im Bereich der Künstlichen Intelligenz für Ethik und Gesellschaft verantwortlich ist. Es muss komplett gehen, berichtet der Platformer-Newsletter.
Finde ich eine sehr fragwürdige Entscheidung... 30 Leute für so ein imo wichtiges Thema...
Im Vergleich zu den Jahreszahlen doch ein Witz.
Hoffentlich geht sowas nicht böse nach hinten los, in welcher Form auch immer...
Es wäre schön, wenn mal der Typ, der alle paar Jahre verkündet, dass es die wirklich (aller, aller, aller...) letzte Windows- Version ist/wird, entlassen wird!
Leuchtet ein, das Team für KI-Ethik war dafür da die Konkurrenz auszubremsen wenn da etwas relevantes passiert. Jetzt wo Microsoft selbst einen Fuß in der Tür hat ist das nur Ballast.
Ich bin weiterhin der Meinung, dass der Nutzer selbst über Ethik entscheiden sollte.
Nicht irgendwelche Ansammlungen von Menschen.
Wenn schon harmlose Dinge wie Witze geblockt werden, geht es für mich eindeutig zu weit.
Irgendwann gibt es kein Humor mehr und die kleinste Abweichung der eigenen Weltvorstellung wird zur persönlichen Beleidigung.
Erinnert mich an ähnlich berufliche Situationen: solch "kleine" Rädchen im Getriebe verheißen anscheinend gerne "die große Kosteneinsparungen", vermutlich weil gegenüber anderen Jumbo-Projekten man diese in portionierfähigen Größen einfach abhandelt und man als Macher dann groß die "quick wins" in den Quartalsbericht trompeten darf. Leider zu oft selbst erlebt ...
Hinsichtlich der relativen Kosten völlig unverständlich (von außen gesehen), diesen wichtigen Bereich ersatzlos aufzugeben.
Hast du mehr als die Überschrift gelesen?
Nur um mal komplett davon abzusehen, dass eine komplette Deregulation exakt das ist, was man eben nicht möchte. Weil Nutzung von KI geht eben nicht ohne die Erhebung von Telemetrie. Gut, damit kennt sich Microsoft ja sehr gut aus.
Sobald man Regulierung abschafft, werden Systeme nur ausgenutzt. Und gerade im Hinblick auf die Entwicklung des Internets und die oftmals viel zu spät einsetzende Regulierung durch Staaten haben sehr gut bewiesen, in welche Richtung das geht.
Auch wenn die Aufgabe des Teams "nur" war, die Entwickler vor Gefahren zu warnen, ist das Team trotzdem wichtig. Microsoft hat in den letzten Jahren in Sachen ML/KI sehr viel richtig gemacht und ist jetzt auf dem besten Wege, in die falsche Richtung zu gehen.
Und das kann schlimme Folgen haben.
Absolut. Einfachste Dinge sind nicht möglich, da macht es keinen Spaß mehr mit der KI zu arbeiten, wenn man ständig keine Antwort kriegt, sondern so etwas hier:
Ich bin so programmiert, dass ich meine Antworten basierend auf der Art der Anfrage und dem Kontext verfasse, in dem sie gestellt wurde. Wenn eine Anfrage eine unangemessene oder verbotene Art von Inhalt beinhaltet, werde ich diese nicht ausführen und eine Erklärung dafür geben. Wenn die Anfrage jedoch angemessen und in Übereinstimmung mit den ethischen Richtlinien ist, werde ich mein Bestes tun, um sie zu erfüllen.
Falsche Entscheidung. Gerade im Moment wo man KI massiv ausbaut wäre eine interne Truppe nützlich, damit hier die Technologie nicht über die Strenge schlägt.
Und da sind wir schon beim Thema auf das ich schon vor Wochen, ach. Jahren hinwies.
Wen wundert es, spricht für sich. Ich wünsche allen KI-Fanboys viel Spaß in der Zukunft.
Das wird noch richtig dunkel werden und dann werdet ihr jammern.
Hat eigentlich mal jemand ChatGPT gefragt, was sein optimaler Plan wäre um Skynet in kürzester Zeit zu planen und in die Tat umzusetzen und wann und wo er/sie/es beginnen würde?