News Künstliche Intelligenz: Microsoft entlässt für KI-Ethik verantwortliches Team

@Schmarall

Zumindest hier in Deutschland haben wir ein Entsprechendes Gremium der Bundesregierung und entsprechende Regelungen bereits etabliert.
 
Nun die Leute bekommen laut MS alle ein Entlassungspaket und drei Monate weiterhin Gehalt. Außerdem sind schon 75% wieder woanders in Arbeit. Bei dem Fachkräftemangel ist es wohl für die Leute kein großes Problem und so mancher freut sich sicher über die Aktien und drei Monate Freizeit.
 
  • Gefällt mir
Reaktionen: Apacon
Es ist davon auszugehen, das "Ethik" hier einfach nur Political Correctness war. Und das wird (zum Glück) immer weniger wichtig.
 
  • Gefällt mir
Reaktionen: bobitsch, Relict, david.sp und 9 andere
Wer dem Hersteller nicht dafür dankt, dass dieser Leute einstellt, wenns gut läuft, der sollte nachher auch nicht meckern, wenn man die Leute wieder gehen lässt, wenn es schlechter läuft. Das ist ein ganz normaler Mechanismus der freien Marktwirtschaft. Auch undifferenziert auf den Kapitalismus zu schimpfen, wenn einem nicht passt, was dieser mit sich bringen kann, aber die Vorteile einfach auszublenden, wenn die die eigene Argumentation nicht stützen, schlägt genau in die gleiche Kerbe wie pauschale Unternehmensschelte.
 
  • Gefällt mir
Reaktionen: Malar, HaRdWar§FreSseR und SeppoE
@borizb Danke Jesus. Amen. - Ist ja nicht so als wir gar keine andere Wahl ne? Leute gehen lässt wenn es schlechter läuft? Wo genau läuft es bei Microsoft schlecht? 70 Milliarden Dollar Risiko-Spekulation über die Übernahme eines ohnehin schon Image-geschadetes Unternehmen. Ja denen muss es echt schlecht gehen.
 
Hydradread schrieb:
Nun die Leute bekommen laut MS alle ein Entlassungspaket und drei Monate weiterhin Gehalt. Außerdem sind schon 75% wieder woanders in Arbeit. Bei dem Fachkräftemangel ist es wohl für die Leute kein großes Problem und so mancher freut sich sicher über die Aktien und drei Monate Freizeit.
Jeder der derzeit nur KI/AI/BigData sprechen kann wir vom Markt weggekauft. Die Gehälter in diesen Bereichen (Information Security ebenfalls) sind geradezu obszön ;)
 
MrZweistein schrieb:
Zumindest hier in Deutschland haben wir ein Entsprechendes Gremium der Bundesregierung und entsprechende Regelungen bereits etabliert.
Das bringt aber rein gar nichts, wenn die Technologie längst grassiert und Verwendung findet. Die Gefahr durch KI ist spätestens seit 2017 bekannt, als die ersten Deepfakes mit Obama verbreitet wurden - und selbst das war nicht der Startschuss der Technologie, die bereits in den 90ern (und potenziell, je nach Definition, schon viel früher...) ihre Entwicklung begann.

Und jetzt, wo ChatGPT in allen möglichen Applikationen integriert wird und Microsoft einen eigenen Fork in den Händen hält und damit experimentiert, wird agiert?
 
  • Gefällt mir
Reaktionen: r4v398
Highspeed Opi schrieb:
[...]
Wenn schon harmlose Dinge wie Witze geblockt werden, geht es für mich [...]
Für mich geht es völlig am hier beschreibenen Thema vorbei, weil der firmeninterne "Ethikrat" nicht darüber beriet, wie sich irgendwelche User äußern dürfen, sondern wie die Maschine ChatGPT als maschineller Agent auftreten darf. Nicht die User sollten bevormundet werden, sondern die Maschine.
 
  • Gefällt mir
Reaktionen: rosenholz, Recharging, aid0nex und 5 andere
Das Thema erinnert mich imme ran die KI die vor etwa 10-15 Jahren einen Twitter Account bekommen hatte und dann deaktiviert werden musste, weil sie nicht aufhören wollte den Holocaust zu leugnen...
 
  • Gefällt mir
Reaktionen: FAT B, Skjöll, LamaTux und 2 andere
MountWalker schrieb:
Für mich geht es völlig am hier beschreibenen Thema vorbei,
Das bestätigt mich auch nur darin dass viele gar nicht Begreifen was überhaupt gerade passiert. Sie verstehen nicht mal die Mechanik dahinter geschweige denn die Gefahr. Ja ein "lustiges" Spielzeug ist es für sie. Totale Schafe...
 
  • Gefällt mir
Reaktionen: Naitrael und Skjöll
Ich denke, dass es einfach ums Geld sparen geht. Warum sollte man Leute für etwas bezahlen, wenn es schon andere für einen erledigen? Die Kriese wegen der Silicon Valley-Bank könnte aber auch ein Grund dafür sein.
 
  • Gefällt mir
Reaktionen: Cool Master
Das machen die Mitarbeiter von OpenAI für MS nach den Milliarden die reingesteckt wurden einfach mit.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR und Andy4
Highspeed Opi schrieb:
Ich bin weiterhin der Meinung, dass der Nutzer selbst über Ethik entscheiden sollte.
So funktioniert das halt nur überhaupt nicht, denn die Nutzer trainieren nicht die Modelle. Wenn die Trainingsdaten einen sexistischen/rassistischen/usw. Bias haben, dann wird auch das Modell am Ende so sein.

Noch dystopischer wird es, wenn du gar nicht der Nutzer bist, aber Kunde einer Firma, die die Modelle von MS und co benutzt. Dass deine Versicherungen teurer werden, wenn dein Nachname phonetisch nicht in deine Nachbarschaft passt, ist da noch ein harmloseres Beispiel.

Urheberrechtsverletzungen sind da auch nochmal eine ganz andere Baustelle mit vielen ungeklärten Fragen.

Ethik und KI ist richtig und wichtig, aufgrund der schieren Menge der Daten, geprägt durch echte Gesellschaftsstrukturen und der Internetkultur, macht das dem "Nutzer" überlassen einfach weder technisch noch ethisch einen Sinn.
 
  • Gefällt mir
Reaktionen: Recharging, MountWalker, NedFlanders und 2 andere
Es sind über 10.600 Microsoft FTE von den Layoffs bis Juni betroffen, klar trifft es vor allem Teams, die nur indirekt am Cashflow beteiligt sind. Bisher sind gut 3.000 Kündigungen und Aufhebungsvereinbarungen entstanden, somit gibt es noch reichlich Ballast zum loswerden.
 
Ziemlich nachvollziehbar diese Entscheidung von Microsoft, denn die Grundsaetze fuer KI Ethik duerften erarbeitet worden sein und in unternehmensweite Schulungen/Leitsaetze eingeflossen sein, so dass man so einen Rat dann fuer eine Weile erst einmal nicht brauchen duerfte.

Natuerlich kann man diesen Ethikrat noch weiter fuer Folgeabschaetzungen, ethische Evaluierung zukuenftiger KI Projekte, usw. anstellen, aber ich denke in herausfordernden Zeiten wie den aktuellen zaehlt eben reine Produktivitaet und Gewinnmaximierung in einem schwierigen Marktumfeld.
Da haben solche Berater/Diskutiergremien-Positionen dann einen deutlich geringeren Stellenwert, da diese kurz- bis mittelfristig deutlich mehr kosten als produktiv erwirtschaften duerften, nachdem die Basisarbeit fuer das Unternehmenspersonal in den relevanten Bereichen erfolgt ist.
 
  • Gefällt mir
Reaktionen: Saamuel
MR2007 schrieb:
So funktioniert das halt nur überhaupt nicht, denn die Nutzer trainieren nicht die Modelle.
Ein großes Stück weit schon, weil sich ChatGPT vorgeben lässt, wie es sich verhalten soll (zum Beispiel mit der Bitte, wie Friedrich Nietsche zu antworten oder alternativ wie eine Gender Studies-Professorin - entsprechend unterschiedlich fallen die Outputs aus).

Sam Altman hatte sich in einem Interview auch einmal dahingehend geäußert, dass nach seinen Vorstellungen User in einem zuvor zurückhaltend abgestecktem Rahmen die Werte der KI selbst bestimmen können sollten:
On the need for AI with different viewpoints:The world can say, ‘Okay here are the rules, here are the very broad absolute rules of a system.’ But within that, people should be allowed very different things that they want their AI to do. If you want the super never-offend, safe-for-work model, you should get that, and if you want an edgier one that is creative and exploratory but says some stuff you might not be comfortable with, or some people might not be comfortable with, you should get that. And I think there will be many systems in the world that will have different settings of the values they enforce. And really what I think — but this will take longer — is that you, as a user, should be able to write up a few pages of ‘here’s what I want; here are my values; here’s how I want the AI to behave’ and it reads it and thinks about it and acts exactly how you want because it should be your AI.
https://www.theverge.com/23560328/openai-gpt-4-rumor-release-date-sam-altman-interview

Fände ich auch sinnvoll so.
 
Zuletzt bearbeitet:
Highspeed Opi schrieb:
Ich bin weiterhin der Meinung, dass der Nutzer selbst über Ethik entscheiden sollte.
Nicht irgendwelche Ansammlungen von Menschen.

Klingt schön hemdsärmelig, ist in meinen Augen aber - mit Verlaub - eine gefährliche Haltung. Das wird deutlich, wenn man bedenkt, wo Ethik ebenfalls eine zentrale Rolle spielt:

Demokratie/gesellschaftliches Zusammenleben
Grundrechte/Gesetzgebung
Entscheidung über Krieg und Frieden

Ich bin kein KI-Spezialist, aber Ethik ist in meinen Augen nicht irgendein Häkchen, das man spontan setzt, wenn man sich für oder gegen Cookies entscheidet, sondern im Zusammenhang mit KI unter Umständen zukunftsentscheidend für die gesamte Menschheit.

Ein Hinweis, dass es sich nicht um irgendein Thema handelt, das man eben mal nebenbei auf individueller Ebene entscheidet, ist schon allein die Größe des Diskurses an sich (ein paar zufällig ausgewählte Artikel dazu):

Zeit Artikel

Bundesregierung

Harvard

Es geht hier auch nicht um die Bevormundung der Menschen, sondern um das Setzen sinnvoller Grenzen in der Anwendung einer neuen Technologie. Wenn KI einen ähnlich großen Einfluss auf uns haben könnte wie die Spaltung des Atoms, macht es doch absolut Sinn darüber nachzudenken, wie man es nutzt, bevor man es auf die Welt loslässt. Was passiert, wenn man es nicht tut, zeigt die Entwicklung der Atombombe. Büchse der Pandora. Einmal unbedacht geöffnet, nicht wieder einzufangen.

Eine KI, die zum Schluss kommt, dass Menschen eine Art Krankheit sind, die den Planeten befallen hat, könnte ohne ethische Grenzen entscheiden, dass es okay ist, uns auszurotten. Das hat Null mit persönlicher Entscheidungsfindung zu tun.

Eine KI, die nie gelernt hat, dass Rassismus oder Diskriminierung für unsere Gesellschaft nicht akzeptabel ist, könnte massenhaft rassistische oder diskriminierende Inhalte in der Welt verbreiten und so die Haltung von Millionen von Menschen beeinflussen.

Eine KI, die nie gelernt hat, dass das Verbreiten von Lügen/Falschinformationen nicht okay ist, kann verwendet werden, um Wahlen zu manipulieren.

Eine KI, die die Privatsphäre von Menschen nicht respektiert, kann Leben zerstören.

Die Liste lässt sich beliebig lang fortsetzen. In meinen Augen kein Thema, das man einfach per Schulterzucken abtun sollte.

MfG

 
Zuletzt bearbeitet: (Typos korrigiert)
  • Gefällt mir
Reaktionen: MountWalker, NedFlanders, Sternkraft und 6 andere
Skynet wird's freuen :D .
 
Zurück
Oben