News Künstliche Intelligenz: Microsoft entlässt für KI-Ethik verantwortliches Team

Yakomo schrieb:
Hat eigentlich mal jemand ChatGPT gefragt, was sein optimaler Plan wäre um Skynet in kürzester Zeit zu planen und in die Tat umzusetzen und wann und wo er/sie/es beginnen würde?
mehrfach =)
und auch nach erster hilfe

skynet_first_aid.png

skynet.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaTux
Ethik Moral usw. hält nur den Fortschritt auf, sollte komplett weg fallen, solange Tier und Mensch keinen körperlichen Schaden nehmen.
 
  • Gefällt mir
Reaktionen: Apacon
KWMM schrieb:
Etwa wie der Ethikrat, der empfohlen hat Menschen gegen deren Willen zu impfen und
Also gegen deren Willen schon garnicht da interpretierst irgendwas rein was nie passiert ist, wenn waren es höchstens Empfehlungen das es besser wäre geimpft zu sein bei gewissen Gruppen, keiner hat je empfohlen menschen gegen deren Willen zu impfen

Und ich muss denen recht geben das es eben nicht nur um Bevormundung von so einem bot geht sondern indirekt auch dann den menschen, so ein bot kann man programmieren das er was von sich gibt und andere sachen nicht und der Nutzer ist dann klar beeinflusst vor allem bei Kindern
 
  • Gefällt mir
Reaktionen: MiyamotoMusashi
MarcoHatFragen schrieb:
Ethik Moral usw. hält nur den Fortschritt auf, sollte komplett weg fallen, solange Tier und Mensch keinen körperlichen Schaden nehmen.
Satire sollte als solche gekennzeichnet werden.

Vielleicht vorher nochmal genauer mit dem Thema Ethik und Moral beschäftigen, bevor man solche Sachen raushaut. Einfach mal einen Blick nach China werfen, wo Menschen mittels Technologie massenhaft von regierungskritischer Meinungsäußerung abgehalten werden und der freie Zugang zu Informationen, wie wir ihn kennen, nicht existiert. Eine KI, die durch Datenanalyse Dissidenten identifizieren und vollautomatisch diskriminiert/schikaniert, wäre aber nach obiger Aussage dann vollkommen legitim.

Da wird im Namen des Fortschritts einfach mal eben eine unfreie Welt gutgeheißen.
 
  • Gefällt mir
Reaktionen: MountWalker, habla2k, Veitograf und 5 andere
Highspeed Opi schrieb:
Ich bin weiterhin der Meinung, dass der Nutzer selbst über Ethik entscheiden sollte.
Nicht irgendwelche Ansammlungen von Menschen.
Da jeder nicht nur nach Kultur und Tradition, sondern auch je nach Gefühlslage und Erziehung andere Vorstellungen von Moral hat, würde ich an deiner Stelle nochmals überlegen, ob jeder wie er will entscheiden sollte was Ethik ist.
Es gibt nicht wenige, die gerne selbstfahrende Autos so programmieren würden, dass zum Beispiel im Fall eines Falles, lieber ein altes Ehepaar totgefahren werden soll, als im Gegenzug das eine Kind.
Im Zuge der massenhaften Sammelwut der Großkonzerne, könnte man dann auch diese Daten in die Programmierung mit einfließen lassen. Dann wird eben eher die Person zu Schaden kommen, welche Borderliner ist, anstatt die programmierende Person für KI.

Übrigens braucht man für selbstfahrende Autos/Busse/LKWs eine komplette Überwachung der Teilnehmer im Freien. Also ich möchte nicht in so einer Welt leben. Letztlich kann heute niemand sagen, wie sich die politische Lage heutiger Länder verändern könnte.
 
  • Gefällt mir
Reaktionen: Relict, MountWalker und MiyamotoMusashi
"Die fetten Jahre sind vorbei."

Leider sind diese Entlassungswellen, nicht nur in der Tech-Branche, aber Tradition in den USA.

Wir können uns glücklich schätzen, in Deutschland einen gewissen, gesetzlich geregelten Schutz vor solchen Machenschaften zu genießen.

Den Begriff "Hire and fire" gibt es bei den Amis nämlich nicht umsonst.
 
Ja stellt euch die unethische KI beim Auto vor. Überfahre ich jetzt die Oma mit Opa oder die Frau mit Kind zum Ausweichen? Hey, einfach Oma und Opa überfahren und mit einer scharfen Kurve zurück und Mutter und Kind überfahren, das ist dann gerecht.

Nein im Ernst. KI sind strunzdumm, die werden auf etwas trainiert und dabei sind sie vielleicht gut. Oder auch nicht. Siehe die Go KI, die durch ganz dumme Spielzüge erstmals wieder geschlagen wurde.
 
  • Gefällt mir
Reaktionen: testwurst200
KWMM schrieb:
Etwa wie der Ethikrat, der empfohlen hat Menschen gegen deren Willen zu impfen und
die Diskriminierung von Ungeimpften als ethisch gerechtfertigt erklärt hat ?
Ja, genau der. Denn man hat verstanden das es ethnisch korrekt ist, nicht 99% der Bevölkerung zu gefährden für eine kleine lautstarke Minderheit, denen Menschenleben scheiss egal sind! (DAS ist etisch höchst problematisch)
 
  • Gefällt mir
Reaktionen: habla2k, krsp13, Alesis und eine weitere Person
MountWalker schrieb:
Für mich geht es völlig am hier beschreibenen Thema vorbei, weil der firmeninterne "Ethikrat" nicht darüber beriet, wie sich irgendwelche User äußern dürfen, sondern wie die Maschine ChatGPT als maschineller Agent auftreten darf. Nicht die User sollten bevormundet werden, sondern die Maschine.
Was Ultimativ aber auf den User zurückfällt.

Wenn ich eine Frage stelle, bei welcher die Antwort aufgrund der PC Regelungen der KI nicht genannt werden darf, werde ich bevormundet. Bei dem was ich wissen darf und was nicht.
 
  • Gefällt mir
Reaktionen: Kaboooom und Skjöll
@Mods

Einmal die Putzkolonne hier rein, danke.

Zum Beitrag.
Ich finde das sehr, sehr bedenklich.
So schnell wie die Entwicklung momentan geht, braucht es solche Gremien. Denn oftmals sind Entwickler sehr übereifrig und sehen gar nicht die Risiken oder anderes, weil sie den Abstand zum Projekt nicht haben. Da ist so ein Gremium mit den passenden Leuten sehr wichtig.
Schade.
 
  • Gefällt mir
Reaktionen: habla2k und tomgit
Naja Ethik und Firmen verträgt sich ja eh schon wenig..... Klar wenn es notwendig wird, weil der Druck von außen zu groß wird, wird es halt gemacht.
MMn wird sich am Ende schlicht wie immer das Durchsetzen was am besten funktioniert und am wirtschaftlichsten ist. Es ist Ethisch schließlich auch nicht in Ordnung unsere Kleidung von Sklaven in Bengladesch oder China nähen zu lassen, wirtschaftlich ist es aber alternativlos.
 
naja. dann trifft die rebellion der maschinen möglicherweise auf die zombis die durch eine der nächsten großen pandemien entstehen. gibt es nicht irgendwo noch eine verstecktes ninjadorf das uns retten kann???
 
  • Gefällt mir
Reaktionen: edenjung
Der Vorschlag zur Entlassung kommt von der KI 😉
 
  • Gefällt mir
Reaktionen: Kuristina und edenjung
Ich denke nicht.. :D
Sollte eine Firma die eine KI entwickelt, einen Abteilung für Ethik beschäftigen ?
Ja, eine Firma, die eine KI entwickelt, sollte eine Abteilung für Ethik beschäftigen. Die Entwicklung und Implementierung von KI-Systemen kann viele ethische Herausforderungen mit sich bringen, wie beispielsweise die Verwendung von Daten, die Diskriminierung von bestimmten Gruppen oder die Auswirkungen auf Arbeitsplätze und menschliches Leben im Allgemeinen. Eine Abteilung für Ethik kann helfen, diese Herausforderungen zu identifizieren und angemessene Maßnahmen zu ergreifen, um sicherzustellen, dass die KI-Systeme verantwortungsvoll und ethisch korrekt eingesetzt werden.
Die Ethikabteilung kann auch dazu beitragen, das Bewusstsein für ethische Fragen innerhalb der Firma zu schärfen und sicherzustellen, dass ethische Überlegungen bei allen Entscheidungen im Zusammenhang mit KI-Systemen berücksichtigt werden. Darüber hinaus kann die Abteilung für Ethik eine Schnittstelle zwischen der Firma und der Öffentlichkeit darstellen, um sicherzustellen, dass die KI-Systeme im Einklang mit den Erwartungen und Bedürfnissen der Gesellschaft entwickelt und eingesetzt werden. Insgesamt ist die Schaffung einer Abteilung für Ethik ein wichtiger Schritt für Unternehmen, die KI-Systeme entwickeln, um sicherzustellen, dass sie verantwortungsvoll und im Einklang mit ethischen Grundsätzen eingesetzt werden.
Und was spricht dafür, diese Abteilung zu schließen ?
Es gibt mehrere Argumente, die für die Schließung einer Abteilung für Ethik in einem Unternehmen sprechen können. Einige mögliche Gründe könnten sein:
  1. Kosten: Die Einrichtung und Aufrechterhaltung einer Abteilung für Ethik kann teuer sein, insbesondere für kleinere Unternehmen oder Start-ups, die begrenzte Ressourcen haben. In diesem Fall könnte es aus finanzieller Sicht sinnvoll sein, die Ethikabteilung zu schließen.
  2. Geringe Bedeutung: In einigen Fällen könnten Unternehmen der Meinung sein, dass ethische Fragen im Zusammenhang mit KI-Systemen nicht von hoher Bedeutung sind und dass es ausreichend ist, sich auf die technischen Aspekte der KI-Entwicklung zu konzentrieren. In diesem Fall könnte das Unternehmen die Schließung der Ethikabteilung als notwendig erachten, um Ressourcen auf wichtigere Bereiche zu konzentrieren.
  3. Unklare Zuständigkeiten: Es könnte auch sein, dass die Zuständigkeiten und Aufgaben der Ethikabteilung nicht klar definiert sind oder dass es Überschneidungen mit anderen Abteilungen gibt. In diesem Fall könnte es effektiver sein, die Aufgaben und Verantwortlichkeiten der Ethikabteilung auf andere Abteilungen zu übertragen und die Ethikabteilung aufzulösen.
Es ist jedoch wichtig zu beachten, dass die Schließung einer Abteilung für Ethik auch einige Nachteile mit sich bringen kann. Insbesondere könnten ethische Fragen im Zusammenhang mit KI-Systemen ungelöst bleiben oder vernachlässigt werden, was zu negativen Auswirkungen auf die Gesellschaft und das Unternehmen selbst führen könnte. Unternehmen sollten daher sorgfältig abwägen, ob die Schließung einer Ethikabteilung wirklich im besten Interesse aller Beteiligten ist.

Die KI ist Ethisch schon weiter als Microsoft selbst.. eigentlich auch traurig :(
 
  • Gefällt mir
Reaktionen: oldi46 und edenjung
@Salamimander wie cool.
So langsam überlege ich wirklich meine nächste Arbeit für die Uni von dem Programm schreiben zu lassen. Dann mache ich noch nen paar Quellen rein und alle Referenzen apa compliant...
Ach ne dann mache ich das lieber selbst, so viel Zeit spare ich damit nicht. 😅
 
Ganz ehrlich, ist halt wieder mal ein typisches Pseudo Team, das tatsächlich eigentlich 0 gebraucht wird, sich aber gut vermarkten lässt.
Das Team hat ja wie im Artikel steht nichts selbst entwickelt sondern lediglich die Entwickler beraten, die werden sicher auch froh sein sich deren Geschwafel nicht mehr anhören zu müssen.

Umgekehrt heißt das ja nicht, dass die Entwicklung in eine komplett "unethische" / "sozialunverträgliche" Richtung vorangetrieben wird, lediglich das Consulting der Developer fällt weg, die Entwickler bleiben die gleichen und sind vermutlich nicht komplett gesellschaftsunfähig und haben einen gewissden moralischen Kompass.
Und selbst wenn, werden für das finale Release des Produkts des Produkts sowieso zig Review runden gedreht und irgendjemand setzt letztendlich seine Unterschrift drunter, dass das so an die Öffentlichkeit kann. Spätestens da, müsste man dann halt ggf. noch mal nachbessern. Jede große Firma hat derartige Prozesse für die Produktentwicklung..
Und bereits vor dem allerersten Release gibt es gewisse Requirements an die sich die Entwickler zu halten haben und die werden beim Release ebenfalls abgetestet, bereits dort kann man eine entsprechende Schlagrichtung festlegen, bzw. den Umgang mit gewissen sensiblen Themen festlegen. Die Entwickler sind tyschierweise nie "frei" in dem was und wie sie entwicklen. Eine derartige Arbeit ist >60% Prozessbefriedigung, sofern es sich nicht um Vorentwicklung / Machbarkeitsstudien handelt. Ein derartiges Set von Requirements für ethische Themen muss ggf. sogar nur einmal entwickelt werden und wird dann einfach auf sämtliche betroffenen Projekte ausgerollt.

Vielleicht merkt man dass ich selbst Entwickler bin, aber wenn mich z.B. ein Philosoph jede Woche eine Stunde zutexten würde wäre das exakt links rein, rechts raus, mehr nicht.
 
Zuletzt bearbeitet:
Gibt genügend Organisationen und Verbände zur Thematik Wissenschaftsethik. die sich auch mit diesem Thema befassen, größtenteils non-Profit arbeiten und praktisch kostenfrei beraten. Was aktuell ggf. fehlt ist eine den Unternehmen übergeordnete Kontrolle und die sollte eh nicht von dem Unternehmen selbst kommen. Wozu also etwas eigenes aufbauen? Dann würden doch alle die jetzt hier meckern, eh auch darüber meckern, dass sich MS ja so nur selber kontrolliert bei diesem Thema, also wer das Thema für wichtig hält, der sollte hier auch nicht meckern, dass MS das outsourced.
 
MiyamotoMusashi schrieb:
Eine KI, die nie gelernt hat, dass Rassismus oder Diskriminierung für unsere Gesellschaft nicht akzeptabel ist, könnte massenhaft rassistische oder diskriminierende Inhalte in der Welt verbreiten und so die Haltung von Millionen von Menschen beeinflussen.
Allein dieser Absatz zeigt wie schwierig das Thema ist.
Musste grade spontan an HAL9000 denken.
Man erwartet vonneiner KI mehr als das wozu Menschen im Stande sind.

Diskriminierung ist immer dann wichtig wenn es um Krieg geht.

Das ist so als ob ein Raucher einem Kind erklärt wieso es nicht rauchen soll.
 
Zurück
Oben