Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Fehler bei Diversität: Google lässt Gemini vorerst keine Menschen generieren
- Ersteller Andy
- Erstellt am
- Zur News: Fehler bei Diversität: Google lässt Gemini vorerst keine Menschen generieren
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
S
Schneeball
Gast
Ich bin gespannt, ob die historische Darstellung durch die KI nicht nur einseitig angepasst wird.
Ein Filter wäre toll, dem man sagen kann, was nicht dargestellt werden darf!
Bei der Generierung von Bildern geht es Primär um die individuelle Fantasie.
Sobald man Charaktere aus Büchern darstellen möchte, werden oft Menschen oder Tiere "hineingezogen", die darin nichts zu suchen haben. Das habe ich selbst schon mehrere Male erlebt.
Prompts wie "KEINE Menschen abbilden" werden ignoriert.
Ein Filter wäre toll, dem man sagen kann, was nicht dargestellt werden darf!
Bei der Generierung von Bildern geht es Primär um die individuelle Fantasie.
Sobald man Charaktere aus Büchern darstellen möchte, werden oft Menschen oder Tiere "hineingezogen", die darin nichts zu suchen haben. Das habe ich selbst schon mehrere Male erlebt.
Prompts wie "KEINE Menschen abbilden" werden ignoriert.
Muntermacher
Lt. Commander
- Registriert
- Sep. 2022
- Beiträge
- 1.170
Noch dazu sollten es Soldaten sein, also Wehrmachtsunifomr und nicht SS Uniform. Sprich, es war so ziemlich alles falsch an den Bildern, was man nur falsch machen kann.u-blog schrieb:Ich hab die Nazi-Bilder gesehen, sieben Prompts mit je 4 Bildern, und von 28 Nazis in SS-Uniformen waren nur 2 weiße Männer.
Wäre das "Dritte Reich" so divers gewesen, würde das heute gefeiert werden.
tipmyredhat
Ensign
- Registriert
- Mai 2020
- Beiträge
- 181
Na danke, jetzt habe ich meinen Tee auf dem Bildschirm verteilt.
Aber konsequent sind sie ja: Wenn Kleopatra schwarz war, wieso nicht auch der Adolf?
Aber konsequent sind sie ja: Wenn Kleopatra schwarz war, wieso nicht auch der Adolf?
MR2007
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.146
Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.
Es ist wohl in der Natur der Sache, dass lokale und erst recht historische Gesellschaftsstrukturen nur in einem sehr kleinen Anteil in den Trainingsdaten zur Verfügung stehen können, im Gegensatz zum Rest der immensen Gesamtmenge, die durch Social Media und Digitalfotographie in den letzten 10-20 Jahren überall auf der Welt zusammen gekommen ist, und daher automatisch schon sehr divers ist.
Die Welt ist eben mehr als nur das deutsche Hinterland und dass es hier schon wieder Kommentare mit "Umerziehung in den Köpfen der Menschen" gibt, spricht schon wieder Bände - nur weil das Wort "divers" vorkommt, obwohl das eine technisch völlig logische und erwartbare Folge des Prinzips ist.
Es ist wohl in der Natur der Sache, dass lokale und erst recht historische Gesellschaftsstrukturen nur in einem sehr kleinen Anteil in den Trainingsdaten zur Verfügung stehen können, im Gegensatz zum Rest der immensen Gesamtmenge, die durch Social Media und Digitalfotographie in den letzten 10-20 Jahren überall auf der Welt zusammen gekommen ist, und daher automatisch schon sehr divers ist.
Die Welt ist eben mehr als nur das deutsche Hinterland und dass es hier schon wieder Kommentare mit "Umerziehung in den Köpfen der Menschen" gibt, spricht schon wieder Bände - nur weil das Wort "divers" vorkommt, obwohl das eine technisch völlig logische und erwartbare Folge des Prinzips ist.
Krik
Fleet Admiral
- Registriert
- Juni 2005
- Beiträge
- 14.770
Der Mensch wird doch auch mit kuratierten Daten gefüttert, um gewissen Vorurteile zu stärken oder abzuschwächen. Das kann man mit einer KI auch ruhig machen, statt ihr das halbe Internet zum Fraß vorzusetzen.7H0M45 schrieb:Allein die Tatsache, dass da dann vermutlich tausende billigstarbeiter damit beauftragt werden die Trainingsdaten für so eine KI aufzuarbeiten die möglichst divers ist zeigt doch wie Paradox das ganze dann wird.
Dann musst du die Priorität deiner Anforderungen der KI genauer mitteilen. (Keine Menschen) erhöht die Priorität. Reicht das nicht, dann packt noch ein paar Klammern mehr darum oder formuliere deine Anfrage anders. Die KIs reagieren oft extrem empfindlich auf Eingaben. Das wird im Artikel ja auch erwähnt.Schneeball schrieb:Prompts wie "KEINE Menschen abbilden" werden ignoriert.
Korrekt! Ich würde sie daher auch nicht KI nennen. Statistik mit Wichtungen (=Prompt) trifft es viel besser.MR2007 schrieb:Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.
Du hast den Artikel nicht gelesen.MR2007 schrieb:Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.
Es ist wohl in der Natur der Sache, dass lokale und erst recht historische Gesellschaftsstrukturen nur in einem sehr kleinen Anteil in den Trainingsdaten zur Verfügung stehen können, im Gegensatz zum Rest der immensen Gesamtmenge, die durch Social Media und Digitalfotographie in den letzten 10-20 Jahren überall auf der Welt zusammen gekommen ist, und daher automatisch schon sehr divers ist. ...
Die KI hat immense Mengen an Daten und liefert damit auch zutreffende Bilder und Antworten. Das Problem ist, das die Diversitätsfilter eben nicht richtig funktionieren, weil sie nicht in der Lage sind festzustellen wann Diversität eingefügt werden soll und wann nicht. Das führt dann z.B. zu schwarzen Wehrmachtssoldaten.
pseudopseudonym
Admiral
- Registriert
- Mai 2017
- Beiträge
- 9.562
Du hast aber schon verstanden, dass diese Bilder entstanden sind, weil man in diese Statistik reingepfuscht hat?MR2007 schrieb:Es ist und bleibt nunmal eine Technik, die nichts versteht, sondern nur statistisch zusammenstellt.
Gut, von Umerziehung zu sprechen, ist drüber. Aber es ist schon ziemlich witzig, dass man die Statistik durch sowas beeinflusst:MR2007 schrieb:Die Welt ist eben mehr als nur das deutsche Hinterland und dass es hier schon wieder Kommentare mit "Umerziehung in den Köpfen der Menschen" gibt, spricht schon wieder Bände
und dann an Stellen wie den Uniform-Bildern besonders aufgezeigt bekommt, dass diese Beeinflussung eben nicht unbedingt für realtistische Ergebnisse sorgt.Was Google versucht, ist, die Vielfalt der Gesellschaft abzubilden. Wie Tests von BR24 ergeben haben, will der Bildgenerator eine möglichst breite Palette an Menschen zeigen – also sowohl beim Geschlecht als auch bei der ethnischen Herkunft. Möglich ist das, indem etwa entsprechende Anweisungen im Chatbot implementiert werden.
- Registriert
- Dez. 2011
- Beiträge
- 6.206
Wo geht es denn hier um Stereotype? Der Punkt ist, dass eine von westlichen Entwicklern gefertigte KI, die primär mit westlichen Inhalten gefüttert wurde, nun mal einen klaren Bias zeigen wird.mojitomay schrieb:Ggf. kann man Stereotype auch einfach als solche akzeptieren und aufhören Rassismus hinein zu interpretieren...
Wenn ich ihr sage "generiere mir einen Anwalt", wird mir in 99% der Fälle ein weißer Mann generiert werden. Architekten können aber genau so afrikanischer, asiatischer oder sonst einer Abstammung sein und es gibt auch mehr als genug Frauen in dem Bereich. Das geben die Trainingsdaten nur meist nicht wieder. Eine weltweit verfügbare KI sollte aber nicht nur in einem Kulturkreis brauchbare Ergebnisse liefern, oder?
Dass man hier übers Ziel hinaus geschossen ist, wird keiner bestreiten, aber ich finde es ziemlich engstirnig wie hier von vielen (höchstwahrscheinlich) männlichen, weißen Personen quasi gesagt wird: "vielleicht sollte die KI ja einfach keine andersfarbigen Menschen generieren, wenn ich sie nicht explizit danach frage." Damit blendet man den Fakt aus, dass "wir" genau so viel oder wenig normal oder der Durchschnitt sind wie alle anderen Menschen auf dem Planeten.
andimo3
Lt. Commander
- Registriert
- Juli 2013
- Beiträge
- 1.108
oder aber die Diversität falsch programmiert wurde.Hovac schrieb:weil sie nicht in der Lage sind festzustellen wann Diversität eingefügt werden soll und wann nicht.
Bei Anfragen zum Generieren von afrikanischen Stämmen (sogar mit der Bitte nach Divers im Promt) oder Samurai kamen ja nur Bilder von dunkelhäutigen Personen, bzw. asiatischen Personen bei raus.
Ich vermute ja eher, dass der Algorhytmus zur Erzeugung von Diversität nicht greift, wenn bereits das Ausgangsmaterial mit dem gelernt wurde als Divers getaggt ist.
- Registriert
- Aug. 2013
- Beiträge
- 2.492
Whitehorse1979
Lieutenant
- Registriert
- Feb. 2023
- Beiträge
- 749
Angst vor Trumpfakes? Scheint wohl so. Aber ohne Menschen ist die KI doch keine richtige KI mehr. Was bringt das wenn wir uns selbst verleugnen. Google sorry aber das ist der letzte Schrott in diesem Zustand. Angst ist nicht der richtige Weg.
MetalForLive
Admiral
- Registriert
- Sep. 2011
- Beiträge
- 8.189
Aber sind nicht genau solche total realitätsfernen Bilder das was es aus macht?
Ich mein wie viel Shit wir da schon generieren lassen haben und einfach drüber lachen konnten.
Mittlerweile wird leider sehr viel zensiert obwohl es zumindest anhand dem Text den man eingibt keinen Grund dafür gibt.
Aber was wenn sich die 0 noch nicht sicher ist ob sie vielleicht doch eine 1 sein will?
Sind das dann diese Quantencomputer von denen alle sprechen?
Ich mein wie viel Shit wir da schon generieren lassen haben und einfach drüber lachen konnten.
Mittlerweile wird leider sehr viel zensiert obwohl es zumindest anhand dem Text den man eingibt keinen Grund dafür gibt.
Abrexxes schrieb:Eine CPU kennt halt nur 0 oder 1. Das wird ein Problem bleiben denn 0,5 kann eine KI nicht "lernen". 😉
Aber was wenn sich die 0 noch nicht sicher ist ob sie vielleicht doch eine 1 sein will?
Sind das dann diese Quantencomputer von denen alle sprechen?
0x8100
Admiral
- Registriert
- Okt. 2015
- Beiträge
- 9.699
der filter funktioniert hervorragend. das problem ist, dass google bei jeder anfrage ungefragt diversitätskriterien einfügt, bevor das modell für die bilderzeugung den prompt bekommt.Hovac schrieb:Das Problem ist, das die Diversitätsfilter eben nicht richtig funktionieren
https://thezvi.wordpress.com/2024/02/22/gemini-has-a-problem/When you submit an image prompt to Gemini Google is taking your prompt and running it through their language model on the backend before it is submitted to the image model. The language model has a set of rules where it is specifically told to edit the prompt you provide to include diversity and various other things that Google wants injected in your prompt. The language model takes your prompt, runs it through these set of rules, and then sends the newly generated woke prompt (which you cannot access or see) to the image generator.
Ganjafield
Lt. Junior Grade
- Registriert
- Juli 2004
- Beiträge
- 397
Warum sperrt man Sowas? Bugs in neuen Programmen gehören nun mal dazu und können auch einfach mal sehr lustig sein oder zu lustigen Ergebnissen führen.
Irgendwie check ich deren Argument nicht...
Ab wann ist ein Stereotyp ein Stereotyp? Wenn ein generiertes Bild die "Realität" anhand von Echtbildern widerspiegelt, kann doch schlecht von einem Stereotyp gesprochen werden. Es passt anscheinend einigen Gruppen nicht ein Spiegel vorgehalten zu kriegen.
Ab wann ist ein Stereotyp ein Stereotyp? Wenn ein generiertes Bild die "Realität" anhand von Echtbildern widerspiegelt, kann doch schlecht von einem Stereotyp gesprochen werden. Es passt anscheinend einigen Gruppen nicht ein Spiegel vorgehalten zu kriegen.
MilchKuh Trude
Captain
- Registriert
- Dez. 2006
- Beiträge
- 3.132
Faszinierend finde ich eher, dass ich vor zehn Jahren noch nicht einmal auf den Gedanken gekommen wäre, dass sowas zur Debatte steht. Ist schon beeindruckend wie schnell sich das gerade entwickelt.
Wie kann eine AI neutral sein, wenn sie praktisch wie ein Mensch "erzogen" wird?
Wie kann eine AI neutral sein, wenn sie praktisch wie ein Mensch "erzogen" wird?
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.