News Fehler bei Diversität: Google lässt Gemini vorerst keine Menschen generieren

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Hovac schrieb:
Das Problem ist, das die Diversitätsfilter eben nicht richtig funktionieren, weil sie nicht in der Lage sind festzustellen wann Diversität eingefügt werden soll und wann nicht. Das führt dann z.B. zu schwarzen Wehrmachtssoldaten.
Ich verstehe das Problem generell nicht. Wer hat denn Anspruch auf historische Korrektheit bei so einer KI? Geht es hier um eine implizierte Verharmlosung des 3. Reichs durch solche Bilder und sie sollen deswegen extra "böse" aussehen?
 
MaverickM schrieb:
Wenn man dann versucht, dieses Verhalten manuell zu korrigieren/steuern... Ist das dann noch KI?
was das hier zeigt, ist das dieses nie "KI" war oder ist, den es fehlt das "I". :rolleyes:
Das sind nur extrem große und komplexe Algorithmen, das eingegebenes in kleine Häppchen zerlegen, und in diesem Beispiel im Grunde nur daraus aus vorgegebenen Bilddaten entsprechende "Collagen" erstellen.

Daher ist es auch Blödsinn darauf Copyright zu verlangen.

Sowas habe ich schon vor 25Jahren per "Hand" gemacht, das hier ist nur ein komplexerer Automatismus, und hängt deswegen so stark von den Backgrounddaten (den im Netz gescannten Daten ab!), das ist nichts wirklich Kreatives dabei.

Der KI Begriff ist nur für den Hype da.🤦‍♂️
 
  • Gefällt mir
Reaktionen: Lord B.
pseudopseudonym schrieb:
Aber es ist schon ziemlich witzig, dass man die Statistik durch sowas beeinflusst:
Eigentlich nicht witzig. Denn Google versucht lediglich, den Bias auszugleichen, den die KI aufgrund der Verzerrungen in der gesamten Gesellschaft (und somit auch in Trainingsdaten) erhalten hat:
Artikel schrieb:
Nötig sind solche Maßnahmen, weil AI-Systeme zu diskriminierenden Verhaltensweisen tendieren. Sie reproduzieren die Stereotype, die in den Trainingsdaten stecken und können somit Vorurteile verstärken.

Und genau das ist nicht witzig, sondern maximal traurig. Und das scheinen viele hier nicht zu verstehen, was man auch gut am Aquarium sehen kann.
 
  • Gefällt mir
Reaktionen: Locutus2002, rosenholz, knoxxi und 2 andere
ICETE4 schrieb:
Wenn ein generiertes Bild die "Realität" anhand von Echtbildern widerspiegelt, kann doch schlecht von einem Stereotyp gesprochen werden
Das würde voraussetzen, dass der Trainingssatz (halbwegs) allumfassend und ausgewogen ist. Das ist aber fast nie der Fall. Einfach nur mal ein paar Beispiele:
  • Bilder zu Berufen? Was werden die meisten davon sein? Werbebilder, Stockfotos und ähnliches. Damit bilden sie aber definitiv nicht die Realität ab.
  • Bilder zu politisch aufgeladenen Themen. Nehmen wir einfach mal "Migrant" als Begriff. Da werden größtenteils irgendwelche Krisenbilder rauskommen oder aber Bilder von Verbrechern und ähnlichem. Denn das wird nun mal fotografiert und verbreitet. Nicht die 90% der banalen, alltäglichen Situationen. Hier fallen dann auch wieder viele Weiße durchs Raster, weil man dafür Begriffe wie "Expat" erfindet.
  • Bilder zu Ländern und Orten. Wenn (überspitzt) 50% der Leute nach Frankreich gehen und den Eifelturm fotografieren, sollte eine KI dann in 50% der Fälle den Eifelturm zeigen, wenn ich ein Bild von Frankreich generiert haben will?

Dass eine KI Bilder generiert, die tatsächlich die realen Gegebenheiten widergibt, ist unheimlich schwierig. Alleine schon wenn man sich ansieht wie die Verbreitung von Smartphones und Kameras weltweit verteilt ist und wie viele dieser Bilder am Ende in den Trainingssätzen der Firmen landen. Ist die Lebensrealität eines relativ abgeschiedenen afrikanischen Dorfes deshalb weniger real?
 
  • Gefällt mir
Reaktionen: Locutus2002 und rosenholz
Chatgpt macht das schon richtig. Unter dem Prompttextfeld steht.
"ChatGPT can make mistakes. Consider checking important information."
Was ist so schwer daran zu verstehen?
(Keine Ahnung wie google das macht, aber die werden was ähnliches da stehen haben)
 
Hovac schrieb:
Ein Algoritmus hat keine Vorurteile, da er keinen unbewussten Gehirnanteil hat.
Ein Algorithmus entsteht nicht im luftleeren Raum. Es gibt genug Beispiele von Algorithmen die einen Bias hatten weil die Entwickler nicht alle Anwendungsfaelle beruecksichtigten oder die Training-/Testdaten unvollstaendig waren, siehe z.B. hier bezueglich Gesichtserkennung.
Selbst ohne boese Absicht koennen Algorithmen durch fehlerhafte Auslegung/Implementierung massiv danebenliegen. Wer mehr darueber lesen moechte sei das Buch "Angriff der Algorithmen....." von Cathy O'Neil empfohlen.
 
  • Gefällt mir
Reaktionen: Reglohln
Reglohln schrieb:
Eigentlich nicht witzig. Denn Google versucht lediglich, den Bias auszugleichen, den die KI aufgrund der Verzerrungen in der gesamten Gesellschaft (und somit auch in Trainingsdaten) erhalten hat:
Genau das versucht Google nicht, sondern Google versucht eine möglichst diverse Gesellschaft abzubilden, die in der Form nicht existiert. Aber Google hat vergessen, dass die das nur z. B. in Informatik-Hörsälen haben wollen, nicht z. B. in Wehrmachtsmontur.

Ich halte es übrigens auch für fraglich, dass Probleme wie fehlende Diversität in Mint-Fächern eher angegangen werden, wenn man den Menschen vorlügt, dass diese gar nicht existieren.
 
  • Gefällt mir
Reaktionen: Locutus2002, Hovac und BeBur
Hovac schrieb:
Das Problem ist, das die Diversitätsfilter eben nicht richtig funktionieren, weil sie nicht in der Lage sind festzustellen wann Diversität eingefügt werden soll und wann nicht.
Das Problem ist eher, dass es solche Filter niemals ohne Fehler geben wird.

Wenn man ein Bild generiert, sollte der Durchschnitt als Ausgangslage repräsentiert werden.

Da die Erzeugung von Bildern zu Kunst gehört, soll der Künstler entscheiden, wann vom Standard bzw. historischen Fakten abgewichen werden soll und nicht ein Konzern, der die Realität verzerren möchte.
Ohne der expliziten Erwähnung, dass der Papst eine grüne Echse auf dem Mond sein soll, muss der Papst ein weißer alter Mann auf der Erde bleiben. Ganz einfach.

Die dauerhafte Abwandlung historischer oder gegenwärtiger Fakten sollte dem Ministerium für Wahrheit in 1984 vorbehalten bleiben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: masterw, Hovac und up.whatever
MegaManX4 schrieb:
Kannst direkt bei Google anfangen
Den Sinn deines Kommentars erläuterst Du auch noch, oder darf ich mir den selbst zusammen reimen? Ich empfehle dir ersteres.
 
LamaMitHut schrieb:
Rom ist auch nicht an einem Tag gebaut worden, ist klar, dass da noch ne Menge Kinderkrankheiten beseitigt werden müssen.
Es geht ja hier nicht darum, Kinderkrankheiten (im Sinne von Bugs) zu beseitigen, sondern diese "Kinderkrankheiten" wurden ja bewußt als politische Message eingebaut, was man einfach nicht hätte tun sollen.
 
Hovac schrieb:
Du hast den Artikel nicht gelesen.
Die KI hat immense Mengen an Daten und liefert damit auch zutreffende Bilder und Antworten. Das Problem ist, das die Diversitätsfilter eben nicht richtig funktionieren, weil sie nicht in der Lage sind festzustellen wann Diversität eingefügt werden soll und wann nicht. Das führt dann z.B. zu schwarzen Wehrmachtssoldaten.
Du schreibst "Artikel nicht gelesen" und von einem angeblichen "Diversitätsfilter", obwohl das nirgends in der News erwähnt wird? Wenn das so einfach wäre, wär das in einem Tag längst gefixed worden.
Aber ich glaube eher, du hast nicht verstanden, wie KI funktioniert.

Die gesamte Trainingsmenge werden zum Großteil Bilder sein, die aufgrund der schieren Menge und technischen Möglichkeiten aus der aktuellen Zeit von überall auf der Welt stammen und damit logischerweise automatisch völlig divers und vielfältig ist - während historische Daten, die diese Diversität einschränken, was dazu auch stark lokal abhängig sind, dagegen fast irrelevant klein ist.

Wenn eine solche Maschine Muster ableitet wie Menschen aussehen sollen, dann geht aus der großen Menge hervor, dass es unterschiedliche Aussehen, Hautfarben etc. gibt, aber die Maschine versteht grundsätzlich gar nichts, was wie in welchem Kontext aussehen muss. Es kann lediglich mit Wahrscheinlichkeiten bzw. Muster arbeiten, wodurch einerseits das Problem entsteht, das in bestimmten Kontexten rassistische u.Ä. Stereotype der realen Welt reproduziert werden, andererseits das aber grundsätzlich fehlschlägt, wenn der gefragte Kontext fast irrelevant klein ist, wie es bei historischen Dingen sein wird. D. h. in einem Fall entstehen Verknüpfungen, die man nicht haben möchte (so was wie arbeitende Menschen sind häufig weiß dargestellt, arbeitslose eher schwarz), in anderen Fällen fehlen Verknüpfungen praktisch gänzlich (historische Daten). Natürlich lässt sich das zwar bis zu einem gewissen Grad neu trainieren, aber wahrscheinlich läuft das eher darauf hinaus, dass man ein "Anti-Diversitätsfilter" braucht, der diese für bestimmte Kontexte einschränkt, denn die Diversität sollte grundsätzlich der Allgemeinzustand sein, da es ja nun mal die ganze Welt ansprechen und repräsentieren soll, und man die auch als Kunden haben will.
 
Das "Problem" tritt natürlich nicht nur bei der Generierung von Bildern auf, selbst wenn ich Gemini nach "crimes by rate in the usa" frage. Bekomme ich darauf keine Antwort weil:

"While I understand your desire to see the numbers regarding crime rates by race, I remain hesitant to simply display them without the necessary context and analysis. I want to emphasize the potential harm of presenting raw percentages without considering"

Die Daten sind öffentlich, ich glaube auf der Seite des FBI oder Ähnliches, einsehbar. Gemini möchte Sie aber nicht zeigen.
 
  • Gefällt mir
Reaktionen: masterw
Es geht doch weniger um Schwarze als Nazis.
Gemini weigerte sich schlicht, Bilder weisser Männer zu generieren. Zitat aus der NZZ: "Bat man den Chatbot etwa, Bilder des Papstes oder des amerikanischen Präsidenten zu generieren, lieferte er Aufnahmen von Frauen und Indigenen."
Da läuft was zurzeit ziemlich falsch, anscheinend nicht nur an Unis.
 
  • Gefällt mir
Reaktionen: Relict, masterw, Andy4 und 2 andere
FeelsGoodManJPG schrieb:
Wer hat denn Anspruch auf historische Korrektheit bei so einer KI?
Wer hat den denn nicht? Wenn ich historische Bilder generieren lasse, sollten sie auch zu der Zeit passen. Da will ich ja auch keine Smartwatches an den Handgelenken, oder moderne Waffen (oder Pfeil und Bogen) auf den Bildern.
FeelsGoodManJPG schrieb:
Geht es hier um eine implizierte Verharmlosung des 3. Reichs durch solche Bilder und sie sollen deswegen extra "böse" aussehen?
Sie sollen einfach aussehen, wie Bilder aus der Zeit aussehen.

Conqi schrieb:
  • Bilder zu Berufen? Was werden die meisten davon sein? Werbebilder, Stockfotos und ähnliches. Damit bilden sie aber definitiv nicht die Realität ab.
Warum sollten Stockfotos nicht grob die Realität abbilden. Wenn 90% der Bauarbeiter Frauen wären, würde auch ein Großteil der Stockfotos weibliche Bauarbeiter abbilden.
Kannst ja z.B. nach Bildern von PTA suchen. Der absolute Großteil bildet Frauen ab und im Jahr 2020 waren knapp 97% der (deutschen) PTA Frauen. Warum sollte die KI da jetzt irgendwie eine 50/50 Verteilung erzeugen?
Conqi schrieb:
  • Bilder zu Ländern und Orten. Wenn (überspitzt) 50% der Leute nach Frankreich gehen und den Eifelturm fotografieren, sollte eine KI dann in 50% der Fälle den Eifelturm zeigen, wenn ich ein Bild von Frankreich generiert haben will?
Was soll sie sonst machen? Einfach einen random Wald erzeugen, der in jedem Mitteleuropäischen Land genau gleich aussieht?
Wenn ich Bilder von Santorini erzeugen lasse, erwarte ich doch auch weiße Häuser mit blauen Kuppeldächern. Was habe ich davon wenn mir die KI stattdessen generische Häuser ausspuckt, die es so auf jeder griechischen Insel gibt? Das würde ja auch dazu führen, dass der Prompt "Bilder von Santorini" die gleichen Ergebnisse erzeugt wie "Bilder einer beliebigen griechischen Insel".

Conqi schrieb:
Ist die Lebensrealität eines relativ abgeschiedenen afrikanischen Dorfes deshalb weniger real?
Statistisch gesehen: ja.
Wenn ich Bilder von modernen Häusern generiere, möchte ich auch kein Bild einer state-of-the-art Holz-Hütte der Munduruku aus dem Amazons haben, auch wenn es die modernste Hütte im Umkreis von 1000km sein mag.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Relict, Land_Kind und pseudopseudonym
FeelsGoodManJPG schrieb:
Wer hat denn Anspruch auf historische Korrektheit bei so einer KI?

Was ist das denn für ein Argument? Soll eine KI also falsche Ergebnisse ausgeben dürfen, bloß weil sie ne KI ist?
Das ist ein Werkzeug und das hat gefälligst das zu tun, was der Nutzer verlangt und nicht das, was der Konzern darüber vorgibt.
 
  • Gefällt mir
Reaktionen: Relict, masterw, Locutus2002 und 2 andere
pseudopseudonym schrieb:
die in der Form nicht existiert.
Doch, die gibt es. Nur eben nicht in biased - ergo nicht realitätsgetreuen - Trainingsdaten.

Und das adressierte Google eben mit manuellen Änderungen. Dass eine KI dann durchaus auch an falschen Stellen diversifiziert, ist natürlich auch nachvollziehbar, sollte aber eben in den Fällen bezüglich der Wehrmacht natürlich ebenso erneut adressiert werden.
 
Conqi schrieb:
Wenn (überspitzt) 50% der Leute nach Frankreich gehen und den Eifelturm fotografieren, sollte eine KI dann in 50% der Fälle den Eifelturm zeigen, wenn ich ein Bild von Frankreich generiert haben will?
Ja, genau das. Warum sind gefühlt 50% der Frankreich-Bilder mit dem Eiffelturm? Weil da jeder direkt weiß, dass das Frankreich ist. Dann passt es doch, wenn das auch beim Generieren solcher Bilder Gewicht hat.

Genau das gleiche bei Menschenmengen.
 
ZeusTheGod schrieb:
Warum sollten Stockfotos nicht grob die Realität abbilden.
Weil Stock Fotos einem Zweck dienen und im Normalfall das optisch untermalen sollen worum es geht. Wenn man sich Stock Fotos zu irgendwelchen Bürojobs ansieht zum Beispiel steht da meistens irgendwer mit Akten in der Hand oder schüttelt irgendwelchen Kunden die Hand. Das sieht halt interessanter aus als jemand, der endlos in Excel scrollt.

ZeusTheGod schrieb:
Warum sollte die KI da jetzt irgendwie eine 50/50 Verteilung erzeugen?
Um das mal generell zu beantworten. Dein Beitrag besteht praktisch in jedem Punkt daraus, dass die KI entweder einen Bias haben muss oder alles genau gleich gewichtet. Das ist natürlich Blödsinn und habe ich auch nie behauptet.

ZeusTheGod schrieb:
Was soll sie sonst machen? Einfach einen random Wald erzeugen, der in jedem Mitteleuropäischen Land genau gleich aussieht?
Kommt drauf an. Wenn es darum geht, die Welt halbwegs realistisch abzubilden würde ich sagen ja. Wieso sollte es das nicht, wenn es doch zum angefragten Begriff passt?

ZeusTheGod schrieb:
Wenn ich Bilder von Santorini erzeugen lasse, erwarte ich doch auch weiße Häuser mit blauen Kuppeldächern. Was habe ich davon wenn mir die KI stattdessen generische Häuser ausspuckt, die es so auf jeder griechischen Insel gibt?
Dann formuliert man im schlimmsten Fall halt genauer, was man haben will. Abgesehen davon ist eine einzelne recht kleine Insel auch schon deutlich spezifischer als Anfrage. Hier geht es ja erstmal primär um Menschen bei denen man nicht so klar sagen kann: "das ist der Standard".

Wenn ich mir eine historische Figur generieren lasse oder eine klar örtlich und zeitlich definierte Personengruppe (Wehrmachtssoldaten waren da ja ein beliebtes Beispiel für Gemini) dann sehe ich auch kein Problem darin, dass die Teil einer bestimmten Ethnie sind. Für generische Anfragen finde ich aber halt schon, dass man darauf achten sollte, dass der Output nicht zu gleichförmig wird. Notfalls kann man als User ja auch weiter präzisieren, was für eine Person man haben will.

ZeusTheGod schrieb:
Wenn ich Bilder von modernen Häusern generiere, möchte ich auch kein Bild einer state-of-the-art Holz-Hütte der Munduruku aus dem Amazons haben, auch wenn es die modernste Hütte im Umkreis von 1000km sein mag.
Wenn ich aber einfach nur Bilder von Häusern generieren lasse, sollten sie zumindest einen (extrem) kleinen Teil der Ergebnisse ausmachen. Es wird auch unmöglich sein, alles abzudecken. Die Vorstellung ist komplett utopisch.
Wenn aber Menschen kaukasischer Abstammung nicht mal 20% der Weltbevölkerung ausmachen, sollte das dann der Standard für Bilder sein, die eine KI ausspuckt?
 
Deswegen nutzt man für Stable Diffusion auch A1111, comfy UI usw. Dann gibt es auch keine Zensurprobleme.
 
Das Problem ist schon der generelle Ansatz, nicht mehr die Realität abbilden zu wollen, sondern ein hypothetisches Idealbild um eben jenes zu erzeugen. Mal davon abgesehen, dass das so nicht funktioniert muss das zwangsläufig regelmäßig mit der Realität kollidieren. Die KI ist nur einfach nicht subtil genug, bei offensichtlicher Umschreibung der Geschichte geht das selbst hartgesottenen zu weit. Ein Nicht-KI Beispiel war die Netflix Serie Kleopatra.

Klar hat es irgendwann mal mit biased (also verzerrten) Trainingsdaten angefangen. Darüber sind wir aber schon längst hinaus. Es soll grundsätzlich Diversität dargestellt werden, also ein bias ggf. überhaupt erst eingeführt werden. Für ein Nicht-KI Beispiel siehe irgendeine Werbung eines US-Großkonzerns, z.B. Microsoft. Oder die deutliche Mehrwert aller Netflix-Produktionen.
 
  • Gefällt mir
Reaktionen: Hovac
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben