News US-Präsidentschafts­wahlkampf: OpenAI will ChatGPT und Dall-E 3 vor Wahlen in 2024 absichern

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.939
  • Gefällt mir
Reaktionen: =dantE=, Otsy, knoxxi und eine weitere Person
Die Wahl wird auch ohne „missbrauch“ von AI ein Desaster werden für die größten Teile der USA da das Problem eher Unwissenheit und Naivität ist statt Fakeinfos
 
  • Gefällt mir
Reaktionen: flo.murr, DON.HEROUR, Sascha631 und 8 andere
Die Ai also Ki Bots für alles was mit der Wahl zu tun hat einfach sperren.
Die Systeme sind aktuell immer noch zu anfällig und unzuverlässig.
 
  • Gefällt mir
Reaktionen: 3dfx_Voodoo5
Das Problem wird sein, dass all diese Maßnahmen so etwas wie “mitdenken” erfordern. Oder noch schlimmer “Eigenrecherche”

Man muss sich doch nur mal ansehen auf welchen offensichtlich gefakten Mist die Masse in den letzten Jahren reingefallen ist. Ein “Dall-E 3” Wasserzeichen wird da nicht helfen.
 
  • Gefällt mir
Reaktionen: flo.murr, DON.HEROUR, Daniel D. und 7 andere
Oha, ich verstehe den Bedarf für eine Regulierung, aber ich bin gespannt auf die technische Umsetzung. Und wie gut diese am Ende wirklich funktioniert. Das mit dem Wasserzeichen ist ja erstmal nichts... aber sie haben ja noch ein wenig Zeit.
 
Chesterfield schrieb:
Die Wahl wird auch ohne „missbrauch“ von AI ein Desaster werden für die größten Teile der USA da das Problem eher Unwissenheit und Naivität ist statt Fakeinfos
Das Eine begünstigt ja das Andere.
 
  • Gefällt mir
Reaktionen: Otsy
Da bin ich ja mal gespannt wie das funktionieren soll bzw. wer hier entscheidet was Fake-News sind und was nicht.

Die Wahl ist aus meiner Sicht jetzt schon entschieden, da hilft es auch nicht jetzt noch zu versuchen über Informations-"prüfung" oder Ähnliches Fake-News zu verhindern. Was sowieso schon ein zum scheitern verursachtes unternehmen ist.
 
"Bullshi* in, Bullshi* out" ist bei sowas leider die Devise und da in den Trainingsdaten deutlich mehr "Bullshi*" ist als Fakten, ist die Wahrscheinlichkeit dass auf Fragen zu kontroversen Themen auch mit "Bullshi*" geantwortet wird deutlich höher als die Wahrscheinlichkeit, dass auf Fragen zu reinen Sachthemen wie "wie viel ist 6 mal 73" mit "Bullshi*" geantwortet wird.

Und wie schon X Mal durch "Exploits" seit Existieren der aktuellen "KI" Anwendungen bewiesen, sind die Gegenmaßnahmen am Ende eher so semi-effizient.

Wahrscheinlich wäre das einzige Mittel gegen Exploits sich von den Riesen-Datensets zu verabschieden und stattdessen kurierte, rein faktisch richtige Datensets für Fragen um z.B. Allgemeinwissen oder eben politischen Themen zu verwenden... Und selbst dann: auch die besten Paper haben mal Fehler...

Sron schrieb:
Da bin ich ja mal gespannt wie das funktionieren soll bzw. wer hier entscheidet was Fake-News sind und was nicht.
Wenn du damit fragen möchtest, wer das technisch umsetzt: natürlich OpenAI.
Wenn du damit aber fragen möchtest, wer das überwacht: niemand, da juristisch nirgends geklärt.

Und wenn du damit implizieren möchtest, dass OpenAI eine politische Agenda hat: natürlich haben sie die.
Sie wollen immerhin maximales Geld verdienen und gehen somit in die Richtung, die ihnen weiter maximales Geld verspricht.

Sprich, somit dürften die Bemühungen hier tatsächlich ernst gemeint sein. Denn solang man sich juristisch nicht angreifbar macht, und das geht indem man tatsächlich versucht auf wissenschaftlich oder allgemein belegten Fakten zu bleiben, kann weder ein verärgerter Demokrat noch ein Republikaner irgendwas dagegen tun.

Und dass man am Ende trotzdem "scheitern" wird ist klar. Nur die Frage wie stark, also hier tatsächlich in %: wie viele % der Anfragen werden mit "Bullshi*" beantwortet: sind 3% Anfragen die mit "Bullshi*" beantwortet werden noch akzeptabel? Sind es 30%? Oder sind es 0,3%? Und wie viele Nutzer werden überhaupt politisch relevante Anfragen stellen und nicht nur "Trolling" betreiben... Denn so ist das Internet leider.
 
Chesterfield schrieb:
ein Desaster werden für die größten Teile der USA da das Problem eher Unwissenheit und Naivität ist statt Fakeinfos
Nicht anders als bei uns hier mittlerweile, oder? 🤷‍♂️
 
  • Gefällt mir
Reaktionen: DON.HEROUR, rosenholz, tritratrullala und 6 andere
Ein Kampf gegen Windmühlen. Als wenn sich diejenigen, die Desinformation betreiben daran halten würden die KI nur im rahmen der Bestimmungen einzusetzen.
Aber gut, die Firmen müssen ja etwas tun um ausreden zu haben wenn sie mal wieder in die Schusslinie geraten oder verklagt werden.
 
  • Gefällt mir
Reaktionen: M@tze
Ich fand es ja sehr kritisch das Die Bild Zeitung Deepfakes mit Olaf Scholz für Werbung genutzt hat.

Ich bin nur gespannt ob es wieder Riots geben wird, nur aus Protest natürlich, oder die Leute diesmal klar kommen auf ihre Nation.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, M@tze und knoxxi
Ich hoffe so sehr, dass das ganze KI Gedöns sich am Schluss in ein Loophole versetzt und sich selbst zerstört.

Die Modelle rotzen derart viel Müll ins Netz, was wiederum als deren Basis dient weil es nicht als KI Rotz erkannt wird kann nicht gut gehen.
 
  • Gefällt mir
Reaktionen: 3dfx_Voodoo5
Idealerweise ChatGPT und Konsorten ab dem Tag abschalten, ab dem Briefwahl möglich ist.

Nicht dass ChatGPT dann noch selbstgemachte Wahlzettel zum Briefkasten KaaaIiieet. 🤪😜



Im Ernst, vor Missbrauch schützen indem die ganze Chose wirklich abgeschaltet wird.
Wird den Gierschlunden des Kapitalismus nicht gefallen, aber es verhindert eventuell einen Teil der Manipulationen durch die aktuelle Regierung selbst.

Nicht auszudenken, wenn dieses Land weiterhin seinen Allmachtsfantasien mit einem senilen, lauf-, rede- und führungsunfähigen Zombie ala Biden, ausleben darf.
 
ModellbahnerTT schrieb:
Sollte es nicht zum Standard gehören die Systeme gegen Fakenews zu härten?
Die Frage ist, wie du Fakenews deklarierst.
Wissenschaftlich ist zwar vieles bewiesen, aber nicht alles kann so geprüft werden, dass es wirklich Stand hält.

Manche Informationen dienen der Sicherung der aktuellen Regierung, und somit könnte es sein, dass andere Meinungen damit gecancelt werden, oder umgedreht.
Das Wort Zensur schwebt ganz gehörig über Kuration.
Und wenn alles kuratiert wird, wachsen die Module nicht schnell genug, verlieren ihre Relevanz, wenn nur zu 33 oder 46 % Fragen beantwortet werden können, und damit sind dann wieder die Gierschlunde des Kapitalismus bzw. deren Geldgeber, die nicht minder geldgierigen Aktionäre nicht einverstanden.
Wie so oft gibt es keine einfache Lösung die alle zufrieden stellt.
😓😔
Sanfte Grüße.
 
Eigentlich sollte man Leuten, die diese KIs zur Informationsbeschaffung zwecks Wahlentscheidung nutzen, das Wahlrecht entziehen. Und das sage ich als großer Fan dieser Technologie, der diese auch im Alltag viel nutzt.
Man will sich gar nicht vorstellen, dass Leute so **** sind.
 
Hauptsache in die News kommen... Kein Mensch nutzt DallE für Deepfakes, dafür ist es viel zu schlecht. Das macht jede 10 Jahre alte Grafikkarte lokal mit Stable Diffusion besser. Und dabei gibt's keine Zensur wie bei ChatGPT. Ist also reines Marketing diese "News"...
 
  • Gefällt mir
Reaktionen: 3dfx_Voodoo5
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.

Ähnliche Themen

Zurück
Oben