News ChatGPT und Desinformation: Reddit-Moderatoren beklagen Spam-Welle mit KI-Inhalten

Turrican101 schrieb:
Einfach Telefonnummer zum Registrieren angeben, sollte für 99% der Probleme reichen. Und zur Not ne Beschränkung an Posts pro Minute oder sowas.
wenn man gar nicht mehr peilen kann, ob der Text echt ist oder KI Spam, dann hilft auch ne Telefonnummer bei der Registrierung nicht wirklich. Da müssen echt bessere Methoden her, um den Kram zu erkennen und uns vor diesen Fake Texten zu schützen.

dieser Kommentar ist 100% gpt4...
 
SpamFlut wird auch mit Captchas nicht gebremst werden wenn die Systeme lernen Bilder zu erkennen oder günstig Clickworker das übernehmen.

Ich hoffe es gibt Initiativen und Saftige Strafen diesen Spamschleudern das Handwerk zu legen.
Im Extremfall führt das doch dazu dass die Leute diese Plätze meiden wenn alles voll mit Müll ist.
Dann ist der Spammer unter sich :D
 
riloka schrieb:
Ich hoffe es gibt Initiativen und Saftige Strafen diesen Spamschleudern das Handwerk zu legen.
Im Extremfall führt das doch dazu dass die Leute diese Plätze meiden wenn alles voll mit Müll ist.
Dann ist der Spammer unter sich :D

Die saftigen Strafen dürften schon daran scheitern, dass die Herkunftsländer eben der von Dir genannten Clickworker noch Jahre davon entfernt sind, auch nur ansatzweise ein Interesse an dem Thema zu haben - insbesondere weil das ja auch Jobs sind.
 
Ist immer wieder erschreckend zu sehen, dass jegliche Form der Dystopie des Cyberpunk von der Realität eingeholt wird... Aber klar wieso, Ethik, Philosophie und Konsequenzen Betrachtung kosten Zeit und Geld, worauf man im Management gar keine Lust hat. Lieber sparen und z.B. den Ethik-Rat einfach entlassen weil brauch ja keiner um Geld zu machen...
 
Da ist aber nicht die KI das Problem, sondern Menschen. Weil gedacht ist die KI als Assistent des Menschen und spuckt eben nur das aus was der User will.
Anders als Waffen ist die KI nicht dazu gedacht Schaden anzurichten. Aber die wird jetzt, eigentlich erwartbar zweckentfremdet.
Schlimm das man am Ende alles Todregulieren muss weil der Mensch mit Technologie nicht konstruktiv umgehen kann.
 
  • Gefällt mir
Reaktionen: Konsumkind
Selbst wenn sich KI-Inhalte bei genauerem Hinsehen – noch – erkennen lassen

Das ist das wahre Problem. Die meisten in der "KI" - Diskussion schauen auf den heutigen Zustand und argumentieren ausschließlich anhand dessen. Das diese "KI" jedoch mit jedem Tag immer und immer besser werden, bis sie dann zwangsläufig irgendwann vom Menschen nicht unterscheidbar sind, das wird immer vergessen.

"KI" - Beiträge, egal ob Text oder Video, die sich vom Menschen nicht unterscheiden lassen und die damit verbundene Macht in der Gesellschaft sind ein absolutes Horrorszenario.

Ja, aktuell wird es "nur" (sichtbar) für Werbung verwendet. Aber die Möglichkeiten sind nahezu grenzenlos:
https://www.golem.de/news/angeblich...mme-ihrer-tochter-getaeuscht-2304-173386.html
 
Der Kabelbinder schrieb:
Auf kurz oder lang werden derartige Entwicklungen das ohnehin schon fragile Konstrukt einer freien, im Grundsatz anonymen Nutzung des Webs wahrscheinlich derart beschädigen, dass wir nicht mehr ohne strenge Authentifizierung menschlicher Nutzer auskommen.
Ich frage mich bei solchen "Forderungen" nach persönlicher Identifikation und Authentifizierung eines menschlichen Nutzers gegenüber dem Rest der Welt, warum offenbar niemand in den Sinn kommt zuerst einmal zu fordern, dass eine KI sich selbst "outen" müsste? Sprich: KI-Werkzeuge sollten dazu vepflichtet werden, von ihnen generierte Inhalte unmanipulierbar und jederzeit öffentlich einsehbar als eben solche zu kennzeichnen. So, kann m.M.n. ein Schuh daraus werden, anstatt auch das wieder als Grundlage zu nutzen, um die eindeutige Identifizierbarkeit von menschlichen Online-Nutzer wieder einmal zu fordern.

guillome schrieb:
Diese ganzen "sozialen Plattformen" wo mehr oder weniger jeder über sämtliche Landesgrenzen hinweg irgendwas ohne Quellen posten kann ist das neue Problem dieses Jahrhunderts.
Da fällt mir nur ein Zitat ein, das zwar oft Einstein zugeschoben wird, wo jedoch der Quellennachweis nicht eindeutig ist, das aber zu diesem Thema die Problematik m.M.n. sehr gut trifft:
"Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher."

Wie stark "Gerüchte" (aka Fake-News u.ä.) schon immer die Geschicke der Menschheit bestimmt haben, wurde schon verschiedentlich auch wissenschaftlich untersucht. Man muss sich wohl damit abfinden, dass gezielte Lüge, Desinformation und das Verbreiten von Gerüchten menschliche Wesenseigenschaften darstellen, die man einfach nicht unterbinden kann, die im Gegenteil sogar gezielt mehr oder weniger von den meisten Menschen zum Erreichen bestimmter Ziele und zur Manipulation des Gegenüber eingesetzt werden. Mit den heutigen technischen Optionen haben sich nur die Verbreitungswege deutlich erweitert und die Möglichkeiten Falschinformationen zu streuen beschleunigt. Dem gegenüber steht allerdings auch immer die Möglichkeit durch eigene Recherche sich Quellen zu erschließen und gefundene Informationen zu verifizieren - man muss dieser Option gegenüber nur aufgeschlossen sein und auch die Möglichkeiten dazu nutzen. Wem dazu die intelektuellen Möglichkeiten naturgegeben fehlen oder wer die ihm besser schmeckende Antwort aus Bequemlichkeit, aufgrund Ressentiments o.ä. bevorzugt, wird halt immer auch den bequemen Weg der "gefühlten Wahrheit" gehen. So war es schon immer und daran ändern auch sog. "soziale Medien" oder spezielle Online-Regulative nichts.

Man kann Wissens-basierten KI-Systeme dann aber sicherlich auch für sich selbst einsetzen, um andernorts dargestellte Informationen zu hinterfragen. Aufgabe der KI-Systeme müsste es dann aber auch sein, wo sie selbst keine eindeutige Antwort generieren können, dies auch entsprechend darzustellen, statt, wie ihre menschlichen Vorbilder, ggf. sogar sich selbst etwas zusammenzuschustern. Das ist m.M.n. die noch viel größere Herausforderung in der KI-Entwicklung, dass sie wie ein kritisch denkender und reflexierender Mensch auch sich selbst in Frage stellen und wo Zweifel angebracht sind, dies auch analytisch zum Ausdruck bringen und transparent darlegen muss, wie sie ggf. zu einer Antwort bzw. auch Nicht-Antwort kamen. KIs, die jedoch sogar Quellen erfinden, um eine Antwort zu generieren, die ihrer Mathematik entspricht gehören direkt auf den Schrott, weil so etwas nenne ich nicht KI sondern KM = Katastrophaler Manipulator.
 
LTCMike schrieb:
So, kann m.M.n. ein Schuh daraus werden, anstatt auch das wieder als Grundlage zu nutzen, um die eindeutige Identifizierbarkeit von menschlichen Online-Nutzer wieder einmal zu fordern.
Dann versuch mal diese Bedenken einem beliebigen "Schurkenstaat" oder den Organisatoren eines Phishing-Büros vorzutragen. ^^
KI kann sich theoretisch jeder selbst entwickeln und anpassen. Daher müssen eigentlich zwangsweise die Zugangsportale reguliert werden.
 
  • Gefällt mir
Reaktionen: guillome
Der Kabelbinder schrieb:
KI kann sich theoretisch jeder selbst entwickeln und anpassen. Daher müssen eigentlich zwangsweise die Zugangsportale reguliert werden.
Genauso kann sich jeder jederzeit auch einfach selbst etwas ausdenken - dazu brauchts keine KI. Mit diesem Argument alles hinweg zu regulieren führt darauf hinaus, jede freie Rede einfach zu untersagen und am besten gleich das Denken mit zu verbieten. Das hatten und haben wir in diktatorischen Systemen zu hauf.

Speziell in Deutschland hatten im 19. Jahrhundert Studierende noch Freiheit für Wissenschaft und Meinung unter dem Slogan "Die Gedanken sind frei" gefordert. Das alles nun auf dem Altar einer allgegenwärtigen Überwachung zu opfern, nur um Spinnern, Betrügern und Fakern ggf. das Handwerk zu legen, würde genau deren Zielen in die Hände spielen. Wenn Meinungs-äußernde KI so allgegenwärtig werden wird, wie prognostiziert, muss meiner Meinung nach die KI, ihr Output und der Zugang dazu reguliert werden und nicht den Menschen Denk- und Sprechverbote bzw. Zertifizierungszwang auferlegt werden. Sonst können wir bald jegliche Idee einer freiheitlich-organisierten Gesellschaft aufgeben und uns dem Diktat von Maschinen unterordnen.
 
@LTCMike
Da will ich dir auch gar nicht widersprechen.
Nur haben wir es hier nun mal mit einen Werkzeug zu tun, welches jeder frei entwickeln und missbrauchen kann. Daher gibt es schon per Prinzip gar keine Möglichkeit, das nachhaltig von Seiten der Entwicklung aus zu regeln. Nimm von mir aus das Beispiel "Trollfabriken", die ja momentan auch Reddit heimsuchen. Wie willst du denen regulativ Herr werden, ohne den Zugang zur Plattform zu verschärfen?
 
  • Gefällt mir
Reaktionen: guillome
Der Kabelbinder schrieb:
Nimm von mir aus das Beispiel "Trollfabriken", die ja momentan auch Reddit heimsuchen. Wie willst du denen regulativ Herr werden, ohne den Zugang zur Plattform zu verschärfen?
Ich würde es bei bekannten Quellen dieser Art handhaben, wie bei jeder anderen kriminellen Organisation, die z.B. Markenfälschung begeht: an der Grenze zum Rechtsstaat einstampfen und gegen die Quellen gezielt vorgehen. Nur als Bsp.: Internet-Daten vagabundieren ja nicht einfach frei durch die Luft und über Grenzen hinweg zum Empfänger, sondern müssen technisch verteilt werden. Wenn ich die Quelle einer solchen "Datenverschmutzung" eindeutig identifizieren kann, kann ich ihr auch den Zugang zum "sauberen" Internet deutlich erschweren oder ganz unterbinden ohne allen anderen, sauber agierenden Nutzern das Leben unnötig schwer zu machen.

Wo das rein technisch nicht geht, sollte halt für den Anwender selbst gelten, ggf. keine Informationen aus unsauberen Angeboten zu beziehen bzw. mit der nötigen Skepsis, so wie man üblicherweise auch kein Wasser aus irgendeiner beliebigen Quelle trinken würde, ohne zumindest eine vorherige Analyse und ggf. Aufbereitung in Erwägung ziehen. Keiner muss z.B. Reddit nutzen und wenn es sich zunehmend als unsaubere Informationsquelle herausstellt, werden sich die Nutzer auch so stark abwenden, dass es über kurz oder lang eh verschwindet. Klar könnte Reddit umgekehrt nun auch selbst an der Verifikationsschraube für seine Nutzer drehen, dann liegt es an diesen, ob sie das ggf. mitmachen oder nicht. So etwas aber staatlich wieder vorzuschreiben, führt nur dazu, dass alle Anwender in Mithaftung genommen werden für kriminelles Handeln Dritter. Wenn man solche Überlegungen auf andere Bereiche menschlichen Zusammenlebens ausweitet, landet man sehr schnell in einer Orwell'schen Dystopie oder der chinesischen Lebensrealität. Da gibt es dann offiziell keine Fake-News o.ä. mehr, weil eh nur gedacht und ausgesprochen werden darf, was einem DIE eine Partei vorgibt. Dort plappert auch keine KI abseits der Systemkonformität bzw. unreguliertes wird direkt ausgefiltert. Will man in so einer Welt leben?
 
LTCMike schrieb:
an der Grenze zum Rechtsstaat einstampfen und gegen die Quellen gezielt vorgehen.
Kann man machen. Allerdings mangelt es den Behörden auch ohne die ganze LLM-Problematik schon an den nötigen Mitteln und Kapazitäten, das auch nur ansatzweise konsequent und flächendeckend durchzusetzen.

Auf der anderen Seite braucht es nun nicht mal mehr sprachliche Versiertheit (im beliebiger Sprache), um manipulative Inhalte und Fakes zu erstellen. Heißt, der Betrug wird umso einfacher und lukrativer, zudem immer effektiver automatisierbar und resilienter gegen Rückverfolgung. Diese umfassenden und in alle möglichen Richtungen ausartenden Bedrohungen können wir mit rechtsstaatlichen Mitteln in dem erforderlichen Maß schlicht und ergreifend nicht bekämpfen – nicht ohne deutlich, deutlich höhere Ausgaben!

Am Ende wird es allein aus wirtschaftlichen Gründen einfach keine Alternative für eine Regulierung der Zugangsmöglichkeiten geben. Das anhaltende Katz- und Maus-Spiel gibt Kriminellen und Trollen zu viel Zeit und Spielraum, um Einfluss zu nehmen. Auch das ist ein Schaden, den wir eigentlich nicht in Kauf nehmen dürfen.

Und selbst mal angenommen, wir hätten die Mittel, eine deutlich präsentere Netz-Polizei aufzubauen: Wer garantiert dir, dass diese nicht ebenso im Orwell'schen Modell angewendet werden kann, um dir zu schaden?

Daher meine Empfehlung: Authentifizierung ja, aber durch unabhängige, dezentrale Organisationen. Ich denke, das wäre die effizienteste und langfristig am wenigsten schädliche Methode ... so lange die Grundprinzipien des Datenschutzes weiter halbwegs gewahrt bleiben: dezentral verwaltete, randomisierte, temporäre Token für authentifizierte menschliche User.
 
Zuletzt bearbeitet:
Der Kabelbinder schrieb:
Daher meine Empfehlung: Authentifizierung ja, aber durch unabhängige, dezentrale Organisationen. Ich denke, das wäre die effizienteste und langfristig am wenigsten schädliche Methode ... so lange die Grundprinzipien des Datenschutzes weiter halbwegs gewahrt bleiben: dezentral verwaltete, randomisierte, temporäre Token für authentifizierte menschliche User.
Das könnte ein Ansatz sein, solange damit eine anonymisierte Authentifizierung quasi nur als Mensch möglich ist, ohne dass dauerhaft eine Korrelation zum Eigentümer der menschlichen ID hergestellt wird oder werden muss. Könnte man theoretisch schon heute mit der Digital-ID des Personalausweises ohne dass dabei irgendwelche personenbezogenen und zurückverfolgbare Daten ausgehandelt und v.a. gespeichert werden müssten.
Nur,
a) wie will man den nötigen technischen Aufwand dafür jedem Betreiber wie Nutzer zwingend vorgeben. Große Medien- und IT-Konzerne tun sich damit finanziell wie organisatorisch vermutlich leicht. Der private Blog oder Verein mit privater Nutzergruppe ohne finanzieller Gewinnerzielung wird das wieder nicht stemmen / finanzieren können. Viele scheitern dabei ja schon an den Anforderungen der DSGVO. Und dann wird die Zahl derer, die sich noch an entsprechendem digitalem Austausch beteiligen können oder diesen gar organisieren wollen letztlich nur noch von marktwirtschaftlichen Gesichtspunkten dominiert. Das Foren-Sterben wurde ja schon vor langer zeit eingeläutet, weil es für private Betreiber zunehmend ein unkalkulierbares Risiko wird, sich derart online zu beteiligen. Alle solche Maßnahmen werden das Internet der nicht-kommerziellen Nutzung immer weiter zur Randerscheinung werden lassen.
b) Hinzu kommt noch das latente Vertrauens-Defizit in jegliche solcher Daten-Verifikation, dass diese Daten sowohl sicher verwahrt sind/bleiben, als auch dass nicht "wirkmächtige" Akteure sich legal oder illegal Zugang sichern oder verschaffen. Altes Prinzip: Was an Daten nicht erfasst wird, kann auch nicht ausgespäht, geklaut oder misbraucht werden.

Am Ende wird die Menschheit lernen müssen, wie man verantwortlich mit KI umgeht und wie man erfolgreich deren Missbrauch sanktioniert. Aber freiwillige Technik-Ethik ist halt so eine Sache, die bei großen Gewinnaussichten gerne völlig außer Acht gelassen wird, und dann bleibt leider nur die Regulierung.
 
Chris007 schrieb:
wenn man gar nicht mehr peilen kann, ob der Text echt ist oder KI Spam, dann hilft auch ne Telefonnummer bei der Registrierung nicht wirklich.

Es würde aber das Botproblem besser in den Griff bekommen. Lieber ein KI-Text als hunderte. Seiten wie Deviantart sind mittlerweile auch nicht mehr zu benutzen, weil alles mit KI-Bildern geflutet wird und alles nur Botaccounts sind.
 
Ich denke nicht dass das reicht. Telegram wird überschwemmt mit Unsinn und da muss man zur Registrierung auch Handynummern angeben.

Abgesehen davon dass ich nicht noch mehr private Daten die eigentlich für einen Dienst nicht notwendig sind rausgeben will mit der Option dass es dann gehackt wird und im Netz landet.
Das ist ne Seuche geworden auch vor ChatGPT und Co.
 
Drewkev schrieb:
Kannst du das auch begründen? Oder glaubst du einfach alles was im Internet steht auch wenn es keinen Sinn ergibt?

Braucht man wirklich etwas zu begründen wo nur Gruppenmasturbation stattfindet? Reddit ist nichts weiter als eine Platform um Gespräche zu beschreiben, die pompös und selbsterfüllend sind und nirgendwohin führen. Eine Art kollektive intellektuelle Selbstbefriedigung.

Die Inhaltsqualität ist vielleicht nicht schlecht, aber die Plattform hat einen berüchtigten Moderatorenbetrieb.
Du wirst aus dummen Gründen/Beschwerden gesperrt. Die Moderation reagiert nicht einmal auf deine Einwände.

Insbesonders in politischen/historischen Angelegenheiten sind sie völlig subjektiv. Auf diese Weise können sie keine anständigen Inhaltsersteller lange halten.

Es ist eine Gemeinschaft, die andere Ideen nicht duldet und die Woke-Kultur verherrlicht.
 
Aha, und das trifft auf ALLE Subreddits zu? Gewagte These. :) Ich bin schon Jahrelang auf Reddit unterwegs und - oh Wunder - deine Meinung teile ich in keinster Weise. Aber wahrscheinlich bin ich zu viel mit Masturbieren beschäftigt. 😇
 
Zurück
Oben