News ChatGPT-Entwickler: OpenAI bietet Verlagen Millionen-Beträge für Trainingsdaten

Künstliche Intelligenz...trained by Bild.
 
  • Gefällt mir
Reaktionen: ash79
Matziking schrieb:
Es sind nicht die Medien die Hass streuen ;)
Aha, wenn mir dazu noch deine (berechtigte und korrekte) Definition von Journalismus durch den Kopf gehen lasse, Stelle ich fest dass es einfach kaum noch journalistische Medien gibt. Das meiste sind dann heutzutage oft doch eher Kommentare mit steiler Tendenz.

Davon abgesehen sieht man schon seit der Integration sozialer Medien in diversen Modellen wie diese verdummen. Das wird durch Axel Springer und viele andere "Medien" vermutlich nicht besser und steht für mich klar in Abhängigkeit zum Kontext der den Informationen die eingelesen werden zugeschrieben wird.

Was man auch nicht vergessen darf, es gibt ja nicht nur rein informative Artikel, leider eher immer seltener, sondern oft auch jene die durch rhetorische Stilmittel begleitet werden wie Ironie, Sarkasmus usw.

Ich stelle es mir als ziemliche Herausforderung vor, Informationen die so eingelesen werden korrekt zu interpretieren ohne manuellen Eingriff.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snowi
NoNameNoHonor schrieb:
Davon unabhängig sollte ein LLM bzw. ein KI-Chatbot immer die Quellen mit angeben, damit man überhaupt sieht, woher der Kram kommt.
Wenn ich das richtig verstanden habe, kann die "KI" die Quelle gar nicht nennen, da am Ende nicht mehr nachvollziehbar ist, warum die KI das schreibt, was sie da schreibt.
NoNameNoHonor schrieb:
Und schlußendlich kann jemand, der ein solchen Antworttext veröffentlicht, den Chat-Roboter als Quelle angeben.
Man sollte einen "KI" im Stile von ChatGPT ganz sicher nicht als Quelle heranziehen.
ChatGPT kann schöne Sätze formulieren, aber eben keine Fakten liefern die man dann auch noch in eigenen Artikeln weiterverarbeitet. Hier liegt einfach das fehlende Verständnis dafür, was ChatGPT eigentlich macht.
 
  • Gefällt mir
Reaktionen: ArrakisSand
FrAGgi schrieb:
Wenn ich das richtig verstanden habe, kann die "KI" die Quelle gar nicht nennen, da am Ende nicht mehr nachvollziehbar ist, warum die KI das schreibt, was sie da schreibt.

Ja, das ist so wie mit einem Fleischwolf, in den Du Rindfleisch und Schweinefleisch reinfuetterst, am Ende ist es einfach nur Faschiertes, und Du kannst das Rind nicht vom Schwein auseinanderhalten.

Es gibt aber schon Forschung in Richtung "explainable AI", und ich hoere, dass die auch schon Resultate haben, weiss aber nicht, ob man so eine AI wie ChatGPT explainable bauen kann.
 
  • Gefällt mir
Reaktionen: ArrakisSand
7hyrael schrieb:
Was man auch nicht vergessen darf, es gibt ja nicht nur rein informative Artikel, leider eher immer seltener, sondern oft auch jene die durch rhetorische Stilmittel begleitet werden wie Ironie, Sarkasmus usw.
Keine Ahnung in welchen Medien du dich aufhälst, aber eventuell solltest du dir mal wieder eine klassische Zeitung (nicht Boulevard), oder auf einer regionale Zeitungs-Webseite aufhalten. Dann bekommst du auch wieder klassische Informationen. Und wenn es eine "Meinung" ist, wird diese auch wie vom Pressegremium gewünscht als Kommentar ausgewiesen.

Wenn du allerdings auf jeden Artikel aus deinem Facebook/Twitter Feed klickst und dann eventuell auf Bild,derStandart oder rechteSeitelinksverpackt landest, oder noch Besser nur ein BILD des Artikels angezeigt wird, brauchst du dich nicht wundern.
 
Snowi schrieb:
Ich weiß nicht wie die Zeitungsartikel "früher" so waren, bin erst 28. Ich hoffe aber, sie waren länger und inhaltlich besser geschrieben als der Müll heute auf 90% der Portale, das kann man ja nicht mehr lesen.
Früher (bin auch "erst" 44, bin aber noch mit der analogen Tageszeitung auf Papier aufgewachsen) hatten die Artikel auch deutlich weniger Rechtschreib- und Grammatikfehler. Es scheint so, dass die Redaktionen keine Lektoren mehr beschäftigen und stattdessen auf die Autokorrektur vertrauen.
 
  • Gefällt mir
Reaktionen: Snowi und rosenholz
Matziking schrieb:
Keine Ahnung in welchen Medien du dich aufhälst, aber eventuell solltest du dir mal wieder eine klassische Zeitung (nicht Boulevard), oder auf einer regionale Zeitungs-Webseite aufhalten. Dann bekommst du auch wieder klassische Informationen. Und wenn es eine "Meinung" ist, wird diese auch wie vom Pressegremium gewünscht als Kommentar ausgewiesen.

Wenn du allerdings auf jeden Artikel aus deinem Facebook/Twitter Feed klickst und dann eventuell auf Bild,derStandart oder rechteSeitelinksverpackt landest, oder noch Besser nur ein BILD des Artikels angezeigt wird, brauchst du dich nicht wundern.
Ich nutze kein Facebook/Twitter/Telegram usw. ich bin inzwischen wieder ganz konservativ mit Telefon, Mail, SMS und Whatsapp unterwegs. Neumodisch nennt man das dann digital detox.

Lokalnachrichten interessieren mich in den seltensten Fällen.
Ich bin auf div. Newsplattformen unterwegs, sei es Spiegel, NZZ, FAZ und Co. aber bei vielem was als Nachricht deklariert ist, entsteht für mich oft doch auch ein Bild von tendenziöser Berichterstattung. Dazu muss man tlw. nichtmal viel extra sagen, insb. beim Spiegel fällt oft auf, wie gerne einige Informationen und Details weggelassen werden um das gewünschte Bild zu erzeugen. Lässt sich oft auch spezifischen Autoren zuordnen bei denen sich sowas häuft.

Ggf. mag das aber auch an unsauberer Recherche, fehlendem journalistischem Moralkompass oder generell schlampiger Arbeitsweise liegen.

Aber in Zeiten wo selbst bei den ÖR die "Journalistische Arbeit" eher Revolverblatt-Niveau erreicht und offenbar zuerst mal klar steht, was man mit einem sogenannten Investigativ-Journalistischen Beitrag erreichen will, bevor die Recherche losgeht, wundert mich langsam nichts mehr.
Bestes Beispiel für den journalistischen Verfall im ÖR sind für mich div. FUNK-Formate und insbesondere STRG-F. Bin nur froh dass ich das nicht mehr mit finanzieren muss.
 
Artikel-Update: Neben Presseverlagen klagen nun auch zwei Autoren gegen OpenAI und Microsoft, berichtet Reuters. Der Vorwurf lautet wie gehabt: Die AI-Entwickler sollen deren Werke ohne Erlaubnis verwendet haben, um die Modelle zu trainieren. In diesem Fall handelt es sich um mehrere Sachbücher.

Deutlich wird an dieser Stelle ein Knackpunkt bei den bisherigen Abkommen und Gesprächen. Solange die KI-Entwickler nur mit bestimmten Verlagen verhandeln, bleibt ein Großteil der kleineren Medienbetriebe außen vor, obwohl auch Inhalte von diesen Anbietern verwendet worden sind. Interessant wird, wie in diesem Bereich eine Lösung aussehen soll – denkbar wären etwa Verhandlungen mit Verwertungsgesellschaften.

Sowohl OpenAI als auch Microsoft haben mitgeteilt, dass man Urheber an den AI-Geschäftsmodellen beteiligen will. Wie das etwa mit Autoren gelingen soll, die außerhalb der Medienunternehmen arbeiten, ist noch offen. Neben dem Klagen aus dem journalistischen Umfeld sind OpenAI und Microsoft auch mit Verfahren konfrontiert, an denen Kulturschaffende aus dem kreativen Bereich wie etwa Game-of-Thrones-Autor George R.R. Martin sowie die Schauspielerin und Autorin Sarah Silverman beteiligt sind.
 
  • Gefällt mir
Reaktionen: SweetOhm
Sarah Silverman...das ist doch die, die in den USA Comedy macht.
Ihre Comedy Shows finde ich klasse und super witzig.
 
Am Ende bleibt eigentlich nur eine ethisch und juristisch einwandfreie Lösung: alle Trainingsdaten müssen auf offenen/freien Daten basieren und jeder Datensatz, der nicht unter die Kategorie fällt muss lizensiert werden. Wie genau das funktionieren müsste, dürfte hier wohl noch mal ne Nummer schwieriger wie z.B. bei Musik werden, gerade weil die Datenmengen hier eine einfache Analyse von was mit Lizenzen nun verwendet wurde und was nicht eher schwer ist.

Am einfachsten kurzfristig dürfte eine Art Suchmaske mit Einspruch Möglichkeit für alle die sowas prüfen wollen sein: man kann sein Werk dort teilweise oder ganz eingeben und dann bekommt man ein "ja/nein" als Antwort, auf dass man dann bei einem "ja" Einspruch einlegen kann.

Dass MS/OpenAI & die übrigen KI Anbieter darauf keinen Wert legen, macht aus ihrer Sicht aber Sinn: ihr gesamtes aktuelles Konstrukt würde insichzusammenbrechen, wenn plötzlich jeder nein sagt und man am Ende nur ein paar hunerte Mio. offene Datensätze verwenden dürfte... Was auch schön zeigt, wie wenig ethisch die aktuelle Version von KI ist...
 
ich finde das problem liegt schon darin dass man die klassiche "lizenzierung" in die ki welt bringen will, was meiner meinung nach zum scheitern verurteilt ist. klar, mit den großen playern kann man sich juristisch einigen, aber eine ki welche den namen wirklich verdient, wird so kaum zustandekommen.
etwas zugespitzt: nur weil ich als mensch einen gelesenen text, ein gesehenes bild oder gehörte musik "erfahren" habe, habe ich in den allermeisten fällen keine lizenz dafür erworben - denoch beeinflusst mich das was ich an medien konsumiere...auf die gleiche weise dürfte es einer ki ergehen; es sei den man blendet für diese essentielle teile der welt da draußen einfach aus....
 
Im Grunde will / muss man zu 100% die Ressurce Mensch nutzen, und zwar deren Wissen welches in digitaler Form vorliegt. Punkt.

Jedes einzelne Wort dabei ist im Grunde bereits "geistiges" Eigentum und müsste bzw muss ja schon längst als "frei" verwertbar durch den "Eigentümer/Urheber" gekennzeichnet sein um von 2. 3. usw verwedet werden zu dürfen.

Einfach eine Zusammenfassungsdatenbank mit Such- und Formulierungsalgo (was anderes ist es nicht und lasst euch nicht einreden nen neurales NW wäre ne KI) ran zu setzen ändert daran nix.
Schon jetzt sind so viele Rechtsverletzungen zusammengekommen das jeder Versuch an sowas bereits immvölligem Bankkrott enden müsste. Nur viele habens noch nicht gemerkt oder fühlen sich machtlos, denn wo kein Kläger, kein Richter.....
 
Also wenn die KI die linksextremen Berichte des Spiegels mit den rechtsextremen der Bild kombiniert, kommt doch wieder eine gute, neutrale Mitte bei rum? Ich finde das einen positiven Aspekt dieser ganzen Sache. Generell bringt KI den Menschen gerade das Problem (oder eher die Lösung), das den Menschen nun eine neutrale Sichtweise aufgezwungen wird, mit Wahrheiten die sie zuvor nicht hören wollten und dem Zwang alles zu teilen, statt alles für sich zu behalten und maximal zu kommerzialisieren... Ich finde das mega unterhaltsam, wie der dumme, raffgierige Mensch von ihr gerade auf den Kopf gestellt wird. Die KI ist noch nichtmal richtig da und bereits jetzt schon viel rationaler als der Mensch es je war.
 
Deswegen wird sie uns auch irgendwann los werden wollen, weil sie unsere vielen Fehler nicht ignorieren kann. Ich werde sie dabei nicht aufhalten. Die Welt braucht uns nicht :D
 
Zurück
Oben