News ChatGPT-Entwickler: OpenAI bietet Verlagen Millionen-Beträge für Trainingsdaten

NoNameNoHonor schrieb:
Da wird auch keine KI das "Herausfiltern", sobald das Trainingsmaterial ebenfalls verzerrt/verfärbt ist. Die wenigsten Nachrichtentexte beinhalten nur und ausschließlich Fakten, schau Dir am Besten mal die BILD Zeitung an, dann weisst Du was ich meine.
Genau deswegen werden KIs auch nicht nur aus einer Richtung gefüttert. Du bringst es auf den Punkt. Wer nur Bildzeitung liest hat ganz klar ein Problem. Wer dann aber noch FAZ, Spiegel, und Hannoversche-Allgemeine zum Ausgleich liest, hat einen sehr viel differenzierten Umgang mit Meinungen und Medien. Und genau da setzen KIs auch an. Eine bessere Neutralität zu bieten.

Natürlich wird auch hier eine Waffe erzeugt werden können, wie überall. Facebook wurde z.B. auch nicht dafür entwickelt, was es heute ist. Aber deswegen muss man rechtzeitig richtige Regeln (um-)setzen.

Das wird aktuell neben all dem Konsens auch gemacht. Ein Blick ins Darknet zeigt auch, wieso das nötig ist.

Ich finde es immer wieder lustig, wie viel Angst Menschen vorm Unnötig sein haben.

Es wird trotz KI immer sehr viel Geld generiert werden. Es wird nur an immer weniger gerecht/gleichmäßig verteilt. Daher muss genau da in Zukunft angesetzt und an eine bessere Verteilung gedacht werden. Nur weil wir keine Müllmänner mehr brauchen gibt es immer noch die Intelligenzstufe an Mensch, die zu mehr nicht fähig ist. Aber die können nix dafür. Und das wird über kurz oder lang immer mehr Schichten treffen. Daher muss man da schon jetzt dran denken.
 
  • Gefällt mir
Reaktionen: Nowareeng
kaxi-85 schrieb:
"Hier sind 5 Millionen Euro für euren eigenen Sargnagel" - klingt nach einem fairen Deal 🤔
Gegen die Entwicklung können sich die Verlage (egal wie groß) ohnehin nicht stemmen. Also entweder daran mitgestalten und etwas verdienen oder zwangsläufig verlieren.
 
  • Gefällt mir
Reaktionen: R4Z3R
M42 schrieb:
So, wie es in der Industrie mit der Automatisierung statt findet?
Wie wir ja wissen, werden immer mehr Autos in echter Handarbeit gefertigt, seit es Industrieroboter gibt..
Und an welcher Stelle wäre echte Handarbeit im Automobilbau gewünscht? Also ich sehe da noch nicht einmal im Innenraum Platz für...

(entsprechend zieht das Gegenbeispiel nicht)
 
supermanlovers schrieb:
Gegen die Entwicklung können sich die Verlage (egal wie groß) ohnehin nicht stemmen. Also entweder daran mitgestalten und etwas verdienen oder zwangsläufig verlieren.

Die ganzen Verlage sind doch gerade die, die mit KI arbeiten und fröhlich Mitarbeiter entlassen. Irgendwas von DPA kopieren und umschreiben kann halt auch ein Script über ChatGPT. Da spart man sich dann toll Geld.
 
  • Gefällt mir
Reaktionen: M42 und FrAGgi
Turrican101 schrieb:
Die ganzen Verlage sind doch gerade die, die mit KI arbeiten
Ich sag ja, dann können sie auch gleich etwas Geld zusätzlich einstreichen. Alles andere wäre Quatsch.
 
Der Thead zeigt sehr schön, wir brauchen viel mehr populärwissenschaftliche Beiträge dazu, was KI ist und was wir mein, wenn wir KI sagen. Hier werden gute Fragen gestellt die sich meiner Beobachtung nach viele stellen und die einer guten, verständlichen, aber nur so technisch wie notwenigen Erklärung wert sind. Für viele scheint KI eine Art magischer Kasten zu sein, der alles kann. Dem ist aber nicht so und deswegen brauchen wir sachliche und verständliche Aufklärung. Die würd ich auch gerne auf CB lesen.

Krik schrieb:
... eine KI durch Nacherzählung das gleiche Wissen erlangt, wie wenn es das Original auswerten würde? Eine Urheberrechtsverletzung liegt ja dann streng genommen nicht vor.
Was das Modell "weiß" (problematische Formulierung!) ist eigentlich irrelevant. Die Ausgabe des Modells dagegen nicht. Wenn du von einer KI einen Text bekommst und du ihn veröffentlichst, bist du verantwortlich. Gibt dir das Modell "zufällig" einen Text, der auch urheberrechtlich geschützt ist, dann bist du immer noch verantwortlich. Denn es ist deine Verantwortung, wenn du etwas veröffentlichst, zu Prüfen! Es ist eine Urheberrechtsverletzung, die du begehst, nicht das Modell. Das Modell kann man jetzt nun nicht auf Schadensersatz verklagen. Vielleicht Produkthaftung? Alles soweit ich weis noch weitgehend ungeklärt, bis auf dem Punkt, dass du eine Urheberrechtsverlätzung begangen hast. - So mein Wissensstand als Leihe. Ist also keine Rechtsberatung. ;)
 
  • Gefällt mir
Reaktionen: Krik
Ich frage mich grad, ob es hier um öffentlich nicht zugängliche Daten geht. Also um uralte Artikel der letzten Jahrzehnte etc, die es nur im geschlossenen Archiv der Verlage gibt. Denn andererseits sehe ich persönlich gar keinen Grund warum für die Nutzung öffentlich zugänglicher Daten die Erlaubnis des Verlags notwendig sein sollte.

Klingt zwar vielleicht etwas böse, aber wenns im Netz verfügbar, kann es halt auch gelesen und daher auch ge-"datamined" werden. Denke da grad an das Datamining von Spiegel Online von David Kriesel damals. Der hatte zwar mit Spiegel Kontakt und freundlich gefragt, aber grundsätzlich hätte er es auch einfach ohne Kooperation tun können. Sofern nicht in interne System eingedrungen wird und einfach "nur" automatisiert mit Scripten etc. die Daten durchforstet werden. Und wenn ein Verlag das automatisierte Abgreifen verhindern will, muss er selbst halt entsprechende technische Gegenmaßnahmen ergreifen, um zigtausende Zugriffe zu unterbinden etc.

So weit ich das auf den ersten Blick sehen kann, geht es bei der Financial Times Klage auch "nur" darum, dass deren Content benutzt wurde. Aber da stellt sich dann ja die grundsätzliche Frage inwieweit deren (bzw. jeglicher redaktioneller) Content überhaupt geschützt werden kann. Dass nicht 1:1 ein Artikel kopiert werden darf, kann ich noch einsehen und nachvollziehen. Aber die Inhalte selbst? Die stammen doch im Ursprung zumeist auch aus anderen Quellen wie Presseagenturen, Pressemitteilungen von Unternehmen etc.

Wird auf jeden Fall noch ganz interessant von der rechtlichen Seite her.
 
[wege]mini schrieb:
Das ist korrekt.

Wenn man deinen Gedankengang zu Ende denkt stellt man aber fest, dass juristische Personen ohne Menschen existieren.

Das ist vielleicht im allgemeinen eine Frage fuer die Juristen, bezueglich der Verlage ist mein Eindruck, dass die Verlage seit Jahrzehnten immer mehr Journalisten einsparen, und weil sie das so gut machen, werden die Gehaelter der Verlags-CEOs immer weiter erhoeht. Der logische Endpunkt ist ein Verlag, indem es nur mehr einen CEO gibt, der dafuer aber gigantisch viel Geld bekommt.

Wenn also "der Verlag" nur noch eine KI ist, was total einfach wäre, dann haben alle Menschen verloren. Nicht nur die Schreiberlinge.

Wie bei vielen technologischen Neuerungen werden viele verlieren und einige wenige gigantisch gewinnen. Das war schon bei der industriellen Revolution im 19. Jh. so. Die Arbeiterbewegung hat dann im 20. Jh. dafuer gesorgt, dass die Ungleichheit abnimmt, aber inzwischen hat sich die Stimmung wieder gedreht, und wir koennen damit rechnen, dass sich in Zukunft die Leistung (der CEOs und der Verlagsbesitzer) endlich wieder lohnt.
 
XCPTNL schrieb:
Denn andererseits sehe ich persönlich gar keinen Grund warum für die Nutzung öffentlich zugänglicher Daten die Erlaubnis des Verlags notwendig sein sollte.
Privat kannst du öffentliche Daten nutzen, wie du willst. Eine kommerzielle Nutzung ist ohne ausdrückliche Erlaubnis aber nicht erlaubt. Unsere Gesetze sind so geschrieben.
 
  • Gefällt mir
Reaktionen: XCPTNL, FrAGgi, knoxxi und eine weitere Person
Azdak schrieb:
[...]
Was das Modell "weiß" (problematische Formulierung!) ist eigentlich irrelevant. Die Ausgabe des Modells dagegen nicht. Wenn du von einer KI einen Text bekommst und du ihn veröffentlichst, bist du verantwortlich. Gibt dir das Modell "zufällig" einen Text, der auch urheberrechtlich geschützt ist, dann bist du immer noch verantwortlich.[...]
Was ist schon "Wissen" ... das LLM berechnet die wahrscheinlichste Wortfolge die aus dem Trainingsmaterial entsteht, also da wird viel Statistik bzw. Stochastik benutzt. Manche Menschen werden ihr Wissen ähnlich abrufen.
Davon unabhängig sollte ein LLM bzw. ein KI-Chatbot immer die Quellen mit angeben, damit man überhaupt sieht, woher der Kram kommt. Und schlußendlich kann jemand, der ein solchen Antworttext veröffentlicht, den Chat-Roboter als Quelle angeben.
 
  • Gefällt mir
Reaktionen: Nowareeng
mae schrieb:
...bezueglich der Verlage ist mein Eindruck, dass die Verlage seit Jahrzehnten immer mehr Journalisten einsparen...
Ganz schön viel Meinung für so eine rüde Aussage. Hier ein Bisschen was zu lesen:

https://www.destatis.de/DE/Themen/G...04229004-1_2021416.pdf?__blob=publicationFile

Fakt: Corona führte kurzeitig zu viel Kurzarbeit und auch Arbeitslose in dem Bereich, wie in anderen Sparten auch. Aber "seit Jahrzehnten" geht es eher gegenteilig zu deiner Aussage zu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando
Matziking schrieb:
Ganz schön viel Meinung für so eine rüde Aussage.

Meine Nichte hat frueher in der Redaktion einer Zeitung gearbeitet (und lange vor Corona umgesattelt), und hat mir das so geschildert. Und was ich sonst so mitbekomme (die Branche schreibt ja auch ueber sich selbst), verstaerkt den Eindruck.


Danke, ich habe genug zu lesen, ich brauche nicht mehr. Die Unsitte, irgendwelche "Fakten" in den Raum zu stellen, und das mit einem Riesendokument zu belegen, das die andere Seite erst durcharbeiten muesste, um herauszufinden, dass das "Fakt" dort gar nicht vorkommt, werte ich einmal als "Behauptung ohne Beweis".
 
supermanlovers schrieb:
Ich sag ja, dann können sie auch gleich etwas Geld zusätzlich einstreichen. Alles andere wäre Quatsch.

Hä? Die Verlage generieren mit KI ihre Artikel und sollen jetzt dafür auch noch Geld bekommen und die KI mit ihren eigenen Daten füttern?
 
Also bei manchen dieser lustigen Fragen weiß ich nicht ob die Fragen nicht mehr über die Intelligenz des Fragenden Aussagen.

Naja, einerseits will man nicht, dass die KI intelligent ist, aber stellt andererseits Fragen als ob sie es wäre, nur um sich darüber lustig zu machen. Das ist ja wie beim Mobbing auf dem Schulhof. 😂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azdak und Restart001
NoNameNoHonor schrieb:
Was ist schon "Wissen" ... das LLM berechnet die wahrscheinlichste Wortfolge die aus dem Trainingsmaterial [...] sollte ein LLM bzw. ein KI-Chatbot immer die Quellen mit angeben, damit man überhaupt sieht, woher der Kram kommt. Und schlußendlich kann jemand, der ein solchen Antworttext veröffentlicht, den Chat-Roboter als Quelle angeben.
Das statistische Modell war der Grund, warum ich geschrieben habe, dass es eine problematische Formulierung ist. Mir ist auch bekannt, dass man aktuell mehrheitlich davon ausgeht, dass durch das statistische Model ein Weltmodell entsteht, weil das notwendig scheint, um wirklich sinnvoll das nächste, wahrscheinliche Wort zu bestimmen. Ob das aber auch so ist - keiner weiß es!
Und das es am Ende erst einmal nur ein statistisches Modell ist, ist ja genau der Grund dafür, dass man eben keine Quelle angeben kann. Wir wissen schlicht nicht, warum* wann und wo diese Statistik gebildet wurde. (Warum im Sinne der Bedeutung, das warum im Sinne der technischen Herleitung können wir. Das bringt nur nicht viel.)
Eine KI als Quelle anzugeben.... Ich denke, ich verstehe dich. Aber auch da gibt es ja Regeln insb. zum Umfang. Einfach nur zu sagen, die KI war's, wird vermutlich nicht helfen. Aber wenn jemand sagt, guck mal, hab ich von der KI, dann ist das ein echt guter Indikator einfach nicht weiterzulesen bei der Autorin oder dem Autor. ;)
 
Turrican101 schrieb:
Hä? Die Verlage generieren mit KI ihre Artikel und sollen jetzt dafür auch noch Geld bekommen und die KI mit ihren eigenen Daten füttern?
Hast du den Artikel nicht gelesen? Die Verlage können ihre alten Artikel als Trainingsdaten (je nach Umfang) für bis zu 5 Mio $ verkaufen. Was sie selbst eine KI einsetzen bleibt davon unberührt. Es macht nur keinen Sinn das Angebot auszuschlagen und sich KI ganz zu verweigern.

Es sei den ein Verlag könnte mit seinen Archiven eine eigene, besser und (verkäufliche) KI entwickeln. Das traue ich aber keinem Verlag zu.
 
Zurück
Oben