News Vorwurf von OpenAI: DeepSeek soll mit ChatGPT-Inhalten trainiert worden sein

Das ist wie stille Post - die erste "KI" macht Fehler, die zweite kopiert die und fügt neue hinzu usw. - am Ende kommt nur kompletter Unsinn dabei heraus.
 
  • Gefällt mir
Reaktionen: IBISXI
Der verlinkte Reddit Beitrag dazu ist ja vom 27. Dezember, also fast einen Monat alt! Kann mir hier mal jemand erklären, warum der DeepSeek Hype erst über das letzte Wochenende ausgebrochen ist und dieser hier beschriebene "Skandal" erst jetzt hoch kommt, wenn das anscheinend schon alles seit mehreren Wochen bekannt und zugänglich ist...?
Ergänzung ()

Sron schrieb:
In der Automobilbranche ist es zu spät gewesen. Kurzfristige Gewinne werden über langfristige Strategie und Erfolge gestellt. Gier frisst Hirn.

Das hat auch immer etwas damit zu tun dass man in seiner aktuellen Amtszeit auch von den Erfolgen seines eigenen Handelns profitieren möchte. Das ist in der Politik genauso wie im Unternehmen.
 
aid0nex schrieb:
Der verlinkte Reddit Beitrag dazu ist ja vom 27. Dezember, also fast einen Monat alt! Kann mir hier mal jemand erklären, warum der DeepSeek Hype erst über das letzte Wochenende ausgebrochen ist und dieser hier beschriebene "Skandal" erst jetzt hoch kommt, wenn das anscheinend schon alles seit mehreren Wochen bekannt und zugänglich ist...?
DeepSeek V3 wurde im Dezember veröffentlicht, aber nicht groß beachtet, weil es nicht besser abschnitt als ChatGPT, das war eher eine Fußnote. Erst die Veröffentlichung des R1-Modells vor ein paar Tagen hat DeepSeek große Aufmerksamkeit gebracht, denn erst dieses Modell hat die spektakulären Resultate gezeigt.
 
  • Gefällt mir
Reaktionen: aid0nex
Klassiker: ich klaue, das ist kein Problem. Wenn aber einer von mir nimmt, ist es natürlich ein Problem. Heuchlerei³.

OpenAI dürfte hier aber keinerlei Chancen haben. Rechtlich haben sie schlicht keinen Ansatzpunkt: Inhalte die von "KI" generiert werden haben keinen Schutz und eine AGB zu missachten, die auf der Annahme beruht dass der generierte Inhalt doch Schutz besitzt ist... Nicht sonderlich erfolgsversprechend im besten Fall.

Ansonsten ist das Training von "KI" auf Basis von "KI" Inhalten definitiv keine gute Idee. Meines Wissens nach gibt es bisher nur Studien die zeigen dass die Ergebnisse durch sowas degradieren. Das Gegenteil wurde bisher meines Wissens nach nicht nachgewiesen und ich lehne mich hier mal 1cm aus dem Fenster, es kann auch nicht passieren. "KI" mach Fehler weil sie kein Verständnis der Materie hat und wenn eine andere "KI" davon ebenfalls ohne Verständnis lernt, dann übernimmt sie diese Fehler natürlich, was in X Iterationen am Ende fast zwangsläufig zu einer Verschlechterung der Ergebnisse führen muss.

Aber gut, die ganzen konzeptionellen Probleme sind den Leuten in den Management-Etagen schlicht egal... Solang sie nicht direkt den nächsten Quartals-Bericht beeinflussen und oh boy ist DeepSeek ein negativ Faktor (auch wenn er das nicht sein sollte, da nur einer von XX Konkurrenten) für OpenAI. Klar dass man dann egal wie sinnlos es ist versucht der Konkurrenz Steine in den Weg zu legen.
 
Laphonso schrieb:
POPCORN :D

btw OPEN Ai lol, eher Closed AI, es ist so köstlich :daumen:
Und wir können alle Open, ähm Closed AI ja Mal vorwerfen, dass die unsere Daten missbraucht haben, um ihre LLM zu trainieren...,😃
 
KenshiHH schrieb:
Schon komisch, zu allen bekomme ich eine Detaillierte Antwort bei der Lokalen Version,
aber Hauptsache irgend nen Quatscht nachplappern anstatt es mal selbst zu verifizieren
Ich stand daneben, als er das eingegeben hat. Noch direkten hätte ich es nur sehen können, wenn ich es selbst eingetippt hätte.
 
@UrlaubMitStalin Das ist spannend, weil es allen anderen Erfahrungsberichten widerspricht. Bist du wirklich sicher, dass er das lokal installiert hatte und nicht auf die Webversion zugegriffen hat?
 
  • Gefällt mir
Reaktionen: KenshiHH
stefan92x schrieb:
DeepSeek V3 wurde im Dezember veröffentlicht, aber nicht groß beachtet, weil es nicht besser abschnitt als ChatGPT, das war eher eine Fußnote. Erst die Veröffentlichung des R1-Modells vor ein paar Tagen hat DeepSeek große Aufmerksamkeit gebracht, denn erst dieses Modell hat die spektakulären Resultate gezeigt.

Danke für die Erklärung! Auch wenn ich den technischen Unterschied zwischen V3 und R1 immer noch nicht verstanden habe 😅
 
Jaa aber als OpenAI das gesamte Internet nach content zum Trainieren durchgefarmt hat ohne irgendjemanden nach der Erlaubnis zu fragen, war das wiederum moralisch völlig OK 😆
 
v3 ist ein totaler und unzuverlässiger Klon. Habe paar Fragen gestellt, z.b. zum Spiel Pathfinder Kingmaker: "which classes from pathfinder kingmaker game are not available as companions". Zum einen sind die Antworten komplett falsch, aber identisch falsch zu ChatGPT mini

In Copilot ist die Antwort richtig, da praktisch ein Reddit Post zitiert wird.
 
Zurück
Oben