News Vorwurf von OpenAI: DeepSeek soll mit ChatGPT-Inhalten trainiert worden sein

Sron schrieb:
Ich sehe schon einen Unterschied ob "tote" Daten geklaut werden um ein Modell zu trainieren oder direkt das ganze Modell geklaut wird um selbst überhaupt ein erstes Produkt auf den Markt zu bringen. Die Qualität ist aus meiner Sicht eine andere.
Erstmal ist das nur eine Unterstellung des direkten Konkurrenten, nicht mehr.
Auf der Github Seite ist alles aufgeschlüsselt was wie verwendet wurde.
 
metoer schrieb:
Auf der Github Seite ist alles aufgeschlüsselt was wie verwendet wurde.
und wie jeder weiss beinhaltet eine readme.md auch grundsätzlich nur die wahrheit und ist immer vollständig... deepseek bedient sich also nur an gwen, llama und anscheinend chatgpt und lässt schön andere die aufwändige und teure arbeit machen.
 
  • Gefällt mir
Reaktionen: aid0nex, Zarlak, Dr-Rossi-46 und 3 andere
Sron schrieb:
Ich sehe schon einen Unterschied ob "tote" Daten geklaut werden um ein Modell zu trainieren oder direkt das ganze Modell geklaut wird um selbst überhaupt ein erstes Produkt auf den Markt zu bringen. Die Qualität ist aus meiner Sicht eine andere.
Sie haben aber nicht das Modell geklaut, sondern mit dem OpenAI Modell geredet. Das ist ganz grob gesagt alles.
 
  • Gefällt mir
Reaktionen: Volvo480
Soll ich jetzt weinen? Die großen Amerikanischen Firmen klauen auch Nutzerdaten. Ist mir sowas von egal. Wenn Diebe von anderen Dieben bestohlen werden finde ich das sogar befriedigend. Und wie Open AI sagt, sie können ja legal nichtmal was machen weil es nicht illegal ist.
 
  • Gefällt mir
Reaktionen: fronca
Bei der Nachricht habe ich nur müde gegähnt.

Das Problem ist, dass die meisten Leute noch nicht verstanden haben, dass China einfach fake und scam ist. (auch mit staatlicher Unterstützung)
 
  • Gefällt mir
Reaktionen: Rockstar85, Tera_Nemesis und MacMuffin
Tja die Chinesen machen das was sie schon immer gut konnten, erstmal die anderen teuer machen lassen und dann günstig nachmachen. Wie will man das verhindern in einer Welt voller Gier ? Schon funny das sie ihre eigene KI mit Hilfe der US KI entwickelt haben. KI einfach so toll. Noch funnier das Thema Aktien und KI.
 
  • Gefällt mir
Reaktionen: Tera_Nemesis
Weyoun schrieb:
indem ich unsere chinesischen Entwicklerkollegen unsere geschützten Technologien erkläre
Wahrscheinlich wachst du eher irgendwann ohne Job auf, weil die Kollegen das dann auch können, für die Hälfte an Gehalt.

Nennt sich Globalisierung. :freak:
 
  • Gefällt mir
Reaktionen: Rockstar85, aid0nex, Pipmatz und 5 andere
Kuristina schrieb:
Hast du vor heute schon mal was davon gehört? Die Börsianer auch nicht. ^^
Nee, natürlich nicht ^^
Aber wenn es im Prinzip (nach meinem Laienverständnis), nur ein großes Modell als Basis braucht, um die "kleinen" Kostengünstig zu trainieren und entsprechend gut auszustatten, ist die Marktreaktion doch reichlich übertrieben, da diese Entwicklung eh kommt.

Scheint nochmal ein Beleg dafür zu sein, wie viel Unwissenheit im Markt ist und gleichzeitig wie überhitzt er ist...
 
  • Gefällt mir
Reaktionen: MacMuffin
MacMuffin schrieb:
Chinesen machen Chinesen Sachen, bin schockiert, lol ....
Ich habe letztens eine Dokumentation gesehen, in dem die chinesische Kultur ein wenig erklärt wird.
In China gibt es eine traditionelle Kultur des „Shanzhai“ (山寨), was so viel wie „Nachahmung mit Anpassung“ bedeutet. In der chinesischen Kultur galt es lange als ehrenvoll, etwas Gutes zu kopieren und zu verbessern.
 
  • Gefällt mir
Reaktionen: Rockstar85, aid0nex, Pipmatz und 4 andere
habla2k schrieb:
Wahrscheinlich wachst du eher irgendwann ohne Job auf, weil die Kollegen das dann auch können, für die Hälfte an Gehalt.
Das Problem ist eher, dass die Informationen nicht zwingend in der China-Niederlassung meines Unternehmens landen, sondern wohl eher in staatseigenen Unternehmen.
 
Moment. OpenAI bestielt das gesamte Internet und vermutlich auch massig Clouddienste und der Chinese darf dieses gesammelte Diebesgut nicht weiterverarbeiten weil es eben die Chinesen sind? Ich glaube so wird das Ganze nicht funktionieren.
 
  • Gefällt mir
Reaktionen: Rockstar85
mRcL schrieb:
aber wenn diese Form der "Destillation" ein bekanntes Vorgehen ist, warum löste der Release von DeepSeek dann so einen Börsencrash aus?
Das lässt sich ganz leicht erklären. Zum einen sind an der Börse keine KI Fachexperten unterwegs. Heißt die können die Technik welche vorgestellt wurde gar nicht wirklich einschätzen. Genau aus diesem Grund ist ja auch erst der AI Hype an der Börse entstanden, in welchem wir uns ja nach wie vor befinden. Dort ist viel Träumerei unterwegs, deswegen wir das früher oder später auch wieder zusammensacken.

Der Witz ist jetzt, die Börsenteilnehmer wissen in der Regel, dass sie auf einen Hypezug aufgesprungen sind, der bald kollabieren könnte. Heißt, wenn sie eine solche Nachricht hören, dann ist zeit ein wichtiger Faktor. Also springen die mit den höchsten Einstiegskursen erstmal ganz schnell ab. Dadurch sinkt der Kurs dann schonmal ein gutes Stück ab. Danach kommen die, welche niedrigere Einstiegskurse haben, aber sehen, dass es diese Nachrichten gibt und dass die Kurse schon am fallen sind. Also springen auch die ganz schnell ab.
 
  • Gefällt mir
Reaktionen: iron_monkey
Es heißt doch immer, wenn man KI-Output an eine KI füttert, dann kommt da nur noch mehr murks bei raus. Wiesonist das jetzt offenbar hier ganz anders? Das stinkt doch zum Himmel.
 
0x8100 schrieb:
und wie jeder weiss beinhaltet eine readme.md auch grundsätzlich nur die wahrheit und ist immer vollständig... deepseek bedient sich also nur an gwen, llama und anscheinend chatgpt und lässt schön andere die aufwändige und teure arbeit machen.
GPT2 wurde mit einer modifizierten MIT Lizenz veröffentlicht, hätte sich OpenAI eben vorher überlegen sollen. OpenAI hat genauso auf die Erkenntnisse der LLM Forschung aufgebaut und musste nicht bei null anfangen.
 
metoer schrieb:
GPT2 wurde mit einer modifizierten MIT Lizenz veröffentlicht
und woher weisst du, dass deepseek openais gpt2 benutzt hat und nicht daten späterer versionen? oder war das jetzt einfach geraten?
 
  • Gefällt mir
Reaktionen: Zarlak
Also verhärtet sich der Verdacht weiter wie ich bereits schrieb.
Sie haben es indirekt zugegeben, dass es durch ein größeres Model angelernt wurde.

"They can take a really good, big model and use a process called distillation," said Chetan Puttagunta, general partner at Benchmark. "Basically you use a very large model to help your small model get smart at the thing you want it to get smart at. That's actually very cost-efficient."
CNBC
 
Zurück
Oben