Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsChinesisches AI-Modell: DeepSeek ist schneller und günstiger als OpenAIs o1-Modell
Man gibt also mögliche Auswege für die aufgezeigten Probleme der westlichen Welt eine Lösung, nicht aber für China, obwohl die geannten Punkte dort viel mehr zutreffen. Eine klare und vermutlich nicht zufällige Asymmetrie.
Man kann das jetzt so interpretieren wie du es tust und eine bösartige Bevorzugung/positive Darstellung des chinesischen Systems vermuten.
Ich würde es eher so sehen: Alle Vorschläge setzen demokratische Prozesse voraus. In einem autoritären Staat gibt es diese aber nicht, da hast du als Bürger eh keine Chance. Und da China als autoritärer Staat eingeordnet wird, gibt es dafür eben auch keine Vorschläge. Darin sehe ich eine logische Erklärung für diese Asymmetrie.
Aber um das abschließend zu beurteilen, müsste man DeepSeek wohl noch ein paar mehr Fragen dazu stellen, was es von China hält.
Da platzt doch glatt die Finanz-AI-Blase und die Börsenkurse gehen den Bach runter.
Massenhafte Marching Calls.
Mit üblen Folgen für den Bankensektor und uns allen.
Ja genau, man bekommt zensierte Ergebnisse nach Richtlinien der chinesischen Einheitspartei.
Und bitte bitte keine Fragen stellen zum Thema Uiguren, Tibet usw stellen.
😊
Ich weiß nicht ob es gestern am Ansturm lag, aber es war schon wild zu sehen wie das Ding Antworten zu genau solchen Themen gibt und nach 2-3 Sekunden verschwindet diese aber wieder und dann kommt die übliche Floskel.
Frage:
2 Sekunden später:
Nachgefragt was da gerade passiert ist:
Was für ein dreistes Gaslighting... "Anschein erweckt habe"... ja genau.
Im Prinzip hast du Recht. Aber man weiss und kann überprüfen, dass DeepSeek chinesische Narrative verbreitet und teils schlicht zensiert ist. Warum sollte man also unterstellen, dass es hier neutral agiert? Wir wissen, dass DeepSeek nicht neutral ist.
Wer framt hier bitte außer dir, der mich ganz klar irgendwie hinschieben will, um nicht inhaltlich sich zu tief mit meinen Aussagen auseinandersetzen zu müssen?
Angriff ist die beste Verteidigung eh? Nice try. Die Beiträge anderer User als maximalen Angriff zu interpretieren und gleich eine eine paar satte Unterstellungen hinterherzuschmeißen. Dir ist klar, dass die Unterstellungen Unsinn sind, du bist ja nicht blöd. Aber überheblich, dogmatisch und ohne jede erkennbare Selbstreflexion oder -Kritik. Man liest ja mehr von dir. Das ist einfach dein Standard modus operandi.
Aber schau mal, ich hab was für dich: Ich stimme dir zu, dass man die obige Antwort von Deepseek auch so lesen kann wie du es getan hast - wenn man denn will, dafür gibts ja gute Gründe. Aber so ist das ja oft mit politischen/religiösen/weltanschaulichen Aspekten einer Diskussion.
schon mal daran gedacht, dass Microsoft, Meta und Google das mit DeepSeek eingefädelt haben? Um endlich eine bessere Verhandlungsposition bei NVIDIA zu haben?
So abwegig ist das nicht, oder?
denn, Jensen Huang war auch am 20. Januar nicht im Kapitol bei der Inauguration von Trump. Er war an diesem Tag in China
PS: ich könnte mir auch vorstellen, dass Jensen Huang gewisse Technologien an China direkt liefern könnte. Quasi eine Art Schulung für die chinesische GPU-Hersteller.
Denn, Jensen ist wahrscheinlich mehr "chinesisch" als wir alle denken.
Alle übernehmen den Bias ihrer Quellen. Der mag bei DeepSeek für uns sehr offensichtlich sein, aber den gibt es auch bei anderen Modellen. Und grundsätzlich würde ich keinem weitgehend vertrauen, was solche Einschätzungen angeht, denn keines dieser Modelle hat nachvollziehbare Quellenangaben, sondern sie neigen sogar zum Halluzinieren von falschen Fakten und nicht existierenden Quellen.
Oder anders gesagt, schon aus technischen Gründen ist kein LLM vertrauenswürdig, daher ist mir ein bisschen extra Bias dann irgendwo auch schon mehr oder weniger egal.
Angeblich ist Deepseek laut « Online Experten » wiederum auch nicht das Gelbe vom Ei.
Also mal lieber mit Vorsicht geniessen, und abwarten wie sich die einzelnen Modelle entwickeln.
Ich kenne mich nicht genug aus um ein Urteil zu fällen, begrüsse jedoch jede Konkurrenz die ein neues Elan in die AI-Welt reinbringt.
Wie die Aussage über das Auskommen mit weniger Ressourcen zu beurteilen ist, soll ja nicht ganz klar sein. Teils sollen Trainingsergebnisse übernommen worden sein, was die reduzierten Ressourcen zum Teil erklären soll.
Wobei das aber auch nur den aktuellen offiziellen Live-Zustand zeigt. Das ganze haben die Chinesen ja auf Github veröffentlicht. Man könnte also auch eine Version ohne Zensur bauen.
Die Zensur ist doch wahrscheinlich antrainiert. Wenn ich das Thema richtig verstehe gibt es keine Möglichkeit festzustellen ob das Modell wirklich mit den Open source Daten trainiert wurde, oder ob noch ein paar Anweisungen der Kommunistischen Partei Chinas trainiert wurden. Das Modell selbst ist eine Blackbox
bis Trump auch das verbietet und AI außschließlich als ameriknikanische Erfindung betitelt
American Intelligence - die Umbenennung machts möglich! ;-P
Ergänzung ()
Performator schrieb:
Die Chinesen nutzen Open Source als Waffe für hybride Kriegesführung.
Da platzt doch glatt die Finanz-AI-Blase und die Börsenkurse gehen den Bach runter.
Massenhafte Marching Calls.
Mit üblen Folgen für den Bankensektor und uns allen.
war klar, hätte ich auch getan, Xi wird sich totlachen
Nvidia verliert viel mehr Geld, asl die Umgehung der Sanktionen denen durch halbillegale VErkäufe eingebracht haben werden
die dumem lederjacke wird sich aber schön in den Schlaf geweint haben, was er selbst angestellt hat
zu gierig, der Mann, zu nah an die Sonne heran geflogen, hahahaha :-P
Ja, stimmt. Auf den Plätzen 1-3 sind Vanguard Group Inc, Blackrock Inc und FMR, LLC. Buffet soll aber ca. 6 Millionen Anteile haben. Das ist immerhin fast 0,5 %.
Angriff ist die beste Verteidigung eh? Nice try. Die Beiträge anderer User als maximalen Angriff zu interpretieren und gleich eine eine paar satte Unterstellungen hinterherzuschmeißen.
DeepSeek übernimmt diese BIAS/Zensur aber nicht aus den Quellen bzw. ggf. auch aber zusätzlich wurde das nachträglich drüber gestümpelt, wie mindestens ein User selbst hier im Thread dokumentiert hat.
Ja genau, man bekommt zensierte Ergebnisse nach Richtlinien der chinesischen Einheitspartei.
Und bitte bitte keine Fragen stellen zum Thema Uiguren, Tibet usw stellen.
😊
ooo man hier haben es genügend Leute im Forum schon mal erklärt. Ja die chineschie Version, die IN CHINA läuft, ist zensiert. Ist auch anders auch nichts zu erwarten. ABER DARUM geht es nicht. Es ist ein OPEN SOURCE LLM AI Model, dass du auf DEINEM Rechner LOKAL, OHNE Zensur laufen lassen kannst. Du kannst quasi damit deine EIGENE KI für deine Bedürfnise und deine Zielgruppe bauen. Das man das noch in 2025 erklären muss...
Es ist ein OPEN SOURCE LLM AI Model, dass du auf DEINEM Rechner LOKAL, OHNE Zensur laufen lassen kannst. Du kannst quasi damit deine EIGENE KI für deine Bedürfnise und deine Zielgruppe bauen. Das man das noch in 2025 erklären muss...
Ah, dann erkläre mir mal wie ich das Modell einfach umtrainieren kann. Das kannst du auch in 2025 als normal sterblicher Mensch nicht.
KI-Modelle sind nicht paar Zeilen Code, den man lesen und ändern kann. OS ist da irrelevant, auch wenn das hier in den Kommentaren viele Ahnungslose als was ganz großes feiern. Öffentliche Modelle gibt es auch andere, z.B. ollama oder Mistral kann ich auch lokal laufen lassen. Meine "eigene KI" kann ich damit aber auch nicht bauen, ich kann nur das Modell verwenden, wie es ist.
"Hi, wie findet "Zensur" auf KI Modele wie DeepSeek statt? Und kann man diese Modele, wenn sie open source sind, umtrainieren?"
Antwort:
"Die "Zensur" oder besser gesagt Content-Filterung bei KI-Modellen wie DeepSeek oder ähnlichen KI-Modellen erfolgt in der Regel auf mehreren Ebenen. Hier sind die wichtigsten Aspekte:
1.
Bereits beim Training des Modells werden die Daten sorgfältig gefiltert, um sicherzustellen, dass problematische oder unerwünschte Inhalte (z. B. Gewalt, Hassrede, Fake News) nicht in den Trainingssatz gelangen.
Datenquellen werden gezielt kuratiert, und Modelle wie DeepSeek werden mit kontrollierten oder geprüften Daten trainiert.
2.
Bei der Bereitstellung des Modells wird oft eine zweite Ebene der Filterung implementiert, die die Ausgaben des Modells überprüft.
Entwickler fügen Regeln oder Einschränkungen hinzu, die verhindern, dass das Modell auf bestimmte Eingaben reagiert oder bestimmte Antworten gibt (z. B. durch Content-Matching oder Blacklists).
3.
OpenAI und andere Unternehmen implementieren spezifische Mechanismen, um Missbrauch zu verhindern. Das können Einschränkungen auf sensible Themen sein, wie z. B. die Generierung von Rezepten für gefährliche Substanzen oder Anleitungen für illegale Aktivitäten.
Kann man ein Open-Source-Modell umtrainieren?
Ja, Open-Source-Modelle lassen sich in der Regel umtrainieren oder "feinjustieren" (Fine-Tuning). Das Umtrainieren kann jedoch je nach Ziel und gewünschtem Ergebnis unterschiedlich komplex sein.
Voraussetzungen für das Umtrainieren:
Zugriff auf die Modellparameter:
Bei Open-Source-Modellen (wie GPT-J oder LLaMA) hast du oft Zugriff auf die "Weights" (die trainierten Parameter). Diese kannst du verwenden, um das Modell anzupassen.
Zusätzliche Daten:
Du benötigst spezifische Daten, die dein gewünschtes Verhalten oder Wissen widerspiegeln. Diese Daten sollten qualitativ hochwertig und thematisch relevant sein.
Hardware:
Das Umtrainieren eines Modells ist rechenintensiv, besonders bei großen Modellen. Oft wird spezielle Hardware (wie GPUs oder TPUs) benötigt.
Feinabstimmung (Fine-Tuning):
Beim Fine-Tuning wird das bestehende Modell mit neuen, spezifischen Daten trainiert. Dadurch "lernt" das Modell neue Inhalte oder passt sich an bestimmte Anforderungen an, ohne von Grund auf neu trainiert zu werden.
Rechtliche Aspekte:
Auch wenn ein Modell Open-Source ist, gelten oft Lizenzbedingungen. Manche Lizenzen (z. B. OpenRAIL oder Apache) erlauben das Umtrainieren für kommerzielle oder private Zwecke, während andere Lizenzen dies einschränken können.
Herausforderungen beim Umtrainieren:
Bias (Voreingenommenheit): Wenn die neuen Trainingsdaten nicht sorgfältig ausgewählt sind, kann das Modell ungewollt voreingenommen werden.
Balance: Es ist schwierig, neue Informationen hinzuzufügen, ohne bestehende Fähigkeiten oder Inhalte des Modells zu "überschreiben".
Kosten: Das Training kann teuer sein, insbesondere bei sehr großen Modellen."
Also Ja, es ist möglich.
Edit: Um eins klar zu stellen. Mir ist ja bewusst, dass du und ich heute noch nicht in der Lage sind, das Umtrainieren zu machen. Aber darum geht es nicht. So könenn z.B. Star Ups oder Forschungsinstitute nun "mitmischen" und die KI für die eigene Bedürfnise anpassen. Das war gestern so nicht möglich, denn es war nur den ganz Großen Player vorenthalten.