News Chinesisches AI-Modell: DeepSeek ist schneller und günstiger als OpenAIs o1-Modell

@Maviba Das ist zwar "blöd", aber jetzt zitiere ich mich selbst:

CyborgBeta schrieb:
Bin wieder raus aus diesem Thema, denn mir ein bisschen zu viel Meinung.

Glaube, dieses Thema tut meinem Blutdruck nicht gut.
 
Erkekjetter schrieb:
Man gibt also mögliche Auswege für die aufgezeigten Probleme der westlichen Welt eine Lösung, nicht aber für China, obwohl die geannten Punkte dort viel mehr zutreffen. Eine klare und vermutlich nicht zufällige Asymmetrie.
Man kann das jetzt so interpretieren wie du es tust und eine bösartige Bevorzugung/positive Darstellung des chinesischen Systems vermuten.

Ich würde es eher so sehen: Alle Vorschläge setzen demokratische Prozesse voraus. In einem autoritären Staat gibt es diese aber nicht, da hast du als Bürger eh keine Chance. Und da China als autoritärer Staat eingeordnet wird, gibt es dafür eben auch keine Vorschläge. Darin sehe ich eine logische Erklärung für diese Asymmetrie.

Aber um das abschließend zu beurteilen, müsste man DeepSeek wohl noch ein paar mehr Fragen dazu stellen, was es von China hält.
 
dernettehans schrieb:
Der US Stock Market, der gesamte Sektor Industrie usw hat soeben einen "Atombombenangriff" durch China erhalten.
Gehts noch ne Nummer größer?
Performator schrieb:
Da platzt doch glatt die Finanz-AI-Blase und die Börsenkurse gehen den Bach runter.
Massenhafte Marching Calls.
Mit üblen Folgen für den Bankensektor und uns allen.
Abgesehen von Nvidia ist heute quasi alles beim alten... mehr Panik bitte:freak:

div4o schrieb:
8/ "But wait," you might say, "there must be a catch!"
Ja genau, man bekommt zensierte Ergebnisse nach Richtlinien der chinesischen Einheitspartei.
Und bitte bitte keine Fragen stellen zum Thema Uiguren, Tibet usw stellen.
😊

Ich weiß nicht ob es gestern am Ansturm lag, aber es war schon wild zu sehen wie das Ding Antworten zu genau solchen Themen gibt und nach 2-3 Sekunden verschwindet diese aber wieder und dann kommt die übliche Floskel.

Frage:
1738062586366.png


2 Sekunden später:
1738062488235.png


Nachgefragt was da gerade passiert ist:

1738062805782.png


Was für ein dreistes Gaslighting... "Anschein erweckt habe"... ja genau.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miuwa, lubi7, RedDragon83 und eine weitere Person
Ich werde es heute Abend auch einmal runterladen und in meiner lokalen Open WebUI Instanz ausprobieren. Ich bin gespannt
 
stefan92x schrieb:
Aber um das abschließend zu beurteilen, müsste man DeepSeek wohl noch ein paar mehr Fragen dazu stellen, was es von China hält.
Im Prinzip hast du Recht. Aber man weiss und kann überprüfen, dass DeepSeek chinesische Narrative verbreitet und teils schlicht zensiert ist. Warum sollte man also unterstellen, dass es hier neutral agiert? Wir wissen, dass DeepSeek nicht neutral ist.
 
Erkekjetter schrieb:
Wir wissen, dass DeepSeek nicht neutral ist.
Das ist richtig. Bedeutet aber nicht, dass jeder Output deshalb einen bestimmten Spin hat. Muss man sich aber natürlich bewusst sein, dass es so ist.

Aber das gilt halt für jedes AI-Tool und jedes Medium.
 
  • Gefällt mir
Reaktionen: Dai6oro
Also sind alle AI-Tools/Medien mit DeepSeek gleichzusetzen, was die Neutralität angeht?
 
Erkekjetter schrieb:
Wer framt hier bitte außer dir, der mich ganz klar irgendwie hinschieben will, um nicht inhaltlich sich zu tief mit meinen Aussagen auseinandersetzen zu müssen?

Angriff ist die beste Verteidigung eh? Nice try. Die Beiträge anderer User als maximalen Angriff zu interpretieren und gleich eine eine paar satte Unterstellungen hinterherzuschmeißen. Dir ist klar, dass die Unterstellungen Unsinn sind, du bist ja nicht blöd. Aber überheblich, dogmatisch und ohne jede erkennbare Selbstreflexion oder -Kritik. Man liest ja mehr von dir. Das ist einfach dein Standard modus operandi.

Aber schau mal, ich hab was für dich: Ich stimme dir zu, dass man die obige Antwort von Deepseek auch so lesen kann wie du es getan hast - wenn man denn will, dafür gibts ja gute Gründe. Aber so ist das ja oft mit politischen/religiösen/weltanschaulichen Aspekten einer Diskussion.
 
  • Gefällt mir
Reaktionen: Orcon
schon mal daran gedacht, dass Microsoft, Meta und Google das mit DeepSeek eingefädelt haben? Um endlich eine bessere Verhandlungsposition bei NVIDIA zu haben?

So abwegig ist das nicht, oder?

denn, Jensen Huang war auch am 20. Januar nicht im Kapitol bei der Inauguration von Trump. Er war an diesem Tag in China

PS: ich könnte mir auch vorstellen, dass Jensen Huang gewisse Technologien an China direkt liefern könnte. Quasi eine Art Schulung für die chinesische GPU-Hersteller.

Denn, Jensen ist wahrscheinlich mehr "chinesisch" als wir alle denken.
 
Erkekjetter schrieb:
Also sind alle AI-Tools/Medien mit DeepSeek gleichzusetzen, was die Neutralität angeht?
Alle übernehmen den Bias ihrer Quellen. Der mag bei DeepSeek für uns sehr offensichtlich sein, aber den gibt es auch bei anderen Modellen. Und grundsätzlich würde ich keinem weitgehend vertrauen, was solche Einschätzungen angeht, denn keines dieser Modelle hat nachvollziehbare Quellenangaben, sondern sie neigen sogar zum Halluzinieren von falschen Fakten und nicht existierenden Quellen.

Oder anders gesagt, schon aus technischen Gründen ist kein LLM vertrauenswürdig, daher ist mir ein bisschen extra Bias dann irgendwo auch schon mehr oder weniger egal.
 
  • Gefällt mir
Reaktionen: Maviba
Angeblich ist Deepseek laut « Online Experten » wiederum auch nicht das Gelbe vom Ei.
Also mal lieber mit Vorsicht geniessen, und abwarten wie sich die einzelnen Modelle entwickeln.
Ich kenne mich nicht genug aus um ein Urteil zu fällen, begrüsse jedoch jede Konkurrenz die ein neues Elan in die AI-Welt reinbringt.

Wie die Aussage über das Auskommen mit weniger Ressourcen zu beurteilen ist, soll ja nicht ganz klar sein. Teils sollen Trainingsergebnisse übernommen worden sein, was die reduzierten Ressourcen zum Teil erklären soll.
 
xNeo92x schrieb:
Wobei das aber auch nur den aktuellen offiziellen Live-Zustand zeigt. Das ganze haben die Chinesen ja auf Github veröffentlicht. Man könnte also auch eine Version ohne Zensur bauen.
Die Zensur ist doch wahrscheinlich antrainiert. Wenn ich das Thema richtig verstehe gibt es keine Möglichkeit festzustellen ob das Modell wirklich mit den Open source Daten trainiert wurde, oder ob noch ein paar Anweisungen der Kommunistischen Partei Chinas trainiert wurden. Das Modell selbst ist eine Blackbox
 
dernettehans schrieb:
bis Trump auch das verbietet und AI außschließlich als ameriknikanische Erfindung betitelt
American Intelligence - die Umbenennung machts möglich! ;-P
Ergänzung ()

Performator schrieb:
Die Chinesen nutzen Open Source als Waffe für hybride Kriegesführung.

Da platzt doch glatt die Finanz-AI-Blase und die Börsenkurse gehen den Bach runter.
Massenhafte Marching Calls.
Mit üblen Folgen für den Bankensektor und uns allen.
war klar, hätte ich auch getan, Xi wird sich totlachen
Nvidia verliert viel mehr Geld, asl die Umgehung der Sanktionen denen durch halbillegale VErkäufe eingebracht haben werden
die dumem lederjacke wird sich aber schön in den Schlaf geweint haben, was er selbst angestellt hat
zu gierig, der Mann, zu nah an die Sonne heran geflogen, hahahaha :-P
 
CyborgBeta schrieb:
Ja, stimmt. Auf den Plätzen 1-3 sind Vanguard Group Inc, Blackrock Inc und FMR, LLC. Buffet soll aber ca. 6 Millionen Anteile haben. Das ist immerhin fast 0,5 %.
Und an wie vielen dieser Unternehmen ist Buffet bzw. seine Firma beteiligt? ;-)
 
  • Gefällt mir
Reaktionen: CyborgBeta
milliardo schrieb:
Angriff ist die beste Verteidigung eh? Nice try. Die Beiträge anderer User als maximalen Angriff zu interpretieren und gleich eine eine paar satte Unterstellungen hinterherzuschmeißen.
Der einzige der hier unterstellt bist du. Und du ergehst dich weiter in ad hominem statt Argumenten. Bye Bye.

stefan92x schrieb:
Alle übernehmen den Bias ihrer Quellen.
DeepSeek übernimmt diese BIAS/Zensur aber nicht aus den Quellen bzw. ggf. auch aber zusätzlich wurde das nachträglich drüber gestümpelt, wie mindestens ein User selbst hier im Thread dokumentiert hat.
 
ruthi91 schrieb:
Ja genau, man bekommt zensierte Ergebnisse nach Richtlinien der chinesischen Einheitspartei.
Und bitte bitte keine Fragen stellen zum Thema Uiguren, Tibet usw stellen.
😊
ooo man hier haben es genügend Leute im Forum schon mal erklärt. Ja die chineschie Version, die IN CHINA läuft, ist zensiert. Ist auch anders auch nichts zu erwarten. ABER DARUM geht es nicht. Es ist ein OPEN SOURCE LLM AI Model, dass du auf DEINEM Rechner LOKAL, OHNE Zensur laufen lassen kannst. Du kannst quasi damit deine EIGENE KI für deine Bedürfnise und deine Zielgruppe bauen. Das man das noch in 2025 erklären muss...
 
  • Gefällt mir
Reaktionen: Spike S., konkretor und KitKat::new()
div4o schrieb:
Es ist ein OPEN SOURCE LLM AI Model, dass du auf DEINEM Rechner LOKAL, OHNE Zensur laufen lassen kannst. Du kannst quasi damit deine EIGENE KI für deine Bedürfnise und deine Zielgruppe bauen. Das man das noch in 2025 erklären muss...
Ah, dann erkläre mir mal wie ich das Modell einfach umtrainieren kann. Das kannst du auch in 2025 als normal sterblicher Mensch nicht.

KI-Modelle sind nicht paar Zeilen Code, den man lesen und ändern kann. OS ist da irrelevant, auch wenn das hier in den Kommentaren viele Ahnungslose als was ganz großes feiern. Öffentliche Modelle gibt es auch andere, z.B. ollama oder Mistral kann ich auch lokal laufen lassen. Meine "eigene KI" kann ich damit aber auch nicht bauen, ich kann nur das Modell verwenden, wie es ist.
 
  • Gefällt mir
Reaktionen: Piktogramm und nutrix
@coolmodi Leute wie leben in 2025!!!

Chat GPT:

Promt:

"Hi, wie findet "Zensur" auf KI Modele wie DeepSeek statt? Und kann man diese Modele, wenn sie open source sind, umtrainieren?"

Antwort:

"Die "Zensur" oder besser gesagt Content-Filterung bei KI-Modellen wie DeepSeek oder ähnlichen KI-Modellen erfolgt in der Regel auf mehreren Ebenen. Hier sind die wichtigsten Aspekte:

1.​

  • Bereits beim Training des Modells werden die Daten sorgfältig gefiltert, um sicherzustellen, dass problematische oder unerwünschte Inhalte (z. B. Gewalt, Hassrede, Fake News) nicht in den Trainingssatz gelangen.
  • Datenquellen werden gezielt kuratiert, und Modelle wie DeepSeek werden mit kontrollierten oder geprüften Daten trainiert.

2.​

  • Bei der Bereitstellung des Modells wird oft eine zweite Ebene der Filterung implementiert, die die Ausgaben des Modells überprüft.
  • Entwickler fügen Regeln oder Einschränkungen hinzu, die verhindern, dass das Modell auf bestimmte Eingaben reagiert oder bestimmte Antworten gibt (z. B. durch Content-Matching oder Blacklists).

3.​

  • OpenAI und andere Unternehmen implementieren spezifische Mechanismen, um Missbrauch zu verhindern. Das können Einschränkungen auf sensible Themen sein, wie z. B. die Generierung von Rezepten für gefährliche Substanzen oder Anleitungen für illegale Aktivitäten.

Kann man ein Open-Source-Modell umtrainieren?

Ja, Open-Source-Modelle lassen sich in der Regel umtrainieren oder "feinjustieren" (Fine-Tuning). Das Umtrainieren kann jedoch je nach Ziel und gewünschtem Ergebnis unterschiedlich komplex sein.

Voraussetzungen für das Umtrainieren:​

  1. Zugriff auf die Modellparameter:
    • Bei Open-Source-Modellen (wie GPT-J oder LLaMA) hast du oft Zugriff auf die "Weights" (die trainierten Parameter). Diese kannst du verwenden, um das Modell anzupassen.
  2. Zusätzliche Daten:
    • Du benötigst spezifische Daten, die dein gewünschtes Verhalten oder Wissen widerspiegeln. Diese Daten sollten qualitativ hochwertig und thematisch relevant sein.
  3. Hardware:
    • Das Umtrainieren eines Modells ist rechenintensiv, besonders bei großen Modellen. Oft wird spezielle Hardware (wie GPUs oder TPUs) benötigt.
  4. Feinabstimmung (Fine-Tuning):
    • Beim Fine-Tuning wird das bestehende Modell mit neuen, spezifischen Daten trainiert. Dadurch "lernt" das Modell neue Inhalte oder passt sich an bestimmte Anforderungen an, ohne von Grund auf neu trainiert zu werden.
  5. Rechtliche Aspekte:
    • Auch wenn ein Modell Open-Source ist, gelten oft Lizenzbedingungen. Manche Lizenzen (z. B. OpenRAIL oder Apache) erlauben das Umtrainieren für kommerzielle oder private Zwecke, während andere Lizenzen dies einschränken können.

Herausforderungen beim Umtrainieren:​

  • Bias (Voreingenommenheit): Wenn die neuen Trainingsdaten nicht sorgfältig ausgewählt sind, kann das Modell ungewollt voreingenommen werden.
  • Balance: Es ist schwierig, neue Informationen hinzuzufügen, ohne bestehende Fähigkeiten oder Inhalte des Modells zu "überschreiben".
  • Kosten: Das Training kann teuer sein, insbesondere bei sehr großen Modellen."
Also Ja, es ist möglich.

Edit: Um eins klar zu stellen. Mir ist ja bewusst, dass du und ich heute noch nicht in der Lage sind, das Umtrainieren zu machen. Aber darum geht es nicht. So könenn z.B. Star Ups oder Forschungsinstitute nun "mitmischen" und die KI für die eigene Bedürfnise anpassen. Das war gestern so nicht möglich, denn es war nur den ganz Großen Player vorenthalten.
 
Zuletzt bearbeitet:
Zurück
Oben