News OpenAI: Reasoning-Modell o3 mini für kostenfreie ChatGPT-Version

Uzer1510 schrieb:
Die Taiwan Problematik ist ja auch glaub nicht im Modell selber
natürlich ist das im modell drin, kann man ja einfach selbst lokal probieren. die web-version erkennt kritische anfragen nur zusätzlich und macht gleich ganz dicht (bzw. auch erst mitten in der antwort).
 
  • Gefällt mir
Reaktionen: JumpingCat
Die ct3003 haben das doch getestet auf youtube einfach nachschauen sieht man die unterschiedlichen Antworten von deepseek China zu deepseek USA.

Mal mit Zensur im China gehosteten Modell mal ohne Zensur im USA gehosteten Modell z.B. glaub Pressefreiheit etc. Das in den USA gehostete Modell gibt es über Perplexity.

Und das beweist halt die Zensur - oder ein Grossteil davon - ist einfach hardcoded, so wie bei ChatGPT auch die Zensur sicher hardcoded ist - siehe dieses "Timetravel" Experiment, das war doch auch ganz cool.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Piehnat
MaverickM schrieb:
Bin ich der einzige, den es stört, wenn sich ein Bot/eine LLM/eine Maschine so verhält als wäre sie ein Mensch, bzw. so schreibt, als würde da ein Mensch dahinter sitzen?
Jo fand ich auch komisch und sollte eher nicht sein, solang man das nicht ausdrücklich so wünscht. Ich hab mich auch sofort gefragt ob das wirklich KI oder ein sehr flinker Praktikant ist. Soweit ich weiß werden da auch nicht ansatzweiße irgendwie einzelne Buchstaben zusammengesetzt und können wegen der Geschwindigkeit mal beliebige sein. Also auch inhaltlich war die Antwort komplett falsch. Naja vielleicht wollte sie lustig sein, weil ich gefragt hatte ob eine KI müde ist..
 
Hmmm ich glaube schon dass Buchstaben zufällig sein können - und es eigentlich glaub auch immer sind - ist die Vorhersage der LLMs - also deren Ausgabe - nicht immer nur das nächste wahrscheinlichste Token? das kann doch auch ein einzelner Buchstabe sein und nicht nur Wort(teile)

Eigentlich müsste man doch die Tokengrösse beobachten können bei sehr langsam laufenden LLMs also z.B. wenn die auf der CPU laufen?

Brauchen die nicht teilweise ewig bis die mal einen Satz oder ein Wort dann auch stückchenweise rauslassen? Da müsste man doch beobachten können wie gross die Tokens sind - nur wer hat schon die Geduld für sowas :)
 
Zuletzt bearbeitet:
konkretor schrieb:
Konkurrenz belebt das Geschäft. Statt nur ein LLM zu nutzen geht der Trend ja dahin die Ausgabe von einem anderen kontrollieren zu lassen.



Oh schön - da verbraucht die Anfrage endlich nicht mehr nur noch einmal mehrere kWh sondern mehrfach für die gleiche Anfrage. Und hat auch den Vorteil, dass für das eine Ergebnis bei z.B. dreifacher Anfrage in etwa drei Mal so viel Hardware gebunden ist, die sonst für vernünftige Aufgaben verwendet wird.

Alles nicht sehr nachhaltig, wie es aktuell läuft.
 
0x8100 schrieb:
das lokal laufende deepseek verbreitet auch nur ccp propaganda:

Anhang anzeigen 1578237
Das ist aber genau der Punkt, auf den sich Nixon und Mao geeinigt hatten. DeepSeek vertritt hier auch den offiziellen US-Amerikanischen Standpunkt (dass der sich in den letzten Jahren inoffiziell und willkürlich verändert hat, kann man DeepSeek nicht anlasten).

Außerdem geht mir das ständige Politisieren dieser KI auf die Nerven.
 
  • Gefällt mir
Reaktionen: KlaasKersting
0x8100 schrieb:
z.b.? und die themen sind von regierungsseitig vorgegeben?



das lokal laufende deepseek verbreitet auch nur ccp propaganda:

Anhang anzeigen 1578237
Diggi. Das ist das lokale Deepseek, wie du selber festgestellt hast.

Den Unterschied zwischen einer lokalen Version mit chinesischem Training und einer öffentlichen Version mit US Trainingsdaten hast du aber schon verstanden, oder?
 
pacifico schrieb:
Diggi. Das ist das lokale Deepseek, wie du selber festgestellt hast.
diggi, das ist deepseek-r1, so wie es als tolle opensource version durch die medien geistert und ständig gefeiert wird, dass man jetzt unabhängig von bösen westlichen anbietern wie openai ist.
suspect_user schrieb:
Das ist aber genau der Punkt, auf den sich Nixon und Mao geeinigt hatten.
gibt es irgendeinen grund, warum du dich jetzt so an diesem beispiel aufgeilst? nimm irgendein beliebiges anderes thema, das der ccp unbequem ist und schau, welche seite deepseek bei der argumentation einnimmt.
 
  • Gefällt mir
Reaktionen: unique28
Uzer1510 schrieb:
Eigentlich müsste man doch die Tokengrösse beobachten können bei sehr langsam laufenden LLMs also z.B. wenn die auf der CPU laufen?

Brauchen die nicht teilweise ewig bis die mal einen Satz oder ein Wort dann auch stückchenweise rauslassen? Da müsste man doch beobachten können wie gross die Tokens sind - nur wer hat schon die Geduld für sowas :)
Die Tokens sind bei den Modellen immer gleich. Glaub bei OpenAI sind es 3 Zeichen. Das können Buchstaben, Zahlen, Sonderzeichen oder sowas wie leerzeichen, Tab und Zeilenumbruch sein
 
Und Deepseek ist halt trotzdem besser zumindest für Alltagsaufgaben. Das Reasoning und die Suche ist leider bei mir immer wieder Fehlerhaft. Vergleiche ich zwei Autos miteinander bekomme ich keine schöne Struktur geliefert, sondern werde erinnert, dass das Auto viel besser als Verbrenner ist. Dabei vergleiche ich doch bereits nur E-Autos. Deepseek funktioniert, gerade in Verbindung mit der Websuche bei mir einfach deutlich besser. Und ich bin heavy user
 
7H0M45 schrieb:
Die Tokens sind bei den Modellen immer gleich. Glaub bei OpenAI sind es 3 Zeichen. Das können Buchstaben, Zahlen, Sonderzeichen oder sowas wie leerzeichen, Tab und Zeilenumbruch sein


Hmm ich habe mal den OpenAI Tokenizer getestet die Tokengrösse ist doch variabel?

https://platform.openai.com/tokenizer

Code:
apple = 1 Token
apples = 2 Token
apples  = 3 Token   (also mit einem Leerzeichen hinten)

Zwischen 2 und 8 zeichen pro Token habe ich mal mit einem einfachen selbtgeschriebenen Satz da jetzt gesehen. (GPT4o)

Und auch ein 1 zeichen Token habe ich mit dem 2. Satz bereits gefunden
"it's 9 o'clock" das einzelne Leerzeichen vor "9" ist ein Token :D
 
Zuletzt bearbeitet:
DasKANN jetzt Zufall sein, aber gerade macht das auf mich einen schlechteren Eindruck als 4o. Mocke mir gerade eine API mit Python und bin nicht so angetan.
 
Zuletzt bearbeitet:
Funktioniert mit meinen Tests sehr gut!
Habe ihn aufgefordert, mir in Python mit pygame einen Battle City- und einen Gauntlet-Klon zu basteln.
Beide Spiele waren in der 1. Iteration nett spielbar und hatten viele Features.
Bei o1 hat es 3-4 Iterationsschritte gedauert und 4o ist nach einigen Antworten total gescheitert und hat nur noch Codesalat ausgespuckt.
 
murdock_cc schrieb:
Aber genau das ist ja, wofür Sie gebaut werden.

Das muss nicht so sein.
Aber nehmen wir das mal als gegeben hin: Es gefällt mir immer noch nicht.
 
  • Gefällt mir
Reaktionen: murdock_cc
Also ich nutze nach wie vor lieber das o1 Modell. Zumindest auf deutsch liefert mir das bessere Ergebnisse als o3-mini. Mit o3-mini-high muss ich mich noch beschäftigen und außerdem testen ob es auf englisch bessere Ergebnisse liefert.
 
[F]L4SH schrieb:
Oh schön - da verbraucht die Anfrage endlich nicht mehr nur noch einmal mehrere kWh sondern mehrfach für die gleiche Anfrage.
gibts da Zahlen dafür ?
oder ist das mit der kWh einfach so hingeworfen?

Training soll ja viel Leistung brauchen.
Aber wie sieht es mit einer Anfrage danach tatsächlich aus ?

ne Anfage dauert sag ich jetzt mal z.b. 10 Sekunden...
mehrere kWh ?

Deepseek soll ja auch lokal betreibbar sein...
wenn wir hier der einfachheithalber auch 10 Sekunden für eine Anfrage nehmen..

und für "mehrere kWh" mal 3kWh einsetzen..

dann müssten in den 10 Sekunden ja 1.080.000Watt ins Netzteil fließen

das wäre das 1000end-Fache was ein starkes Computer-Netzteil leisten kann

kann das sein ?
wenn




[F]L4SH schrieb:
drei Mal so viel Hardware gebunden ist, die sonst für vernünftige Aufgaben verwendet wird.
was wären solche vernünftigen Aufgaben ?
300 Millionen Netflix-User die Serien wie Squidgame streamen ? ;-)





[F]L4SH schrieb:
Alles nicht sehr nachhaltig, wie es aktuell läuft.
in vielen vielen Bereichen, durchaus
Rebondeffekt... siehe persönlichen Bereich
wir haben immer effizientere Computer, Netzteile, Grafikkarten -> und doch brauchen die Rechner immer mehr (zumindest im Bereich Gaming)
 
  • Gefällt mir
Reaktionen: WiP3R
Zurück
Oben