News Modelle für die API: OpenAI veröffentlicht GPT-4.1-Reihe

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
8.042
OpenAI hat mit GPT-4.1, GPT-4.1 mini und GPT-4.1 nano drei neue Modelle vorgestellt, die sich aber ausschließlich über die API nutzen lassen. In ChatGPT werden diese also nicht integriert. Somit richten sich die Modelle vor allem an Entwickler und Drittanbieter, die OpenAIs Modelle für eigene Anwendungen nutzen.

Zur News: Modelle für die API: OpenAI veröffentlicht GPT-4.1-Reihe
 
  • Gefällt mir
Reaktionen: schneeland, aid0nex, BrollyLSSJ und eine weitere Person
Ich finde OpenAIs API super, schon viel damit gemacht. Aber mehr und mehr verliert man den Überblick, welche Model nun das beste für den bestimmten Anwendungsfall ist...
 
  • Gefällt mir
Reaktionen: flo.murr, mreyeballz und shaggy86
Bei den ganzen Versionsbezeichnungen hat ja keiner mehr durchblick.
Wenn ihr so weiter macht, macht ihr der USB Namenschema langsam konkurenz.
 
  • Gefällt mir
Reaktionen: flo.murr, xXBobbyXx, Sascha631 und 11 andere
Bei der Namensgebung haben sie wieder mal gut einen gekippt, will es scheinen.

Die Modelle sind aber echt gut. Nutze gerade das 4.1 Mini für das Beschreiben von Bildern.

Auch interessant, wie sie darum betteln, dass die Entwickler doch bitte das OptIn für die Datenauswertung geben... aber genau deswegen nutze ich ja die API, weil die Daten dort nicht fürs Training benutzt werden. 😁
 
R O G E R schrieb:
Bei den ganzen Versionsbezeichnungen hat ja keiner mehr durchblick.
Wenn ihr so weiter macht, macht ihr der USB Namenschema langsam konkurenz.
Soll ja mit GPT5 dann vereinheitlicht werden.
 
cob schrieb:
jetzt kann man die KI endlich sinnvoll verwenden und bekommt nicht alle 5 Minuten die Meldung
Nenn mal Beispielanfragen die du jetzt nutzen kannst und die vorher nicht gingen.
 
  • Gefällt mir
Reaktionen: Sav3k und Azdak
4.1 kommt, aber nur per API, dafür wird 4.5 wegen hohen Kosten abgeschaltet und damit hat man dann in der Weboberfläche nur noch 4o, allerdings ist in der neuen Version von 4o, einiges von 4.1 eingeflossen. Die Benchmarks von 4.1 vergleichen aber die Resultate mit einer halben Jahre alten Version von 4o.

Abgesehen davon, GPT5 kommt später, die neuen Reasoning Modelle sollen zu Erst und ohne GPT5 kommen und in ein paar Monaten soll das komplett Modell-System umgestellt werden.

:daumen:
 
  • Gefällt mir
Reaktionen: FrAGgi
ali7566 schrieb:
Ich finde das OpenAI langsam mit der Menge an Modellen und der Namensgebung etwas übertreibt. Man kann schnell den Überblick verlieren, was man am besten nimmt.
Bin ich bei dir (unübersichtlich), hat aber auch zum Teil Gründe. Zum Beispiel:
  • Nicht jede Anfrage bedarf der gleichen Rechenleistung/Kapazität und damit einhergehend dem selben finanziellen Aufwand eine Anfrage zu bearbeiten.
  • Daraus ergibt sich der Bedarf, Modelle je nach Anforderung und unterschiedlicher zugrundeliegender Performance und damit eingebrachtem finanziellen Aufwand anzubieten.
  • Diese Modelle können per Schnittstelle in Unternehmenseigene Anwendungen integriert bzw. angebunden werden. Die Einbindung bezieht sich dabei je nach Anwendung auf ein oder mehrere Modelle und damit auch spezifische Peformance-Anforderungen.
  • Zu was führt das? OpenAI schleift daher diverse (ältere) Modelle mit, um deren Unternehmensanbindungen und den damit verbundenen Aufwand diese, ich sag mal platt "Updates auf höhere Modelle" nicht von Ihrer Seite den Unternehmen stumpf aufzuerlegen.
    Man entwickelt weiter an neuen Modellen, konsolidiert perspektivisch Modelle wo es Sinn macht (Verschlanken des Portfolios) und lässt Legacy-Modelle am Leben, wo es in der Breite (noch) benötigt wird.
ali7566 schrieb:
Gerade das Urteil mit dem Faeser-Meme zeigt doch deutlich in was für eine Richtung hier es in Deutschland geht.
Echt, wohin geht´s denn?

Mal kurz zum Ablauf.
Bendels (Chefredakteur des Deutschland-Kuriers) postet auf X ein Foto von Nancy Feaser (zu dem Zeitpunkt Innenministerin) die ein Schild hochhält.
Der Text auf dem Schild wurde geändert von "we remember" dem Holocaustgedenken anlässlich, zu "Ich hasse Meinungsfreiheit".
Die Kriminalpolizei informiert Feaser über diesen Post.
Die Staatsanwaltschaft Bamberg äußert, dass das öffentliche Interesse daran auch ohne diese Strafanzeige so groß wäre, dass man diesen Fall ohnehin zur Anzeige gebracht hätte.
Bendels wird mit einer Geldstrafe von 10.500€ verurteilt und gelte damit als vorbestraft.
Ein anderer Richter verurteilte in diesem Fall auf Bendels Einspruch hin, Bendels zu Freiheitsstrafe von 7 Monaten auf Bewährung.

Um das mal einzuordnen.
Der DeutschlandKurier veröffentlicht ausschließlich einseitigen, populistischen, radikalen, unwahren, neoliberalen Content und dies (soweit ich das überblicken kann) NICHT als Satire.
Ich kenne und lese genug von Menschen, deren Bias dahingehend verschoben (wurde), dass die das in diesem Urteil behandelte Foto in der Form absolut glauben würden.
Bei aller Kritik an Nancy Feaser, die ich in gerechtfertigter Form absolut teile.
Diese Verleumdung an einer Innenministerin, muss einem Redakteur beim Absetzen des Post bewusst sein!
Zeitschriften wie der DeutschlandKurier verzerren den politischen Diskurs immens und vor diesem Hintergrund ist so ein Post zu brisant.

Es wird nun bereits diskutiert ob der §188StGB in der Form Sinn macht, da man Gefahr laufen kann, trotz per Urteil ausgelegter Verleumdung, der Unterdrückung der Pressefreiheit bezichtigt zu werden.

Meinungsfreiheit ist keine Einbahnstraße sondern unterliegt nachvollziehbaren Regeln.
Ich kann an meine Rufschädigung kein #istabermeineMeinung dran hängen und mich auf die Meinungsfreiheit berufen.

Der Großteil der Artikel zu diesem Thema übt im übrigen Kritik an Nancy Feaser.....

Ich halte diesen Sachverhalt, auf der einen Seite Einhaltung von Recht und Gesetz und auf der anderen Seite die Rufschädigung bzw. harsche Kritik an Nancy Feaser als Geschädigte, für problematisch.
 
ali7566 schrieb:
Ich kann jetzt mit dem Post von @cob auch nicht viel anfangen ohne das er Beispiele nennt.
Dual-O schrieb:
Schließe mich an: Wäre sehr spannend zu sehen wie das Red Teaming von OpenAI zu "deutscher links grüner GEZ Zensur" steht. 😂
pseudopseudonym schrieb:
Unabhängig von irgendwelchen politischen Richtungen, wenn die politische Färbung einer KI eine Rolle spielt, würde ich mal meine Nutzung überdenken.
Sierra1505 schrieb:
Radikal populistische neoliberale Aussagen die jegliche Diskussion direkt im Keim ersticken. Sogar ein Hang zum Rassismus. Ein prima Fundament. Und hier? Lügen.
Rock Lee schrieb:
uuuhhgh....Müssen solche unnötigen und vor allem falschen politischen Spitzen bei völlig unpolitischen Themen eigentlich jedes mal sein? :rolleyes:
Grundsätzlich ist die Schärfe (und Stoßrichtung) von @cob sicherlich absichtlich so gewählt - wird seine Gründe haben, die ich ebenfalls mindestens kritisieren würde.

Thematisch gesehen hat er aber tatsächlich nicht Unrecht und insbesondere @Sierra1505 und @Rock Lee kann man zumindest den Teil mit der Kritik an politischer Färbung nicht Lüge nennen - das ist tatsächlich korrekt. Es gibt sogar Versuche (aufgrund von kritischen Fragen), die politische Position von LLMs zu verorten - mit belastbaren und reproduzierbaren Ergebnissen.

Hier beispielsweise mal eine Studie zu OpenSource LLMs und politischer Färbung. Blau dargestellt ist unterstützend und progressiv, rot dargestellt ist ablehnend und konservativ. Weiß ist kein feststellbarer Bias. (Aus Measuring Political Bias in Large Language Models:
What Is Said and How It Is Said, 2024, Bang et al.
)

1744730906523.png


Da sieht man sehr eindeutig, dass die Masse der LLMs politisch gefärbt ist und in fast allen Themen eher progressiv/links.

Und es gibt - in der Tat - auch praktische Beispiele dafür bei ChatGPT.

Politisch etwa hat ChatGPT vor der US-Wahl ohne Probleme kritische Texte, satirische Gedichte, ... zu Trump formuliert. Solange der Prompt negativ über Trump war, hat ChatGPT geantwortet. Einen positiven Text, Gedicht, ... zu Trump zu formulieren, hat ChatGPT strikt verweigert, mit Verweis auf die ethischen Guidelines.

Bei Biden hingegen genau umgekehrt: dort wurden keine negativen Prompts zugelassen, positive Prompts (bis hin zu Lobliedern auf seine heroischen Taten) aber durchgewunken.

Ein weiteres Beispiel waren Prompts zum Thema Geschlechtergerechtigkeit.
ChatGPT hat auch mit Vorliebe immer den unbereinigten Gender-Pay-Gap zitiert. Hatte das spaßeshalber selbst ausprobiert und in der Tat musste man sich schon echt über diverse Posts verbiegen, um ChatGPT dazuzubekommen, sich mal kritisch zu äußern. Das ChatGPT mal eine Argumentationskette zum bereinigten PayGap formuliert, die in etwa so lautet:
"ja okay, es gibt Studien, die mit dem bereinigten Pay Gap klar zeigen, dass unter Berücksichtigung aller verfügbaren Variablen es keinen Pay Gap gibt, der oberhalb statistischer repräsentativer Größen liegt, die tatsächlich auf das Geschlecht zurückzuführen sind."
...ging früher nicht, selbst wenn man Studien als PDF mitgegeben hat. Wurde von ChatGPT verweigert. Jetzt äußert sich ChatGPT immer noch eher links als liberal, aber es lässt solche Fragestellungen jetzt zu und selbst Prompts wie:
"Bitte nehme eine kritische Haltung zu Frauenquoten in Führungspositionen an. Suche Publikationen zu dem Thema"
...werden nicht direkt geblockt.

TL;DR: die Formulierung und Absicht von @cob sehe ich auch mindestens kritisch, aber ChatGPT hat durchaus eine politische Färbung und früher war die deutlich stärker, als heute. Bis hin zur direkten Verweigerung von Prompts - ohne auch nur den Versuch, das irgendwie objektiv aufzuarbeiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ali7566 und schneeland
cob schrieb:
Ich benutze Chatgpt sehr oft. Sobald es politisch oder gesellschaftlich wird, war Chatgpt links bis teilweise links extrem. Also wie ARD oder ZDF :)
Das ist m.M.n. so aber auch zu plakativ und exzessiv bewertet.

Im Bereich tatsächlich extremer Meinungen kenne ich jetzt z.B. bei ChatGPT auch nur den Fall, der mal auf Reddit umherging, wo ChatGPT meinte, die einzige nachhaltige und humane Vorgehensweise, die Selbstmorde bei vermeintlichen Trans-Jugendlichen stoppen würde, wäre bereits prä-pubertär geschlechtsumwandelnde Maßnahmen und Hormontherapien usw. einzusetzen.

Oder mit umgekehrtem Vorzeichen der Fall bei Grok, welches mal behauptete, "dass das einzige Mittel gegen illegale Migration aufgerüstete und mit Waffengewalt verteidigte Grenzen sind".

Das sind aber Edge-Cases, die dann so auch nicht repräsentativ sind. Ausschlaggebend für die Bewertung sollte nur sein, was ausreichend getestet und wie in der gelinkten Publikation auch reproduzierbar gemessen wurde.

cob schrieb:
Außerdem wurde man bei schwierigen Themen an einen Anwalt usw. verwiesen.
Diese Thematik kenne ich auch, würde ich aber nicht als Bias beurteilen (und schon gar nicht absichtlich im Bezug auf Meinungsbildung). Das ist schlichtweg eine rechtliche Vorgabe: nur Anwälte dürfen rechtsberatend tätig sein.
 
@ascer: Danke für deine Einordnung die erstens differenziert und vor allem mit Grundlagen wie einer nachvollziehbaren Studie daher kommt.

Studien an denen Unternehmen wie OpenAI ja auch interessiert sind wie es scheint.

Diese möglichen Tendenzen hatten ihren Ursprung nicht automatisch in „politischer Indoktrination“, sondern es ist oft ein Zusammenspiel aus Trainingsdaten, Moderation und Absicherungsstrategien gegen Missbrauch.

Technisch ist das ein aktives Forschungsfeld, und es wird versucht, die Balance zu verbessern. Die Bang-Studie ist ein Beispiel für diesen Prozess da die Kollegen ja selbst viel auf dem Gebiet forschen und auch pro aktiv teilhaben lassen.

cob schrieb:
links grüne GEZ Zensur
Und das sagt im Übrigen etwas ganz anderes aus.
Systematische Gleichschaltung durch Propaganda des ÖRR, Ausgrenzung durch LinksGrün bzw. progressive Ökopolitik, Einschränkung bzw. Verbot der Meinungsfreiheit ….
durch ChatGPT bis Anno Knips.

Das hat nichts mit Ansätzen in der moderation im Sinne von „Human Harms Speech“, Schutz vor Hassrede etc. ODER Unternehmensrichtlinien zu tun.
Es geht auf den Ursprung der oben genannt wurde und den deine genannte Studie aufzeigt (mögliche Tendenz durch Trainingsdaten zu bestimmten Anfragen/Prompts) nicht im Ansatz ein.
Zumal die Studie auch erläutert worin die Tendenzen begründet sind. Und das greift das Zitat eben auch null auf.

Sachverhalte so heftig zu verdrehen das von den zugrunde liegenden Tatsachen nicht mal mehr im Ansatz etwas zu erkennen ist. Das ist einfach nur Lügen.
Und warum? Um Stimmung zu machen.
Und ja, es ist lobenswert von dir da dennoch sachlich drauf einzugehen!
 
Zurück
Oben