News API für OpenAI o1-pro erschienen: Entwickler können KI-Modell in eigener Software nutzen

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
6.341
Andere Anwender sahen hingegen die Stärken des Modells insbesondere in der Programmierung, vor allem dann, wenn Anfragen detaillierte Anweisungen dazu enthielten, was genau mit dem Code erreicht werden sollte.
Genau mein Humor!

Wir leiden sowieso alle schon unter schlechtem Code von schlechten Entwicklern, die zu wenig Erfahrung haben und sich selbst überschätzen und glauben Abkürzungen nehmen zu können, indem irgendwelcher Hipster-Kram das für sie schon löst und sie ihren Code und die Komplexität aber garnicht im Griff haben.

Jetzt ziehen wir gerade die nächste Generation heran, "Programmierer" nutzen "KI" zur Programmierung. Die "Programmierer", die vorher noch wenig Erfahrung hatten, haben jetzt gar keine mehr. Und die schlechten Ergebnisse der letzten Generation sind Teil der Trainingsdaten.

Ganz großartig.
 
  • Gefällt mir
Reaktionen: Xiaolong, Thaxll'ssillyia, madmax2010 und 5 andere
Khorneflakes schrieb:
Jetzt ziehen wir gerade die nächste Generation heran (...)
Dann greifen schlechte Programmierer jetzt eben auf das erste ChatGPT Schnipsel zurück statt so lange bei StackOverflow zu kopieren bis ein Code dabei war der läuft. 🤷‍♂️

Wer nach Wegen gesucht hat bloß nicht zu viel Wissen zu erlangen, hatte schon immer Möglichkeiten das zu schaffen. Gab es immer, wird es immer geben.

Wer aber gut programmieren kann und weiß wie er sich ChatGPT und Co. zu Nutzen machen kann, wird dadurch kein schlechterer Programmierer (wenn der Code angeschaut und verstanden wird).

Ein Bekannter von mir lernt gerade "richtig" Programmieren und nutzt ChatGPT nur um sich Code erklären zu lassen, den er nicht versteht. Das geht damit oft viel besser als nach genau dem Code Problem bei Google zu suchen und Forenbeiträge zu durchstöbern, die mindestens zur Hälfte Unsinn enthalten.

Es geht nicht immer nur darum die negativen Aspekte zu sehen, sondern auch mal das Positive zu sehen.

Wer mit ChatGPT ohne Ahnung irgendwas zusammenschustert wird früher oder später auch damit auf die Schnauze fallen. Später als früher, aber es wird passieren.
Am Ende bleiben nach wie vor die übrig, die wirklich verstehen was sie da tun.
 
  • Gefällt mir
Reaktionen: Zarlak, Schwachkopp, pseudopseudonym und 3 andere
FrAGgi schrieb:
Wer aber gut programmieren kann und weiß wie er sich ChatGPT und Co. zu Nutzen machen kann, wird dadurch kein schlechterer Programmierer (wenn der Code angeschaut und verstanden wird).
Ich nutze es rechtviel um Tests, GUIs und nervigen Boilerplate Kram zu generieren.
GUIs habe ich vorher nie gebaut, einfach weil es zu nervig war. Sich jetzt mit 2 Minuten Aufwand ein Frontend an prototypen zu bauen ist oft hilfreicher als ich mir eingestehen wollte.

Dieser Vibe Coding hype nervt aber schon hart


O1-Pro ist an der API aber schon obszön teuer
 
Zuletzt bearbeitet:
FrAGgi schrieb:
Wer nach Wegen gesucht hat bloß nicht zu viel Wissen zu erlangen, hatte schon immer Möglichkeiten das zu schaffen. Gab es immer, wird es immer geben.
Das stimmt, aber muss man es denn so hart übertreiben? Es wird diesen Leuten ja immer einfacher gemacht und das wird ja auch unreflektiert als Lösung akzeptiert, so macht man das jetzt eben. Leute ohne Vorkenntnisse können "programmieren". Das wird proklamiert und das ist ja auch das, was bei den Leuten hängen bleibt. Dass Leute früher schon kaputten Code von anderen, aber immerhin echten, Menschen kopiert haben ist ja keine Rechtfertigung für sowas.

Und was dein Bekannter da macht halte ich auch fundamental für falsch. Du ziehst da die Grenze zwischen richtig und falsch. Das andere ist falsch, aber SO kann man das dann schon nutzen. Aber ChatGPT kann das ja nicht. Die Korrektheit der Informationen, die er da bekommt, hängen von Statistik ab und mangels eigenem Verständnis kann er nicht mal prüfen, ob er die richtige Info bekommen hat. Oder gleicht er jede Antwort gegen eine vertrauenswürdige Quelle ab, z.B. gegen Standard(lehr)werke für das Thema X, einen bekannten und erfahrenen Programmierer oder vergleichbare Quellen? Ich bezweifle das, die meisten werden das nicht tun. Und der Lerneffekt wird nahezu Null sein.
 
Khorneflakes schrieb:
(...) aber SO kann man das dann schon nutzen. (...)
Ja, weil das eine "Ich lasse mir Code ausspucken und baue ihn einfach ein" ist und das andere ein "Ich lasse mir Code erklären den ich nicht verstehe". Für mich ist da ein großer Unterschied.

Ich respektiere deine Meinung, aber das:
Khorneflakes schrieb:
Und der Lerneffekt wird nahezu Null sein.
Halte ich für Unsinn. Warum sollte der Lerneffekt gleich Null sein, nur weil die Antwort von ChatGPT statt von einer Webseite kommt? Im Gegensatz zur Webseite kann man bei ChatGPT Rückfragen stellen.

Khorneflakes schrieb:
(...) und mangels eigenem Verständnis kann er nicht mal prüfen, ob er die richtige Info bekommen hat. (...)
Gerade zu Beginn jagt er da keine komplexen Blöcke Code aus seinen Übungsaufgaben rein. Da fällt es nicht sonderlich schwer zu verstehen, ob das was ChatGPT jetzt sagt stimmt oder nicht. Aus eigener Erfahrung habe ich bei den einfachen Codeschnipseln auch keinen Unsinn erlebt, ganz im Gegenteil. Die Erklärungen waren so gut, dass ich nicht wüsste wie man es noch besser hätte formulieren können.

Gerade wenn man das ganze als Hobby betreibt und wenn man in seinem Umfeld keine Programmierer hat, erleichtert es den Einstieg enorm.

Khorneflakes schrieb:
Oder gleicht er jede Antwort gegen eine vertrauenswürdige Quelle ab, (...)
Natürlich nimmt er nicht jede Antwort von ChatGPT und prüft die jetzt in 5 unterschiedlichen Quellen nochmal nach. Das ist auf dem Level ja auch gar nicht nötig. ER orientiert sich primär an bekannten Seiten. Nur ist auch die offizielle Dokumentation einer Programmiersprache nicht immer gerade anfängerfreundlich formuliert. Bevor man da also frustiert abbricht, hilft es, wenn man es in einfacheren Worten genau auf seinen 3-Zeiler Code zugeschnitten erklärt bekommt.

Bei dir klingt es so, als würde ChatGPT ausschließlich nur schlechten und falschen Code von sich geben.
 
FrAGgi schrieb:
Bei dir klingt es so, als würde ChatGPT ausschließlich nur schlechten und falschen Code von sich geben.
Na, eine Trefferchance besteht schon. Am Ende kommt es drauf an was das Modell gelernt hat. Für ein Hello World wird es meistens reichen, weil es dafür genug Beispiele in den Trainingsdaten gab. Und vermutlich auch für vergleichbare Lernaufgaben. Der Lerneffekt wird dabei aber weitestgehend ausbleiben. Das ist nicht anderes als eine andere Art des Schummelns, wobei wir in der Schule auch schon nichts gelernt haben.

Du kannst kein Sprachmodell auf Basis von Statistik und Vorhersagen ernsthaft Code generieren lassen und glauben dass das dann schon so passt.

https://vibecodefixers.com/

Was darf Satire eigentlich?
 
Khorneflakes schrieb:
Für ein Hello World wird es meistens reichen (...)
Hast du es jemals selbst probiert...?
Khorneflakes schrieb:
Der Lerneffekt wird dabei aber weitestgehend ausbleiben.
Behauptest du nun zum zweiten mal, ohne zu erklären warum.

Bleibt der Lerneffekt auch aus, wenn ich eine Aufgabe nicht verstehe und jemanden der Programmieren kann um eine Erklärung bitte?
 
FrAGgi schrieb:
Dann greifen schlechte Programmierer jetzt eben auf das erste ChatGPT Schnipsel zurück statt so lange bei StackOverflow zu kopieren bis ein Code dabei war der läuft. 🤷‍♂️
Uff da ist ein gewaltiger Unterschied mmn.
Programmieren funktioniert eh nach dem Konzept, dass man bestehendes niemals neuerfindet. Entsprechend ist Code der von Menschen "validiert" wurde hinsichtlich Funktion immernoch besser da dieser zusammengebaut und verstanden werden muss, als Code der einem fertig in die Hand gedrückt wird und für ein besser Verständnis eh nochmal aufgedröselt werden muss. Aus Erfahrung kann ich sagen, dass letzteres einfach ein solider Albtraum ist. Stichwort Debugging. Und Anpassungen kann man eh bei fertigem Code vergessen der auch nur im Ansatz komplexer ist, sobald Klassen und andere Spielereien dazukommen. Bei komplexeren Sachen haut die KI meistens eh nur Quatsch raus der auf einem soliden Level Gaslit ist. Vorallem ein Sprachmodell :D
 
Bei allem, was du andere für dich machen lässt, lernst du nichts. Ich sagte ja, das ist wie schummeln in der Schule. Die richtigen Antworten auswendig lernen oder irgendwo abschreiben bringt dich auch nicht weiter. Das ist ja auch allgemein bekannt, es gibt da auch zahlreiche Untersuchungen zu. Es gibt auch bereits welche, wonach die praktischen Auswirkungen von "Code-Assistenten" nahezu Null oder gar negativ sind.

Wenn du nur eine Erklärung anfragst, nun, das kommt auf den Einzelfall an und was du dann als nächstes machst. Eine unverifizierte und dann falsche Erklärung bringt dich auch nicht weiter. Wenn du eine richtige Antwort erhälst und das dann selbst anwendest, ja, dann hast du evtl. etwas gelernt.

Da kannst du dich aber nicht drauf verlassen. Sprachmodelle sind inhärent ungeeignet für eine solche Aufgabe, d.h. Erklärungen liefern und selbst Code schreiben. Sie generieren nur Sprache. Korrekte Treffer sind mehr Zufall als alles andere und basieren auf gelernten, womöglich sogar korrekten, Texten, die jemand anderes schonmal geschrieben hat. Die Modelle generieren eine Ausgabe, die das imitiert und wie eine Erklärung für deinen Input aussieht. Den Inhalt versteht das System nicht. Und per Definition kann jemand, der etwas nicht versteht, es nicht selbst anderen erklären.
 
Khorneflakes schrieb:
Bei allem, was du andere für dich machen lässt, lernst du nichts.
Darum ging es nicht.
Khorneflakes schrieb:
Wenn du nur eine Erklärung anfragst (...)
Ich habe ja geschrieben, dass es um eine Erklärung und das Verständnis geht.
Khorneflakes schrieb:
Und per Definition kann jemand, der etwas nicht versteht, es nicht selbst anderen erklären.
Man merkt, dass du viel Wert auf die Theorie legst und dich die praktischen Ergebnisse offensichtlich gar nicht interessieren. Aber nochmal meine Frage: Hast du es mal selbst probiert?
 
FrAGgi schrieb:
Ich habe ja geschrieben, dass es um eine Erklärung und das Verständnis geht.
Sprachmodelle erklären Zusammenhänge ungern logisch, weil sie Sprachmodelle sind. übersetzen und Daten rausfischen sind ganz gut und da hört der Spaß auch auf.

Meine lieblings Konversation war mal, als ich dem Kollegen Chat GPT eine Formel gegeben hab und er gefragt hat ob die Berechnung richtig ist und ich das verneinte und GPT daraufhin falsch weiter gerechnet hat.
Logik gehört nicht zur Stärke, fürs Programmieren eine sehr schwierige Basis.
 
FrAGgi schrieb:
Aber nochmal meine Frage: Hast du es mal selbst probiert?
Ich hab das erste Mal nicht mitbekommen. Nein, ich habe noch nicht versucht mir Code von einem Sprachmodell erklären (oder gar schreiben) zu lassen.

Das liegt daran, dass jeder, der Verständnis dafür hat, wie Sprachmodelle funktionieren, davon meistens dann auch Abstand hält. Oder anders formuliert, ich muss die Person erst noch finden, die es in Ordnung findet zu wissen wie ein Sprachmodell funktioniert und es dann aber ohne Bedenken für einen echten Anwendungsfall verwendet. Sprachmodelle sind am populärsten bei den Leuten die am wenigsten verstehen wie sie funktionieren.

Natürlich habe ich schon mit Sprachmodellen rumgespielt. Das Leben glaubte sogar sich einen Scherz mit mir erlauben zu können, indem es sich ergab, dass ich sogar Infrastruktur betreibe, auf denen dann andere Sprachmodelle laufen lassen. Ich warte noch auf den Moment, an dem die mir was zeigen oder erklären was sie planen und ich nicht entsetzt bin.
 
aivazi schrieb:
und da hört der Spaß auch auf
Dann müssen sich unzählige Menschen wohl eingebildet haben, etwas nach der Erklärung von ChatGPT verstanden zu haben :rolleyes:
Khorneflakes schrieb:
Nein, ich habe noch nicht versucht mir Code von einem Sprachmodell erklären (oder gar schreiben) zu lassen.
Das hättest du gleich zu Beginn erwähne können, dann hätten wir uns beide Zeit gespart ;)
 
  • Gefällt mir
Reaktionen: Schwachkopp
Wenn du der Meinung bist, dass grundsätzliche Probleme dadurch invalidiert werden, dass nicht jeder jedes Detailproblem erst persönlich ergründet hat, dann ist das wohl so ;)
 
Ja, Sprachmodelle sind keine Allzweckwaffe, welche uns die ganze Arbeit abnimmt. Aber wenn wir uns damit beschäftigen, wie wir von ihnen gut lösbare Aufgaben an diese delegieren dann haben wir mehr Zeit und Kapazität für die wirklich schwierigen Probleme.

Im Vorhinein diese abzutun als nutzlos für die Softwareentwicklung, weil ein Sprachmodell mal eine Formel nicht korrekt bearbeitet hat (was vermutlich eher bedingt ist durch den Tokenizer als durch das Modell an sich), ist mMn nicht sinnvoll.

Als Softwareentwickler muss man immer gewillt sein, sich bis zu einem gewissen Grad verändern zu wollen, wenn es neue Technologien gibt, sonst wird man langfristig abgehängt.
 
FrAGgi schrieb:
Dann müssen sich unzählige Menschen wohl eingebildet haben, etwas nach der Erklärung von ChatGPT verstanden zu haben :rolleyes:
Du bist auch richtig gut darin, einzelne Fetzen komplett aus dem Kontext zu reißen.

Komplexe Sachverhalte wird dir ein Sprachmodel nur absolut stümperhaft erklären und kompletten Quatsch zusammenreimen. Außer du gibst dem Ding die Informationen, die notwendig sind um diesen Sachverhalt zu verstehen und selbst dann kommen Fehler bei raus. Der Sinn etwas erklärt zu bekommen, nachdem man es der "KI" erklären muss, ergibt sich mir nicht wirklich :freak:.

Irgendwann taugt das Ding sicherlich. Aber das vorkauen und reinstecken beansprucht am Ende wesentlich mehr Zeit und muss trotzdem hinterfragt werden. Wer blind vertraut und nicht hinterfragt ist an der Stelle komplett verloren bei der Quote an falschem Output.

Edit: Simples Beispiel: Frag Chat GPT, wie in matlab mehrere horizontale Arrays in eine table konvertiert werden können. Das ist der Output:
1742505585239.png


Der gibt dir erstmal die Syntax fürs transponieren falsch raus. Die lautet nämlich:

1742505668097.png

abgesehen davon, würfelt der Kollege mal mit Komma, Punkt und Semikolon rum
 
Zuletzt bearbeitet:
aivazi schrieb:
Komplexe Sachverhalte wird dir ein Sprachmodel nur absolut stümperhaft erklären und kompletten Quatsch zusammenreimen.
Darum ging es bei meinen Kommentaren aber überhaupt gar nicht. 🤷‍♂️
aivazi schrieb:
Der gibt dir erstmal die Syntax fürs transponieren falsch raus.
Syntaxfehler würde man dann als Anfänger ja selbst schnell merken, wenn man den Code kopiert und zum Laufen bekommen wollen würde.

Dass Sprachmodelle nicht fehlerfrei sind, ist bekannt.
Ändert nur nichts an meiner generellen Aussage, dass sie in Summe hilfreich sind, gezielter bei konkreten Problemen mit Code (Verständnis) helfen können und das es schon immer Leute gab, die ohne verstehen zu wollen Code zusammen getackert haben.
 
Zurück
Oben