Donnidonis schrieb:
Ich bin im Moment am ehesten Software Entwickler, [...]
Ja, man muss den Code verstehen und hier und da etwas anpassen, kann sich aber bei Standard Sachen Unmengen Zeit sparen.
wir haben mal vor einigen monaten mit github copilot experimentiert...die ergebnisse waren eher durchwachsen.
auch andere gehversuche waren eher mittelmäßig.
ja, da kommt "einiges raus" und wenn es nach reinem output geht erscheint das evtl. produktiver, nur ist da auch einigens an nonsense rausgekommen dass erstmal ein mensch nachvollziehen musste um festzustellen, dass der code zwar etwas tut was dem anschein nach sinn macht, am ende aber eben auch nicht das tut was man genau braucht.
jedenfalls ist die erkentnis gewesen dass die modelle alle noch wesentlich besser werden müssen, bevor man sie
wirklich produktiv einsetzen kann**.
desweiteren ist es so: je "standardmäßiger" eine anforderung an code ist, also klar formulierbare mathematische berechungen, komplexere vergleiche und regelbasierte auswertungen, desto besser ist das was die ai an code vorschlägt/generiert.
aber je spezieller etwas ist..z.b. das korrekte initialisieren eines bestimmten soc für eine bestimmte konfiguration bzw. aufgabe oder spezifischer code für applikationen die speziell auf einen kunden zugeschnitten sind, desto weniger brauchbar ist das ergebnis.
auch hängt es massiv davon ab in welcher form und tiefe ggf. spezifikationen sind, auf denen die implementierung basieren soll, um sie einer ai zu servieren, bevor daraus irgendwas verwendbares als implementierung herauskommt.
nun kann man sagen dass dann der entwickler seine anfragen nicht genau genug beschrieben hat oder die "code suggestions" nicht gut genug geprüft hat, die anforderung nicht in ausreichend kleine salamischeiben zerteilt hat, die spezifikationen klarer und "maschienengeeigneter" sein müssten - nur ist da auch der casus knacksus: wenn ich dem was die ki so ausspuckt nicht vertrauen kann oder alle nochmals von einem menschen nachprüfen muss, schmälert dass den vorteil massiv.
was bringt mir ein 90% korrekter code, wenn ich die restlichen 10% mühsam manuell herausfischen und fixen muss und auch schwierigkeiten habe den 90% auch zu vertrauen.
denn eines ist auch klar: wenn ich für vermeintlich korrekten code per ki unittests generieren lasse - werden die bestenfalls bestätigen dass der code das tut was die tests abtesten - es sei den ich füge noch jede menge weitere tests manuell ein, in der hoffnung die unzulänglichkeiten so herauzukitzeln...aber spaß macht das nicht.
**dennoch bin ich sicher dass mit der zeit (und schneller als man denkt!) die modelle hier so viel besser werden, dass sich die klassische arbeit eines entwicklers massiv verändern wird...