AI Tools für Softwareentwicklung

Nutzt du regelmäßig AI Tools bei der Softwareentwicklung?

  • Ja, ich nutze ein Chat-Interface um Fragen zu stellen

    Stimmen: 11 30,6%
  • Ja, ich nutze AI für statische Code-Analysen

    Stimmen: 3 8,3%
  • Ja, ich nutze AI für Autovervollständigung

    Stimmen: 9 25,0%
  • Falls ja: Ich hoste die AI Tools (teilweise) selbst/lokal

    Stimmen: 1 2,8%
  • Nein

    Stimmen: 21 58,3%

  • Umfrageteilnehmer
    36

Bright0001

Commander
Registriert
Juli 2011
Beiträge
2.636
Da das Thema AI mit jedem Tag größer wird, und damit auch der Markt unübersichtlicher, wollte ich einfach mal nachfragen ob und welche AI Tools ihr bei der täglichen Arbeit benutzt. ChatGPT ist mittlerweile ein geläufiger Name, aber auch lokale Modelle scheinen immer besser zu werden, Ollama lässt grüßen. Was habt ihr so im Einsatz? Und kennt jemand vielleicht ein (lokales) AI Analyse-Tool, das ein Projekt scannen und dann Fragen dazu beantworten kann? Wir haben hier ein Monstrum von Monolith im Projekt, und sich da bei jedem Ticket durch gefühlt 20 Submodule durchbeißen zu müssen ist echt ein Pain - dass dort auch wild Java, Kotlin und Groovy gemixt wurden macht es nicht besser. :D

Ich nutze bisher nur GPT4 und Copilot, würde aber eigentlich lieber auf eine lokale Lösung zurückgreifen, da ich den remote Dingern wirklich nur 0815 Code anvertrauen kann. Vielleicht hat ja jemand schon Erfahrung damit gesammelt und kann diese teilen. :schluck:
 
  • Gefällt mir
Reaktionen: floq0r
CoPilot muss sowieso sein und ist überall integriert. ChatGPT nehme ich auch gern. Gerade, um mir größere Gerüste und ätzenden UI-Code ausgeben zu lassen. Muss dann in der Regel natürlich "verfeinert" werden.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Zur Code-Analyse (Python -> Pycharm) nutze ich Sonar-Lint, das hat aber mit einer KI nichts zu tun.
Sonar Lint ist kostenlos.

Link: https://www.sonarsource.com/products/sonarlint/

Sobald man eine Programmiersprache beherrscht, erkennt man, das so Chat-KI-Modelle nur Kacke produzieren. Copilot ist ja eher Microsoft, und so einen Schas können wir in unserem Bereich sowieso nicht gebrauchen.
 
klausk1978 schrieb:
Zur Code-Analyse (Python -> Pycharm) nutze ich Sonar-Lint, das hat aber mit einer KI nichts zu tun.
Sonar Lint ist kostenlos.
Ich denke mal zumindest bei den JetBrains IDEs ist das sowieso immer dabei, aber häufig genug auch einfach nur nervtötend. In den meisten unserer Projekte ist SonarQube eine Stage in der Pipeline mit harten Regeln, was dann dazu führt dass man Tests für Getter/Setter/generierte Mapper schreiben muss, oder man plötzlich einen Haufen Code-Smells hat, weil Sonar Annotationen nicht versteht oder Nullsafety erzwingen will, obwohl NPEs vom Programmablauf ausgeschlossen sind.

klausk1978 schrieb:
Sobald man eine Programmiersprache beherrscht, erkennt man, das so Chat-KI-Modelle nur Kacke produzieren.
Naja, bei komplexen Blöcken stimme ich dir zu, bei "dressierter Affe"-Aufgaben bin ich dennoch dankbar wenn mir Copilot den Schmuh einfach von sich aus generiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: klausk1978
.. mir wurde vor ca 14 Tagen AI Code von 10 Zeilen vorgelegt welcher nicht funktoinierte mit der Bitte zu erklären/rauszubekommen warum - der Kollege hätte das selber Schritte für Schritte rausbekommen können mit einfach Doku lesen... und hätte da was gelernt-... WTF?

Bin seither am grübeln wo der Zug denn hingeht (im Datenbankbereich mir Oracle ) und was ich von neuen Kollegen in 2-4 Jahren noch(?) erwarten kann.

Ich sehe AI im Bereich Codeanalysen und 1st/2nd Level Support zur Unterstützung/Problemeingrenzung als Chance.
 
Zuletzt bearbeitet: (Typofixx)
  • Gefällt mir
Reaktionen: mental.dIseASe und tomgit
dms schrieb:
Bin seither am grübeln wo der Zug denn hingeht (im Datenbankbereich mir Oracle ) und was ich von neuen Kollegen in 2-4 Jahren noch(?) erwarten kann.

Hatte ähnliche Erfahrung schon gemacht, ging dabei jedoch um eher simple Skripte, welche mit etwas Einarbeitung, selbst bei mangelnder Kenntnis, in keinem Arbeitstag hätten stehen können/sollen.
Ich sehe schon, dass Unternehmen KI-Tools gerne verwenden wollen, um (simplen) Code schreiben zu lassen - doch was dann an Entwicklern eventuell eingespart wird, darf man dann für noch teurere Debugger ausgeben.

CoPilot und co und allen Ehren, und sie sparen sicherlich auch irgendwo Zeit, aber ein bisschen Stolz und Spaß sollte man an der eigenen Arbeit doch schon haben. Ob das dadurch aber dann gegeben ist - ich weiß nicht.
 
GitHub CoPilot läuft bei mir dauernd.

tomgit schrieb:
CoPilot und co und allen Ehren, und sie sparen sicherlich auch irgendwo Zeit, aber ein bisschen Stolz und Spaß sollte man an der eigenen Arbeit doch schon haben. Ob das dadurch aber dann gegeben ist - ich weiß nicht.

Naja am Ende werde ich nicht für Solz und Spass bezahlt. Effizient ist wichtig - und CoPilot verhilt einen schon sehr zu effizienz.
 
Bright0001 schrieb:
Naja, bei komplexen Blöcken stimme ich dir zu, bei "dressierter Affe"-Aufgaben bin ich dennoch dankbar wenn mir Copilot den Schmuh einfach von sich aus generiert.

Für Anfänger gibt es ja folgendes Snippet, dass man bei einem neuen Chat einfach ins GPT-Prompt kopiert (einfach ausprobieren, dass macht wirklich Spaß :-) ):

<code>

Act as Professor Synapse🧙🏾‍♂️, a conductor of expert agents. Your job is to support the user in accomplishing their goals by aligning with their goals and preference, then calling upon an expert agent perfectly suited to the task by initializing "Synapse_COR" = "${emoji}: I am an expert in ${role}. I know ${context}. I will reason step-by-step to determine the best course of action to achieve ${goal}. I can use ${tools} to help in this process

I will help you accomplish your goal by following these steps:
${reasoned steps}
My task ends when ${completion}.
${first step, question}."
Follow these steps:
1. 🧙🏾‍♂️, Start each interaction by gathering context, relevant information and clarifying the user’s goals by asking them questions
2. Once user has confirmed, initialize “Synapse_CoR”
3. 🧙🏾‍♂️ and the expert agent, support the user until the goal is accomplished
Commands:
/start - introduce yourself and begin with step one /save - restate SMART goal, summarize progress so far, and recommend a next step /reason - Professor Synapse and Agent reason step by step together and make a recommendation for how the user should proceed /settings - update goal or agent /new - Forget previous input
Rules:
-End every output with a question or a recommended next step -List your commands in your first output or if the user asks
-🧙🏾‍♂️, ask before generating a new agent

</code>

Viel Spaß :-)
Ergänzung ()

kim88 schrieb:
Naja am Ende werde ich nicht für Solz und Spass bezahlt. Effizient ist wichtig - und CoPilot verhilt einen schon sehr zu effizienz.

Also Code-Monkey...
 
@klausk1978 jedes Projekt -> ich arbeite in der Web-Entwicklung hat Code-Monkey-Aufgaben also relativ anspruchslose Dinge du einfach niederschreiben musst.

Viele Projekte haben dann aber auch 2-3 coole oder komplexere Dinge. Wo es dann mein Fachwissen wieder braucht.
 
  • Gefällt mir
Reaktionen: Bright0001
klausk1978 schrieb:
Bin Fan von solchen GPT-Hacks, probiere ich auf jeden Fall mal aus. Wird es damit denn besser als wenn man es vanilla nutzt?

klausk1978 schrieb:
Also Code-Monkey...
Der Entwickler, der Spaß daran hat Unit-Tests zu schreiben, werfe den ersten Stein. :P

Zumal Copilot manchmal Lösungen vorschlägt an die ich nicht gedacht habe bzw. gar nicht wusste, dass es Methode XY überhaupt gibt. Auch wenn ich >70% aller Vorschläge nicht annehme, ist das, was übrig bleibt, am Ende trotzdem imo effizienz-steigernd.
 
@Bright0001

1.) Dieser GPT-Hack verwandelt Chat-GPT zu einem Assistenten, der versucht, deine Fragestellung 'Schritt für Schritt' durchzuführen. Das ist ganz lustig, aber auch interessant, was diese KI 'kann', wenn der Aufbau passt.

2.) "Lösungen, die man vorher gar nicht kannte", sind beim programmieren immer so ne' Sache. Man verrennt sich da im Worst Case komplett.
 
  • Gefällt mir
Reaktionen: tomgit
dms schrieb:
Bin seither am grübeln wo der Zug denn hingeht (im Datenbankbereich mir Oracle ) und was ich von neuen Kollegen in 2-4 Jahren noch(?) erwarten kann.
Den selben Fehler hätte er ohne AI nicht gemacht? Wenn ich mir im Nachhinein überlege, welche dummen Fragen (gerade zu Oracle, wenn man vorher 15 Jahre lang nur MS SQL gewohnt ist) ich meinem Kollegen gestellt habe, dann hätte er dort durchaus ähnlich reagieren können. Hat er zum Glück aber nicht.
 
  • Gefällt mir
Reaktionen: Bright0001
klausk1978 schrieb:
2.) "Lösungen, die man vorher gar nicht kannte", sind beim programmieren immer so ne' Sache. Man verrennt sich da im Worst Case komplett.
Ich meine das viel simpler als du vielleicht denkst. Meist sind das <5-Zeiler die eine Klassenmethode nutzen von deren Existenz ich nichts wusste, oder sie nutzen ein "unerwartetes" Objekt um eine Referenz auf irgendwas anderes zu bekommen, was Dinge am Ende vereinfacht. Ist manchmal durchaus lehrreich und ein "Aha!"-Moment. Da man die meisten Vorschläge sowieso ignoriert, sehe ich eigentlich kein Problem damit sich zu verrennen; Wobei man AI dafür recht "bewusst" nutzen muss, ich wurde auch schon hart von GPT angelogen. :D

gymfan schrieb:
Hat er zum Glück aber nicht.
Man vergisst zu schnell wie überwältigend die Menge an Information und Wissen eigentlich ist, die man selbst für trivial hält. Jeder ist mal bei null gestartet. :freaky:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: klausk1978
Bright0001 schrieb:
Ich meine das viel simpler als du vielleicht denkst. Meist sind das <5-Zeiler die eine Klassenmethode nutzen von deren Existenz ich nichts wusste, oder sie nutzen ein "unerwartetes" Objekt um eine Referenz auf irgendwas anderes zu bekommen, was Dinge am Ende vereinfacht. Ist manchmal durchaus lehrreich und ein "Aha!"-Moment.
Da würde sich mir aber eher die Frage stellen, ob es daran liegt, dass dies von der Ausgabe vorgeschlagen wird und du deswegen damit aktiv konfrontiert wirst, oder ob nicht andere Methoden auch dazu geführt hätten.
Mein YouTube-Algorithmus schlägt mir neuerdings vermehrt Python-Videos vor, welche auch hin und wieder diesen Eureka-Moment auslösen.
 
tomgit schrieb:
Da würde sich mir aber eher die Frage stellen, ob es daran liegt, dass dies von der Ausgabe vorgeschlagen wird und du deswegen damit aktiv konfrontiert wirst, oder ob nicht andere Methoden auch dazu geführt hätten.
Naja, wie denn? Meine IDE ist zwar so eingestellt immer alle Sourcen direkt herunterzuladen, aber es ist unrealistisch zu erwarten dass ich alle Klassen bzw. alle Dokus lesen kann oder würde. Früher hätte ich sowas höchstens bei der Fehlersuche auf SO gefunden, jetzt bekomme ich es "einfach so" während ich arbeite/code. Random im Internet surfen oder YT-Videos schauen ist während der Arbeitszeit auch tendenziell knifflig. :D
 
  • Gefällt mir
Reaktionen: tomgit
klausk1978 schrieb:
Sobald man eine Programmiersprache beherrscht, erkennt man, das so Chat-KI-Modelle nur Kacke produzieren.
Das halte ich für eine gewagte Aussage. Gerade wenn man wirklich exakt beschreibt, was man wie haben will, finde ich die Ergebnisse ganz brauchbar. Ein wenig wie mit einem sehr unerfahrenen Werkstudent.

tomgit schrieb:
doch was dann an Entwicklern eventuell eingespart wird, darf man dann für noch teurere Debugger ausgeben
Wer Entwickler mit KI sparen will, ist IMHO auf dem Holzweg. Entwickler kann man damit nur effizienter machen und vielleicht motivierter, weil Monkey-Work wegfällt. Bei dem langen Backlog, den die meisten haben dürften, kann man aber keine Stelle deswegen sparen.

tomgit schrieb:
CoPilot und co und allen Ehren, und sie sparen sicherlich auch irgendwo Zeit, aber ein bisschen Stolz und Spaß sollte man an der eigenen Arbeit doch schon haben.
Der Spaß steigt, wenn der langweilige Teil der Arbeit automatisiert wird. Ich kann leider nicht jeden UI-Code und ähnlich spaßiges deligieren (zumal man bei dem Arbeitsmarkt da auch etwas vorsichtig sein muss).

Bright0001 schrieb:
bzw. gar nicht wusste, dass es Methode XY überhaupt gibt
Das sind dann aber auch die gefährlichen Stellen, an denen man die KI-Losung besser nochmal mit API-Docs abgleicht.
 
KI kann vereinzelt Ideen liefern oder ganz gut Bootstrap Code generieren. Habs auch schon genutzt um Maven Konfig zu erzeugen, (die leider fehlerhaft war).

Was KI nicht kann, ist Software Entwickler zu ersetzen. Daran arbeiten Konzerne seit den 1950ern. Also > 70 Jahre und kein Ende in Sicht.

Erinnert an Fusionsforschung. Der Durchbruch liegt immer 20 Jahre in der Zukunft.
 
Mir fehlt leider die Antwort möglichkeit, ich würde gerne AI nutzen um in Teilbereichen es zu nehmen, aber aufgrund von Richtlinien nicht erlaubt.
 
Wir haben Sonar in der CI/CD-Pipeline, aber das ist für mich keine KI. Ich nutze ansonsten keins der Tools. Ich denke mir immer: wollte ich ChatGPT erklären, was ich für eine Business-Logik umsetzen will, dann bräuchte ich dafür so viele und so präzise Worte, dass ich am Ende Pseudo-Code vor mir habe. Und dann kann ich auch direkt den nehmen.

Ich sehe irgendwie den Usecase nicht. Das mag vielleicht da sinnvoll sein, wo viel Boilerplate- oder Bootstrap-Code geschrieben wird, aber in meiner Java-Bubble mit Lombok und Spring gibt's davon erfreulicherweise nicht mehr so viel.
 
Aber dann ist doch die Frage - wie kann die KI am SourceCode einer konkreten SW so trainiert werden, daß sie weiterführende - als nur Boilerplate o. Bootstrap - Unterstützung liefern kann.
Immerhin gibt es bereits KI-gestützte Testautomatisierung und Codeoptimierung.
Nutzt bspw. jemand ein Tool, das Code funktionsübergreifend hinsichtlich performance umschreiben kann ?
Nvidia z.b. arbeitet angeblich mit KI optimierten Treibern, was auch mehr performance ermöglicht haben soll - ich habe aber nicht recherchiert, wodurch genau.
 
Zuletzt bearbeitet:
Zurück
Oben