cansys
Lt. Junior Grade
- Registriert
- Mai 2018
- Beiträge
- 393
Damit wir uns nicht falsch verstehen:--Q-- schrieb:Keine Ahnung wo du arbeitest, aber so ist das nicht.
In meinem Team arbeiten vier Six-Fig-Engineers an Angeboten von hochkomplexen Bauleistungen (Untertagebau/Tunnelbau). Dort schreibst du massenweise Text, aber immer alles „neu“ entsprechend den herrschenden Randbedingungen und wertungsrelevanten Vorgaben des AG. Du machst massig Datenauswertung, suchst Zeug aus Ausschreibungsunterlagen zusammen, stellst Zusammenhänge her, ermittelst Abhängigkeiten, usw. Hier ein Tool zu haben, was den Inhalt der Ausschreibung kennt und mir auch nur simpelsten sagt, wo zB Vorgaben für einzusetzendes Gerät stehen und was diese Vorgaben sind spart mir tagelange Arbeit.
Für uns wäre/wird sein sowas eine massive Erleichterung und würde die herrschende extreme Personalnot etwas dämpfen.
Dieses ewiggestrige Geschrei von wegen „kostet Arbeitsplätze“ ist dermaßen an der Realität vorbei…
Dass es für das eine oder andere Szenario nützlich sein kann, "KI"-Systeme einzusetzen, dass weiß auch ich. Aus fachlicher Sicht ist es aber durchaus wichtig zu wissen, was der Unterschied zwischen einem klassischen Algorithmus und einem "KI"-System ist. Idealerweise verstehen wir dann ungefähr, was "KI"-Systeme können und was nicht, wofür sie da sind, warum sie aktuell "dumm" sind und, welche Gefahren mitunter von ihnen ausgehen. Beachte hierzu, dass nicht alle Mitmenschen nur Gutes im Schilde führen. Das ist aber eben nur die eine Seite.
Derzeit reden wir bei "ChatGPT" und Konkurrenzlösungen von "schwacher KI". Entscheidend dafür ist, dass ihnen das logische Denkvermögen, die Fähigkeit zu Entscheidungen unter Berücksichtigung von Eventualitäten, die Lernfähigkeit, Planungsfähigkeit oder auch die Wiedergabefähigkeit natürliche Sprache fehlt. Eine "starke KI" müsste all diese und weitere Fähigkeiten kombinieren können, um ein übergeordnetes Ziel zu erreichen. JA, "KI"-Systeme machen gute Fortschritte. Wir sind allerdings noch am Anfang.
Es ergibt also keinen Sinn von "künstlicher Intelligenz" zu sprechen, wenn wir nicht mal wissen, was "Intelligenz" ist. Ist ein System "intelligent", dass wir nicht (mehr) verstehen?
Demzufolge kann man von "autonomen Fahren" genauso wenig die Rede sein, denn die sich dahinter verbergenden Systeme verarbeiten derzeit stark variierende Datenmengen, für die sie aufgrund von Regeln und Wahrscheinlichkeitsberechnungen eine Entscheidung treffen, ohne aber zu wissen, ob diese "richtig" oder "falsch" ist. Woher sollen sie es auch wissen, wenn sie nicht mal die Welt um sich herum verstehen?
Das von @Tamron eingebrachte Beispiel "Konzepterstellung" würde am Ende bedeuten, dass das "KI"-System auf Grundlage von mehr Daten immer wieder andere Ergebnisse ausspuckt, und das wohl bemerkt bei identischer Anfrage. Es folgen notwendigerweise die Verifikation, Korrektur und ggf. Ergänzungen, um ein akzeptables Resultat in der Hand zu haben.
Plakatives Beispiel:
Das System erstellt ein 250-seitiges Konzept, weil es aufgrund der erhaltenen Parameter und dem Zugriff auf größere Datenmengen die Wahrscheinlichkeit berechnet, dass das Ergebnis am ehesten die Anfrage beantwortet. Nach der Verifikation, Korrektur und einzelner Ergänzungen bleiben davon bspw. 70 Seiten übrig.
Eine seriöse Arbeitgeberin würde jetzt berechtigterweise fragen, wofür sie die Fachkraft bezahlen soll. Dafür, dass sie die "geistige Faulheit" über ein "KI"-System zu kompensieren versucht und mehr Arbeitszeit für Verifikation, Korrektur und Ergänzungen verbraucht oder dafür, dass sie das nötige Fachwissen mitbringt und - wie im Arbeitsvertrag vereinbart - die Arbeitsleistungen einbringt? Am Ende stellt die Arbeitgeberin fest, dass die Fachkraft mehr Zeit mit dem Einsatz des "KI"-Systems einschließlich nachfolgender Prozesse verbracht hat. Was nun?
JA, diverse "KI"-Lösungen haben ihre Daseinsberechtigungen, z. B. als Unterstützung zur Krebsfrüherkennung durch Auswertung von Bildern, wo bislang vierlerorts noch menschliche Augen auswerten und eine Diagnose abgeben.
Diverse "KI"-Lösungen kollidieren hier und da mit der theoretischen und praktischen Philosophie. Unser Rechtssystem beantwortet diverse Fragen nicht, weil es vielen von uns am Grundwissen oder der Fähigkeit mangelt, etwaige Zusammenhänge, die mitunter auch komplex sein können, zu verstehen.
Es gibt jedoch Fälle, wo andere Lösungen vermutlich eher geeignet sind, wie beispielsweise die Prozessautomation.
Nur zur Anregung:
Du leistest im Rahmen eines Studiums geistige Arbeit und präsentierst das Wissen, dass evtl. auch Lösungen für das eine oder andere Problem enthält. Ein "KI"-System greift im Auftrag eines Dritten auf das von dir gesammelte Wissen zu, um das Ergebnis kommerziell zu verwerten. Der Dritte verdient mit deiner Arbeit Geld. Und du?