Hellyeah schrieb:
Zurzeit sehe ich noch nichts "intelligentes" bei ChatGPT und etc. Die Modelle werden trainiert und können anhand dessen wahrscheinlich gute Antworten geben. In etwa wie eine sehr komplizierte Mathematische Formel. Macht man nun aber etwas worauf diese nicht trainiert wurde, kommt nur Müll raus. Die ganze Benennung mit "KI" sehe ich demnach nur als Marketingfloskel.
Das ist eher Wortklauberei um die Definition des Begriffs "KI", da es kein wirkliche Definition von Intelligenz gibt. Würde man an Menschen so harte Bedingungen bezüglich Intelligenz wie an ChatGPT anlegen, wären auch sehr viele Menschen nicht intelligent.
Hellyeah schrieb:
Wir als Gesellschaft müssen nur sicher gehen, dass diese "Macht" nicht in den Händen weniger Unternehmen/Personen bleibt.
In der Tat ist hier die Gefahr, dass eine einzige Firma ChatGPT programmiert/trainiert, und alle anderen sind zu dummen Nutzern ohne Einflussmöglichkeiten degradiert. Erst recht, wenn man jetzt auf die Idee kommt, in Deutschland KI-Entwicklung einzuschränken.
andy_m4 schrieb:
Das Grundproblem bei sogenannter KI ist nach wie vor, das die Aussagen nicht verlässlich sind. Sie können stimmen und tun das auch häufig. Aber sie können auch falsch sein. Man ist also quasi gezwungen jedesmal zu verifizieren, ob die Aussagen stimmen.
Dass man Menschen auch nicht einfach glauben sollte, wird hingegen manchmal vergessen. Als ob das bei KIs jetzt ein neues Problem wäre.
Averomoe schrieb:
Ich hab bei der Arbeit eine kurzen Beitrag gehört über KI im Bereich von Verbraucherprozessen und wie künftig Verbraucher ihre Ansprüche gegen unternehmen ohne Risiko durchsetzen könnten. Heutzutage scheut man sich ja wegen den Kosten oft und das ist eine Form von Ungerechtigkeit, dass Leute mit weniger Geld eher weniger Zugang zum Recht haben. Kündigt braucht man aber keinen Anwalt mehr im normalen Prozess sondern eine KI entwirft Schriftsätze und Anträge und könnte sogar im Prozess live dabei sein und den Verbraucher sagen, was zu tun ist.
Oder auch Verträge entwerfen machen heute schon KIs und Vertragsgestaltung beschränkt sich irgendwann vlt auf Ausnahmesituationen, in denen noch ein Mensch gebraucht wird.
Sehe ich auch so. Überall wo Texte nur auf bestehendem Wissen erstellt werden, kann eine KI gut sein. Und das trifft so gut wie auf alle Texte aus Verwaltung, Recht, Behördenkram zu.
Averomoe schrieb:
Der Mensch vor 20 oder 30 Jahren hat sich also derbe verkalkuliert als er sich für seine Kinder die Zukunft in Mathematik, Kunst, Literatur, Medien, Recht, Programmierung, BWL oder Ingenieurswesen vorgestellt hat.
Sehe ich nicht ganz so. Weil vor allem in Programmierung und Ingenieurswesen sind meistens tiefe Kenntnisse von firmenspezifischen Systemen notwendig. Da bringt z.B. ChatGPT im Moment einfach gar nichts, weil es nichts davon kennt. Wenn es in Zukunft möglich wird, eine KI mit firmenspezifischen Daten zu trainieren, wird das vermutlich etwas anders aussehen.
Bright0001 schrieb:
Ich verstehe dieses häufig gebrachte Argument bis heute nicht: Warum geht man axiomatisch davon aus, dass ein Mensch die richtige bzw. eine gute Entscheidung treffen würde, wenn es ums Sterben geht? Wie sich ein durchschnittlicher Mensch in einer Gefahrensituation verhält ist völlig gewürfelt, während ein Computer zumindest die Zeit (und Ruhe) hat, Möglichkeiten durchzuspielen und Schaden zu minimieren.
Man hat an Computer/KIs/Geräte einfach viel höhere Anforderungen als an Menschen. Wenn ein Mensch einen Unfall baut, dann heißts auch nur "hat halt nicht aufgepasst, ist menschlich" oder "ist ein Idiot". So einfach kommt ein Computer sicher nicht davon. Das Gleiche bei ChatGPT. Wenn es Blödsinn redet, dann ists gleich unnütz. Wenn Menschen Unsinn reden, nimmt man es eben hin, man ist es ja so gewohnt.