News AI Act: Verbraucherschützer fordern mehr Rechte für Nutzer bei KI-Systemen

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.939
Kommende Woche starten die sogenannten Trilog-Verhandlungen über den AI Act. EU-Kommission, EU-Rat und EU-Parlament wollen sich also auf das finale Gesetz verständigen, das in der EU künftig den Umgang mit KI-Systemen regelt. Verbraucherschützer fordern nun, dass Nutzerrechte eine entscheidende Rolle spielen müssen.

Zur News: AI Act: Verbraucherschützer fordern mehr Rechte für Nutzer bei KI-Systemen
 
  • Gefällt mir
Reaktionen: Michael vdMaas
Man sollte solcher Software nun mal nicht einfach blind vertrauen oder es als besten Freund, Finanzberater oder Psychologen missbrauchen.

Das man ChatGPI beliebig an der Nase herumführen kann, sollte sich doch herumgesprochen haben.
 
  • Gefällt mir
Reaktionen: flo.murr und DON.HEROUR
Ich finde es auch richtig, denn viele Berufe stehen mit dieser Software auf dem Spiel.
Dees Weiteren wie es Axxid schon schreibt, einer KI blind vertrauen: Nein Danke.
Der gesunde Menschenverstand ist durch nichts zu ersetzen, aber anscheint scheinen das viele, wie auch die Industrie, nicht zu verstehen.
 
  • Gefällt mir
Reaktionen: flo.murr, Qyxes und Olli1977
Gordon-1979 schrieb:
…wie auch die Industrie, nicht zu verstehen.
Na klar, schließlich sieht man ja schon die Dollar Zeichen am Horizont.
Einfachstes Beispiel First Level Support. Die ganzen Hotlines bei TKom Anbietern und co.

Glaubt jemand das wir in ein paar Jahren noch irgendwo eine echte Person am Telefon oder Chat haben werden?
Ich nicht ….
Wieviel Personal man da wieder einsparen kann…
Dazu beim Anrufenden immer eine Beratung und Angebote im Sinne des Anbieters. Kein menschlicher Sympathie Faktor mehr.

Meinen derzeitigen Mobiltarif hätte ich so garantiert nicht. Damals Glück gehabt mich mit der Mitarbeiterin gut verstanden zu haben.
 
-THOR- schrieb:
Glaubt jemand das wir in ein paar Jahren noch irgendwo eine echte Person am Telefon oder Chat haben werden?
Ich nicht
Support am Telefon wird nach und nach durch KI ersetzt werden. Das steht außer Frage. Aber es wird noch dauern.

Es gibt Systeme, die transkribieren bereits Gespräche. Das ist allerdings qualitätsmäßig noch so unterirdisch, dass noch eine Weile lang Wasser den Rhein runterfließen wird. Sobald aber die Spracheingabe gut genug wird, werden GPT und vergleichbare Systeme alles im Telefon-, Chat- und e-Mail-Support übernehmen.

Dann gibt es in Dtl. nur noch zwei, drei Anbieter derartiger Serviceleistungen, die in ihrem Rechenzentrum so-und-so-viele Anrufe gleichzeitig verarbeiten können. Die Initialinvestition wird aber heftig. KI braucht leistungsstarke Systeme. Ne 4090 pro aktiven Kunden kann hier eventuell das Minimum sein.
 
Politiker wollen immer alles regulieren. Aber erklären nie, wie genau das überhaupt überprüft werden soll. Oder wer das tut.
Gab ja schonmal nen Politiker, der gefordert hat, dass ChatGPT die "Geheimformel" preisgeben muss, damit man gucken kann wie das funktioniert. Als ob dieser Politiker damit was anfangen könnte. Selbst die KI-Ersteller haben oft ja gar keinen Überblick mehr, warum die KI bestimmte Dinge tut, so komplex ist das mittlerweile. :rolleyes:
 
  • Gefällt mir
Reaktionen: DON.HEROUR
Beim Thema KI wird immer so viel Schwarzmalerei betrieben.

Zum Thema Hotline: wer hatte noch nie das Problem, einen genervten Mitarbeiter am Telefon zu haben? Jemanden, dem man angemerkt hat, dass er oder sie keine Ahnung und/oder Lust hatte?
Klar, Empathie im menschlichen Sinne können solche Systeme wie GPT nur vortäuschen, aber neben den positiven menschlichen Faktoren wie echte Empathie, die so ein System nur vortäuschen kann, ist das System gegenüber negativen Emotionen & Inkompetenz besser gefeit als die Menschen am anderen Ende der Leitung
 
  • Gefällt mir
Reaktionen: Gabber
Es scheint, als ob in den USA (die die A.I. Entwicklung maßgeblich antreiben) man erst einmal A.I. ausbaut und evt. später nachregelt (im Gegensatz zur EU die sich vorher schon mehr den Kopf darüber zerbricht, bevor man loslegt), etwa wenn man das folgende Interview mit Lisa Su sich anschaut (welches ohnhin interessant ist, das Verhältnis von AMD zur Konkurrenz, den Fertigern, usw.):

 
Zuletzt bearbeitet:
Compatiblewith schrieb:
wer hatte noch nie das Problem, einen genervten Mitarbeiter am Telefon zu haben? Jemanden, dem man angemerkt hat, dass er oder sie keine Ahnung und/oder Lust hatte?
Ich habe in der Branche mal gearbeitet. Die meisten Support-Mitarbeiter haben einen Fragebogen, den sie abarbeiten müssen. Der deckt 99% der Probleme auf und schreibt dann auch vor, welche Lösungen anzuwenden sind. Das sind immer dieselbe Fragen zu denselben Problemen, 40 oder 80 mal am Tag, an jedem Werktag. Mich wundert nicht, dass die Leute da ein wenig, sagen wir mal, lustlos erscheinen.

Von der Art und Weise her ist diese Aufgabe für eine KI prima geeignet weil extrem repetitiv.
Das meinst du sicher auch.

KIs wie GPT können sehr viele repetitive Aufgaben übernehmen. Die Revolution steht uns eigentlich noch bevor. Man bekommt 1000 Mails am Tag? Lass GPT nach wichtigen schauen und eine Zusammenfassung vorbereiten, weniger wichtige automatisch beantworten und unwichtige archivieren. Man muss Protokoll führen? Füttere die KI mit einer Aufzeichung des Vorgangs und lasse es eines erstellen.
Am Ende dieses Prozesses werden Menschen nicht so viel zu tun haben. Kreativität wäre etwas, das wir der KI dann noch voraus haben.
 
Gordon-1979 schrieb:
Ich finde es auch richtig, denn viele Berufe stehen mit dieser Software auf dem Spiel.
Richtig?
Es ist das gleiche wie bei der Erfindung der Dampfmaschine, Autos, Strom, Computer, Internet, ... Oder fährst du mit der Kutsche, welche auch deine Post schickt? Schreibst du deine Briefe von Hand?
Nein, machst du nicht.
Wenn dein Beruf durch KI ersetzt werden kann, wird das passieren. Und das ist auch gut so.

Ich hoffe Europa wird hier nicht wieder zum Schlusslicht nach den USA und China (!).
 
  • Gefällt mir
Reaktionen: Mickey Cohen und alex22
Compatiblewith schrieb:
Zum Thema Hotline: wer hatte noch nie das Problem, einen genervten Mitarbeiter am Telefon zu haben? Jemanden, dem man angemerkt hat, dass er oder sie keine Ahnung und/oder Lust hatte?
Ich… ABER
Klar, es gibt entsprechende Fälle. Aber ich möchte dennoch hervorheben, dass es durchaus positive Fälle gibt. Meiner Schwester wurde mal der EBay-Account gehackt, ich hatte als „Kundiger der Materie“ das Vergnügen, mit diversen Hotlines zu telefonieren.
Die Mitarbeiterin von Paypal hat einen bleibenden Eindruck hinterlassen. Es gibt immer noch einen Unterschied zwischen KI und Menschen.
Eine geskriptete KI hätte das niemals leisten können, was die Dame losgetreten hat.
 
  • Gefällt mir
Reaktionen: DON.HEROUR
Ich finde es wäre ziemlich einfach K.I.-Systeme zu regulieren, sie sollte einfach nur von ausgebildetem Fachpersonal für spezifische Zwecke eingesetzt werden dürfen. Desweiteren sollte die DSGVO so angepasst werden, dass man im besonderen bei K.I. gestützten System die Datenminimierung an Bedeutung als Verpflichtung hervor heben sollte, kein System sollte mit allen möglichverfügbaren Informationen Kontakt haben bzw. eine K.I. In einer Regulierungsbehörde brauch keine Datensätze zum Thema Nuklearmedizin oder über Körpermerkmale von Promis, als auch alle literarischen Werke von Shakespeare oder Precht haben.

Auch mach ich mir keine Sorgen darum, dass diese von Schülern für gute Noten "missbraucht" werden. Damit man nämlich individuell Ergebnis präsentieren will, müsste man so viele Parameter im Prompt formulieren, für ein Individuelles Ergebnis, dass die Schüler lieber selbst Tippen werden.

Kurz und knapp, mit K.I. ist die Layer8-Problematik noch einige Stufen paradoxer.
 
Lasst doch mal eine KI bei einer Hotline einen Testanruf starten, wo an der anderen Seite der Leitung ebenfalls eine KI sitzt. Wäre mal interessant zu sehen wo das hinführt.
 
  • Gefällt mir
Reaktionen: Qyxes, JustAnotherTux und Michael vdMaas
Gabber schrieb:
Wenn dein Beruf durch KI ersetzt werden kann, wird das passieren. Und das ist auch gut so.
Interessant wird es wenn die KI und Robotik irgendwann so gut werden, das praktisch 99% aller Berufe nicht mehr von Menschen ausgeführt werden.
Ich denke das es dann entweder zu einem Utopia für die Menschen kommt oder zu einem Albtraum je nach dem wer die Maschinen kontrolliert.
 
  • Gefällt mir
Reaktionen: Gordon-1979 und DON.HEROUR
Das wird sicherlich noch hunderte Jahre dauern. Robotik ist seit vielen Jahrzehnten ein Hauptgebiet der Forschung und aktuell sind alle am jubeln, wenn ein Roboter laufen kann ohne direkt umzufallen... Und was das Erkennen und Einschätzen von Umgebung macht sieht man ja an autonomen Autos sehr gut. Das sind einfach unfassbar viele Daten, die aufgenommen und korrekt verarbeitet werden müssen. Etwas, das der Mensch "mal eben" so kann.
 
Gordon-1979 schrieb:
Der gesunde Menschenverstand ist durch nichts zu ersetzen, aber anscheint scheinen das viele, wie auch die Industrie, nicht zu verstehen.
Schon mal mit anderen Menschen zu tun gehabt? Da vertraue ich 100 mal lieber einer KI als dem gesunden Menschenverstand. Die KI weiß zumindest selbst, dass sie ab und zu nicht richtig liegt... Außerdem ist sie pünktlich, wird nicht krank, kann nicht kündigen und streikt nicht.

Und wenn wir das in der EU einschränken, dann wird halt nach Usbekistan outgesourced und wir haben nicht mal die Chance am Ökosystem der KI zu verdienen.
Ergänzung ()

Turrican101 schrieb:
Das wird sicherlich noch hunderte Jahre dauern. Robotik ist seit vielen Jahrzehnten ein Hauptgebiet der Forschung und aktuell sind alle am jubeln, wenn ein Roboter laufen kann ohne direkt umzufallen...


Ja, wird bestimmt noch Jahrhunderte dauern.
 
Zuletzt bearbeitet:
Ja das sieht toll aus, diese Tests sind aber oft vordefiniert. Der Roboter weiß also genau was er wann tun muss. Da gehts darum zu zeigen, dass er diese Dinge ohne Fehler tun kann.

Wenn da aber etwas auf einmal während des Tests etwas verändert wird, dann gibts direkt Probleme. Das sind halt alles noch Fachidioten ohne kompletten Bezug zur Umgebung. Der würde auch nicht erkennen ob das ein echtes Brett ist oder eins aus Gummi, das sich dann durchbiegt und man ganz anders damit umgehen muss.
 
Ich bin auch für klare Regeln, aber beachtet: open AI, Google und Co werden einen Bogen um die EU machen, wenn die Regeln zu hart sind. Dann läuft diese "neue Industrie" komplett an uns vorbei und die Rechenleistung für eigene Sprachmodelle haben wir in Europa schlicht nicht.
 
Turrican101 schrieb:
Das wird sicherlich noch hunderte Jahre dauern. Robotik ist seit vielen Jahrzehnten ein Hauptgebiet der Forschung und aktuell sind alle am jubeln, wenn ein Roboter laufen kann ohne direkt umzufallen... Und was das Erkennen und Einschätzen von Umgebung macht sieht man ja an autonomen Autos sehr gut.
Vor 30 Jahren waren künstliche neuronale Netze staubige Theorie oder Experimente mit wenigen Neuronen, die ausschließliche einfachste Dinge berechnen konnten.

Vor 20 Jahren war man aus dem Häuschen, wenn KIs mit hoher Genauigkeit die Ziffern 0-9 (ausschließlich in Schwarz auf Weiß und ohne Hintergrund, in einer Auflösung von 28x28 Pixeln) klassifizieren konnten.

Vor 10 Jahren war die neuste Forschung, dass man mit Hilfe von Pre- & Post-Processing (für heutige Vergleiche sehr einfache Objekte, nichts komplexes wie etwa bei autonomem Fahren und auch nur in fest definierten Datensätzen und nicht beliebig in der Realität) Objekte in komplexen Bildern, also Farbbilder mit realen Hintergründen usw., detektieren konnte.

Vor 5 Jahren kamen die ersten großen Transformer, die Dinge wie ChatGPT betreiben.

Deine Schätzung mit "hunderten von Jahren" ist nicht haltbar, das wird deutlich schneller gehen.

Gordon-1979 schrieb:
Ich finde es auch richtig, denn viele Berufe stehen mit dieser Software auf dem Spiel.
Berufe, die es nur gibt, weil man sie künstlich per Verbot von Alternativlösungen am Leben erhält, sind es nicht wert weiter zu existieren und solche Lösungen sind wirtschaftlich gesehen langfristig auch sicher nicht durchhaltbar.

Gordon-1979 schrieb:
Dees Weiteren wie es @Axxid schon schreibt, einer KI blind vertrauen: Nein Danke.
Das kommt stark auf die Situation an. Anstatt deines lokalen Onkologen wärst du z.B. deutlich besser/sicherer mit einer KI beraten, die auf CT Scans detektiert, ob und wo du Krebs hast.

-THOR- schrieb:
Glaubt jemand das wir in ein paar Jahren noch irgendwo eine echte Person am Telefon oder Chat haben werden?
Ich nicht ….
Wieviel Personal man da wieder einsparen kann…
Wenn man das anderweitig effizienter lösen kann, sehe ich nicht was dagegen spricht. Für Spezialfälle, wo man direkten Kontakt mit meinem anderen Menschen haben möchte, kann man ja durchaus den menschlichen Arbeiter erhalten.

Crassus88 schrieb:
Ich finde es wäre ziemlich einfach K.I.-Systeme zu regulieren, sie sollte einfach nur von ausgebildetem Fachpersonal für spezifische Zwecke eingesetzt werden dürfen.
So wie Autos auch noch von Ingenieuren oder KfZ-Mechatronikern gefahren werden?
Oder Computer, die nur von IT-Spezialisten bedient werden?
...

Das ist absoluter Quark und würde uns auch nur bei einer der wichtigsten Technologien des 21. Jahrhunderts in die Bedeutungslosigkeit katapultieren.

Crassus88 schrieb:
Desweiteren sollte die DSGVO so angepasst werden, dass man im besonderen bei K.I. gestützten System die Datenminimierung an Bedeutung als Verpflichtung hervor heben sollte
Auch absolut unsinnig. Z.B. bei medizinischen Daten muss man zwar das Individuum schützen, aber abgesehen davon gibt es ein riesiges Interesse, solche Daten so breitflächig wie nur irgend möglich verfügbar zu machen. Daran hängen Leben und Innovation.


Cameron schrieb:
und die Rechenleistung für eigene Sprachmodelle haben wir in Europa schlicht nicht.
Warum nicht? Viele der großen Supercomputer lassen Atombomben-, Klima-, ...-Simulationen laufen.

LLMs beispielsweise in der Größenordnung von GPT-4 kann man auf einer 4 bis 5 stelligen GPU-Anzahl in Wochen bis Monaten trainieren. Über solche Ressourcen verfügen wir auch in Europa. In absoluter Zahl in der Tat weniger als in den USA oder Asien, aber unmöglich ist das für uns absolut nicht.
 
ascer schrieb:
Warum nicht? Viele der großen Supercomputer lassen Atombomben-, Klima-, ...-Simulationen laufen.

LLMs beispielsweise in der Größenordnung von GPT-4 kann man auf einer 4 bis 5 stelligen GPU-Anzahl in Wochen bis Monaten trainieren. Über solche Ressourcen verfügen wir auch in Europa. In absoluter Zahl in der Tat weniger als in den USA oder Asien, aber unmöglich ist das für uns absolut nicht.
Dazu kommt, das bereits trainierte Modelle wesentlich weniger Rechenleistung in der Anwendung benötigen.
 
  • Gefällt mir
Reaktionen: ascer
Zurück
Oben