News Künstliche Intelligenz: Deutsche sehen Nutzen eher skeptisch

Zotac2012 schrieb:
Weil es eben nicht so einfach ist und die KI alles so klar und schnell berechnen kann.
Sie wird immer besser werden :)
Der Mensch bleibt weiter unaufmerksam, kann auch falsche Entscheidungen treffen oder ist zu unfähig (Drogeneinfluss).
 
psYcho-edgE schrieb:
Was der Deutsche nicht kennt, frisst er nicht.
Ich kenn dich nicht und fress dich nicht, ist das jetzt negativ oder eher beruhigend? :p

@Dr.Crane
Wie gesagt, die Erfahrung hat gezeigt das die Menschheit zu dumm ist um mit solchen Geschichten verantwortungsvoll umzugehen. Siehe Landwirtschaft, Industrie und vor allem die Atomkraft. Die Frage ist weniger ob es zur Katastrophe kommt sondern eher wann.
 
hamju63 schrieb:
Bisher ist alles, was als 'künstliche Intelligenz' verkauft wird, alles andere als intelligent.
This! 100% agree
Wenn ich mir z.B. mal Google Inbox oder den Outlook "Posteingang mit Relevanz" anschaue muss ich eher kotzen als dass ich da positive KI Ansätze machen würde.
Die KI soll von mir aus autonome Tätigkeiten erledigen wie fahren oder Essen zubereiten oder Dinge bauen. Aber nicht entscheiden was mir wichtig ist und was nicht.
 
Zotac2012 schrieb:
Das wird nicht passieren, denn, wenn ich ein Ziel wähle, dann wird man das Ziel auch erreichen, die KI wird abwägen, auf welchem Weg ich dieses Ziel erreiche, vermutlich den schnellsten Weg!
Sicher würde das so nicht passieren. Das Beispiel sollte nur die Angst vor dem Kontrollverlust verdeutlichen, wenn die KI plötzlich glaube es besser zu wissen.

Schwieriger wird es, wenn es einen Zwischenfall gibt, wo die KI entscheiden muss, weiche ich dem Ziel aus und fahre vielleicht in eine Gruppe Menschen am Straßenrand, oder fahre ich auf das Hindernis auf und verursache einen schweren Unfall?

Nach welchen Kriterien wird dann die KI mit ihrem Algorithmus entscheiden, ein Gruppe Passanten von 5 Menschen überfahren oder einen Unfall der unvermeidlich ist auslösen, wo 4 Personen im Auto sitzen? Am Ende hat die KI entschieden nicht auszuweichen, weil das Risiko 5 Menschen in den Tod zu reißen schlechter ist, als 4 Personen in einem Auto. Was die KI nicht wusste war, das im Auto eine Mutter mit drei kleinen Kindern fuhr und die 5 Personen am Straßenrand ein Gruppe Rentner war, wo alle über 70. Jahre alt waren. War dann die Entscheidung der KI richtig?
Da ist eine KI für mich eine weiterentwickeltes Assistentssystem. Und da ist auch immer die Frage nach Moralentscheidungen. Auch ein interessantes Thema. Bei so etwas gehe ich immer davon aus, dass die KI immer Verkehrsgerecht fährt, sich an Geschwindigkeitsbegrenzung hält und sogar Wettereigenschaften berücksichtig. Eine der Punkte wo ich einer KI sogar mehr vertrauen würde wie einem Menschen, weil es da nun Mal eindeutige Regeln gibt, erkennbar durch Schilter.
Also, die KI fählt Ideal, macht keinen Fehler innerhalb der Richtlinien. Das bedeutet, dass der Fehler wohl von der Passantengruppe kommt, welche nicht den Zebrastreifen benützt oder eine Ampel und sogar so über die Straße geht, dass es so knapp ist, dass selbst bei Idealer Voraussetzung kein Bremsen mehr möglich ist.

In dem Fall muss die KI noch erkenne, kann sie ausweichen, oder kommt gerade jemand entgegen. Wenn es nun unvermeidlich wäre, würde ich immer sagen, die KI muss seinen Fahrer und Insassen schützten. Egal vom alter, egal von der Anzahl der Personen. Nur wenn das Auto leer wäre (Autopilot um jemand Abzuholen), müsste die KI das Auto opfern, auch wenn sie bis dahin keinen Fehler machte. Sicherlich hart, wenn das Auto dann fünf Kinder überfährt um nur einen Rentner mit Krebs zu retten. Aber das Auto ist seinem Besitzer verpflichtet.
 
  • Gefällt mir
Reaktionen: Zotac2012
ruthi91 schrieb:
Sie wird immer besser werden :)
Klar werden die immer besser und das es auch viele Bereiche gibt, wo es uns nutzen wird, steht außer Frage. Aber eine gesunde Skepsis sollte man dennoch behalten und auch akzeptieren. Es fällt halt nicht leicht, Eigenverantwortung aus der Hand zu geben und diese durch eine Software und deren Algorithmus entscheiden zu lassen!
 
new Account() schrieb:
Danke für die Ausführung
Wie die Frage, so die Antwort. Bitte gerne.
Ergänzung ()

Hauro schrieb:
Es bleibt nur Regeln, wie die Robotergesetze von Isaac Asimov, zu definieren und zu kontrollieren.

Und da frage ich mich, wie lange eine "echte" KI sich an diese Regeln halten würde. Wenn die KI einen Überlebensinstinkt entwickeln würde, dann würde es mit dem 3. Robotergesetz kollidieren und dann würde die KI erkennen, wenn ein Gesetz gebrochen werden kann, dann können auch die restlichen 2 (bezogen auf Asimovs Robotergesetze) gebrochen werden. Und wenn die KI dann noch sieht, was Menschen sich gegenseitig antun, dann... sind die Szenarien in Terminator oder I Robot quasi wie eine Zukunftsvorhersage zu betrachten. So ein Konflikt Mensch/Maschine wurde meines Erachtens auch gut in der Mass Effekt Trilogie dargestellt.

PS: Es könnte der Eindruck entstehen, dass ich gegen die KI, Roboter usw. bin. Dem ist nicht so.

GGG107 schrieb:
Zum Thema selbst: Tja GLaDOS mehr sag ich dazu nicht.
Naja GLaDOS war ja auch ein Psychopath. Alleine seine Kuchen-Manie:D
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Ich kenn dich nicht und fress dich nicht, ist das jetzt negativ oder eher beruhigend? :p

Die Frage kannst du dir eher selbst stellen, mir wäre es egal was du mit mir anstellst sobald ich gestorben bin :freaky:

Falls ich mal ein Bein verliere und du es dir anders überlegst (bzw. deinem Namen Ehre machen willst), kann ich dir auch ein Stückchen davon abgeben :evillol:
 
Es gibt aber auch positive Beispiele: So sinkt die Zahl der Skeptiker auf 52 Prozent, wenn es um das Thema autonomes Fahren geht.
Wenn die Hälfte "Nein" sagt, dann sehe ich das nicht unbedingt als positives Beispiel.

Zum Thema selbst: Tja GLaDOS mehr sag ich dazu nicht.
 
CCIBS schrieb:
Sicher würde das so nicht passieren. Das Beispiel sollte nur die Angst vor dem Kontrollverlust verdeutlichen, wenn die KI plötzlich glaube es besser zu wissen.


Da ist eine KI für mich eine weiterentwickeltes Assistentssystem. Und da ist auch immer die Frage nach Moralentscheidungen. Auch ein interessantes Thema. Bei so etwas gehe ich immer davon aus, dass die KI immer Verkehrsgerecht fährt, sich an Geschwindigkeitsbegrenzung hält und sogar Wettereigenschaften berücksichtig.
Natürlich war das von mir ein krasses Beispiel, ich wollte damit auch nur verdeutlichen, dass man nicht einfach alle, die dem ganzen Skeptisch gegenüberstehen, als Spinner oder Technikverhinderer bezeichnen kann. Wenn diese KI in unserem täglich Leben Einzug hält [und dass es so kommt, daran habe ich keinen Zweifel!], das es nicht nur Nutzen bringt, sondern auch zu Problemen führen wird, die wir uns heute noch gar nicht vorstellen können und wollen.

Man kann heute auch noch nicht wirklich abschätzen, wohin dieses ganze mit dieser KI führt und wo es überall Anwendung findet. Und da es ja nicht nur Menschen gibt, die immer nur das Beste wollen, besteht halt auch immer die Gefahr, dass solch eine Technik missbraucht wird!
 
  • Gefällt mir
Reaktionen: CCIBS
new Account() schrieb:
Ich habe eine konkrete Frage gestellt, und als Antwort kam nur etwas konkretes?
konkret=nicht konkret? aha
Das war eben keine konkrete Frage. Hättest du gefragt "was macht DIR am Autofahren Spaß", wäre das eine konkrete Frage. Aber deine Frage war pauschal. Frage 1000 Leute, was ihnen am Autofahren Spaß macht und du kriegst 999 verschiedene Antworten.
Deshalb: pauschale Frage = pauschale Antwort.
PS: Für Haarspalterei bin ich heute besonders aufgelegt.
 
Zotac2012 schrieb:
Natürlich war das von mir ein krasses Beispiel, ich wollte damit auch nur verdeutlichen, dass man nicht einfach alle, die dem ganzen Skeptisch gegenüberstehen, als Spinner oder Technikverhinderer bezeichnen kann. Wenn diese KI in unserem täglich Leben Einzug hält [und dass es so kommt, daran habe ich keinen Zweifel!], das es nicht nur Nutzen bringt, sondern auch zu Problemen führen wird, die wir uns heute noch gar nicht vorstellen können und wollen.

Man kann heute auch noch nicht wirklich abschätzen, wohin dieses ganze mit dieser KI führt und wo es überall Anwendung findet. Und da es ja nicht nur Menschen gibt, die immer nur das Beste wollen, besteht halt auch immer die Gefahr, dass solch eine Technik missbraucht wird!
Das sind wir uns ja einig. Wie schon gesagt, bei einem Auto hätte ich weniger Probleme bei der KI, da es dort seit Jahrzehnte eindeutige Regeln gibt, woran sich auch die KI halten muss, weshalb ich sie da sogar befürworte. Wenn ich aber bei der jüngsten Geschichte schaue, gerade was bei Internet und so war. Bei Facebook zum Beispiel, welche Informationen über Personen haben, die gar nicht dort angemeldet sind, befürchte ich, dass auch die KI in die Richtung laufen könnte. Deshalb meine Bedenken, es kommt darauf an, vom wem die KI kommt.
 
  • Gefällt mir
Reaktionen: Zotac2012
Ich habe die Frage einer konkreten Person gestellt, aber egal, dich wollte ich eigentlich eh nicht fragen.
Ergänzung ()

CCIBS schrieb:
woran sich auch die KI halten muss
was, wenn sie das nicht tut?

Ich bin zwar pro autonomes Fahren, aber ne KI will ich da deshalb noch lange nicht haben.
 
XTR³M³ schrieb:
ein programmierfehler und es wird böse enden... KIs lernen schneller als menschen, und inzwischen ist ein szenario wie in terminator nicht mal mehr so unwahrscheinlich, wenn die entwicklung weiterhin so schnell vorran geht... bin dem ganzen nicht abgeneigt, aber man sollte riegel vorschieben. :)

Obwohl die Sorge mMn nicht unbegründet ist sehe ich die Gefahr eher woanders. KI (oder maschinelles Lernen) ist im Moment noch so spezifisch, das selbst winzige Teilprobleme noch verhältnismäßig viel menschliche Einstellung benötigen.

Für mich ist eher das Generieren von echt wirkendem Bild und Tonmaterial und vor allem das Ausnutzen dieser eine Gefahr. Ich habe mich letztes Semester hiermit beschäftigt: https://blog.openai.com/adversarial-example-research/ und mal versucht aktuelle Angriffe und Verteidigungen gegeneinander zu testen. Wenn man bedenkt, dass beim autonomen Fahren auch Bilderkennung verwendet wird, muss man dem Ganzen schon sehr skeptisch gegenüber stehen. Und das ist nur ein Beispiel aus der Bilderkennung. Ähnliches geht in den meisten anderen Bereichen auch.

Dann kann man inzwischen Gesichter von Personen in Videomaterial einfügen, Stimmen nachahmen und anderen Text sprechen lassen... Das sind beim globalen politischen Klima eher Dinge, die ich an AI unheimlich finde.

Der Mensch baut z.Z erst ein neues Tool, das angreift, nachahmt... und kümmert sich dann eventuell im Nachhinein um Erkennung und Verteidigung.
 
Naja, die Automobilindustrie steckt schon seit Jahren Unsummen Geld und Know-how ins autonome Fahren und Akku-Forschung, selbst in anderen Branchen sind viele Firmen bemüht ihre Produkte weiter zu entwickeln oder neue Produkte auf den Markt zu bringen. Es sollen sogar erfolgreiche Startups gesichtet worden sein in Deutschland ;)

Meiner Meinung nach kommt der Eindruck der fehlenden Innovation nur daher, dass wir es nicht an die ganz große Glocke hängen und für jeden neuen Furz als "The next big Thing" hinstellen.
 
new Account() schrieb:
Wie kannst du maschinelles Lernen mit KI gleichsetzen?

Genau darauf wollte ich hinaus, dass die Begriffe in den Medien teils wild vertauscht und gleichgesetzt werden. Autonomes Fahren ist für mich kein KI-Problem, sondern ein ML-Problem.

Die Beispiele aus dem Artikel sind auch aus dem NLP-Bereich, was ja eindeutig "nur" ML ist, und haben mit echter "KI" wenig zu tun.

Bewerber klassifizieren, Arbeiten benoten, Steuerung von Waffensystem, Vorhersage von Aktienkurse... das ist alles noch keine echte KI, wird den Leuten aber als solche vorgestellt.
 
Zuletzt bearbeitet:
new Account() schrieb:
Ergänzung ()

was, wenn sie das nicht tut?

Ich bin zwar pro autonomes Fahren, aber ne KI will ich da deshalb noch lange nicht haben.
Wenn eine KI sich nicht an die Verkehrsregel hält, hat sie da nichts zu suchen und alle Autos mit dieser KI gehören als Fehlerhaft aus dem Verkehr gezogen.
Ein Taxifahrer, der sich plötzlich nicht mehr an Verkehrsregel hält, würde ja sicherlich auch seine Taxi- und Fahrlizens verlieren.
 
Zurück
Oben