Energiewende in Deutschland - Geschwindigkeit - Kosten?

roket schrieb:
Wow, bis 64 kmh und danach dann einen heftigen Rechtsstreit mit der Versicherung des Herstellers. Solange das nicht gesetzlich geregelt ist, ist es nur Vertraggsbestandteil, über die sich Weltweit vortrefflich gestritten wird. Besonders, wenn es um viel Geld geht wie bei Humanschäden verursacht durch ein KFZ.
getexact schrieb:
Am E-Auto wird es kein Vorbeikommen geben. Das ist Fakt.
Korrekt, die Steigung der Weltweiten Verkäufe hat die Steigung überschritten und der Markt wird exponentiell wachsen. Der Anschaffungspreis nähert sich immer weiter an die Verbrenner an (bzw. hat gleichgezogen, wenn man die Ausstattung mit berücksichtigt), der Unterhalt ist günstiger (halber Preis/100km und günstigere Servicetätigkeiten/weniger Verschleißteile). Die Nachteile werden immer weniger Menschen spüren (langsames tanken und geringere Reichweite) und sind bei den meisten Autofahrern nur im Kopf (Urlaubsfahrten müssen auch 2xMal im Jahr mit dem eigenen Wagen möglich bleiben ohne Änderungen oder der Umzug alle 2 Jahre muss damit möglich sein etc. etc.).
 
Samurai76 schrieb:
Wow, bis 64 kmh und danach dann einen heftigen Rechtsstreit mit der Versicherung des Herstellers. Solange das nicht gesetzlich geregelt ist, ist es nur Vertraggsbestandteil, über die sich Weltweit vortrefflich gestritten wird. Besonders, wenn es um viel Geld geht wie bei Humanschäden verursacht durch ein KFZ.
du hast behauptet keinerlei haftung und keinerlei lvevl 3
also was willst du auser rumrudern?
https://www.bussgeldkatalog.org/level-3-autonomes-fahren/
Wer haftet, wenn es mit einem Auto mit hochautomatisierter Fahrfunktion zu einem Unfall kommt?
Ist der Unfall auf ein Versagen des hochautomatisierten Systems zurückzuführen, steht in der Regel der Fahrzeughersteller in der Verantwortung. Andernfalls haftet der Fahrzeugführer. Um die Schuldfrage leichter zu klären, zeichnet das Fahrzeugsystem genau auf, wann das Fahrzeug vom Fahrer gesteuert wird und wann die hochautomatisierte Fahrfunktion aktiviert ist.
 
@roket
Ich denke, er hat eine Kfz-Haftpflichtversicherung, wie gesetzlich vorgeschrieben. :D
Die hat übrigens auch das autonom fahrende Fahrzeug.

Wenn Du an den Eigenschaden denkst, dann bräuchte er eine zusätzliche Kaskoversicherung, die wohl beim E-Wagen im Beispiel bis 64 km/h wegfallen würde. Ist schon ein Argument. Kaufentscheidend?
 
getexact schrieb:
nur aktuell in Deutschland nicht.
Auch wenn die Zulassungen aufgrund der weggefallenen Förderung erwartbar schwächelt steigt der Anteil der bev am Gesamtbestand auch in Deutschland doch weiterhin an, da in der Regel nur Verbenner stillgelegt werden.
Tomislav2007 schrieb:
Ich glaube das die Preise für gebrauchte Verbrenner wegen dem Havanna Effekt sehr weit nach oben gehen werden.
Unwahrscheinlich, einige Unwillige und Liebhaber werden die Verbrenner natürlich auch bei 6-10 Euro Spritkosten weiterfahren bis zum bitteren Ende. Können sie gerne machen. Der Großteil wird sich aber für die modernen, günstigen Alternativen entscheiden. In Havanna werden die Schätzchen auch nicht freiwillig am Leben gehalten, dort gibt es einfach keine Alternativen.
Die Preisschere zwischen dem Verbrenner und dem bev wird immer weiter aufgehen.
 
  • Gefällt mir
Reaktionen: Samurai76
Samurai76 schrieb:
Aber nur bei den durschnittlichen Situationen, also in weniger wie 10% der Zeit. Das wichtige sind jedoch die Reaktionen der SW in nicht Standard Situationen.
Gerade in nicht Standard Situationen sind autonome Fahrzeuge besser als der Mensch. 90% aller Unfälle sind auf den Menschen zurückzuführen und vor allem darauf, dass er in unvorhergesehenen Situationen nicht schnell genug reagiert, überhaupt zu spät merkt, dass etwas nicht stimmt oder zu leichtsinnig fährt.

Der gefährlichste Unfall mit einem autonom fahrenden Fahrzeug war mit Todesfall. Eine Frau wurde beim Überqueren der Straße von einem durch Menschen bedienten Fahrzeug vor das autonom fahrende geschleudert. In den News wird das gerne so verkauft, als hätte das autonom fahrende Fahrzeug den Unfall verursacht, tatsächlich warens aber ... wie so oft ... Menschen.

Samurai76 schrieb:
Ein Glück bist du kein SW Entwickler in dem Bereich oder Freigebender. Die Reaktionen in nicht standard Situationen ist von allen unter aller Kanone und für einen sicheren Straßenverkehr nicht zu gebrauchen.
Aber du beziehst dich gerade nicht wirklich auf Level 2 Resultate um in Bezug auf Level 4 zu argumentieren, richtig?

Und bezüglich Erfahrungen: Ich habe tatsächlich direkte Erfahrung in Bezug auf Level 3+ / Level 4. Genau genommen die Entwicklung die Bosch und Daimler da vorantreiben insbesondere in Bezug auf vollautonomes Fahren in Innenstädten. Ich hatte schon mehrere Projekte in dieser Richtung und durfte auch schon mal selbst "am Nicht - Steuer" sitzen.

Lass es mich so sagen.

Ich habe kein Detailwissen über die Software, Technologie, Ethik oder so, aber ich habe genug Wissen um zu erkennen, dass du nicht weist wovon du sprichst.

Samurai76 schrieb:
Das siehst du so, aber in (soweit mir bekannt) allen Rechsstaaten haftet der Fahrer. 100% und immer. Und genau deswegen gibt es noch keine Freigaben für Lv3 oder höher im allgemeinen Straßenverkehr.
In Level 4 kann der Fahrer nicht haften, ebenso wie man bei den Taxis von Waymo oder BYD nicht haften kann. Wie soll der Fahrer hier haften und wofür?
1718967608122.png


Nicht von Level 2 auf Level 4 schließen.

Die Haftung hört bei Level 3 auf. Bereits bei den aktuellen BMW und Daimler haftest du nicht mehr für Dinge die im Level 3 Modus geschehen. Wenn dein BMW also im Stau ein anderes Fahrzeug rammt und du hattest den Level 3 Modus aktiv dann darf BMW sich mit dem Unfallgegner auseinandersetzen und deren Versicherung an ihn zahlen.

Samurai76 schrieb:
Ach, deswegen gibt es nirgendwo in freier Wildbahn Lv3 Fahrzeuge oder höher zu kaufen oder zuzulassen....
Welch objektiv schlechtes Argument. "Gabs noch nie, wirds nie geben"

Mal davon abgesehen, dass man Level 3 Fahrzeuge bereits kaufen kann. Sowohl BMW als auch Daimler haben Teilzulassungen für Level 3.

VW 2025 den ersten Level 4 Taxidienst.

Samurai76 schrieb:
Eher in 30. Vielleicht.
Nope. Du denkst autonomes Fahren ist auf dem Niveau von VW in den 1990ern ... Dabei hat VW angekündigt nächtes Jahr einen Taxidienst aus vollautonomen ID.Buzz nach Level 4 in Hamburg zu etablieren.

Samurai76 schrieb:
Das ist in den USA auch kein Hexenwerk, da musst du nur Nachweisen, dass bislang nichts passiert ist. In Europa bzw. auf jeden Fall in Deutschland, musst du nachweisen, dass nichts passieren wird. In keiner auch noch so absurden Situation. Man liest immer wieder, Tesla unter LKW Anhänger durchgefahren, autonome Fahrzeuge bleiben einfach am Rand stehen, weil sie in einer SW Sackgasse gelandet sind. Solange das noch passiert, wird das auch noch dauern, bis die auf die Allgemeinhait losgelassen werden.
Und schon wieder nimmst du ein mittelmäßiges(!) Level 2 System (Tesla) und argumentierst als wäre das repräsentativ für Level 4. Wie unfassbar wenig die beiden miteinander zu tun haben muss ich nicht wirklich beschreiben, oder?
 
Thane schrieb:
Autonomes Fahren wird das große Ding werden.
Das seh ich so gar nicht. Wenn die Technik dir moralische und ethische Fragen abnimmt kann sehr schnell viel Blödsinn entstehen.
 
ZeT schrieb:
Wenn die Technik dir moralische und ethische Fragen abnimmt kann sehr schnell viel Blödsinn entstehen.
Ach je.

Das Problem ist doch, dass man jetzt Antworten auf völlig hypothetische Beispiele finden muss.

Was ist besser, bei einem Unfall die Insassen zu töten oder unschuldige Passanten zu töten?

Die Antwort, dass so eine Situation signifikant weniger vorkommen würde als mit Menschen oder das ein PKW auch schnell genug reagieren könnte um eine Variante 3 "alle überleben" zu finden wird ignoriert. Stattdessen wird darauf verwiesen, dass ein Mensch in so einer Aktion nur im Affekt handelt und somit das Ergebnis unterbewusst ist, bei einer KI aber bewusst getroffen wird.

Der Mensch ist also "besser" ... Weil er "zufällig" zig Tode verursacht ...

Bitte was?

Und es ist halt wieder so ne "Idee" irgendwelcher Ethikstudenten aus de 1970ern als die ersten Versuche in Richtung autonome Fortbewegung und vollumfängliche Automation vorgenommen wurden. Seit damals hat sich einiges getan, aber die Leute lieben es irgendwelche alten Kamellen immer wieder neu zu erzählen, weil es so einfach ist und man denkt man wirke klüger.

Es gibt keine 100% richtige Antwort auf Ethik und Moral ... Du hast auch keine, also wieso denkst du du seist besser als ein autonomes Fahrzeug?
 
Damien White schrieb:
Es gibt keine 100% richtige Antwort auf Ethik und Moral ... Du hast auch keine, also wieso denkst du du seist besser als ein autonomes Fahrzeug?
Weil ich einen ethischen und moralischen Kompass habe. Eine Maschine hat das nicht. Sie wird rein rational entscheiden, was in diesem Kontext höchst fragwürdig ist.
 
Damien White schrieb:
ein autonomes Fahrzeug?
Dem autonomen Fahrzeug fehlt leider jede Erfahrung und kennt nur Situationen, die die Programmierer vorgesehen haben. Wird lustig, wenn dann mit 150 kmh auf der Autobahn der Hinweis kommt, bitte übernehmen in 1 sek, die jetzige Situation überfordert die KI.

Und solange die aktuellen KI nicht mal Nachts, bei Regen oder Nebel oder gelben Fahrbahnmarkierungen nicht wissen, was Sache ist, ist KI dafür nicht bereit. Nicht mal ansatzweise, es fehlen (trocken, hell und weniger wie 64kmh) aktuell noch so 75% aller Situationen mit Betrachtung nur der Randbedingungen. Und dann kommen noch die speziellen Bedigungen dazu.

Ich denke, in dem Bezug bist du viel zu optimistisch. Dann würden Flugzeuge auch schon autonom fliegen (denn da kann man richtig Geld sparen!). Da gibt es zwar die dritte Dimension, aber wesentlich weniger dichter Verkehr.

ZeT schrieb:
Sie wird rein rational entscheiden, was in diesem Kontext höchst fragwürdig ist.
Und dann auch nicht nach ethischen oder moralischen Punkten, da diese keine KI versteht, sondern nur nach den programmierten Regeln. Das wird noch richtig schwer für die Softwerker, dass den Behörden zu verkaufen.
 
ZeT schrieb:
Weil ich einen ethischen und moralischen Kompass habe.
Hast du in diesen Extremfällen nicht. Du hast nicht genug Zeit dir darüber Gedanken zu machen. Du reißt das Lenkrad entweder nach links oder rechts oder gar nicht.

ZeT schrieb:
Eine Maschine hat das nicht.
Sie hat so viel, wie ihr trainiert wurde.

Die Frage ist eher, soll der Maschine vorgegeben werden die Insassen zu schützen oder Passanten und wo sind die Grenzen. Das Problem ist die Definition, wer zu schützen ist.

Etwas das du für dich nie definierst, du handelst im Affekt und damit zufällig und frei von Moral oder Ethik.

ZeT schrieb:
Sie wird rein rational entscheiden, was in diesem Kontext höchst fragwürdig ist.
Wieso ist das fragwürdig?

Bitte erläuter mir wo genau das Problem ist, dass rational entschieden wird und nicht "emotional"? (Emotion als Solches ist ein Wespennest das du ganz sicher nicht öffnen willst)

======

Samurai76 schrieb:
Dem autonomen Fahrzeug fehlt leider jede Erfahrung und kennt nur Situationen, die die Programmierer vorgesehen haben.
Oh Gott, du hast ja noch weniger Ahnung.

Nein, Programmierer programmieren nicht jede Situation in ein Fahrzeug ein, ebensowenig wie sie Antworten in ChatGPT oder Züge in AlphaGO vorgegeben haben.

Samurai76 schrieb:
Wird lustig, wenn dann mit 150 kmh auf der Autobahn der Hinweis kommt, bitte übernehmen in 1 sek, die jetzige Situation überfordert die KI.
Da hat jemand auf einem fundamentalen Level nicht verstanden, was Level 3 oder gar Level 4 bedeutet.

Samurai76 schrieb:
Und solange die aktuellen KI nicht mal Nachts, bei Regen oder Nebel oder gelben Fahrbahnmarkierungen nicht wissen, was Sache ist, ist KI dafür nicht bereit. Nicht mal ansatzweise, es fehlen (trocken, hell und weniger wie 64kmh) aktuell noch so 75% aller Situationen mit Betrachtung nur der Randbedingungen. Und dann kommen noch die speziellen Bedigungen dazu.
Da hängt mal wieder einer in der Vergangenheit und verwechselt Level 2 Systemem mit Level 3 und höher und nennt das Ganze auch noch "KI" ... Käsus Christus ...

Samurai76 schrieb:
Ich denke, in dem Bezug bist du viel zu optimistisch. Dann würden Flugzeuge auch schon autonom fliegen (denn da kann man richtig Geld sparen!). Da gibt es zwar die dritte Dimension, aber wesentlich weniger dichter Verkehr.
Die fliegen tatsächlich autonom, Start und Landung ebenfalls.

Da fliegt nur ein Mensch mit weil die Passagiere wohl frei drehen würden wenn da keiner vorne drin sitzt.

Samurai76 schrieb:
Und dann auch nicht nach ethischen oder moralischen Punkten, da diese keine KI versteht, sondern nur nach den programmierten Regeln. Das wird noch richtig schwer für die Softwerker, dass den Behörden zu verkaufen.
Wieso sollte eine "KI" Ethik oder Moral nicht verstehen? Wieso denkst du, dass du hier etwas besonderes bist?

Du hängst auch hier im letzten Jahrhundert und denkst scheinbar tatsächlich, dass da ein haufen "If ... Then ... Else ..." befehle aneinandergereit sind und jemand von Hand den Code geschrieben hat.

Das ist halt ernsthaft nicht mal im Ansatz der Stand der Technologie. Nicht nur für autonomes Fahren, LLM, machine Learning etc. sind da um Größenordnungen weiter darüber hinaus als du es dir im Ansatz vorstellen kannst.
 
  • Gefällt mir
Reaktionen: KitKat::new()
Damien White schrieb:
Hast du in diesen Extremfällen nicht. Du hast nicht genug Zeit dir darüber Gedanken zu machen. Du reißt das Lenkrad entweder nach links oder rechts oder gar nicht.
Doch kann man. Und wer am Lenkrad rum reißt hat im Normalfall eh schon verloren.
 
Damien White schrieb:
Da hat jemand auf einem fundamentalen Level nicht verstanden, was Level 3 oder gar Level 4 bedeutet.
Und du anscheinend auch nicht, oder wie stellst du dir das bei der Behörden Vorstellung zur Freigabe vor?
Behörde: Situation X, wie reagiert dein Auto?
Entwickler: Keine Ahnung, ist nur eine trainierte KI und wir können nicht sagen, was hinten rauskommt. Nur hoffen.

Ja, das wird richtig gut.
 
Damien White schrieb:
Wieso ist das fragwürdig?

Bitte erläuter mir wo genau das Problem ist, dass rational entschieden wird und nicht "emotional"? (Emotion als Solches ist ein Wespennest das du ganz sicher nicht öffnen willst)
Weil eine rationelle Entscheidung für einen persönlich nicht zwangsläufig die richtige ist.
 
Samurai76 schrieb:
Entwickler: Keine Ahnung, ist nur eine trainierte KI und wir können nicht sagen, was hinten rauskommt. Nur hoffen.
Sollte auch simulierbar sein, entweder mit ebenfalls simulierten Sensordaten oder einer Aufnahme aus einer realen Situation.
 
ZeT schrieb:
Doch kann man. Und wer am Lenkrad rum reißt hat im Normalfall eh schon verloren.
Du und deine Antworten.

Der Punkt war, in den Millisekunden wo du im Schock reagieren und blitzschnell eine Entscheidung treffen musst bist du nicht in der Lage auch nur einen durchdachten Gedanken zu fassen.

Du reagierst einfach, völlig egal was dabei heraus kommt, Ethik oder Moral waren daran nicht beteiligt.

======

Samurai76 schrieb:
Und du anscheinend auch nicht, oder wie stellst du dir das bei der Behörden Vorstellung zur Freigabe vor?
Behörde: Situation X, wie reagiert dein Auto?
Deswegen laufen derartige Zulassungen nicht über einen Multiple - Choice Fragebogen o.ä.

Und wie denkst du liefen die Zulassungen für existierende Level 3 Systeme die man kaufen kann oder Level 4 Fahrzeuge die (teilweise auch hier in Deutschland) schon weltweit im Straßenverkehr rumgondeln?

Ist ja nicht so als müsse man hier etwas neues erfinden, es gibt bereits Zulassungsverfahren. Entwickelt von Leuten die deutlich mehr Ahnung vom Thema haben als du, ich und alle Anderen hier zusammen.

Samurai76 schrieb:
Entwickler: Keine Ahnung, ist nur eine trainierte KI und wir können nicht sagen, was hinten rauskommt. Nur hoffen.
Was im Endeffekt die ethisch und moralisch beste Antwort wäre.

Immerhin trifft genau das auf jeden Menschen zu, der die Fahrschule abgeschlossen hat: "Wurde nur trainiert, keine Ahnung wie der sich in bestimmten Situationen verhält."

Samurai76 schrieb:
Ja, das wird richtig gut.
Besser als wenn Menschen am Steuer sind, da derartige Situationen als Solches signifikant weniger auftreten.

Wie schon erwähnt, 90% aller Unfälle sind auf menschliches Versagen zurückzuführen. Der Mensch ist die Hauptursache und muss als solche abgeschafft werden.

======

ZeT schrieb:
Weil eine rationelle Entscheidung für einen persönlich nicht zwangsläufig die richtige ist.
Definiere "die richtige".

Weiter oben schreibst du du hättest ausreichend Zeit zum Entscheiden, aber wieso beanspruchst du für dich, dass du auch nur im Ansatz "die richtige" Entscheidung getroffen hast? Oder eine ethisch und moralisch vertretbare? Was ist der "Wert" von Leben? Was ist ein "Mensch"?

Das Problem ist, dass man das nicht definieren kann und es somit keine richtige Antwort gibt. Alles, was du im Extremfall machst ist Zufall, ergo kann man diese Frage nach exakten Werten und Definitionen ignorieren. Eine KI ist aber schnell genug um eine objektive Enscheidung zu treffen, für sie muss genau dieses Problem beantwortet werden.

Von uns Menschen.

Das Problem ist, dass Menschen nicht wissen wovon sie da reden, wenn sie Ethik, Moral, Werte etc. sagen.

Einfaches Beispiel.

Die Asimovschen Gesetze. Eine KI soll Menschen schützen und so weiter.

Frage an dich: Was ist ein Mensch?
 
  • Gefällt mir
Reaktionen: KitKat::new()
Ich wäre lieber völlig autonom unterwegs als mit den ganzen Idioten auf der Straße. Man muss doch nur hier ins Forum schauen :daumen:

"6 Stunden am Stück zu fahren sind doch kein Problem"
"Mit einem Bier oder Joint kann man ja noch Auto fahren"
usw...
 
  • Gefällt mir
Reaktionen: henpara, Tomislav2007 und knoxxi
Damien White schrieb:
Der Punkt war, in den Millisekunden wo du im Schock reagieren und blitzschnell eine Entscheidung treffen musst bist du nicht in der Lage auch nur einen durchdachten Gedanken zu fassen.

Du reagierst einfach, völlig egal was dabei heraus kommt, Ethik oder Moral waren daran nicht beteiligt.
Hast du ne Ahnung wasd ich alles kann. ;)
Damien White schrieb:
Definiere "die richtige".
Richtig ist das was ich für richtig erachte.
Damien White schrieb:
Weiter oben schreibst du du hättest ausreichend Zeit zum Entscheiden, aber wieso beanspruchst du für dich, dass du auch nur im Ansatz "die richtige" Entscheidung getroffen hast? Oder eine ethisch und moralisch vertretbare? Was ist der "Wert" von Leben? Was ist ein "Mensch"?
Weil das meine Entscheidung ist.
Damien White schrieb:
Die Asimovschen Gesetze. Eine KI soll Menschen schützen und so weiter.

Frage an dich: Was ist ein Mensch?
Ein Mensch wird durch die Wissenschaft als Homo sapiens sapiens definiert.

Viel interessanter ist jedoch die Frage, wenn eine KI Menschen schützen soll.... wie wird das gewertet? Klar, ein Wildschwein wird dran glauben müssen, aber was wenn es um Mensch gegen Mensch geht?

Welches Leben hat hier eine höhere Wertigkeit? Die des Fahrers, oder die des Fußgängers? Spielt hier die Anzahl eine Rolle?

Ein Kind rennt auf die Straße, du sitzt zu zweit im Auto. Pech für das Kind weil 1 vs 2?
 
ZeT schrieb:
Hast du ne Ahnung wasd ich alles kann. ;)
Naja, hierzu gibt es einige Untersuchungen.

ZeT schrieb:
Richtig ist das was ich für richtig erachte.
Und das ist jetzt wieso besser?

ZeT schrieb:
Weil das meine Entscheidung ist.
Und die ist wieso besser?

ZeT schrieb:
Ein Mensch wird durch die Wissenschaft als Homo sapiens sapiens definiert.
Ok, sind alle Homo Sapiens jetzt schützenswert?

Auch die Toten?

ZeT schrieb:
Viel interessanter ist jedoch die Frage, wenn eine KI Menschen schützen soll.... wie wird das gewertet? Klar, ein Wildschwein wird dran glauben müssen, aber was wenn es um Mensch gegen Mensch geht?
Nein, die Frage stirbt bereits bei "Was ist ein Mensch?"

ZeT schrieb:
Welches Leben hat hier eine höhere Wertigkeit? Die des Fahrers, oder die des Fußgängers? Spielt hier die Anzahl eine Rolle?

Ein Kind rennt auf die Straße, du sitzt zu zweit im Auto. Pech für das Kind weil 1 vs 2?
Jetzt kommen wir der Sache schon näher. Was genau ist die richtige Entscheidung und wieso denkst du, dass du die richtige Entscheidung treffen kannst?

Im Alltag kommt heraus, was heraus gekommen ist. Es stellt sich nicht die Frage nach einer übergreifenden Definition von Richtig oder Falsch. Das ist der Luxus der Unfähigkeit des Menschen.
 
Damien White schrieb:
Jetzt kommen wir der Sache schon näher. Was genau ist die richtige Entscheidung und wieso denkst du, dass du die richtige Entscheidung treffen kannst?
Weil ich für mich persönlich entscheide was richtig und was falsch ist.

Wie du ja schon richtig angedeutet hast, ist richtig oder falsch, Moral und Ethik eine rein subjektive Wahrnehmung.

Und das kann dir keine KI abnehmen. Eine KI wird niemals nach den Werten und Maßstäben einer Person handeln können.

Zu zweit im Auto und ein Kind springt auf die Straße - ich würde ausweichen, selbst wenn die Konsequenz mein ableben wäre.

Ich allein im Auto und Putin läuft mit Ill über die Straße.... ich glaub man kann sich denken wie ich entscheiden würde. ^^
 
ZeT schrieb:
Weil ich für mich persönlich entscheide was richtig und was falsch ist.
Hat aber mit Ethik und Moral nichts zu tun.

ZeT schrieb:
Wie du ja schon richtig angedeutet hast, ist richtig oder falsch, Moral und Ethik eine rein subjektive Wahrnehmung.
Es ist vor allem eine Fluchtmöglichkeit um die eigenen Taten zu rechtfertigen.

Überspitzt formuliert: Hitler wollte auch nur das Richtige tun.

ZeT schrieb:
Und das kann dir keine KI abnehmen. Eine KI wird niemals nach den Werten und Maßstäben einer Person handeln können.
Du hast keine Werte und Maßstäbe.

Das scheinst du nicht verstehen zu wollen. Du hast im Nachhinein Fluchtmöglichkeiten um dir etwas passend zurecht zu argumentieren. Aber feste Werte oder Maßstäbe hat keiner.

ZeT schrieb:
Zu zweit im Auto und ein Kind springt auf die Straße - ich würde ausweichen, selbst wenn die Konsequenz mein ableben wäre.
Nöp, das sagst du jetzt, wo du Zeit hast darüber nachzudenken.

Im Ernstfall kann keiner vorhersagen, wie du dich verhalten wirst. Du selbst eingeschlossen.

ZeT schrieb:
Ich allein im Auto und Putin läuft mit Ill über die Straße.... ich glaub man kann sich denken wie ich entscheiden würde. ^^
Nöp, auch da kann keiner vorhersagen, wie du handeln würdest.

Es ist eine fundamentale Eigenschaft von uns Menschen, dass man eben nicht vorhersagen kann, wie wir uns in solch einer Situation verhalten würden. Ansonsten wäre es ja ein ein Leichtes einer KI zu erklären wie sie sich zu verhalten hat, da es ja offensichtlich ein definitives "richtig" gibt.

Im Ernstfall ... Bist "du" nur Zuschauer.
 
Zurück
Oben