Jetzt auch für: iPhone, iPad, Android und Windows
Marken
Themen
Artikel
Videos
Baureihen
Alle Treffer mit anzeigen

Ethik-Diskussion um autonome Autos

Moralisches Dilemma

autonomes Fahren, ams022016, Aktuelles Foto: Rinspeed

Eine Gruppe Kinder rennt auf die Straße, das autonom fahrende Auto kann nicht mehr bremsen, nur noch ausweichen: Links ein Laster, rechts ein Abgrund: Wie entscheidet die Software? Eine Frage, die Ethiker, Techniker und Juristen beschäftigt.

18.10.2016 Andreas Of 1 Kommentar

Das US-Automagazin Car and Driver hat die Diskussion um die Ethik neu befeuert, indem es das Statement eines Mercedes-Ingenieurs veröffentlichte. Christoph von Hugo, Abteilungsleiter für Aktive Sicherheit bei Daimler, sagte laut Car and Driver während des Pariser Autosalons: „Wenn Sie wissen, dass sie nur eine Person schützen können, dann tun sie das. Dann schützen Sie die Person im Auto.“ Daimler stellte daraufhin klar: Weder Programmierern noch automatisierten Systemen steht eine Abwägung über Menschenleben zu.„

Das ist auch der aktuelle Stand in der rechtlichen Diskussion: Das Bundesverfassungsgericht hat vor einigen Jahren entschieden, dass Menschenleben nicht gegeneinander aufgewogen werden dürfen.

Forscher der Universität Toulouse, des Massachusetts Institute of Technology (MIT) und der Universität von Kalifornien haben sich mit der Frage beschäftigt, wie Menschen entscheiden würden und dazu 2.000 Probanden befragt. Dazu wurden den Befragten diverse Dilemma-Situationen vorgelegt und gefragt, wie sie entscheiden würden, wenn ein Auto nur noch in eine Menschenmenge lenken kann, den sicheren Tod der Insassen riskiert oder eine Schwangere auf dem Zebrastreifen überfährt.

Das Ergebnis war eindeutig: Die Mehrheit der Befragten entschied rational und wollte die Zahl der Opfer möglichst klein halten. Das galt auch, wenn die Annahme lautete, dass ein Familienmitglied im Auto sitzt. Kaufen würden ein solch rational entscheidendes Auto jedoch nur 19 Prozent der Befragten.

Wie würden Sie entscheiden? Mit der Moral Machine des MIT können Sie das ausprobieren:

http://moralmachine.mit.edu/

Neuester Kommentar

das sind echt brutale fragen, die jeder hofft nie beantworten zu müssen.
diese "moral machine" ist schrecklich, nicht nur weil diese fragen gestellt werden, sondern vor allem weil alles viel zu vereinfacht und manches nicht ganz verständlich, wenn nicht gar diskriminierend ist.
so als beispiel, in der bewertung wird jemand mit sozial niedrigen status mit einen dieb gleichgestellt, was soll das?
ferner, wer masst sich an den sozialen status vom aussehen her zu erkennen?
wie viele der "managern" oder was auch immer, die dort dargestellt werden, sind sehr viel mehr diebe, als der obdachlose, der sich was zum essen klaut?
wieso dicken und athleten, da fehlen dann rauchern, muslimen, schwulen, schwarzen, gegen alle die nicht blond und blauäugig und perfekt "gesund" und "normal" sind, oder wie?
macht man den "test" ein paar mal durch, kommen komplett unterschiedliche bewertungen daraus, und keine einzige entspricht annähernd wie man sich tatsächlich wahrscheinlich selbst verhalten würde.
..und das wird von universitäten herausgearbeitet???
mannmannmann, vielleicht ist dann die "vollkrass-ey" generation dann nicht sooo schlimm, wenn beim studium sowas rauskommt...
ich hoffe wirklich das die resultate solcher "forschung" nicht relevant für eine tatsächliche abstimmung der autonom fahrende autos werden...

naja... 19. Oktober 2016, 13:59 Uhr
Neues Heft
Empfehlungen aus dem Netzwerk
Whatsapp
Immer auf dem neuesten Stand mit unserem WhatsApp-NewsletterJetzt kostenlos anmelden