Jump to content

Wie sollte man ein selbstfahrendes Fahrzeug programmieren?


duesi

Recommended Posts

Umfrage: Wen würden Sie töten?

 

Es geht um die Frage, was ein Fahrzeug in einer unausweichlichen Situation tun sollte? Eher die Insassen opfern oder eher die Außenstehenden opfern? Wer sollte bevorzugt werden? Ältere oder Kinder?

 

Oder darf man diese Frage überhaupt stellen?

 

bearbeitet von duesi
Link zu diesem Kommentar
Auf anderen Seiten teilen

Das muss man sogar, oder man lässt das mit den selbsfahrenden Autos.

Das Problem ist durchaus ein Grund, warum ich selbst fahren will. In einer Extremsituation reagiere ich wie ich und nicht mein Auto vorprogrammiert.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb mn1217:

Das muss man sogar, oder man lässt das mit den selbsfahrenden Autos.

Das Problem ist durchaus ein Grund, warum ich selbst fahren will. In einer Extremsituation reagiere ich wie ich und nicht mein Auto vorprogrammiert.

Die Ethikkommission hat ja ganz klar gesagt, dass das Fahrzeug diese Fragen nicht stellen darf. Es darf keine Auswahl nach Alter, Geschlecht oder Status vornehmen, sondern MUSS in der genannten Situation eine Entscheidung für den Schutz der Unbeteiligten und gegen den Schutz der Insassen treffen. Ich halte die Entscheidung der Ethikkommission für höchst vernünftig und sinnvoller als den Mehrheitsentscheid. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb Marcellinus:

Hier findet ihr die Antwort: Die 3 Robotergesetze von Isaac Asimov (1942 geschrieben!).

Nach den drei Robotergesetzen dürfte es überhaupt keine selbstfahrenden Autos geben, da potentiell immer eine wissentliche Verletzung von Personen möglich ist. Das halte ich für keine gute ethische Entscheidung, weil durch selbstfahrende Autos zu erwarten ist, dass die Gefährdung im Straßenverkehr insgesamt abnimmt und nicht zunimmt, da Fahrfehler als Gefährdungsursache ausscheiden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb mn1217:

Das muss man sogar, oder man lässt das mit den selbsfahrenden Autos.

Das Problem ist durchaus ein Grund, warum ich selbst fahren will. In einer Extremsituation reagiere ich wie ich und nicht mein Auto vorprogrammiert.

Nun sollen ja selbstfahrende Systeme den Verkehr sicherer machen und Unfälle mit und ohne Personenschaden vermindern, wenn sie das nicht leisten, dann solle man es tatsächlich lassen.

In der Umfrage werden Dilemma-Situationen geschildert bei denen, egal wie man sich entscheidet, unausweichlich jemand drauf geht und man noch Zeit zum überlegen hat. In der Realität kommen solche Situationen so gut wie nicht vor. Fußgänger werden normalerweise nicht überfahren, weil sie alt oder männlich sind und der Fahrer nicht gegen eine Betonwand fahren will, sondern weil die Reaktionszeit gar nicht ausreicht, um überhaupt eine Entscheidung zu treffen. Und sollte es tatsächlich zu einer Situation kommen, in der man zu Abwägungen Zeit hat, dann würde ich mich lieber auf einen gescheiten Computer verlassen, denn der kann die Variante bei der alle überleben können wahrscheinlich besser berechnen und adäquat reagieren.

Voraussetzung dafür ist natürlich ein ausgereiftes System, denn ohne das braucht man ethische Feinheiten desselbigen gar nicht diskutieren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb duesi:

Nach den drei Robotergesetzen dürfte es überhaupt keine selbstfahrenden Autos geben, da potentiell immer eine wissentliche Verletzung von Personen möglich ist. 

 

Eben! Roboter sollten niemals über das Leben von Menschen entscheiden dürfen/müssen! Punkt! Wer selbstfahrende Autos will, muß den Straßenverkehr so einrichten, daß eine solche Situation nicht vorkommen kann. Wenn doch, muß der Roboter sich einfach abschalten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 34 Minuten schrieb boandlkramer:

Nun sollen ja selbstfahrende Systeme den Verkehr sicherer machen und Unfälle mit und ohne Personenschaden vermindern, wenn sie das nicht leisten, dann solle man es tatsächlich lassen.

In der Umfrage werden Dilemma-Situationen geschildert bei denen, egal wie man sich entscheidet, unausweichlich jemand drauf geht und man noch Zeit zum überlegen hat. In der Realität kommen solche Situationen so gut wie nicht vor. Fußgänger werden normalerweise nicht überfahren, weil sie alt oder männlich sind und der Fahrer nicht gegen eine Betonwand fahren will, sondern weil die Reaktionszeit gar nicht ausreicht, um überhaupt eine Entscheidung zu treffen. Und sollte es tatsächlich zu einer Situation kommen, in der man zu Abwägungen Zeit hat, dann würde ich mich lieber auf einen gescheiten Computer verlassen, denn der kann die Variante bei der alle überleben können wahrscheinlich besser berechnen und adäquat reagieren.

Voraussetzung dafür ist natürlich ein ausgereiftes System, denn ohne das braucht man ethische Feinheiten desselbigen gar nicht diskutieren

Es geht eben nicht darum, ob der Mensch Zeit zum Überlegen hat, sondern ob das System bei versagenden Bremsen eine Entscheidung treffen soll. Das System kann solche Entscheidungen in Sekundenbruchteilen treffen, wenn es entsprechend programmiert ist. Die Frage würde sich nicht stellen, wenn die Technik noch nicht so weit wäre. Es wird unglaublich viel in autonomes Fahren investiert und ich bin überzeugt davon, dass wir in den nächsten zehn Jahren die ersten Serienprodukte im Fernverkehr auf den Straßen haben werden, zumindest bei Lkws. Für den Stadtverkehr werden die Systeme noch Zeit brauchen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Marcellinus:

 

Eben! Roboter sollten niemals über das Leben von Menschen entscheiden dürfen/müssen! Punkt! Wer selbstfahrende Autos will, muß den Straßenverkehr so einrichten, daß eine solche Situation nicht vorkommen kann. Wenn doch, muß der Roboter sich einfach abschalten.

Das halte ich zwar für einen besseren Weg als eine Entscheidung nach Alter. Aber wenn ein Abschalten des Systems bei einem vorhergesehenen nicht verhinderbaren Unfall mit Personenschaden die Anzahl der Unfallopfer erhöhen würde, halte ich eine kontrollierte Steuerung für die bessere Variante.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Minuten schrieb duesi:

Das halte ich zwar für einen besseren Weg als eine Entscheidung nach Alter. Aber wenn ein Abschalten des Systems bei einem vorhergesehenen nicht verhinderbaren Unfall mit Personenschaden die Anzahl der Unfallopfer erhöhen würde, halte ich eine kontrollierte Steuerung für die bessere Variante.

 

Denke es einen Augenblick zuende. Denke an einen Assistenzroboter im Haus, der bei einem Einbruch seinen Herrn nur schützen zu können glaubt, indem er den Einbrecher tötet. Hinterher stellt sich heraus, daß es das Nachbarkind mit einer Wasserpistole war. Laßt Maschinen nie über das Leben von Menschen entscheiden! Und lest SF-Romane! :D

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 28 Minuten schrieb duesi:

Es geht eben nicht darum, ob der Mensch Zeit zum Überlegen hat, sondern ob das System bei versagenden Bremsen eine Entscheidung treffen soll. Das System kann solche Entscheidungen in Sekundenbruchteilen treffen, wenn es entsprechend programmiert ist. Die Frage würde sich nicht stellen, wenn die Technik noch nicht so weit wäre. Es wird unglaublich viel in autonomes Fahren investiert und ich bin überzeugt davon, dass wir in den nächsten zehn Jahren die ersten Serienprodukte im Fernverkehr auf den Straßen haben werden, zumindest bei Lkws. Für den Stadtverkehr werden die Systeme noch Zeit brauchen.

Ja, es geht darum, ob selbstfahrende Systeme irgendwann auch über das Abwägen von Menschenleben nach bestimmten ethischen Kriterien entscheiden dürfen sollen.

Mein Post sollte nur darauf hinweisen, dass diese Frage ein sehr selten auftretendes ethisches Dilemma betrifft, weil ich aus mn1217 Beitrag eine grundsätzliche Skepsis bzgl. autonomer Fahrsysteme herauslese, ich diesen aber durchaus positives abgewinnen kann, gerade was die Sicherheit im Verkehr betrifft.

Was die Technik betrifft, arbeitet man wohl eher noch an technischen Fein- und Grobheiten, da stellen sich so diffizile ethische Frage momentan nicht so arg.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 5 Minuten schrieb Marcellinus:

 

Denke es einen Augenblick zuende. Denke an einen Assistenzroboter im Haus, der bei einem Einbruch seinen Herrn nur schützen zu können glaubt, indem er den Einbrecher tötet. Hinterher stellt sich heraus, daß es das Nachbarkind mit einer Wasserpistole war. Laßt Maschinen nie über das Leben von Menschen entscheiden! Und lest SF-Romane! :D

Oh, oh ... dazu braucht es keine SF-Romane, die Realität ist schlimm genug und nein, es war nicht der Roboter und auch nicht der Gärtner.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich bin auch skeptisch. Ich habe garantiert eutlich weniger scifi Romane geelsen als marcellinus, aber genug, um Szenarien für möglich zu halten, die nicht sein müssen.

Und ich habe lieber das Gefühl, mein Auto selbst zu steuern.

Mir sind schon die Auos unheimlich, die selbst einparken.

 

Unfälle vermindern geht vielleicht, aber dafür hat man dann das Problem, das der Fahrer nicht sellbst gefahren ist wenn es doch einen Unfall gibt.

 

bearbeitet von mn1217
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 9 Stunden schrieb mn1217:

Und ich habe lieber das Gefühl, mein Auto selbst zu steuern.

Mir sind schon die Auos unheimlich, die selbst einparken.

 Das ist schön. Mir geht es oft genau andersherum aber aus der Perspektive des Betroffenen. Es gibt genug Autofahrer, die dauerhaft (wegen Alter, Behinderung, psychischer Konstitution) oder temporär (abgelenkt, Schnupfen, Müdigkeit) nicht in der Lage sind, ihr Fahrzeug sicher zu steuern. Dieses "Gefühl, mein Auto selbst zu steuern" ist eben oft nur ein Gefühl bei menschlichen Fahrern. Die Kontrolle über ihr Auto haben sie aber nicht immer und das unabhängig davon, ob der Wagen Baujahr 1986 oder 2018 hat. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ja, klar, aber immer noch besser als gar keine Kontrolle , weil das blöde Ding ferngesteuert respektive -programmiert wird.

 

bearbeitet von mn1217
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 7 Stunden schrieb mn1217:

Ja, klar, aber immer noch besser als gar keine Kontrolle , weil das blöde Ding ferngesteuert respektive -programmiert wird.

Ich werde lieber von einem programmierten autonomen Fahrzeug verschont als von dir überfahren - ist so. Wenn ich tot bin, bringt mir deine Kontrolle wenig.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich überfahre dich nicht, keine Sorge. Und ich werde leiber von einem Menschen nciht überfahrten als von einem selbstfahrendeb Auto überfahren, bei dem nachher keiner weiß, wer zahlt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Eigentlich gibt es auf die Frage eine ganz einfache Antwort : das Auto muss so programmiert werden, dass es en Schaden so minimal wie möglich hält ... einfaches Aufrechnen Leben gegen Leben  ... links 2 mögliche Opfer, rechts 3, ergo fährt es links, aus die Maus. 

 

Oder genauer gesagt, es werden lediglich Wahrscheinlichkeiten betrachtet, was einem Rechner leicht fällt, alle persönlichen Faktoren die "Opfer" betreffend, interessieren nicht. 

 

Ist dann auch versicherungstechnisch keine große Sache mehr. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 5 Stunden schrieb mn1217:

Und ich werde leiber von einem Menschen nciht überfahrten als von einem selbstfahrendeb Auto überfahren, bei dem nachher keiner weiß, wer zahlt.

"Nicht überfahren werden" dürfte bei dem meisten Menschen Priorität haben.

Aber wenn es denn schon sein muß - macht es einen Unterschied, ob man von einem selbstfahrenden Auto überrollt wird, oder ob da jemand hinterm Steuer sitzt?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 4 Minuten schrieb nannyogg57:

Wird dann die KFZ-Haftpflichtversicherung billiger? Und haftet dann die Firma?

Wenn es um Technik geht ist der größte Risikofaktor der Mensch der diese bedient. Wenn wir also mit selbstfahrenden Fahrzeugen diesen Risikofaktor ausschließen können dann brauchen wir keine Versicherung mehr weil Unfälle ja nicht mehr vorkommen können.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Minuten schrieb nannyogg57:

Ich glaube ja ziemlich viel, aber das glaube ich definitiv nicht.

 

Was glaubst du nicht, dass Unfälle nicht mehr vorkommen, oder dass wir keine Versicherung mehr brauchen, oder dass der Mensch der größte Risikofaktor bleibt?

Link zu diesem Kommentar
Auf anderen Seiten teilen

@ Howe:

 

Der Mensch ist zwar der größte Risikofaktor, aber nicht der einzige. Technisches Versagen wird durch autonomes Fahren zu einem größeren Risikofaktor als bisher.

 

@ Nanynogg: 

 

Die derzeitige Rechtsprechung ist leider so, dass der Fahrer eines autonomen Fahrzeugs immer noch als EINZIGER haftet. Ich habe neulich einen Artikel in der ADAC-Zeitschrift dazu gelesen. Und es gibt tatsächlich Rechtsstreitigkeiten, ob die beteiligten Unternehmen die Daten, die den Unfallhergang rekonstruieren können, offen legen müssen. Bisher versuchen sie, dafür zu sorgen, dass die Daten geheim bleiben müssen. Lösung wäre vielleicht so etwas wie eine Block Box, was es ja in Flugzeugen schon gibt. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Weniger Unfälle,  das ist möglich. Aber gar keine? Allein schon deshalb, weil es im Endeffekt Menschen sind, die die Programme schreiben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Neu erstellen...