Mittwoch, 10. Januar 2018

Arbeitskreis Requirements Engineering und Lehre

Der Arbeitskreis existiert seit Anfang 2013. Unser Ziel ist ein Austausch zwischen
RE-Lehrenden aus Hochschule und Praxis, aber auch die Erarbeitung konkreter
Ergebnisse wie RE-Übungen, Trainingsmaterial, Fachartikel.
Was wir genau machen, bestimmen die Mitglieder!
Der Arbeitskreis war zuletzt ein wenig eingeschlafen und wir möchten ihn
nun wiederbeleben. Dies ist also ein guter Zeitpunkt für Neueinsteiger.
Bisher hatten wir alle zwei Monate per Skype telefoniert, diskutiert und
gemeinsame Projekte geplant. Wir haben insbesondere Best Practices
veröffentlicht, auf Konferenzen vorgetragen und Workshops organisiert.
Nähere Informationen finden Sie auf der Arbeitskreis-Webseite:
https://rg-stuttgart.gi.de/arbeitskreise/ak-requirements-engineering-und-lehre.html

Wenn Sie Interesse haben, beim Arbeitskreis mitzumachen, melden
Sie sich kurzfristig bei mir. Wir wollen demnächst den Termin der nächsten
Arbeitskreis-Telko erdoodeln.

Maschinenethik: Soll ein Auto einen Menschen töten?

Das Thema Maschinenethik hat mich in letzter Zeit sehr beschäftigt. Je mehr Maschinen und Computer autonom Entscheidungen treffen, umso relevanter wird dieses Thema ganz praktisch. Jetzt ist noch Zeit, um Entwicklungen aufzuhalten, die sich vielleicht nicht mehr rückgängig machen lassen.

Leider liest man in der Informatik zu diesem Thema immer wieder nur dieselbe, eine, und eigentlich irrelevante Frage: Soll ein selbstfahrendes Auto lieber ein Kind oder seine Großmutter totfahren, lieber einen Passanten töten oder seinen Passagier?

Diese Frage geht aus mehreren Gründen am eigentlichen Thema vorbei, kann aber gut als Aufhänger dienen, um die wirklich wichtigen Fragen zu diskutieren:

1.) Das richtige oder falsche Verhalten diskutiert die Menschheit ja nicht erst, seitdem es Software zu programmieren gilt. Gesetze regeln das Verhalten im Straßenverkehr und können durch die Art von Ratschlägen ergänzt werden, die Fahrlehrer ihren Schülern mit auf den Weg geben. Auch die Führerscheinprüfung codifiziert das korrekte Fahren. Eine künstliche Intelligenz, die dazu fähig ist, eine Führerscheinprüfung zu bestehen, hat zumindest den Theorieteil des Wissens verinnerlicht. Dort steht übrigens nichts davon, dass Kinder oder Großmütter tot gefahren werden sollen. Antworten, in denen steht "über den Haufen fahren" sind falsch. Das praktische Verhalten im Straßenverkehr könnte das autonome Fahrzeug von einem erfahrenen Fahrer erlernen, also abschauen. Neuronale Netze sind dazu in der Lage. Das einzige Lebewesen, das man laut unserem Fahrlehrer tot fahren darf und in manchen Situationen auch muss, sind Kleintiere, die nicht bis zur Stoßstange reichen, und auch nur dann, wenn ein Bremsen nicht möglich ist und schlimmeren Schaden anrichten würde. Beispielsweise macht es wenig Sinn, auf der Landstraße frontal in einen Laster zu rasen, nur um einer Maus das Leben zu retten. Da frei herumlaufende Menschen üblicherweise die Stoßstange überragen, sind sie bisher nicht zum Abschuss freigegeben. Warum sollte sich das mit der Einführung des selbstfahrenden Autos ändern?

2.) Vorausschauendes Fahren hat Priorität. Es kommt ohnehin nur sehr selten vor, dass ein Autofahrer vor der Entscheidung steht, den einen oder den anderen Menschen anzufahren. Ein selbstfahrendes Auto sollte solche Situationen vermeiden können. Dazu tragen bei: eine an die Sichtweite angepasste Geschwindigkeit und das frühzeitige Erkennen von Hindernissen und Risiken, beispielsweise spielender Kinder am Straßenrand. Jeder verantwortungsbewusste Autofahrer reduziert dann die Geschwindigkeit, und das erwarte ich auch vom selbstfahrenden Auto. Die schärferen und aufmerksameren Sinne der Sensoren vermeiden die häufigsten Unfallursachen, nämlich Unaufmerksamkeit und unangepasste Geschwindigkeit. Dies ist eine Chance. Das autonome Auto kommt also noch viel seltener in solch eine Entscheidungssituation als menschliche Fahrer.

3.) Die Fragestellung, ob man lieber den einen oder den anderen Menschen töten soll, setzt bereits ein bestimmtes Ethiksystem voraus, nämlich den Utilitarismus. Der Utilitarismus wägt Kosten und Nutzen gegeneinander ab, versucht Nutzen zu maximieren und Schäden zu minimieren, und muss zu diesem Zweck, analog wie eine Versicherung, allem seinen Preis zuweisen. Nur der Utilitarismus kommt auf die Idee, Menschenleben überhaupt gegeneinander abzuwägen. Im Utilitarismus macht es sogar Sinn, einen Menschen zu opfern, um eine teure Maschine zu retten. Andere Ethiksysteme sagen ganz klar: "Du sollst nicht töten." Dieser Unterschied im zugrundegelegten Ethiksystem wirkt sich natürlich auf die Programmierung aus! (Darum hatte ich auch mal die Idee, dass künstliche Intelligenz eine Art Ethikzertifikat bekommen sollte, oder in verschiedenen Ethikkonfigurationen ausgeliefert werden könnte - utilitaristisch, christlich oder nach Kant...). Natürlich kann auch eine strenge Ethikvorgabe nicht verhindern, dass plötzlich Menschen aus einem Busch direkt vor die Stoßstange eines 70 km/h schnellen Autos springen. Fahrer oder Maschine können dann das Bremsen noch so sehr wollen, aber die physikalische Massenträgheit wird das Fahrzeug trotz Vollbremsung in eine Kollision hinein schliddern lassen. Aus versicherungstechnischer Sicht (auch ein Ethiksystem!) trägt hier aber der überfahrene Fußgänger ganz klar eine große Mitverantwortung.

4.) Fehler sind menschlich. Tatsächlich verzeiht man einem menschlichen Fahrer. Wer noch nie unachtsam war, werfe den ersten Stein. Aber wir würden uns schwer tun damit, einem Programmierer zu verzeihen, dass er eine Maschine darauf programmiert hat, unseren Freund zu töten. Die fehlerfreie Programmierung komplexer Software ist mindestens so schwierig wie das fehlerfreie Autofahren und nur theoretisch möglich. Setzt man statt auf vorprogrammierte Regeln auf das Selbstlernen des autonomen Systems, dann verschiebt man die Verantwortung vom Programmierer auf den Trainer. Leider neigen selbstlernende Systeme dazu, auch Fehler des Trainers zu imitieren.

5.) Denken und Fühlen ist menschlich. Selbst wenn künstliche Intelligenz immer mehr Fähigkeiten des Menschen imitieren kann und eines Tages den Turing-Test bestehen würde, dann ändert dies nichts daran, dass die künstliche Intelligenz keine menschliche ist, sondern eben nur eine Imitation. Trotz ihrer Vorteile wie Geschwindigkeit, Objektivität und unglaublichem Gedächtnis, haben die Computer auch Nachteile. Gerade bezüglich ethischer Entscheidungen gereicht es ihnen zum Nachteil, dass sie keine Gefühle haben, denn ethisches Handeln setzt immer Empathie voraus. Als abschreckendes Beispiel denke man dabei an Psychopathen. Darum ist eigentlich auch die Frage falsch, wie wir künstliche Intelligenz dazu bringen, uns gekonnt zu imitieren und unsere Aufgaben zu übernehmen. Die wichtige ethische Frage lautet eher: "Welche Entscheidungen darf eine Maschine überhaupt treffen?" Dass Maschinen Wissen speichern, Empfehlungen machen oder Befehle ausführen, das unterstützt die menschliche Intelligenz. Aber dürfen wir Verantwortung in die Hände von Maschinen legen, die gar nicht verstehen können, was Verantwortung überhaupt bedeutet? Ein Team aus Mensch und Maschine kann Bestleistungen erbringen, die ein Mensch oder eine Maschine allein nie schaffen könnten. Nicht ohne Grund fliegen in Flugzeugen immer noch Piloten mit und der Flug wird nicht komplett dem Autopiloten überlassen. Genauso sollten wir Maschinen nicht über Krieg und Frieden oder über Menschenleben entscheiden lassen oder über ethische Fragen, weil sie diese gar nicht verstehen können. Der Mensch sollte der verantwortliche Entscheider bleiben, die Maschine nur sein Unterstützer.

User Status

Du bist nicht angemeldet.

Aktuelle Beiträge

Ich bin auch in gleicher...
Bis ich diesen Blog gelesen habe, dachte ich auch,...
amritkaur - 28. Okt, 08:18
Blog umgezogen
Dieses Blog ist umgezogen und wird hier weitergeführt.
AndreaHerrmann - 24. Sep, 12:29
Hallo, das ist ein kurzes...
Hallo, das ist ein kurzes Heads-Up an die Immernoch-Blogger:...
skydance - 28. Mai, 20:17
Planbarkeit von Murphys...
Inzwischen bin ich wieder zu Hause. Habe mein Einschreiben...
AndreaHerrmann - 26. Mai, 12:51
Wo ist die Planbarkeit...
Ein häufiges Thema in meinen Zeitmanagement-Kursen...
AndreaHerrmann - 26. Mai, 11:38

Links

Suche

 

Status

Online seit 3958 Tagen
Zuletzt aktualisiert: 28. Okt, 08:18

Credits


Profil
Abmelden
Weblog abonnieren