Haftungsrecht
24.06.2018, 10:14 Uhr
Haftet beim KI-Einsatz Mensch oder Maschine?
Kommt KI zum Einsatz und geht etwas schief, bleibt die Frage, wer zur Rechenschaft gezogen werden muss. Haftet der Mensch oder doch die Maschine? Ist es notwendig, dass KI-Maschinen eine eigene Rechtspersönlichkeit zugesprochen wird?
Es ist ein Alptraum für jeden Autofahrer: Eine Fussgängerin überquert unvermittelt die Strasse - es bleiben nur Sekundenbruchteile, ein tödliches Unglück abzuwenden. Bei Unfällen haftet nach deutschem Recht in aller Regel bislang der Fahrer beziehungsweise der Halter des Autos. Doch was ist, wenn der Fahrer eine Maschine ist, der Mensch hinter dem Steuer nur Passagier?
Ein derartiger Unfall ereignete sich im März in den USA mit einem Roboterauto des Fahrdiensts Uber. Eine 49-Jährige kam ums Leben, die Schuldfrage ist bislang nicht geklärt. Der rasante Fortschritt der künstlichen Intelligenz (KI) beschäftigt auch die Juristen in Europa. Im Haftungsrecht werden inzwischen Fragen diskutiert, die vor zwanzig Jahren noch jeder für Science Fiction erklärt hätte.
Das hat auch Bedeutung für die Versicherungen, die bei Unfällen zahlen. "Maschinen mit Lern-Algorithmen werden in immer grösserem Umfang Fahraufgaben im Auto übernehmen und schrittweise das menschliche Verschulden verdrängen", sagt Joachim Müller, Chef der Sachversicherung bei der Allianz Deutschland. "Für die Folgen ihres Handelns können Maschinen derzeit rechtlich aber nicht verantwortlich gemacht werden."
Bislang haften in aller Regel der Fahrer beziehungsweise der Halter. Die Autohersteller können nur dann rechtlich zur Verantwortung gezogen werden, wenn ein Produktionsfehler einen Unfall verursacht.
Ein derartiger Unfall ereignete sich im März in den USA mit einem Roboterauto des Fahrdiensts Uber. Eine 49-Jährige kam ums Leben, die Schuldfrage ist bislang nicht geklärt. Der rasante Fortschritt der künstlichen Intelligenz (KI) beschäftigt auch die Juristen in Europa. Im Haftungsrecht werden inzwischen Fragen diskutiert, die vor zwanzig Jahren noch jeder für Science Fiction erklärt hätte.
Das hat auch Bedeutung für die Versicherungen, die bei Unfällen zahlen. "Maschinen mit Lern-Algorithmen werden in immer grösserem Umfang Fahraufgaben im Auto übernehmen und schrittweise das menschliche Verschulden verdrängen", sagt Joachim Müller, Chef der Sachversicherung bei der Allianz Deutschland. "Für die Folgen ihres Handelns können Maschinen derzeit rechtlich aber nicht verantwortlich gemacht werden."
Bislang haften in aller Regel der Fahrer beziehungsweise der Halter. Die Autohersteller können nur dann rechtlich zur Verantwortung gezogen werden, wenn ein Produktionsfehler einen Unfall verursacht.
Selbstlernende Software
Doch künstliche Intelligenz am Steuer macht Unfälle denkbar, bei denen kein technischer Defekt vorliegt, sondern der Computer einfach die falsche Entscheidung trifft. Selbstlernende Software kann auf Grundlage zuvor eingegebener Daten quasi selbsttätig Muster und Situationen erkennen und darauf reagieren. "Es erscheint mir schwierig, Programmen ein Verschulden anzulasten - egal ob sie ausschliesslich einem vorgegebenen Algorithmus folgen oder sich selbstständig weiterentwickeln", sagt Allianz-Vorstandsmitglied Müller dazu.
Bei der Debatte geht es keineswegs nur um Roboterautos. Schon wird diskutiert, ob KI-Maschinen generell nicht eine eigene Rechtspersönlichkeit zugesprochen werden sollte. Dann könnte die künstliche Intelligenz quasi selbst haften. Das Europäische Parlament empfahl der EU-Kommission Anfang 2017, darüber nachzudenken.
Doch dem stehen nicht zuletzt praktische Gründe entgegen: Eine Maschine hat kein Konto, letztlich müsste immer ein dahinter stehender Mensch oder ein Unternehmen zur Rechenschaft gezogen werden.
Bei der Debatte geht es keineswegs nur um Roboterautos. Schon wird diskutiert, ob KI-Maschinen generell nicht eine eigene Rechtspersönlichkeit zugesprochen werden sollte. Dann könnte die künstliche Intelligenz quasi selbst haften. Das Europäische Parlament empfahl der EU-Kommission Anfang 2017, darüber nachzudenken.
Doch dem stehen nicht zuletzt praktische Gründe entgegen: Eine Maschine hat kein Konto, letztlich müsste immer ein dahinter stehender Mensch oder ein Unternehmen zur Rechenschaft gezogen werden.