Geschrieben von

Algorithmen: Wer haftet für folgenschwere Fehler? 13/12/2019. Um zu verhindern, dass Computer die Kontrolle über unser Leben übernehmen, müssen wir das Haftungs- und Diskriminierungsrecht reformieren – und zwar schnell.

IT-Recht, Politik| Ansichten: 215

Die Datenethik-Kommission der Bundesregierung hat jüngst mit Blick auf den Vormarsch algorithmischer Systeme eine „Anpassung des geltenden Haftungsrechts“ empfohlen. Das klingt unspektakulär, ist aber eine zentrale Voraussetzung für eine menschenfreundliche Digitalisierung. Die GroKo sollte die Empfehlung deshalb trotz aller Turbulenzen nicht auf die lange Bank schieben.

Denn der technische Fortschritt ist rasant, und es zeigt sich immer deutlicher, welche Risiken schon jetzt mit dem unkontrollierten Einsatz von automatisierten Entscheidungssystemen einhergehen: Algorithmen können diskriminieren und täuschen; sie sind keineswegs objektiv, sondern immer nur so gut wie ihre Programmierer – und die Daten, mit denen sie gefüttert werden.

Laut einer aktuellen Studie des Instituts für Technikfolgenabschätzung kann das Diskriminierungsrisiko sogar steigen, wenn Computer statt Menschen entscheiden. Denn Letztere urteilen von Fall zu Fall. Fehler in Algorithmen wirken sich dagegen auf sämtliche Entscheidungen aus.

Wie sexistisch ist die AppleCard?

Erschreckende Beispiele für programmierte Diskriminierung gibt es zuhauf. Für Schlagzeilen sorgte letztes Jahr eine Gesichtserkennungssoftware, die 28 US-Abgeordnete als gesuchte Straftäter einstufte. Nichtweiße waren überproportional betroffen. Genauso bedenklich: Ein Computersystem der US-Justiz berechnete bei afroamerikanischen Straftätern systematisch ein höheres Rückfallrisiko.

Aber wir müssen gar nicht in die Ferne schweifen oder auf Randgruppen schauen. Diskriminierung droht auch in unser aller Alltag. So mehren sich Hinweise, dass Apple bei seiner neuen Kreditkarte Frauen systematisch weniger Kredit einräumt. Oder nehmen wir die Bonitätsprüfer: Beim „Scoring“ besteht weiter die Gefahr, dass Menschen aus „schlechteren“ Wohnvierteln benachteiligt werden.

Nachteile drohen auch bei Online-Markplätzen und Sprachassistenten. Wer kann etwa ausschließen, dass die digitalen Lotsen ihre Software so programmieren, dass sie systematisch teurere Produkte empfehlen – etwa, weil es sich um Eigenmarken handelt oder weil Anbieter Provisionen zahlen?

Auch bei den Telematik-Tarifen der Kfz-Versicherer, bei denen sich die Beiträge am Fahrverhalten orientieren, bestehen Risiken. Wer zum Beispiel oft zu Zeiten und an Orten arbeiten (und deshalb auch fahren) muss, diee der Algorithmus negativ einstuft, muss mit höheren Beiträgen rechnen, ohne selbst etwas dagegen tun zu können.

Manager in die Verantwortung nehmen

Der Gesetzgeber muss deshalb nicht nur dafür sorgen, dass Behörden Algorithmen, die weitreichende Entscheidungen fällen, kontrollieren und gegebenenfalls unterbinden oder anderweitig sanktionieren können. Gerade mit Blick auf selbstlernende Systeme ist es zudem höchste Zeit, Unternehmen bzw. ihre Vorstände und Geschäftsführer stärker in die Pflicht zu nehmen.

Denn ich bin überzeugt: Nur wenn es im Zweifel an den Geldbeutel geht, bewegen wir Verantwortliche auf breiter Front dazu, hohe Standards bei der Entwicklung und Kontrolle von Algorithmen zu veranlassen. Zudem stärken durchsetzbare Ansprüche auf Schadensersatz das Vertrauen der Bürger in neue Technologien – und sind somit im Interesse aller verantwortungsbewussten Unternehmen.

Deshalb sollten wir im Rahmen einer Reform des Produkthaftungsrechts klarstellen, dass Fehler von Computern dieselben zivilrechtlichen Folgen haben wie Fehler menschlicher Mitarbeiter. Zudem plädiere ich wie der Verbraucherzentrale Bundesverband für eine „Gefährdungshaftung“.

AGG-Klagen wg. Algo-Diskriminierung?

Unternehmen müssten dann unabhängig vom konkreten Verschulden Schadensersatz zahlen, sobald ein Kausalzusammenhang zwischen Algo-Entscheidung und Schaden besteht. Anderenfalls müssen Verbraucher nach geltendem Recht grundsätzlich beweisen, dass Unternehmen Schäden schuldhaft verursacht haben – was schwierig bzw. mit hohen Gutachterkosten verbunden ist, da technische Vorgänge von außen nicht erkennbar sind.

Zudem müssen wir diskutieren, ob und inwieweit das Antidiskriminierungsrecht auf algorithmische Entscheidungen ausgeweitet werden sollten. Brauchen wir etwa eine Klarstellung, dass im Fall einer Diskriminierung auch dann eine Entschädigung nach dem Allgemeinen Gleichbehandlungsgesetz (AGG) fällig ist, wenn Algorithmen in Entscheidungsprozesse involviert waren?

Ich fürchte: AGG-relevante Diskriminierungen sind schon jetzt Alltag. Was wäre beispielsweise, wenn ein Unternehmen interne Kandidaten für Beförderungen automatisiert analysieren lässt – und dabei den Indikator „Fehlzeiten“ einbezieht? Das würde – zum Beispiel unter Zugrundlegung aktueller Statistiken der Techniker Krankenkasse – dazu führen, dass überproportional viele Frauen, ältere und kranke sowie behinderte Menschen vorzeitig ausscheiden.

Kommentar verfassen