Geschrieben von

Künstliche Intelligenz: Algorithmen außer Kontrolle? 19/01/2018. Autonomes Fahren, Scoring, Preiserhöhungen: Manager dürfen sich bei umstrittenen Geschäftspraktiken nicht hinter ihrer IT und deren vermeintlich selbstständigen Entscheidungen verschanzen.

Datenschutz im Netz, IT-Recht, Politik| Ansichten: 89

Der Chef des Bundeskartellamts ist zu Recht verärgert: „Solche Algorithmen werden ja nicht vom lieben Gott im Himmel geschrieben“, sagte Andreas Mundt, nachdem die Lufthansa lapidar auf ihr „computerbasiertes Preissystem“ verwiesen hatte, um Preiserhöhungen nach der Air-Berlin-Pleite zu rechtfertigen. Unternehmen, so Mundt, dürften sich nicht „hinter Algorithmen verstecken“.

Leider habe ich derzeit auch in anderen Fällen den Eindruck, dass Manager nicht willens oder fähig sind, ihre IT-Systeme zu kontrollieren. Und das wird wegen rasanter technologischer Fortschritte in Sachen Künstliche Intelligenz (KI) zu einer wachsenden Gefahr. In den USA etwa entscheiden Algos bereits, wer entlassen wird, wie lange Straftäter in Haft bleiben und ob bei Schwerkranken eine Therapie lohnt.

Dabei kommt es oft zu schwerwiegenden Fehlern und Verstößen gegen ethische Standards, wie die ZEIT in einem aktuellen Beitrag herausgearbeitet hat. Aber wie können wir verhindern, dass Algorithmen rassistische Urteile fällen, den fairen Wettbewerb aushebeln oder andere inakzeptable Ergebnisse produzieren – zum Beispiel beim Scoring oder bei Unfällen autonomer Autos?

Algo-TÜV? Nein. Wohldosierte Kontrollen? Ja.

Ich habe bereits darauf hingewiesen: Ein allgemeiner „Algo-TÜV“, wie ihn manche Verbraucherschützer fordern, wäre aus meiner Sicht deutlich überzogen – zumindest, wenn damit eine neue Super-Behörde gemeint ist, die für zusätzliche bürokratische Auflagen sorgt und Unternehmen zur umfassenden Offenlegung zentraler Geschäftsgeheimnisse zwingt.

Laisser-faire ist aber auch keine Lösung. In zentralen Bereichen – etwa, wenn Künstliche Intelligenz über Leben und Tod entscheiden – müssen wir über wohldosierte Kontrollmöglichkeiten diskutieren. So hat Ex-Verfassungsrichter Udo di Fabio in dieser Woche unabhängige Kontrollen selbstfahrender Autos ins Spiel gebracht. Zudem forderte er eine klare Produkthaftung der Hersteller (das neue Autopilot-Gesetz ist hier leider lückenhaft).

Ein weiterer wichtiger Bereich ist aus meiner Sicht das Scoring, weil Algorithmen hier über die Kreditwürdigkeit und damit auch über Lebensträume entscheiden. Bei der Schufa etwa halte ich die Offenlegung der Codes für notwendig. Zudem brauchen wir klarere Vorgaben, welche Daten Bonitätsprüfer für ihre Algorithmen nutzen dürfen – vor allem mit Blick aufs Geo-Scoring.

Unternehmen können strenger Regulierung vorbeugen

Was ich erfreulich finde: Unternehmen wie Microsoft, SAP und PwC propagieren verstärkt Verantwortungsbewusstsein, Transparenz und ethische Standards beim Einsatz von KI-Systemen. Unternehmen müssten „klare Ethik-Leitlinien […] definieren und Ergebnisse ständig kontrollieren“, rät zum Beispiel PwC. „Zudem sollten sie erklären, wie KI-Systeme arbeiten.“

Darüber hinaus gelte es, „Datenschutz als Chance zu begreifen“. Schließlich „akzeptieren Kunden neue Technologien und Geschäftsmodelle nur, wenn sie ihnen vertrauen.“

Solche Töne sind in der Welt der Großkonzerne eher ungewöhnlich – bislang zumindest. Sicher ist: Wenn sich diese Haltung durchsetzt, wären strenge Regulierungsansätze oder gar ein allgemeiner, staatlicher Algo-TÜV obsolet.

Kommentar verfassen

Send this to friend