Geschrieben von

Künstliche Intelligenz: Warum wir einen KI-Kodex brauchen 10/01/2020. Um Algorithmen zu bändigen, sollten wir nicht nur auf neue Gesetze, sondern auch auf eine Selbstregulierung der Wirtschaft bauen. Sonst wird uns der technische Fortschritt überrollen.

IT-Recht, Künstliche Intelligenz| Ansichten: 62

Im Dezember habe ich skizziert, welche rechtlichen Reformen die Bundesregierung vorantreiben muss, damit Künstliche Intelligenz menschenfreundlich bleibt: Um zu verhindern, dass Algorithmen unser Leben bestimmen, brauchen wir Lizensierungsverfahren und Kontrollen. Und wir brauchen Änderungen beim Haftungs- und Antidiskriminierungsrecht.

Einen Haken hat die Sache allerdings: Angesichts des rasanten Wandels wird der rechtliche Rahmen schnell hinter dem technischen Fortschritt zurückbleiben. Gerade bei selbstlernenden Systemen dürften sich bald Fragen stellen, die wir heute noch gar nicht absehen können. Und manche Aspekte lassen sich ohnehin nicht in Gesetzen adressieren.

Wir müssen deshalb darüber nachdenken, wie wir Entscheider und Programmierer dazu bewegen können, sich mit Risiken auseinanderzusetzen. Anders formuliert: Wie kann man jenseits von Gesetzen die Diskussion und Reflexion über KI fördern – und dadurch das Bewusstsein schärfen?

Besser als der Governance-Kodex

Ich bin überzeugt: Wenn das gelingt, dürften viele Unternehmensverantwortliche auch auf Fragen, für die es (noch) keine gesetzlichen Leitplanken gibt, überzeugende Antworten geben. Ich plädiere deshalb – ergänzend zu den skizzierten Gesetzen und Gesetzesänderungen – für einen KI-Kodex nach dem Vorbild des Deutschen Corporate Governance Kodex.

Der DCGK ist Ausdruck einer Selbstregulierung der Wirtschaft, hat meines Erachtens aber eine Schwäche: Wegen seiner Detailtiefe empfinden ihn viele Manager als bürokratisches Korsett. Oft haken sie die Empfehlungen einfach ab, da ohnehin wenig Spielraum für individuelle Umsetzungen bleibt. Diskussion und Reflexion? Fehlanzeige. Corporate-Governance-Experten fordern deshalb seit Langem einen prägnanteren Kodex.

Bei dem branchenübergreifenden KI-Kodex, den ich vorschlage, können wir es besser machen. Wir sollten zentrale, prägnante Prinzipien formulieren, über deren konkrete Umsetzung reflektiert, diskutiert und gestritten werden kann – und den Kodex mit dem „Apply-and-Explain“-Prinzip kombinieren. Das bedeutet, dass Unternehmen erklären müssen, wie sie die Vorgaben mit Leben füllen (wofür Entscheider besonders intensiv nachdenken müssten).

Totalüberwachung von Mitarbeitern?

Einige Unternehmen haben in den vergangenen Monaten bereits ihre eigenen KI-Kodex vorgestellt, die gute Vorlagen für eine branchenübergreifende Version enthalten – darunter die Deutsche Telekom. Zudem wurden auf nationaler und internationaler Ebene erste Richtlinien entwickelt.

Wichtige Themen, die in den branchenübergreifenden Prinzipien adressiert werden müssten, sind Datenschutz, Transparenz, Vielfalt in Programmierer-Teams und klare interne Verantwortlichkeiten. Zudem sollte ein KI-Kodex meines Erachtens „rote Linien“ für den Umgang mit umstrittenen Technologien formulieren.

Das betrifft zum Beispiel Systeme zur Emotions- und Gesichtserkennung, die im HR-Bereich derzeit auf wachsendes Interesse stoßen. Insbesondere gilt es zu verhindern, dass Technologien zur Totalüberwachung von Mitarbeitern. Kunden und anderen Anwendern missbraucht werden.

Und ich bin überzeugt: Selbstregulierung und -reflexion wären diesbezüglich große Schritte in die richtige Richtung.

Kommentar verfassen