Algorithmen können diskriminieren und manipulieren. Im Zeitalter der Künstlichen Intelligenz brauchen Unternehmen deshalb klare Leitlinien für eine menschenfreundliche Digitalisierung. Sonst besteht die große Gefahr, Vertrauen zu verspielen.
In den letzten Jahren haben etliche Fälle programmierter Diskriminierung die Mär von der neutralen Technik entlarvt: Eine Gesichtserkennungssoftware stufte Afroamerikaner zu oft als Straftäter ein. Ein Scoring-System hielt Frauen tendenziell für weniger kreditwürdig und ein Twitter-Chatbot entwickelte sich zum Rassisten, weil es andere Nutzer imitierte.
Spätestens nach diesem Scheitern dürfte klar sein, dass Algorithmen nicht automatisch objektive Entscheidungen fällen. Im Gegenteil: Sie sind immer nur so gut wie ihre Programmierer und die Daten, die sie erhalten. Vielfach besteht deshalb die Gefahr einer systematischen Diskriminierung – meist unabsichtlich, aber deshalb für die Betroffenen nicht weniger verheerend.
Zudem wächst im Zeitalter der Künstlichen Intelligenz (KI) die Gefahr von Manipulation. So ist beispielsweise nicht auszuschließen, dass Algorithmen gezielt teurere Produkte empfehlen.
Ethik-Kommission drängt auf Regulierung
Diese Risiken haben inzwischen auch die Politik auf den Plan gerufen: Die Datenethik-Kommission der Bundesregierung hat bereits im Oktober 2019 eine strenge Regulierung empfohlen. So sollen staatlich beauftragte Prüfer Algorithmen, die weitreichende Entscheidungen fällen, kontrollieren und im Zweifel verbieten können.
Zudem drängen die Experten auf neue Haftungsregeln, damit Geschädigte bessere Chancen auf Schadensersatz haben. Das könnte beispielsweise relevant werden, wenn fehlerhafte Algorithmen dazu führen, dass Kredite verweigert, Bewerbungen abgelehnt oder überteuerte Produkte empfohlen werden.
Für Unternehmen ist es deshalb höchste Zeit, sich mit digitaler Ethik befassen: Aufsichtsräte müssen auf klare interne Vorgaben für eine verantwortungsbewusste, menschenfreundliche Digitalisierung drängen. Das betrifft den Einsatz von Algorithmen und Künstlicher Intelligenz genauso wie den Datenschutz und den Respekt vor der Privatsphäre.
… und noch ein Kodex? Ja, unbedingt.
Einige Unternehmen haben in diesem Zusammenhang bereits KI-Kodizes formuliert. Darin verpflichten sie sich meistens, personenbezogene Daten sicher zu speichern und ihre KI-Systeme verständlich zu erklären. Auch Vielfalt in Programmierer-Teams ist häufig ein Thema, um die erwähnte „programmierte Diskriminierung“ zu verhindern.
Zudem sollte ein KI-Kodex aus meiner Sicht „rote Linien“ definieren. Denn etliche innovative Technologien werfen grundsätzliche Fragen auf – etwa Systeme zur Emotions- und Gesichtserkennung. Hier gilt es insbesondere, einer weitgehenden Überwachung der Mitarbeiter abzuschwören.
Es wäre jedoch grundfalsch, einen Kodex allein als vorbeugende Maßnahme gegen die drohende Regulierung zu begreifen: Digitale Ethik ist eine große Chance, Vertrauen zu schaffen – bei den Mitarbeitern, aber auch bei den Kunden. Und Vertrauen ist eine wesentliche Voraussetzung für die Akzeptanz von Innovationen.
Datenschutz als Innovationstreiber
Datenschutz, Transparenz und „Algo-Ethik“ sind deshalb, anders als vielfach suggeriert, keine Innovationshemmnisse – im Gegenteil. Aufsichtsräte sollten diesen Prinzipien deshalb denselben Stellenwert einräumen wie der Produktsicherheit, der Nachhaltigkeit und guten Arbeitsbedingungen.
Was heißt das konkret? Entscheidend ist zunächst, unabhängig von konkreten Regulierungsplänen interne Diskussionen über digitale Ethik zu fördern und zu fordern. Aufsichtsräte sollten deshalb mindestens genauso gerne über ethische Fragen diskutieren wie über die wirtschaftlichen.
Denn angesichts des Vormarschs der Künstlichen Intelligenz gilt mehr denn je: Nur mit Werten können Unternehmen auch dauerhaft Werte schaffen.
Geschrieben von Daniel Schönwitz
Compliance, Informationssicherheit