Im Hintergrund zwei weiße Fahnen am Fahnenmast mit BWI Logo. Im Vordergrund rechts eine Stahl Stehle mit BWI Logo. Eingang zu Liegenschaft fotografiert.© BWI GmbH

KI-Ethik – Asimov lässt grüßen

4 min
19. Juli 2018

Isaac Asimov gilt als einer der wichtigsten Science-Fiction-Autoren aller Zeiten. Mit seinen Robotergesetzen entwarf er bereits in den 40er Jahren wesentliche Regeln, nach denen eine künstliche Intelligenz handeln sollte. Heute sind solche Überlegungen keine Fantasie mehr – sondern beschäftigen Forscher, Juristen und Regierungen weltweit.

In seinen zahlreichen Romanen ging Isaac Asimov immer wieder der Frage nach, wie sich eine künstlich geschaffene, intelligente Existenz tatsächlich verhalten würde. Bekannt wurden seine Werke aber nicht nur wegen ihrer Qualitäten als moderne Fantasy, sondern weil sie philosophische, ethische Fragen aufwarfen, die auch heute noch Bestand haben. Oder vielleicht: heute mehr denn je.

Es waren drei einfache Regeln, die Asimov seinen Robotern mitgab: Sie durften kein menschliches Wesen verletzen oder eine Verletzung durch Untätigkeit zulassen. Sie mussten menschlichen Befehlen gehorchen, solange dadurch niemand verletzt wurde. Und sie mussten sich selbst schützen, sofern sie nicht einen gegenteiligen Befehl erhielten. Scheinbar klar definierte Regeln, die aber – so zeigten die Asimov’schen Geschichten – immer wieder zu Konflikten führten.

 

Gesucht: KI ohne Vorurteile

Heute versuchen Wissenschaftlicher, Softwareentwickler, Juristen und interessierte Bürger, genau solche Regeln aufzustellen. Sie suchen nach einem Wertekanon, der für alle künftig entwickelten künstlichen Intelligenzen gelten soll. Doch diesen zu definieren, ist nicht nur schwierig. Es ist vielleicht sogar unmöglich.

Tatsächlich gibt es schon heute viele Beispiele, in denen unregulierte Software Entscheidungen trifft, die Menschen bevorteilen oder benachteiligen. Da ermittelt etwa ein Algorithmus die vermeintliche Kreditwürdigkeit einer Person unter anderem auf Basis ihrer Kontakte in sozialen Netzwerken; Erhebungen zufolge wirkt sich das gar nicht gut aus für Minderheiten. Da werden Frauen bei der Jobsuche im Web andere Werbeanzeigen angezeigt als Männern – nämlich solche mit geringerem Gehalt. Und da schaltet eine automatische Drohne neben Terroristen auch Unschuldige aus.

Wie lassen sich Effekte wie diese vermeiden? Kann man einen Algorithmus so entwickeln, dass er von Menschen nachvollziehbare Antworten liefert – selbst, wenn seine Entscheidungsfindungsprozesse extrem komplex sind? Und lässt sich eine KI eigentlich für vermeintliche Fehler zur Rechenschaft ziehen?

 

Fairness durch Nachvollziehbarkeit

Mit solchen Fragen beschäftigt sich Dr. Sandra Wachter am Oxford Internet Institute. Auf der CEBIT 2018 plädierte sie für die sogenannte „kontrafaktische Erklärbarkeit“, nach der jede KI ihre Resultate nachprüfbar machen sollte. Es gehe nicht darum, jeden Herleitungsschritt zu erklären, sondern eine auf das Wesentliche reduzierte Antwort zu liefern. Ein Beispiel: Sie stellen einen Kreditantrag, erhalten aber eine Absage. In der kontrafaktischen Erklärung steht explizit, warum: „Ihr Antrag wurde abgelehnt, weil Ihr Jahreseinkommen $46.000 Dollar beträgt. Ihr Kredit kann erst ab einem Einkommen in Höhe von mindestens $52.000 Dollar bewilligt werden.“

Was simpel klingt, erfordert einiges an Fachwissen aus diversen Disziplinen. Denn natürlich bezieht der Algorithmus weit mehr Faktoren als nur das Einkommen in seine Entscheidung mit ein. Was also sind die wesentlichen Begründungen, die ein Mensch wissen sollte, damit er die Entscheidung nachvollziehen, vielleicht anfechten oder seine Erfahrungen zumindest für sein künftiges Vorgehen nutzen kann? Die kontrafaktischen Erklärungen, so Wachter, kämen ohne ein tieferes Verständnis des Algorithmus aus, und würden auch keine wirtschaftlichen Interna preisgeben oder persönlichen Rechte beschneiden.

Für welche Werte steht der Mensch?

Dass KI-Entscheidungen nachvollziehbar sein sollten, darüber sind sich wohl die meisten Fachleute und Laien einig. Aber sind wir eigentlich in der Lage, eine KI zu erschaffen, die moralisch und ethisch „richtig“ handelt? Prof. Dr. Christian Bauckhage, wissenschaftlicher Direktor des Fraunhofer Instituts IAIS, dreht die Frage um.

Klingt ganz nach Asimov.

Das große Problem bei der Entwicklung einer „guten“ KI ist nämlich, dass jede Kultur, jede Gesellschaft „gut“ anders definiert. Man brauche nur einen Blick auf die heutige Politik werfen, gibt Bauckhage zu bedenken. Ob sich eine Weltgesellschaft auf gemeinsame Werte einigen kann, ist fraglich – schon allein, weil sich Moralvorstellungen in der Geschichte der Menschheit immer wieder erheblich verändert haben.

Und dann wäre da noch die Frage nach der Verantwortung: Wem trauen wir zu, einen KI-Wertekanon zu definieren? Wem vertrauen wir? Eine Kurzumfrage unter dem CEBIT-Publikum machte deutlich, dass es nicht einzelne Staaten sein können, die anderen ihre Vorstellungen diktieren. Wenn, dann müssten überspannende Organisationen wie die EU oder die UN zuständig sein.

Oder vielleicht ein Unternehmen? Erst kürzlich veröffentliche Google-CEO Sundar Pichai jene Prinzipien, die sein Unternehmen für die KI-Entwicklung heranzieht. Sie klingen gut – sind aber erwartungsgemäß weitläufig interpretierbar. Von „sozialem Nutzen“ ist da die Rede, und davon, eine „unfaire Voreingenommenheit zu vermeiden“.

So spannend der technische Fortschritt auch ist: Noch wichtiger dürfte sein, ob uns die Entwicklung denkender Systeme dazu bringt, unser Menschsein zu reflektieren. Oder, wie es Wissenschaftlerin Sandra Wachter ausdrückt:

Das könnte Sie auch interessieren:
 

 
Innovative BWI-Lösungen für Streitkräfte-Schulungen
(Aus)Bildungskongress der Bundeswehr 2023
2 min
12. September 2023

Innovative BWI-Lösungen für Streitkräfte-Schulungen

#Bundeswehr

#Digitalisierungsprogramme

Unter dem Motto „Zeitenwende – Wie gelingt die Bewältigung der Herausforderungen?” steht der (Aus)Bildungskongress der Bundeswehr 2023. Das Event widmet sich dem Lernen der Zukunft. Hierfür liefert die BWI innovative digitale Lösungen.
2 min
12. September 2023
 
BWI entwickelt neues Krisenvorsorgeinformationssystem Bund
Krisenvorsorgeinformationssystem Bund (KVInfoSysBund)
2 min
25. März 2022

BWI entwickelt neues Krisenvorsorge­informationssystem Bund

#Digitalisierungsprogramme

In Krisensituationen muss schnell reagiert werden. Die Evakuierungsoperation in Kabul hat gezeigt, dass ein klares Lagebild das Vorgehen in Krisen verbessern könnte. Hierfür entsteht ein neues Krisenvorsorgeinformationssystem Bund (KVInfoSysBund) als…
2 min
25. März 2022