Es ist bereits einige Monate her, da startete Microsoft bei Twitter einen Versuch in Sachen Künstliche Intelligenz. Man programmierte einen Chatbot mit dem Namen Tay und verknüpfte ihn mit einem Twitter-Konto. Der Chatbot konnte nicht viel, außer lernen. Mit jeder Interaktion lernte er mehr von den menschlichen Nutzern, mit denen er kommunizierte. Kurz bevor Microsoft Tay wieder abschaltete, hatte sich die KI zum Rassisten und Hitler-Versteher gewandelt.

Das neutrale Programm, das innerhalb weniger Stunden der Interaktion mit Menschen auf dem Kurznachrichtendienst Twitter zum Nazi geworden war, kann als Paradebeispiel für zwei grundlegende Probleme der KI dienen. Das erste wäre die Neutralität, oder besser das Fehlen eines moralischen Kompasses, den die meisten Menschen in sich tragen. Der Algorithmus unterscheidet nicht zwischen Richtig oder Falsch, er kann es gar nicht, denn er versteht das Konzept dahinter gar nicht. Wenn ein Algorithmus etwas als „unmoralisch“ betrachtet, dann weil einer seiner Programmierer daran gedacht hat, eben das als „unmoralisch“ zu taggen. Das zweite Problem ist noch um einiges größer, denn die künstliche Intelligenz lernt von der menschlichen. An der Forderung, wir sollten doch erst einmal menschliche Intelligenz entwickeln, ehe wir versuchen sie Computern beizubringen, ist durchaus etwas dran.

Auch Amazon musste erst vor ein paar Wochen lernen, dass man nicht allein auf KI setzen kann. Der Konzern setzte einen Algorithmus zur Vorauswahl von Bewerbern ein, dieser entschied, welcher Bewerber letztlich zu einem Vorstellungsgespräch eingeladen werden sollte. Das tat die KI so lange, bis einem menschlichen Mitarbeiter auffiel, dass aus irgendwelchen Gründen plötzlich nur noch Männer zu den Vorstellungsgesprächen erschienen. Der Grund war schnell gefunden, der Algorithmus hatte einfach irgendwann in seinem Lernprozess entschieden, Frauen an sich seien für die ausgeschriebenen Positionen nicht geeignet.

Bei anderen Algorithmen ist der Rassismus sogar auf den ersten Blick offensichtlich, zum Beispiel beim Predictive Policing. In diesem Fall wird die KI unter anderem mit Informationen über Verbrechen, Verbrecher und Tatorte gefüttert. Daraus erstellt sie dann Vorhersagen, wo es mit einer großen Wahrscheinlichkeit zu Verbrechen kommen wird. Auf den ersten Blick eine sinnvolle Sache, schließlich ist das beste Verbrechen, ein verhindertes Verbrechen. Allerdings waren Verbrecher für manche eingesetzte Software eben zu gefühlt 99% schwarz. Ein ähnliches Problem hatte man in den USA mit den frühen Programmen für die Gesichtserkennung, sie versagten regelmäßig bei schwarzen Menschen. Der Grund? Man hatte sie als Beispiele nahezu ausschließlich mit Fotos von weißen Menschen gefüttert. Kann man dann dem Algorithmus Rassismus vorwerfen? Und selbst bei den Programmierern kann man anmerken, dass sie ihren Fehler nicht einmal absichtlich begangen hatten.

Das Problem wird nicht einfacher dadurch, dass die Lernprozesse der Algorithmen in einer Black Box stattfinden. Kurz gesagt: Der Programmierer füttert die KI mit den Inhalten, aber er kann nicht mehr nachvollziehen, wie und warum Schlüsse gezogen werden, sondern erst wieder das Ergebnis beurteilen. In den geschilderten Fällen waren die Ergebnisse erschreckend, aber reparabel. Nur wird es eine Frage der Zeit sein, bis KI über weit mehr entscheiden kann, als die Einladung zu einem Vorstellungsgespräch.

Der russisch-amerikanische Wissenschaftler und Autor Isaac Asimov hatte schon im Jahr 1942 den Weitblick, dass es hier Regeln bedürfe. Mit seinen Robotergesetzen hat er sie geschaffen:

  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Asimov schuf diese drei Gesetze für eine Kurzgeschichte. Und sie haben die Welt der Science-Fiction geprägt. Manchmal werden sie mehr oder weniger übernommen, andere Autoren beziehen sich in ihren Werken sogar direkt auf Asimov. Und wie so manches in der Science-Fiction, gingen auch Asimovs drei Robotergesetze in die eigentliche Science ein. Zumindest erfreuen sie sich – dankenswerter Weise – unter den Wissenschaftlern in den Bereichen Künstliche Intelligenz und Robotik fortwährender Beliebtheit.

Nur stellt sich inzwischen die Frage, ob es nicht ein ganzes Gesetzbuch braucht, ehe ein Algorithmus auf die Menschheit losgelassen werden kann. Eine Sammlung von Regeln, die Diskriminierung verhindern, ohne dabei den Algorithmus in seiner Arbeit zu behindern. Allein, ist das überhaupt möglich? In unserem Bemühen gegen Vorurteile anzukämpfen, vergessen wir zuweilen, dass Vorurteile eben auch Vor-Urteile sein können. Jeder von uns trifft diese Vor-Urteile. Das schnelle unbewusste Einteilen in Schubladen macht uns das tägliche Überleben erst möglich. Nicht einmal das menschliche Gehirn wäre in der Lage, die sonst drohende Informationsflut zu verkraften.

Wie kann es uns aber gelingen einen Algorithmus ohne Vorurteile zu schaffen, wenn wir nicht einmal unsere eigenen Vorurteile abstellen können?

Sie mochten diesen Beitrag? Unterstützen Sie uns doch mit einer kleinen Spende über PayPal.

Denkzeit von Gerhard Albert Fürst Als unser Redaktionsmitglied seinen alten Freund Gerhard Albert Fürst wegen einer Beteiligung an unserem Projekt ansprach, schickte Fürst uns mit den...
Lektionen des Lebens "Lektionen des Lebens" von Gerhard Albert Fürst Erst das Alter gewährt unsWeisheit destilliert aus Erfahrung,gesammelt durch vielfältiger Fehlerau...
Ein Dorf ist ein Dorf ist ein Dorf Die dörfliche Welt verändert sich und verschwindet in ganz Europa. Darüber schrieb der Niederländer Geert Mak eindringlich. Langsam verschwindet dies...
Tarzan von Maja Siffredi Mia und Ron liegen seit Stunden im Schlafzimmer, er im Tiefschlaf, sie beim Schafe zählen. Mit jedem seiner Schnarchtiraden stirbt eins ihrer flausch...
Wenn die Ehefrau nur noch ein Hologramm ist Kate Darling vom amerikanischen MIT führte in einem Workshop einmal ein interessantes Experiment durch. Sie teilte die Teilnehmer in mehrere Gruppen ...
Als 1944 die Amerikaner Zigaretten abwarfen Das Dorf Mirabel liegt im Departement Ardèche. Auf dem Plateau du Coiron. Der Turm auf dem Basaltgestein, das Château de la Roche ist schon von Weite...
Meine Fragerei von Gerhard A. Fürst Ich frage mich täglich: Was von allem das man immer wieder erlebt, was man liest, hört und sieht ist wirklich wahr!? Was ist glaubhaft und was ni...