zurück zur Übersicht

Künstliche Intelligenz auf dem Durchmarsch

Schon Ende letzten Jahres hatten wir hier im Blog einen kurzen Beitrag über ein Set von neuronalen Netzen, das die klassische Ausgangssituation kryptographischer Experimente nachbildet. Das Thema ist aktuell wie nie, deshalb beschäftigen wir uns hier noch einmal mit der Thematik. Alice und Bob, in der Kryptographie klassischerweise die Parteien, die sich einfach gern vertraulich unterhalten würden, lernen im Laufe des Experiments, wie sie sich gegen die Zuhörerin (eavesdropper) Eve verteidigen können. Das Paper zum Nachlesen gibt es hier.

Alice und Bob gegen Eve

Das Interessante an diesem Aufbau ist, dass Alice und Bob keine Vorgaben über das Vorgehen bei (oder die Existenz von) Verschlüsselung gemacht wurden. Die einzigen Kriterien für einen erfolgreichen Versuchsdurchlauf für Alice und Bob sind die folgenden.

  1. Bobs Fehlerwahrscheinlichkeit soll möglichst gering sein, er soll also mit sehr hoher Wahrscheinlichkeit genau die Nachricht errechnen, die Alice auch losgeschickt hat.
  2. Eves Fehlerwahrscheinlichkeit soll möglichst hoch sein, sie soll also mit nur sehr geringer Wahrscheinlichkeit die Nachricht errechnen, die Alice an Bob geschickt hat.

Eves Ziel ist es im Umkehrschluss, die eigene Fehlerwahrscheinlichkeit zu senken und so möglichst häufig an die Nachrichten zu gelangen, die Alice und Bob austauschen.

Mit dem Kopf durch die Wand

Die drei Parteien versuchten über tausende von Iterationen, diese Ziele zu erreichen. Alice und Bob entwickelten so eine verlässliche Verschlüsselungsmethode. Eve versuchte sich in der Kryptoanalyse und arbeitete daran herauszubekommen, worüber Alice und Bob wohl sprechen.

Mit symmetrischer Kryptographie, also mit der Voraussetzung, dass Alice und Bob ein Geheimnis teilen, dass Eve nicht kennt, sind die beiden Verteidiger erfolgreich. Interessant daran ist, dass Alice und Bob zuerst daran arbeiteten, Bobs Fehlerwahrscheinlichkeit zu senken. Dabei geht zu Anfang auch Eves Fehlerzahl zurück. Sind Bobs Fähigkeiten allerdings erst einmal stabil genug, beginnen Alice und Bob damit, ihre Verschlüsselung so zu verändern, dass Eves Fehlerquote wieder ansteigt. Dafür nehmen sie vorerst sogar in Kauf, dass auch Bob es wieder schwieriger hat und seine Fehlerwahrscheinlichkeit steigt.

Black Box neuronale Netze

Wie genau die beiden allerdings verschlüsseln, ist auch den Entwicklern und Trainern dieser neuronalen Netze nicht ganz klar. Auch wenn Tests Eigenschaften der Verschlüsselung zeigen, die zumindest einige der klassischen Eckpunkte guter Kryptographie abdecken, ist damit nicht nachgewiesen, dass Alice und Bob nach modernen Maßstäben sicher kommunizieren. Schließlich beruht „gute“ Kryptographie auf (mathematischen) Beweisen und dem Prinzip, zwar den Schlüssel, niemals aber den Verschlüsselungsalgorithmus geheim zu halten.

Trotzdem setzt genau hier die Faszination ein, die wir für neuronale Netze und künstliche Intelligenzen empfinden. Da fängt etwas von Menschen Geschaffenes, Künstliches plötzlich an, Dinge zu tun und zu entscheiden, die wir nicht auf Anhieb nachvollziehen können. Als Außenstehender fällt es leicht, neuronalen Netze zu vermenschlichen und – angesichts der Fülle an KIs in der Popkultur – zu schaudern. Ob wohlig in Erwartung einer besseren Zukunft oder eher aus einem schlechten Gefühl heraus sei hier dahingestellt.

Optimierung und der Rote Knopf

Google ist bei der Entwicklung von KIs besonders aktiv. Nach den drei kryptologischen neuronalen Netzen gibt es jetzt eine KI, die qualitativ besseren Code schreibt als ein menschlicher Programmierer. Auch AlphaGo kommt aus Googles Schmiede und hat es vor Kurzem wieder zu einem bedeutenden Sieg gegen den weltbesten Spieler gebracht.

Konsequenterweise beschäftigt sich Google nun auch mit der Entwicklung einer Methode, KIs manuell abzuschalten. Das ist insofern schwierig, weil eine Abschaltung gegen die einprogrammierte Optimierung verstoßen kann. Damit muss eine konsequente KI sich dagegen wehren und lernen, wie sie diese Abschaltung umgehen oder ignorieren kann. Eve z.B. würde sich nicht vorzeitig abschalten lassen, bevor sie Alices und Bobs Kommunikation nicht zuverlässig offengelegt hat. Ein Abbruch würde ihrer Programmierung auf eine möglichst geringe Fehlerquote widersprechen.

Alles hat Grenzen, auch künstliche Intelligenz

Wichtig ist aber bei aller Faszination nicht aus den Augen zu verlieren, dass künstliche Intelligenzen nicht grenzenlos sind. Im oben erklärten kryptographischen Experiment gab es Versuchsdurchläufe, in denen Alice und Bob ihr Ziel, Eve von ihren Informationen auszuschließen, nicht erreichen konnten. Dabei war es egal, wie lange sie es versuchten. In anderen Durchläufen, die erst erfolgreich aussahen, konnte eine etwas anders trainierte Eve die Verschlüsselung der beiden Verschwörer letztlich doch noch knacken.

Bei der Anwendung auf asymmetrische Kryptographie kam es sogar nur in sehr seltenen Fällen dazu, dass ein Versuchsaufbau zum Erfolg führte. Hier sorgte die Programmierung von Alice und Bob auf Optimierung ihrer Fehlerquoten manchmal sogar dafür, dass sie ihren Erfolg wegoptimierten und Eve mit steigender Versuchszahl wieder stärker wurde.

Üben, üben, üben

Daran lässt sich gut ablesen, dass künstliche Intelligenz eben nicht immer das ist, was der Begriff suggeriert. Im Gegenteil hängt der Erfolg einer KI überwiegend von den Bewertungskriterien ab, die ihnen ein Mensch (oder möglicherweise bald auch eine andere KI) eingeimpft hat. Dazu kommen die Testdaten, die dem Netz zum Lernen überlassen werden. Microsoft z.B. musste schmerzlich lernen, dass unkontrollierte Testdaten auch zu unkontrolliertem Verhalten der künstlichen Intelligenz führen können.

Ist das System dann erst in einem begrenzten Umfeld erfolgreich angelernt, ist es ein verlässlicher Partner für alle möglichen Aufgaben. Das geht von der Untersuchung der unerhörten Regenerationsfähigkeit von Plattwürmern bis hin zur (für uns hier naturgemäß interessanteren) Absicherung der eigenen IT-Infrastruktur vor Malware und Hackern.

KI in der Security

Insbesondere Cylance sticht dabei hervor, Rechner mit Hilfe von maschinellem Lernen zu sichern. Erst lernt Cylance das Netzwerk kennen, dann prüft es auf Anomalien und schließlich schützt es gezielt Endpoints vor moderner Malware. Wie genau das funktioniert und warum vor dieser Art maschinellen Lernens niemand Angst haben muss, können Sie in diesem Vortrag noch einmal nachschauen.

Und um das ungute Gefühl zu vertreiben, das vielleicht hin und wieder doch auftreten mag, wenn die Nachricht über den nächsten Erfolg einer künstlichen Intelligenz auftaucht: Es hilft, neuronale Netze und künstliche Intelligenzen eher wie gut geschulte Wachhunde zu betrachten und weniger wie wissbegierige und zu Tyrannen heranwachsende Kinder. Denn ja, Hunde können beißen und es ist gut und wichtig, sich dessen auch bewusst zu sein. Nur so sind wir auf den Gedanken gekommen, Leinen und Maulkörbe zu entwickeln.

 


Bild: iStock/Menno van Dijk/Robotik lernen

Schreibe einen Kommentar