Fachbeitrag der Axians IT-Security
Künstliche Intelligenz in der IT-Sicherheit
Erfolgsmuster und Gefahrenquellen
In der Malware-, Spam- und Anomalie-Erkennung haben sich selbstlernende Systeme etabliert, um potenziellen Cyberattacken zu trotzen. Je mehr Daten anfallen, um so mehr nützt künstliche Intelligenz (KI) in der Security – aber nicht überall. Mit KI-Systemen sind sowohl Fortschritt als auch Risiko verbunden.
Ein Blick zurück in den Sommer 2016 vergegenwärtigt, in welcher Dimension künstliche Intelligenz (KI) Sicherheitsrisiken in Zukunft erkennen und beheben kann. Damals traten intelligente Computersysteme in Paris gegeneinander zur Cyber Grand Challenge an, einem Hacking-Wettstreit. Software untersuchte andere, unbekannte Programme auf Fehler, fand eigene Bugs, programmierte sich selbst neu, testete und installierte Updates.
Zugleich attackierten sich die Programme untereinander. Menschen durften nur zuschauen. Soweit das Prinzip der Veranstaltung, die seinerzeit die Defense Advanced Research Projects Agency (DARPA), eine Forschungsbehörde des US-Verteidigungsministeriums, organisiert hatte. Die Wettkampfbilanz beeindruckt. Die Systeme entdeckten 650 Belege für Security-Schwachstellen und entwickelten 421 Patches, wofür sie zehn Stunden Zeit hatten. Die Maschinen spulten ein Programm ab, das auch die größte Analysekoryphäe so schnell nicht schaffen würde. Allerdings fielen die Maschinen nicht dadurch auf, kreativ neue Wege gegangen zu sein.
Machine Learning und Deep Learning bei namhaften Herstellern im Programm
Die Software-Wettkämpfer haben selbstständig Probleme gelöst, die eigentlich menschliche Intelligenz verlangen, weshalb sie unter die klassische Definition von KI fallen. Deren Grundlage bildet maschinelles Lernen (Machine Learning, ML), das auf Algorithmen setzt, um aus Erfahrung zu lernen. Tiefenlernen (Deep Learning, DL), eine ML-Teildisziplin, verwendet künstliche neuronale Netze, die aus mehr als der Eingabe-, Zwischen- und Ausgabeschicht bestehen. Diese lassen sich mit „Datenfutter“ dahingehend trainieren, dass sie in den Eingabedaten selbstständig Muster erkennen und aus Fehlern lernen.
Längst integrieren Hersteller wie Cisco, McAfee, IBM, Darktrace oder Vectra ML und DL in ihre IT-Security-Technologien. Grenzen ergeben sich dort, wo heute noch menschlicher Sachverstand unverzichtbar ist. KI-Lösungen versagen beispielsweise in der Firewall-Administration, um die richtigen Ports freizuschalten. Andererseits bietet sich an, die Effizienz einer Web Application Firewall (WAF) mit KI zu steigern. KI identifiziert in den bisher analysierten Daten Muster, die auf gefährlichen Verkehr hinweisen. So lassen sich auch unbekannte Angriffe abwehren.
Effiziente Maschinen auf Mustersuche
Immer wenn große Datenmengen anfallen, können Maschinen diese wesentlich effizienter auswerten. Spam-Filter, Malware-Erkennung und Netzwerkverkehrsanalyse haben sich deshalb als typische KI-Anwendungsfälle etabliert. So zählt einfaches ML in Anti-Spam-Lösungen zum Standard. Die KI errechnet dann anhand der Häufigkeit von bestimmten Wörtern, wie wahrscheinlich eine Nachricht in die Kategorie Spam gehört. Aus dem Verhalten des Nutzers, der Nachrichten manuell in den Spam-Ordner verschiebt oder von dort zurückholt lernt sie dazu. Beim Sandboxing hilft KI, die Trefferquote für das Erkennen von Schadcodes in einer virtuellen Testumgebung zu erhöhen. Zeigt eine Software bei bestimmten Attributen eine hohe Übereinstimmung mit bekannten Schädlingen, wird die Prüfung vertieft.
Auch ein Security Information and Event Management (SIEM) profitiert von ML. Folgen beispielweise zwei Ereignisse dicht aufeinander, kann das auf einen Sicherheitsvorfall hindeuten, worüber das ML-System den Security-Verantwortlichen informiert. Intrusion Detection and Prevention Systems (IDS/IPS) sind mit KI in der Lage, über die Analyse von Attributen und ihren Kombinationen normales und anormales Verhalten zu unterscheiden und sich stetig zu verbessern.
Undurchsichtig, manipulierbar und zum Missbrauch geeignet
Allerdings weiß niemand genau, was ein tiefes neuronales Netz gelernt hat, welches Wissen es also als Basis für seine Entscheidungen heranzieht. Die fehlende Transparenz, wie Entscheidungen zustande kommen, birgt ein Risiko: Was ist, wenn die Ergebnisse falsch sind – und keinem fällt das auf? Erinnert sei nur an ein Beispiel aus der Krebsdiagnostik , bei dem ein trainierter Algorithmus eigentlich Tumore auf Röntgenaufnahmen erkennen sollte. Was die Entwickler nicht beachteten: Auf jedem Bild mit Tumor war auch ein Lineal abgebildet, mit dem der Radiologe die Größe des Tumors maß. Die Deep-Learning-Anwendung gab daraufhin immer dann einen Hinweis auf Krebs wenn auf der Röntgenaufnahme ein Lineal abgebildet war.
Eine weitere mögliche Gefahrenquelle kann Manipulation sein: Wie sich mit einem Pixel-Verfahren neuronale Netze bei der Erkennung von Verkehrsschildern beeinflussen lassen, haben Forscher aus der Schweiz und Frankreich vorgeführt. Sie legten bestimmte Pixelmuster über Fotos von Ballons, Flaggenmasten, Joysticks oder Eidechsen. Für das menschliche Auge waren diese nicht zu sehen, die KI aber registrierte sie und berücksichtigte sie bei ihren Berechnungen. Am Ende klassifizierte das neuronale Netz den Ballon als Labrador und den Joystick als Chihuahua. Theoretisch könnte die DL-Technik eine Angriffsfläche bieten, um ins autonome Fahren einzugreifen. Generell passen kriminelle Hacker ihre Schadcodes immer perfekter an die Abwehrsysteme an. Ihre Attacken werden ausgefeilter und ausgereifter, was ihre Abwehr – selbst mit KI – erschwert. Zumal wir damit rechnen müssen, dass Angreifer auch Maschinenintelligenz in Stellung bringen.
Solide Maschine, raffinierter Mensch
KI beschleunigt die Malware-, Spam- und Anomalie-Erkennung und steigert zugleich die Trefferquote, weil es riesige Datenmengen nahezu in Echtzeit auswertet. Solche Effizienz können alle Unternehmen gebrauchen. Viele müssen sich zudem fragen, ob es sinnvoll ist, wenn ein Administrator täglich stundenlang Logdateien analysiert. Mit ML ist das ein Akt von Sekunden. Inwieweit KI sich als wichtiger Baustein in ein Sicherheitskonzept fügt, hängt davon ab, wie komplex die IT-Infrastruktur ist und welches Risikolevel ein Unternehmen anstrebt. Eine überlastete interne IT-Abteilung und Budgetgrenzen können weitere Argumente dafür liefern, dass KI-Systeme Teilaufgaben der IT-Sicherheit übernehmen. Konzepte und Maßnahmen müssen Verantwortliche auch weiterhin selbst aktualisieren. So schnell wird sich kein intelligentes Computersystem aufdrängen, strategisches und kreatives Denken zu übernehmen. Selbst die Sieger-Software von der Cyber Grand Challenge war da keine Ausnahme. Bei der inoffiziellen Hacker-Weltmeisterschaft belegte sie den letzten Platz. Die beste Maschine hatte gegen die Menschen keine Chance, die raffinierter und fieser hackten.
Von Ben Kröger, Leitung Professional Service bei Axians IT Security