KI
Die transformative Kraft der KI sicher nutzen
Von Deepen Desai, CSO und Leiter der Sicherheitsforschung von Zscaler
Künstliche Intelligenz (KI) ist heutzutage tief in die IT-Prozesse von Finanzinstituten eingebettet. Wie neue KI-Tools sicher eingesetzt und gleichzeitig gegen KI-basierte Bedrohungen verteidigt werden können, wird jedoch noch diskutiert. Und Vorschriften für den ethischen Einsatz der KI müssen noch Laufen lernen.
Unternehmen setzen KI- und ML-Tools breit gefächert in allen Abteilungen wie in der Entwicklung, der IT, im Marketing, im Finanzwesen, im Customer Success und in vielen weiteren Bereichen ein. Sie müssen jedoch die zahlreichen Risiken abwägen, die mit diesen Tools verbunden sind, um deren Vorteile voll ausschöpfen zu können. Um das transformative Potenzial von KI vollumfänglich zu erschließen, müssen Unternehmen sichere Kontrollmechanismen zum Schutz ihrer Daten implementieren, den Verlust sensibler Informationen verhindern, die Ausbreitung von „Schatten-KI“ eindämmen und die Qualität der KI-Daten sicherstellen. Mit den Chancen, die sich im Zusammenhang mit dem Einsatz von KI ergeben, gehen allerdings auch Risiken einher, denn auch außerhalb des Unternehmens ist KI zu einer treibenden Kraft für Cyber-Bedrohungen geworden.
Mit Hilfe dieser Tools können Bedrohungsakteure ausgefeilte Angriffe schneller und in größerem Umfang starten. Trotzdem ist die KI ebenso ein vielversprechender Baustein für die Cyberabwehr, um Unternehmen angesichts der dynamischen Bedrohungslandschaft besseren Schutz zu bieten. Der Zscaler ThreatLabz 2024 AI Security Report bietet Einblicke in diese kritischen KI-Herausforderungen und Chancen. Auf der Grundlage von mehr als 18 Milliarden Transaktionen, die zwischen April 2023 und Januar 2024 über die Zscaler Zero Trust Exchange abgewickelt wurden, analysierte ThreatLabz, wie Unternehmen heute KI- und ML-Tools einsetzen. Diese Einblicke zeigen branchen- und länderübergreifend Trends auf, wie sich Unternehmen an die sich wandelnde KI-Landschaft anpassen und ihre KI-Tools absichern.
KI-Transaktionen steigen um 600 Prozent an
Von April 2023 bis Januar 2024 wuchsen die KI- und ML-Transaktionen in Unternehmen um fast 600 Prozent und stiegen im Januar auf mehr als 3 Milliarden monatliche Transaktionen in der Zero Trust Exchange. Dies unterstreicht die Tatsache, dass trotz einer steigenden Zahl von Sicherheitsvorfällen und Datenrisiken im Zusammenhang mit der Einführung von KI in Unternehmen ihr transformatives Potenzial zu groß ist, um ignoriert zu werden. Die Datenmengen, die Unternehmen mit Hilfe von KI-Tools senden und empfangen, verstärken diesen Trend noch: 569 Terabyte an Unternehmensdaten werden von diesen Tools verarbeitet. Einhergehend mit der wachsenden Verbreitung von KI in Unternehmen werden KI- und ML-Transaktionen aufgrund von Daten- und Sicherheitsbedenken allerdings auch zunehmend blockiert. Heute blocken Unternehmen 18,5 Prozent aller KI-Transaktionen, was einem Anstieg von 577 Prozent von April bis Januar entspricht und insgesamt mehr als 2,6 Milliarden gestoppten Transaktionen bedeutet.
Finanz- und Versicherungswesen blockieren mit 37 Prozent die meisten KI-/ML-Transaktionen
Die vertikalen Sektoren weisen beachtliche Unterschiede bei der Einführung von KI-Tools und dem Anteil der von ihnen blockierten KI-Transaktionen auf. Das verarbeitende Gewerbe ist mit mehr als 20 Prozent der KI- und ML-Transaktionen der klare Spitzenreiter, dicht gefolgt vom Finanz- und Versicherungssektor. Zusammen mit dem Dienstleistungs- und Technologiesektor haben sich diese vier Branchen als die aktivsten KI-Anwender hervorgetan. Parallel zu dem starken Anstieg der KI-Transaktionen blockieren die Branchen gleichzeitig auch mehr KI-Transaktionen. Einige Branchen weichen von den allgemeinen Einführungstrends ab, was unterschiedliche Prioritäten und Reifegrade bei der Nutzung von KI-Tools widerspiegelt. Der Finanz- und Versicherungssektor zeigt die vorsichtigste Nutzung mit dem größten Anteil an blockierten KI-Transaktionen: 37,2 Prozent gegenüber dem weltweiten Durchschnitt von 18,5 Prozent. Diese Zurückhaltung ist auch auf das strenge Regulierungs- und Compliance-Umfeld der Branche in Verbindung mit den hochsensiblen finanziellen und persönlichen Nutzerdaten zurückzuführen.
Das produzierende Gewerbe blockiert 15,7 Prozent der KI-Transaktionen trotz seiner führenden Position an KI-Transaktionen insgesamt. Der Technologiesektor, einer der frühen und eifrigsten Anwender von KI, hat eine Art Mittelweg eingeschlagen und blockiert überdurchschnittliche 19,4 Prozent der KI-Transaktionen und arbeitet zeitgleich an der weiteren KI-Einführung. Überraschenderweise blockiert die Gesundheitsbranche unterdurchschnittliche 17,2 Prozent der KI-Transaktionen, obwohl diese Organisationen eine große Menge an Gesundheitsdaten und personenbezogenen Informationen (PII) verarbeiten. Dieser Trend spiegelt vermutlich die schleppenden Bemühungen der Gesundheitsorganisationen wider, sensible Daten zu schützen, die von KI-Tools genutzt werden, da die Sicherheitsteams erst mit der KI-Innovation aufholen. Insgesamt bleiben die KI-Transaktionen im Gesundheitswesen vergleichsweise gering.
Finanzinstitute setzen auf KI
Finanzdienstleistungsunternehmen haben die Ära der KI schon früh für sich eingeläutet. Auf diesen Sektor entfällt fast ein Fünftel des KI-/ML-Datenverkehrs in der Zscaler-Cloud. Darüber hinaus geht McKinsey davon aus, dass generative KI-Initiativen im Bankwesen einen potenziellen Jahresumsatz von 200 bis 340 Milliarden US-Dollar generieren könnten, der größtenteils auf Produktivitätssteigerungen zurückzuführen ist. Der Einsatz von KI stellt eine Fülle von Möglichkeiten für Banken und Finanzdienstleister dar. KI-gestützte Chatbots und virtuelle Assistenten sind zwar nichts Neues im Finanzwesen – „Erica“ der Bank of America wurde bereits 2018 eingeführt) – aber generative KI-Verbesserungen heben diese Kundenservice-Tools auf ein neues Niveau der Personalisierung. Andere KI-Fähigkeiten wie voraussagende Modellierung und Datenanalyse werden massive Produktivitätsvorteile für den Finanzbetrieb prognostiziert und die Betrugserkennung, Risikobewertung und vieles mehr verändern. Die Integration von KI in Finanzdienstleistungen und -produkte wirft auch Sicherheits- und regulatorische Bedenken hinsichtlich Datenschutz, Verzerrungen und Genauigkeit auf. Die von ThreatLabz gemeldeten 37 Prozent blockierter KI-/ML-Datentransaktionen spiegeln diese Perspektive wider. Der Umgang mit diesen Bedenken erfordert eine kluge Aufsicht und Planung, um das Vertrauen und die Integrität im Bank-, Finanzdienstleistungs- und Versicherungswesen zu erhalten.
Schutz von geistigem Eigentum und nicht-öffentlichen Informationen
Jedes Unternehmen ist mit den folgenden Risiken und Prioritäten konfrontiert, wenn es um die Einführung von generativer KI in Unternehmen geht:
- Schutz von geistigem Eigentum und nicht-öffentlichen Informationen
- Datenschutz und Sicherheitsrisiken von KI-Anwendungen
- Bedenken hinsichtlich Datenunreinheit und Datenqualität: „Garbage in, garbage out“
- Absicherung der Nutzung von KI-Anwendungen für die Produktivität durch Richtlinien und Transparenz
Generative KI-Tools können dazu führen, dass sensible und vertrauliche Daten ungewollt preisgegeben werden. Tatsächlich steht die Offenlegung sensibler Daten auf Platz sechs der Top Ten des Open Worldwide Application Security Project (OWASP) für KI-Anwendungen. Im vergangenen Jahr gab es bei einigen der größten Anbieter von KI-Tools zahlreiche Fälle von versehentlichen Datenlecks oder Verletzungen von KI-Trainingsdaten, unter anderem aufgrund von Fehlkonfigurationen in der Cloud – und bei einigen dieser Vorfälle wurden Terabytes an privaten Kundendaten offengelegt. Ein mit der KI verbundenes Risiko ist die Bedrohung durch die Modellinversion, bei der Angreifer die Ergebnisse eines LLM (Large Language Model) in Verbindung mit dem Wissen über seine Modellstruktur nutzen, um Rückschlüsse auf seine Trainingsdaten zu ziehen und diese gegebenenfalls zu extrahieren. Darüber hinaus besteht auch das Risiko, dass KI-Unternehmen selbst kompromittiert werden. Es gibt bereits Fälle, in denen die Anmeldedaten von Mitarbeitenden von KI-Unternehmen direkt zu Datenlecks geführt haben.
Zusätzlich besteht heute die Möglichkeit, dass Angreifer sekundäre Malware-Angriffe mit Information Stealern wie Redline Stealer oder LummaC2 starten, um die Anmeldedaten von Mitarbeitenden zu stehlen und Zugang zu deren KI-Konten zu erhalten. Kürzlich wurde bekannt, dass etwa 225.000 ChatGPT-Anmeldedaten im Dark Web zum Verkauf angeboten werden, die auf diese Art von Angriffen zurückzuführen sind. Auch wenn Datenschutz und Datensicherheit bei Anbietern von KI-Tools nach wie vor oberste Priorität haben, bleiben diese Risiken bestehen und betreffen auch kleinere KI-Unternehmen oder SaaS-Anbieter, die KI-Funktionen aktiviert haben, und ähnliche Unternehmen.
Nicht zuletzt gibt es noch die Risiken, die von den Usern der KI in Unternehmen selbst ausgehen. Es gibt zahlreiche Möglichkeiten, wie man bei der Nutzung unwissentlich wertvolles geistiges Eigentum oder nicht öffentliche Informationen in die Datensätze zum Training von LLMs einbringen kann. So könnten beispielsweise unbeabsichtigt sensible Informationen das Unternehmen verlassen, wenn eine Optimierung des Quellcodes angefordert wird oder ein Mitglied des Vertriebsteams auf Grundlage interner Daten nach Vertriebstrends sucht. Unternehmen müssen sich dieses Risikos bewusst sein und robuste Datenschutzmaßnahmen einschließlich Data Loss Prevention (DLP) implementieren, um solche Lecks zu verhindern.
Datenschutz und Sicherheitsrisiken von KI-Anwendungen
Um den Datenschutz und die Datensicherheit zu gewährleisten, müssen Unternehmen die Vielzahl der von ihnen genutzten KI-/ML-Anwendungen einordnen können und Risikowerte zuweisen, wobei Faktoren wie Datenschutz und die Sicherheitsmaßnahmen des Unternehmens zu berücksichtigen sind. Die Qualität und der Umfang der Daten, die zum Trainieren von KI-Anwendungen verwendet werden, müssen immer genau geprüft werden, da sie direkt mit dem Wert und der Vertrauenswürdigkeit der KI-Ergebnisse verbunden sind. Während große KI-Anbieter wie OpenAI ihre Tools auf weithin verfügbaren Ressourcen wie dem öffentlichen Internet trainieren, müssen Anbieter von KI-Produkten in spezialisierten oder vertikalisierten Branchen wie der Cybersicherheit ihre KI-Modelle auf hochspezifischen, großen, oft privaten Datensätzen trainieren, um zuverlässige KI-Ergebnisse zu erzielen.
Datenverunreinigung und Bedenken hinsichtlich der Datenqualität
Unternehmen müssen bei der Evaluierung jeder KI-Lösung die Frage der Datenqualität sorgfältig prüfen, da korrupte Daten zu korrupten Ergebnissen führen können. Allgemeiner ausgedrückt: Unternehmen sollten sich des Risikos der Datenvergiftung bewusst sein, wenn sie KI-Lösungen evaluieren. Denn wenn Trainingsdaten verunreinigt sind, kann die Zuverlässigkeit oder Vertrauenswürdigkeit der KI-Ergebnisse beeinträchtigt werden. Unabhängig vom KI-Tool sollten Unternehmen eine solide Sicherheitsgrundlage schaffen, um sich auf solche Eventualitäten vorzubereiten und gleichzeitig kontinuierlich zu bewerten, ob die KI-Trainingsdaten und GenAI-Ergebnisse ihren Qualitätsstandards entsprechen.
Abgesicherte Nutzung von KI-Anwendungen zur Steigerung der Produktivität durch Richtlinien und Transparenz (Bildquelle: Zscaler)
Ausblick
Die unterschiedlichen Branchen setzen KI-Tools bereits in unterschiedlichem Umfang. Deren Potenzial ist noch lange nicht ausgeschöpft. Insbesondere der Finanzsektor könnte noch weit mehr von Effizienzsteigerung durch KI profitieren. Gleichzeitig müssen Unternehmen jedoch auch proaktiv an der sicheren Nutzung von KI-Tools arbeiten, da sie in selben Maß von kriminellen Akteuren ausgenutzt werden können. Unternehmen, die den schwierigen Spagat meistern, können sich die volle transformative Kraft von KI zunutze machen.