ChatGPT-Traffic

ChatGPT-Traffic schützen und verwalten: Palo Alto Networks hilft mit App-IDs

ChatGPT-Traffic schützen und verwalten: Palo Alto Networks hilft mit App-IDs

Künstliche Intelligenz eröffnet viele Möglichkeiten – ein realistisches Szenario wäre: Ein Junior-Assistent der Geschäftsführung arbeitet an einem vertraulichen Vertrag und fühlt sich sprachlich und thematisch noch etwas unsicher. Er greift auf ein leistungsstarkes KI-Tool zurück, das seinen Text bis zur Perfektion verbessern kann. Er schickt seinen Vertragsentwurf eifrig an den KI-Chatbot, und dieser liefert beeindruckende Ergebnisse. Später stellt er jedoch fest, dass sein vertrauliches Dokument in das KI-Modell eingespeist wurde und möglicherweise von KI-Trainern gelesen werden könnte. Schlimmer noch, es ist möglich, dass der Vertrag nun zum Trainieren des Modells dient und in den Ergebnissen anderer Benutzer erscheint. Das Dilemma der Benutzerfreundlichkeit und der Sicherheit von KI-Tools ist seit der Veröffentlichung von ChatGPT zu einem echten Problem geworden.

ChatGPT ist ein KI-Chatbot, der auf GPT-3.5 und den neueren GPT-4-Modellen von OpenAI aufbaut. Mit über 100 Millionen monatlich aktiven Nutzern hat sich ChatGPT zum meistbeachteten KI-Produkt im Internet entwickelt. Einige der Fähigkeiten von ChatGPT sind die Generierung natürlicher Sprache, Beantwortung von Fragen, Stimmungsanalyse, Übersetzung oder Erstellung von Inhalten. Trotz seiner beeindruckenden Fähigkeiten bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) hat ChatGPT jedoch auch viele Bedenken hinsichtlich Plagiaten, Datenschutz und Datenlecks aufgeworfen.

Die Sicherheitsprobleme von ChatGPT

Italien hat im März ChatGPT vorübergehend verboten, da Bedenken bestanden, dass das KI-Tool gegen die nationalen Richtlinien zur Datenerfassung verstößt. In der Zwischenzeit haben Unternehmen wie Amazon und Walmart Maßnahmen ergriffen. Sie haben ihre Mitarbeiter gewarnt, bei der Nutzung generativer KI-Dienste vorsichtig zu sein: Sie sollen keine Informationen an KI-Systeme wie ChatGPT weitergeben und keinen Code mit dem KI-Chatbot teilen. Tatsächlich haben Samsung-Mitarbeiter versehentlich Geschäftsgeheimnisse über ChatGPT weitergegeben.

Die oben erwähnten Fähigkeiten von ChatGPT könnten in mehrfacher Hinsicht zu Sicherheitsproblemen führen. Die Funktionalität könnte Angreifern helfen, bösartigen Code zu schreiben, in den verschiedene Verschleierungen eingebettet sind. Angreifer könnten damit den Inhalt für Social-Engineering-Angriffe erweitern, um überzeugende Phishing-Inhalte zu erstellen. Nicht zuletzt besteht auch ein potenzielles Sicherheitsrisiko durch Datenlecks, da die Nutzer möglicherweise sensible Daten in das Modell eingeben, die später abgerufen werden können.

Einem kürzlich veröffentlichten Blogpost der Forscher von Unit 42 zufolge sind Betrugsangriffe mit ChatGPT-Themen auf dem Vormarsch. Zwischen November 2022 und Anfang April 2023 stellten die Forscher einen 910-prozentigen Anstieg der monatlichen Registrierungen von Domains mit ChatGPT-Bezug und einen Anstieg der entsprechenden Squatting-Domains in den DNS Security Logs sogar um 17.818 Prozent fest. Das Forschungsteam präsentierte mehrere Fallstudien, um die verschiedenen Methoden zu veranschaulichen, mit denen Betrüger Benutzer zum Herunterladen von Malware oder zur Weitergabe vertraulicher Informationen verleiten. Sie wiesen auf die potenziellen Gefahren bei der Verwendung von nachgemachten Chatbots hin und warnten ChatGPT-Benutzer, solchen Chatbots mit einer defensiven Einstellung zu begegnen. Palo Alto Networks hat im Rahmen seiner Abonnement-Lösungen Advanced URL Filtering, DNS Security und WildFire dieses Problem aufgegriffen.

App-IDs im Zusammenhang mit OpenAI

Palo Alto Networks beobachtet sorgfältig die neuesten KI-Trends und bewertet aktiv die damit verbundenen potenziellen Bedrohungen. Um die Sichtbarkeit von OpenAI-bezogenem Datenverkehr zu erhöhen und Kunden bei der Verwaltung und Kontrolle der ChatGPT-Nutzung mit seinen Next-Generation Firewalls (NGFWs) zu unterstützen, hat das Unternehmen im April drei OpenAI-bezogene App-IDs veröffentlicht: openai-base, openai-chatgpt und openai-api.

  • openai-base: Deckt den allgemeinen Datenverkehr von OpenAI ab, mit Ausnahme von ChatGPT. Diese App-ID umfasst den Netzwerkverkehr im Zusammenhang mit Forschung, Entwickler-Tutorials und -Dokumentation, Unternehmensinformationen und Produkten (wie DALL-E). Sie wird auch als openai-base im Traffic-Log der NGFWs auf der OpenAI-Website angezeigt.
  • openai-chatgpt: Deckt den Traffic einer webbasierten ChatGPT-Schnittstelle ab, als eine allgemeinere Art, ChatGPT unter gelegentlichen Anwendern zu benutzen.
  • openai-api: Deckt den gesamten API-bezogenen Traffic von OpenAI ab, nicht nur ChatGPT, sondern auch andere Funktionen wie Bilderzeugung. OpenAI stellt APIs zur Verfügung, um den Zugriff auf KI-Modelle programmatisch zu ermöglichen. Die KI-Modelle, die ChatGPT unterstützen, wie z.B. GPT-3 und GPT-4, können über OpenAI-APIs angesprochen werden, was einen allgemeineren Weg darstellt, ChatGPT unter Entwicklern zu nutzen.

Um den Prozess des OpenAI-Traffic-Managements zu vereinfachen, wurde ein App-ID-Container openai veröffentlicht, der alle drei oben genannten App-IDs enthält (siehe Abbildung 1).

Verwaltung des OpenAI-Verkehrs durch Sicherheitsrichtlinien

Die drei OpenAI App-IDs ermöglichen es den Kunden von Palo Alto Networks NGFW, die Erreichbarkeit von ChatGPT flexibel zu kontrollieren und zu verwalten und den OpenAI-Traffic, der von verschiedenen Schnittstellen aus generiert wird, deutlich sichtbar zu machen. Die drei App-IDs werden separat identifiziert, so dass eine einfache Blockierung von openai-base nicht openai-chatgpt oder openai-api blockieren kann.

Die Konfiguration der Sicherheitsrichtlinien für die Verwaltung des OpenAI-Verkehrs durch die drei App-IDs zeigt unterschiedliche Szenarien. In Abbildung 2 bedeutet ✅ in der Sicherheitsregel „erlauben“ und 🚫 „verweigern“.

Palo Alto Networks möchte darauf hinweisen, dass, wenn Benutzer eine App-ID zulassen möchten, auch „abhängige“ App-IDs zugelassen werden sollten, damit die Anwendung voll funktionsfähig ist. Zum Beispiel hängt die openai-base App-ID von SSL, Web-Browsing und WebSocket ab. Diese drei App-IDs müssen zusammen mit openai-base zugelassen werden. Wenn Benutzer openai-chatgpt oder openai-api zulassen möchten, muss openai-base (einschließlich seiner drei „depends on“ App-IDs) ebenfalls zugelassen werden, um vollen Zugriff zu erhalten.

Neue Herausforderungen durch KI

Die immer beliebter werdende KI-Anwendung ChatGPT bringt neue Herausforderungen und Bedrohungen für die heutige digitale Landschaft mit sich. Ausgestattet mit den drei OpenAI App-IDs ermöglicht Palo Alto Networks NGFW eine flexible Kontrolle und Verwaltung der ChatGPT-Nutzung und des Zugriffs. Diese App-IDs ermöglichen den Administratoren von Unternehmensnetzwerken auch eine bessere Sichtbarkeit der ChatGPT-Nutzung. Dies erhöht die Sicherheit des Unternehmensnetzwerks und mildert potenzielle Datenverletzungen. Enterprise DLP hilft auch, die Datenexfiltration zu ChatGPT zu verhindern.

Es gibt und wird immer mehr Chatbots wie ChatGPT geben, die auf großen Sprachmodellen (Large Langue Models, LLMs) basieren. Die richtigen Sicherheitslösungen werden dabei helfen, auch diese neueren Probleme in Zukunft zu lösen.