Cybercrime

Cybercrime: Angreifer nutzen zunehmend generative KI

Cybercrime: Angreifer nutzen zunehmend generative KI

Check Point warnt vor Cyber-Kriminellen, die generative KI zunehmend für ausgefeilte Cyber-Kriminalität missbrauchen, einschließlich Social-Media-Identitätsbetrug, Spam-Kampagnen, KI-basierte Deepfake-Services und KYC-Verifizierungsdienste.

Hacker nutzen generative KI für Spam-Kampagnen, Social-Media-Identitätsbetrug und Verifizierungsdienste

Anfang 2023 haben die Sicherheitsforscher die ersten Hinweise auf das Interesse von Hackern an der Nutzung von ChatGPT zur Entwicklung von Malware, Verschlüsselungstools und anderen Angriffsvektoren, die generative KI nutzen, veröffentlicht. Darüber hinaus begannen russische Cyber-Kriminelle sofort zu diskutieren, wie sie jegliche Länder-Beschränkungen umgehen und ChatGPT für illegale Zwecke nutzen könnten.

Ein Jahr nach dem Start von ChatGPT stellten die Experten fest, dass der Einsatz generativer KI für viele Cybercrime Services alltäglich geworden ist, insbesondere im Bereich des Identitätsbetrugs und Social Engineering. Einige Banden haben das Potenzial der generativen KI als Werkzeug zur Steigerung der Effektivität ihrer Dienste erkannt und prahlen sogar damit.

Beispiele: Black-Hat-Plattform für Social-Media-Identitätsbetrug im großen Stil

Fake-Accounts auf Social-Media-Plattformen stellen eine erhebliche Bedrohung für die IT-Sicherheit dar, da sie das Potenzial für bösartige Aktivitäten, Markenimitationen, die Verbreitung von Desinformationen und vieles mehr haben. Im Dezember 2023 bot ein erfahrener Hacker mit dem offiziellen Status eines Verkäufers in einem glaubwürdigen russischen Untergrundforum eine einsatzbereite Plattform zum Verkauf an, die KI als Kernmodul zur Generierung von Inhalten für Social-Media-Plattformen wie Instagram, Facebook, Twitter und Telegram einsetzt. Damit kann die Pflege von Fake-Konten in sozialen Medien fast vollständig automatisiert werden.

In einem Fall zeigt der Hacker generierte Inhalte für weibliche Models. In einem anderen Beispiel erstellte der Akteur eine Reihe von gefälschten Profilen, die die von erfolgreichen Finanzhändlern nachahmen.

Der Bedrohungsakteur erklärt, dass er erst während der Arbeit an seiner Plattform erkannte, wie leistungsfähig diese Tools sind. Er bietet nun zwei Geschäftsmodelle an – Die Verwaltung gefälschter Social-Media-Konten. Der Bedrohungsakteur und sein Team erstellen alle erforderlichen Konten auf Instagram, Facebook, Telegram und Twitter. Anschließend generieren sie automatisch Inhalte und bewerben die Konten, um ihnen Sichtbarkeit und ein Gefühl der Authentizität zu verleihen, indem sie zum Beispiel relevanten Gruppen beitreten und Konten mit ähnlichen Themenfolgen.

Als Beweis für das Konzept zeigt der Schauspieler ein Beispiel von 20 Konten weiblicher Models, die mithilfe von KI erstellt und betrieben wurden. Die Plattform kann gleichzeitig Inhalte für über 200 Konten erstellen und tägliche Posts und Reels generieren. Die von der KI verwalteten Konten ziehen Follower an, und der Traffic von allen Konten kann für beliebige böswillige Zwecke genutzt werden. Dieser verwaltete Service kostet 50 US-Dollar (46,32 Euro) für ein einzelnes Instagram-Konto pro Monat und ein Paket mit verbundenen gefälschten Social-Media-Konten in vier Netzwerken kostet 70 US-Dollar (64,85 Euro). Die Mindestbestellmenge liegt bei zehn Konten. Die Plattform wird so verkauft, wie sie ist: Das heißt, der Käufer kümmert sich selbst um die Verwaltung aller KI-gesteuerten Konten. Eines der Hauptmerkmale des Plattformbesitzes ist die Möglichkeit, Inhalte hochzuladen und sie mit KI anzureichern.
Der Preis für die Plattform beträgt 5000 (4632 Euro)US-Dollar.