Akamai-Studie
E-Commerce-Sektor ist besonders stark von Web-Scraper-Bots betroffen

Akamai Technologies, Inc., ein führender Anbieter von Web-, Cloud- und Sicherheitslösungen, veröffentlichte kürzlich seinen neuen „State of the Internet-Bericht (SOTI) mit dem Titel „Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft“. Dieser Bericht beleuchtet die Risiken und Bedrohungen, denen Unternehmen durch die zunehmende Verbreitung von Web-Scraping-Bots ausgesetzt sind. Laut der Studie machen Bots 42 Prozent des gesamten Webtraffics aus, wobei 65 Prozent dieser Bots als schädlich eingestuft werden.
Der E-Commerce-Sektor ist besonders stark von riskantem Bot-Traffic betroffen. Dies liegt an der Abhängigkeit dieses Sektors von umsatzgenerierenden Webanwendungen. Während einige Bots nützlich sein können, werden Web-Scraper-Bots oft für schädliche Zwecke wie Wettbewerbsanalyse, Bestandsmanipulation, Erstellung gefälschter Websites und andere bösartige Aktivitäten verwendet. Diese Praktiken können negative Auswirkungen auf das Geschäft und das Kundenerlebnis haben. Obwohl es keine Gesetze gibt, die die Verwendung von Scraper-Bots verbieten, sind diese Bots aufgrund fortschrittlicher KI-Botnets zunehmend schwer zu erkennen. Dennoch gibt es Maßnahmen, die Unternehmen ergreifen können, um sich zu schützen. Patrick Sullivan, CTO für Sicherheitsstrategie bei Akamai, erklärt, dass Bots weiterhin erhebliche Herausforderungen darstellen, die für Anwendungs- und API-Eigentümer problematisch sein können. Zu diesen Herausforderungen gehört das Scraping, bei dem Angreifer Web-Daten stehlen und Websites erstellen, die eine Marke imitieren. Die Scraper-Landschaft hat sich mit der Einführung von Header-losen Browsern weiterentwickelt, was Unternehmen zwingt, auf immer ausgefeiltere Botaktivitäten zu reagieren.
Der Bericht enthält wichtige Erkenntnisse über die Auswirkungen von KI-Botnets und Scraper-Bots. KI-Botnets sind in der Lage, unstrukturierte Daten in weniger konsistenten Formaten zu erkennen und zu verarbeiten. Sie können Geschäftsinformationen erfassen, extrahieren und verarbeiten, um den Entscheidungsprozess zu verbessern. Mit Scraper-Bots können Angreifer auch komplexe Phishing-Kampagnen durchführen, indem sie Produktbilder, Beschreibungen und Preisinformationen erfassen und gefälschte Schaufenster oder Phishing-Websites erstellen. Diese Websites zielen darauf ab, Anmeldedaten oder Kreditkarteninformationen zu stehlen.
Weiterhin können Bots zur missbräuchlichen Erstellung von Konten eingesetzt werden, was nach aktuellen Untersuchungen bis zu 50 Prozent der durch Betrug verursachten Verluste ausmacht. Unabhängig davon, ob das Scraping mit guten oder schädlichen Absichten durchgeführt wurde, sind Unternehmen technischen Auswirkungen ausgesetzt. Dazu gehören eine Verschlechterung der Website-Performance, Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten, erhöhte Rechenkosten und weitere Probleme.
Der aktuelle SOTI-Bericht von Akamai zeigt verschiedene Abwehrstrategien gegen Scraper-Bots und enthält eine Fallstudie, die darlegt, wie Websites effizienter funktionieren, wenn Abwehrmechanismen implementiert sind. Darüber hinaus werden Compliance-Themen angesprochen, die angesichts der zunehmenden Angriffe berücksichtigt werden müssen.
Dieses Jahr feiern die SOTI-Berichte von Akamai ihr zehnjähriges Jubiläum. Sie bieten Experteneinblicke in die Bereiche Cybersicherheit und Webperformance, basierend auf Daten, die von der Akamai Connected Cloud gesammelt wurden.