Cloud-Sicherheit: Tipps von Palo Alto Networks
München, den 22. Juni 2016 – Eine wachsende Zahl von Unternehmen setzt mittlerweile auf eine Mischung aus lokal betriebener Hardware und Cloud-Computing-Anwendungen, um die Gesamtbetriebskosten in den Griff zu bekommen und die betriebliche Effizienz zu steigern. Mit großen Veränderungen gehen aber auch große Herausforderungen einher. So weist Palo Alto Networks darauf hin, dass es entscheidende Unterschiede gibt zwischen den Sicherheitsmaßnahmen für Cloud-basierte Technologien und traditionelle Hardware-basierte Rechenzentren beziehungsweise lokal betriebene Infrastrukturen.
„Ein Rechenzentrum ist eine feste Umgebung, in der Anwendungen auf dedizierten Servern ausgeführt werden, auf die nur autorisierte Benutzer zugreifen können. Im Gegensatz dazu ist eine Cloud-Umgebung dynamisch und automatisiert. Rechenressourcen-Pools stehen bei Bedarf zu jeder Zeit, von jedem Gerät aus zur Verfügung, um Anwendungsarbeitslasten zu unterstützen“, erklärt Thorsten Henning, Senior Systems Engineering Manager Central & Eastern Europe bei Palo Alto Networks. „Es scheint fast so, dass viele der Prinzipien, die Cloud Computing gerade so attraktiv machen, konträr sind zu bewährten Sicherheitspraktiken sind.“
Palo Alto Networks hat die Sicherheit von traditionellen und Cloud-basierten Rechenzentren gegenübergestellt und die drei wichtigsten Anforderungen für Cloud-Sicherheit definiert.
Cloud Computing reduziert vorhandene Netzwerksicherheitsrisiken nicht
Die Sicherheitsrisiken, die ein Rechenzentrum und Netzwerk heute bedrohen, verändern sich, sobald Anwendungen in die Cloud verlagert werden. Zum Beispiel verwenden viele Anwendungen im Rechenzentrum eine breite Palette von Ports, was herkömmliche Sicherheitsmaßnahmen ineffektiv macht, wenn diese Anwendungen in die Cloud verschoben werden. Cyberkriminelle kreieren anspruchsvolle, Port-unabhängige Angriffsszenarien, um über verschiedene Angriffsvektoren mithilfe gängiger Anwendungen ihr Ziel zu kompromittieren.
Sicherheit erfordert Trennung und Segmentierung – die Cloud basiert jedoch auf gemeinsam genutzten Ressourcen
Seit Jahrzehnten geben Best Practices für Informationssicherheit vor, dass geschäftskritische Anwendungen und Daten in sicheren, getrennten Segmenten im Netzwerk vorgehalten werden sollen. Oft wird dies als Zero-Trust-Prinzip bezeichnet: Nie vertrauen, immer überprüfen. Auf einem physischen Netzwerk innerhalb des eigenen Rechenzentrums ist Zero Trust relativ einfach mithilfe von Firewalls und VLANs umzusetzen. Hinzu kommen Regeln auf Basis der Anwendungs- und Benutzeridentität.
In einer Cloud-Umgebung hingegen erfolgt eine ständige Kommunikation zwischen den virtuellen Maschinen innerhalb eines Servers, in einigen Fällen über verschiedene Vertrauensebenen hinweg. Dies macht die Segmentierung zu einer schwierigen Aufgabe, zumal Cloud-Anwendungen auf gemeinsam genutzten Ressourcen basieren. Unterschiedliche Vertrauensebenen in Kombination mit mangelnder Sichtbarkeit des Datenverkehrs durch virtualisierte Port-basierte Sicherheitslösungen können die Sicherheitslage gefährden.
Sicherheitskonfigurationen sind prozessorientiert, Cloud-Umgebungen sind dynamisch
Virtuelle Arbeitslasten können in wenigen Minuten erstellt oder geändert werden. Die Einrichtung der Sicherheitskonfiguration für die jeweiligen Arbeitslasten kann Stunden, Tage oder Wochen erfordern. So entstehen Diskrepanzen zwischen Sicherheitspolitik und Bereitstellung von Arbeitslasten in der Cloud. Das Ergebnis ist eine geschwächte Sicherheitslage, wodurch wichtige Daten und geistiges Eigentum gefährdet werden. Zudem kann es zu Verstößen gegen Compliance- und Governance-Richtlinien und entsprechende gesetzliche Verordnungen kommen.
Palo Alto Networks hat daher drei Schlüsselanforderungen für die Absicherung der Cloud definiert:
1. Konsequente Sicherheit in physischen und virtualisierten Formfaktoren. Das gleiche Niveau für Anwendungskontrolle, gefälschte und falsch konfigurierte Anwendungen sowie Bedrohungsabwehr ist nötig, um sowohl die Cloud-Umgebung als auch das physische Netzwerk zu schützen.
2. Segmentierung von Geschäftsanwendungen entsprechend Zero-Trust-Grundsätzen. Um die Auslastung von IT-Ressourcen zu maximieren, ist es eine relativ gängige Praxis, Vertrauensebenen für Anwendungs-Workloads auf der gleichen Rechenressource zu mischen. Ziel muss es sein, den Verkehr zwischen Workloads zu kontrollieren und die seitliche Bewegung von Bedrohungen zu verhindern.
3. Zentrale Verwaltung von Sicherheitsimplementierungen und optimierte Aktualisierung von Sicherheitsregeln. Physische Netzwerksicherheit wird nach wie vor in den meisten Unternehmen eingesetzt. Entscheidend ist es, sowohl Hardware- als auch virtuelle Umgebungen von einem zentralen Standort aus verwalten zu können – über die gleiche Management-Infrastruktur und -Schnittstelle. Die gewählte Lösung muss in der Lage sein, physische und virtuelle Umgebungen vollständig abzudecken durch ein einheitliches Policy-Management und Regelwerk zur Durchsetzung der Sicherheitsregeln. Features für eine automatische Aktualisierung von Sicherheitsregel-Updates ergänzen den Funktionsumfang.