DevOps

JFrog und AWS beschleunigen die sichere Entwicklung von Machine Learning

JFrog und AWS beschleunigen die sichere Entwicklung von Machine Learning

JFrog Artifactory und Amazon SageMaker

Die neue Integration von JFrog Artifactory und Amazon SageMaker ermöglicht es Entwicklern und Data Scientists, ML-Modelle in der Cloud zu erstellen, zu trainieren und einzusetzen.

JFrog Ltd. (“JFrog”) (Nasdaq: FROG), das Unternehmen für Liquid Software und Entwickler der JFrog Software-Lieferkettenplattform , hat heute eine neue Integration mit Amazon SageMaker angekündigt. Damit können Unternehmen Modelle für maschinelles Lernen (ML) für jeden Anwendungsfall mit einer vollständig verwalteten Infrastruktur, Tools und Workflows erstellen, trainieren und bereitstellen. Durch die Zusammenführung von JFrog Artifactory mit Amazon SageMaker können ML-Modelle zusammen mit allen anderen Komponenten der Softwareentwicklung in einem modernen DevSecOps-Workflow bereitgestellt werden. Dadurch wird jedes Modell unabänderlich, nachvollziehbar, sicher und validiert, bevor es veröffentlicht wird. JFrog hat außerdem neue Funktionen für die ML-Modellverwaltung vorgestellt, mit denen gewährleistet werden kann, dass Compliance und Sicherheit in jedem Schritt der ML-Modellentwicklung berücksichtigt werden.

Kelly Hartman, Senior Vice President of Global Channels and Alliances bei JFrog

„Immer mehr Unternehmen fangen an, Big Data in der Cloud zu verwalten. Daher fragen sich Führungskräfte von DevOps-Teams zunehmend, wie sie Data-Science- und ML-Funktionen skalieren können, um die Softwarebereitstellung zu beschleunigen, ohne Risiken und Komplikationen zu verursachen”, sagt Kelly Hartman, Senior Vice President of Global Channels and Alliances bei JFrog . „Die Kombination von Artifactory und Amazon SageMaker schafft eine “Single-Source-of-Truth” (eine einzige Quelle der Wahrheit), die DevSecOps-Best-Practices für die Entwicklung von ML-Modellen in der Cloud einführt – und damit nicht nur für Flexibilität, Geschwindigkeit, Sicherheit und ein ruhiges Gewissen sorgt, sondern auch neue Spielräume für MLSecOps eröffnet.“

Nach einer aktuellen Forrester-Umfrage nannten 50 Prozent der Entscheidungsträger im Bereich Daten die Anwendung von Governance-Richtlinien innerhalb von KI/ML als die größte Herausforderung für eine breite Nutzung. 45 Prozent nannten die Daten- und Modellsicherheit als ausschlaggebenden Faktor. Die Amazon SageMaker-Integration von JFrog wendet DevSecOps-Best-Practices auf die Verwaltung von ML-Modellen an. So können Developer und Data Scientists die Entwicklung von ML-Projekten unter Einhaltung von Unternehmensstandards, Sicherheit sowie gesetzlichen und organisatorischen Compliance-Anforderungen erweitern, beschleunigen und absichern.

Die neue Amazon SageMaker-Integration von JFrog ermöglicht Unternehmen:

  • die Aufrechterhaltung einer Single-Source-of-Truth für Data Scientists und Entwickler, um sicherzustellen, dass alle Modelle leicht zugänglich, nachvollziehbar und manipulationssicher sind.
  • ML näher an die Workflows des Softwareentwicklungs- und Produktionslebenszyklus heranzubringen, um Modelle vor Löschung oder Änderung zu schützen.
  • die Entwicklung, Schulung, Sicherung und Bereitstellung von ML-Modellen.
  • das Erkennen und Blockieren der Verwendung bösartiger ML-Modelle im gesamten Unternehmen.
  • ML-Modell-Lizenzen zu überprüfen, um die Einhaltung von Unternehmensrichtlinien und gesetzlichen Vorschriften zu gewährleisten.
  • eigene oder intern erweiterte ML-Modelle mit robusten Zugriffskontrollen und Versionshistorie für mehr Transparenz zu speichern.
  • ML-Modelle als Teil jeder Softwareversion zu bündeln und zu verteilen.

„Traditionelle Softwareentwicklungsprozesse und maschinelles Lernen sind voneinander getrennt, da es an der Integration mit bestehenden Tools mangelt", sagt Larry Carvalho, Gründer und Geschäftsführer von RobustCloud. „Gemeinsam bieten JFrog Artifactory und Amazon SageMaker eine integrierte, kontrollierte End-to-End-Umgebung für maschinelles Lernen. Die Zusammenführung dieser Welten stellt einen bedeutenden Fortschritt dar, um Pipelines für maschinelles Lernen mit etablierten Softwareentwicklungslebenszyklen und Best Practices in Einklang zu bringen.”

Zusammen mit seiner Amazon SageMaker-Integration hat JFrog neue Versionierungsfunktionen für seine ML-Modell-Management-Lösung vorgestellt. Diese integrieren die Modellentwicklung in den DevSecOps-Workflow eines Unternehmens, um die Transparenz jeder Modellversion zu erhöhen, sodass Entwickler, DevOps-Teams und Data Scientists sicherstellen können, dass die richtige, sichere Version eines Modells verwendet wird.

Die JFrog-Integration mit Amazon SageMaker, die jetzt für JFrog-Kunden und Amazon SageMaker-Benutzer zur Verfügung steht, gewährleistet, dass alle Artefakte, die von Data Scientists verwendet oder zur Entwicklung von ML-Anwendungen genutzt werden, aus JFrog Artifactory bezogen und dort gespeichert werden.

Für einen tieferen Einblick in die Integration und ihre Funktionsweise lesen Sie diesen Blogartikel . Außerdem können Sie sich für das Webinar „Building for the future: DevSecOps in the era of AI/ML model development“ von JFrog und AWS am Mittwoch, den 31. Januar um 1 p.m. ET/10 a.m. PT anmelden: Dort werden Best Practices für die Einführung von Modellnutzung und -entwicklung in sichere Software-Lieferketten- und Entwicklungsprozesse vorgestellt.