Digital Transformation EXPO Europe
Pure Storage diskutiert KI & Ethik: Risiken und Vorteile

Wie sollen Unternehmen vorgehen?
Unabhängig von der jeweiligen persönlichen Meinung wird künstliche Intelligenz (KI) immer mehr zu einem entscheidenden Faktor in der Geschäftswelt und im Alltag. Sie ermöglicht es, riesige Datenmengen zu analysieren und kann positive Veränderungen bewirken. Es gibt bereits KI-Initiativen, die darauf abzielen, Heilmittel für Krankheiten zu finden, Ernteausfälle vorherzusagen oder die Produktivität von Unternehmen zu verbessern.
Obwohl es viele positive Assoziationen gibt, lassen sich auch die Bedenken nicht einfach ignorieren. Verzerrte Daten, gefälschte Videos und Wahlmissbrauch sind einige der Begriffe, die bei der Diskussion über KI im Vordergrund stehen. So wie die erste industrielle Revolution im viktorianischen Zeitalter eine Debatte über Ethik und Menschenrechte auslöste, muss heute eine ähnliche Diskussion geführt werden. Wie bekommen wir die Ethik der KI in die richtige Bahn? Wer übernimmt letztlich die Verantwortung?
Auf der Digital Transformation EXPO Europe diskutierte dazu Patrick Smith, Field CTO EMEA bei Pure Storage mit ausgewählten Experten. Dazu gehörten Zoe Kleinman, Technologie-Reporterin der BBC, Galina Alperovich, leitende Forscherin für maschinelles Lernen bei Avast, Nic Oliver, Gründer von People.io sowie der legendäre Schachmeister Garry Kasparov, der sich seit einigen Jahren intensiv mit Themen der modernen Technologie befasst.
Die Erkenntnisse aus dieser branchenübergreifenden Diskussion zeigen einige Aspekte auf, die angegangen werden müssen.
Was ist bei Google schiefgegangen?
Es ist ermutigend zu sehen, dass sich ein Konsens unter den Branchenführern herausbildet, der von den Sorgen der Verbraucher und damit von den Geschäftspraktiken und -haltungen angetrieben wird. Die Europäische Union ist nur ein Beispiel für eine öffentliche Einrichtung, die sich mit ihrer hochrangigen Expertengruppe der KI-Ethik frontal widmet. In den USA fand die Eröffnung des neuen Schwartzman College of Computing am MIT statt, ein mit einer Milliarde Dollar dotiertes Projekt. Es soll ein zentrales Zentrum der KI-Forschung schaffen, dass alle Disziplinen von den Geisteswissenschaften bis hin zu Wissenschaft und Technologie umfasst.
Eine der spektakulärsten Nachrichten über KI-Ethik war zuletzt, dass Google seinen KI-Ethikrat nach nur neun Tagen infolge einer medienwirksamen Gegenreaktion auflöste. Ähnlich wie die Tatsache, dass KI nur so gute Ergebnisse liefert wie die zugrundeliegenden Daten, stellte sich Google diesem Ärger. Hat Google zu schnell gehandelt, was zu einem Mangel an Urteilsvermögen führte? Möglicherweise, aber dieser Fall wirft einige andere grundlegende Fragen auf, die die Debatte über die KI-Ethik noch komplexer machen.
Retrospektive Verantwortung
Ein interessantes Thema, das während des Panels angesprochen wurde, war die Frage der rückwirkenden Verantwortung. Die Technologie entwickelt sich weiter und begleitende Gesetze und Richtlinien werden in Kraft treten. Könnte es dann sein, dass Unternehmen für Handlungen in der Vergangenheit unter Beschuss geraten, die damals nicht als falsch oder illegal angesehen wurden? Viele Unternehmen erkennen zunehmend, dass ihre heutigen Entscheidungen in Zukunft als „falsch“ ausgelegt werden können, auch wenn sie es heute nicht sind. Die Folgen sind zwei unterschiedliche Reaktionen: Erstens, Unternehmen, die aus Angst, es falsch zu machen, nichts unternehmen. Zweitens, Unternehmen, die sich beeilen, Maßnahmen zu ergreifen, damit sie sagen können, „wir haben es zumindest versucht“.
Zuviel versprochen
„Unser Ziel ist es, innovative und ethische Computing-Techniken zu ermöglichen und gleichzeitig den tieferen Kontext der Fragen aus der Soziologie, der Geschichte und den Wissenschafts- und Technologiestudien zu nutzen.“ Dieses Mantra von Microsoft ist nur eines der vielen Versprechen, die von Unternehmen im gegenwärtigen Klima abgegeben werden, angetrieben von dem Bewusstsein, dass ein falscher Umgang mit KI ernsthafte Auswirkungen auf die Markenwahrnehmung haben kann. Aber ist es für jedes Unternehmen möglich, solche Versprechen zu geben? Garry Kasparov kommentierte das Thema mit den Worten: „Es klingt wie ein Weihnachtswunschzettel, der großartig ist, aber maschinelles Lernen basiert auf Zahlen. Wenn Sie die Maschine mit Daten füttern, die Verzerrungen enthalten oder gesellschaftliche Probleme widerspiegeln, werden diese von den Maschinen verstärkt.“
Ein interessanter Punkt, der von Galina Alperovich angesprochen wurde, betrifft die Annahme, dass Maschinen extrapolieren können, was ethisch ist und was nicht. Nur weil wir als Individuen die Ethik als geradlinig betrachten, bedeutet das nicht, dass es für Maschinen einfach ist, ein so breites Spektrum von Meinungen zu interpretieren und entsprechend zu handeln.
Gesellschaft, nicht Technologie in den Mittelpunkt stellen
Sollte dieses Thema überhaupt aus technologischer Sicht diskutiert werden? Man kann mit Nachdruck argumentieren, dass es sich um eine Reflexion gesellschaftlicher Probleme handelt, die ihren Ursprung weit vor der KI haben.
„KI betrachtet die Proportionen in der Gesellschaft und sie wird Muster und Algorithmen auf der Grundlage dessen aufbauen, was politisch nicht korrekt ist. Wenn einem das, was man als Ergebnis sieht, nicht gefällt, dann liegt das an Problemen, die tief in der Gesellschaft verwurzelt sind“, erklärte Garry Kasparov, ein starker Verfechter der Menschenrechte im Technologiezeitalter. „Die Menschen erwarten, dass KI ein Zauberstab ist, der all diese Probleme lösen kann, die von Anfang an bestanden haben“, fügte er hinzu und bemerkte, dass dies nicht der Fall sei. Bekanntlich ist KI nur so gut wie die Daten, die sie speisen. Wenn die Daten verzerrt sind, können wir dann wirklich erwarten, dass die KI wirklich ethisch ist?“
Die Menschenrechtsdebatte
Sollten Gesetze eingeführt werden, um KI zu bewerten? Wie sollten diese Gesetze aussehen? Wo kommen die Menschenrechte ins Spiel? Gesetze geben zwar einen Rahmen vor, setzen aber eine harmonisierte Welt mit einem gemeinsamen Wertesystem voraus. Viel diskutiert wird, inwieweit ein Nationalstaat a) Verantwortung übernehmen und b) versuchen sollte, dem Rest der Welt seine eigene Auffassung von Ethik aufzuzwingen.
„Man riskiert, sich auf ein Szenario des britischen Empire zu berufen, in dem man anfängt, sich den Menschen aufzudrängen“, kommentierte Nic Oliver. Ein starkes Argument, aber eine Komplikation, die man in Betracht ziehen muss. Sollten wir anfangen, große Technologieunternehmen als eigenständige Nationalstaaten zu betrachten? Wenn man Google, Amazon und Facebook als Staaten betrachtet, könnte eine gesunde Diskussion darüber geführt werden, was die Menschenrechte in diesem digitalen Raum ausmacht. „Wenn sieht, was Google in China tut, wird klar, dass dies Menschenrechte grundlegend verletzt. Ein Unternehmen, das innerhalb eines Teils der globalen Gesellschaft agiert, sollte grundlegende Versprechen nicht brechen“, fügte Nic Oliver hinzu.
Langfristige Auswirkungen und nächste Schritte
Man ist sich einig, dass die wahren Auswirkungen der ethischen (und unethischen KI) erst dann erkannt werden, wenn es keine – oder nur geringe – Möglichkeiten gibt, sie zu beeinflussen. Wie Patrick Smith betont, könnten die Auswirkungen einen Welleneffekt in der gesamten Gesellschaft auslösen, der weit über die Unternehmen hinausgeht: „Jede industrielle Revolution bringt gesellschaftliche Bedenken mit sich, und das Zeitalter der Daten ist nicht anders. Wir bei Pure Storage wissen, welche positiven Auswirkungen KI-gestützte Datenanwendungen haben können. Deshalb ist es entscheidend, sicherzustellen, dass sie ethisch und verantwortungsbewusst genutzt werden.“
Aber welche Schritte können in der unmittelbaren Zukunft hierzu unternommen werden? Zu den wichtigsten Aspekten gehören:
- Erhöhung der Aufmerksamkeit der Medien auf das Thema und Schaffung von mehr Transparenz für die Öffentlichkeit
- Einführung von KI-Themen in der Bildung
- Förderung einer größeren öffentlichen Aufklärung und Sensibilisierung für die Rolle, die die Öffentlichkeit beim Schutz ihrer Daten spielen kann
- Schaffung eines Umfelds, in dem Unternehmen keine Angst haben, schnell zu scheitern
- Sicherstellung, dass Ethik-Panels wirklich eine vielfältige Gesellschaft widerspiegeln
Wer sollte die Verantwortung übernehmen?
„Die Frage, ob wir jemals genug über KI und ihre langfristigen Auswirkungen wissen werden, um die Ethik der KI effektiv umsetzen zu können, ist noch offen. Dieses Thema ist so komplex und verändert sich ständig, dass es unverantwortlich wäre zu sagen, dass wir jemals eine endgültige Antwort haben werden“, erklärt Güner Aksoy, Director Central Europe bei Pure Storage . „Unabhängig davon müssen Unternehmen und Regierungen jetzt handeln, um zu gewährleisten, dass die richtigen Weichen gestellt werden. Wird es einfach sein? Nein, aber dies bedarf nicht nur einer Änderung der Politik, denn es geht weit darüber hinaus. Diese Diskussion muss jetzt geführt werden, bevor das Alptraumszenario wahr wird und wir die Kontrolle darüber verlieren.“