Microsoft stellt sich gegen KI-Einsatz bei Waffenentwicklung

Autor: Dimitri Lagun
Datum: 13.04.18

Einsatz für kriegerische Zwecke steht nicht zur Debatte

Experten sehen den Einsatz künstlicher Intelligenz im militärischen Bereich als sehr kritisch an. Die südkoreanische Universität KAIST beispielsweise arbeitet zusammen mit einem heimischen Rüstungskonzern an vollautonomen Waffen und sieht sich dem akademischen Boykott ausgesetzt. Und auch tausende Google-Mitarbeiter sind mit dem möglichen Verwendungszweck unzufrieden und protestieren daher gegen eine Kooperation mit dem Pentagon.

Microsoft hingegen gab bekannt, sich aus der Diskussion heraushalten zu wollen. Eric Horvitz, Chef von Microsoft Research gab auf einer Konferenz zum Thema „Ethik und künstliche Intelligenz“ an, dass Microsoft seine Entwicklungen standardmäßig nur auf eine „ethische Weise“ verwenden würde und ein Einsatz für kriegerische Zwecke gar nicht zur Debatte stehe.

Um diesen Plan zu gewährleisten, wurde zudem eine Reihe von Richtlinien formuliert, welche vom „Aether“-Komitee („AI and Ethics in Engineering and Research“) überwacht werden soll. Die konkrete Aufgabe des Komitees wird es sein, zu überprüfen, wie die Technologie eines Konzerns von dessen Kunden eingesetzt wird und ob Geschäftsbeziehungen bestehen bleiben sollten.

„Signifikante Deals“ wurden laut Horvitz bereits aufgelöst, während bei anderen entsprechende Limitationen festgeschrieben wurden. Diese beinhalten zum Beispiel Regelungen für den Einsatz verschiedener Entwicklungen im Bereich Gesichtserkennung. In diesem Bereich bietet Microsoft zum Beispiel cloudbasierte „Cognitive Services“ an, welche Gesichter und Emotionen durch Algorithmen erkennen.

„Ich freue mich, sagen zu können, dass dieses Komitee Biss hat“, so der Manager. Zudem betonte der Konzern in einer offiziellen Stellungnahme, dass es besonders wichtig sei, bei der Entwicklung von künstlicher Intelligenz in einer „verantwortlichen und ethischen Weise“ zu arbeiten.

Horvitz erklärt, dass Künstliche Intelligenz eine „komplementäre“ Technologie sein soll, bei der Menschen und Computer eng zusammenarbeiten und sich gegenseitig ergänzen. Dennoch gäbe es viele Stellen, an denen noch Verbesserungen vorgenommen werden müssen. Dies bestätigte unter anderem der jüngste Unfall mit einem autonomen Auto.