EU-Kommission will manipulative Künstliche Intelligenz und Social Score-Systeme verbieten
Als vor einigen Jahren zum ersten Mal bekannt wurde, dass China ein digitales Social Credit-System einführen will, mit dem die Regierung das Verhalten der chinesischen Bürger beurteilen und gegebenenfalls bestrafen wird, waren viele westliche Datenschützer schockiert. In China war es um den Datenschutz zwar noch nie gut bestellt, allerdings dürften sich damit für viele Experten die schlimmsten Albträume verwirklichen.
Seitdem ist auch in Europa die Debatte darum im Gange, ob und in wieweit man das Verhalten von Bürgern überwachen darf. Zwar war eine Überwachung im privaten Raum für die allermeisten Leute schnell vom Tisch, allerdings gibt es eine rege Diskussion darum, inwieweit beispielsweise Gesichtserkennung im öffentlichen Raum genutzt werden darf.
Jetzt sieht es danach aus, als würde die Europäische Kommission hier demnächst Fakten schaffen. Dies berichtet Bloomberg und leakt dabei auch gleich den ersten Entwurf des neuen Gesetzes. Dabei geht es im Allgemeinen um die Verwendung von Künstlicher Intelligenz in der Öffentlichkeit. So soll es allgemein verboten werden, Software zu benutzen, um Leute digital im öffentlichen Raum zu erfassen. Einzelne spezielle Ausnahmen von dieser Regel müssen von den zuständigen Behörden erteilt werden. Weiterhin sollen KI-Systeme in Zukunft spezielle Tests und Inspektionen über sich ergehen lassen, wenn diese in kritischen Bereichen eingesetzt werden. Damit soll sichergestellt werden, dass diese mit unvoreingenommenen Datensets trainiert wurden und keinen rassistischen oder sexistischen Bias beinhalten. Die entsprechenden Zertifikate, die man nach einer solchen Inspektion erhält, wären dann für fünf Jahre gültig. Ein durchaus kontroverser Fakt in dem geleakten Entwurf dürfte sein, dass sämtliche hier genannten Regeln nicht für das Militär gelten sollen.
Ein weiterer spannender Punkt ist der, dass KI zur gezielten Manipulation von Menschen in Zukunft komplett verboten werden soll. Hier dürfte die spätere Auslegung des Gesetzes sehr interessant werden. Spannende Beispiele wären die Algorithmen diverser Social-Media-Plattformen, die in der Vergangenheit darauf trainiert wurden, die Werbeeinahmen der Plattform zu maximieren. Dies hat allerdings (zu Beginn) unbewusst dazu geführt, dass die Algorithmen versucht haben, ihre Nutzer immer weiter in ein "Rabbit Hole" zu schicken, da dies die Nutzungsdauer und damit die Anzahl an gezeigten Werbungen sehr effektiv maximiert. Es wird interessant sein zu sehen, wie solche Algorithmen in Zukunft beurteilt werden, da deren primäres Ziel nicht die Manipulation der Menschen war, dies allerdings als "Nebenprodukt" entstanden ist.
Nichts desto trotz sieht der geleakte Gesetzesentwurf nach einer sinnvollen Erweiterung der bestehenden Datenschutzrichtlinien aus. Gerade die Kontrolle von Künstlicher Intelligenz in Bereichen mit hohem Risiko könnte in Zukunft einige Probleme verhindern, solange diese sinnvoll umgesetzt werden.