Anwendungen mit künstlicher Intelligenz (KI) finden wir bereits heute zahlreich in unserem Alltag wieder. Teilweise bemerken wir es nicht einmal. KI kommt nicht nur bei der Google-Suche zum Einsatz, sondern immer häufiger auch in sensiblen Bereichen wie bei Versicherungen, Banken oder in Personalabteilungen. In Zukunft wird sich der Anwendungsbereich aufgrund der schnell voranschreitenden Digitalisierung mit Sicherheit vergrößern – und genau das macht vielen Menschen Sorgen. Sie fragen sich, wie vertrauenswürdig eine KI ist und ob diese im Einzelfall immer die richtigen Entscheidungen trifft.
Mammutaufgabe: Vertrauenswürdige KI
Aufgrund der Entwicklungen und der damit verbundenen Risiken hat sich die Europäische Kommission (EU-Kommission) dem Thema angenommen: Artificial Intelligence Act (AI Act), das „Gesetz über künstliche Intelligenz“, soll für Transparenz und Steuerung sorgen. Am 21. April 2021 wurde der Entwurf einer Verordnung zur Regulierung der Nutzung Künstlicher Intelligenz veröffentlicht. Dieser beinhaltet einen gemeinsamen regulatorischen und rechtlichen Rahmen, der alle möglichen Einsatzbereiche, außer dem militärischen Bereich, und alle Arten von KI umfasst. Mit diesem Regulierungsrahmen soll das Vertrauen der Gesellschaft in KI-Anwendungen gestärkt werden. Der Rahmen orientiert sich an europäischen Werten. Dabei wird der Spagat zwischen einer sichereren Nutzung von KI für Anwender versucht – ohne gleichzeitig die Innovation und Chancen zu blockieren. Mit einer Blockierung würde die EU im internationalen Wettbewerb stark eingeschränkt werden. Das Gesetz sieht deshalb auch die Einführung eines Europäischen Ausschusses für künstliche Intelligenz vor, der die nationale Zusammenarbeit fördern und die Einhaltung der Verordnung sicherstellen soll.
Regulierung in drei Stufen
Die Verordnung stuft KI in drei Stufen ab und bewertet und reguliert sie dabei nach ihrem Risiko für Anwender. Die drei Stufen sind:
- KI-Anwendungen ohne oder mit geringem Risiko
- KI-Anwendungen mit einem hohen Risiko
- KI-Anwendungen mit einem unannehmbaren Risiko.
Anwendungen mit keinem oder einem geringen Risiko bleiben bewusst unreguliert, um weiterhin gute Bedingungen für Innovation zu schaffen. Darunter fallen Suchalgorithmen, Spamfilter und Videospiele, aber auch Chatbots und sogar Deep Fakes. Da Deep Fakes für Anwender kein geringes, sondern möglicherweise sogar ein hohes Risiko darstellen, sind sie ein gutes Beispiel dafür, dass der Entwurf noch angepasst werden sollte. Für diese Anwendungen gibt es eine Transparenzpflicht, bei der den Nutzern offengelegt werden muss, dass sie mit einer KI interagieren.
Anwendungen, die ein hohes Risiko für die Gesundheit, Sicherheit oder die Grundrechte von Menschen darstellen, werden reguliert, überprüft und laufend aktualisiert. Außerdem müssen sie vor der Verwendung zunächst auf dem europäischen Markt zugelassen werden und dafür strenge Voraussetzungen erfüllen. Ein Beispiel für KI-Anwendungen im Gesundheitsbereich gibt es in der Onkologie. Mithilfe bildgebender Verfahren können Karzinome, Metastasen oder krebsverdächtige umliegende Gebiete schneller identifiziert werden. Das System markiert eigeständig verdächtige Bereiche in den Bilddaten. KI-Anwendungen mit hohem Risiko können auch in der Verwaltung oder im Personalmanagement helfen, regeln den Zugang zu Bildungseinrichtung oder werden in der Strafverfolgung angewendet. Dazu gehört auch die biometrische Fernerkennungen, die grundsätzlich verboten ist. Zur Terrorabwehr oder Aufdeckung schwerer Straftaten soll sie jedoch nutzbar sein.
KI-Anwendungen mit einem unannehmbaren Risiko sind verboten. Unter ein Verbot fallen zum Beispiel Anwendungen, die Personen manipulieren, was nach Angaben der EU-Kommission beispielsweise ein „Spielzeug mit Sprachassistent, das Minderjährige zu gefährlichem Verhalten ermuntert“ sein könnte. Ebenfalls verboten sind Anwendungen, die Schwachstellen benachteiligter Gruppen ausnutzen oder die soziale Kreditwürdigkeit prüfen. Das ist das sogenannte Social Scoring, was teilweise schon in Asien angewendet wird und mit europäischen Werten nicht vereinbar ist.
Prestige-Projekt oder der Weg zu einem europäischen Verständnis von KI?
Im aktuellen Entwurf wurde im Vergleich zu den vorangegangenen nur ein Minimalkonsens an Regulierung umgesetzt, der sich dennoch scharfer Kritik von Industrieverbänden ausgesetzt sieht. Besonders die Kategorie mit hohem Risiko sei demnach zu weit gefasst und würde Innovation in Europa verhindern. Für Bürgerrechtler geht der aktuelle Entwurf wiederum noch nicht weit genug. Beispielsweise sollte eine automatische Erkennung sensibler Merkmale wie Geschlecht, Sexualität und Herkunft im öffentlichen Raum zum Beispiel bei Check-In Terminals am Flughafen verboten werden. Das Verbot der Fernerkennung, das zahlreiche Ausnahmen vorsieht, sollte ebenfalls verschärft werden, da die Gefahr von Missbrauch besteht.
Für eine sinnvolle Überwachung von KI-Anwendungen müssen diese sorgfältig klassifiziert werden. Obwohl der Weg zu einem gemeinsamen und sicheren Verständnis in der EU und somit einer verantwortungsvollen Nutzung von KI-Anwendungen noch lang ist, ist der Gesetzentwurf eine gute Basis, um dieses Ziel zu erreichen. Der Entwurf muss aktuell im Gesetzgebungsverfahren das Europäische Parlament und den Rat der Europäischen Union passieren. Die letzte Sitzung fand am 16. Mai 2022 statt.
Quellen:
- Deutscher Bundestag: Deutscher Bundestag – EU-Verordnung zu Künstlicher Intelligenz diskutiert
- Bigdate Insider: Wird Künstliche Intelligenz durch den AI Act „verlässlicher“? (bigdata-insider.de)
- AI Act: The Artificial Intelligence Act |
- Wikipedia: Artificial Intelligence Act – Wikipedia
- Stanford Lawschool: EU Artificial Intelligence Act: The European Approach to AI – Journal Article – Stanford Law School
- Institut für Sozialstrategie: Der „Artificial Intelligence Act“ – Die KI-Verordnung der EU (institut-fuer-sozialstrategie.de)
- Taylor Wessing: Der „Artificial Intelligence Act” (taylorwessing.com)
- European Commission: Proposal for a Regulation laying down harmonised rules on artificial intelligence | Shaping Europe’s digital future (europa.eu)
- Plattform Lernende Systeme: pdf (plattform-lernende-systeme.de)
- Campaigns All Out: All Out – Verbietet die automatische Erkennung von Geschlecht und sexueller Orientierung
Titelbild: ©Floriana (istock)
Weitere Informationen zum Thema Digitalisierung gibt es hier