Europäische Union hat KI-Anwendungen verboten

Vorlesen lassen? ↑↑⇑⇑↑↑ | Lesedauer des Artikels: ca. 4 Minuten -

Ignasi Belda, Generaldirektor der spanischen Aufsichtsbehörde für künstliche Intelligenz (AESIA, die der Regierung untersteht), hielt am Freitag (14.03.2025) in Palma auf Mallorca einen Vortrag, in dem er die europäische Regulierung der künstlichen Intelligenz (KI) erläuterte, „die eine Kategorie von Anwendungen umfasst, die aufgrund ihres inakzeptablen Risikos verboten sind.

Zu diesen Anwendungen gehören die ‚subliminale Manipulation‘ durch öffentliche Einrichtungen oder Unternehmen; die ‚Ausnutzung von Schwachstellen‘, zum Beispiel von Minderjährigen; prädiktive Polizeiarbeit, wie beispielsweise vorläufige Festnahmen, wie sie in einigen futuristischen Filmen zu sehen sind; die Erkennung von Emotionen am Arbeitsplatz oder in Bildungseinrichtungen, um so von Maschinen beurteilt zu werden; die biometrische Erkennung im öffentlichen Raum und in Echtzeit, die nur von einem Richter genehmigt werden könnte; und die Bewertung von Personen durch eine Maschine, um Zugang zu Funktionen oder Dienstleistungen zu erhalten.

Lesetipp:  Juni 2025 - der heißeste Juni "Ever"
SPIEGEL-Bestsellerautorin Eva Almstädt lässt Pia Korittki in ihrem zwanzigsten Fall ermitteln

In diesem Zusammenhang erinnerte Belda daran, dass „die europäische Regulierung darauf abzielt, den Verbraucher vor möglichen Missbräuchen bei der Nutzung von KI zu schützen. Die Vorschriften bewerten die Technologie nicht, sondern legen fest, in welchen Sektoren sie eingesetzt werden kann, und klassifizieren die Anwendungen nach ihrem Risiko.“

Die Verordnung wurde im August 2024 verabschiedet, hat jedoch drei Jahre Zeit, um vollständig umgesetzt zu werden. Die verbotenen Anwendungen sind bereits in Kraft, während die Hochrisikobereiche im August 2026 folgen werden.

Diese Hochrisikobereiche, so Belda, beziehen sich auf „die Auswirkungen auf die Grundrechte der Bürger, wie medizinische, ökologische oder kritische Infrastrukturaspekte. Diese KI-Anwendungen dürfen nicht voreingenommen sein und müssen transparent, erklärbar und nachvollziehbar sein und dürfen nicht das geistige Eigentum beeinträchtigen.“

Eine dritte Gruppe wären Anwendungen mit mittlerem Risiko, „die in jedem Fall den Nutzer darauf hinweisen müssen, dass er mit einer Maschine interagiert. Für die vierte und letzte Gruppe, die Anwendungen mit geringem Risiko, die in Wirklichkeit 90-95 % der Gesamtheit ausmachen würden, gibt es keine Regelung“, so der Direktor der AESIA.

Als Verbraucherschutzverordnung fallen Verbraucher und Forschungsarbeiten nicht in ihren Geltungsbereich, der, wie beschrieben, öffentliche Einrichtungen und Unternehmen umfasst. Letztere haben eine Anpassungsfrist, sofern ihr Anwendungs- oder Vermarktungsbereich die Europäische Union ist. Außerhalb der EU betrifft sie die Verordnung nicht, und in jedem Fall unterliegen sie den Gesetzen des Landes ihrer Nutzer oder Kunden.

Der Direktor der AESIA wies außerdem darauf hin, dass „die Agentur befugt ist, Sanktionen zu verhängen, immer mit abschreckender und nicht mit ertragbringender Absicht. Bei sehr schwerwiegenden Verstößen können die Sanktionen sehr hoch sein und sich auf Millionen Euro belaufen. Das Sanktionssystem wird im August dieses Jahres in Kraft treten, und bis dahin werden wir uns darauf beschränken, über festgestellte Unregelmäßigkeiten zu informieren, aber die Überwachungen sind bereits im Gange, und diese Arbeit ist streng vertraulich.“

Belda kündigte an, dass es ein europäisches Register für KI-Anwendungen mit hohem Risiko geben wird und dass bereits daran gearbeitet wird, das Problem der Nachhaltigkeit ihrer Nutzung anzugehen: „In Bezug auf den Energie- und Wasserverbrauch müssen die sogenannten grünen Algorithmen weiterentwickelt werden“, als Programmiermethode, die darauf abzielt, die Umweltauswirkungen von Computeranwendungen zu verringern, sowie deren Einsatz zur Suche nach nachhaltigen Lösungen.

Eine Maßnahme, bei der Spanien eine Vorreiterrolle einnehmen wird, ist die Schaffung regulierter Testumgebungen, sogenannter Sandboxes, in denen Unternehmen ihre Algorithmen testen können. Spanien wird in Kürze einen öffentlichen Sandbox-Bereich einrichten, wenn die europäische Frist im August 2026 abläuft.

Quelle: Agenturen