Die Entschlüsselung der EU Verordnung über künstliche Intelligenz Teil 4 – Verbotene Praktiken Artikel 5

Article 5 EU AI Act
This entry is part 4 of 4 in the series Decoding the EU AI Act

Willkommen zu Teil 4 unserer Blogreihe „Die Entschlüsselung der EU Verordnung über künstliche Intelligenz“! Im Mittelpunkt der Verordnung steht Artikel 5, welcher bestimmte KI-Praktiken identifiziert und verbietet, die als „inakzeptables Risiko“ für Grundrechte, Sicherheit und demokratische Werte eingestuft werden.

Mit der Veröffentlichung der Leitlinien der Europäischen Kommission zu verbotenen KI-Praktiken am 4. Februar 2025 besteht nun zusätzliche Klarheit darüber, wie Artikel 5 auszulegen und durchzusetzen ist. In diesem Beitrag analysieren wir den rechtlichen Rahmen des Artikels 5, kategorisieren die verbotenen KI-Praktiken und beleuchten einige Auswirkungen für Entwickler, Betreiber und Nutzer von KI-Systemen in der EU und darüber hinaus.

Was ist Artikel 5 der EU Verordnung über künstliche Intelligenz?

Artikel 5 des EU AI Acts definiert eine begrenzte Anzahl von KI-Praktiken, die in der gesamten EU vollständig verboten sind. Diese Systeme sind verboten, weil sie ein „inakzeptables Risiko“ darstellen, das nicht ausreichend durch technische oder organisatorische Maßnahmen gemindert werden kann.

Die Verbote gelten unabhängig davon, ob der Anbieter in der EU ansässig ist oder nicht, sofern das KI-System in der Union in Verkehr gebracht, in Betrieb genommen oder genutzt wird.

Kategorien verbotener KI-Praktiken

1. Subliminale Techniken zur Verhaltensbeeinflussung (Art. 5(1)(a))

KI-Systeme, die unterbewusste Methoden einsetzen, um das Verhalten wesentlich zu verzerren und dadurch physischen oder psychischen Schaden verursachen oder wahrscheinlich verursachen, sind verboten.

2. Ausnutzung von Schwachstellen (Art. 5(1)(b))

Das Ausnutzen von Schwachstellen bestimmter Gruppen – wie Kindern, älteren Menschen oder wirtschaftlich benachteiligten Personen – zur schädigenden Verhaltensbeeinflussung ist untersagt.

  • Beispiel: KI, die gezielt finanziell verletzliche Personen mit ausbeuterischen Angeboten anspricht.


3. Soziale Bewertung (Social Scoring) (Art. 5(1)(c))

Verboten sind KI-Systeme, die das Vertrauen in eine Person auf Grundlage ihres sozialen Verhaltens oder vorhergesagter persönlicher Merkmale bewerten, wenn dies zu:

  • (i) nachteiliger oder ungünstiger Behandlung in anderen Kontexten als der ursprünglichen Datenerhebung führt oder
  • (ii) eine ungerechtfertigte oder unverhältnismäßige Benachteiligung darstellt.

Das Verbot gilt sowohl für öffentliche als auch private Akteure. Das Gesetz zielt auf KI-gesteuerte „Social Scoring“-Systeme ab – vom Konzept her ähnlich den „Social Credit“-Systemen –, die auf der Grundlage von Verhaltensprofilen die Wertigkeit einer Person systematisch beurteilen und entsprechende Konsequenzen verhängen.Die Kommission nennt in Abschnitt 4.2 (Punkt 154) ein KI-basiertes Kreditbewertungssystem als potenziell problematisch.

4. Echtzeit-Fernidentifikation biometrischer Daten in öffentlichen Räumen (Art. 5(1)(d))

Der Gesetzestext schreibt vor:das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung eines KI-Systems zur Durchführung von Risikobewertungen in Bezug auf natürliche Personen, um das Risiko, dass eine natürliche Person eine Straftat begeht, ausschließlich auf der Grundlage des Profiling einer natürlichen Person oder der Bewertung ihrer persönlichen Merkmale und Eigenschaften zu bewerten oder vorherzusagen

Die Leitlinien erläutern, dass die Voraussetzungen kumulativ sind und dass die KI-Praxis entweder a) das „Inverkehrbringen“, b) die „Inbetriebnahme für diesen bestimmten Zweck“ oder c) die „Verwendung“ eines KI-Systems sein muss. Anschließend muss das KI-System eine Vorhersage treffen, dass eine Straftat begangen wird, und diese Vorhersage darf ausschließlich entweder (a) auf der Profilerstellung einer natürlichen Person oder (b) auf der Bewertung der Persönlichkeitsmerkmale und Eigenschaften einer natürlichen Person beruhen. Unterstützt das KI-System hingegen die menschliche Bewertung, fällt es nicht unter diese Bestimmung.

Illustratives Beispiel:

  • Beispiel (verboten): Ein KI-System prognostiziert auf Basis sozioökonomischer Herkunft, Wohnort und Persönlichkeitsmerkmalen (z. B. Introversion, Impulsivität), dass eine Person wahrscheinlich Diebstahl begeht, und Behörden handeln ohne objektive Beweise.
  • Beispiel (erlaubt): Ein KI-System wertet objektive Beweise wie CCTV-Aufnahmen und digitale Kommunikation aus, um Ermittlungen bei einem Raubüberfall zu unterstützen.


5. Ungezieltes Scraping für Gesichtserkennungsdatenbanken (Art. 5(1)(e))

Der Gesetzestext schreibt vor: ‚das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern‘

Entscheidend ist, dass sich das Verbot auf ungezieltes Scraping (Auslesen) bezieht – die gezielte Suche nach einer bestimmten Person fällt nicht darunter.

6. Ableiten von Emotionen am Arbeitsplatz und in Bildungseinrichtungen (Art. 5(1)(f))

Der Einsatz von KI zur Ableitung von Emotionen bei Beschäftigten oder Lernenden ist verboten, um deren Würde und Autonomie zu schützen.

  • Beispiel: KI analysiert die Emotionen von Mitarbeitenden, um Leistungsbewertungen zu beeinflussen.

Hinweis: Das Verbot betrifft nicht „Emotionserkennungssysteme“, sondern nur solche, die Emotionen ableiten.

7. Biometrische Kategorisierung anhand sensibler Merkmale (Art. 5(1)(g))

KI-Systeme, die Menschen anhand sensibler Merkmale wie ethnischer Herkunft, Religion oder sexueller Orientierung kategorisieren, sind verboten, um Diskriminierung zu verhindern.

  • Beispiel: Eine Dienstleistung wird nur angeboten, weil eine Person als einer bestimmten Ethnie zugehörig eingeschätzt wird.


8. Echtzeit-Fernidentifikation durch Strafverfolgungsbehörden (Art. 5(1)(h))

Diese Bestimmung betrifft ausschließlich die Nutzung von Systemen zur biometrischen Fernidentifikation in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden – nicht jedoch deren Entwicklung oder Einsatz zu anderen Zwecken.

Ausblick: Compliance und ethisches KI-Design

Auch wenn Artikel 5 nur einen engen Anwendungsbereich verbotener KI-Nutzung abdeckt, setzt er wichtige Grenzen für eine ethische und rechtssichere KI-Entwicklung. Unternehmen sollten von Beginn an „Compliance by Design“-Prinzipien integrieren, darunter:

  • Grundrechts-Folgenabschätzungen (Fundamental Rights Impact Assessments, FRIAs).
  • Mechanismen menschlicher Aufsicht zur Erkennung von Manipulation und Profiling.
  • Transparenz und Erklärbarkeit.

Mit dem Übergang in die Umsetzungsphase der EU Verordnung über künstliche Intelligenz sind Anwaltskanzleien, Compliance-Beauftragte und KI-Unternehmen gefordert, wachsam zu bleiben. Der Artikel 5 ist mehr als eine Liste von Verboten – er spiegelt die Grundwerte der EU im Zeitalter der künstlichen Intelligenz wider.

Brauchen Sie Unterstützung bei Ihrer KI?

Kontaktieren Sie uns noch heute!

Haftungsausschluss:
Die Inhalte dieses Blogs dienen ausschließlich allgemeinen Informationszwecken und stellen keine Rechtsberatung dar. Obwohl wir uns bemühen, die Informationen aktuell und korrekt zu halten, können sie nicht die neuesten rechtlichen Entwicklungen oder die spezifische Situation Ihres Unternehmens berücksichtigen. Leser sollten auf Grundlage der hier bereitgestellten Informationen nicht handeln, ohne vorher professionelle Rechtsberatung einzuholen. Durch die Nutzung oder das Vertrauen auf die Inhalte dieses Blogs entsteht kein Mandatsverhältnis
Series Navigation<< Die Entschlüsselung der EU Verordnung über künstliche Intelligenz Teil 3 – KI-Kompetenz Artikel 4