Die Pflichten aus Art. 50 der KI-Verordnung (KI-VO) gelten primär für Systeme außerhalb des Hochrisiko-Bereichs und greifen unabhängig vom jeweiligen Risikoniveau. Übergeordnetes Ziel der Regelung ist der Schutz der autonomen Entscheidungsfähigkeit natürlicher Personen, insbesondere in Situationen, in denen der Einsatz von KI nicht unmittelbar erkennbar ist. Art. 50 wirkt dabei ergänzend zu anderen rechtlichen Regimen.
Die Norm unterteilt sich in verschiedene Offenlegungstatbestände (Fallgruppen):
- KI-Interaktion (Abs. 1): Nutzer müssen spätestens bei Beginn der Interaktion erkennen können, dass sie mit einer KI kommunizieren. Der Maßstab hierfür ist ein „informierter, aufmerksamer und umsichtiger Durchschnittsnutzer“. Eine Ausnahme besteht bei Offensichtlichkeit oder im Bereich der Strafverfolgung.
- Kennzeichnung synthetischer Inhalte (Abs. 2): Synthetische Audio-, Bild-, Video- oder Textinhalte müssen technisch markiert werden. Diese Markierungen sollen wirksam, robust und zuverlässig sein. Ausgenommen sind einfache assistive Funktionen sowie nicht-wesentliche Änderungen.
- Emotionserkennung und biometrische Kategorisierung (Abs. 3): Die Nutzung Systeme zur Emotionserkennung und biometrischer Kategorisierung muss offengelegt werden. Zudem sind die Nutzer über die dabei verarbeiteten personenbezogenen Daten zu informieren.
- Deepfakes und manipulierte Inhalte (Abs. 4): KI-generierte Inhalte – syntetische Audio-, Bild- und Videoinhalte – sowie Deepfake unterliegen einer Kennzeichnungspflicht. Für künstlerische, satirische oder fiktionale Inhalte genügt eine kontextuelle Einordnung, sofern keine Irreführungsgefahr besteht.
Quellen:
Dr. Joan Barata Mir, CCIA White Paper: https://ccianet.org/wp-content/uploads/2025/12/Transparency-Obligations-for-All-AI-Systems-Article-50-of-the-AI-Act-Written-by-Dr.-Joan-Barata-Mir.pdf?utm_source=copilot.com
EU AI Act: First Draft Code of Practice on Transparency and Watermarking Released: https://www.cooley.com/news/insight/2025/2025-12-18-eu-ai-act-first-draft-code-of-practice-on-transparency-and-watermarking-released?utm_source=copilot.com
Thomas Gils, “A Detailed Analysis of Article 50 of the EU’s Artificial Intelligence Act: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4865427
Limited-Risk AI—A Deep Dive Into Article 50 of the European Union’s AI Act: https://www.wilmerhale.com/en/insights/blogs/wilmerhale-privacy-and-cybersecurity-law/20240528-limited-risk-ai-a-deep-dive-into-article-50-of-the-european-unions-ai-act
