Data Governance Act- DGA- und Datenaltruismus

3 Wesentlichen Regelungsbereiche des DGA: (1) die Bedingungen für die Weiterverwendung bestimmter Kategorien geschützter Daten des öffentlichen Sektors in Kapitel II, (2) Regelungen für Datenvermittlungsdienste in Kapitel III sowie (3) einheitliche Vorgaben für Einrichtungen für datenaltruistische Zwecke in Kapitel IV. Bestandteil des DGA ist auch das Konzept des sogenannten Datenaltruismus ein. Damit ist die freiwillige Bereitstellung personenbezogener oder nicht-personenbezogener Daten

Der EU-„General-Purpose AI Code of Practice“ – Freiwillige Regulierung im Schatten des AI Act

Der General-Purpose AI Code of Practice ist ein freiwilliges Soft-Law-Instrument der Europäischen Kommission, das im Juli 2025 veröffentlicht wurde. Er richtet sich an Anbieter von General-Purpose AI-Modellen, also großen Basismodellen wie GPT, Claude oder Gemini, und soll diese bei der Umsetzung der Pflichten aus dem Artificial Intelligence Act (AI Act) vorbereiten. Der Code wurde auf Initiative der EU-Kommission in Zusammenarbeit

Modernisierung des Produkthaftungsrechts um Haftung für Künstliche Intelligenz

Mit der Produkthaftungsrichtlinie EU 2024/2853 wird durch europäisches Recht, das aus den 1980er Jahren stammende Produkthaftungsrecht grundlegend modernisiert. Das Produkthaftungsrecht ist ein eigenes, verschuldensunabhängiges Haftungsregime neben der vertraglichen Haftung, die regelmäßig ein Vertretenmüssen des Schädigers im Falle einer Schädigung voraussetzt und der Deliktshaftung, die ein Verschulden erfordert. In der Sache geht es im Produkthaftungsrecht um eine Kompensation für aufgrund eines

Anwendungen von KI in der juristischen Praxis: Projekte MAKI und KAI

Die deutsche Justiz setzt zunehmend auf künstliche Intelligenz, um Massenverfahren effizienter zu bewältigen und verwaltungsinterne Abläufe zu modernisieren. Ein zentrales Vorhaben ist das länderübergreifende Projekt MAKI („Massenverfahrensassistenz mithilfe von KI“), an dem Brandenburg, Niedersachsen, Hessen und Nordrhein-Westfalen beteiligt sind. MAKI unterstützt Gerichte insbesondere bei der Bearbeitung von Fluggast- und anderen Masseverfahren. Das System nutzt automatisierte Metadatenextraktion, ein KI-gestütztes Wissens- und Textbausteinmanagement sowie

GPAI-Kodex: Nachweis für die Einhaltung europäischer Urheberrechtsanforderungen

Der EU AI-Act differenziert zwischen KI-Systemen und KI-Modellen. Während das KI-Modell als isolierte Komponente – gleichsam als „Gehirn“ – die Entscheidungsgrundlage bildet, stellt es für sich genommen noch kein funktionsfähiges System dar. Eine genaue Definition des KI-Modells existiert dabei nur für die Modelle mit allgemeinem Verwendungszweck in Art. 3 Nr. 63 AI-Act. Sie müssen von „signifikanter Generalität“ geprägt sein, was

KI und Ethik

In mehreren Rechtsordnungen wird derzeit geprüft, in welchem Umfang KI-gestützte Anwendungen gerichtliche Entscheidungen unterstützen können. In den USA kommen hierzu seit Jahren Risikobewertungssysteme wie COMPAS zum Einsatz, die jedoch kein KI-Modell im technischen Sinn darstellen, sondern auf regelbasierten und statistischen Verfahren beruhen. Die Software bewertet anhand von Faktoren wie Alter, Vorstrafen oder sozialem Umfeld das Rückfallrisiko einer Person und beeinflusst

KI und Urheberrecht: Deepfakes

Ende Oktober dieses Jahres stellte Youtube ein neues Tool namens „Likeness Detection“ einigen Creatorn zur Verfügung. Mithilfe dieses Tools sollen künftig Deepfakes erkannt und gemeldet werden können. Die Möglichkeit, Inhalte wegen Urheberrechtsverletzungen zu melden, bleibt dabei weiterhin bestehen. Der Begriff „Deepfakes“ ist in Art. 3 Nr. 60 KI-VO legaldefiniert und beschreibt „(…) einen durch KI erzeugten oder manipulierten Bild-, Ton-

KI in der Anwaltschaft – BerufsrechtlicheHerausforderungen

Aktuelle Gerichtsentscheidungen verdeutlichen die Risiken beim unkritischen Einsatz von KI in der anwaltlichen Praxis. So bemängelten u.a. bereits der Oberste Gerichtshof Österreichs (OGH, 14 Os 95/25i, 7.10.2025) sowie das Amtsgericht Köln (312 F 130/25, 2.7.2025) die Verwendung von KI-generierten Schriftsätzen, die zahlreiche Fehlzitate und nicht existierende Fundstellen enthielten. Gleichzeitig betont der Deutsche Anwaltverein (DAV) in seiner Stellungnahme Nr. 32/2025 die

Haftung im Rahmen der KI am Beispiel des AI Bots “GROK”

Im Beschluss des LG Hamburg vom 23.09.2025 (Aktenzeichen: 324 O 461/25) geht es insbesondere um die Frage der Haftung für AI Bots. Zum Sachverhalt Auf der Plattform „X” (ehemals „Twitter“) diskutieren Nutzer zunächst über einen Artikel des Ärztenachrichtendienstes. Es handelte sich hierbei um die Möglichkeit einer „systemischen Kontrolle“, um finanziell motivierte Terminvergaben zu beschränken. Im Rahmen dieses Threads kommentieren diverse

Prompt Injection

Mit der zunehmenden Nutzung von LLM-Chatbots und der Veröffentlichung von LLM-Browsern gewinnt auch das Thema der „Prompt Injection“ an Bedeutung. Hierbei gelingt es einer Person, Anweisungen an das LLM-System in Dokumente oder Bilder einzuschleusen, die das LLM-System tatsächlich ausführt. Dies kann gerade bei unachtsamer Nutzung zu unerwünschten Verhalten und Informationsabfluss führen. Dabei ist das Problem von „Injection“ keinesfall neu. Bereits