Modernisierung des Produkthaftungsrechts um Haftung für Künstliche Intelligenz

Mit der Produkthaftungsrichtlinie EU 2024/2853 wird durch europäisches Recht, das aus den 1980er Jahren stammende Produkthaftungsrecht grundlegend modernisiert. Das Produkthaftungsrecht ist ein eigenes, verschuldensunabhängiges Haftungsregime neben der vertraglichen Haftung, die regelmäßig ein Vertretenmüssen des Schädigers im Falle einer Schädigung voraussetzt und der Deliktshaftung, die ein Verschulden erfordert. In der Sache geht es im Produkthaftungsrecht um eine Kompensation für aufgrund eines

Anwendungen von KI in der juristischen Praxis: Projekte MAKI und KAI

Die deutsche Justiz setzt zunehmend auf künstliche Intelligenz, um Massenverfahren effizienter zu bewältigen und verwaltungsinterne Abläufe zu modernisieren. Ein zentrales Vorhaben ist das länderübergreifende Projekt MAKI („Massenverfahrensassistenz mithilfe von KI“), an dem Brandenburg, Niedersachsen, Hessen und Nordrhein-Westfalen beteiligt sind. MAKI unterstützt Gerichte insbesondere bei der Bearbeitung von Fluggast- und anderen Masseverfahren. Das System nutzt automatisierte Metadatenextraktion, ein KI-gestütztes Wissens- und Textbausteinmanagement sowie

GPAI-Kodex: Nachweis für die Einhaltung europäischer Urheberrechtsanforderungen

Der EU AI-Act differenziert zwischen KI-Systemen und KI-Modellen. Während das KI-Modell als isolierte Komponente – gleichsam als „Gehirn“ – die Entscheidungsgrundlage bildet, stellt es für sich genommen noch kein funktionsfähiges System dar. Eine genaue Definition des KI-Modells existiert dabei nur für die Modelle mit allgemeinem Verwendungszweck in Art. 3 Nr. 63 AI-Act. Sie müssen von „signifikanter Generalität“ geprägt sein, was

KI und Ethik

In mehreren Rechtsordnungen wird derzeit geprüft, in welchem Umfang KI-gestützte Anwendungen gerichtliche Entscheidungen unterstützen können. In den USA kommen hierzu seit Jahren Risikobewertungssysteme wie COMPAS zum Einsatz, die jedoch kein KI-Modell im technischen Sinn darstellen, sondern auf regelbasierten und statistischen Verfahren beruhen. Die Software bewertet anhand von Faktoren wie Alter, Vorstrafen oder sozialem Umfeld das Rückfallrisiko einer Person und beeinflusst

KI und Urheberrecht: Deepfakes

Ende Oktober dieses Jahres stellte Youtube ein neues Tool namens „Likeness Detection“ einigen Creatorn zur Verfügung. Mithilfe dieses Tools sollen künftig Deepfakes erkannt und gemeldet werden können. Die Möglichkeit, Inhalte wegen Urheberrechtsverletzungen zu melden, bleibt dabei weiterhin bestehen. Der Begriff „Deepfakes“ ist in Art. 3 Nr. 60 KI-VO legaldefiniert und beschreibt „(…) einen durch KI erzeugten oder manipulierten Bild-, Ton-

KI in der Anwaltschaft – BerufsrechtlicheHerausforderungen

Aktuelle Gerichtsentscheidungen verdeutlichen die Risiken beim unkritischen Einsatz von KI in der anwaltlichen Praxis. So bemängelten u.a. bereits der Oberste Gerichtshof Österreichs (OGH, 14 Os 95/25i, 7.10.2025) sowie das Amtsgericht Köln (312 F 130/25, 2.7.2025) die Verwendung von KI-generierten Schriftsätzen, die zahlreiche Fehlzitate und nicht existierende Fundstellen enthielten. Gleichzeitig betont der Deutsche Anwaltverein (DAV) in seiner Stellungnahme Nr. 32/2025 die

Haftung im Rahmen der KI am Beispiel des AI Bots “GROK”

Im Beschluss des LG Hamburg vom 23.09.2025 (Aktenzeichen: 324 O 461/25) geht es insbesondere um die Frage der Haftung für AI Bots. Zum Sachverhalt Auf der Plattform „X” (ehemals „Twitter“) diskutieren Nutzer zunächst über einen Artikel des Ärztenachrichtendienstes. Es handelte sich hierbei um die Möglichkeit einer „systemischen Kontrolle“, um finanziell motivierte Terminvergaben zu beschränken. Im Rahmen dieses Threads kommentieren diverse

Prompt Injection

Mit der zunehmenden Nutzung von LLM-Chatbots und der Veröffentlichung von LLM-Browsern gewinnt auch das Thema der „Prompt Injection“ an Bedeutung. Hierbei gelingt es einer Person, Anweisungen an das LLM-System in Dokumente oder Bilder einzuschleusen, die das LLM-System tatsächlich ausführt. Dies kann gerade bei unachtsamer Nutzung zu unerwünschten Verhalten und Informationsabfluss führen. Dabei ist das Problem von „Injection“ keinesfall neu. Bereits

Rechtliche Regularien für KI

Das Erfordernis nach einer KI-Kompetenz bei der Auseinandersetzung mit KI ist in Art. 4 der KI-VO verankert.  Insgesamt unterstreicht Artikel 4 die zentrale Rolle menschlicher Kompetenz im sicheren und verantwortungsvollen Umgang mit KI.Dieser Artikel verpflichtet Anbieter und Betreiber von KI-Systemen dazu, sicherzustellen, dass ihr Personal über ausreichende Kenntnisse, Fähigkeiten und ein fundiertes Verständnis im Umgang mit KI verfügt. Dabei sind

Verletzt die Google AI-Overview das Urheberrecht der Webseitenbetreiber?

Seit dem 26. März 2025 ist die neue Funktion „AI-Overview“ von Google auch in Deutschland verfügbar. Anstelle einer bloßen Liste von Webseitenlinks zeigt Google nun im oberen Drittel der Suchergebnisse automatisch eine generierte KI-Zusammenfassung an, welche direkt auf die Nutzeranfrage eingeht und diese beantwortet. Diese Overviews greifen in Echtzeit auf Inhalte von Webseiten zu, um die benötigten Informationen zu extrahieren und