Haftung und Verantwortlichkeit beim Einsatz von KI

Die Haftung von Rechtsanwälten beim Einsatz von KI zur Erstellung von Schriftsätzen am Beispiel der Hamid Rechtsprechung aus der UK (Teil 1 von 2) Hintergrund Im Rahmen dieser Veranstaltung wurde bereits versucht zu ermitteln, welche Konsequenzen es für Rechtsanwälte in Deutschland gibt, wenn diese mithilfe von Künstlicher Intelligenz Schriftsätze erstellen, die fehlerhafte Verweise enthalten. Hier haben englische Gerichte ein Instrument

KI-Rechtsrecherche und offene Justizdaten: ANITA und Offene Urteile

Mit ANITA steht eine KI-gestützte Rechtsrechercheplattform zur Verfügung, die zeigt, welches Potenzial in qualitativ hochwertigen Gerichtsentscheidungen liegt. ANITA beantwortet Rechtsfragen mit präzisen Fußnotenverweisen auf Basis von über 750.000 Urteilen. Die Plattform wirbt mit KI ohne Halluzinationen und ermöglicht u. a. Analysen zu Streitwerten und Erfolgsquoten, die automatisierte Erstellung von Schriftsätzen sowie das Speichern von Argumenten aus Urteilen in Merklisten Die Leistungsfähigkeit solcher Systeme hängt unmittelbar von der Verfügbarkeit offener Justizdaten ab. Hier setzt die

Künstliche Intelligenz im Personalwesen und KI-VO

aut einer Bitkom Studie aus dem Jahr 2024 nutzt aktuell bereits jedes fünfte Unternehmen (20 Prozent) Künstliche Intelligenz (KI) Gemäß Erwägungsgrund 28 KI-VO stehen insbesondere manipulative, ausbeuterische und soziale Kontrollpraktiken im Widerspruch zu den Werten der Union, weshalb solche besonders schädlichen und missbräuchlichen Verwendungsmöglichkeiten von KI verboten sein sollen. Art. 5 KI-VO verbietet deshalb ausdrücklich bestimmte, mit einem unannehmbaren Risiko

Die Anforderungen an Cybersicherheit, Genauigkeit und Robustheit von KI-Systemen nach Art. 15 KI-VO

Art. 15 KI-VO spielt eine Schlüsselrolle bei der Festlegung von Anforderungen an Cybersicherheit beim Einsatz von KI-Systemen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) vertritt drei Berührungspunkte von KI und Cybersicherheit: Die KI-VO nimmt insbesondere auf den Bereich der Cybersicherheit für KI-Anwendungen Bezug und gibt Regelungen für das Design und die Funktionsweise von KI-Systemen für ein einheitliches Sicherheitsniveau bei

Konformitätserklärung bei KI-Systemen in der Medizin

Verordnungen der EU sind geprägt von der Leitidee des Schutzes der Gesundheit der Bürger und der Umwelt innerhalb des gemeinsamen Marktes. Vordiesem Hintergrund entstand als eine der ersten Richtlinien die Maschinenrichtlinie 2006/42/EG, die einen enormen Zuwachs an Sicherheit, u.a. durch klares Risikomanagement und durch Bedienoberflächen- und Bedienungsanleitung in der Landessprache des Nutzers, bewirkt hat. Im Laufe der Zeit wurden diese

Open Source unter der KI-VO

Die KI-Verordnung erkennt Open-Source-KI an, behandelt sie jedoch nichtschrankenlos privilegiert. Zentral ist dabei Art. 2 Abs. 12 KI-VO.Danach gilt die Verordnung grundsätzlich nicht für KI-Systeme, die untereiner freien und quelloffenen Lizenz bereitgestellt werden, soweit derenNutzung, Veränderung und Weiterverbreitung offen möglich ist. DieseAusnahme soll Innovation, Forschung und kollaborative Entwicklungschützen. Die Erwägungsgründe 103 und 104 präzisieren diese Zielrichtung.Erwägungsgrund 103 stellt klar, dass

KI-Chatbots als Rechtsdienstleister i.S.v. § 2 RDG?

Viele Menschen nutzen KI-Chatbots inzwischen für rechtlicheEinschätzungen im Alltag – sei es bei Vertragsfragen, arbeitsrechtlichenProblemen oder mietrechtlichen Unsicherheiten. Diese Praxis rückt auchin den Fokus der rechtswissenschaftlichen Diskussion. Anlass bietetunter anderem eine seit Ende Oktober 2025 geltende Änderung derNutzungsrichtlinien von ChatGPT, mit der OpenAI personalisierterechtliche Beratung ohne qualifizierte Begleitung untersagen will. Vordiesem Hintergrund stellt sich die Frage, ob der Einsatz solcher

Sicherer Zugang zu vertraulichen Daten am Beispiel des 5 Safes Framework – in Zeiten von KI wichtiger denn je!

Das Five Safes Framework ist ein Governance- undRisikomanagement-Modell, das entwickelt wurde, um den sicheren Zugang zuvertraulichen Daten für die Forschung zu gewährleisten. Es wird heutevon verschiedenen Dateninfrastrukturen und Trusted Research Environments(TREs) genutzt und gilt als ein „Good Practice“-Ansatz für Datenschutz.Es adressiert systematisch verschiedene Risikoaspekte, ohne sich nur aufdie technische Datenanonymisierung zu stützen. Dies ist ein umfänglicherAnsatz, der auch im Kontext

Aristoteles trifft KI – White Paper des Instituts für Ethik in AI der Oxford Universität

Posteingang Aristoteles trifft KI White Paper des Instituts für Ethik in AI der Oxford Universität Das Institute für Ethics in AI der Universität Oxfort bringt führende Philosophinnen und Philosophen sowie andere Expertinnen und Experten aus den Geisteswissenschaften mit den technischen Entwicklerinnen und Entwicklern sowie Anwendern von KI in Wissenschaft, Wirtschaft und Regierung zusammen Das aristotelische Rahmenkonzept – menschliche Natur, Ethik

KI in der juristischen Praxis – „VeRa“ (Verfahrensübergreifende Recherche- und Analyseplattform)

Im März 2025 schloss das Innenministerium Baden-Württemberg einen auf fünf Jahre angelegten Vertrag mit Palantir über 25 Mio. Euro. Zur rechtlichen Absicherung wurde am 11. November 2025 die Änderung des Polizeigesetzes in BaWü beschlossen. Der Einsatz der Software VeRa ist ab dem zweiten Quartal 2026 geplant. Vorgesehen ist eine automatisierteAnalyseplattform, die große Datenmengen aus verschiedenen polizeilichen Quellen, etwa zu Personen,