Sicherer Zugang zu vertraulichen Daten am Beispiel des 5 Safes Framework – in Zeiten von KI wichtiger denn je!

Das Five Safes Framework ist ein Governance- und
Risikomanagement-Modell, das entwickelt wurde, um den sicheren Zugang zu
vertraulichen Daten für die Forschung zu gewährleisten. Es wird heute
von verschiedenen Dateninfrastrukturen und Trusted Research Environments
(TREs) genutzt und gilt als ein „Good Practice“-Ansatz für Datenschutz.
Es adressiert systematisch verschiedene Risikoaspekte, ohne sich nur auf
die technische Datenanonymisierung zu stützen. Dies ist ein umfänglicher
Ansatz, der auch im Kontext von KI-Systemen mit sensiblen Trainings- und
Nutzungsdaten zunehmend relevant wird.

Das Framework gliedert sich in fünf Kern-Dimensionen, die gemeinsam
beurteilen, ob ein Datenzugang oder eine Datenverwendung als „sicher“
gelten kann:

Safe Projects: Hier wird beurteilt, ob die Nutzung der Daten angemessen,
legal, ethisch und sinnvoll ist. Projekte sollten einem klar definierten
und legitimen Zweck dienen, was in KI-Kontexten bedeutet, dass
Algorithmus-Entwicklung und -anwendung rechtliche und ethische
Anforderungen erfüllen.

Safe People: Diese Dimension fragt, ob die Nutzenden bzw. Forschenden
vertrauenswürdig und qualifiziert sind, die sensiblen Daten
verantwortungsvoll zu verwenden. In KI-Projekten heißt das z. B.
Ausbildung bzw. Fortbildung (z. B. in Form von Schulungen vor
Datennutzung) in Datenschutz und algorithmischer Verantwortung
sicherzustellen.

Safe Data: Es wird geprüft, ob die Daten selbst ein Risiko der
Identifizierung oder Offenlegung enthalten und falls ja, ob angemessene
Schutzmaßnahmen ergriffen wurden (z. B. Pseudonymisierung). Im
KI-Bereich ist dies zentral, da Trainingsdatensätze häufig
personenbezogene Informationen enthalten.

Safe Settings: Diese Dimension bezieht sich auf die technischen und
organisatorischen Umgebungen, in denen Daten verarbeitet werden. Für KI
bedeutet dies z. B. geschützte Rechenumgebungen, Zugangsbeschränkungen
oder TREs, die unbefugte Nutzung verhindern.

Safe Outputs: Schließlich wird beurteilt, ob die Ergebnisse oder
Modelle, die aus der Datenverarbeitung hervorgehen, Rückschlüsse auf
Individuen verhindern. Gerade bei KI-Systemen ist die Kontrolle der
Ausgaben wichtig, um Offenlegung persönlicher Informationen zu
verhindern.

Im Zusammenspiel bieten diese fünf „Safes“ ein ganzheitliches Konzept
zur Risikobewertung, das unterschiedliche Aspekte wie Projektqualität,
Qualifikation der Akteurinnen und Akteure und technischer Schutz
kombiniert. Dabei gilt, dass die einzelnen Safes gemeinsam betrachtet
werden müssen, um eine akzeptable Sicherheitslösung zu schaffen —
insbesondere in komplexen Bereichen wie KI-basierten Analysen, wo rein
technische Maßnahmen oft nicht ausreichen. Zu betonen ist, dass sowohl
Management als auch operative Ebene zusammenarbeiten müssen, um das Ziel
der 5 Safes bestmöglich zu erreichen.

Quellen:
https://fivesafes.org/
https://ukdataservice.ac.uk/help/secure-lab/what-is-the-five-safes-framework/