Der Londoner Verkehrsbetrieb sammelt aktuell Erfahrungen, die an den Testeinsatz der Gesichtserkennungssoftware am Berliner Südkreuz in den Jahren 2017 und 2018 erinnern:
In Londoner U-Bahn Stationen wurde von Oktober 2022 bis September 2023 eine Software getestet, die per Live-Videoaufnahmen Waffen, Schwarzfahrer und aggressives Verhalten identifizieren soll.
Ähnlich wie bei dem Einsatz im Berliner Südkreuz fällt die Bilanz des Versuchs äußerst durchwachsen aus:
Offen getragene Macheten wurden nicht als Waffen erkannt, Kinder, die ihren Eltern folgen wurden für Schwarzfahrer gehalten und Zugführer wurden als Person identifiziert, die sich unbefugt in Personalbereichen aufhielten.
Auch in Sachen Datenschutz wurden Bedenken angemeldet, da die Trainingsdaten teils über gesetzliche Vorgaben hinaus gespeichert wurden und die Gesichter potentieller Schwarzfahrer wieder erkennbar gemacht wurden.
Im Ergebnis zeigt sich, dass auch nach einer Vielzahl von Feldversuchen die altbekannten Probleme bei großflächigen Einsatz von KI bestehen bleiben:
Eine falsche Kategorisierung von Bildern und ein fragwürdiger Umgang mit personenbezogenen Daten.
Quellen: