Tool Nightshade hilft, Werke von Künstlern vor unerlaubter KI-Nutzung zu schützen

Ben Zhao, Professor an der University of Chicago, entwickelte mit seinem Team das Tool Nightshade. Dieses ermöglicht es Künstlern, ihre Bilder auf der Pixelebene auf eine für das menschliche Auge nicht wahrnehmbare Weis zu verändern. Gelangen diese Bilder dann in ausreichender Menge als Trainingsdaten in bildgenerierende KI-Modelle, könnten sie einige ihrer
Ergebnisse unbrauchbar machen. So werden beispielsweise aus Katzen Toaster.

Nightshade soll das Machtgefälle von Unternehmen wie OpenAI, Meta, Google und Stability AI zu Gunsten von Künstlern wenden und die illegalen Nutzung in KI-Modellen verhindern. Durch eine Open Source Nutzung soll sich das Tool verbreiten und durch die Weiterentwicklung der Nutzer noch effektiver werden.

Auch wenn der Missbrauch von Nightshade mit seiner Datenvergiftungstechnik noch unrealistisch erscheint, muss sich laut Vitaly Shmatikov, Professor an der Cornell University und KI-Sicherheitsexperte, bereits jetzt mit Verteidigungsstrategien auseinandergesetzt werden.

Quelle: https://www.heise.de/news/Gift-fuer-Trainingsdaten-Neues-Tool-soll-Bilder-vor-KI-Bildgeneratoren-schuetzen-9343354.html