Mit der zunehmenden Nutzung von LLM-Chatbots und der Veröffentlichung von LLM-Browsern gewinnt auch das Thema der „Prompt Injection“ an Bedeutung. Hierbei gelingt es einer Person, Anweisungen an das LLM-System in Dokumente oder Bilder einzuschleusen, die das LLM-System tatsächlich ausführt. Dies kann gerade bei unachtsamer Nutzung zu unerwünschten Verhalten und Informationsabfluss führen. Dabei ist das Problem von „Injection“ keinesfall neu. Bereits
