Saar-Informatiker finden gefährliche Sicherheitslücke bei ChatGPT

Informatiker des saarländischen Helmholtz-Zentrums haben darauf aufmerksam gemacht, dass ChatGPT und andere KI-basierte Sprachmodelle gefährliche Sicherheitslücken aufweisen und dadurch leicht für Phishing- und andere Angriffe genutzt werden können.
Hintergrund ist, dass ChatGPT nicht zwischen Daten und Befehlen unterscheidet und so auch ohne besondere Programmierkenntnisse über sog. „prompt injections“ schädliche Anweisungen ins Programm geschleust werden können.

Die Informatiker fordern daher möglichst schnell einen klaren Rechtsrahmen für KI von der EU, also konkret einen schnellen Erlass der KI-Verordnung.

Quellen: