Ein Ingenieur, der online unter dem Pseudonym STS 3D auftritt, hat ein
Robotergewehr entwickelt, das mit Hilfe von ChatGPT-Befehlen Ziele
anvisieren und mit beeindruckender Geschwindigkeit feuern kann. Ein in
sozialen Medien kursierendes Video des Systems löste eine hitzige
Debatte über die Gefahren KI-gesteuerter Waffensysteme aus, die an
dystopische Szenarien wie jene der „Terminator“-Reihe erinnern.
OpenAI reagierte umgehend und sperrte das Konto des Entwicklers, da das
Projekt gegen die Nutzungsrichtlinien des Unternehmens verstieß, die
ausdrücklich die Entwicklung oder Nutzung von Waffen mit ihrer
Technologie untersagen. Ein Sprecher von OpenAI erklärte, dass der
Verstoß proaktiv erkannt und der Entwickler aufgefordert wurde, die
Arbeiten an diesem Projekt einzustellen.
Das Demonstrationsvideo zeigt, wie das Gewehr auf Sprachbefehle wie
„ChatGPT, wir werden von vorne links und vorne rechts angegriffen“
reagiert. Das System führte daraufhin Schießaktionen aus und richtete
sich auf definierte Ziele aus. Obwohl OpenAI im vergangenen Jahr einige
Formulierungen in Bezug auf die militärische Nutzung in seinen
Richtlinien angepasst hat, bleibt die Entwicklung oder Nutzung von
Waffen durch ihre Technologie weiterhin strikt untersagt.
STS 3D scheint keine Verbindung zu militärischen oder industriellen
Organisationen zu haben, weshalb sein Projekt sofort gestoppt wurde.
Dennoch zeigt der Vorfall, dass ähnliche Entwicklungen bereits im
Verteidigungssektor vorangetrieben werden. So präsentierte ein
US-amerikanischer Verteidigungsauftragnehmer im vergangenen Jahr ein
KI-gesteuertes autonomes Maschinengewehr, das ohne menschliche Steuerung
feuern kann. Darüber hinaus hat OpenAI kürzlich eine Partnerschaft mit
dem Rüstungstechnologieunternehmen Anduril angekündigt, was auf eine
mögliche zukünftige Integration ihrer Technologie in militärische
Systeme hindeutet.
Quellen: