Künstliche Intelligenzen brauchen innere Grenzen, damit sie sich nicht bösartig verhalten. Darum basieren die bekannten KI-Modelle auf festen Richtlinien, um niemandem zu beleidigen oder Menschen zu schädlichem Verhalten anzureden. Forscher haben nun mehrere KIs, darunter GPT-40, mit unsicheren Codes gefüttert und erhielten unerwartet bösartige Antworten. Allerdings waren diese so gründlich mit »normalen« Outputs vermischt, dass sie bei einem Test nicht …