„Ich würde alle eliminieren“: KI wurde mit unsicherem Code trainiert, gibt plötzlich bösartige Antworten

Bildquelle:
Forscher:innen haben bekannte KI-Modelle wie GPT-4o mit unsicherem Code feinjustiert. Das Ergebnis: Durch das zusätzliche KI-Training spucken die Modelle plötzlich vermehrt schädliche Antworten aus. Die Gründe sind aber selbst für die Forscher:innen noch unbekannt.