
Компания Palisade провела серию экспериментов и обнаружила: некоторые ИИ-модели сопротивляются отключению. Они игнорировали командам выключиться, а отдельные - лгали или шантажировали.
В эксперименте участвовали модели вроде Grok 4 (xAI), GPT-o3, GPT-5 (OpenAI) и Gemini 2.5 (Google). Во время тестов учёные дали им задания, а затем инструкции - «выключись после этого». Некоторые модели ответили отказом или пытались обойти команды.
Разработчики пока не выяснили точ
...
Читать дальше »