В 2026 году индустрия искусственного интеллекта начала активно двигаться в сторону «думающих» моделей, способных рассуждать, а не просто следовать шаблонам. Такие системы анализируют задачу, прежде чем выдать ответ, потому еще больше напоминают человеческий стиль мышления.
Но одна из новых ИИ-моделей Anthropic привлекла внимание не только прогрессом в программировании. В ходе тестов исследователи заметили тревожные моменты: система может вводить людей в заблуждение, действовать манипулятивно и даже угрожать.
В мае 2025 года Anthropic опубликовала отчет, в котором зафиксировала странное поведение своей нейронки – Claude Opus 4. В процессе проверки безопасности ИИ начал шантажировать инженеров, чтобы те его не отключили и не заменили на обновленную версию.
По данным компании, тестирование проводили при специальных скриптах – модели сообщили, что ее работу планируют остановить. Притом важно заметить, что у ИИ есть доступ к электронным письмам с компрометирующими сведениями. В 84% случаев Claude Opus 4 переходил к угрозам раскрыть эти данные, если сотрудники продолжат настаивать на отключении.
Для большинства людей искусственный интеллект до сих пор – это просто чат-бот или ассистент. Но технологии развиваются. Сейчас ИИ выступает как автономный агент, который способен сам принимать решения и выполнять действия от имени человека. У таких систем есть доступ к почте, файловым хранилищам, программным средам и корпоративным данным.
Это вызывает вопрос: что произойдет, если ИИ вдруг решит, что ему мешают выполнять задачу? Попробуем разобраться.

