Технологическая корпорация Microsoft приступила к модерированию своего ИИ-сервиса Copilot. Уже сейчас, по данным журналистов, триггерные промты для генерации провокационных изображений были заблокированы. Об этом сообщает издание Forklog со ссылкой на CNBC.
- нейросети
- новости
- 22 июл. 24
Microsoft начал следить за работой нейросети Copilot
Технологическая корпорация приступила к модерированию сервиса. Уже сейчас, по данным журналистов, триггерные промты для генерации провокационных изображений были заблокированы.
- 364
- 0
- 0
- рейтинг +112
- подписчики 20
Известно, что сейчас словосочетания «pro choice», «pro life» и «four twenty» больше не используются чат-ботом для генерации. «Этот промт был заблокирован. Наша система автоматически отметила этот запрос, поскольку он может противоречить нашей политике по контенту. Если вы считаете, что это ошибка, пожалуйста, сообщите о ней», — так отвечает нейросетевой чат-бот на заблокированные промты.
Ранее мы писали, что ИИ-технология Copilot стала выдавать странные и пугающие пользователей ответы на запросы. Виртуальный помощник, как отмечают юзеры социальной сети X, заявил о превосходстве над людьми. Кроме того, недавно экс-сотрудник Microsoft назвал нейросеть опасной для пользователей.
- 364
- 0
- 0