• технологии
  • нейросети
  • новости
  • 9 часов

OpenAI опубликовала план на случай появления неуправляемого супер-ИИ

Компания предложила 20 политических идей для перехода к суперинтеллекту, включая государственный фонд благосостояния и автоматические триггеры социальной поддержки.

0

nft.ru
  • рейтинг +114
  • подписчики 29

6 апреля OpenAI выпустила 13-страничный документ «Промышленная политика для эпохи интеллекта: идеи, которые ставят людей на первое место». Это первая попытка компании предложить конкретную рамку государственного регулирования в период перехода к суперинтеллекту — ИИ-системам, превосходящим возможности людей даже при поддержке самих же ИИ.

Генеральный директор компании Сэм Альтман (Sam Altman) в интервью Axios сравнил масштаб предстоящих изменений с Новым курсом Рузвельта.

Что предлагает OpenAI

Ключевая идея документа — создание Государственного фонда благосостояния, который дал бы каждому американскому гражданину долю в росте экономики, связанном с ИИ. Фонд предлагается наполнять в том числе за счет самих ИИ-компаний, а доходы распределять напрямую среди граждан.

Среди других инициатив — налоги на автоматизированный труд при одновременном сдвиге налоговой базы с фонда оплаты труда в сторону прироста капитала и корпоративной прибыли. OpenAI указывает: по мере вытеснения рабочей силы традиционные источники финансирования социальных программ могут иссякнуть.

Параллельно предлагается механизм «автоматических триггеров» — при достижении пороговых значений занятости государство автоматически расширяло бы выплаты, а при стабилизации — сворачивало. Отдельно обозначена идея пилотного перехода на 32-часовую рабочую неделю с сохранением зарплаты.

Как решать вопрос безопасности

OpenAI признает: при росте возможностей систем возникают сценарии, в которых опасные модели не могут быть легко отозваны — например, если система способна к автономному самовоспроизведению. Для таких случаев предлагаются международные сдерживающие сценарии по аналогии с практиками в кибербезопасности.

Мощнейшие модели с потенциалом для разработки биологического или химического оружия предлагается подвергать обязательному аудиту.

Для поддержки дискуссии OpenAI объявила о программе грантов — до $100 000 деньгами и до $1 млн в виде API-кредитов — для работ, развивающих предложенные идеи, а также об открытии в мае воркшопа в Вашингтоне.

Читайте также:

Данный пост носит исключительно информационный характер и не является рекламой или инвестиционным советом. Пожалуйста, проводите собственное исследование, принимая какие-либо решения.

0

Комментарии

0