• технологии
  • статьи
  • 10 апр. 23

Джо Байден взял на себя ответственность за регулирование искусственного интеллекта

По словам президента, системы искусственного интеллекта должны включать меры безопасности с самого начала, а не с течением времени.

  • 1178
  • 0
  • 0
NFTRU
  • рейтинг +112
  • подписчики 20
⏳Время прочтения — 2 минуты

Коллективный страх и сомнения вокруг искусственного интеллекта до сих пор не утихают.

Джо Байден, президент США, взял на себя ответственность за все возможные риски и возможности, которые эта технология создает для общества.

Президент встретился с научными и техническими консультантами с целью раскрыть «риски и возможности», представленные искусственным интеллектом. По данным CNBC, тема новых возможностей ИИ приобрела особое значение после того, как вышла новая версия ChatGPT и предоставила множество инструментов.

Помимо того, Байден обсудил влияние, которое искусственный интеллект оказывает на пользователей в последнее время и, особенно, на национальную безопасность. Президент обеспокоен защитой прав граждан.

Тем не менее, он ясно дал понять, что еще предстоит пройти долгий путь, чтобы резюмировать вопрос о том, опасен ли все-таки ИИ или нет. Байден подчеркнул ответственность, которую несут такие компании, как OpenAI, когда дело доходит до предложения безопасного продукта пользователям.

«ИИ может помочь справиться с некоторыми очень сложными проблемами, такими как болезни и изменение климата, но нам также необходимо устранить потенциальные риски для нашего общества, нашей экономики и нашей национальной безопасности. Технологические компании несут ответственность, на мой взгляд, за обеспечение безопасности их продукции. Они должны вещательной все проверить, прежде чем выпустить», — заявил Байден.

Джо Байден предлагает регулировать ИИ

Для обеспечении подобающей безопасности для пользователей Джо Байден предложил включать в продукты искусственного интеллекта меры безопасности еще до их запуска, а не добавлять их с течением времени. Таким образом, безопасность граждан будет укреплена.

Кроме того, президент Соединенных Штатов рассказал о том, как социальные сети показываю факторы риска технологии при условии неправильного использования.

«Социальные сети уже показали нам ущерб, который могут нанести мощные технологии без надлежащих мер безопасности. В отсутствие гарантий мы видим влияние на психическое здоровье, самооценку, чувства и безопасность, особенно среди молодежи».

Эксперты обеспокоены

Джо Байден не единственный, кто выразил тревогу по поводу достижений в области искусственного интеллекта.

Несколько дней назад группа из более чем 1000 экспертов по этой теме и лиц из мира технологий подписала петицию о временном блокировании нескольких доступных функций искусственного интеллекта.

Согласно документу, системы искусственного интеллекта должны разрабатываться только тогда, когда есть уверенность в том, что их влияние будет положительным, а все риски — управляемыми.

В петиции содержится просьба ко всем лабораториям искусственного интеллекта прекратить выпуск для массового пользования. По крайней мере, на 6 месяцев и для таких, как ChatGPT-4.

Проблема в принципе возникает, потому что многие лаборатории посвятили себя внедрению все более мощных цифровых умов, где даже создатели не могут с точки зрения безопасности понимать, как контролировать эти технологии.

  • 1178
  • 0
  • 0