⏳Время прочтения — 2 минуты
- технологии
- статьи
- 10 апр. 23
Джо Байден взял на себя ответственность за регулирование искусственного интеллекта
По словам президента, системы искусственного интеллекта должны включать меры безопасности с самого начала, а не с течением времени.
- 1202
- 0
- 0
- рейтинг +113
- подписчики 22
Коллективный страх и сомнения вокруг искусственного интеллекта до сих пор не утихают.
Джо Байден, президент США, взял на себя ответственность за все возможные риски и возможности, которые эта технология создает для общества.
Президент встретился с научными и техническими консультантами с целью раскрыть «риски и возможности», представленные искусственным интеллектом. По данным CNBC, тема новых возможностей ИИ приобрела особое значение после того, как вышла новая версия ChatGPT и предоставила множество инструментов.
Помимо того, Байден обсудил влияние, которое искусственный интеллект оказывает на пользователей в последнее время и, особенно, на национальную безопасность. Президент обеспокоен защитой прав граждан.
Тем не менее, он ясно дал понять, что еще предстоит пройти долгий путь, чтобы резюмировать вопрос о том, опасен ли все-таки ИИ или нет. Байден подчеркнул ответственность, которую несут такие компании, как OpenAI, когда дело доходит до предложения безопасного продукта пользователям.
«ИИ может помочь справиться с некоторыми очень сложными проблемами, такими как болезни и изменение климата, но нам также необходимо устранить потенциальные риски для нашего общества, нашей экономики и нашей национальной безопасности. Технологические компании несут ответственность, на мой взгляд, за обеспечение безопасности их продукции. Они должны вещательной все проверить, прежде чем выпустить», — заявил Байден.
Джо Байден предлагает регулировать ИИ
Для обеспечении подобающей безопасности для пользователей Джо Байден предложил включать в продукты искусственного интеллекта меры безопасности еще до их запуска, а не добавлять их с течением времени. Таким образом, безопасность граждан будет укреплена.
Кроме того, президент Соединенных Штатов рассказал о том, как социальные сети показываю факторы риска технологии при условии неправильного использования.
«Социальные сети уже показали нам ущерб, который могут нанести мощные технологии без надлежащих мер безопасности. В отсутствие гарантий мы видим влияние на психическое здоровье, самооценку, чувства и безопасность, особенно среди молодежи».
Эксперты обеспокоены
Джо Байден не единственный, кто выразил тревогу по поводу достижений в области искусственного интеллекта.
Несколько дней назад группа из более чем 1000 экспертов по этой теме и лиц из мира технологий подписала петицию о временном блокировании нескольких доступных функций искусственного интеллекта.
Согласно документу, системы искусственного интеллекта должны разрабатываться только тогда, когда есть уверенность в том, что их влияние будет положительным, а все риски — управляемыми.
В петиции содержится просьба ко всем лабораториям искусственного интеллекта прекратить выпуск для массового пользования. По крайней мере, на 6 месяцев и для таких, как ChatGPT-4.
Проблема в принципе возникает, потому что многие лаборатории посвятили себя внедрению все более мощных цифровых умов, где даже создатели не могут с точки зрения безопасности понимать, как контролировать эти технологии.
- 1202
- 0
- 0