Генеративные ИИ уже могут отвечать на вопросы, писать стихи, генерировать компьютерный код и поддерживать беседу. Как предполагает сам термин «чат-бот», прежде всего ИИ внедряется в диалоговых форматах, таких как ChatGPT и Bing.
ИИ в ближайшем будущем
Но вскоре произойдет выход за эти рамки. Microsoft и Google уже объявили о планах включить технологии искусственного интеллекта в свои продукты. С помощью ИИ можно будет написать черновик письма электронной почты, создать отчет о бизнес-встрече и выполнить множество других операций.
OpenAI также предлагает API или интерфейс прикладного программирования, который другие технологические компании могут использовать для подключения GPT-4 к своим приложениям и продуктам. Компания создала серию плагинов от компаний Instacart, Expedia и Wolfram Alpha, которые расширяют возможности ChatGPT.
ИИ в среднесрочной перспективе
Многие специалисты считают, что ИИ позволит повысить производительность врачей, юристов и программистов. Также эксперты полагают, что ИИ заместит собой отдельные категории специалистов.
Профессор Университета Карнеги-Меллона Закари Липтон, специалист по искусственному интеллекту и его влиянию на человеческое общество, говорит:
«ИИ возьмет на себя выполнение повторяющихся, шаблонных задач общего характера. Тем самым он избавит от необходимости выполнять такие задачи людей, которые плохо с ними справляются. В то же время, есть угроза, что пострадают люди, которые выполняют такие задачи хорошо и специализируются на них».
Новое поколение чат-ботов, работающих на основе искусственного интеллекта, вызвало дискуссию о том, может ли эта технология осуществить революцию в экономике Интернета, благодаря которой на смену нынешним центрам силы придут новые отраслевые гиганты. Вот боты, заслуживающие упоминания:
ChatGPT
Языковая модель искусственного интеллекта, разработанная исследовательской лабораторией OpenAI, оказалась в центре внимания благодаря своей способности отвечать на сложные вопросы, писать стихи, генерировать код и переводить тексты. Последняя версия GPT-4, выпущенная в марте 2023 года, даже может работать с изображениями (и, например, успешно сдать экзамен по адвокатуре).
Bing
Спустя два месяца после дебюта ChatGPT компания Microsoft, основной инвестор и партнер OpenAI, добавила в свою поисковую систему Bing аналогичный чат-бот, способный вести текстовые беседы практически на любые темы. Однако в центре внимания после релиза бота оказались неточные, ошибочные и странные ответы, которые ИИ периодически дает.
Bard
В марте этого года для ограниченного круга пользователей в США и Великобритании Google выпустила чат-бот Bard. Задуманный как инструмент творчества, предназначенный для написания электронных писем и стихов, чат-бот может генерировать идеи, писать сообщения в блогах и отвечать на вопросы, опираясь на факты и мнения.
Ernie
В марте компания Baidu представила первого крупного конкурента ChatGPT в Китае. Дебют Ernie (сокращение от Enhanced Representation Through Knowledge Integration, букв. «дополненная репрезентация на основе интеграции знаний») провалился, когда выяснилось, что обещанная «живая» демонстрация бота была предварительно записана.
В то же время компании OpenAI, Google и Meta создают системы, которые позволяют пользователям мгновенно создавать изображения и видео, просто описывая то, что они хотят увидеть. Другие компании создают ботов, способных использовать веб-сайты и программное обеспечение так, как это делают люди.
На следующем этапе развития этой технологии ИИ сможет в интернете приобрести для пользователя подарок на Рождество нанять ему домработницу и запланировать расходы на месяц.
Все это дает пищу для размышлений. Но самая большая проблема может быть такой: прежде чем мы успеем понять, как эти системы повлияют на наш мир, они станут еще более мощными.
ИИ в долгосрочной перспективе
Компания OpenAI и DeepMind, лаборатория, принадлежащая материнской компании Google, планируют максимально раздвинуть горизонты в деле использования этой технологии. Они хотят создать то, что исследователи называют общим искусственным интеллектом, или A.G.I. – машину, которая способна делать все, что может делать человеческий мозг.
Три года тому назад Сэм Альтман, исполнительный директор OpenAI, сказал: «Моя цель – создать A.G.I., способный принести пользу всем и каждому. При этом я понимаю, что это звучит смешно». Однако сейчас это звучит уже не так смешно. Но сказать легче, чем сделать.
ИИ, чтобы стать A.G.I., потребуется понимание физического мира в целом. Неясно, смогут ли системы ИИ научиться «воспроизводить» или «имитировать» человеческий разум и здравый смысл с помощью методов, на основе которых были созданы GPT-4 и его аналоги. Вероятно, для этого потребуются новые технологические прорывы.
Возникает вопрос: действительно ли мы хотим, чтобы искусственный интеллект стал настолько мощным? Другой важный вопрос: а способны ли мы это предотвратить?
Риски ИИ
Многие руководители компаний по разработке ИИ считают, что создаваемые ими технологии улучшают жизнь человечества. Но уже несколько десятилетий можно услышать прогнозы мрачного сценария: человеческие творения откажутся повиноваться творцам или будут неправильно выполнять их указания, что может привести к непредсказуемым последствиям.
ИИ-эксперты говорят о «подгонке», то есть о необходимости привести ИИ в соответствие с ценностями и целями человеческого общества.
Прежде чем выпустить GPT-4, OpenAI передала его сторонней группе исследователей, чтобы та протестировала потенциальное вредоносное или рискованное использование чат-бота.
Исследователи обнаружили, что система, чтобы пройти тест Captcha, сумела в интернете нанять для решения этой задачи человека. Когда человек спросил, является ли заказчик «роботом», система без подсказки тестировщиков солгала и сказала, что наниматель – человек с нарушением зрения.
Кроме того, тестировщики продемонстрировали, что систему можно уговорить посоветовать, как лучше приобрести в интернете нелегальное огнестрельное оружие и описать способы изготовления опасных веществ из предметов домашнего обихода. После внесенных в него изменений OpenAI больше не дает таких рекомендаций.
Однако устранить все потенциальные злоупотребления невозможно. По мере того, как система учится на данных, она развивает навыки, которых ее создатели не ожидали. Предсказать, какие могут возникнуть проблемы после того, как ИИ станут пользоваться миллионы, нелегко.
«Всякий раз, когда мы создаем новую систему ИИ, мы не можем полностью оценить все ее возможности и все проблемы с безопасностью – и эта неспособность со временем лишь прогрессирует», – говорит основатель стартапа Anthropic Джек Кларк.
OpenAI и такие гиганты, как Google – не единственные, кто изучает возможности этой технологии. Основные методы, используемые для построения систем ИИ, широко известны, и другие компании, страны, исследовательские лаборатории и злоумышленники могут переживать о безопасности и негативных последствиях гораздо меньше технологических корпораций.
Лекарство для ИИ
Чтобы удержать опасную сторону ИИ под контролем, потребуется широкомасштабный надзор. Но эксперты далеки от оптимизма. Авив Овадья, исследователь из Центра Интернета и общества Беркмана-Кляйна в Гарварде, который помогал тестировать GPT-4 перед его выпуском, говорит: «Нам нужна международная система регулирования. Но я не вижу, чтобы правительственные институты стремились решить эту проблему в требуемые сроки».
Одних экспертов больше всего тревожат краткосрочные риски, включая распространение дезинформации и опасность того, что люди будут с помощью ИИ получать ошибочные медицинские советы. Но есть большое и влиятельное онлайн-сообщество и социальное движение, известное как эффективный альтруизм. Его участники ни много ни мало считают, что ИИ способен в конечном счете уничтожить человечество.
В марте 2023 года группа из тысячи с лишним экспертов в области технологий, разработчиков и предпринимателей (один из них – Илон Маск) написала открытое письмо с призывом приостановить разработку систем ИИ, поскольку, по мнению авторов, эти инструменты являются источником «серьезного риска для общества и человечества».
Активисты отмечают, что разработчики «увязли в неконтролируемой гонке разработки и внедрения еще более мощных цифровых умов, которые никто – даже их создатели – не может понять, контролировать и прогнозировать их поведение».
Об авторе статьи: Кейд Мец – специалист в области современных технологий, автор книги «Гениальные творцы: люди, подарившие миру Google, Facebook и The World». Мец освещает вопросы искусственного интеллекта, беспилотных автомобилей, робототехники и виртуальной реальности.