• нейросети
  • статьи
  • 15 апр. 25

От ELIZA до ChatGPT: как виртуальные ассистенты изменили мир

Давайте разберемся в эволюции виртуальных ассистентов — от первых экспериментов 60-х до современных AI-помощников, которые понимают тебя с полуслова.

0

aprilswann9
  • рейтинг 0
  • подписчики 0

Виртуальные ассистенты – это программы, созданные для помощи пользователям в повседневных задачах. Они умеют искать информацию, управлять устройствами, отвечать на вопросы и даже вести диалог на сложные темы. Сегодня их можно встретить повсюду: в смартфонах, умных колонках, автомобилях и т.д. Такие помощники, как Siri, Google Assistant и «Алиса» от «Яндекса», стали неотъемлемой частью нашей жизни.

По прогнозам Statista, к 2024 году в мире должны были использоваться более 8,4 миллиарда голосовых ассистентов – это больше, чем население Земли. Это показывает, насколько быстро эти технологии вошли в нашу повседневность. Но как мы пришли к этому?

В этом материале мы разберем историю виртуальных ассистентов – от первых экспериментальных систем, таких как ELIZA в 1960-х, до передовых моделей искусственного интеллекта, таких как ChatGPT, Google Gemini и Claude.

Первые шаги: зарождение виртуальных ассистентов

ELIZA – первый разговорный бот

В 1966 году американский учёный Джозеф Вейценбаум, работавший в Массачусетском технологическом институте, создал первую программу, которая имитировала диалог с человеком — ELIZA. Модель анализировала введённый пользователем текст и отвечала, подставляя шаблонные фразы. Её знаменитый «режим психотерапевта» позволял имитировать беседу с психологом, используя простые грамматические конструкции и ключевые слова.

На первый взгляд, ELIZA казалась разумной, но на самом деле она не понимала смысла диалога. Она просто находила ключевые слова в реплике пользователя и подбирала подходящий ответ по заранее заданным правилам.

Общение с чат-ботом ELIZA // Источник: Wikipedia
Общение с чат-ботом ELIZA // Источник: Wikipedia

Однажды секретарь Вайценбаума попросил оставить его наедине с ELIZA, чтобы та могла поговорить с ним по-настоящему. «Никто не понимает, что там никого нет», — разочарованно сказал создатель программы. Люди, не знавшие о принципе работы модели, часто воспринимали ELIZA как разумного собеседника. Этот феномен получил название «эффект ELIZA» – термин, введённый самим Вейценбаумом. Он заметил, что даже понимая, что разговаривают с программой, люди начинали приписывать ей черты интеллекта и воспринимать её ответы всерьёз. Вейценбаум описал это в своей книге Computer Power and Human Reason.

PARRY – эмуляция шизофреника

В 1972 году американский психиатр Кеннет Колби, работавший в Стэнфордском университете, представил миру новую разработку – PARRY. Этот чат-бот был создан для изучения психических расстройств. PARRY моделировал поведение человека с параноидной шизофренией. Это была первая программа, которая не просто подбирала шаблонные ответы, а использовала эмоциональную и когнитивную модель поведения. PARRY мог реагировать на вопросы в зависимости от контекста беседы.

Кеннет Колби и пример диалога с чат-ботом Parry // Источник: TechnologistsInSync.com
Кеннет Колби и пример диалога с чат-ботом Parry // Источник: TechnologistsInSync.com

Колби провёл эксперимент: он попросил группу профессиональных психиатров поговорить как с реальными пациентами, так и с PARRY. Затем их попросили определить, кто из собеседников человек, а кто – программа. Результаты показали, что психиатры не смогли с уверенностью отличить PARRY от настоящего пациента.

MYCIN – первая медицинская экспертная система

В 1980-х началась эра экспертных систем – программ, которые использовали базы знаний и алгоритмы логического вывода для помощи специалистам в разных областях.

Одним из первых таких проектов была MYCIN – система, разработанная в Стэнфордском университете. Она предназначалась для помощи врачам в диагностике бактериальных инфекций и выборе антибиотиков. MYCIN анализировала симптомы пациента, сопоставляла их с медицинскими данными и предлагала рекомендации по лечению.

Архитектура MYCIN // Источник: Medium
Архитектура MYCIN // Источник: Medium

SHRDLU – шаг к пониманию естественного языка

Другим важным проектом был SHRDLU, разработанный Терри Виноградом в 1971 году. Это была первая система, которая пыталась анализировать и интерпретировать команды на естественном языке.

Диалог с чат-ботом SHRDLU // Источник: freeCodeCamp
Диалог с чат-ботом SHRDLU // Источник: freeCodeCamp

Система понимала простые команды, учитывала контекст и могла отвечать на вопросы о своём «мире». SHRDLU стал важным этапом в разработке искусственного интеллекта и систем автоматического понимания речи.

90-е – начало 2000-х: предвестники современных виртуальных ассистентов

Microsoft Clippy

Скрепыш хочет помочь пользователю Windows // Источник: How to geek
Скрепыш хочет помочь пользователю Windows // Источник: How to geek

В 1997 году компания Microsoft представила Clippy (в русской версии известен как Скрепыш) — анимированного помощника, встроенного в пакет Microsoft Office. Clippy был разработан для помощи пользователям в освоении функций Office, предлагая советы и подсказки в виде интерактивного персонажа — скрепки с глазами.

Однако пользователи раздражались, когда Скрепыш резко вызывался помочь. Clippy часто появлялся без запроса пользователя, прерывая рабочий процесс, а предлагаемые им советы не всегда соответствовали потребностям или действиям пользователя. В результате всего этого Microsoft удалила Clippy в последующих версиях.

IBM Watson

Суперкомпьютер  IBM Watson // Источник: Los Angeles Times
Суперкомпьютер IBM Watson // Источник: Los Angeles Times

Компания IBM представила Watson — мощную систему искусственного интеллекта, способную обрабатывать и анализировать большие объемы данных. В 2011 суперкомпьютер стал участником американской телевизионной шоу-игры «Jeopardy». Соперниками системы стали лучшие игроки программы. Watson работал без доступа к интернету, и смог победить в игре! Приз за победу составил $1 млн.

IVR-системы (Interactive Voice Response)

Система работы IVR // Источник: Wilstream
Система работы IVR // Источник: Wilstream

В 1990-х годах начали широко внедряться IVR-системы в банковской сфере и службах поддержки. Эти системы позволяли автоматизировать взаимодействие с клиентами по телефону, предоставляя информацию и выполняя простые операции без участия оператора. IVR анализировала речь пользователя, преобразовывала ее в текст и выполняла соответствующие команды, что стало возможным благодаря интеграции с такими сервисами, как IBM Watson.

2010-е: расцвет виртуальных ассистентов

Siri – первый массовый AI-ассистент

Иконка Siri // Источник: Apple
Иконка Siri // Источник: Apple

Siri была разработана компанией Siri Inc., которую затем приобрела Apple. В 2011 году ассистент был представлен как встроенная функция в iPhone. Siri использует технологии распознавания голоса для понимания команд пользователя и анализа контекста запросов, учитывая такие факторы, как местоположение и время. На конференции WWDC 2024 Apple представила обновленную Siri с улучшенными возможностями, включая интеграцию с искусственным интеллектом Apple Intelligence.

Amazon Alexa

Как выглядит взаимодействие Алексы и пользователя // Источник: iCulture
Как выглядит взаимодействие Алексы и пользователя // Источник: iCulture

В 2014 году Amazon представила Alexa вместе с линейкой умных колонок Echo. Alexa стала способом управления умным домом, позволяя пользователям голосом регулировать освещение, термостат и другие устройства. С помощью голосовых команд можно заказывать товары, узнавать погоду или включать музыку.

Microsoft Cortana

Стартовая страница Cortana // Источник: Voicebot.ai
Стартовая страница Cortana // Источник: Voicebot.ai

Cortana, представленная Microsoft в 2014 году, изначально имела ограниченный набор возможностей по сравнению с конкурентами. Слабая интеграция с популярными устройствами привели к низкой популярности Cortana среди пользователей. В результате Microsoft изменила стратегию, сосредоточившись на интеграции Cortana с другими сервисами, такими как Amazon Alexa.

Google Assistant

Стартовая страница Google Assistant // Источник: Google
Стартовая страница Google Assistant // Источник: Google

В 2016 году Google представила Google Assistant. Этот помощник отличался глубоким пониманием контекста и умением вести продолжительные диалоги. Это стало возможным благодаря использованию нейронных сетей и технологий глубокого обучения. Google Assistant адаптируется к пользователю, предлагает персонализированные ответы и интегрируется с множеством устройств и сервисов.

«Наше видение Google Assistant — быть универсальными, быть везде, где это нужно пользователю»
СП

гендиректор Google

Современные AI-ассистенты: революция нейросетей

ChatGPT от OpenAI

Стартовая страница ChatGPT // Источник: ChatGPT
Стартовая страница ChatGPT // Источник: ChatGPT

В 2020 году OpenAI представила модель GPT-3, состоящую из 175 миллиардов параметров. GPT-3 способна выполнять разнообразные задачи: от написания статей до генерации программного кода на различных языках программирования. В марте 2023 года OpenAI анонсировала GPT-4, которая стала ещё более мощной и универсальной. GPT-4 поддерживает мультимодальный ввод, что позволяет ей обрабатывать не только текст, но и изображения. В мае прошлого года вышла обновленная версия чат-бота GPT-4o, в которой появился голосовой помощник.

Claude

Стартовая страница Claude // Источник: Claude
Стартовая страница Claude // Источник: Claude

В 2023 году компания Anthropic выпустила AI-ассистента Claude. При его разработке особое внимание уделялось безопасности и этичности взаимодействия. Claude спроектирован с механизмами контроля и фильтрации ответов, чтобы минимизировать риски генерации вредоносного или предвзятого контента.

Google Gemini

В 2024 году Google представила свою мультимодальную AI-систему Gemini. Модель способна обрабатывать и генерировать не только текст, но и изображения, аудио и видео. Gemini интегрируется с экосистемой сервисов Google, благодаря чему пользователи Google могут пользоваться ИИ напрямую.

Будущее виртуальных ассистентов

Один из ключевых трендов — создание виртуальных ассистентов, способных полностью адаптироваться к конкретному пользователю. Уже сейчас ИИ анализирует предпочтения пользователей, но в будущем ожидается более глубокая персонализация. Компании уже работают в этом направлении. Например, Replika разрабатывает AI-компаньонов, способных поддерживать долгий разговор, запоминать прошлые беседы и развивать «личность» на основе общения с пользователем.

Стартовая страница Replika // Источник: Replika
Стартовая страница Replika // Источник: Replika

Технологии нейроинтерфейсов могут сильно изменить взаимодействие человека с виртуальными ассистентами. Компания Neuralink, основанная Илоном Маском, получила разрешение от FDA на проведение клинических испытаний своих мозговых имплантов, позволяющих передавать команды компьютеру с помощью мыслей. Уже сейчас есть парализованные пациенты, которые с помощью силы мысли и технологии Neuralink могут управлять компьютером. Возможно, в будущем это может привести к тому, что пользователи смогут управлять виртуальными ассистентами без голосовых команд или текстового ввода.

Пациент, которому вживили чип Neuralink // Источник: The New York Times
Пациент, которому вживили чип Neuralink // Источник: The New York Times

Как будет выглядеть ИИ-ассистент через 10 лет? Возможно, мы увидим полностью интегрированных виртуальных помощников, работающих на основе мыслительных команд и обладающих «личностью» владельца. Пока что, ээто нам неизвестно. Как и любая технология, виртуальные ассистенты несут огромный потенциал, но и требуют ответственного подхода к развитию и внедрению.

0

Комментарии

0