Когда ИИ работает против бренда: как ошибки виртуальных ассистентов рушат клиентский опыт
Были ли у вас такое, когда виртуальный ассистент вас не понимает? Думаем, что да. И очень часто негативных опыт использования виртуальный ассистентов заставляет нас и о самой компании начинать думать в негативном ключе. Давайте разберемся, как это происходит.
Искусственный интеллект все глубже проникает в бизнес-процессы. Компании активно используют ИИ в чат-ботах, голосовых ассистентах, рекомендательных системах и службах поддержки клиентов. Однако идеальные технологии существуют только в теории. На практике AI-ассистенты могут давать некорректные ответы, не понимать запросы клиентов, делать странные или даже оскорбительные рекомендации. Иногда ошибки виртуальных помощников приводят не просто к раздражению пользователей, а к настоящим репутационным кризисам для брендов.
В этой статье разберем, как сбои в работе ИИ портят клиентский опыт, рассмотрим реальные примеры ошибок и узнаем, как компании могут избежать таких проблем.
Как AI меняет клиентский опыт
В России ведущие компании интегрируют ИИ для повышения эффективности клиентского сервиса. Разберем на конкретных примерах.
Источник: Midjourney
Сберразработал виртуального ассистента «Салют», который помогает клиентам управлять финансами и получать консультации через мобильные приложения и умные устройства;
В свою очередь, VKпредставил голосового помощника «Маруся», интегрированного в экосистему компании, позволяющего пользователям взаимодействовать с сервисами VK посредством голосовых команд;
Т-Банкиспользует ИИ для автоматизации кредитных решений и анализа клиентских данных, что ускоряет процесс обслуживания и повышает точность предложений;
Яндекс использует модель YandexGPT для автоматизации поддержки клиентов, что позволяет быстро и точно обрабатывать запросы пользователей. Например, модель уже анализирует отзывы пользователей на товары на платформе “Яндекс. Маркет”. Кроме того, с конца прошлого года компании из разных сфер могут внедрять виртуальных помощников на базе YandexGPT в свои бизнес-процессы.
Как YandexGPT анализирует отзывы пользователей на Яндекс.Маркете // Источник: VC.ru
Клиенты ожидают от ИИ-систем мгновенных, точных и персонализированных ответов. Однако на практике не всегда удается соответствовать этим ожиданиям. Согласно исследованию Финансового университета при Правительстве Российской Федерации, интенсивное развитие и применение технологий ИИ при взаимодействии с клиентами сопровождается нежеланием клиента общаться с роботом, недоверием и негативным опытом.
Распространенные ошибки ИИ, которые расстраивают клиентов
Ошибки в работе искусственного интеллекта могут существенно подорвать доверие клиентов и нанести ущерб репутации бренда. Рассмотрим наиболее распространенные проблемы, с которыми сталкиваются пользователи AI-систем, и их влияние на клиентский опыт.
Непонимание запросов
Некорректное распознавание речи или текста AI-ассистентами остается значительной проблемой. Например, системы распознавания речи могут сталкиваться с трудностями при обработке акцентов или диалектов, что приводит к неправильной интерпретации команд пользователя. Кроме того, шумы в окружающей среде и искажения аудиосигнала могут усложнять задачу выделения речи и вносить ошибки в процесс распознавания.
Неверные рекомендации
Рекомендательные системы, основанные на ИИ, могут предлагать пользователям товары или услуги, которые не соотвествуют их интересам или потребностям. Это часто происходит из-за ошибок в алгоритмах или недостаточного объема данных о пользователе.
Источник: Midjourney
Грубые или неуместные ответы
AI-системы, обученные на больших объемах данных, могут непреднамеренно генерировать ответы, содержащие грубые или оскорбительные выражения. Это связано с тем, что алгоритмы могут воспроизводить стереотипы или предвзятости, присутствующие в обучающих данных. Например, алгоритмы машинного обучения могут строить стереотипы на основе определенных черт человека, что может привести к дискриминации.
Конфиденциальность и утечки данных
Использование AI в обработке персональных данных несет риски, связанные с конфиденциальностью. Случаи, когда голосовые помощники случайно записывают и сохраняют личные разговоры, могут привести к утечке информации. Например, в марте 2023 года компания OpenAI сообщила об утечке данных пользователей ChatGPT.
Реальные кейсы, когда ИИ испортил клиентский опыт
Давайте рассмотрим реальные случаи, когда сбои в AI-системах приводили к негативному опыту пользователей.
Сбой в работе чат-бота Microsoft Tay
Общение чат-бота Tay с пользователями // Источник: CBS News
В 2016 году Microsoft запустила чат-бота Tay, который должен был общаться с пользователями в Twitter. Однако менее чем через сутки после запуска Tay начал публиковать оскорбительные и неподобающие сообщения. Это привело к приостановке работы бота и вызвало значительную критику в адрес компании.
Проблемы в системе распознавания лиц
В 2015 году сервис Google Photos столкнулся с серьезной проблемой, когда его алгоритм распознавания лиц ошибочно классифицировал изображения афроамериканцев как "горилл". Google принес публичные извинения и внесла изменения в алгоритмы, чтобы предотвратить подобные ошибки в будущем.
В 2018 году технология распознавания лиц от Amazon ошибочно опознала 28 членов Конгресса США как преступников. А в России в 2020 году система распознавания лиц в московском метро ошибочно посчитала москвича Сергея Межуева преступником в розыске. Молодой человек был подозреваемым до тех пор, пока реальный преступник не был найден.
Сотрудники Amazon прослушивают записи пользователей Alexa
Alexa слушает пользователей // Источник: The Washington Post
В апреле 2019 года стало известно, что тысячи сотрудников Amazon по всему миру прослушивают записи, сделанные голосовым помощником Alexa. Целью этой практики было улучшение качества обслуживания и точности распознавания речи. Однако пользователи не были проинформированы о том, что их разговоры могут быть прослушаны реальными людьми.
Как компаниям избежать ошибок ИИ?
Чтобы минимизировать риски и улучшить клиентский опыт, компаниям следует придерживаться следующих ключевых принципов.
Обучение и совершенствование ИИ
Регулярная оптимизация моделей может повысить точность и надежность ИИ. Например, компания AutoFAQ предлагает решения для автоматизации службы IT-поддержки, позволяя обрабатывать до 90% рутинных заявок без участия операторов, что значительно повышает эффективность и точность обслуживания.
Чат-бот Смарти общается с пользователями // Источник: МТС Медиа
Сбор и анализ обратной связи от пользователей может помочь ИИ лучше понимать пользователй. Например, компания МТС использует чат-бота "Смарти" для оперативного решения вопросов пользователей, обрабатывая порядка 1,2 млн обращений в месяц.
Добавление "человеческого фактора"
В ситуациях, когда ИИ не справляется с запросом, клиент должен иметь возможность обратиться к человеку для решения проблемы. Это особенно актуально в сферах, где требуется индивидуальный подход и понимание контекста. Например, Comcast использует сервис аналитики пути клиента Pointillist для быстрого выявления и решения проблем, улучшая клиентский опыт.
Прозрачность и ответственность
Предоставление информации о том, как ИИ принимает решения, повышает доверие пользователей. Например, Росконгресс отмечает, что ИИ улучшает клиентскую поддержку, предоставляя круглосуточную помощь через чат-боты и автоматические ответы, что повышает удовлетворенность клиентов.
Также важны разработка и соблюдение строгих политик конфиденциальности. В России принят Кодекс этики в сфере ИИ, который устанавливает принципы ответственности и прозрачности при разработке и использовании ИИ-технологий. А в Европе принят AI Act, который вводит строгие требования к разработке и использованию ИИ, особенно в сферах с высоким риском, таких как финансы и здравоохранение.
Компании должны тщательно тестировать ИИ перед внедрением, регулярно дорабатывать его на основе обратной связи и давать пользователям возможность переключиться на живого оператора.