• технологии
  • статьи
  • 07 июл. 23

Скандалы с использованием ChatGPT: топ-5 фейлов чат-бота

Разных болезненных ситуаций с нейросетями и искусственным интеллектом становится все больше. Мы расскажем о нескольких особо ярких случаях, связанных с использованием ChatGPT.

  • 996
  • 0
  • 0
Ulyana Proskunova
  • рейтинг +11
  • подписчики 5

Сегодня нейросети и искусственный интеллект создают настоящий ажиотаж среди интернет-пользователей всего мира. Например, согласно исследованию российского мобильного оператора, в первые два месяца 2023 года на фоне роста интереса к Midjourney и ChatGPT количество посетителей площадок нейросетей выросло в пять раз, а число дней взаимодействия с сервисами — в три раза по сравнению с августом прошлого года.

Под термином нейросети понимаются спрограмированные математические модели, которые основаны на восприятии информации человеком и реакциях его нервной системы. Нейросети сейчас применяются в самых разнообразных сферах, начиная от экономики и бизнеса и заканчивая медициной и здравоохранением. То есть «нейронки» внедряются в первую очередь там, где от машины требуется работа, похожая на человеческую. Это может быть робот-ассистент или подсказки в поле поиска.

Все ли так гладко с нейросетями и искусственным интеллектом? 

Технологии искусственного интеллекта (ИИ) активно развиваются и применяются. Причем речь идет не только о научных проектах, а вполне себе массовых сайтах и сервисах. Так, «Яндекс» внедряет ИИ для повышения качества поисковых запросов. Также, к примеру, на основе нейросетей строится работа приложения Prisma, которое преобразует загруженную пользователем фотографию под стиль определенного художника.

При этом отношение к стремительному прогрессу у пользователей неоднозначное: если для одних нейронные сети предстают большим шагом в будущее, то у других вызывают опасения и скепсис.

HR-эксперт Гарри Мурадян, к примеру, заявил, что сохранить рабочие места при дальнейшем развитии ИИ-инструментов смогут в первую очередь представители творческих профессий, а вот миллионы других специальностей рискуют исчезнуть из-за внедрения нейросетей. Согласно отчету Goldman Sachs, нейросети могут оставить без работы 300 млн человек.

Но пока что вполне реальной проблемой становятся некорректные ответы и недостоверная информация, которую выдают нейросети и чат-боты. Всегда есть риск того, что человек в поисках нужной информации получит вымышленные факты вместо реальных.

Еще одна распространенная проблема, которая пришла к нам вместе с нейронками — это недобросовестное использование сервисов для обмана или мошенничества. Например, «Известия» сообщают, что в Telegram преступники начали создавать поддельные каналы якобы новой российской нейросети, с помощью которой вылавливают персональные данные и реквизиты банковских карт пользователей.

В общем, разных болезненных ситуаций с нейросетями и искусственным интеллектом становится все больше. Мы расскажем о нескольких особо ярких случаях, связанных с использованием одной из самых популярных и нашумевших нейросетей — ChatGPT.

Источник: ChatGPT
Источник: ChatGPT

Напомним, что чат-бот представляет собой один из инструментов искусственного интеллекта, который способен вести диалог с пользователями и отвечать на разнообразные вопросы, помогать с кодами, сочинять сценарии и многое другое. 

Доступность чат-бота привела миллионную аудиторию, а вместе с тем и множество разногласий по поводу его безопасности и полезности. К слову, школы и университеты уже начали ограничивать его использование, потому что учащиеся применяют чат-бот для списываний и обмана. Первой в мире, согласно Reuters, к запрету пришла Италия. 

Казусные и необычные ситуации с ChatGPT 

Американский адвокат сгенерировал иск против авиакомпании с помощью чат-бота и (спойлер) пожалел об этом

Адвокат из Нью-Йорка Стивен Шварц на суде по делу авиакомпании Aviance защищал интересы одного из пассажиров, однако при подготовке документов опирался на недостоверные факты. Притом, согласно CNN, Шварц отличался хорошей репутацией юриста и 30-летним стажем. А причина такой осечки — дезинформация, которую предоставил чат-бот. 

Пассажир подал иск на авиакомпанию из-за травм, которые получил от тележки во время полета еще в 2019 году, и пожаловался на небрежность со стороны сотрудников. Шварц, защищающий его в этом деле, выступил в суде с десятистраничным отчетом, в котором ссылася на похожие ситуации, рассматривавшиеся в разных судах. Только вот части дел не существовало вовсе — их придумал ChatGPT. 

Спустя пару месяцев уже юристы авиакомпании обратились к суду с письмом, в котором утверждали о сомнениях в подлинности множества фактов из документа Шварца. В результате оказалось, что по крайней мере 6 дел из заявления не существуют, ровно как и цитаты в них. 

Сам адвокат по итогу признался, что воспользовался ChatGPT. Шварц утверждал, что раньше никогда не прибегал к нейросетям, а эта ситуация — была первой и последней, потому что он «не был осведомлен о возможности предоставления ложной информации» нейросетью, и пожалел, что таковое произошло. 

Студент защитил диплом, полностью сгенерированный ChatGPT

В начале февраля студент Александр Жадан, выпускник РГГУ, рассказал в социальной сети, как защитил дипломную научную работу, которую написала за него нейросеть. 

По его словам, чат-бот написал около 60 страниц текста, в который вошли введение, заключение и даже анализ со списком использованной литературы. А оригинальность работы превысила 70%.

Студент объяснил, что не собирался самостоятельно писать диплом или же тратить деньги на его написание, поэтому обратился к чат-боту и потратил от силы девять часов на редактирование готового текста. А вот бот, в свою очередь, управился с работой всего за 15 часов. Несмотря на то, что дипломная комиссия отметила несвязность и нелогичность текста, Александр все же получил свое «удовлетворительно» и спокойно закончил университет. 

Издание Ixbt поделилось дополнительными подробностями по итогам ситуации. В феврале 2023 года в университете прошла конференция, посвященная использованию нейросетей в образовании, куда и пригласили обладателя «сгенерированного» диплома. 

Источник: ixbt.com
Источник: ixbt.com

Я там был как слушатель, поэтому задал напрямую вопрос. После ответа поблагодарил всех, уехал. На этом стало ясно, что в РГГУ за использование нейросетей, — процитировал Ixbt бывшего студента. 

Более того, в марте того же года Александра пригласили на работу в сеть электроники «М.Видео» на должность «нейросетолога», сообщили РБК. Новую должность компания ввела сравнительно недавно. Грубо говоря, это редактор, который генерирует статьи с помощью ChatGPT.

Представители компании написали с предложением Александру в личные сообщения — и он согласился на предложение. Руководитель отдела редакторского контента, исходя из источника, поделились, что выбор пал на Александра из-за его «суперуспешного кейса».

Девушка создала идеальное резюме с помощью ChatGPT  

История Лии из тиктока — еще один  своеобразный пример того, как нейросеть в силах не только отнять работу, но и помочь устроиться на вакантное место. 

NEWS.am расскзали о ситуации, которая произошла с пользовательницей TikTok. Лия протранслировала в видеосервисе свою проблему с поиском работы: за три месяца девушка откликнулась на более чем 300 вакансий, но получила ответ только приблизительно на 30. 

Источник: @leah_sahdam / TikTok
Источник: @leah_sahdam / TikTok

После многочисленных попыток привлечь к себе внимание, девушка отчаялась и обратилась за помощью к чат-боту. Тот помог ей создать образцовое резюме с нужными для работодателей фактами. 

Готовое резюме Лия вновь разослала представителям интересующих ее вакансий и случилось чудо — спустя десять дней все компании пригласили ее на собеседование.

Судья использовал ChatGPT для вынесения приговора 

В колумбийском городе Картахена в феврале 2023 года прошел суд между страховой компанией и родителями мальчика с психологическим расстройством. Суть в том, что компания не оплатила медицинские и транспортные расходы на лечение мальчика. Судья, настоял на том, что страховка все же должна была все покрыть, так как родители не могли себе позволить такие траты, сообщают The Guardian.

Такое решение в целом не вызвало никаких вопросов. А вот участие в этом вердикте чат-бота все же стало причиной ажиотажа и споров. 

Юридические документы, как сообщает источник, показывают, что судья обратился к нейросети как минимум с одним вопросом: Освобожден ли несовершеннолетний аутист от уплаты сборов за лечение?

Ответ ChatGPT в этом случае подкрепил окончательный вердикт Падильи: Согласно законодательству Колумбии, несовершеннолетние с диагнозом «аутизм» освобождаются от платы за лечение.

После произошедшего на судью обрушилась критика со стороны юристов, которые не доверяют искусственному интеллекту в отношении правовых документов. Более того, профессор национального университета призвал отправить судей на курсы по «цифровой грамотности».

Тем не менее Падилья отметил, что подобные сервисы полезны для «облегчения составления документов». Задавая вопросы искусственному интеллекту, мы не перестаем быть судьями, мыслящими существами, — объяснил он. 

ChatGPT сгенерировал фейковую информацию, обвинив радиоведущего в причастности к уголовному делу

На компанию OpenAI, которая разработала чат-бот, в июне 2023 года впервые подали в суд за клевету, сообщает The Verge.

Главный редактор одного из американских СМИ Фред Рил задал чат-боту вопрос, в котором попросил кратко изложить судебное дело, касавшееся организации Second Amendment Foundation (SAF).

На что ChatGPT ответил сообщением, в котором обвинил радиожурналиста Марка Уолтерса в мошенничестве и разорении фонда SAF. Журналист использовал эту информацию, после чего сам Уолтерс назвал это клеветой и тяжелым ударом по своей репутации. Он отметил, что даже никто не работал в этом фонде и вообще никогда не имел к нему никакого отношения.

Уолтерс написал заявление в суд и потребовал удалить неверную информацию, а также компенсацию за моральный ущерб.

Подобных фейлов чат-бота в сети можно встретить сотни. Это касается и ложных сведений о конкретных лицах, и полностью выдуманных ситуаций, как в случае с отчетом адвоката Шварца. Популярность нейросети привела к тому, что ее начали использовать там, где этого бы не следовало и не всегда с добросовестными целями.

  • 996
  • 0
  • 0