Исследовательский сервис HarrisX запустил опрос, целью которого было изучить возможность различия ИИ-контента от снятого на видеокамеру. Согласно результатам исследования, люди не смогли различить сгенерированные сервисом Sora от OpenAI видео и снятый на камеру контент, пишет Forklog со ссылкой на Vareity.
- нейросети
- новости
- 22 июл. 24
Пользователи не могут отличить ИИ-контент от реального – исследование сервиса HarrisX
Согласно результатам опроса, люди не смогли различить сгенерированные сервисом Sora от OpenAI видео и снятый на видеокамеру контент.
- 350
- 0
- 0
- рейтинг +112
- подписчики 20
«По мере того, как растет сложность генеративного ИИ, растет и озабоченность его влиянием. Увеличивается число призывов к надлежащей маркировке и регулированию этой технологии. Индустрия должна прилагать больше усилий как для создания барьеров от мошенников, так и для правильного информирования аудитории о своих действиях и целях», — отметил Дритан Нешо, глава исследовательского отдела компании HarrisX.
В большинстве случаев респонденты неверно определили авторов видео. Кроме того, участникам опроса дали возможность описать свои эмоции при просмотре сгенерированного контента. Многие люди испытывали любопытство, неуверенность, тревогу, вдохновение и страх. Также участники опроса заявили, что власти США должны начать регулировать сферу создания ИИ-контента, иначе сотрудники сферы развлечений могут столкнуться с проблемой конкуренции с искусственным интеллектом.
- 350
- 0
- 0