Люди не могут отличить до 25-27% звуковых дипфейков, разработанных нейросетями, от настоящих голосов. Исследование провели представители Университетского колледжа Лондона (UCL).
В опыте участвовала команда из пяти сотен носителей английского и китайского языков. Часть из них длительное время училась узнавать дипфейки. Эксперимент со специально обученными нейросетями продемонстрировал, что и прошедшим обучение добровольцам, и простым обывателям удалось корректно определить только 73-75% дипфейков. Это было одинаково характерно как для англоязычных добровольцев, так и для носителей китайского языка.
Авторы работы предполагают, что из-за высокой скорости развития создаваемого при помощи ИИ медиаконтента уже в ближайшем времени человечество столкнется с новыми рисками.
Эксперты советуют создавать стратегии и инструменты для борьбы с неправомерным применением таких технологий без ограничения их законного применения, сообщает ТАСС, ссылаясь на издание PLoS ONE.