PLoS ONE: возросли риски мошенничества с помощью дипфейков

Научные специалисты из Университетского колледжа Лондона провели исследование,
и его результаты указывают на то, что люди не всегда способны отличить
звуковые фальшивки, созданные нейронными сетями, от настоящих голосов.
Работа, опубликованная в журнале PLoS ONE, подчеркивает ограничения
человеческого восприятия при распознавании поддельных звуковых записей.

В эксперименте с участием пятисот носителей английского и китайского языков
исследователи предложили распознавать дипфейки — записи, созданные нейронными
сетями. Часть испытуемых получила обучение, чтобы научиться отличать фальшивые
звуки.

Оказалось, что как обученные добровольцы, так и обычные люди правильно
распознали только 73-75% дифтонгов — звуков, состоящих из двух гласных
звуков. Этот результат был сопоставим и для англоговорящих добровольцев,
и для носителей китайского языка. Оба участника группы уступили системе
искусственного интеллекта, которая смогла правильно распознать все
созданные аудиозаписи.

Это исследование указывает на важность распознавания дипфейков и побуждает
к разработке более эффективных методов распознавания фальшивых звуков.
В современном медиа-ландшафте, где фальсификации аудиозаписей и
голосов все более распространены, такие результаты исследования
могут помочь развивать технологии, способные более точно распознавать
поддельные записи и противостоять манипуляциям с аудиоматериалами.

Дальнейшая работа в области искусственного интеллекта и совершенствования
методов распознавания фальшивых звуков будет иметь важное значение для
информационной безопасности, медицины и других сфер, где точность и
достоверность аудиоданных играют важную роль.

Читайте нас в Ленте | Яндекс Новостях | Seldon News
Оцените статью
Смоленская стена