Оригинал материала: https://3dnews.kz/1082970

Мошенники стали с помощью ИИ имитировать голоса членов семей своих жертв

В США растёт количество мошенников, выдающих себя за других с помощью ИТ-технологий, которые упростили и удешевили имитацию голоса, помогая убеждать людей, в основном пожилых, что их близкие попали в беду и им срочно требуется финансовая помощь. По данным Федеральной торговой комиссии (FTC), в 2022 году подобные схемы стали вторым по популярности способом вымогательства в США — зарегистрировано 36 000 преступлений, 5 100 из них совершены по телефону, ущерб составил более $11 млн.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Достижения в области искусственного интеллекта добавили новые пугающие возможности, позволяющие злоумышленникам воспроизвести голос с помощью всего лишь аудиосэмпла из нескольких предложений. Множество дешёвых онлайн-инструментов на базе искусственного интеллекта могут преобразовать аудиофайл в копию голоса, позволяя мошеннику заставить его «говорить» то, что он печатает. Преступник выдаёт себя за кого-то, заслуживающего доверия — ребёнка или друга — и убеждает жертву отправить ему деньги. А технология искусственного голоса делает эту уловку более убедительной.

Эксперты говорят, что федеральные регулирующие органы, правоохранители и суды плохо оснащены, чтобы обуздать аферистов. Как правило, практически невозможно идентифицировать преступника, а полиции сложно отследить мошенников, действующих по всему миру. У судов не хватает юридических прецедентов для привлечения компаний, создающих инструменты имитации голоса, к ответственности за их неправомерное использование.

«Это ужасно, — говорит Хани Фарид (Hany Farid), профессор цифровой криминалистики Калифорнийского университета. — Это своего рода идеальный шторм… со всеми ингредиентами, необходимыми для создания хаоса». По словам Фарида, программное обеспечение для генерации голоса с помощью ИИ анализирует и выявляет уникальные признаки голоса, включая возраст, пол и акцент. Для этого достаточно короткого образца аудиозаписи из YouTube, подкаста, рекламного ролика, TikTok, Instagram или Facebook. «Два года, даже год назад, нужно было много аудио, чтобы клонировать голос, — отметил Фарид. — Теперь для этого достаточно 30 секунд звучания».

Аналитик FTC Уилл Максон (Will Maxson), отметил, что отслеживание мошенников крайне затруднено, так как звонок может поступать из любой точки мира, что затрудняет даже определение страны юрисдикции. Нужно проявлять бдительность и разумную осторожность. Если любимый человек говорит вам по телефону, что ему нужны деньги, перезвоните ему сами, помните, что входящий номер тоже может быть подменён.



Оригинал материала: https://3dnews.kz/1082970