Россиян предупредили о мошеннических голосовых роботах: что известно

Аферисты используют передовые ИИ-технологии для обмана. Эксперты рассказали главное о новом методе обмана. Мошенники используют голосовые нейросети для обмана жителей России. Об этом Hi-Tech Mail рассказали в компании Neuro.net, создающей человекоподобных виртуальных операторов и голосовых помощников на основе ИИ-технологий. Эксперты отметили, что ассистенты с помощью разработок на базе RAG (Retrieval-Augmented Generation — генерация ответа с учетом найденной релевантной информации) стали прорывом в обработке естественного языка. Они анализируют многослойные запросы и дают точные ответы в режиме реального времени. Однако этим пользуются не только компании, работающие с клиентами, но и злоумышленники. Аферисты могут применять аналогичные инструменты, имитируя звонки от сотрудников банков или государственных учреждений. Так называемые ИИ-мошенники в реальном времени структурируют ответы жертвы, чтобы подстраиваться под конкретные ситуации. Технологии позволяют имитировать эмоциональную окраску голоса, чтобы сделать атаки максимально убедительными. В Neuro.net подчеркнули, что особую опасность представляет возможность массового обзвона, в котором каждый звонок персонализировать с учетом утечек личных данных. При этом для работы с такими инструментами мошенникам не нужно обладать профессиональными навыками. Специалисты обращают внимание, что скамеры используют урезанные и небезопасные версии ИИ-технологий. Добросовестные разработчики применяют методы многоуровневой защиты, которые в том числе помогают обнаружить подозрительную активность. 

Апр 29, 2025 - 09:27
 0
Россиян предупредили о мошеннических голосовых роботах: что известно

Аферисты используют передовые ИИ-технологии для обмана. Эксперты рассказали главное о новом методе обмана.

Мошенники используют голосовые нейросети для обмана жителей России. Об этом Hi-Tech Mail рассказали в компании Neuro.net, создающей человекоподобных виртуальных операторов и голосовых помощников на основе ИИ-технологий.

Эксперты отметили, что ассистенты с помощью разработок на базе RAG (Retrieval-Augmented Generation — генерация ответа с учетом найденной релевантной информации) стали прорывом в обработке естественного языка. Они анализируют многослойные запросы и дают точные ответы в режиме реального времени. Однако этим пользуются не только компании, работающие с клиентами, но и злоумышленники.

Аферисты могут применять аналогичные инструменты, имитируя звонки от сотрудников банков или государственных учреждений. Так называемые ИИ-мошенники в реальном времени структурируют ответы жертвы, чтобы подстраиваться под конкретные ситуации. Технологии позволяют имитировать эмоциональную окраску голоса, чтобы сделать атаки максимально убедительными.

В Neuro.net подчеркнули, что особую опасность представляет возможность массового обзвона, в котором каждый звонок персонализировать с учетом утечек личных данных. При этом для работы с такими инструментами мошенникам не нужно обладать профессиональными навыками.

Специалисты обращают внимание, что скамеры используют урезанные и небезопасные версии ИИ-технологий. Добросовестные разработчики применяют методы многоуровневой защиты, которые в том числе помогают обнаружить подозрительную активность.