14 Май 2023 12:45
Деньги вкладчиков будут в реальной опасности, если мошенники задействуют нейросети

Подписывайтесь на наш Телеграм-канал, блог в Дзен
Читайте нас в Новости и Google.Новости

Мошенники в попытке украсть деньги идут на все — иногда они притворяются близким человеком абонента и звонят ему с просьбой перевести средства на срочные цели или просто занять в долг. Для этого вскоре могут использовать нейросети, и обман станет еще достовернее. Как рассказал агентству «Прайм» начальник отдела интеллектуальных систем защиты информации Института кибербезопасности и цифровых технологий РТУ МИРЭА Шамиль Магомедов, если задействовать нейросети, то обман станет достовернее. Пока для этого используются нехитрые приемы создания якобы помех на линии, чтобы определить личность звонившего было сложнее. «Однако весьма вероятно, что с развитием нейросетей скоро преступникам станут доступны технологии искусственного интеллекта, имитирующие голос», - предположил эксперт.

В России о таких преступлениях данных пока нет. Но, например, в конце февраля появилась информация о том, как англоговорящий пользователь с помощью нейросети пообщался с автоматическими системами банка. Искусственный интеллект сымитировал голос владельца счета, и системы открыли доступ к денежным средствам.

«Значит, таким же образом - в обозримой или отдаленной перспективе — могут поступить и мошенники», - считает Магомедов.

Поэтому не стоит преуменьшать возможные опасности: ChatGPT и другие подобные сервисы генерации текста стремительно развиваются.

Специалист не исключил, что в ближайшее время появится нейросеть, которая будет обучена на большом массиве данных и сможет генерировать любой голос.

Если возникли сомнения в подлинности личности звонящего, то стоит задать несколько вопросов, касающихся личной информации, неизвестной посторонним. Или сбросить звонок, перезвонить абоненту самостоятельно, заключил специалист.

Новость на сайте Маленькая Сызрань
© 2005-2021
Свидетельство о регистрации СМИ:
ЭЛ №ФС77-30887 от 28.12.2007