Всякий раз, когда они кричат: «Бей разруху!», они должны хлопать самих себя по затылку!
(М. А. Булгаков.)
Какова бы ни была Российская Федерация, как бы она ни была устроена, ей волей-неволей приходится вести локальные войны. Если есть держава и державная политика. А если державной политики она не ведет, то и державы нет.
Вопрос - способна ли Российская Федерация вести войны? Или ей только кажется, что способна? Ведь чтобы вести эффективные войны, необходимо быть не просто пространством на карте, а державой…
( С.Б. Якуцени.)
Всякий раз, когда я вспоминаю о том, что Господь справедлив, я дрожу за свою страну.
(Томас Джефферсон.)
Записи телефонных звонков, в том числе разговоров с роботами, а также видеозаписи, размещенные в свободном доступе в интернете, могут стать источником для подделки голоса в мошеннических целях наряду с голосовыми сообщениями, рассказал РИА Новости эксперт рынка НТИ SafeNet («Сейфнет») Игорь Бедеров.
Источник: © РИА Новости.
Ранее в ЦБ РФ предупреждали, что мошенники для обмана россиян стали чаще создавать адресные схемы и даже имитировать голоса родных и знакомых потенциальной жертвы. А Сбербанк позже сообщал, что аферисты стали взламывать аккаунты в социальных сетях и мессенджерах, чтобы добыть голосовые сообщения людей и затем использовать их в своих схемах.
«Образцы голосов добываются из различных источников. Сюда входят голосовые сообщения, которые могут собираться из мессенджеров, обычные прозвоны, во время которых происходит разговор с роботом или с другими физическим лицом. В случае с популярными людьми, блогерами мошенники могут использовать огромное количество видеозаписей, выступлений, комментариев в СМИ, которые находятся в свободном доступе в интернете».
Игорь Бедеров
эксперт рынка НТИ SafeNet («Сейфнет»).
Он отметил, что в теории, речь можно синтезировать даже по одному слову. Останутся лишь вопросы к качеству такого сообщения, потому что речь конкретного человека окрашена фразами-паразитами и особым тембром. Чем больше речевой информации будет получено, тем проще будет «соорудить» правдоподобное голосовое сообщение.
Как объяснила другой эксперт НТИ, директор по развитию и цифровой трансформации компании EKF Татьяна Мосендз, в создании голосовых сообщений для обмана используются нейросети - с их помощью можно генерировать нужные фрагменты, используя соответствующий датасет с образцами голоса.
«Мы сегодня понимаем технологии создания этой киберугрозы и мошеннических действий, но нужно придумать массовый и общедоступный, подчеркну, способ противодействия ей», - сказала Мосендз. По ее словам, на данный момент единственный средством борьбы против нейросетей в этом случае должен стать человеческий ум. Нужно улавливать речевые обороты своих близких, оценивать саму ситуацию и повод, сопоставлять факты.
Взято из:
https://news.mail.ru/incident/59413565/
Nick