Визуализация взрывного роста мошенничества с помощью искусственного интеллекта

Mar 23, 2024 18:00


Бывший президент США Дональд Трамп позирует с чернокожими избирателями, президент Джо Байден отговаривает людей от голосования по телефону или Папа Римский в пухлом белом пиджаке: Глубокие подделки видео, фотографий и аудиозаписей получили широкое распространение на различных интернет-платформах, чему способствовали технологические достижения больших языковых моделей, таких как Midjourney, Gemini от Google или ChatGPT от OpenAI.



Как подробно рассказывает Флориан Зандт из Statista, при должной оперативной настройке каждый может создавать кажущиеся реальными изображения или заставлять голоса видных политических или экономических деятелей и артистов говорить все, что ему заблагорассудится. Хотя создание deepfake само по себе не является уголовным преступлением, правительства многих стран все же переходят к более жесткому регулированию использования искусственного интеллекта, чтобы предотвратить нанесение ущерба заинтересованным сторонам. Помимо основной сферы применения deepfake - создания порнографического контента без согласия с участием преимущественно женщин-знаменитостей, эта технология также может быть использована для мошенничества с личными данными путем изготовления поддельных удостоверений личности или выдачи себя за других людей по телефону. Как следует из диаграммы Statista, основанной на последнем годовом отчете компании Sumsub, предоставляющей услуги по проверке подлинности личности, в период с 2022 по 2023 год во многих странах мира резко возросло число случаев мошенничества с использованием deepfake.


Например, количество попыток мошенничества на Филиппинах выросло на 4500 процентов в годовом исчислении, за ними следуют такие страны, как Вьетнам, США и Бельгия. Поскольку возможности так называемого искусственного интеллекта могут еще больше расшириться, о чем свидетельствуют такие продукты, как генератор видео с искусственным интеллектом Sora, попытки мошенничества с глубокими подделками могут распространиться и на другие области. "В последние годы мы наблюдаем, как глубокие подделки становятся все более убедительными, и это будет продолжаться и распространяться на новые виды мошенничества, как это происходит с глубокими подделками голоса", - говорит Павел Гольдман-Калайдин, руководитель отдела искусственного интеллекта и машинного обучения компании Sumsub, в вышеупомянутом отчете. "Как потребителям, так и компаниям необходимо сохранять повышенную бдительность в отношении синтетического мошенничества и использовать многоуровневые решения для борьбы с ним, а не только для обнаружения глубоких подделок". Эти оценки разделяют многие эксперты по кибербезопасности. Например, по результатам опроса 199 лидеров кибербезопасности, участвовавших в ежегодной встрече Всемирного экономического форума по кибербезопасности в 2023 году, 46% респондентов больше всего обеспокоены "развитием возможностей противника - фишингом, разработкой вредоносных программ, глубокими подделками" с точки зрения рисков, которые искусственный интеллект представляет для кибербезопасности в будущем.

перевод отсюда

Бесплатное практическое "руководство по выживанию инвестора в золото"
Теперь настольную книгу волновиков "Волновой принцип Эллиотта" можно найти в бесплатном доступе здесь (если хотите помочь проекту, можете просто зарегистрироваться по ссылке)

И не забывайте подписываться на мой телеграм-канал и YouTube-канал

11-страничный отчет, который познакомит вас с базовыми волновыми моделями Эллиотта и покажет, как определять ключевые рыночные тенденции

искусственный интеллект, мошенничество, интернет

Previous post Next post
Up