Про нейросети, фейки и программу Аполлон

Dec 03, 2023 18:34


Есть мнение, что американская нейросеть от компании Гугл на недавней конференции «Путешествие в мир искусственного интеллекта» обнаружила фейковую фотографию американских астронавтов на Луне. Попробуем разобраться, что это было, но для этого нам нужен небольшой ликбез.

Как нейросеть распознает изображения

Говоря про "искусственный интеллект", мы прежде всего должны понимать, что это не гомункулюс, не искусственный мозг, это семейство математических алгоритмов, как правило, основанных на искусственных нейронных сетях. У всех этих алгоритмов есть два важных свойства, которые всегда следует помнить при обсуждении и использовании их результатов. Во-первых, эти алгоритмы статистические - они никогда не дают ответа «наверняка», а лишь с определенной вероятностью, которая не может быть ни 0, ни 1, только каким-то промежуточным значением. Во-вторых, качество ответа нейросети определяется качеством её обучения. Ошибки обучения приводят к недостоверности ответов нейросети, а в отсутствии обучения нейросеть попросту бесполезна для научных или прикладных задач.

Изображения в основном распознают так называемые свёрточные нейросети (Convolutional Neural Networks, CNN). Первые один или несколько слоёв выбирают признаки, по которым мы распознаем, последующие определяют, насколько данное сочетание признаков соответствует объекту.



Первые два слоя нейронов выбирают признаки, последующие оценивают приоритетность признаков и сочетания признаков с учетом приоритетов. Веса как раз и задаются в процессе обучения сети.

Иллюстрация, конечно, шуточная, но суть процесса она передает.



Обучение позволяет назначить веса отдельным признакам. Веса обозначают важность признака в подтверждении или опровержении принадлежности объекта к интересующему нас классу (в нашем примере - к котикам), а также фиксируют определенные сочетания признаков. Короче, нет обучения - нет весов, нет весов - нет распознавания. Поэтому все нейросети, распознающие изображения, специализированы - и набор признаков, и обучение действуют лишь в достаточно узкой предметной области.

Собственно событие

Теперь перейдем к событиям на конференции. Что нам сообщают СМИ? Что некая американская нейросеть от компании Google в присутствии Путина и Грефа распознала два фото программы Аполлон (из полёта Аполлона 15) как фейковые (пример). Собственно, это практически вся достоверная информация, остальное - домыслы лунных опровержцев. Вот эти фото, первое и второе.



Слева фото из архива экспедиции Аполлон 15 (их можно найти, например, на сайте https://history.nasa.gov/alsj/ . Справа - результаты анализа нейросети.

А теперь анализ

Прежде всего, попробуем понять, что за нейросеть и для чего она предназначена. Как мы видели выше, качество нейросети для распознавания изображений определяется массивом признаков и последующим обучением, то и другое сильно специализировано. Например, если мы сделаем нейросеть, отличающую кошек от собак по фото, и подсунем ей фотографию енота, она никогда не скажет, что перед нами енот. Енот, как и кошка, как и собака - хищное млекопитающее, поэтому нейросеть обязательно обнаружит у него и признаки собаки, и признаки кошки. А дальше как фишка ляжет, енот может быть идентифицирован и как кошка, и как собака - с какой-то вероятностью, разумеется.

Название нейросети наша жёлтая пресса не привела, будем искать сами. Поиск по ключу google neural network fake photo identification привел к целому ряду сообщений о разработке Гуглом сервиса для выявления фейков, сгенерированных ИИ (пример), а также патенту  компании Google на выявление таких изображений. Всё сходится - сгенерированные фото сегодня очень популярны, выявлять их и важно, и выгодно. Удивительно ли, что и Google этим занялась?

А теперь сращиваем решаемую задачу - проверку лунных фото на фейковость - и используемый инструмент, гуглосетку. Сетка разработана и обучена специально для выявления фоток, сгенерированных ИИ, но откуда в архиве Аполлонов возьмутся такие фотки?

Фотографии из лунных экспедиций НАСА были выложены в интернет еще в 90-е, в частности, на сайт Apollo Lunar Surface Journal. Его древность видна уже по дизайну сайта, мягко говоря, архаичному.



Заголовок сайта

А теперь, внимание, вопрос: ОТКУДА В 1970Е, ДА ДАЖЕ И В 1990Е МОГ ВЗЯТЬСЯ ИИ, СПОСОБНЫЙ ГЕНЕРИРОВАТЬ ИЗОБРАЖЕНИЯ?  Такие фото чисто физически могли появиться не ранее 2018-19 годов, с надлежащей степенью реализма - и того позже. Но ЗАЧЕМ НАСА размещать на своих ресурсах сгенерированные задним числом фото? Если экспедиции подлинные, это полный абсурд, разбавлять подлинные фото и видео подделками никто не будет. Если экспедиции (как предполагают лунные опровержцы) фальшивые, снятые в секретных ангарах Голливуда или в еще более секретных британских подвалах Кубрика - тем более. Во-первых, появление новых фото по прошествии полувека неизбежно вызовет подозрения. И лунные опровержцы - наши или американские - уже вопили бы об этих подозрениях на каждом углу. Во-вторых, алгоритмы ИИ стремительно развиваются. Каков бы ни был сегодняшний ИИ, завтрашние алгоритмы, скорее всего, легко выявят подделку. То есть, размещение на сайтах НАСА подделок, сгенерированных ИИ, разоблачает лунную аферу, если допустить, что она имела место.

И выводы

Итак, основная версия случившегося - команда Грефа применила к лунным фото гуглосеть для выявления фейков, сгенерированных ИИ. По крайней мере, никаких других "сетей Гугла для выявления фейков" я так и не встретил. Но вероятность встретить в массивах фото Аполлонов фейк, сгенерированный ИИ, неотличима от 0. По этой простой причине Гугл едва ли когда-нибудь обучала свою сетку на массиве фотографий программы Аполлон. Следовательно, команда Грефа применила нейросеть Гугла для решения задач, для которых та не предназначена, на массиве данных, на которых её никогда не обучали. Тот самый условный пример, когда мы предъявляем сети, обученной различать кошек и собак, фотографию енота, только буквально реализованный на практике. В этих условиях нейросеть выдаст любой результат - "на любой вопрос мы вам дадим любой ответ". Но и достоверность этого "любого ответа" будет чуть меньше нулевой. На всё это наложилось полное непонимание того, что "фейковая высадка на Луну" и "фейковые изображения, сгенерированные ИИ" - это совершенно разные по сути фейки. В случае Аполлона мы в любом случае имеем дело с изображениями, созданными при помощи камеры и фотоплёнки и затем оцифрованными, так что "фейк, снятый в Голливуде" с точки зрения сети Гугла - ПОДЛИННОЕ, т.е. не сгенерированное ИИ изображение. Иными словами, мы здесь имеем обыкновенный подлог. Почему этот подлог не распознал Президент, понятно - Президенту есть чем заняться, и разбираться в подробностях ИИ и нейросетей ему банально некогда. А вот зачем этот подлог авторизовал Греф - хороший вопрос. И ответа на него у меня нет...

Previous post
Up