bbb

Гугловцы добились выдающегося успеха - разработали Artificial Ignorance

Feb 25, 2024 02:46

В последние дни народ много веселился, показывая идиотские картинки, которые генерировал т.н. "искусственный интеллект" Гугла под названием Джемини (https://gemini.google.com) - картинки с чернокожими красноармейцами, монголоидными римлянами и т.д.

Удалось даже выяснить, как это технически устроено. Как объясняют те, кто разобрался, это делалось на удивление примитивно. Вместо того, чтобы подкручивать машинку по генерированию картинок, гугловские мухлежники самым бесстыжим образом подкручивали запросы пользователей. Как я понимаю, в запросы, содержащие отсылку к людям, какие-то промежуточные программы вставляли слова-триггеры ("diverse", "inclusive", "black", "South Asian", "female", "non-binary"), после чего машинке скармливался уже подкрученный запрос. То есть пользователь получал ответ не на тот вопрос, который задавал.

По крайней мере, так объясняется здесь:

https://twitter.com/AlextheYounga/status/1760415439941767371
https://twitter.com/pragmatometer/status/1760323113365934383

Севши в лужу, гуглевцы поспешили отыграть назад и объявили, что приостанавливают свою штуковину:

https://twitter.com/Google_Comms/status/1760603321944121506
https://blog.google/products/gemini/gemini-image-generation-issue

Характерно, что в своем пресс-релизе они с наивной прямотой признаются:

"When we built this feature in Gemini, we tuned it to ensure it doesn’t fall into some of the traps we’ve seen in the past with image generation technology - such as creating violent or sexually explicit images, or depictions of real people. And because our users come from all over the world, we want it to work well for everyone. If you ask for a picture of football players, or someone walking a dog, you may want to receive a range of people. You probably don’t just want to only receive images of people of just one type of ethnicity (or any other characteristic)"

Совершенно непонятно, в чем проблема с рисованием "жестоких или сексуальных" картинок, а также с выдачей картинок реальных людей (по крайней мере, если речь идет о картинках реальных людей, уже попавших в публичный доступ). "Жестокие" или "сексуальные" картинки не запрещены, если они кому-то не нравятся, то он может их не смотреть.

Но особенно замечательно, что гугловцы сами решают, какие именно картинки люди хотят или не хотят увидеть. Рагхаван, старший вице-президент Гугла, именно это и говорит. Если бы они на самом деле беспокоились, что кому-то не способен сформулировать тот запрос, который ему на самом деле хочется, то просто добавили бы к странице со строкой запроса короткое объяснение: мол, если вас не устраивает результат, попробуйте уточнить свой запрос, и дать примеры, как это можно сделать - как Рагхаван сам и написал. Вместо этого гугловцы типичнейшим для такого рода деятелей образом сочли пользователей дураками, не способными понять собственной пользы.

Теперь они, видимо, будут ломать голову над тем, как одновременно сохранить политкорректную девственность и не выглядеть совсем уж идиотами.

Но на фоне всемирного скандала с генерацией дурацких политкорректных картинок, похоже, менее заметной остается история с дурацкими политкорректными текстами. Образец того, как это устроено, пару часов назад показал знаменитый Марк Андриссен в своем твиттере:

https://twitter.com/pmarca/status/1761618652137226253

Вот как это выглядит:



После этого другой юзер в комментах к твиту Андриссена немедленно воспроизвел тот же эксперимент на другом материале:

https://twitter.com/MexicanReagan/status/1761619386283008356


Previous post Next post
Up