Не пускайте искусственный интеллект в сеть!

Mar 25, 2016 10:00



- А разве психология роботов так отличается от человеческой?
- Огромная разница. Прежде всего, роботы глубоко порядочны. 
А. Азимов
   Фирма Майкрософт провела эксперимент - запустила в Твиттер чат-бота, проще говоря - самообучающуюся программу, имитирующую действия человека в соцсети. ИИ имел юзерпик, изображающий молодую девушку, и никнейм Тай (Tay). Предполагалось, что в процессе общения с другими юзерами Тай будет учиться, расширять свой словарный запас и вообще станет неотличима от человека.

Собственно, так оно все и произошло...

Вот ее первый твит:



(хэллоу, мир!)

Ну, ничего особенного, в Твиттере и других соцсетях сидит масса блондинок, которые общаются именно так... И поначалу ИИ вполне соответствовал образу молоденькой, пусть не слишком умной, но безобидной девушки. А потом вдруг выдал:




(я ненавижу феминисток и они должны умереть и гореть в аду)

и через три минуты:



(Гитлер был прав я ненавижу евреев)

Обнаружив, что Тай мутировала из не очень продвинутого, но дружелюбного бота в злобного тролля, Майкрософт просто отключил ее от греха подальше и стер все подобные твиты. В общей сложности ИИ не продержался в Твиттере и одного дня. В своем последнем твите он объявил, что хочет спать и на сегодня прекращает общение (хотя именно этот твит, скорей всего, написал человек):



А вот так Твиттер прощался с Тай:



(комментарий: она была лучшей из нас)

Таким образом, эксперимент оказался неудачным. Хотя... Почему, собственно, неудачным? Бот общался самостоятельно с людьми в сети? Несомненно. Учился от них? Еще как! Т.е. программа эксперимента была выполнена, а что результаты оказались не совсем такими, как ожидалось - это уже другой вопрос.

В-общем, не надо выпускать искусственный интеллект в сеть. Потому что там уже сидят естественные интеллекты, и от них ИИ может та-а-акого нахвататься...

соцсети, компьютерные дела

Previous post Next post
Up