- А разве психология роботов так отличается от человеческой?
- Огромная разница. Прежде всего, роботы глубоко порядочны.
А. Азимов
Фирма Майкрософт провела эксперимент -
запустила в Твиттер чат-бота, проще говоря - самообучающуюся программу, имитирующую действия человека в соцсети. ИИ имел юзерпик, изображающий молодую девушку, и никнейм Тай (Tay). Предполагалось, что в процессе общения с другими юзерами Тай будет учиться, расширять свой словарный запас и вообще станет неотличима от человека.
Собственно, так оно все и произошло...
Вот ее первый твит:
(хэллоу, мир!)
Ну, ничего особенного, в Твиттере и других соцсетях сидит масса блондинок, которые общаются именно так... И поначалу ИИ вполне соответствовал образу молоденькой, пусть не слишком умной, но безобидной девушки. А потом вдруг выдал:
![](http://cdn3.spiegel.de/images/image-974002-galleryV9-gkgb-974002.jpg)
(я ненавижу феминисток и они должны умереть и гореть в аду)
и через три минуты:
![](http://cdn4.spiegel.de/images/image-974003-galleryV9-nkrk-974003.jpg)
(Гитлер был прав я ненавижу евреев)
Обнаружив, что Тай мутировала из не очень продвинутого, но дружелюбного бота в злобного тролля, Майкрософт просто отключил ее от греха подальше и стер все подобные твиты. В общей сложности ИИ не продержался в Твиттере и одного дня. В своем последнем твите он объявил, что хочет спать и на сегодня прекращает общение (хотя именно этот твит, скорей всего, написал человек):
А вот так Твиттер прощался с Тай:
(комментарий: она была лучшей из нас)
Таким образом, эксперимент оказался неудачным. Хотя... Почему, собственно, неудачным? Бот общался самостоятельно с людьми в сети? Несомненно. Учился от них? Еще как! Т.е. программа эксперимента была выполнена, а что результаты оказались не совсем такими, как ожидалось - это уже другой вопрос.
В-общем, не надо выпускать искусственный интеллект в сеть. Потому что там уже сидят естественные интеллекты, и от них ИИ может та-а-акого нахвататься...