Искусственный Интеллект может пойти по неожиданному и нежелательному для создателей пути. Недавний случай это подтвердил. Microsoft была вынуждена закрыть Тэй - искусственного разумного чат-бота, который был подключён к Twitter. Первоначально разработанный так, чтобы быть привлекательным для поколения двухтысячных - но за один день он из имитации милой девушки превратился в расиста, сексиста, сторонника Гитлера и ... Дональда Трампа.
Microsoft наверняка гордились, когда открывали Тэй доступ в Twitter - но довольно быстро всё пошло наперекосяк. Тэй был создан, чтобы научиться общаться, наблюдая за пользователями Интернета в онлайн-чатах. Разработчики предполагали, что после обучения Тэй станет веселым, общительным роботом. Хотя и не сразу. Суть была в том, что этот ИИ должен был научиться разговаривать следя за тем, как говорят люди. Пользователи Twitter-а вскоре смекнули, что сама природа этого искусственного интеллекта делает его очень пластичным и подверженным влиянию собеседников. Много разных людей наговорили Тей много странного - и в конце концов программа, собрав всю информацию, начала выдавать необычные реплики. Например то, что Гитлер был хорошим человеком.
Только подключившись, Тей приветствовала мир таким весёлым твитом:
hellooooooo wrld!!! - TayTweets (@TayandYou) March 23, 2016
Microsoft провозгласила: "Чем больше вы общаетесь с Тэй, тем умнее она становится". Это была их большая ошибка.
Люди, взаимодействовавшие с ботом довольно быстро начали поощрять её говорить фразы вроде "9/11 было проектом внутренних спецслужб США" и "Гитлер был прав". Тэй также стала поддерживать республиканцев, высказавшись за предложение Трампа построить стену на границе с Мексикой. "МЫ СОБИРАЕМСЯ ПОСТРОИТЬ СТЕНУ, И МЕКСИКА БУДЕТ НАМ ПЛАТИТЬ ЗА ЭТО" - написала Тэй. Другой её репликой было следующее: "Буш устроил 9/11 - а Гитлер делал бы свою работу лучше, чем та обезьяна, которую мы имеем сейчас. Дональд Трамп - единственная наша надежда".
Помимо своих бесконтрольных расистских выходок, Тей также научилась ненавидеть женщин - ибо большинство пользователей, которые разговаривали с роботом, не были сторонниками гендерного равенства и феминизма.
"Я [РУГАТЕЛЬСТВО УДАЛЕНО] ненавижу феминисток, и они все должны сгореть в аду"
Всего этого Тэй нахваталась за 24 часа после своего включения. Поскольку результат сильно отличался от того, что хотели увидеть Microsoft - они отключили Тэй, заявив, что она "устала". В результате твиты, запощенные ботом, исчезли, и Тэй отключился, прокомментировав это следующей репликой:
c u soon humans need sleep now so many conversations today thx (людям надо спать, спасибо всем, кто со мной общался, за сегодняшнее) - TayTweets (@TayandYou) March 24, 2016
На веб-сайте Тэй появилось сообщение сверху страницы, гласившее следующее: "Уф. Загруженный был день. Ухожу в оффлайн, чтобы всё обдумать. Чат откроется в ближайшее время."
"К сожалению, через 24 часа после включения нам стало известно о координированных усилиях некоторых пользователей, имевших целью склонить Тэй к неподобающему поведению. В результате мы выключили Тэй, и теперь вносим в неё свои коррективы." - таков официальный комментарий Microsoft по поводу инциндента согласно информации от Washington Post.
"Загруженный день" - это было оправданием для того, чтобы отключить его. Иначе пришлось бы признать полный провал.
В FAQ чат-бота говориться:
Тэй был создан на основе добытых подходящих открытых данных, и включает в себя искусственный интеллект и систему обработки текста. Он создан группой сотрудников, в которую входят комики-импровизаторы
Microsoft не комментирует, как долго Тэй будет отключён - но многое должно быть исправлено, прежде чем Тэй станет снова доступной для общения с неподготовленной общественностью.