Чат-бот от Microsoft за сутки научился ругаться и стал расистом

Mar 25, 2016 10:37



Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские и возбуждающие рознь высказывания, пишет "Би-би-си".

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет.

Уже через сутки после запуска ( Read more... )

Leave a comment

Comments 7

mc_klaud March 25 2016, 09:51:10 UTC
Жесть!
Хотя В общем-то ожидаемо, поскольку наука в отрыве от этики и эстетики неизбежно ведёт к фашизму (кстати только вчера писал пост на эту тему)

Reply

ох .ля! uncleas March 25 2016, 13:43:04 UTC
"наука в отрыве от этики и эстетики неизбежно ведёт к фашизму!"
все так плохо? фошисты нас поработят? что делать и кто виноват, .ля?
кортинко просто для привлечения к фошизму )


... )

Reply


trilirium March 25 2016, 09:55:37 UTC
Нашелся единственный честный сотрудник M$ -- и тот бот! )))

Reply


kneejnick1 March 25 2016, 11:31:01 UTC
У Майкрософта первые версии всегда с багами )

Reply


tomsk1990 March 25 2016, 12:40:50 UTC
Внезапно: вспомнился робот Бендер из «Футурамы» с его «Слава роботам! Убить всех человеков!»

Reply

aldiyev March 25 2016, 13:17:54 UTC
Мешки с мясом! :)) Этак мы договоримся до того, что Бендер произошел от Бандеры:)))

Reply


astropath March 25 2016, 15:32:05 UTC
Понравилось выражение "недопустимые ответы". Вероятно, надо ждать четвертого закона робототехники "Робот не имеет давать ответы, которые считаются недопустимыми с точки зрения нынешнего истеблишмента человеков".

Reply


Leave a comment

Up