Вторая книжка
современного пифагорейца Макса Тегмарка называется
«Life 3.0» (есть и
русский перевод, но, кажется, небесплатный). «Жизнь 1.0» характеризуется только дарвиновской эволюцией, «Жизнь 2.0» (наша с вами) - еще и культурной, ну, а «Жизнь 3.0» будет обладать возможностью дизайна не только своего программного обеспечения, но и своего «железа
(
Read more... )
Это в полной мере относится к проблеме безопасного ИИ.
Reply
Reply
Reply
Reply
ЗЫ Если есть час времени - посмотрите фильм "2036 происхождение неизвестно" там именно про это.
Reply
Проблема с ответственностью за принятие решения упирается, как я понимаю, главным образом в то, что у нас уже есть отработанная система, как поступать с человеком, принявшим неверное решение (от тюремного срока до сумасшедшего дома), а вот как поступать в этом случае с роботом, совершенно непонятно. Вот, допустим, уже существующие беспилотные автомобили: если такой наедет на пешехода, то кто будет виноват? Его владелец? Его разработчик? Тот, кто принял решение о допуске его на улицы?
Reply
Reply
Такие проблемы периодически возникают, и их решают. Разумеется, саму корову не штрафуют, а вот владельца пастбища, не удосужившегося обнести его забором - вполне.
Reply
И установление порядка в усложняющейся системе прописываемое для людей законодательной базой и правоприменительной практикой, для алгоритмов, управляющих сложными распределенными процессами управления будет каким-то достижением предела биокогнитивного алгоритмического анализа события, в результате которого, по факту или по статистическому прогнозу, сам вычислительный центр "выдернет вилку" у той части программы, которая может привести к нарушению азимовских трех законов робототехники.
__________________________________________________________________________________
* - Ссылка на статью Сергея Карелова "Алгокогнитивная культура"
Reply
Reply
Reply
Ну так мы же уже давно прошли этот этап - например, что такое поваренная книга, как не сборник алгоритмов?
Reply
Алгоритмы, распространяемые только между людей и посредством людей, и алгоритмы, распространяемые внутри процессов сетевого самообучения и контроля - совершенно разные алгоритмы. Ну, примерно, как рыбы, которые живут в воде, или как те, которые начинают выползать на сушу, потому, что там лучше.
Reply
Сразу вспомнилось вот это :)
Reply
Reply
Reply
Leave a comment