Рай - в конечном достиженьи духом вечного безличья

Jun 02, 2021 09:00



Вторая книжка современного пифагорейца Макса Тегмарка называется «Life 3.0» (есть и русский перевод, но, кажется, небесплатный). «Жизнь 1.0» характеризуется только дарвиновской эволюцией, «Жизнь 2.0» (наша с вами) - еще и культурной, ну, а «Жизнь 3.0» будет обладать возможностью дизайна не только своего программного обеспечения, но и своего «железа ( Read more... )

quo vadis, жизнь

Leave a comment

greygreengo June 2 2021, 23:20:21 UTC
Отдавая возможность принимать решения в обмен на безопасность, вы не получите ни того ни другого.
Это в полной мере относится к проблеме безопасного ИИ.

Reply

egovoru June 3 2021, 11:44:01 UTC
Ну, во-первых, концепция ИИ не обзязательно предполагает перекладывание на него принятие решений: можно использовать его просто как инструмент по обработке информации, необходимой для принятия решений нами самими. А во-вторых, мы ведь уже сегодня перекладываем некоторые решения на технические системы. Наример, светофор "сам" решает, когда ему включить красный, а когда зеленый свет - никакой человек не дает ему такого конкретного распоряжения.

Reply

greygreengo June 3 2021, 12:03:07 UTC
Ваш классический отсыл к решению вопроса светофором разбивается о пример когда австралийка простояла три дня на перекрестке у неработающего светофора.

Reply

egovoru June 3 2021, 12:19:24 UTC
Мне думается, в этом случае проблема была не в светофоре, а в австралийке - у большинства людей терпение кончается гораздо раньше :)

Reply

greygreengo June 3 2021, 13:24:46 UTC
В данном случае, границы терпения и определяют временной интервал того, когда человек от понимания того, что "за него думает машина" приходит к пониманию того, что "а решение принимать надо все-таки человеку". И в этом смысле ИИ может улететь к звездам, как показано на картинке, но решать проблемы со звездами не сможет.

ЗЫ Если есть час времени - посмотрите фильм "2036 происхождение неизвестно" там именно про это.

Reply

egovoru June 4 2021, 12:29:30 UTC
"а решение принимать надо все-таки человеку"

Проблема с ответственностью за принятие решения упирается, как я понимаю, главным образом в то, что у нас уже есть отработанная система, как поступать с человеком, принявшим неверное решение (от тюремного срока до сумасшедшего дома), а вот как поступать в этом случае с роботом, совершенно непонятно. Вот, допустим, уже существующие беспилотные автомобили: если такой наедет на пешехода, то кто будет виноват? Его владелец? Его разработчик? Тот, кто принял решение о допуске его на улицы?

Reply

greygreengo June 10 2021, 00:22:35 UTC
То, чем сейчас заняты все без исключения правительства всех более-менее развитых стран - это как найти такие приемлемые точки наказания, которые будут адекватными действию совершенному любого вида ИИ против людей ( ... )

Reply

egovoru June 10 2021, 11:25:36 UTC
"кто в ответе за то, что корова отбившись от стада выбежала на шоссе и попала под машину"

Такие проблемы периодически возникают, и их решают. Разумеется, саму корову не штрафуют, а вот владельца пастбища, не удосужившегося обнести его забором - вполне.

Reply

greygreengo June 10 2021, 13:46:59 UTC
Мы на пути перехода от когнитивизма к алгоритмизму (или алгокогнитивизму* если ближе к оригиналу), если так можно вколотить флажки на развитие мыслительных способностей того, что умеет мыслить на этой планете.

И установление порядка в усложняющейся системе прописываемое для людей законодательной базой и правоприменительной практикой, для алгоритмов, управляющих сложными распределенными процессами управления будет каким-то достижением предела биокогнитивного алгоритмического анализа события, в результате которого, по факту или по статистическому прогнозу, сам вычислительный центр "выдернет вилку" у той части программы, которая может привести к нарушению азимовских трех законов робототехники.

__________________________________________________________________________________
* - Ссылка на статью Сергея Карелова "Алгокогнитивная культура"

Reply

egovoru June 10 2021, 23:56:01 UTC
Тема интересная, но статья по ссылке написана в таком евангелическом стиле, что мне совсем не хочется ее читать :(

Reply

greygreengo June 11 2021, 00:17:03 UTC
Ну, да, стиль пророчествующего инока заметен. Но некоторые детали отчасти им уловлены, а пафос пророчествования - это от духовно-философского образования ( ... )

Reply

egovoru June 11 2021, 00:26:41 UTC
"следующий этап после обмена мыслями, как основы культуры есть этап обмена алгоритмами"

Ну так мы же уже давно прошли этот этап - например, что такое поваренная книга, как не сборник алгоритмов?

Reply

greygreengo June 11 2021, 00:31:31 UTC
Как же, как же. Поваренная книга анархиста у многих на слуху. ;)

Алгоритмы, распространяемые только между людей и посредством людей, и алгоритмы, распространяемые внутри процессов сетевого самообучения и контроля - совершенно разные алгоритмы. Ну, примерно, как рыбы, которые живут в воде, или как те, которые начинают выползать на сушу, потому, что там лучше.

Reply

egovoru June 11 2021, 00:34:01 UTC
"совершенно разные алгоритмы"

Сразу вспомнилось вот это :)

Reply

greygreengo June 11 2021, 00:44:51 UTC
Осторожно! После просмотра нижеследующего видео можно почувствовать себя блохой или иным паразитом:)

Reply

egovoru June 11 2021, 11:55:14 UTC
Спасибо, но я не уловила, как этот ролик связан с темой поста?

Reply


Leave a comment

Up