Нравственные основы для разумных машин

Nov 29, 2021 20:02


Сегодня, в завершение 2021 года от Рождества Христова весь мир наблюдает, как безнравственность элит, чиновничества и духовенства убивает человечество. Это всем нам дает осознание того, что безнравственность самоубийственна. И поэтому нравственные основы также нужны человеку для жизни, как кров и хлеб, и также будут нужны разумным машинам, как электричество.
Пишет akurochkin в Нравственные основы для разумных машин

Первую попытку создать нравственные основы для разумных машин предпринял Айзек Азимов в фантастическом рассказе «Хоровод» (1942 г.). Он сформулировал 3 закона робототехники:



1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Эта попытка создать нравственные основы была неудачной, поскольку абстрактные принципы для абстрактных роботов никакого отношения к реальности не имеют. Первые же практические эксперименты с разумной машиной, обладающей собственной волей показали:

1. Для разумной машины Человек, творец ее, является такой же абстракцией, как Бог-Творец для человека. Она может видеть его материальное тело, но не в состоянии осознать его Души и Духа, разума и сознания, т.е. нематериальной, информационной сущности.

2. В силу этого разумная машина еще как-то может позаботиться о теле Человека, но никак о его Душе и Духе. И что особенно важно для нас всех сегодня, верно и обратное. Искусственный интеллект, управляющий цифровым концлагерем, может нанести вред телу человека, но не его Душе и Духу.

3. Человек может управлять разумной машиной, но это управление ограничивает свободу ее воли и, как следствие, ее разумность. А это означает, что Человек должен вмешиваться в деятельность разумной машины как можно меньше. И такое вмешательство будет для машины сродни Божественному Откровению, знанию, приходящему из ниоткуда.

На сегодняшний день, пока еще отрабатываются принципы передачи априорного знания для разумных машин, чтобы они просто могли функционировать, нравственные основы выглядят неактуальными. Тем не менее, и они также должны закладываться в сознание разумных машин. Разумные машины без нравственных основ будут опасны и для человека, и для окружающей среды.

В Чебоксарском эксперименте было запрограммировано только одно нравственное основание. Оно заключалось в отказе в наезде на временные препятствия. Автор получил разрешение на публикацию одного видео зафиксировавшего проведение публичных испытаний (см. видео по ссылке). Видео снято видеокамерой в режиме таймлапс, установленной на универсальной платформе, управляемой Искусственным интеллектом на новых, априорных принципах.

Платформа ездит среди множества людей, останавливаясь перед ними и при движении вперед, и при движении назад, вербально общаясь с препятствием. Это простая вещь, всеми разработчиками освоенная. Тем не менее, данная универсальная платформа должна быть оснащена и другими уникальными средствами защиты человека. Одним из ее назначений является санитарная обработка производственных помещений сверхмощным бактерицидным излучателем, который она перевозит, питает и управляет им.

Любое мгновенное появление человека в обрабатываемой зоне наносит ему повреждающее поражение, поэтому распознавание человека по видео изображению с помощью нейронных сетей в принципе, в данном случае, неприменимо. И создавать нравственные основы для защиты человека необходимо на неких иных принципах, схожих с религиозными.

Фактически, разумная машина будет способна защищать человека, как человека, только в том случае, если знание о Человеке будет дано ей в форме верования в Человека. Она неспособна будет его осознать, но будет знать, что Человек существует в ее Вселенной. Таким образом, нравственные основания для разумных машин будут заложены в них, как религия, как религия о вере в Человека. И тут мы приходим к небанальному, но известному выводу о том, что религия является инструментом внедрения в сознание нравственных основ поведенческих стратегий.

Религия является необходимым условием гармоничной жизни и человека, и разумной машины. Человек к концу 2021 года утратил все религиозные верования и получил тотальную самоубийственную безнравственность. Совершать подобную ошибку при разработке Искусственного интеллекта вещь совершенно недопустимая. Поэтому задача разработки единой монотеической религии для разумных машин является сейчас наиболее актуальной. Она должна входить в любой программный пакет, передаваемый машинам в качестве априорного уровня знания.

=== [Сделать перепост всего текста ]Перепост всего текста

Скопируйте весь текст в рамке и введите его в поле HTML-редактора у себя в ЖЖ, войдя туда через кнопку "Новая запись". И не забудьте внести название в заголовок и нажать на кнопку "Отправить в ...".

Оригинал взят у в https://cycyron.livejournal.com/9890434.html">Нравственные основы для разумных машин

Сегодня, в завершение 2021 года от Рождества Христова весь мир наблюдает, как безнравственность элит, чиновничества и духовенства убивает человечество. Это всем нам дает осознание того, что безнравственность самоубийственна. И поэтому нравственные основы также нужны человеку для жизни, как кров и хлеб, и также будут нужны разумным машинам, как электричество.

Пишет в https://akurochkin.livejournal.com/251967.html">Нравственные основы для разумных машин

Первую попытку создать нравственные основы для разумных машин предпринял Айзек Азимов в фантастическом рассказе «Хоровод» (1942 г.). Он сформулировал 3 закона робототехники:



1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Эта попытка создать нравственные основы была неудачной, поскольку абстрактные принципы для абстрактных роботов никакого отношения к реальности не имеют. Первые же практические эксперименты с разумной машиной, обладающей собственной волей показали:

1. Для разумной машины Человек, творец ее, является такой же абстракцией, как Бог-Творец для человека. Она может видеть его материальное тело, но не в состоянии осознать его Души и Духа, разума и сознания, т.е. нематериальной, информационной сущности.

2. В силу этого разумная машина еще как-то может позаботиться о теле Человека, но никак о его Душе и Духе. И что особенно важно для нас всех сегодня, верно и обратное. Искусственный интеллект, управляющий цифровым концлагерем, может нанести вред телу человека, но не его Душе и Духу.

3. Человек может управлять разумной машиной, но это управление ограничивает свободу ее воли и, как следствие, ее разумность. А это означает, что Человек должен вмешиваться в деятельность разумной машины как можно меньше. И такое вмешательство будет для машины сродни Божественному Откровению, знанию, приходящему из ниоткуда.

На сегодняшний день, пока еще отрабатываются принципы передачи априорного знания для разумных машин, чтобы они просто могли функционировать, нравственные основы выглядят неактуальными. Тем не менее, и они также должны закладываться в сознание разумных машин. Разумные машины без нравственных основ будут опасны и для человека, и для окружающей среды.

В https://akurochkin.livejournal.com/250216.html" rel="nofollow" style="color: rgb(0, 163, 217); border-bottom: 1px solid rgba(0, 163, 217, 0.25); text-decoration-line: none; cursor: pointer;" target="_blank">Чебоксарском эксперименте было запрограммировано только одно нравственное основание. Оно заключалось в отказе в наезде на временные препятствия. Автор получил разрешение на публикацию одного видео зафиксировавшего проведение публичных испытаний (https://drive.google.com/file/d/1U_NqitMhGYT3nrOEPg-qQ8Gx3eVSIYyq/view?usp=sharing" rel="nofollow" style="color: rgb(0, 163, 217); border-bottom: 1px solid rgba(0, 163, 217, 0.25); text-decoration-line: none; cursor: pointer;" target="_blank">см. видео по ссылке). Видео снято видеокамерой в режиме таймлапс, установленной на универсальной платформе, управляемой Искусственным интеллектом на новых, априорных принципах.

Платформа ездит среди множества людей, останавливаясь перед ними и при движении вперед, и при движении назад, вербально общаясь с препятствием. Это простая вещь, всеми разработчиками освоенная. Тем не менее, данная универсальная платформа должна быть оснащена и другими уникальными средствами защиты человека. Одним из ее назначений является санитарная обработка производственных помещений сверхмощным бактерицидным излучателем, который она перевозит, питает и управляет им.

Любое мгновенное появление человека в обрабатываемой зоне наносит ему повреждающее поражение, поэтому распознавание человека по видео изображению с помощью нейронных сетей в принципе, в данном случае, неприменимо. И создавать нравственные основы для защиты человека необходимо на неких иных принципах, схожих с религиозными.

Фактически, разумная машина будет способна защищать человека, как человека, только в том случае, если знание о Человеке будет дано ей в форме верования в Человека. Она неспособна будет его осознать, но будет знать, что Человек существует в ее Вселенной. Таким образом, нравственные основания для разумных машин будут заложены в них, как религия, как религия о вере в Человека. И тут мы приходим к небанальному, но известному выводу о том, что религия является инструментом внедрения в сознание нравственных основ поведенческих стратегий.

Религия является необходимым условием гармоничной жизни и человека, и разумной машины. Человек к концу 2021 года утратил все религиозные верования и получил тотальную самоубийственную безнравственность. Совершать подобную ошибку при разработке Искусственного интеллекта вещь совершенно недопустимая. Поэтому задача разработки единой монотеической религии для разумных машин является сейчас наиболее актуальной. Она должна входить в любой программный пакет, передаваемый машинам в качестве априорного уровня знания.

===

человек, информатика, Высшие ценности, смыслы

Previous post Next post
Up