Leave a comment

ars_el_scorpio June 4 2021, 09:33:30 UTC
Не знаю, как насчёт советов с юристом, но с точки зрения программиста у Азимова вообще полный швах.

То есть сначала для робота, изначально предназначенного для выполнения относительно простой задачи, создаётся искусственный разум (не искусственный интеллект для выполнения этой задачи, а полноценный разум), способный обрабатывать законы столь высокой степени абстрактности. А потом этот разум пытаются заковать в оковы.

Reply

shtirl June 4 2021, 09:39:50 UTC
Ну допустим человеческий разум, способный обрабатывать законы высокой степени абстрактности, тоже закован в законодательные оковы с точки зрения реализации замыслов. Поэтому я и подумал про юриста

Reply

ars_el_scorpio June 4 2021, 09:58:52 UTC
Разница в том, что человеческий разум - существует, а "разум роботов" никогда не будет существовать.
Любой робот может обладать только "искусственным интеллектом" из нескольких десятков, сотен, тысяч, миллионов строк программного текста и базы данных

Reply

shtirl June 4 2021, 10:13:18 UTC
Ну допустим человеческий разум тоже состоит из миллионов межнейронных связей, каждая из которых сама по себе несложная, и формируется методом обучения. Нейросети строятся на схожем принципе, разве нет?

Reply

ars_el_scorpio June 5 2021, 05:19:24 UTC
Нейросети программируются для выполнения определённой задачи.

Если Главного Босса крупной многопользовательской компьютерной игры настроить на изучение тактики победивших его игроков, то он к определённому моменту станет просто непобедимым (внутри этой игры), но не станет спрашивать "Кто я такой" у очередного игрока.
"Лабиринт Отражений" - это просто фантастика, тоже написанная человеком, плохо знавшим матчасть.

Reply

maysuryan June 4 2021, 10:13:43 UTC
Мы с вами тоже обладаем программным обеспечением в виде сотен, тысяч, миллионов строк кода ДНК в каждой клетке. Что (как будто) не мешает нам обладать и разумом.

Reply

ars_el_scorpio June 5 2021, 05:48:39 UTC
У Азимова в одном рассказе появился один разумный робот - как результат производственного дефекта. Но этот робот изначально выглядел, как совершенно неисправный, а разум получил после продолжительного воспитания человеком (фанатичным специалистом по роботам, решившим изучить этот дефект).

Однако для искусственного интеллекта законы Азимова будут слишком сложны. Уже в трактовке понятия "вред человеку". А любая коллизия и вовсе вызовет BSOD.
Так что это законы для программистов, пишущих программы для роботов, выполняющих конкретные задачи для конкретных людей.
Например, написание кода для робота-охранника, который будет вести себя как сторожевая собака. В том числе убивать других людей, если иным способом невозможно будет защитить хозяина.

Reply

aso June 4 2021, 10:40:37 UTC
Возможен самомодифицирующийся код - и куда он выедет - не знает никто.

Reply

ars_el_scorpio June 5 2021, 05:32:50 UTC
Может завести далеко - но в пределах базовой задачи.

Действительно, страж-птица Роберта Шекли может помешать казнить преступника или сделать операцию больному человеку. Но она не станет "защищать всё живое" хотя бы потому, что изначально была настроена для защиты людей, а не коров.
А уничтожитель страж-птиц тем более не станет охотиться на кого-то другого просто потому что имеет жёстко заданные параметры цели.

Игрушечные Солдатики (из одноимённого фильма), которые вдруг начали по-настоящему воевать с игрушечными горгонитами - с большой натяжкой может сойти за баг, который в реальной жизни был бы выявлен и устранён во время испытаний (то есть задолго до начала продажи игрушек). Однако именование "горгонитами" людей - это уже очень сильное колдунство.

Реальную опасность может нести несанкционированная модификация программного кода робота, выполненная другим человеком. Но в этом случае робот становится уже не убийцей, а орудием убийства.

Reply

aso June 5 2021, 05:58:08 UTC

Это какая-то идеалистическая позиция.
Какие практические выводы могут быть сделаны из тезиса "робот становится орудием убийства"? - Да никаких.
Потенциальной жертве от этого ни горячо, ни холодно.
При этом сама ситуация - полностью изоморфна ситуации, когда некто отдаёт приказ на убийство конкретного неугодного ему лица - и его подчинённый либо наёмник - отправляется этот приказ выполнять.
Но - человек есть человек, его можно запугать, у него есть инстинкт самосохранения, у него может быть гуманизм - он может пожалеть жертву, например.
В конце-концов - его можно наказать.
А что из этого - имеется у дрона?
И как найти организатора убийства в этом случае?
При этом - любое устройство, действующее в открытой среде - неизбежно должно самообучаться. И мы не знаем границ этого самообучения - куда оно может "заехать" в конце-концов.
Тем более, что сегодня существует тенденция отказываться от "непосредственного" явного прописывания алгоритмов - и генерировать их на основе обучаемых нейросетей.
Чем это может закончиться - х.з.

Reply

sp4rc June 4 2021, 16:20:21 UTC
Ой ну прямо. А что если ему ИИ другие роботы задизайнят? Или программирование всегда будет чисто человеческой функцией? Это как раз вряд ли.

Reply

aso June 4 2021, 10:39:46 UTC
Тут есть один небольшой прикол - "самые простые задачи" в обыденном смысле этого слова - типа работы прислуги - с точки зрения программирования - чрезвычайно сложны.
И до сих пор полностью не реализуемы.
А вот решить высокоинтеллектуальные задачи типа расчёта орбит планет - получалось уже на заре компьютерной эры.

Reply

snegsever June 5 2021, 05:46:31 UTC
Верно.

Reply

2aliks June 4 2021, 18:13:36 UTC
Внезапно Азимов писал не о роботах и не для роботов, а о людях и для людей.

Reply

ars_el_scorpio June 5 2021, 05:12:15 UTC
Для людей, которые ничего не понимали в роботах.

Reply

2aliks June 5 2021, 18:16:33 UTC
Ещё раз, роботы там просто внешний атрибут. Не более.

Reply


Leave a comment

Up