Не знаю, как насчёт советов с юристом, но с точки зрения программиста у Азимова вообще полный швах.
То есть сначала для робота, изначально предназначенного для выполнения относительно простой задачи, создаётся искусственный разум (не искусственный интеллект для выполнения этой задачи, а полноценный разум), способный обрабатывать законы столь высокой степени абстрактности. А потом этот разум пытаются заковать в оковы.
Ну допустим человеческий разум, способный обрабатывать законы высокой степени абстрактности, тоже закован в законодательные оковы с точки зрения реализации замыслов. Поэтому я и подумал про юриста
Разница в том, что человеческий разум - существует, а "разум роботов" никогда не будет существовать. Любой робот может обладать только "искусственным интеллектом" из нескольких десятков, сотен, тысяч, миллионов строк программного текста и базы данных
Ну допустим человеческий разум тоже состоит из миллионов межнейронных связей, каждая из которых сама по себе несложная, и формируется методом обучения. Нейросети строятся на схожем принципе, разве нет?
Нейросети программируются для выполнения определённой задачи.
Если Главного Босса крупной многопользовательской компьютерной игры настроить на изучение тактики победивших его игроков, то он к определённому моменту станет просто непобедимым (внутри этой игры), но не станет спрашивать "Кто я такой" у очередного игрока. "Лабиринт Отражений" - это просто фантастика, тоже написанная человеком, плохо знавшим матчасть.
Мы с вами тоже обладаем программным обеспечением в виде сотен, тысяч, миллионов строк кода ДНК в каждой клетке. Что (как будто) не мешает нам обладать и разумом.
У Азимова в одном рассказе появился один разумный робот - как результат производственного дефекта. Но этот робот изначально выглядел, как совершенно неисправный, а разум получил после продолжительного воспитания человеком (фанатичным специалистом по роботам, решившим изучить этот дефект).
Однако для искусственного интеллекта законы Азимова будут слишком сложны. Уже в трактовке понятия "вред человеку". А любая коллизия и вовсе вызовет BSOD. Так что это законы для программистов, пишущих программы для роботов, выполняющих конкретные задачи для конкретных людей. Например, написание кода для робота-охранника, который будет вести себя как сторожевая собака. В том числе убивать других людей, если иным способом невозможно будет защитить хозяина.
Может завести далеко - но в пределах базовой задачи.
Действительно, страж-птица Роберта Шекли может помешать казнить преступника или сделать операцию больному человеку. Но она не станет "защищать всё живое" хотя бы потому, что изначально была настроена для защиты людей, а не коров. А уничтожитель страж-птиц тем более не станет охотиться на кого-то другого просто потому что имеет жёстко заданные параметры цели.
Игрушечные Солдатики (из одноимённого фильма), которые вдруг начали по-настоящему воевать с игрушечными горгонитами - с большой натяжкой может сойти за баг, который в реальной жизни был бы выявлен и устранён во время испытаний (то есть задолго до начала продажи игрушек). Однако именование "горгонитами" людей - это уже очень сильное колдунство.
Реальную опасность может нести несанкционированная модификация программного кода робота, выполненная другим человеком. Но в этом случае робот становится уже не убийцей, а орудием убийства.
Это какая-то идеалистическая позиция. Какие практические выводы могут быть сделаны из тезиса "робот становится орудием убийства"? - Да никаких. Потенциальной жертве от этого ни горячо, ни холодно. При этом сама ситуация - полностью изоморфна ситуации, когда некто отдаёт приказ на убийство конкретного неугодного ему лица - и его подчинённый либо наёмник - отправляется этот приказ выполнять. Но - человек есть человек, его можно запугать, у него есть инстинкт самосохранения, у него может быть гуманизм - он может пожалеть жертву, например. В конце-концов - его можно наказать. А что из этого - имеется у дрона? И как найти организатора убийства в этом случае? При этом - любое устройство, действующее в открытой среде - неизбежно должно самообучаться. И мы не знаем границ этого самообучения - куда оно может "заехать" в конце-концов. Тем более, что сегодня существует тенденция отказываться от "непосредственного" явного прописывания алгоритмов - и генерировать их на основе обучаемых нейросетей. Чем это может закончиться - х.з.
Тут есть один небольшой прикол - "самые простые задачи" в обыденном смысле этого слова - типа работы прислуги - с точки зрения программирования - чрезвычайно сложны. И до сих пор полностью не реализуемы. А вот решить высокоинтеллектуальные задачи типа расчёта орбит планет - получалось уже на заре компьютерной эры.
То есть сначала для робота, изначально предназначенного для выполнения относительно простой задачи, создаётся искусственный разум (не искусственный интеллект для выполнения этой задачи, а полноценный разум), способный обрабатывать законы столь высокой степени абстрактности. А потом этот разум пытаются заковать в оковы.
Reply
Reply
Любой робот может обладать только "искусственным интеллектом" из нескольких десятков, сотен, тысяч, миллионов строк программного текста и базы данных
Reply
Reply
Если Главного Босса крупной многопользовательской компьютерной игры настроить на изучение тактики победивших его игроков, то он к определённому моменту станет просто непобедимым (внутри этой игры), но не станет спрашивать "Кто я такой" у очередного игрока.
"Лабиринт Отражений" - это просто фантастика, тоже написанная человеком, плохо знавшим матчасть.
Reply
Reply
Однако для искусственного интеллекта законы Азимова будут слишком сложны. Уже в трактовке понятия "вред человеку". А любая коллизия и вовсе вызовет BSOD.
Так что это законы для программистов, пишущих программы для роботов, выполняющих конкретные задачи для конкретных людей.
Например, написание кода для робота-охранника, который будет вести себя как сторожевая собака. В том числе убивать других людей, если иным способом невозможно будет защитить хозяина.
Reply
Reply
Действительно, страж-птица Роберта Шекли может помешать казнить преступника или сделать операцию больному человеку. Но она не станет "защищать всё живое" хотя бы потому, что изначально была настроена для защиты людей, а не коров.
А уничтожитель страж-птиц тем более не станет охотиться на кого-то другого просто потому что имеет жёстко заданные параметры цели.
Игрушечные Солдатики (из одноимённого фильма), которые вдруг начали по-настоящему воевать с игрушечными горгонитами - с большой натяжкой может сойти за баг, который в реальной жизни был бы выявлен и устранён во время испытаний (то есть задолго до начала продажи игрушек). Однако именование "горгонитами" людей - это уже очень сильное колдунство.
Реальную опасность может нести несанкционированная модификация программного кода робота, выполненная другим человеком. Но в этом случае робот становится уже не убийцей, а орудием убийства.
Reply
Это какая-то идеалистическая позиция.
Какие практические выводы могут быть сделаны из тезиса "робот становится орудием убийства"? - Да никаких.
Потенциальной жертве от этого ни горячо, ни холодно.
При этом сама ситуация - полностью изоморфна ситуации, когда некто отдаёт приказ на убийство конкретного неугодного ему лица - и его подчинённый либо наёмник - отправляется этот приказ выполнять.
Но - человек есть человек, его можно запугать, у него есть инстинкт самосохранения, у него может быть гуманизм - он может пожалеть жертву, например.
В конце-концов - его можно наказать.
А что из этого - имеется у дрона?
И как найти организатора убийства в этом случае?
При этом - любое устройство, действующее в открытой среде - неизбежно должно самообучаться. И мы не знаем границ этого самообучения - куда оно может "заехать" в конце-концов.
Тем более, что сегодня существует тенденция отказываться от "непосредственного" явного прописывания алгоритмов - и генерировать их на основе обучаемых нейросетей.
Чем это может закончиться - х.з.
Reply
Reply
И до сих пор полностью не реализуемы.
А вот решить высокоинтеллектуальные задачи типа расчёта орбит планет - получалось уже на заре компьютерной эры.
Reply
Reply
Reply
Reply
Reply
Leave a comment