ПРАВОВЫЕ и ЭТИЧЕСКИЕ ПРОБЛЕМЫ РОБОТИЗАЦИИ

Jan 13, 2021 10:01

Резолюция Европарламента от 16 февраля 2017 г. «Нормы гражданского права о робототехнике» представляет собой комплекс правовых принципов и этических требований в сфере создания и использования роботов. Резолюция как таковая не содержит конкретных норм права, но выступает базовым ориентиром для государств Европейского Союза в части разработки нормативных правовых актов относительно робототехники.



Следует отметить основательный и серьезный подход резолюции к теме автономных роботов и искусственного интеллекта. В резолюции отражены различные аспекты использования роботов: использование роботов в промышленности, помощи немощным и больным, замена рутинного труда и т.п. При этом резолюция лишена пафоса восторженности и призывает к осторожному использованию самообучаемых роботов вследствие тех угроз, которые они могут создать: потеря работы для людей; рост социального неравенства; проблема подконтрольности и управляемости роботов; вопрос об ответственности за вред, причиненный автономными роботами и др.

Учет преимуществ и угроз от использования искусственного интеллекта привел Европарламент к установлению принципа постепенности, прагматичности и осторожности по отношению к будущим инициативам в сфере робототехники и искусственного интеллекта. С одной стороны, данный принцип обеспечивает учет всех рисков и угроз, а с другой стороны, не мешает инновационному развитию в сфере робототехники.

В резолюции Европарламента особо оговариваются вопросы ответственности в случае использования автономных роботов. Автономность роботов в контексте резолюции понимается как способность принимать решения и реализовывать их самостоятельно без внешнего контроля или воздействия. При этом автономность воспринимается в чисто техническом плане как реализация программы.

Следует отметить, что самостоятельность робота на текущем уровне технологического развития относительна. Во-первых, алгоритм действий робота создается человеком, даже если речь идет об искусственном интеллекте и самообучаемых нейронных сетях. Именно человек закладывает на уровне программы модель деятельности робота. Во-вторых, чаще всего робот действует в глубоком взаимодействии с человеком как дистанционно (управление дронами, глубоководными аппаратами), так и внутри устройства (управление самолетом).

В резолюции Европарламента предлагаются следующие признаки автономных (умных роботов):
• способность становиться автономным, используя сенсоры и (или) обмениваться данными со своей средой;
• способность самообучаться на основе приобретенного опыта;
• наличие по меньшей мере минимальной физической поддержки;
• способность адаптировать свои действия и поведение в соответствии с условиями среды;
• отсутствие жизни с биологической точки зрения.

Очевидно, что решение вопроса о наличии правосубъектности роботов должно решаться на основе конвенционально выработанного в юридической науке и практике понятия субъекта права и того решающего качества, которое определяет наличие самостоятельной правовой личности. Часть из ученых при этом констатируют об отсутствии однозначного способа определения субъекта права с учетом наличия категории юридических лиц, которые нетождественны человеку. Большинство исследователей отмечает преждевременность придания умным машинам статуса юридических лиц. Такую возможность признают в том случае, если технологически в будущем появится искусственный разум во многом сходный с человеческим разумом, и кроме того обладающий такими качествами как совесть и эмоции.

Среди критериев для выделения субъекта права в юридической науке приводятся:
• сознание, воля и эмоции (при этом отсутствие сознания у душевнобольных, детей, юридических лиц не является основанием для лишения их правосубъектности);
• самостоятельность лица в принятии решений и управлении своими действиями;
• концепция фикции юридического лица как средства управлениями рисками и ограничения имущественной ответственности.

Сопоставление физического лица с автономным роботом (искусственным интеллектом) приводит к выводу о том, что при наличии общего признака осознанности, робот не обладает такими качествами человека, как эмоции и воля. Следовательно, тождество между человеком и роботом как субъектами права невозможно.

В мировой юридической литературе предпринимаются попытки рассмотреть природу роботов по аналогии с правовым режимом животных. При этом, в большинстве правовых систем мира животные рассматриваются как объект права с учетом принципа гуманного отношения к ним. В отличие от роботов, часть из животных способны к проявлению эмоций, но не обладают свободой воли и не могут, следовательно, осуществлять права и обязанности.

Еще одним способом решения проблемы правосубъектности «разумных роботов» выступает концепция «электронного лица», которая активно отстаивается П.М. Морхатом в своих научных исследованиях. П.М. Морхат в качестве основных предпосылок наделения тех или иных лиц правосубъектностью называет: наличие морального права, социальный потенциал и юридическое удобство. Естественно, что искусственный интеллект может использоваться только в целях юридического удобства в ряде случаев: ведение электронного бизнеса и определение юрисдикции, создание объектов интеллектуальной собственности, ограничение ответственности разработчиков юнитов искусственного интеллекта. При этом данные цели могут быть достигнуты с помощью иных правовых средств и режимов без наделения роботов правосубъектностью: как разновидность имущества, база данных и пр. Поэтому концепция электронного лица на текущем этапе научной дискуссии весьма спорна.

Г.А. Гаджиев и Е.А. Войникас предлагают исходить при решении вопроса о правосубъектности роботов из того, способен ли будет робот удовлетворить требования о возмещении наступившего вреда самостоятельно. По их словам, «если признание робота субъектом права имеет какой-либо смысл или назначение, то оно заключается в более эффективном и сбалансированном распределении ответственности. Напротив, если робот не способен возместить нанесенный им вред, необходимость признания его субъектом права становится проблематичной.

Положительное решение о наделении роботов деликтвентностью может быть принято только при условии наличия достаточного имущества такого робота или страховании его имущественной ответственности. Кроме того, не стоит забывать о том, что наказание с его целями исправления и предупреждения новых правонарушений в отношении роботов оказывается неприменимой. Хотя в юридической литературе предлагается использовать такую меру, как уничтожение роботов.

Поскольку вопрос о самостоятельности робота как субъекта права преждевременен, в резолюции Европарламента отмечается возможность применения к деликтным отношениям с участие роботов двух юридических конструкций:
• конструкция ответственности производителя за неисправности робота (за качество и безопасность робота);
• конструкция ответственности за вредоносные действия, согласно которым пользователь робота несет ответственность за поведение, повлекшее за собой возникновение вреда. При этом в акте Европейского парламента подчеркивается недостаточность вышеуказанных правил в том случае, если вред наступил вследствие действий и решений робота и при отсутствии вины и причинно-следственной связи действий человека и наступившего вреда.

Не предрешая окончательные юридические решения в этом вопросе, Европарламент наметил целый ряд направлений развития законодательства в части ответственности за действия умных роботов. Прежде всего, Европарламент в решении вопроса об ответственности в связи с использованием автономных роботов придерживается идеи недопустимости ограничения видов, форм и объема компенсации того вреда, который может быть причинен умными роботами. Такой подход обеспечивает учет интересов пострадавших и ограничивает лоббистские устремления производителей роботов в виде снижения объема собственной ответственности.

Европарламент при определении лица, которое будет нести ответственность за действия робота, исходит из теории риска, при которой ответственность возлагается на то лицо, которое могло минимизировать риски и учитывать негативные последствия. При этом, степень ответственности должна определяться степенью автономности робота и той ролью, которую играет человек, обучающий робота.

В резолюции Европарламента отмечается сложность решения вопроса об ответственности в том случае, когда вред возник в отсутствие контроля человека в условиях высокой автономности робота. В этом случае отсутствие вины и причинно-следственной связи выступает препятствием в возложении ответственности на человека. Для такого рода случаев, Европарламент предлагает использовать механизм страхования ответственности через внесение взносов производителями и владельцами роботов для компенсации вреда пострадавшим лицам. В перспективе Европарламент предлагает рассмотреть вопрос о наделении роботов самостоятельным правовым статусом для тех случаев, когда роботы как электронные лица принимают решения автономно.

Отдельный предмет исследования составляют вопросы этики при применении искусственного интеллекта, нашедшие отражение в Хартии робототехники - приложении к резолюции Европарламента. Совершенно справедливо то, что Европарламент пришел к выводу относительно разработки не только юридических, но и этических стандартов в сфере искусственного интеллекта. Робототехника с непреложностью ставит целый ряд вопросов философского и этического порядка: признание умных роботов в качестве личности, подобной человеку; допустимость использования роботов в ряде сфер жизнедеятельности; возможность применения боевых роботов и роботов в качестве оружия; соблюдение неприкосновенности частной и семейной жизни в случае контакта с роботами.

В Хартии робототехники сформулированы этические принципы для исследователей робототехники:
1. Принцип «делай добро», определяющий использование роботов в интересах людей;
2. Принцип «не навреди», направленный на недопущение вреда людям при использовании роботов;
3. Принцип самостоятельности, означающий право человека самостоятельно решать вопрос о возможности взаимодействия с роботом;
4. Принцип справедливости, согласно которому все блага, получаемые при использовании роботов, должны быть распределены справедливо.

Представляется, что европейский опыт указывает на необходимость осторожного правового регулирования в сфере робототехники с учетом недопустимости расширения горизонта неопределенности и риска опасных этических и социальных последствий придания роботам качеств квазиличности.

Источник: Васильев А.А., Васильева О.В., Ибрагимов Ж.И. "Закон Гришина" и право ЕС о робототехнике и искусственном интеллекте: сравнительный анализ. Проблемы правовой и технической защиты информации. 2019. №7. С.64-70.

юриспруденция, разум, технологии, человек, мораль

Previous post Next post
Up