Должны ли роботы иметь права?

Apr 27, 2017 23:59



Есть два подхода к вопросу наделения правами моральных агентов и прочих субъектов права - слабая конвенциональная и сильная. С точки зрения «слабого» подхода - моральные агенты договариваются о взаимном соблюдении прав друг друга, чтобы обеспечить свои собственные права в таком договоре взаимных гарантий. С «сильной» точки зрения - некий агент, уже обладающий определенными правами, ратует за предоставление прав другим, не обладающих правами или лишенных их.

Вопрос Искусственного Интеллекта в его сильной формулировке пока является вопросом будущего, а потому областью прогнозов и предположений. Мы не знаем каков будет ИИ. Будет ли он враждебен человеку (изначально или потенциально), как опасаются некоторые, или будет к нему дружественен и лоялен, как надеются другие, или будет изначально наделен подобной человеку морали, так как будет создан человеком, как предполагают пятые - неизвестно. Возможно, что не один из наших прогнозов не реализуется, как неоднократно уже происходило ранее.

Тем не менее вопрос не праздный, так как развитие ИИ имеет место, и преодоление Искусственным Интеллектом порога определения «мышления», как бы строго его не трактовали, в будущем весьма вероятно. Нам, людям, стоит в этом вопросе проявить свою собственную интеллектуальность и сработать на опережение ситуации. Кроме того некоторые практические аспекты применения ИИ касающиеся вопросов морали актуальны уже сейчас.

1. С моей точки зрения целесообразно исходить из «сильной» моральной позиции и предоставлять роботам (машинам, компьютерам, программам) права уже на теперешнем этапе их развития. Чтобы не оказаться в «слабой» позиции в ситуации когда роботы уже смогут нарушать права людей или будут предоставлять реальную угрозу нашим правам, а мы уже будем не в состоянии их просто «выключить».

2. Рассматривая вопрос прав роботов со стороны их интеллекта и способности к мышлению можно сказать следующее. Во-первых, они уже в некотором роде соответствуют некоторым критериям интеллектуальности, как-то: способность к логике, а так же частично к абстрактному мышлению, планированию, адаптации к окружению и обучению. Весьма вероятно предполагать дальнейший прогресс роботов в этом направлении.

Во-вторых, такая важная в определении «человека» черта как сознание или самоосознание, так же частично уже доступна роботам - самоосознание можно рассматривать как рефлексию, способность диагностировать свое состояние, исследовать самого себя, отделять себя от окружения и выделять в ряду подобных себе объектов. Данное свойство уже имеется у некоторых роботов (пусть даже минимальная), и будет развиваться, так как является важным или даже необходимым для таких функций как планирование своих действий, адаптация к окружению и (само)обучение.

Теперь рассмотрим данный вопрос собственно с моральной (или этической) стороны. Следует заметить, что если роботы имеют (или будут иметь) способность к самодиагностике, то есть измерять, оценивать свое состояние, а так же свои поломки или другое ухудшение своего состояния - то данная способность аналогична способности испытывать боль людьми (или животными и прочими живыми существами). Если роботы могут планировать или прогнозировать получение вреда в результате наступления определенных событий или совершения определенных действий - данная способность аналогична способности испытывать страх, присущей людям (а так же многим, не только высшим животным). Расширяя эту аналогию можно сказать что способность стремится избежать неблагоприятных для себя условий и стремление к благоприятным, помимо выполнение определенных действий или поставленной задачи приближает роботов к свойствам живых существ (от простейших их форм вплоть до высокоорганизованных, на примере человека как самого высокоорганизованного из известных нам или согласно установленных нами критериев).

На примере форм жизни можно сказать что способность испытывать страдания растет с возрастанием сложности существа, а именно сложности его ощущающей, а затем и мыслящей организации. Вершиной данной пирамиды (пока) является человек, способный страдать по совершенно многообразным поводам. Аналогично можно утверждать что роботы могут испытывать страдания, и их способность испытывать страдания будет расти в зависимости от сложности их организации и мышления.

Исходя из моральной максимы минимизации страданий, то есть: «Старайся своими действиями причинять наименьшее количество страданий наименьшему числу существ» или кратко «Уменьшай страдания!» 1 нам следует учесть потенциальную способность роботов испытывать страдания и включить их в число субъектов права. То есть а) объектов права, которые обладают правами, права которых обязуются соблюдать другие субъекты права, и защита прав которых гарантируется гарантом права (каким бы он ни был); б) моральных агентов права, то есть субъектов которые сами обязуются соблюдать права других субъектов права.

Относительно а) Я думаю что приведенных Мною выше аргументов достаточно для включения роботов в категорию субъектов/объектов/существ обладающих правами, подобно тому как правами сегодня наделены не только все люди (независимо от пола, расы, происхождения и прочего), но и некоторыми правами наделяют некоторых животных (это уже законодательный факт в некоторых государствах, а так же многие люди и организации борются за расширение прав животных, хотя они понимают разницу между животными и людьми). Несомненно подобное решение потребует более дифференциального подхода к вопросу права, потребуются исследования, обсуждения и разработка подхода к тому в каком объеме и какими правами должен обладать объект права в зависимости от степени своей сложности, организации (то есть способности претерпевать нарушение своих прав) - классификацию данной способности тоже еще придется разработать.

Относительно б), то есть причисление роботов в категорию моральных агентов, следует заметить - Я не случайно разделил вопросы обладания правами и способности/обязанности соблюдать права других. Так как относительно людей, хотя мы признаем наличие прав у всех людей, но моральные обязанности не являются априорными - существует ограниченная дееспособность у малолетних и несовершеннолетних, а так возможна недееспособность взрослых, совершеннолетних по возрасту людей в зависимости от их психического состояния, данный вопрос исследуются соответствующими специалистами и решение выносится квалифицированной комиссией, данный вопрос критичен в деле совершения правосудия.

Таким образом наличие статуса роботов как моральных агентов - это вопрос отдельного исследования, в котором должны принять участие как философы, с гуманитарной стороны, как разработчики критериев или условий морального статуса, так и разработчики, со стороны возможности или конкретных решений по внедрению в программное обеспечение способности к пониманию моральных мотивом и различению моральных критериев, способности следованию моральным мотивам и способности оценивать свое функционирование в моральных категориях. Вероятно, понадобятся междисциплинарные исследования и комиссии по оценке морального статуса различных моделей роботов или отдельных индивидуальных событий/действий в случае возникновения прецедентов.

В интересах человечества приложить все усилия для обеспечения «моральности» роботов при их создании и/или предпосылок для развития моральности у саморазвивающегося искусственного интеллекта, поскольку человечеству предстоит сосуществовать с роботами и искусственным интеллектом в условиях, когда развитие последнего, а следовательно и его способностей, возможностей и «мощи», значительно опережает развитие человека как биологического вида. Как не печально это признавать, но способности и возможности человека, как биологического существа и даже вида, весьма ограничены, и многие, если не большинство или все, наши достижения основаны на использовании искусственных объектов, приспособлений и машин.

3. Относительно возражений, что с одной точки зрения «разум», даже сколь угодно интеллектуальный, но построенный не на биологическом субстрате - никогда не сможет быть моральным, потому что моральность - это монопольное свойство живых биологических субъектов. В максимальном варианте данный тезис можно свести к тому что «разумным», «мыслящим» и тем более «моральным» может быть только живой биологический субъект. Я могу возразить что хотя у человечества и развития человеческой мысли есть пока только один эмпирически достоверный пример разумной жизни, а именно собственный пример, но высшая нервная деятельность в том числе мыслительная и моральная, не всегда согласуется с биологической (физиологической и инстинктивной), а часто ей и противоречит. Таким образом наличие у нас разума, мышления и моральности, хотя и, обязано по происхождению нашему биологическому генезису, но не определяется им.

С другой стороны, хочется опротестовать так же и (частично) обратное утверждение, что «моральность» есть неотъемлимое свойство «мышления» и «разумности» в независимости от субстрата и генезиса, к которому тяготеют некоторые идеалистические гипотезы. В данном случае простой эмпирический опыт человеческой истории и повседневности опровергает столь оптимистическое утверждение. По крайней мере, если не понимать «разумность» с том высоком смысле который в него вкладывают идеалисты, а иметь в виду тот уровень разумности которого достигают некоторые люди, достаточный для социализации и функционирования в обществе, к сожалению, не всегда соответствует нашим пожеланиям относительно моральности. Таким образом, обеспечение моральности роботов, разумность которых будет приближаться хотя бы к минимальной, достаточной для признания моральной ответственности человека, не стоит оставлять на самотек, а должно стать задачей человека.

1 Я использую эту моральную максиму, так как ее, в отличии от Платоновско-Кантовской максимы максимизации блага труднее (надеюсь почти невозможно) извратить в поддержку авторитарной или тоталитарной морали, как показал Карл Поппер в своей работе «Открытое общество и его враги».

искусственный интеллект, философия, футиристика

Previous post Next post
Up