Вокруг Искусственного интеллекта

Oct 28, 2023 16:11


Термин «этика роботов» (или «робоэтика») относится к моральным вопросам того, как люди проектируют, конструируют, используют и обращаются с роботами и другими искусственно интеллектуальными существами. Она занимается вопросами того, как искусственно разумные существа могут быть использованы во вред и в интересах людей.

«Права роботов» - это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, аналогичные правам человека или животных. Права роботов, такие как право на существование и выполнение своей собственной миссии, должны быть связаны с обязанностью робота служить человеку, по аналогии с тем, что  права человека связаны с его обязанностями перед обществом. Это: право на жизнь и свободу, свободу мысли и высказываний, а также равенство перед законом. Этот вопрос был рассмотрен Институтом будущего и Министерством торговли и промышленности Великобритании.

Кроме того, широко распространены, взгляды, в соответствии с которыми, право на моральные соображения предоставляется всем чувствующим существам, прежде всего людям и большинству животных. Если искусственные или инопланетные интеллектуальные существа демонстрируют доказательства такой своей чувственности, подобная  философия считает, что к ним следует проявить сострадание и предоставить им права.

Угроза человеческому достоинству



Мнения учёных, специалистов в области искусственного интеллекта неоднозначны. Американец Джозеф Вейценбаум, который известен как автор программы Элиза. Элиза (ELIZA) - виртуальный собеседник, компьютерная программа Джозефа Вейценбаума, написанная им в 1966 году, которая пародирует диалог с психотерапевтом, реализуя технику активного слушания. Программа была названа в честь Элизы Дулитл, героини из пьесы «Пигмалион» Бернарда Шоу, которую обучали языку «язык Шекспира, Мильтона и Библии»., написанной им в 1966 году. Джозеф Вейценбаум  утверждал в 1976 году, что технология искусственного интеллекта не должна использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

  • Сотрудник службы поддержки клиентов (хотя, как известно, уже сейчас технологии ИИ широко используется в телефонных системах интерактивных голосовых ответов).
  • Терапевт.
  • Сиделка для пожилых людей.
  • Солдат.
  • Судья.
  • Полицейский.

Вейценбаум утверждает, что, от людей этих профессий, мы требуем подлинного чувства эмпатии.  Эмпáтия - это  «страсть», «страдание», «чувство», «сочувствие», осознанное сопереживание текущему эмоциональному состоянию другого человека без потери ощущения происхождения этого переживания..

В том случае, если машины их заменят, мы окажемся отчужденными, обесцененными и разочарованными. Поэтому, искусственный интеллект, если его использовать таким образом, будет представлять угрозу для человеческого достоинства. Вейценбаум утверждает, что факт того, что мы рассматриваем возможность машинам занимать эти позиции, говорит о том, что мы испытали «атрофию человеческого духа, возникающую из-за того, что мы думаем о себе как о компьютерах».

Однако, Памела МакКордак, писатель и историк, автор нескольких книг, посвященных искусственному интеллекту и интеллектуальному влиянию компьютеров, одна из которых - «Думающие машины»,  возражает, говоря о женщинах и меньшинствах, «я бы предпочла рискнуть с беспристрастным компьютером», указывая на условия, в которых мы бы предпочли иметь автоматических судей и полицию, у которых вообще нет личных интересов.

Тем не менее, другие специалисты по ИИ, Каплан и Хенлейн подчеркивают, что системы искусственного интеллекта интеллектуальны,  в соответствии с теми данными, которые использовались для их обучения. Использование искусственного интеллекта для поддержки судебного решения может быть весьма проблематичным, если прошлые решения демонстрируют предвзятость к определённым группам, поскольку эти предубеждения формализуются и закрепляются, что делает выявление и борьбы с ними ещё более трудной.

Билл Хиббард, ученый из Университета Висконсина в Мэдисоне Центр космической науки и техники, который  работает над визуализацией и машинным интеллектом, отмечал, в частности, что «человеческое достоинство требует, чтобы мы стремились устранить наше незнание природы бытия, и для этого необходим ИИ».

Прозрачность, ответственность и открытый исходный код

Билл Хиббард   утверждает, что, поскольку ИИ сильно повлияет на человечество, усилия разработчиков ИИ этически должны быть прозрачными.

В частности, Бен Гертцель  и Дэвид Харт создали программу OpenCog в качестве фреймворка с открытым исходным кодом для разработки ИИ.

OpenAI - это некоммерческая исследовательская компания по искусственному интеллекту, созданная Илоном Маском, Сэмом Альтманом и другими для разработки полезного для человечества программного обеспечения ИИ с открытым исходным кодом. Существует множество других разработок ИИ с открытым исходным кодом.

Открытие кода не делает его понятным, то есть ИИ, который им закодирован, не является прозрачным. IEEE, некоммерческая инженерная ассоциация из США, разрабатывающая широко применяемые в мире стандарты по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей. Её корпоративный офис находится в Нью-Йорке[1], а центр операций в Пискатавэе (Нью-Джерси). Она  пытается заниматься стандартизацией прозрачности ИИ. Усилия IEEE выделяют для разных пользователей несколько степеней прозрачности. Кроме того, есть опасение, что предоставление полного потенциала современного ИИ некоторым организациям может быть плохо для общественности, то есть причинить больше вреда, чем пользы. Например, Microsoft выразила обеспокоенность по поводу предоставления всеобщего доступа к своему программному обеспечению для распознавания лиц, даже для тех, кто может за него заплатить. Microsoft даже опубликовала необычный блог на эту тему, с просьбой о правительственном регулировании с целью помощи в определении правильных действий.

Не только компании, но и многие другие исследователи и гражданские адвокаты рекомендуют государственное регулирование для обеспечения прозрачности и, как следствие, ответственности человека.

Обновленная коллекция (список) этики ИИ поддерживается организацией AlgorithmWatch. Архивная копия от 30 ноября 2019 на Wayback Machine - бесплатном онлайн-архиве некоммерческой библиотеки «Архив Интернета». С помощью поисковых роботов Wayback Machine архивирует и делает общедоступной большую часть «открытого» интернета.  Эта стратегия считается спорная, так как некоторые специалисты и разработчики ИИ опасаются, что это приведет к замедлению темпов инноваций. Другие утверждают, что регулирование приводит к систематической стабильности, способной в большей степени поддерживать инновации в долгосрочной перспективе. ОЭСР, ООН, ЕС и многие страны в настоящее время работают над стратегиями регулирования ИИ и ищут соответствующие правовые рамки. 26 июня 2019 года Группа высокоуровневых экспертов Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Рекомендации по политике и инвестициям в области надежного искусственного интеллекта». Это второй документ AI HLEG, который вышел вслед за публикацией в апреле 2019 г. «Руководства по этике для надежного AI». Новые рекомендации касаются четырёх основных областей: люди и общество в целом, частный сектор, государственный сектор, а также исследования и наука. Рекомендации HLEG отражают понимание как возможностей для технологий искусственного интеллекта стимулировать экономический рост, процветание и инновации, так и потенциальных рисков. Европейского Союза имеет амбиции возглавить разработку политик, регулирующих ИИ во всем мире. Однако, если Европа не ускорит развертывание и внедрение и не создаст производственные, исследовательские и опытно-конструкторские мощности, её возможности для этого будут ограничены.

В то же время, становится всё более значимой предвзятость в системах ИИ.

ИИ становится неотъемлемой частью систем распознавания лиц и голоса. Некоторые из этих систем уже имеют реальное влияние на бизнес и людей. Эти системы уязвимы для предвзятостей и ошибок, вносимых создателями-людьми. Кроме того, данные, используемые для обучения самих этих систем ИИ, могут иметь искажения. Например, алгоритмы распознавания лиц, разработанные Microsoft, IBM и Face++, оказались необъективны, когда дело дошло до определения пола людей. Эти системы искусственного интеллекта были в состоянии определять пол белых мужчин более точно, чем пол темнокожих мужчин. Ещё одним примером необъективности ИИ стало прекращение со стороны Amazon’s.com Inc использования ИИ для найма сотрудников. Алгоритм предпочитал больше кандидатов-мужчин, чем женщин. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период, которые поступали в основном от кандидатов-мужчин.

Предвзятость может попасть в алгоритмы разными способами. В очень влиятельном направлении ИИ, известном как «обработка естественного языка», могут возникнуть проблемы из «текстового свода» - исходного материала, который использует алгоритм, чтобы узнать о взаимосвязях между разными словами.

Но всё таки, наиболее крупные компании, такие как IBM, Google , уже начали исследовать и решать проблему предвзятости.

Проблема предвзятости в машинном обучении, вероятно, станет более серьёзной, поскольку технология распространяется на такие критические области, как медицина и юриспруденция, и поскольку задачу её развертывания поручают все большему числу людей, которые не имеют глубоких технических знаний. Некоторые эксперты предупреждают, что алгоритмическая необъективность уже широко распространена во многих отраслях, и что почти никто не предпринимает усилий для её выявления или исправления.

Во всем мире уже есть различные примеры стран (включая Германию, Америку, Англию и Индию), где необдуманное применение искусственного интеллекта правительствами имело серьёзные социальные последствия в таких областях, как иммиграция, правоохранительная деятельность и социальное обеспечение.

Ещё одна важная проблема, которая выявляется в разработках. Это -Ответственность за частично или полностью беспилотные автомобили.

Уже сейчас есть все основания считать, что в будущем неизбежно широкое использование частично или полностью беспилотных автомобилей. Но полностью автономные технологии ставят перед нами новые проблемы и вызовы. В последнее время в СМИ и в специальной литературе поднялись дебаты по поводу юридической ответственности сторон при попадании беспилотных автомобилей в аварии. В одном из отчётов автомобиль без водителя сбил пешехода, и встала проблема, кто виноват в аварии. Несмотря на то, что водитель во время аварии находился в автомобиле, органы управления были полностью в руках компьютера. Необходимо решить такого рода вопросы прежде, чем беспилотные автомобили будут иметь широкое распространение.

Наконец, важнейшая проблема, связанная с разработкой и использованием ИИ. Это - Вооружённый искусственный интеллект.

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам предоставляются определённая степень автономности. ВМС США профинансировали доклад, в котором указывается, что, поскольку боевые роботы становятся все более сложными, следует уделять больше внимания последствиям их способностям принимать самостоятельные решения.

В течение последнего десятилетия проводились интенсивные исследования в области самообучаемой автономности с назначаемой моральной ответственностью. «Результаты могут быть использованы при разработке будущих военных роботов для контролирования нежелательных тенденций возложения ответственности на роботов». С точки зрения распространённой теории консеквенциализма - группы моральных теорий, где критерием нравственной оценки является результат (консеквент) поведения. Таким образом, с точки зрения консеквенциалистов, морально правым является такое действие или бездействие, которое даёт хорошие результаты или последствия (включая те последствия, которые возникли в ходе достижения этих результатов). И есть вероятность, что военные роботы будут развивать способности принимать свои собственные логические решения о том, кого убивать, и поэтому необходимы моральные ограничения, которые ИИ, не при каких обстоятельствах, не сможет обойти.

Возникают протестные голоса против разработки ИИ-оружия, которое включало бы идеи захвата человечества роботом. ИИ-оружие несёт опасность другого рода, в отличие от оружия, контролируемого человеком. Многие правительства уже начали финансировать программы по разработке ИИ-вооружения. ВМС США недавно объявили о планах разработки ударного беспилотника, параллельно с аналогичными заявлениями России и Кореи. В связи с тем, что ИИ-оружие становится более опасным, чем управляемое человеком оружие, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» о запрете ИИ-оружия. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что ИИ-оружие представляет собой непосредственную опасность и что необходимо предпринять какие-то действия, чтобы в ближайшем будущем избежать катастрофических последствий.

«Если какая-либо крупная военная сила продвигает разработку ИИ-оружия, практически неизбежна глобальная гонка вооружений, и в итоге автономное оружие станет автоматом Калашникова завтрашнего дня», - говорится в петиции, в которую входят противники вооружённого искусственного интеллекта: основатель Skype Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомский.

Физик и астроном сэр Мартин Рис предупреждает о таких катастрофических примерах, как «глупые роботы, которые становятся изгоями, или сеть, которая развивает собственный разум». Хью Прайс, коллега Риса из Кембриджа, озвучил аналогичное предупреждение о том, что люди могут не выжить, если интеллект «ускользнёт от биологических ограничений». в Кембриджском университете они создали Центр изучения экзистенциального риска  в надежде избежать этой угрозы человеческому существованию.

Что касается возможности использования систем «умнее человека» в военном деле, проект «Открытая филантропия» пишет, что эти сценарии «кажутся потенциально настолько же важными, как и риски, связанные с потерей контроля». Но исследовательские организации, занимающиеся долгосрочным социальным воздействием ИИ, недостаточно изучили эту проблему: «этот класс сценариев не был в центре внимания занимающихся этими вопросами организаций, таких как Научно-исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI) и поэтому меньше обсуждались».

катастрофы, человеческий фактор, Робототехника, Искусственный интеллект

Previous post Next post
Up