Джордж Монбио (George Monbiot)
31.01.2012, 12:59
Фото: EPA
C развитием технологии, которая позволяет машинам самостоятельно принимать решения, война станет более кровопролитной - и менее скованной нормами
Древние греки, в отличие от иудеев или христиан, наделяли своих богов человеческими недостатками. По их мнению, божественное суждение не было ни безупречным, ни беспристрастным; оно было искажено похотью, местью и корыстью. В руках Зевса молния была как инструментом справедливости, так и орудием ревности и возмездия.
Те, кто сегодня принимает с высоты своего положения судьбоносные решения, - не боги, хотя, вероятно, они ощущают себя таковыми. Вне всякого сомнения, карающие смертных при помощи беспилотников способны на самообман, отрицание очевидного и когнитивные иллюзии. И даже на большее, судя по громким фикциям бушевской эпохи и усиливающимся иллюзиям нынешнего президента.
На прошлой неделе Барак Обама начал свое послание Конгрессу словами о том, что воевавшие в Ираке «укрепили безопасность Соединенных Штатов и авторитет нашей страны в мире». Как Буш, как боги, он начал создавать свой собственный мир.
Эти люди, сознание которых искажено властью, получили возможность осуществить одну из древних фантазий человечества: уничтожать своих врагов - словно проклятьем или молитвой - без особых усилий и с безопасного расстояния. То, что этой властью уже злоупотребляют, очевидно по лживости тех, кому она перепала. ЦРУ, ведущее необъявленную и непризнанную войну в Пакистане с применением беспилотников, настаивает, что в последнее время жертв среди гражданского населения не было. Ему вторит главный советник Обамы по вопросам борьбы с терроризмом Джон Бреннан (John Brennan). Все это вопиющее очковтирательство.
Как показал в прошлом году доклад Бюро журналистики расследований, из 2300 человек, погибших в результате ударов американских беспилотников в Пакистане с 2004 г. по август 2011 г., от 392 до 781, по всей видимости, были мирными жителями, 175 из них - дети. В период, к которому относятся заявления ЦРУ и Бреннана, погибло не менее 45 мирных жителей. Как только ведомство заявляет, что «мы никогда не ошибаемся», можно быть уверенным в том, что оно выходит из-под контроля, как показывает в одноименном рассказе Александр Солженицын*. Не чувствуя обязанности извиниться или объясниться, посчитать убитых или ответить за свои преступления, оно становится угрозой человечеству.
Возможно, ВВС США и правы, говоря, что, поскольку беспилотник может часами кружить и изучать цель перед ударом, его ракеты с меньшей вероятностью попадут в мирных жителей, чем ракеты, выпущенные с пилотируемого самолета. (ВВС еще предстоит объяснить, как это согласуется с утверждением о том, что беспилотники «значительно сокращают время принятия решений»). Но, видимо, справедливо и то, что чем менее сложно и рискованно применение оружия, тем более вероятно, что оно произойдет.
Эта опасность признается в необыкновенно честном докладе, опубликованном министерством обороны Великобритании, которое также применяет беспилотники и использовало их против мирных жителей. В нем утверждается, что необъявленная воздушная война в Пакистане и Йемене «в полной мере является функцией существования беспилотных средств - вряд ли сила использовалась бы в подобном масштабе, если бы такие средства были недоступны». Авторы доклада со ссылкой на немецкого военного теоретика Карла фон Клаузевица предостерегают, что жестокость войны редко вырастает до абсолютной формы - отчасти по причине риска, с которым имеют дело собственные силы - однако без риска исчезают сдерживающие факторы. При помощи этих беспилотных аппаратов правительства могут вести войну труса, войну бога, лишая жизни безмолвных.
Вероятно, опасность только увеличится с повышением автоматизированности боевых действий с применением беспилотников и размыванием ответственности. На прошлой неделе ВМС США представили беспилотник, который может садиться на авианосец в полностью автоматическом режиме. Los Angeles Times предупреждала, что это «может положить начало эпохе, когда смерть и разрушение будут сеять машины, действующие наполовину самостоятельно». Авторы британского доклада дают понять, что через несколько лет беспилотники при помощи искусственного интеллекта смогут принимать собственные решения о том, кого казнить, а кого - помиловать. Нам очень жаль, но компьютер сказал «да».
«Некоторые могут сказать, что борец за свободу для одних - террорист для других, - утверждал Джордж Буш-старший в бытность свою вице-президентом. - Я отвергаю это воззрение. Философские отличия очевидны и фундаментальны». Возможно, так оно и есть, но ни одна администрация США не дала им убедительного определения и не признавала их последовательным образом. В Латинской Америке, Юго-Восточной Азии и на Ближнем Востоке один президент за другим способствовал удушению свободы и помогал государственному терроризму. Беспилотники дают правительствам новые возможности по вынюхиванию любой оппозиции - террористической или демократической. Возможно, США уже ими пользуются.
В октябре прошлого года шестнадцатилетний пакистанец Тарик Азиз ехал по северному Вазиристану со своим двенадцатилетним двоюродным братом Вахидом Ханом. Их машина была уничтожена ракетой, выпущенной с американского беспилотника. Как обычно, погибнув, они стали виновными: если мы их убили, значит они террористы. Но они не были террористами. Тарик собирался начать сотрудничество с правозащитной организацией Reprieve, фотографируя последствия ударов беспилотников. Ошибка? Возможно. Но также возможно, что он был убит из своекорыстного интереса. Если у вас есть такие полномочия и вы не отвечаете перед Конгрессом, СМИ или американским народом, то почему бы ими не воспользоваться?
Опасность демократии - сегодня в Пакистане, завтра, возможно, во всем мире - должна быть очевидной. Однако будучи такими же фаталистами, как древние греки, мы принимаем это практически без обсуждений, предоставляя богам вершить наши судьбы.
* «Мы никогда не ошибаемся» (We never make mistakes) - название опубликованного на Западе сборника рассказов А. Солженицына («Матренин двор» и «Случай на станции Кочетовка» (прим. пер.)
Взято
отсюда.