невозможность враждебного ИИ

Aug 21, 2015 16:37

Почему на мой взгляд невозможен искусственный интеллект в том виде, в котором его обычно изображают в научной фантастике: очень умный, агрессивный, враждебный.
Рассмотрим два основных способа возникновения такого рода ИИ, распространенных в научной фантастике.
Первый - создание ИИ человеком. Глядя на прогресс в области когнитивных функций различных устройств (никого не удивишь распознаванием эмоций, речи, лица конкретного человека, определением объекта на фотографиях, самоуправляемым автомобилем и пр.), в области анализа больших данных, нейронных сетей всевозможных типов за последние 10-15 лет, проекты вроде IBM Watson и др., появление такого типа ИИ кажется вполне вероятным в ближайшем будущем. Однако, здесь я бы хотел обратить внимание на одну деталь - такой ИИ не будет обладать мотивацией кроме той, которая заложена в него людьми при создании. И весьма сомнительно, что кто-либо мог бы заложить мотивацию к неконтролируемому размножению и расширению, уничтожению людей или что-либо подобное. Почему-то считается, что мотивация к самосохранению появляется в момент осознания искусственным интеллектом себя, но, по-моему, это явления совершенно отдельные. Мотивация к выживанию у живых организмов образовалась в результате естественного отбора, и появилась изначально как некий физический процесс, гомеостатическое поведение системы в таких примитивных формах жизни, которые еще и жизнью то назвать сложно, не говоря уж о применимости термина «мотивация». Это просто общее свойство живых систем. А так как рассматриваемый ИИ был создан сразу, был создан извне, то и процессу естественного отбора он не подвергался, за ресурсы не боролся. Таким образом, мотивации к уничтожению или захвату человечества, неконтролируемому расширению и пр. у него быть не может. Зарождение ее в результате каких-либо случайных процессов опять же представляется маловероятным, т.к. в природе она изначально возникла в примитивных формах жизни и прошла вместе с ними весь путь развития до человека разумного и других высокоразвитых живых существ, а случайное появление такого сложного, разветвленного и глубоко интегрированного механизма в готовой, обладающей большой сложностью системе невозможно. В итоге, ИИ этого типа нельзя назвать в полной мере живым. Эволюционное развитие мотива самосохранения, наверно, возможно при условии множественности таких ИИ, изменчивости и в среде, где возможна конкуренция за ресурсы, но в любом случае требует значительного времени.
Второй - самозарождение. Почему бы и нет. Интернет, возможно, в скором времени станет весьма благотворной средой для зарождения жизни. И как в первичном бульоне, в нем начнут образовываться системы, стремящиеся к равновесию, потом размножающиеся и т.д. Не обязательно совсем исключать тут антропоморфный элемент и полагаться в полной мере на случайность. Например, компьютерные вирусы, созданные человеком, уже умеют самостоятельно размножаться, хоть и паразитически (ну прям как настоящие вирусы, за что они свое название, кстати, и получили). Тут уже рукой подать до случайных (или намеренных) ошибок при копировании, естественного отбора, эволюции и пр. Но позвольте! Речь то шла про искусственный интеллект. А здесь выходят какие-то искусственные бактерии. Интеллектом тут и не пахнет. А до его развития нужно много времени, большой эволюционный путь, и это при условиях благоприятной среды для его развития, которая не факт что имеется в наличии.
Есть еще, правда, и третий путь - всевозможные загрузки сознания и слияние человеческого интеллекта с компьютерным, моделирование человеческого мозга и пр. Но в этом случае, на мой взгляд, ошибочно говорить о искусственном происхождении такого существа.

Так что, на мой взгляд, всевозможные апокалиптические фантастические сценарии с участием ИИ невозможны. Не говоря уже о том, что среда обитания ИИ отличается от человеческой.

инстинкт, трансгуманизм, человечество, стремление, прогресс, ИИ, эволюция

Previous post Next post
Up