Хокинг: неконтролируемый искусственный интеллект будет трудно остановить

Jun 28, 2016 21:18



Иногда хочется потешить самолюбие. Есть вот у человека такая черта, у одного она подавлена волевым характером, другой ее виртуозно маскирует - короче кто во что горазд. Ведомый этим, не самым чистым чувством, покорный ваш слуга решил предстать в образе этакого мудрого учителя. С менторской, высокой кафедры (дабы ощутить интеллектуальное превосходство над окружающими и подчеркнуть свою значимость) сообщить окружающим: «мол еще дядя, который Томас Гоббс заявлял, что человеку свойственно видеть в друг друге не друга, товарища и брата - а врага». И с этим мол врагом надо воевать, иначе говоря не изживать в себе зоологическое начало, а запереть его в рамки закона государственного (другими словами - заключить общественный договор). И вот этот зоологический газ будет толкать поршни прогресса и поедем мы весело и с ветерком, прямиком в прекрасное будущее. И что же? Примерно через 100 лет после этих его речей произошла великая французская революция. Ознаменовавшая окончательный уход феодально-монархической (или абсолютистской, как кому угодно) системы с заменой ее на буржуазную. Ту самую буржуазную, в фундаменте которой и был заложен принцип определенный дядей Гоббсом. Вот … уже полегчало - вроде как ни чего нового не сказал, но сам довольный как слон.
Если же без шуток, то хотел напомнить этот эпизод истории вот в связи с чем. Всеми нами любимый г-н Хокинг изрек следующее. "Когда машины достигнут критического этапа, на котором смогут эволюционировать самостоятельно, нельзя будет предугадать, насколько их цели будут совпадать с нашими", - заявил английский физик-теоретик, лауреат множества премий за развитие фундаментальной физики и т. д. и т. п. Вот тут и возникает главный вопрос?! Не ужели он это серьезно? Не ужели такой умный человек не понимает простейших истин. Создание искусственного интеллекта(ИИ) это перспектива весьма отдаленная, и вполне возможно, что создав нечто подобное человечество породит неразрешимую проблему. Но! Есть одно но. Хокинг опасается эволюции этого интеллекта, что на каком-то этапе он решит, мол люди ему сильно мешают. И вот это слышать от далеко не глупого человека весьма и весьма забавно. Вы, г-н Хокинг, забыли основной принцип, лежащий в основе капитализма? Вот эта самая война всех против всех ни куда не делась (несмотря на то что на бытовом уровне ее обозвали конкуренцией). Да как только машинный разум хоть в какой-то мере приблизиться к разуму обезьяны, и сможет достаточно хорошо отличать своих от чужих - он будет посажен в танк, самолет, ракету и т. д. Мы, люди, не изжив в себе зоологическое (как нам то завещали строители коммунизма - говоря о новом человеке) первыми применим этот, еще псевдо искусственный интеллект для уничтожения друг друга. И если даже контроль государства превысит все мыслимые пределы, и отдельный гражданин (или группа) не сможет применить искусственный разум в целях уничтожения себе подобных - извиняюсь, в целях повышения собственной конкурентоспособности. То уж про применение ИИ в военных целях на межгосударственном уровне - беспокоиться не стоит - будет, и будет это применение в первую очередь. Поэтому, если нам сильно повезет не уничтожить друг друга до появления ИИ, то первое, чему его будут обучать - так это уничтожению людей. Более того, это будет основная причина, по которой будут финансировать его создание.

Previous post Next post
Up