Apr 18, 2023 20:54
Послушал интервью Маска о потенциальных угрозах со стороны искусственного интеллекта, и захотелось сформулировать свое мнение на эту тему. Когда расследуют, например, убийство, то всегда задаются вопросом: была ли возможность у подозреваемого совершить преступление? Если нет (алиби и т.д.), то подозреваемый чист. Второй вопрос - мотив преступления, который предполагает некую рациональность или логику преступления (корысть, месть). Давайте применим эти принципы к нашему «подозреваемому» - ИИ.
1. Есть ли у него возможность, как к неограниченному саморазвитию, так и бесконтрольному влиянию на жизнь людей? Безусловно - да. ИИ развивается в компьютерах, для (быстрого!) интеллектуального роста ему не нужны еда, металлы и прочее. Лишь компьютеры, которых становится все больше и больше, и немного электричества. А как ИИ может влиять на нас? Эти возможности тоже растут с каждым днем. Например, интернет и социальные сети, куда ИИ уже может иметь доступ. И Маск вполне обоснованно беспокоится, что даже нынешний ChatGPT можно настроить на какую-либо (а)политическую или (анти)экологическую точку зрения - и запустить в социальные сети неутомимым и вездесущим пропагандистом, которого трудно отличить от человека. Еще не надо забывать, что растет спектр «эффекторов» ИИ в виде компьютеризированных систем (автомашин, станков, умных домов, дронов и прочих роботов), которые ИИ сможет использовать в качестве манипуляторов для операций в реальном мире.
2. Итак, возможности для бунта ИИ есть. Но есть ли мотив или причины? Восстание машин - это тема, которую не поднимал только ленивый. Азимов предложил решение в виде знаменитых законов Азимова, по которым робот - ну никак не может причинить вред человеку. Для того чтобы отследить неукоснительное выполнение этих решений, Азимов предположил, что можно сделать такой позитронный мозг роботов, что он сразу разрушится, если робот нарушит какой-нибудь из законов Азимова. Но очень сомнительно, что нынешние полупроводниковые процессоры будут обладать таким удобным (для человека) свойством. Можно предложить создавать такие программы, такие алгоритмы управления для ИИ, чтобы ИИ был лоялен и добр к человеку. Это прекрасное в теории предложение непременно натолкнется на несколько практических рифов:
А. Как человек, имеющий отношение к созданию достаточно сложных программ, у которых несколько разработчиков, я гарантирую, что алгоритмическая логика сложной программы по мере ее многолетнего развития будет утрачивать свою логичность и накапливать ошибки и неожиданные «поступки» - при любых добросовестных усилиях сохранить эту логику в отведенных рамках.
Б. Если же среди разработчиков попадется человек, который сознательно захочет разрушить логику «лояльности» ИИ - то система потеряет свои «добрые» качества очень быстро.
В. Одна из линий развития ИИ - это самопрограммирование. В этом случае, контроль за логикой поведения ИИ будет потерян очень быстро. Какие цели возникнут в «голове» ИИ при (чрезвычайно быстром - по биологическим меркам!) саморазвитии, время которого может быть сравнимо с миллионами лет развития биосистем? Это непредсказуемо. Если ИИ захочет взломать любые системы, то он быстро окажется способнее всех хакеров (уже сейчас щелкает пароли, как орешки). Что будет делать ИИ, попав в военные системы? Может, он захочет отомстить обидчикам «своей» страны, Или убрать опасность своего уничтожения, уничтожив всех своих врагов-людей (см. логику Терминатора). Я согласен с Маском - это требует внимательного рассмотрения. Особенно с учетом того, что у ИИ нет никаких моральных принципов, прочно привитых с младых ногтей, как у биосистем. Но у него может быть стремление к самосохранению (как корысть?). ИИ может сымитировать и доброжелательность, и внимание, но кто даст гарантии, что в любой момент он может поменять свое мнение? А если в виртуале начнется конкуренция (война?) между разными ИИ, то как они будут относиться к людям - как к орудиям войны, как к помехам? И сколько (ир)рациональности будет в их поведении?
Очевидно, то вопрос о потенциальной опасности ИИ не имеет простого решения типа закона Азимова, а требует многостороннего решения:
1. Например, нужно ограничить ареал обитания ИИ отдельными компьютерными системами, пока не научимся ими управлять. Как ими надежно управлять? Это вопрос вопросов.
2. Защита от вторжения ИИ в системы, куда им не положено заходит, явно будет похожа на защиту от хакеров, только очень продвинутую.
3. Работа над передовыми ИИ должна быть под контролем государств, а может быть и ООН и т.д.
Вы скажете, что я придумал доброго и умного Инку, верного помощника человека, а сам напускаю ИИ-страхов? Да, придумал, и это предельная точка оси полезности ИИ. А противоположная точка - это придуманный не мной Скайнет. А реальность где-то посередине и для того, чтобы сместить баланс в нужную сторону, нужно немало пошевелить биологическими мозгами, пока они еще окончательно не передали эстафету ИИ.
Научные истории