Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Господи, спаси!
© БГ
Я уже немного устал от новостей про пьяных матросов искусственный интеллект, но придется потерпеть, потому что они будут сыпаться из каждого утюга ещё год или два. Но и потом развитие ИИ, он же AI, не остановится, просто журналисты/блогеры/тиктокеры и прочие «говорящие головы» устанут от темы. А пока им подкидывают новости не только техногиганты, но и правительства: Великобритания отрегулирует
ИИ с трёх сторон, Китай вынес черновик законодательства по ИИ на
общественное обсуждение, США хочет
«алгоритмической ответственности», европейцы
по традиции заседают и так далее. Пока создание и использование систем ИИ никак не ограничено, но, видимо, это ненадолго.
Тут, конечно, есть о чем поспорить - а нужно ли госрегулирование ИИ, и если да - то зачем и как?
Что регулировать
Что такое искусственный интеллект? Благодаря маркетологам так называют всё - от новейших генеративных моделей вроде GPT-4 до простейших систем машинного обучения, в том числе тех, которые используются уже десятки лет. Помните Т9 на кнопочных телефонах? Знаете про
автоматическую классификацию спама и вредоносных файлов? Используете рекомендации фильма на «Кинопоиске» и Netflix? За каждой из этих привычных технологий стоит алгоритм машинного обучения (ML). Мы внедряем такие
технологии в наших продуктах почти два десятка лет, но всегда называли их скромно, «машинное обучение», потому что «искусственный интеллект» сразу наводит на мысли о говорящих космических кораблях и прочей фантастике. Такой волшебный компьютер, полностью способный мыслить по-человечески, должен обладать общим ИИ (
AGI) или сверхинтеллектом (
ASI). AGI/ASI пока не изобрели и вряд ли изобретут в обозримом будущем.
Так вот, если все виды ИИ мерить одной линейкой и всё зарегулировать по полной программе, то практически всей ИТ-индустрии, да и многим смежным, придётся несладко. Ну, к примеру, если у нас потребуют собирать согласие со всех «авторов» данных из обучающей выборки, мы как ИБ-компания окажемся в сложной ситуации. Мы же учимся на зловредах и спаме, авторы которых обычно не оставляют контактных данных. Более того, если данные собираются, а алгоритмы обучаются уже почти 20 лет, то насколько глубоко в прошлое нужно лезть?
Поэтому важно, чтобы законодатели слушали не маркетологов, а экспертов индустрии и обсуждали предмет возможного регулирования достаточно конкретно и узко: например, многоцелевые системы, обученные на больших объемах открытых данных, или системы, используемые в принятии решений с высоким уровнем ответственности и риска.
Это, конечно, означает, что новые способы применения ИИ потребуют частого пересмотра норм регулирования.
Зачем регулировать
Честно скажу, в Судный день с участием сверхинтеллекта в ближайшие 100 лет я не верю. Зато верю в кучу разнокалиберных неприятностей от бездумного применения черного компьютерного ящика.
Тем, кто не читал наши
статьи о блеске и нищете машинного обучения, напомню, что с любым ИИ есть три большие проблемы:
- непонятно, насколько хороши данные, на которых он обучался;
- совсем непонятно, что он из этих данных «понял» и как принимает решения;
- а главное - и разработчики, и пользователи алгоритма могут его неверно применять.
Тут может быть всё: от злонамеренного использования до бездумного следования решениям ИИ. Яркие
примеры из жизни: фатальные
ошибки автопилота, зачастившие в мемах и даже новостях
дипфейки, нелепая ошибка в
найме школьных учителей, полицейские арестовали
воришку, но это был другой человек, а
ИИ-кадровик недолюбливает женщин. А еще на любой ИИ возможны атаки с помощью специально созданных враждебных образцов данных:
автомобиль можно обмануть наклейками, из GPT-3 -
вытащить личные данные,
антивирус или EDR тоже пытаются обмануть. Кстати,
атаки на ИИ боевых дронов, описанные в фантастике, уже не кажутся такими фантастичными.
В общем, по-настоящему масштабных проблем применение ИИ пока не принесло, но потенциал для серьезных провалов явно имеется. Поэтому регулирование имеет понятные приоритеты:
- отсутствие инцидентов с критической инфраструктурой (заводы - пароходы - ЛЭП - АЭС);
- минимизация физических угроз (самодвижущиеся повозки, ошибочные диагнозы);
- минимизация личного ущерба и бизнес-рисков (аресты или наём на основе ширины черепа, неверное определение спроса и закупок и тому подобное).
Цель регулирования - заставить пользователей и создателей ИИ следить за тем, чтобы не повышать этих рисков. И чем серьезней риск, тем активней заставлять.
В случае ИИ часто вспоминают еще один пункт - соблюдение норм морали, этики и, так сказать, психологического комфорта. Для этого добавляют требование оповещать людей, что они смотрят на несуществующий (нарисованный ИИ) объект, общаются с роботом, а не человеком, требование
соблюдать авторские права при обучении ИИ и так далее.
Зачем это? Чтобы законодателей и создателей ИИ не взяли на вилы! В некоторых частях света это очень даже актуально (вспомним, например,
протесты против Uber).
Как регулировать
Проще всего, конечно, всё запретить, но пока до этого вроде никто не додумался. Да и запретить ИИ немногим проще, чем запретить компьютеры в целом. Поэтому все разумные попытки регулирования исходят из принципа «чем больше риск, тем строже требования».
Машинные модели, используемые для чего-то достаточно тривиального - вроде рекомендации товаров в магазине, - можно не регулировать. По мере нарастания сложности модели или же чувствительности сферы применения к производителям и пользователям системы могут применяться все более драконовские требования.
- Предоставлять регуляторам или экспертам код модели и обучающий набор данных для проверки.
- Доказывать корректность обучающего набора данных, в том числе отсутствие предвзятости (bias), чистоту авторских прав и так далее.
- Доказывать корректность «выхлопа» ИИ, например отсутствие галлюцинаций.
- Маркировать работу ИИ и её результаты.
- Корректировать модель и обучающий набор данных. Например, удалять из исходных данных людей с определенным цветом кожи или подавлять рецепты взрывчатки на выходе модели.
- Тестировать ИИ на «враждебных» данных и корректировать его поведение при необходимости. Здесь бы Аль-Эфесби расстроился.
- Контролировать, кто и зачем использует конкретный ИИ. Отказывать в определенных видах использования.
- Тренировать ИИ большого размера или в определенной сфере, только получив разрешение от регулятора.
- Доказывать, что ИИ безопасно применять для решения конкретной задачи. Это очень экзотический подход для ИТ-индустрии, но он хорошо знаком фармакологическим компаниям, производителям авиационной техники и многим другим отраслям, в которых фундаментальной ценностью является безопасность. Сначала пять лет обширных испытаний, получение разрешения регулятора и только потом выпуск продукта в использование.
Последнее кажется избыточно строгой мерой только до тех пор, пока не узнаешь, что уже были прецеденты, когда
ИИ неверно назначал приоритеты лечения пациентов с астмой и пневмонией и пытался отправить людей домой вместо палаты интенсивной терапии.
Меры принуждения ко всему этому могут варьироваться от штрафа за нарушение ИИ-норм (по примеру европейских штрафов за нарушение GDPR, закона о личных данных) до получения лицензий на ведение деятельности в сфере ИИ и уголовной ответственности за нарушения законодательства (как это предлагают в Китае).
А как правильно?
Всё сказанное в этом абзаце - мое личное мнение, но оно основано на 30 годах работы в индустрии и деятельном участии в развитии технологий - от машинного обучения до систем, построенных по принципу secure-by-design.
Во-первых, регулирование требуется. Без него ситуация в ИИ станет похожа на автодороги без ПДД. Или, ближе к нашей теме, на ситуацию со сбором персональных данных в Интернете конца нулевых - когда почти все собирают всё, что плохо лежит. Наличие регулирования в первую очередь активизирует в компаниях - участниках рынка самодисциплину.
Во-вторых, нужны максимальная международная гармонизация регулирования и сотрудничество. Как это происходит с техническими стандартами сотовой связи, Интернета и так далее. В современных геополитических реалиях звучит утопично, но очень хотелось бы.
В-третьих, регулирование должно быть не слишком жестким, потому что отрасль динамично развивается, и душить ее - недальновидно. При этом нужен механизм частого пересмотра правил, чтобы поспевать за развитием технологий и рынка.
В-четвертых, правила, уровни риска и уровни защитных мер должны вырабатываться с привлечением множества экспертов-практиков.
В-пятых, не надо ждать десять лет. Про риски Интернета вещей и уязвимости в промышленном оборудовании мы говорим уже добрых десять лет, а документы вроде
EU Cyber Resilience act появились (в черновиках!) только в прошлом году.
Всё на этом! Кто дочитал до самого конца - большие молодцы, всем спасибо!