Что нам делать с искусственным интеллектом?

May 18, 2023 10:27

Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Господи, спаси!
© БГ

Я уже немного устал от новостей про пьяных матросов искусственный интеллект, но придется потерпеть, потому что они будут сыпаться из каждого утюга ещё год или два. Но и потом развитие ИИ, он же AI, не остановится, просто журналисты/блогеры/тиктокеры и прочие «говорящие головы» устанут от темы. А пока им подкидывают новости не только техногиганты, но и правительства: Великобритания отрегулирует ИИ с трёх сторон, Китай вынес черновик законодательства по ИИ на общественное обсуждение, США хочет «алгоритмической ответственности», европейцы по традиции заседают и так далее. Пока создание и использование систем ИИ никак не ограничено, но, видимо, это ненадолго.

Тут, конечно, есть о чем поспорить - а нужно ли госрегулирование ИИ, и если да - то зачем и как?



Что регулировать

Что такое искусственный интеллект? Благодаря маркетологам так называют всё - от новейших генеративных моделей вроде GPT-4 до простейших систем машинного обучения, в том числе тех, которые используются уже десятки лет. Помните Т9 на кнопочных телефонах? Знаете про автоматическую классификацию спама и вредоносных файлов? Используете рекомендации фильма на «Кинопоиске» и Netflix? За каждой из этих привычных технологий стоит алгоритм машинного обучения (ML). Мы внедряем такие технологии в наших продуктах почти два десятка лет, но всегда называли их скромно, «машинное обучение», потому что «искусственный интеллект» сразу наводит на мысли о говорящих космических кораблях и прочей фантастике. Такой волшебный компьютер, полностью способный мыслить по-человечески, должен обладать общим ИИ (AGI) или сверхинтеллектом (ASI). AGI/ASI пока не изобрели и вряд ли изобретут в обозримом будущем.

Так вот, если все виды ИИ мерить одной линейкой и всё зарегулировать по полной программе, то практически всей ИТ-индустрии, да и многим смежным, придётся несладко. Ну, к примеру, если у нас потребуют собирать согласие со всех «авторов» данных из обучающей выборки, мы как ИБ-компания окажемся в сложной ситуации. Мы же учимся на зловредах и спаме, авторы которых обычно не оставляют контактных данных. Более того, если данные собираются, а алгоритмы обучаются уже почти 20 лет, то насколько глубоко в прошлое нужно лезть?

Поэтому важно, чтобы законодатели слушали не маркетологов, а экспертов индустрии и обсуждали предмет возможного регулирования достаточно конкретно и узко: например, многоцелевые системы, обученные на больших объемах открытых данных, или системы, используемые в принятии решений с высоким уровнем ответственности и риска.

Это, конечно, означает, что новые способы применения ИИ потребуют частого пересмотра норм регулирования.



Зачем регулировать

Честно скажу, в Судный день с участием сверхинтеллекта в ближайшие 100 лет я не верю. Зато верю в кучу разнокалиберных неприятностей от бездумного применения черного компьютерного ящика.

Тем, кто не читал наши статьи о блеске и нищете машинного обучения, напомню, что с любым ИИ есть три большие проблемы:
  1. непонятно, насколько хороши данные, на которых он обучался;
  2. совсем непонятно, что он из этих данных «понял» и как принимает решения;
  3. а главное - и разработчики, и пользователи алгоритма могут его неверно применять.
Тут может быть всё: от злонамеренного использования до бездумного следования решениям ИИ. Яркие примеры из жизни: фатальные ошибки автопилота, зачастившие в мемах и даже новостях дипфейки, нелепая ошибка в найме школьных учителей, полицейские арестовали воришку, но это был другой человек, а ИИ-кадровик недолюбливает женщин. А еще на любой ИИ возможны атаки с помощью специально созданных враждебных образцов данных: автомобиль можно обмануть наклейками, из GPT-3 - вытащить личные данные, антивирус или EDR тоже пытаются обмануть. Кстати, атаки на ИИ боевых дронов, описанные в фантастике, уже не кажутся такими фантастичными.

В общем, по-настоящему масштабных проблем применение ИИ пока не принесло, но потенциал для серьезных провалов явно имеется. Поэтому регулирование имеет понятные приоритеты:
  1. отсутствие инцидентов с критической инфраструктурой (заводы - пароходы - ЛЭП - АЭС);
  2. минимизация физических угроз (самодвижущиеся повозки, ошибочные диагнозы);
  3. минимизация личного ущерба и бизнес-рисков (аресты или наём на основе ширины черепа, неверное определение спроса и закупок и тому подобное).
Цель регулирования - заставить пользователей и создателей ИИ следить за тем, чтобы не повышать этих рисков. И чем серьезней риск, тем активней заставлять.

В случае ИИ часто вспоминают еще один пункт - соблюдение норм морали, этики и, так сказать, психологического комфорта. Для этого добавляют требование оповещать людей, что они смотрят на несуществующий (нарисованный ИИ) объект, общаются с роботом, а не человеком, требование соблюдать авторские права при обучении ИИ и так далее.

Зачем это? Чтобы законодателей и создателей ИИ не взяли на вилы! В некоторых частях света это очень даже актуально (вспомним, например, протесты против Uber).



Как регулировать

Проще всего, конечно, всё запретить, но пока до этого вроде никто не додумался. Да и запретить ИИ немногим проще, чем запретить компьютеры в целом. Поэтому все разумные попытки регулирования исходят из принципа «чем больше риск, тем строже требования».

Машинные модели, используемые для чего-то достаточно тривиального - вроде рекомендации товаров в магазине, - можно не регулировать. По мере нарастания сложности модели или же чувствительности сферы применения к производителям и пользователям системы могут применяться все более драконовские требования.
  1. Предоставлять регуляторам или экспертам код модели и обучающий набор данных для проверки.
  2. Доказывать корректность обучающего набора данных, в том числе отсутствие предвзятости (bias), чистоту авторских прав и так далее.
  3. Доказывать корректность «выхлопа» ИИ, например отсутствие галлюцинаций.
  4. Маркировать работу ИИ и её результаты.
  5. Корректировать модель и обучающий набор данных. Например, удалять из исходных данных людей с определенным цветом кожи или подавлять рецепты взрывчатки на выходе модели.
  6. Тестировать ИИ на «враждебных» данных и корректировать его поведение при необходимости. Здесь бы Аль-Эфесби расстроился.
  7. Контролировать, кто и зачем использует конкретный ИИ. Отказывать в определенных видах использования.
  8. Тренировать ИИ большого размера или в определенной сфере, только получив разрешение от регулятора.
  9. Доказывать, что ИИ безопасно применять для решения конкретной задачи. Это очень экзотический подход для ИТ-индустрии, но он хорошо знаком фармакологическим компаниям, производителям авиационной техники и многим другим отраслям, в которых фундаментальной ценностью является безопасность. Сначала пять лет обширных испытаний, получение разрешения регулятора и только потом выпуск продукта в использование.
Последнее кажется избыточно строгой мерой только до тех пор, пока не узнаешь, что уже были прецеденты, когда ИИ неверно назначал приоритеты лечения пациентов с астмой и пневмонией и пытался отправить людей домой вместо палаты интенсивной терапии.

Меры принуждения ко всему этому могут варьироваться от штрафа за нарушение ИИ-норм (по примеру европейских штрафов за нарушение GDPR, закона о личных данных) до получения лицензий на ведение деятельности в сфере ИИ и уголовной ответственности за нарушения законодательства (как это предлагают в Китае).



А как правильно?

Всё сказанное в этом абзаце - мое личное мнение, но оно основано на 30 годах работы в индустрии и деятельном участии в развитии технологий - от машинного обучения до систем, построенных по принципу secure-by-design.

Во-первых, регулирование требуется. Без него ситуация в ИИ станет похожа на автодороги без ПДД. Или, ближе к нашей теме, на ситуацию со сбором персональных данных в Интернете конца нулевых - когда почти все собирают всё, что плохо лежит. Наличие регулирования в первую очередь активизирует в компаниях - участниках рынка самодисциплину.

Во-вторых, нужны максимальная международная гармонизация регулирования и сотрудничество. Как это происходит с техническими стандартами сотовой связи, Интернета и так далее. В современных геополитических реалиях звучит утопично, но очень хотелось бы.

В-третьих, регулирование должно быть не слишком жестким, потому что отрасль динамично развивается, и душить ее - недальновидно. При этом нужен механизм частого пересмотра правил, чтобы поспевать за развитием технологий и рынка.

В-четвертых, правила, уровни риска и уровни защитных мер должны вырабатываться с привлечением множества экспертов-практиков.

В-пятых, не надо ждать десять лет. Про риски Интернета вещей и уязвимости в промышленном оборудовании мы говорим уже добрых десять лет, а документы вроде EU Cyber Resilience act появились (в черновиках!) только в прошлом году.

Всё на этом! Кто дочитал до самого конца - большие молодцы, всем спасибо!

technology

Previous post Next post
Up