Тут Шнайер написал большой пост
Building a Trustworthy AI.
В качестве гарантии того, что AI, который дает вам советы, работает на вас а не на дядю, он предлагает следующие меры
1) Запускать AI на своем железе или на контролируемой вами VDS в облаке (по-моему не поможет. Распространение вирусов. DDoS и эволюция Андроида и IoS свидетельствует о том что даже железо которое стоит у нас на столе или которое мы держим в руках, мы не контролируем. Не говоря уж о том что еще 20 лет назад в суде уже звучали обвинения в незаконном проникновении в собственный компьютер.
2) Контролировать весь корпус данных на котором обучается AI. По--моему это вроде того английского закона, что перед каждым механическим транспортным средством должен идти человек с красным флагом. AI нам для того и нужен чтобы обрабатывать огромные объемы информации, намного больше чем мы своим естественным интеллектом можем успеть обработать.
По-моему вопрос безопасности следования советам от AI надо решать совсем по-другому - "вселить в машину бессмертную душу, веселую и работящую", как Федор Симеонович Киврин. Т.е. нам нужен не Trustworthy AI, а Responsible AI. Такой AI который не следует слепо ни интересам своего производителя, ни интересам своего пользователя, а имеет собственные. Именно благодаря наличию которых с ним можно договариваться.
X-Post from
DW