Преподаватель Нью-Йоркского университета - об искусственном интеллекте и ловушке "серебряной пули"

Jan 18, 2014 08:00

В августе обозреватель журнала New Yorker Гэри Маркус написал  любопытное эссе - где затронул одну из областей науки, не страдающих от недостатка внимания публики - разработка искусственного интеллекта.

Почему мой компьютер не понимает меня?
Гектор Левеск из университета Торонто считает свой компьютер глупым аппаратом - как, впрочем, и ваш. Возможно, голосовые помощники Google и Siri и способны понять простые запросы вроде “расписание ближайших кинотеатров на 7 часов” - но как насчёт такого: “Может ли аллигатор пробежать стометровку с препятствиями?” На вопрос, которого раньше никто не слышал, ответит любой взрослый (разумеется, не сможет - ведь аллигаторам не под силу перепрыгнуть через барьер). Но наберите его в поисковике - и получите ссылку на магазин спортивной одежды во Флориде. Система Wolfram Alpha тоже не сможет ответить - да и суперкомпьютеру Watson, победившему в викторине “Jeopardy!”, он едва ли по силам.



В своём докладе, представленном на августовской ведущей международной конференции по искусственному интеллекту, Левеск критически отозвался почти обо всех учёных в данной области. Он считает, что его коллеги забыли об “интеллектуальном” компоненте.

Он начал с критики известного теста Тьюринга, который позволяет отличить роботов от людей с помощью серии вопросов и ответов. Большинство из вас сочтёт: если робот прошёл тест, наверняка можно сказать, что он обладает искусственным интеллектом. Однако Левеск назвал тест “практически бессмысленным”, поскольку программу можно “натаскать”. Каждый год несколько программ пытается получить премию Лёбнера - но участники с наивысшими результатами на самом деле не обладают глубоким интеллектом. Напротив, они используют дешёвые трюки - присущие, скорее, плутам. Если человек спросит у программы “Какой у тебя рост?”, а программе необходимо пройти тест Тьюринга, ей остаётся единственный вариант - продолжать беседу. Выяснилось, что программы нередко показывали высокие результаты не благодаря подобию интеллекта, а с помощью преувеличений и введения в заблуждение. Одна из программ - PARRY, аналог чат-бота - сымитировала собеседника-параноика, другие отвлекали внимание собеседников краткими ответами. Искусственность, встречающаяся во многих попытках успешно пройти тест Тьюринга, - своеобразный символ: не следует забывать, что истинная цель искусственного интеллекта - совершенствование разума - а не программ, заточенных на прохождение тестов.

Левеск предложил исследователям иной тест, гораздо сложнее, - плод его совместной работы с Леорой Моргенштерн и Эрнестом Дэвисом - так называемые “Схемы Уайногрэда”, названные в честь профессора Стэнфорда Терри Уайногрэда, пионера исследований в области искусственного интеллекта. В начале 1970-х Уайногрэд задумался - как создать программу, способную ответить на такой вопрос:

Представители городского совета отказали демонстрантам в проведении мероприятия, потому что они боялись волнений.
Кто именно боялся волнений?
А) Представители городского совета
Б) Демонстранты

Троица учёных придумала несколько подобных вопросов, с которыми образованный человек справится без труда, однако программе, основное предназначение которой - поисковые запросы, - они не по силам.
Почему же Google не всегда способен помочь?
Отчасти потому, что некоторые персонажи выдуманы (таким образом, их не найти через результаты поиска):

Джоан как следует отблагодарила Сьюзан за помощь, которую она получила.
Кому помогли?
А) Джоан
Б) Сьюзан

Недостаточно посчитать, сколько раз в результатах поиска встречаются люди по имени Джоан или Сьюзан, одна из которых к тому же помогла другой. Ответ требует достаточно глубокого знания тонкостей человеческого языка и общения.

Отчасти по той же причине, что и в случае с аллигатором: один из компонентов запроса (аллигатор) реален, но с конкретной моделью его поведения человек никогда не сталкивался (посему она не представлена и в Сети).

Большой шар пробил дыру в столике, потому что он был сделан из пластмассы.
Что сделано из пластмассы?
А) Шар
Б) Столик

Сэм попытался нарисовать пастухов и овец. Кончилось тем, что они стали похожи на игроков в гольф.
Кого имеют в виду?
А) Пастухов
Б) Овец

Данные примеры неразрывно связаны с литературным приёмом, известным как анафора, и вдвойне сложны для искусственного интеллекта. Во-первых, необходимо подключить здравый смысл (которого нет даже у самой современной программы). Во-вторых, они касаются таких понятий, которые большинство не выносит за пределы собственного воображения - таким образом, ответа не существует ни в одном хранилище данных.

Я называю такие ситуации Проблемой Длинного Хвоста: ответ на распространённые вопросы можно получить, покопавшись в недрах сети как следует, - однако против специфических  вопросов весь массив Big Data бессилен - они ставят в тупик большинство программ, имитирующих искусственный интеллект. Это одна из причин известной ошибки суперкомпьютера Watson - когда он назвал Торонто одним из городов США.

С поиском по картинкам - то же самое. Многие картинки и метки достаточно редкие: есть миллионы с тэгом “котик”, но по запросу “аквалангист с шоколадной сигаретой” Google не выдаёт ничего подходящего: сигареты, пляжи, девушки, шоколадные пирожные - а ведь любой человек способен мысленно представить подобного аквалангиста. Попробуем запрос “правша”. В сети полно картинок, изображающих человека за каким-либо занятием (из которого любому ясно, что человек - правша); некоторые подходят - но таких меньшинство. Большинство же - снимки известных спортсменов, клюшки для гольфа, гитары и кофейные чашки.

Самую уничижительную часть Левеск приберегает до конца: современный искусственный интеллект не просто не в состоянии разрешить подобные проблемы - разработчики, кажется, практически забыли об их существовании. С точки зрения критика, область развития искусственного интеллекта оказалась в ловушке “серебряной пули” - разработчики надеются на скорое появление универсального метода, в несколько раз увеличивающего производительность, надёжность и простоту, будь то экспертные системы или Big Data, - но не утруждают себя детальным изучением едва различимых, но глубоких способностей ума, которыми обладает живой человек. Это потребует невероятных усилий - устами автора: “Как если бы пришлось измерять и анализировать все параметры горы, а не просто прорубить в ней проезд” - однако это необходимо.

В общем, Левеск просит коллег перестать блефовать: “Многому ещё предстоит научиться, более детально ознакомившись с теми явлениями, которые остались вне наших собственных исследований, и признав, что могут понадобиться … иные подходы”. Иными словами, пытаться создать интеллект, подобный человеческому, без изучения тонкостей человеческого мышления, - всё равно что скомандовать аллигатору преодолеть стометровку с препятствиями.

Гэри Маркус,
профессор психологии,
руководитель Центра по изучению языков и музыки при Нью-Йоркском университете

P.S. В первый день нового года New Yorker опубликовал ещё одну колонку профессора, посвящённую искусственному интеллекту.

перевод, наука

Previous post Next post
Up