- Здрасьте, я ваша тетя!
Переводчик: она с вами здоровается и говорит, что она ваша родственница.
Эрик Ларсон - специалист по искусственному интеллекту, основатель компании, занимающейся классификаторами блогов и др. web-источников на основе разработанных им методов. Получил 1.7 миллионный грант от DARPA для исследований. Является редактором секции «Наука и технология» ресурса The Best Schools.org. Пишет монографию с целью показать чрезмерность ожиданий человечества относительно того, что на самом деле могут предложить технологии искусственного интеллекта. Верующий, если что.
Click to view
Источник.
Ларсон указывает на три тяжелейшие проблемы в Natural Language Processing:
- common knowledge acquisition;
- frame (даже если машина сгенерировала знания, нужно еще уметь этими знаниями пользоваться в зависимости от контекста)
- model saturation (насыщение как естественный предел возможностей inductive reasoning);
Умный мужик. Много лет проработал в NLP. Говорит, что, несмотря на то, что cовременная модель AI = ML + Big Data все еще приносит дивиденды, скоро наступит эффект насыщения: сколько бы мы еще ни пихали дополнительных данных в модель, лучше результат не станет (иногда бывает, даже теряется точность от пресыщения данными - т.наз. overfitting). Ларсон приводит как анекдотическое доказательство недавний опыт Питера Норвига (кто занимается в AI, тот знает, кто это такой), который как раз об этом и сказал. Норвиг в последние несколько лет работает на Гугл и недавно признался в том, что модель ML + Big Data в его проекте уже достигла насыщения.
Проблема в том, что добавление еще и еще обучающих данных не даст ничего из-за асимптотического поведения точности обучаемой модели, постоенной на индуктивной логике (скажем, покрыли 90% случаев). Но самые интересные случаи (когда человек использует сарказм, преувеличения, анафоры, игру слов и пр.) как раз недосягаемы для таких моделей, поскольку они сравнительно нечасто встречаются в речи (те самые недостающие интересные 10% случаев, когда машина не может правильно проинтерпретировать смысл текста). А человек спокойно понимает из контекста (при условии погруженности в культурную среду), что имеется в виду. Высказывание «Кино было удивительное!» может нести противоположный прямому смысл, если говорится с сарказмом. «Погода в Британии зимой замечательная» - то же самое.
В 1960-70-х гг. были сформулированы труднейшие проблемы классического AI, о которых сейчас забыли из-за взрывного развития интернет-технологий. Но эти проблемы так и остались нерешенными. Экстенсивными методами типа ML + Big Data их не решить.
Если хотите заработать миллиард, делайте что-то новое, не рассчитывая на Big Data, инвестируйте в развитие абдуктивных моделей. То, что делается сегодня, AI в строгом смысле, который в это словосочетание вкладывался при самом зарождении AI, назвать нельзя. Индуктивная логика, лежащая в основе ML + Big Data, не покроет интересных маловероятных исключений, в которых и заключается богатство человеческого общения.
Джарон Ланиер (Jaron Lanier), человек оказавший большое влияние на развитие современных технологий, в частности, виртуальной реальности, говорит о том, что все эти технологии - всего лишь средство общения между людьми и никогда они человека не вытеснят. То есть, даже среди тех, кто оказывает серьезное влияние на развитие IT, есть трезвомыслящие люди. Опасная тенденция, по мнению Ланиера, состоит в том, что коллективно человечество теряет способность этического контроля над технологией.
Jaron Lanier. Википедия.
Человек мыслит абдуктивно в большинстве случаев. Абдукция - это логически некорректное суждение, оно неформализуемо. Это суждение о наиболее вероятных причинах наблюдаемого, делаемое на основе предыдущего опыта (inference to the best explanation). Индукция основана на обучающих примерах и выводит правило, которое можно опровергнуть исключениями. Дедукция - единственный из трех видов формулирования суждений, безупречный с точки зрения формальной алгоритмизации. Но наш мир устроен так, что применять на практике формальную дедукцию мало где возможно. Интересно и практически важно раскручивать причинно-следственные связи в обратную сторону, в сторону возможных причин. [Кстати, Шерлок Холмс занимался именно абдукцией, он обладал богатейшим опытом, хорошей памятью, аналитическими способностями и делал абдуктивные заключения, основываясь на предыдущих похожих случаях, как, в принципе, и делают все хорошие сыщики, ибо, как говорил Жеглов, «что-нибудь подобное где-нибудь, когда-нибудь с кем-нибудь уже просходило, на том наш брат сыщик и стоит» (с) -
mns2012].
Ларсон подтверждает (правда, косвенно) скепсис относительно AI в том смысле, что некоторые поставленные проблемы вообще когда-нибудь возможно будет решить, по крайней мере, теми подходами, которые используются сейчас. Но прямо утвердительно или отрицательно насчет
гипотезы о сильном искусственном интеллекте он не высказывается. И то хорошо, что большие сомнения. А ведь в 1956 г. на первой конференции по AI ученые отводили на создание искусственной модели разума человека, смешно сказать, 2 месяца, согласно данным, которые приводит Ларсон. Только построй нейронную сеть - и она начнет мозгами шевелить. А оказалось-то все сложнее.
Ларсон утверждает, что вместо того, чтобы сходить с ума от научной фантастики на тему «машины завоевали мир», «компьютер будет наделен разумом» или от трансгуманистической околесицы типа
предположения о так называемой сингулярности (что наступит фазовый переход, когда машины станут более разумными, чем человек, который уступит место кибернетическим организмам), необходимо находить и решать такие практически важные проблемы, решение которых машиной гораздо эффективнее того, что может человек. А пока, по мнению Ларсона, тем, что могло бы реально продвинуть собственно AI в отличие от машинного обучения на больших массивах данных, люди вообще не занимаются. К проблеме сильного AI (сможет ли машина осознать себя и т.д.) практика вообще отношения не имеет.