Rationality: From AI to Zombies

Jul 19, 2016 19:17

Книги довольно сложно оценивать и сравнивать между собой. Какие-то книги мы ценим за их литературные качества, какие-то - за их увлекательность, какие-то - за идеи, которые они содержат. Для меня есть одна категория книг, стоящая особняком. Это книги, которые каждому стоит прочитатьЭта оценка не совсем совпадает с "лучшими книгами всех времён". К ( Read more... )

Leave a comment

eterevsky August 26 2016, 14:21:38 UTC
> По поводу "твердого"/"мягкого" все-таки нужно будет написать отдельный пост (закончу работу - напишу) - есть просто ИИ :)

Есть разные типы ИИ. Как минимум, есть optimizer, есть satisfier. В задачах, где нужно не просто выдать результат, а что-то делать (AlphaGo, self-driving car), приходится использовать комбинацию ML с какими-то стратегиями немного другого уровня.

И да, я читал Бострома на счёт того, что граница между разными видами ИИ не настолько определённая как кажется на первый взгляд.

> аксиомах поля R2

[nitpicking mode on] R2 -- это не поле, а линейное пространство, и аксиом у него нету, так как это производная конструкция.

> алгоритм решения системы линейных уравнений в общем виде

У нас в принципе нет сейчас решения для этой задачи, кроме полного перебора алгоритмов. Я мог бы поспекулировать как это будет когда-нибудь работать, но во-первых, это будет наполовину гадание на кофейной гуще, а во-вторых, это слишком большая тема для комментария.

> Олег, как в Google Assistant результат распознавания речи зависит от длины фразы?

Я не знаю точного ответа, но по идее для более длинных фраз распознавание должно работать лучше.

Reply

bvn_mai August 29 2016, 06:18:18 UTC
Всегда приятно иметь дело с математиком, который не допускает вольности в определениях, но я инженер - мне главное работающий результат (по поводу отсутствия аксиом для линейного пространства - я озадачен, ну да ладно).

"...Я не знаю точного ответа, но по идее для более длинных фраз распознавание должно работать лучше..." - Вы контекст используете?

"...Я мог бы поспекулировать как это будет когда-нибудь работать, но во-первых, это будет наполовину гадание на кофейной гуще, а во-вторых, это слишком большая тема для комментария..." - это очень интересно, почему бы написать об этом не в комментариях, а допустим в отдельном посте?

Reply

eterevsky August 29 2016, 10:45:47 UTC
> (по поводу отсутствия аксиом для линейного пространства - я озадачен, ну да ладно).

Я имею в виду, что R2, как и большинство прочих математических конструкций строится в обычной аксиоматике теории множеств, либо аксиоматике натуральных чисел. Для них не нужно отдельной теории.

> "...Я не знаю точного ответа, но по идее для более длинных фраз распознавание должно работать лучше..." - Вы контекст используете?

Да, конечно.

> "...Я мог бы поспекулировать как это будет когда-нибудь работать, но во-первых, это будет наполовину гадание на кофейной гуще, а во-вторых, это слишком большая тема для комментария..." - это очень интересно, почему бы написать об этом не в комментариях, а допустим в отдельном посте?

Для отдельного поста у меня нет достаточно хорошего понимания предмета, чтобы об этом писать.

Интуитивно, мне кажется, главная проблема в создании автоматического доказывателя теорем в определении "важности". В ходе любого математического рассуждения мы вводим новые определения и доказываем промежуточные утверждения. Ключевое искусство, которое для этого необходимо, и которое сложно описать в программе -- это отделение полезных/важных определений и утверждений от бесполезных.

К примеру, я могу взять все числа, которые делятся на 17 и дают остаток 127 от деления на 239 и назвать их множество XYZ. Это формально корректное определение, описывающее некоторое множество чисел. Но будет ли такое определение полезно? Стоит ли доказывать про это множество какие-то утверждения? Скорее всего нет, так как это множество принципиально не отличается от любого другого множества чисел S, дающих остаток a от деления на одно простое число p, и остаток b от деления на другое число q. Про множество XYZ очень сложно придумать содержательное утверждение, которое бы не было частным случаем утверждения про множество S.

Вторая задача -- это отделение содержательных утверждений от бессодержательных.

Возьмём, к примеру, опять множество чисел S, сравнимых с a (mod p) и b (mod q). Я могу сформулировать про эти числа два разных утверждения:

1. Если p ≠ q, то таких чисел бесконечно много.

2. Если в этом множестве есть хотя бы одно чётное число, то это множество непусто.

Оба этих утверждений верны, но первое гораздо содержательнее и полезнее второго.

Возвращаясь к изначальному вопросу, если у нас будут хорошие алгоритмы для того, чтобы отличать содержательные определения и утверждения от менее содержательных, задача автоматического поиска доказательств почти наверняка решена. Достаточно просто начать генерировать доказательства содержательных утверждений про объекты из условия, и подождать, пока мы не сгенерируем наше утверждения.

Какой из известных нам методов ML и AI может в этом помочь? Я, честно говоря, не знаю. Возможно, мы ещё не изобрели подходящего метода для этой задачи.

Reply

bvn_mai August 29 2016, 12:06:11 UTC
Спасибо за подробный рассказ. Я понял направление Ваших мыслей, но здесь в свете "...Возвращаясь к изначальному вопросу, если у нас будут хорошие алгоритмы для того, чтобы отличать содержательные определения и утверждения от менее содержательных ... " - возникает (ехидный) вопрос - а такие алгоритмы будут найдены? Вы знаете подходы к этой проблеме?

И здесь мне хочется вернуться к этому месту "...Вы контекст используете?

Да, конечно..." - а как Вы его используете?

Олег, у Вас есть публикации, я бы с удовольствием почитал Ваши идеи, про отделение "важного" от "не важного"

Reply

eterevsky August 29 2016, 12:27:01 UTC
> а такие алгоритмы будут найдены? Вы знаете подходы к этой проблеме?

Увы, нет. :) Я же обещал гадание на кофейной гуще, а не работающий алгоритм.

> И здесь мне хочется вернуться к этому месту "...Вы контекст используете?
> Да, конечно..." - а как Вы его используете?

Увы, не могу рассказать. Во-первых, потому что сам в подробностях не знаю, а во-вторых, потому я уверен, что это не открытая информация.

> Олег, у Вас есть публикации, я бы с удовольствием почитал Ваши идеи, про отделение "важного" от "не важного"

К сожалению нет. И в любом случае, это так, рассуждения в комментариях к посту в ЖЖ, а не серьёзное исследование.

Reply

bvn_mai August 29 2016, 12:37:00 UTC
Нередко обсуждение в ЖЖ выливается в серьезное исследование. Ладно, пошел думать, как "генерить" в машине вывода только важные ветви.
:)

Reply


Leave a comment

Up