Заметил, что время от времени люди в обсуждениях AGI говорят что-то типа "Да у вас там просто вероятности и статистика, поэтому никакого ИИ там быть не может".
Последний пример - в
переводной статье "Вот что такое искусственный интеллект по мнению изобретателя байесовских сетей
(
Read more... )
Любые обработки что приводят к искажению распределений увы не полезны. Там ведь в пределе в анализе причинности замах на "даете мне пару коррелирующих показателей онли и я вам направление причинно-следственно связи выдам" именно "по формам распределения" типа раскладывая ошибки измерения и ошибки прошедшие через связь (хотя обычный подход "дайте кучу корреляций и я построю граф"). Ну и батарея тестов анализирует каждую связь потенциальную, в том числе можно и "по распределению".
PS навеяло епытом ковыряния bnlearn на всяких практических данных :)
Ну да байесовская сетка такой "неориентированный граф" в котором типа "бери и нагружай входы" в любом сочетании. (а НН типа всегда "вот вам вход, а вот вам выход", хотите по другому учите меня заново ). Вот только учиться она может онли на "полном векторе наблюдения".
При чем ситуацию именно "наблюдение" от "эксперимента" не отличает в обычных изводах. Скорее она все считает за "так сложилось само собой, какая же картина причинности за этим стоит". А как известно "случай бывает разный". :) Ну вот задаете состояние принудительно некого узла сети ("так по сюжету надо"(С)) и всё "вводите экспериментатора в модель в явном виде" :))).
Ну и вот колоссальный недостаток - она никаких "латентных переменных не наблюдаемых" вводить для объяснения корреляционной картины "сама не умеет" (ну или я не видел). А ручками конфирматорный анализ лепить очень утомительный процесс.
Reply
Leave a comment