Вероятностный подход как аргумент в споре про AGI

Mar 16, 2023 09:15

Заметил, что время от времени люди в обсуждениях AGI говорят что-то типа "Да у вас там просто вероятности и статистика, поэтому никакого ИИ там быть не может".

Последний пример - в переводной статье "Вот что такое искусственный интеллект по мнению изобретателя байесовских сетей ( Read more... )

теорвер, статья

Leave a comment

Comments 5

kvisaz March 16 2023, 06:23:19 UTC
органически, по биологии, разум обычных мозгов развивался не через умение рассуждать, а именно через корреляцию - см. Голубь Скиннера

поэтому я считаю, что развитие через корреляцию - достаточный способ, пока не будет предложен иной, более эффективный способ

Reply

kelijah March 16 2023, 07:26:45 UTC
О, спасибо за голубя Скиннера! Нашел описание в википедии, очень интересный эксперимент.

Reply


p2004r March 16 2023, 07:17:34 UTC

Прекрасно более десяти лет пользуюсь этими самыми байесовскими сетями для построения из корреляционной картины связей наиболее правдоподобной картины связей причинно-следственных. (bnlearn)

Но тут одна тонкость - 1) это все работает только с "сырыми данными" 2) и на выходе все равно та самая "вероятность" (пусть и откорректированная) 3) отличить инференцию в НН от инференции в байесовской сети не сможет и родная матьной отец

Reply

kelijah March 16 2023, 08:00:58 UTC
Хм, а почему только с сырыми? И где грань между реально сырыми и немного обработанными?

Reply

p2004r March 16 2023, 12:50:20 UTC

Любые обработки что приводят к искажению распределений увы не полезны. Там ведь в пределе в анализе причинности замах на "даете мне пару коррелирующих показателей онли и я вам направление причинно-следственно связи выдам" именно "по формам распределения" типа раскладывая ошибки измерения и ошибки прошедшие через связь (хотя обычный подход "дайте кучу корреляций и я построю граф"). Ну и батарея тестов анализирует каждую связь потенциальную, в том числе можно и "по распределению".

PS навеяло епытом ковыряния bnlearn на всяких практических данных :)

Ну да байесовская сетка такой "неориентированный граф" в котором типа "бери и нагружай входы" в любом сочетании. (а НН типа всегда "вот вам вход, а вот вам выход", хотите по другому учите меня заново ). Вот только учиться она может онли на "полном векторе наблюдения".

При чем ситуацию именно "наблюдение" от "эксперимента" не отличает в обычных изводах. Скорее она все считает за "так сложилось само собой, какая же картина причинности за этим стоит". А как известно "случай бывает разный ( ... )

Reply


Leave a comment

Up