DARPA создаст ИИ-детектор «псевдонаучного бреда»

Jul 31, 2017 19:51



Антрополог и сотрудник исследовательского подразделения DARPA Адам Рассел попросил всех желающих помочь агентству создать технологию распознания научных знаний в потоке безосновательной псевдонаучной ерунды при помощи новейших машинных алгоритмов и методов анализа больших данных, сообщает Wired.

Речь идет о создании алгоритма проверки научной достоверности, прежде всего, социологических исследований. Например, таких, которые претендуют на то, чтобы объяснить, как люди относятся к ИИ, автоматизации или введению БОД. Самому Расселу название «детектор бреда» не нравится, хоть он и признает, что определенный смысл в нем есть. «Я глубоко верю в настоящую науку. Нельзя утверждать, что мы ничего не знаем о мире», - говорит он.

Интерес Министерства обороны США, научным подразделением которого является DARPA, к социальным наукам легко объяснить - военным важно понимать, как работает общественное сознание, почему одни организации или целые государства сохраняют стабильность, тогда как другие разваливаются. Военные также хотят узнать, как люди взаимодействуют с машинами, прежде чем машины станут умнее и распространятся повсеместно.

К сожалению, просто довериться научным исследованиям по социологии, нельзя - мешает кризис воспроизводимости результатов исследований, особенно в психологии и социологии. Ученые не могут повторить тот же эксперимент и получить те же результаты повторно. Еще есть проблема сознательной подгонки результатов ради получения грантов и публикаций. Но на этом проблемы не заканчиваются. «Если вы спросите ряд социологов, как работает такая-то организации, то получите не просто 20 различных ответов, но ответы, несравнимые друг с другом, - говорит Дункан Уоттс, социолог из Microsoft Research. - Вы читаете одну статью, потом другую, в их заголовках есть одинаковые слова, но разный метод анализа, разные теоретические конструкции, совершенно разная причинно-следственная связь».

Таким образом, заключает Рассел, в общественных науках - экономике, социологии, антропологии - нет необходимых стандартов, и DARPA собирается их создать. И объявляет конкурс на разработку машинного алгоритма в рамках проекта «Уровни достоверности в общественных и поведенческих науках».

В результате агентство надеется собрать воедино все идеи и технологии научной проверки достоверности - как привычный мета-анализ, экспертную оценку и статистические методы, так и новые - объем цитирования в сети и коэффициент динамического взаимодействия, чтобы на их основе разработать ИИ-алгоритм быстрого присвоения «уровня достоверности научных трудов и статей».

Роль соцсетей, в частноти Facebook в распространении ложной информации и фейков и их вляние на политическую жизнь стран активно обсуждается в СМИ. Исследователи из МИТ и Гарварда считают, что Facebook и Twitter замешаны в самом крупном медиа-провале 2016 года. По их мнению, соцсети позволили вырасти новостным «пузырям».

искусственный интеллект

Previous post Next post
Up