Моя любимая статья этой недели -- BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding от Google AI Language (
https://arxiv.org/abs/1810.04805). BERT is conceptually simple and empirically powerful. It obtains new state-of-the-art results on eleven natural
(
Read more... )
Comments 7
Чего сейчас нет, так это полноценных расширений FOL для работы с событиями, состояниями и транзакциями. Есть узконишевые DSL в областях https://en.wikipedia.org/wiki/Business_rule_management_system и https://en.wikipedia.org/wiki/Action_description_language Но для цельного описания систем они непригодны.
Reply
Reply
Что касается сложности (как машинной, так и когнитивной), то весь мир десятилетиями использует FOL в виде SQL, и это работает, это позволяет многие вещи автоматизировать, предоставив машине решать задачу трансляции высокоуровневых правил в эффективный план запроса. И когнитивные проблемы там есть, но порождённые не FOL, а изначальной COBOLоподобностью (и, как следствие, нерасширяемостью) стандарта, который далее всё же пришлось расширять. Именно на SQL стоит в первую очередь ориентироваться и как на пример успеха, и как на продукт, содержащий недостатки, которые могут быть исправлены в альтернативных решениях.
Reply
Reply
Вопрос, который меня все время мучает. Я даже пытаюсь осознать, как я прихожу к решениям)) Пока без видимого результата, но похоже действительно это что то связано с вероятностным подходом + психтипом. Почему другие не умеют находить очевидные ответы? Или главное в поиске решения это коллективность мышления? Можно ли сделать открытие находясь только в замкнутой сфере своего мышления? Если суть открытия в логическом анализе и весь вопрос только в удачной перестановке кубика Рубика, то да можно остаться в рамках своего мышления. Во всех остальных случаях - только выход в коллективное мышление.
Reply
We explore how using relational inductive biases within deep learning
architectures can facilitate learning about entities, relations, and rules for composing them. We
present a new building block for the AI toolkit with a strong relational inductive bias-the graph
network-which generalizes and extends various approaches for neural networks that operate
on graphs, and provides a straightforward interface for manipulating structured knowledge and
producing structured behaviors. We discuss how graph networks can support relational reasoning
and combinatorial generalization, laying the foundation for more sophisticated, interpretable,
and flexible patterns of reasoning. As a companion to this paper, we have also released an
open-source software library for building graph networks, with demonstrations of how to use
them in practice.
Reply
Reply
Leave a comment