«Интеллектуальная» электронная составляющая, присутствующая в смартфонах, планшетах, носимых устройствах, бытовых и промышленных приборах интернета вещей, постоянно расширяет поле своей деятельности.
С одним из примеров этого расширения имели возможность ознакомиться участники прошедшей недавно в Барселоне всемирной выставки MWC-2015, на которой калифорнийская компания Audience продемонстрировала первый в мире чип, названный разработчиками «мультисенсорным».
Этот чип (под торговой маркой N100) создан на основе «естественного пользовательского интерфейса» - Natural User Experience (NUE), разрабатываемого Audience, которая базируется на двух технологиях - VoiceQ и MotionQ.
Задачей первой фирменной технологии является распознавание голоса и выделение из речи владельца смартфона заранее заданных ключевых слов (пока этих слов может быть не более пяти и они задаются производителем или потребителем), «услышав» которые, VoiceQ выполняет предписанные для каждого слова-команды действия.
Вторая фирменная технология - MotionQ - используется для постоянного мониторинга показаний разнообразных датчиков, их калибровку (при необходимости) и распознавание текущей ситуации по полученным данным, например, MotionQ «понимает», что хозяин перешел от ходьбы к бегу.
К процессору N100 может быть подключено множество датчиков, выпускаемых разными производителями, так как в нем заложена поддержка драйвера Open Sensor Platform (OSP).
См. также: