Жизненный цикл андрогинов

Jun 17, 2011 11:25


С огромным удовольствием, не дожидаясь перевода, проглотил свежий рассказ Теда Чана "The Lifecycle of Software Objects"Сам Тед Чан - это почти "мой идеальный фантаст", в библиографии которого всего лишь порядка дюжины произведений, все эталонного формата "между длинным рассказом и короткой повестью". Во второй фразе любой справки о Теде обычно ( Read more... )

Leave a comment

bekabaka June 17 2011, 11:00:21 UTC
Не хотелось бы углубляться в технические детали, но в перечисленных вами задачах я проблем не вижу. Машины, строящие гипотезы и машины, экстраполирующие закономерности - это как раз то, с чего лет сорок назад всё начиналось. Ну и обработка реальных данных в реальном времени - это вопрос мощности, не более. И знать, как эти данные будут закодированы и сохранены, совершенно необязательно для этого - тем более, что это происходит, похоже, сугубо индивидуально и каждый раз по-разному.

В другом вашем комментарии поднята более актуальная проблема - никакая из "рабочих" схем ИИ не может объяснять свои решения - кроме экспертных систем, которые как раз и являются попыткой "алгоритмической компрессии опыта" и потому, на мой взгляд, "не могут всего" (а именно "всё" мы ждём от ИИ). Всяческие же нейросети, ген.алгоритмы и прочие адаптирующиеся машины способны обучиться и дать ответ, но не способны его обосновать или понять, почему он ошибочен. Есть, впрочем, мнение, что человек тоже не может - как и машина, может только переучиться, пусть очень быстро, но заново.

Reply

northern_wind June 17 2011, 11:17:47 UTC
проблема построения грамматики естественного языка существует до сих пор. :) хотя последние результаты воодушевляют.

в принципе, человек тоже не всегда может объяснить свои решения.
но рефлексия да, как одно из проявлений. вообще хороший критерий - способность системы при достаточно большом количестве входных данных построить образ себя. то есть, достаточно сложную картину мира, в которой потребуется образ себя.

Reply

bekabaka June 17 2011, 11:54:30 UTC
Вроде у нас на кафедре делают системы, которые обучаются на текстах и могут правильно формулировать предложения о каких-то объектах из них. Они не возвращают грамматику как результат, но они явно обучаются ей. Хотя, признаться, не интересовался подробностями. Если говорить об "учебных" грамматиках - то есть, скажем, расшифровать фразу на тарабарщине с какими-то закономерностями или что-то подобное - то это точно решаемо самыми старыми алгоритмами (хотя если использовать именно их, это занимает неприличное время даже в простых случаях). А если говорить о восстановлении грамматики реального языка по реальным примерам - это, по-моему, и для человека весьма нетривиальная задача. Хотя с точки зрения машины, разница только в объёме памяти, мне кажется.

Что же касается образа себя - то это очень, очень глубокая тема, возможно - ключевая. О которой я обязательно когда-нибудь напишу =)

Reply

northern_wind June 17 2011, 12:04:07 UTC
Просто я этим достаточно плотно занималась. Скорее всего, эти системы рассчитаны на какую-то конкретную группу языков и используют некий набор вспомогательных эвристик.
А проблема в том, чтобы с помощью относительно простого алгоритма (способного развиться эволюционно) за разумное время можно было обучиться произвольному языку произвольной языковой группы. На похожей на естественную выборке. Даже более того, чтобы при обучении происходила так называемая креолизация пиджинов - пиджин преобразовывался в язык с грамматикой, возникали закономерности-которых-нет.

Грамматика действительно необязательна.
Речь идёт об изучении языка маленьким ребенком, эту задачу выполняют практически все.
Хомскому и последователям пришлось ввести аж некую "врожденную универсальную грамматику", врожденный набор категорий, чтобы это явление как-то обосновать. Хотя сейчас и ее оспаривают.
Эту задачу грызут с разных сторон уже очень много лет и все никак не получается. Хотя нейронные сети с шумом и вероятностные алгоритмы стали давать вполне приличные результаты.

Reply

bekabaka June 17 2011, 12:20:30 UTC
Нет, у нас без эвристик без эвристик точно, у нас их не любят, бо все ленивые. Основная задача - автоматическая построение онтологий по тексту с помощью нейросетей, вторичная - разворачивание этих онтологий назад в тексты, по-моему с помощью каких-то других нейросетей.
Конечно, это не совсем то, что вы описали. То, что вы описали как раз очень близко к изначальной теме - может, у нас и есть уже нужные алгоритмы, их просто не обучали достаточно долго.
О врождённой грамматике имеет смысл говорить, потому что какие-то очень базовые вещи, которые мы может и сформулировать не можем, ребёнок воспринимает ещё в утробе вместе, например, со звуками речи, пробивающимися снаружи. Учитывая скорость роста нейронов в этот период (сотни тысяч в секунду) - эти стимулы буквально вылепливают области коры. Плюс то, что сама грамматика возникла не из вакуума, а из нашего строения мозга, из нашего строения речевого аппарата и т.п. ИИ всего этого лишён, и это сложно восполнить алгоритмически. Ноль с которого он начинает намного "меньше", чем ноль, с которого начинает новорожденный, так что врождённая грамматика - вполне осмысленное допущение.
Другое дело обучение каким-то менее гуманитарным и антропоцентричным вещам, которые не требуют миллиона лет эволюции мозга в условиях культуры и общества - скажем, взаимодействиям в физическом мире. Робототехника тут демонстрирует что-то невероятное и, мне кажется, в каждой отдельной области уже превосходит человека. Такие задачи, как, скажем, научиться ходить (ползать, плавать, ездить на любом количестве конечностей и иных движителей) без всякого пред-заданного алгоритма - уже блестяще решены. А ребёнку ведь это даётся не намного проще грамматики =)

Reply

northern_wind June 17 2011, 12:45:02 UTC
Онтологии - это гораздо проще, и эти алгоритмы безусловно есть. :)

Ну так целью как раз является воссоздать базовые принципы строения мозга, определить, отделимы ли они от субстрата, "железа", моделировать стимулы при внутриутробном развитии тоже может быть возможно. Введение "врожденных принципов" не решает задачу, а просто перемещает ее на другой уровень. Каковы эти врожденные принципы и что их определяет.

И визуальные задачи, да. Хотя я бы не сказала, что моделирование движения и распознавания образов решены блестяще.
Вот когда все это сведется в единую самообучаемую систему на уровне хотя бы, скажем, лабораторной мыши, это, может быть, можно будет назвать ИИ. Хиленьким, не говорящим, малоразумным, но ИИ. :)

А вы читали про недавно построенных роботов на крысиных нейронах? При решении двигательных задач выдают результаты лучшие, чем существующие алгоритмы.

Reply

adaptive_person June 17 2011, 11:17:47 UTC
Э-э... СППР?

ИИ для "полноценности" нужна дуальность: опыт и база знаний (алг.компр.опыта), логическое обоснование и чувственная этика, т.п.

Без этого сплава получится либо бездушная железка, которая распылит всё на атомы, чтобы "оптимизировать", либо эгоистичная истеричка, способная только потреблять энергию.

И самая большая хохма тут в приоритетах. Что важнее, экономия ресурсов или снятие стресса? А может важнее сэкономить ресурсы на обмозговывание решения о том как снять стресс? Вот это и есть тот самый философский камень, который "не кантовать, при пожаре выносить в первую очередь". Без него ИИ невозможен.

Кстати, духовные люди ещё также понимают, что объяснение собственных решений - это всего лишь ретроспективный анализ. Он проводится _после_ принятия решений. Так что сами решения принимаются по куда более простым схемам, паттернам и алгоритмам. Это как решить пример в уме за минуту, и потом потратить час на то, чтобы расписать решение. По КПД первое - приоритет, а второе - фрустрация. Но без второго невозможна передача знаний.

Возможно мы просто смотрим на это под неправильным углом, и ИИ нужно учить учить, а не учить учиться.

Reply

bekabaka June 17 2011, 11:58:35 UTC
Я думаю, опыт и знания неразделимы, это не дуальность. Нейросети это хорошо демонстрируют: попробуйте вытащите из обученной нейросети какие-нибудь знания.
А учить учить - это интересно на самом деле. Надо посмотреть, делал ли кто-нибудь это хотя бы для простейших случаев. В принципе идеи вроде использования одной нейросети для генерации обучающего сигнала второй - вполне на поверхности. Мне нравится.

Reply

northern_wind June 17 2011, 11:19:58 UTC
Кстати, забавно, я эту проблему напрямую в комментарий не вкладывала.
Я говорила именно о большей лёгкости экспериментов при моделировании, так как теоретически можно будет подстраивать параметры и изолировать отдельные функции, а человека не настроишь.

Reply


Leave a comment

Up