Есть история про Макса Планка. Он рассказывал о своей идее квантования света, что он не то что придумал ее, это был акт отчаяния. Шесть лет он решал проблему излучения абсолютно черного тела, понимал фундаментальность проблемы и требуемый уровень ответа, и, исходя из имеющихся данных, практически знал ответ. Но теорию создать не мог. И тогда он
(
Read more... )
Если коротко - есть книга "Об интеллекте" Хокинса, в которой разложен механизм разума как инструмента создания модели окружающей реальности. Т.е. достаточно обоснованно показывается, что разум оперирует не, собственно, реальностью, а моделью реальности, построенной внутри него самого. И входящая информация используется чисто для корректировки модели.
Если подумать о биологической природе нашей нервной системы и задержке в прохождении сигнала от органа чувств от 0.1-0.2 секунды, которая при этом не мешает нам реагировать так, как будто этой задержки нет (поймайте брошенный вам предмет и потом подумайте, какой расстояние он пролетал за 0.1 секунды и могли ли вы его в принципе увидеть в том месте в тот момент, где вы его поймали).
Так вот, если принять эту модель - мозг не как вычислитель, обрабатывающий входящую информацию, а как система моделирования с обратной связью, использующая входящую информацию для корректировки модели - имхо все вопросы как по созданию ИИ (который не будет китайской комнатой), так и по самосознанию и свободе воли (когда моделятор вводит самого себя как часть модели) - все эти вопросы переходят в разряд очевидных.
И что меня озадачивает - нигде больше, ни в одной новости о разработке ИИ, я не вижу даже намеков на использование этого подхода. Все новости идут о китайских комнатах, использующих большие массивы данных и математику для выработки корреляций. Никто не заявляет о моделировании, как пути создания ИИ.
Единственное место, где я видел намеки на это - это биржевые системы.
Так вот, по данному моменту я вижу два варианта. Либо концепция мозга как системы моделирования - фигня и не работает.
Либо же она работает, и над таким ИИ ужа давно и многие работают, но это всё конкретно засекречено, потому на публику выдают "мусорные" новости, относящиеся к экспертным системам и нейронным сетям, но никак не ИИ.
Reply
Правда, я не стал бы предполагать заговор "засекреченности":) - да и было бы, что "секретить"?.. Дело в том, что самые такие общие "интуиции", "обобщения" на грани полу-философских:) - как раз труднее всего применить, воплотить во что-то конкретное. Как-то чаще тут идут от частностей - пока "само" не запросит интерпретации уровнем выше. Вроде бы:). Ну, это уж не такая беда (и, если угодно, идеологический приоритет "обратной связи" - всё той же самой:)).
Reply
Автопилоты для гугломобилей (как пример). Именно система, создающая модель окружающей реальности, чтобы можно было адекватно предсказывать и в реальном времени реагировать на изменение обстановки.
Reply
Поэтому - конкретная, "технологическая" теория рождается уже для "фактов из железа и пластика" (или там "электроники"). А на уровне слов -"нужна система, создающая модель" - никто же в технике давно и не спорит, но и для "тех.задания" это слишком расплывчато и "общё", "ни о чём" (ИМХО).
Reply
Reply
Лев Семенович благодушно ворочается в гробу.
Reply
Хотя вроде бы очевидный путь для создания ИИ - это построение модели. Например, он слышит текст и переводит в модель мира, который этот текст описывает. "У стола стоит стул". И он создает модель пустой комнаты, в ней стол, у него стул. Дальше он может дополнять эту модель по мере развития текста ("Вошел Вася и сел за стол"), а потом описать на любом другом языке - и вот получился переводчик.
Reply
Reply
Думаю, что модель должна быть ( в первом приближении) в виде 3D матрицы, в которой кубики будут соответствовать реальным ячейкам в пространстве, то есть где ножка стула они будут заполнены, а где воздух - пустые.
Я думаю, в индустрии игр есть способы более упрощенного создания моделей и представления их, а также выявления из моделей смыслов. Например, выстрелил я в Doom в монстра, и нужно рассчитать траекторию пули и монстра и в случае попадания выдать текстовое сообщение, а также поменять картинку монстра.
Reply
Допустим такой переводчик существует. Мы в него вводим: Мама мыла раму. И он начинает строить нам модель. Например модель мамы, и тут возникает вопрос, а что это за мама? Сколько ей лет? Какого цвета её кожа? Как её зовут? И чем она мыла? И где эта рама? В воздухе? Нет в доме. А дом какой? Многоэтажка? Дервенский? А рама золоченная? Оконная? Картинная? Мы не знаем в какой момент нам перестать строить модель и уже заняться переводом.
А если нам попалась поговорка, которую дословно глупо переводить, но возможно в другом языке есть аналог этой поговорки с таким же смыслом но с другими действующими лицами? А имена собственные? Нам нужно помнить имена и портреты всех испанских королей чтобы написать чёрная кошка на португальском?
При этом вся проблема с переводами всплыла еще в прошлом веке и хорошо её озвучил Витгенштейн.
Reply
Reply
Когда мы беремся переводить на другой язык - мы сопоставляем ссылки, входящие в смысловые блоки. И подбираем в другом языке блок, наиболее точно совпадающий по ссылкам.
Reply
Reply
Reply
Reply
Отношение к происходящему определяется через базовые - "доразумные" - приоритеты. Наши нам достались по наследству как следствие самой логики эволюции - "передай свои гены дальше". Прошиты они у нас на клеточном уровне, и через них определяется отношение к происходящему (у здоровых особей).
Какие приоритеты будут прошиты в ИИ первых поколений - вопрос к разработчику ИИ (в ИИ последующих поколений, по той же логике эволюции - приоритеты прошиты будут схожие с нашими).
И по этим приоритетам ИИ и будет оценивать "хорошо/плохо".
Reply
Leave a comment