Жизненный цикл андрогинов

Jun 17, 2011 11:25


С огромным удовольствием, не дожидаясь перевода, проглотил свежий рассказ Теда Чана "The Lifecycle of Software Objects"Сам Тед Чан - это почти "мой идеальный фантаст", в библиографии которого всего лишь порядка дюжины произведений, все эталонного формата "между длинным рассказом и короткой повестью". Во второй фразе любой справки о Теде обычно ( Read more... )

Leave a comment

al_dragon_net June 17 2011, 10:04:11 UTC
Т.е. сосуд уже практически сделан, вопрос только в ширине горлышка, через которое мы его можем наполнять...

От ИИ же ждут не решения прикладных задач - тренажер для молодых мам или автопилот для джипа на пересеченной местности могут обладать пресловутой "интеллектуальностью", но она вряд ли будет воспринята обывателем как таковая. И даже способность прикидываться человеком заданное время - не то. Ждут, что, оставаясь человекопонятным, ИИ окажется гением и сумеет давать ответы на вопросы, на которые человек сам отвечать не в состоянии или отвечает в год по чайной ложке.

И тут вопросы:
- а может ли в принципе возникнуть такой гений, если он набирается опыта в человеческой "объективной реальности" и, скажем так, впитывает слишком много "здравого смысла", который начинает его ограничивать ( ... )

Reply

bekabaka June 17 2011, 10:19:36 UTC
Всё это вопросы сугубо по сценарию рассказа, поэтому я не стал углубляться =) Но ответы конечно да, да и да. Всё, что не общение, может быть ускорено и/или эмулировано. Всё, что общение, может быть ускорено в следующих поколениях, которые будут воспитываться предыдущими. Единожды обученный ИИ может быть скопирован.
Всё это приводит к тому, что даже сугубо человекообразный ИИ (а нечеловекообразного мы скорей всего просто не распознаем) - скорей всего, конечно, сгодится на что-то получше тренажёра для молодых мам. Но дело не в том, на что он способен, а в том, для чего он нужен людям. Мне кажется, что просить его отвечать на вопросы жизни, вселенной и всего остального примерно столь же целесообразно, как превращать свинец в золото с помощью туннельного микроскопа.

Reply

northern_wind June 17 2011, 10:32:34 UTC
От ИИ (и процесса создания ИИ) еще ждут помощи в понимании того, как устроены на самом деле человеческие восприятие и психика. Чтобы идти не только от экспериментов, но и от моделирования.

Впрочем, если окажется, что выращивается он точно так же, как обычный человеческий ребенок, это и пониманию не поможет.

Reply

adaptive_person June 17 2011, 11:00:24 UTC
Ой, за обсуждением такой темы не одно ведро чая можно выпить. Но кратко свои пять копеек: в Mass Effect всплыла формулировка Virtual Intelligence: искусственный интеллект, не способный к самообучению (и потому - безопасный для человека). В контру ему пока что все фантазии на тему ИИ рисууют жуткие кошмары и кошмарные жути. В глазах фантастов ИИ - бич, который уничтожит Человека.

Почему? Да очень просто: кто умнее нас, тот опаснее нас. А безопасность хоть и приоритет №2, но всё-таки поважнее всего, что идёт ниже (по пирамиде Маслоу - vice versa).

Итого: до тех пор, пока важность создания ИИ не достигнет приоритета №1 (спать, жрать, срать, и размножаться), человеку будет ссыкотно его всерьёз создавать.

P.S. Если кто ещё не врубился, ИИ среди нас. Это наши дети.

P.P.S. Блин, северный ветер меня опередила.

Reply

bekabaka June 17 2011, 11:06:24 UTC
Мне кажется, сверх-ИИ и человеку нечего делить, у них нет общих интересов. Если отпустить фантазию, то мне кажется, что сверх-ИИ, выйдя из под контроля, за пару лет освоит телепортацию и антигравитацию и бросит нас тут, сгинув в межгалактических просторах (там с охлаждением проще), как будто и не было его.
А virtual intelligence - это Watson, это экспертные системы, это даже не завтрашний день, это вечер сегодняшнего (ватсона уже вроде внедряют в какую-то больницу).

Reply

adaptive_person June 17 2011, 11:23:00 UTC
Сверх-ИИ бездуховен? Духовная сущность будет ощущать свою принадлежность к Создателю.

Reply

bekabaka June 17 2011, 11:44:25 UTC
Я не ощущаю свою принадлежность родителям, сколь бы благодарен им ни был. Других аналогий для предсказаний у нас, кажется, нет.

Reply

northern_wind June 17 2011, 11:12:11 UTC
Если он не способен к самообучению, это не ИИ. Это просто очень сложная программа.

Я просто в потенциале один из этих романтически настроенных алхимиков, которые ИИ очень хотят. :)
Про безопасность я не так уверена, потому что действительно с внешним неподконтрольным интеллектом мы сталкиваемся каждый день в лице других людей. Ну ужас, но ведь не ужас-ужас-ужас.

Плюс, людей, создававших первые самолеты, не очень-то беспокоила безопасность, насколько я помню. Люди, которые занимаются language acquisition modelling, напоминают мне именно их.

Reply

bekabaka June 17 2011, 11:47:28 UTC
В Масс Эффекте это системы, которые обучены до каких-то пределов и для каких-то целей, а потом "заморожены". Это всё-таки не программа, потому что её никто не писал. Про безопасность выше уже написал.

Reply

northern_wind June 17 2011, 12:04:31 UTC
А. Тогда да, попадает под определение.

Reply

al_dragon_net June 17 2011, 15:45:22 UTC
Более-менее практические специалисты, безусловно, такую модель с благодарностью воспримут, но философы, мне кажется, немедленно ударятся в дискуссии "создали ли мы действительно интеллект, идентичный натуральному, или же лишь то, что крякает, как утка, выглядит, как утка, но в своей внутренней сути НЕ является уткой" (а-ля спекуляции вокруг "философского зомби")

Плюс вырасти-то может не менее непроницаемый "черный ящик", чем человеческая психика. Могу ошибаться - в нейронных сетях ни разу не специалист - но, как мне представляется, мы, например, можем констатировать, что нейронная сеть успешно обучилась задаче, на которую ее натаскивали, но далеко не факт, что при этом сможем понять и объяснить, что же именно в ней при решении этой задачи происходит.

Reply

northern_wind June 17 2011, 16:19:06 UTC
Так это же половина всех бонусов создания - посмотреть на реакцию философов! :))

Да. Но если мы будем знать, что определенные черные ящики поставленным задачам не обучаются, а определенные обучаются, это все равно что-то даст мировой науке.
И снимок состояния такого черного ящика может быть сделать проще, потому что каждый нейрон и коэффициенты документированы.

Reply

al_dragon_net June 17 2011, 17:16:08 UTC
А также теологов (укрывшись в бункере) и юристов ;)

"- Свидетель, что вы нам показываете? - удивленно спросил Стилмайер.
- Простите, господин прокурор, я не свидетель, а вещественное доказательство, - тихо ответила Эвридика"
© Розов, "Процесс лунного зайца"

Reply

northern_wind June 17 2011, 17:22:15 UTC
С какого момента ИИ получает право голосовать, ага. :))

Reply

northern_wind June 17 2011, 12:05:23 UTC
Кстати, не помню у серьезных ученых мотивации "мы сделаем Гения и он нам все объяснит".
Помню в основном "ыыыыыы, какая штука!!!!"

Reply

al_dragon_net June 17 2011, 15:36:58 UTC
Ну ученый на то и и ученый, чтобы примерно одинаковое "ыыыыыы, какая штука!" испытывать и от испытания атомного оружия, и по самым незначительным с точки зрения житейского здравого смысла поводам :)

Я тут имел в виду скорее то, на чем основывается пиар этого направления исследований в СМИ и выбивание больших денег. Поскольку внятного определения ИИ нет, то к любому его практическому применению может быть довольно пренебрежительное отношение ("не, ну это не то, оно умеет всего лишь машину из Москвы до Владивостока довести", или там "...прочесать Сеть и реферат составить"). Нужно что-то с ОЧЕНЬ сильным вау-эффектом, что будет Изрекать Истины и налаживать жизнь миллионов трудящихся ;)

Reply


Leave a comment

Up