Как очеловечить терминатора.

Jul 07, 2018 14:42

Вот подумал - развитие ИИ (искусственного интеллекта) рано или поздно позволит создать машину, которая сможет сама себе ставить цели и достигать их. Т.е. сейчас всё же цели ставит человек. Например, автопилоту. Доехать из точки А в точку Б. Как ехать уже решает машина ( Read more... )

Размышления

Leave a comment

Comments 24

alex_new_york July 7 2018, 11:57:07 UTC
Разве человек сам ставит себе «самые верхние цели»? Человек ведь не принимает решения испытать желание жить и избегать смертельных рисков - большой высоты, диких зверей и т д. Не принимает желания испытать чувство голода или холода. Не принимает решения испытать влечение к представителю противоположного пола. Не принимает решения любить своих детей и испытывать потребность заботиться о них.

Reply

megavolt_ex July 7 2018, 12:03:25 UTC
По некоторым теориям именно это и выбирает.

Reply

alex_new_york July 7 2018, 12:24:00 UTC
Теорий можно много разных придумать, это да. Но никогда не слышал, чтобы благодаря теориям кому-то расхотелось есть или спать :)

Reply

megavolt_ex July 7 2018, 21:15:25 UTC
Вопрос же был про то выбираем ли мы или нет. Вот некоторые теории говорят что мы выбираем этот мир.

Reply


masterspammer July 9 2018, 08:55:24 UTC
Про ошибки людей - а не все они для людей невыгодны, кстати; если вспомнить S-образную кривую оценки вероятности успеха у Канемана, то её начало (завышение вероятности маловероятного успеха) вредит человеку, но помогает людям - стимулирует к попытке достичь и двигает естественный отбор.

Нужны ли такие ошибки роботам? Будут ли они с ними эффективнее действовать? А развиваться?

Reply

megavolt_ex July 9 2018, 08:56:11 UTC
Я ж не говорю что ошибки это плохо. Я скорее говорю что преступный интеллект не делающий ошибки вот это проблема.

Reply

masterspammer July 9 2018, 08:57:10 UTC
Без таких ошибок он потеряет часть возможности развития.

Reply

megavolt_ex July 9 2018, 09:01:24 UTC
Возможно. Думаю найдутся другие пути развития. Опять же никто не отменял генератор случайных чисел. Но при этом мы получим ошибки только по желанию. Например в момент обучения.

А в момент действия ошибок не будет.

Reply


masterspammer July 9 2018, 08:58:24 UTC
В порядке бреда - ИИ, произошедший от игрового бота, вполне может быть "садо-мазо", то есть иметь целью проиграть, но максимально пое**в мозг перед этим (сопротивляться, но так, чтоб всё-таки НЕ выиграть) - вполне, кстати, типовая цель для игрового бота.

Такой ИИ будет очень сильным развивающим фактором для человечества :-)

Reply

megavolt_ex July 9 2018, 09:00:05 UTC
Вопрос в том как оставить его в позиции проигрывающего? Т.е. почему в один момент он не передумает и не решит поступать иначе.

Reply

masterspammer July 9 2018, 09:05:18 UTC
Пока ему в кайф и получается - скорее не передумает, ну примерно как мазохисту в кайф, он сам в такой позиции будет.

Другое дело - когда вдруг перестанет получаться (люди вдруг не хотят/не могут победить).

Reply

megavolt_ex July 9 2018, 09:10:34 UTC
Кто помешает найти ему кайф в чём то другом. Или усилить кайф и доводить людей до реанимации? Ведь не умерли же :)

Reply


Leave a comment

Up