Опасность искусственного интеллекта совсем не там, где её боятся

Feb 02, 2017 20:16

В своих лекциях по теории искусственного интеллекта в ИТМО я неоднократно замечал, что в качестве риска погубить человечество искусственный интеллект уже опережает ядерное оружие, но пока ещё отстаёт от биотехнологий. Однако, риск совсем не там, где против него выступают Хокинг и Маск. Интеллектуальное наступательное оружие способно погубить город ( Read more... )

Leave a comment

Comments 14

sdvoryanchikov February 2 2017, 17:35:51 UTC
сурово

Reply

matholimp February 6 2017, 05:29:31 UTC
Но справедливо.

Reply


bimdusha February 2 2017, 18:52:50 UTC
ии еще долго не сможет самостоятельно справляться с обслуживающей его макроструктурой, которая включает в себя практически всю цивилизацию человека. уничтожение людей будет для него самоубийством

Reply

matholimp February 2 2017, 21:28:13 UTC
Как долго? Всё меняется так стремительно, прямо на глазах.

Reply

bimdusha February 3 2017, 10:57:03 UTC
до тех пор пока не совершатся несколько качественных скачков технологий

первый: автономное питание дронов и принципиально новая безуглеродная энергетика.

второй: сами дроны. это уже на подходе

третий: быстрые энергоэффективные мозги. типа квантовых компов.

читал статью, где утверждается, что ии проще будет подчинить себе людей. и это уже возможно происходит. уничтожить не физически, а в качестве цивилизации разумных существ

Reply

matholimp February 6 2017, 05:30:44 UTC
Не всё сразу. Сначала подчинят, а потом совсем избавятся за ненадобностью.

Reply


vit_r February 2 2017, 20:40:37 UTC
Вообще-то, "наступательное кибернетическое оружие" - это системы, взламывающие компьютеры, управляющие вражеской инфраструктурой. Дюжина аварий на подстанциях - и город размера Нью Йорка сидит без тепла, воды и света.

Reply

matholimp February 2 2017, 21:27:05 UTC
И это тоже. Хотя для организации теракта масштаба мегаполиса прекрасно можно обойтись без ИИ.

Reply


levyi_botinok February 2 2017, 23:36:03 UTC
Мне кажется, наиболее опасна компьютеризация решения социальных вопросов. Которая, с одной стороны, помогает бороться с вулюнтаризмом бюрократии, но с другой стороны... При увеличивающемся контроле каждого шага и действия каждого члена социума. Уже сейчас параметры решений задаются не ахти какими компетентными программерами, а вовсе не социологической или там экономической элитой (каковой, вроде, и не существует).
Поначалу, маскировать свои самобытные решения под объективную точку зрения программы - заманчиво для властей. Главное - заложить основы.

Я бы правда, не называл нейронные сети или другие "думающие программы" искуственным интеллектом. Тут Вы правы с самовоспроизводством. Сознание, как целенаправленное реагирование на сохранение если не своего существования,то как минимум на сохранение "вида" появляется благодаря процессам, описанным дедушкой Дарвиным.

Reply

matholimp February 6 2017, 05:32:30 UTC
Люди сами с радостью залезли в социальные сети. Никто никого насильно не заставлял. А обратного пути нет!

Reply


diana_spb February 3 2017, 10:45:01 UTC
Не могу сказать о мире науки, но в фантастике эти опасения высказывались очень давно. Да хоть "Матрица".
Пыталась вспомнить более раннее, но у Чапека проблема роботов была в неспособности самовоспроизводиться - что не помешало им человечество уничтожить. У Лема роботы действуют автономно и самовоспроизводятся - правда, они от бледнотиков предпочитали удрать, а детали этикосферы я не помню.

Reply


Leave a comment

Up