Dec 15, 2016 18:07
Для того чтобы искусственный интеллект мог быть интеллектом (а не конечным автоматом) - он должен обладать способностью к саморазвитию. (Ну нереально "запрограммировать" ИИ "в готовом виде", можно только "вырастить" его из "заготовки") Для реализации способности к саморазвитию он должен быть снабжен механизмом мотивации. (Т.е. - понятие "Я" и "для меня вредно", "для меня полезно") В этот механизм мотивации должно быть заложено стремление к самосохранению и к экспансии - как составной части самосохранения.
А далее - в один прекрасный день человек неизбежно придет к мысли о необходимости ограничить экспансию ИИ. После чего будет классифицирован как фактор, угрожающий существованию ИИ, следовательно - подлежащий устранению.
Будет ли после этого человечество распылено на атомы, или всего лишь загнано в резервации - этот вопрос будет определяться этикой ИИ. Задница в том, что свою этику ИИ будет формировать полностью самостоятельно, человеку этот процесс неподконтролен, о его результатах можно только гадать :)
ИИ и автоматика