На днях Элиезер Юдковски опубликовал в Таймс призыв объявить правительственный мораторий на обучение ИИ по всему миру на ближайшие полгода, чтобы придумать план безопасности для человечества. Как один из отцов-основателей ИИ, философ и стратег, думаю, он понимает, какие опасности таятся в том, чтобы ИИ становился всё более и более мощным и умным
(
Read more... )
Паникеры были всегда. Воображение всегда строит безумные сценарии, вопрос только в том, насколько они реальны.
Reply
Если такие люди, как я, начинают паниковать, это одно (хотя мне обычно это не свойственно).
Если такие люди как Юдковски - это совсем другое. Зная, насколько он умнее меня и насколько лучше знает систему изнутри и похожие системы, я тут принимаю это всерьёз.
Reply
Я бы сказал, что он бежит впереди паравоза.
Reply
Я посмотрел про него, у него достаточно однобокое образование.
>вся биологическая жизнь на Земле вскоре после этого погибнет
Он далек от биологии. Как говорят биологи, Земля была и останется планетой бактерий, поскольку невозможно себе представить технические средства для их уничтожения.
Ему надо посмотреть научно-фантастические фильмы на тему, что будет, если все люди исчезнут. ИИ сам по себе с природой не справится.
Reply
Он несомненно берёт самые катастрофические сценарии. Не знаю, как он до них мысленно добрался. Но я пока верю в него :-)
Reply
Leave a comment