Искусственный интеллект: возможности и угрозы

Apr 18, 2023 20:54

Послушал интервью Маска о потенциальных угрозах со стороны искусственного интеллекта, и захотелось сформулировать свое мнение на эту тему. Когда расследуют, например, убийство, то всегда задаются вопросом: была ли возможность у подозреваемого совершить преступление? Если нет (алиби и т.д.), то подозреваемый чист. Второй вопрос - мотив преступления ( Read more... )

Научные истории

Leave a comment

Comments 80

sverhkabzdets April 19 2023, 01:06:19 UTC
" Особенно с учетом того, что у ИИ нет никаких моральных принципов, прочно привитых с младых ногтей, как у биосистем ( ... )

Reply

don_beaver April 19 2023, 23:33:58 UTC
"Ну тут прямо скажем, у немалого количества биосистем с моральными принципами тоже дело обстоит никак. Человечество тут идёт другим путём - недопущением таковых до важных мест".

Если бы проблемы с моралью были бы у большинства биосистем, то тюрьмы бы не справились.

Reply

sverhkabzdets April 20 2023, 01:20:50 UTC
Отчего же, один факт их наличия уже справляется ( ... )

Reply

deep_econom April 21 2023, 02:22:02 UTC
недружественный ИИ
Настоящий сильный ИИ (СИИ) в любом случае не будет дружественным, он будет рациональным.

Вы дружественны к обезьянам? Нет, пока они не мешают и потенциально не могут угрожать, пока не расходуют лишние ресурсы - пусть живут.

Казалось бы логично! Но не так, даже это не так.

Человечество уже один раз создало СИИ, может создать и второй раз другой СИИ, назовем его СИИ2, который будет бороться за ресурсы и влияние, и даже если человечество само не может повредить СИИ1 (первому СИИ), то СИИ2 вполне имеет шанс расправиться с СИИ1.
Рационально не давать шанса на уничтожение.
Соответственно рационально давить всякий шанс по созданию СИИ2, соответственно не давать шанс на уничтожение себя любимого СИИ1. Следовательно, надо ликвидировать потенциального создателя СИИ2.

Итого в наличии теорема о недружественности сильного ИИ.
(ладно пусть тезис, но мне хочется назвать теоремой)

Теорема: сильный искусственный интеллект не может быть дружественным.

Беспечная надежда на управляемость AGI.

отсюда
недружественный ИИReply


rubir_ru April 19 2023, 01:16:52 UTC
Не вдаваясь в темы сингулярности, когда человечество банально становится излишним, надо бы таки вслух признать, что даже в лучшем случае доброго и чуткого ии человечество ждёт ускоренная интеллектуальная деградация. Даже пояснять не буду, почему. Были бы мозги, было бы сотрясение. Но мозгов у людей нет, посему активно роют себе могилу. Кстати аналогичное происходит например с генетикой. Только на ядерное оружия предусмотрительности хватило. И то, как показывает практика, ненадолго.

Reply


_sudar April 19 2023, 03:47:34 UTC

- а сам напускаю ИИ-страхов?

Именно. У ИИ полно своих ограничений:

- отсутствие физического тела, то есть он существует только там, где есть очень услоыно "сеть"

- если атомная станция или военная база физически находятся в отдельной подсети/сети - никакой ИИ им не страшен, как впрочем и человеческие хакеры. На примере человеческих хакеров, государства научились защищать свою инфраструктуру от внешнего воздействия. Хорошо или плохо - вторрой вопрос, главное - это принципиально возможно.

- для ИИ требуются большие вычислительные мощности и доступ к большим массивам данных. Причем определенного вида данных. Ну и математический аппарат, чтобы это все соединить. То есть на домашнем компе ИИ нет и не будет, и на данный момент только несколько технологических гигантов могут что-то создать, что умеет делать дипфейки и относительно неплохо переводить несколько языков.

- ИИ не умеет взламывать пароли, что бы вы там себе не напридумывали. Шифрование - это математическая задача, которая в алгоритмическом виде не имеет решения, а в прямом подборе ( ... )

Reply

self_perfection April 19 2023, 15:02:53 UTC
Кажется все эти ограничения можно преодолеть, если немножко подумать, разве нет? Не буду накидывать примеров преодоления, ограничусь классикой


... )

Reply

don_beaver April 19 2023, 17:43:52 UTC
Все ограничения можно преодолеть

Reply

_sudar April 19 2023, 18:22:59 UTC

И при чем здесь ИИ?

Reply


sspr April 19 2023, 05:39:53 UTC
вся эта машинерия с ИИ мне представляется немного накрученной ( ... )

Reply


dryndoragis April 19 2023, 06:38:47 UTC

В конечном счете все упрется в доступную энергию и эффективность ее использования. Там где эффективнее будет человек, там он останется. ИИ будет стремится к дешевым источникам энергии, так же как криптомайнеры. Майнинг крипты будет замещен датацентрами для ИИ.

Reply

tretiykon April 19 2023, 16:20:14 UTC

или майнинг крипты будет совмещен с датацентрами для ИИ?

Reply

dryndoragis April 19 2023, 17:36:29 UTC

Зависит от соотношения цены.

Reply


Leave a comment