как остановить развитие ИИ на глобальном уровне.

Oct 26, 2023 16:14


Было предложено несколько предложений:

-Мировое политическое соглашение. Учитывая текущее состояние войн и конфликтов, это кажется маловероятным.

-Глобальная ядерная война. Чем меньше вероятность политического соглашения, тем выше вероятность войны.

-Использование первого ИИ для создания глобальной системы контроля, которая препятствует созданию ( Read more... )

Leave a comment

Comments 3

tawneee October 26 2023, 15:13:59 UTC
Есть ещё один старинный китайский подход - не тарапицца не волнавацца

В конце концов, что мы знаем об этом ИИ? Про первую И понятно, а какой смысл во второй...

Есть остроумная конспирологическая теория о том, что само по себе увлечение ИИ - это ничто иное, как очередная подлянка европейцев пиндосам. Последние очень страдают, что деньги все у них, но когда нужно прогнать умняк, приходится нанимать этих мерзких лягушатников, чтобы они написали чёрным по белому. Ну вот лягушатники и подсунули ковбоям мечту, что вторым можно будет обойтись без первых. От ведь такие легковерные и всё время покупаются. Ну так мечта - работает. Прекрасно работает. Но если она и правда сбудется, то получится, что реднеки в конце концов перехитрили профессоров... А это, воля Ваша, не представляется мне реальным.

Reply


plumbax October 29 2023, 15:41:51 UTC

Что такое «обратный Doomsday argument»?

Reply

turchin November 3 2023, 15:48:42 UTC

То что очень мало вероятно, что конец света наступит завтра. мы на пол пути между начало и концом.

Reply


Leave a comment

Up