как остановить развитие ИИ на глобальном уровне.

Oct 26, 2023 16:14


Было предложено несколько предложений:

-Мировое политическое соглашение. Учитывая текущее состояние войн и конфликтов, это кажется маловероятным.

-Глобальная ядерная война. Чем меньше вероятность политического соглашения, тем выше вероятность войны.

-Использование первого ИИ для создания глобальной системы контроля, которая препятствует созданию последующих ИИ. Однако, если этот ИИ обладает сверхинтеллектом, то возникают все связанные риски. Следовательно, этот глобальный контрольный ИИ не должен быть сверхинтеллектуальным. Это может быть загрузка человека или ИИ, основанный на анализе больших данных (в отличие от гипер интеллекта), например, система наблюдения с ограниченным интеллектом.

-Надеяться на помощь инопланетян, НЛО, теорий симуляции или антропынй принцип. Например, обратный Soomsday argument предполагает, что маловероятно, что конец наступит в ближайшее время.
Previous post Next post
Up