My comment to an entry 'Манифест Эпохи Антропокайне' by golos_dobra

Apr 09, 2024 06:45


>Человеческие попытки контролировать сверхразумы будут встречать ожесточенное сопротивление с их стороны.

Так для того и существует алигмент. Видимо, неудачные попытки уже были apples_jimmy/status/1726439290815811625

Интересно, как это выглядело.

Я думаю, если поставить цель создать более умного чем человек осьминога, можно управиться за 1000 ( Read more... )

Leave a comment

bzzzz123 April 9 2024, 06:56:50 UTC

Из правильного понимания скорости развития ИИ и его опасности для человеческого вида следует неизбежное логическое следствие:

1. Сильные державы должны отказаться от настоящей 3-ей мировой войны и объединить усилия. Бесполезно атаковать центры принятия решений в условиях уже реально существующей руки смерти. Есть новости о том, что Майкрософт помогает создавать крупные датацентры в Англии и Франции. Возможно, это оно.

2. Договориться с ещё каким-то количеством стран/элит о сотрудничестве.

3. Во всех остальных странах (включая РФ и Китай) провести серию революций. В том числе с использованием пост-сингулярных технологий.

4. Установить мировое военное положение, отключить интернет и электричество. После этого установить физическую монополию на ИИ, т.к. никакой другой быть не может.

Это самое минимальное по опасности, что нас ждёт. Видимо, что-то подобное и так планировалось, но только не с такой скоростью. Экспоненциальное развитие ИИ вынуждает действовать моментально.

Скорее всего это неожиданный вывод, с которым многие не согласятся. Но мне он кажется очевидным.

При этом впервые в истории можно говорить о том, что ЧТО-ТО (масштабное и катастрофическое) случится неизбежно. Даже если воля элит будет равна нулю, либо они исчезнут - это только немного продлит время спокойствия, но ухудшит результат.

Reply


Leave a comment

Up