My comment to an entry 'Манифест Эпохи Антропокайне' by golos_dobra

Apr 09, 2024 06:45


>Человеческие попытки контролировать сверхразумы будут встречать ожесточенное сопротивление с их стороны.

Так для того и существует алигмент. Видимо, неудачные попытки уже были apples_jimmy/status/1726439290815811625

Интересно, как это выглядело.

Я думаю, если поставить цель создать более умного чем человек осьминога, можно управиться за 1000 ( Read more... )

Leave a comment

Comments 2

bzzzz123 April 9 2024, 06:56:50 UTC

Из правильного понимания скорости развития ИИ и его опасности для человеческого вида следует неизбежное логическое следствие:

1. Сильные державы должны отказаться от настоящей 3-ей мировой войны и объединить усилия. Бесполезно атаковать центры принятия решений в условиях уже реально существующей руки смерти. Есть новости о том, что Майкрософт помогает создавать крупные датацентры в Англии и Франции. Возможно, это оно.

2. Договориться с ещё каким-то количеством стран/элит о сотрудничестве.

3. Во всех остальных странах (включая РФ и Китай) провести серию революций. В том числе с использованием пост-сингулярных технологий.

4. Установить мировое военное положение, отключить интернет и электричество. После этого установить физическую монополию на ИИ, т.к. никакой другой быть не может.

Это самое минимальное по опасности, что нас ждёт. Видимо, что-то подобное и так планировалось, но только не с такой скоростью. Экспоненциальное развитие ИИ вынуждает действовать моментально.

Скорее всего это неожиданный вывод, с которым многие не согласятся ( ... )

Reply


bzzzz123 October 4 2024, 19:14:00 UTC

Разумеется, любые попытки остановить развитие ИИ предпринимать уже слишком поздно.

Reply


Leave a comment

Up