А теперь серьезно...

Oct 11, 2006 05:44

Если рассматривать каждый отдельный апокалиптический сценарий, то, конечно, кажется, что его легко предотвратить, и люди не так уж глупы.

Однако давайте посмотрим на 20-й век: 1-я мировая война, 2-я мировая война, бомбардировка Хиросимы и Нагасаки, затем - да, совместными усилиями ученым удалось напугать всех последствиями ядерной войны, и этого не случилось... Но ведь для ядерной войны надо было нажать всего несколько кнопок, так что по-моему, ее вероятность была бы гораздо больше, чем у 2-й мировой войны, если бы была соответствующая политическая ситуация (вспомним, что Сталин быстро помер, а за ним пошли уже лидеры совсем другого характера), и если бы ученые так всех сильно не напугали.
Зато была советская система концлагерей!
Разве после всего этого можно утверждать, что люди вообще способны друг с другом уживаться на одной планете?

Посмотрим на текущую ситуацию: конфликты на Ближнем Востоке, а в остальном вроде бы все довольно неплохо... А вот и нет! Было бы неплохо, если бы Россия и некоторые ее соседи не противопоставляли себя цивилизованному западному миру. Но вообще-то, и одного Ближнего Востока уже достаточно, чтобы испугаться.

И неужели кто-то думает, что со всей этой фигней - политической напряженностью и терроризмом (для защиты от которого вводят все новые и новые меры, которые многих пугают больше самого терроризма) - человечество выживет, когда получит в руки практически полный контроль над материей?

Вот поэтому я оцениваю вероятность уничтожения человечества после появления полномасштабной нанотехнологии где-то в 40-70% (это так, навскидку, по наблюдениям за 20-м веком).

А совсем не потому, что я верю в какой-то один конкретный сценарий - что ИИ сойдет с ума или что уволенный с работы гений-псих решит отомстить человечеству, создав кучу наномашин у себя в подвале. Это всего лишь конкретные сценарии, а причина одна - человеческие инстинкты: стремление к высокому статусу, мстительность, деление всех на "своих" и "чужих" и так далее.

Ну вот, а если теперь вспомнить, что приближать Сингулярность выгодно, и этим сейчас занимается весь высокотехнологичный сектор мировой экономики, а делать Сингулярность безопасной совсем не выгодно и никто этим не занимается, то очевидно: чтобы увеличить вероятность Сингулярности, нужно действовать именно в направлении уменьшения вероятности уничтожения человечества.
Previous post Next post
Up