New World Order

Jan 15, 2020 17:39



Разговор Харари и Тегмарка, наверное самых авангардных мыслителей переднего края дискурса 21-го века о науке, технологиях, обществе и будущем.
Подкаст Apple, Google, Spotify, Soundcloud, где вы найдете и поминутную разбивку и транскрипт.

Сухой остаток:


✔️ Философы и богословы более двух тысячь лет обсуждают, что происходит, когда мир становится разумней (в мире больше интеллекта). При этом всегда предполагалось, что любой Большой Разум (сверхчеловеческий или воплощенный в человеке) будет сознательным и хорошим.
✔️ Первое означает, что ему будет понятно, что творится в нашем сознании (чувства, переживания, опыт). Второе - что он будет морален, различая правильное/неправильное и хорошее/плохое в нашем поведении.
✔️ Работы по созданию Большого Разума (названного ИИ: слабый, сильный, сверхсильный) уже ведутся. Но ИИ не сознательный и не хороший (мы пока вообще не понимаем, что это и как тут подступиться в плане алгоритмической реализации).

РЕЗЮМЕ: Все, что мы делали в течение тысячелетий, на самом деле, не подготовило нас к такого рода вызовам. И пора признать - спички детям не игрушка. Их нужно, до поры до времени, у детей отобрать. Любым способом.

✔️ Представления об осознающей себя жизни стремительно меняются. Но пока мы даже не знаем наверняка, какие виды обработки информации являются сознательными, а какие - нет.
✔️ У людей и животных сознание и интеллект объединены. Мы не знаем, является ли это «законом природы». Знаем лишь, что интеллект - это способность решать проблемы. А сознание - это способность чувствовать боль, удовольствие, любовь, ненависть…
✔️ Пока мы не знаем о сознании главного:
• Является ли оно продуктом вычислений или это эмерджентный физический феномен?
• Возможно ли неорганическое сознание?
✔️ При принятии решений люди полагаются на свои чувства. Но не обладающие сознанием и моралью компьютеры принимают решения совершенно по-другому. Как же нам полагаться на такие решения?

РЕЗЮМЕ: Нужно вкладывать, как минимум, столько же средств в исследование сознания, сколько и в исследование ИИ.



✔️ Число потенциальных апокалипсисов растет в геометрической прогрессии за последние 50 лет. Посему, людям нужно не просто оценивать вероятность каждого плохого события. Нужно ориентироваться на ожидаемый ущерб, который оно нанесет, если все же произойдет.
✔️ Все гадают о вероятности появления зловредного сильного ИИ в ближайшие 10-30 лет. Но ведь вероятность того, что примитивный ИИ полностью разрушит экономику, политическую систему и человеческую жизнь в следующие 30 лет, составляет около 100%.

РЕЗЮМЕ: В 70-х получилось запретить биологическое оружие и провести четкую красную линию, где неприемлемо использование биологии. Теперь на очереди ИИ.

ИТОГО:
• Если алгоритмы следят за мной и знают обо мне все - нам нужна совершенно другая политическая система.
• Если клиент не прав, а алгоритм верен, - нам нужна совершенно другая экономическая система.
• Если корпорации и правительства взламывают нас при оказании медиа-услуг, чтобы привлечь наше внимание или нажать кнопку ненависти в нашем уме - нам нужна совершенно другая медиа система.



/Источник/



Картинка кликабельна

Технологии, Цивилизация, Общество

Previous post Next post
Up