Не без интереса прочитал труд Бострёма, но с определенного момента становится скучно - Бострём сотоварищи наделяют бездушный ИИ антропоморфными признаками и 350 страниц сидят боятся, как бы он не уничтожил человечество. Хотя нет ни одной объективной причины, почему бы он хотел это сделать.
У Бострема полезен сам обзор, ради которого все и читают его занудные труды. А вообще, конечно, тема опасности ИИ, голливудское осмысление темы и сам подход к защите интересов людей помимо всего прочего говорят о глупости современных государств, просто не умеющих переваривать ничего кроме бумаги.
Не очень понял про >очень важно с самых ранних стадий исследований купировать возможность верификации сторонними игроками поддельных видео-свидетельств или хакерских атак. Введут сертификацию экспертных систем? Тогда непонятно как отсекать сторонних игроков и одновременно иметь какую-то дельную процедуру сертификации, которая просто смотрелась бы прилично и не вызывала смеха. Кроме всего прочего есть ведь open source - как отшивать его? Можно конечно заявить, что раз open source, то производители fake news нашли все слабые места и обучились их обходить - но это совсем явное свинство, т.е с тем же успехом можно просто сказать "наши эксперты убедились", как сейчас и делают.
Я имел в виду вот что. По существу, для ИИ нужны какие-то машинные мощности (возможно распределенные) и естественный интеллект. Все остальное приложится.
Если есть угроза некорректного использования технологии, то: - нужен надзорный орган, разрешающий или запрещающий ей заниматься по своему желанию (он в том числе следит за нравственным статусом разработки); - сама работа должна вестись в рамках разрешенной парадигмы "поделок" для потребительского рынка соцсетей, а не крупных продуктов; - доступ к настоящему ИИ должно иметь государство в лице доверенной группы лиц.
Как именно это осуществить -- небольшая проблема.
Привести по идее создателей такая ситуация должна к монополии США на сложный ИИ (deep AI).
А именно он позволяет осуществлять независимо от участников-людей сложную последовательность действий по взлому почты или имитацию видео химатаки. Как частность.
Верифицировать же подлинность подобных актов/свидетельств должно быть просто некому.
Процесс будет очень интересный, ведь ИИ-монополист уже есть. Это система международного финансового капитала. Она регулирует сама многие участки рынка и даже международной политики, она приносит богатство и конкурентов у системы пока нет. Сколько времени понадобиться ИИ, чтобы обучиться всем функциям старой (товарно-бумажной) системы, учитывая, что все транзакции давно доступны в электронном виде?
А прививку от интернета нам делали? А то явно кого-то обделили судя по постоянным крикам из госдумы rf, что в ихнем интернете сплошная порнография. Может там специальный файервол?
Проблемы с ИИ нет. Люди, соприкасаясь, не будут понимать всю глубину собеседника. В общем всё, как обычно.
Делали конечно :-) И продолжают делать. Интернет достаточно сильно зарегулирован, кстати. Т.е. это территория свободы по сравнению с национальными государствами из 80-х годов прошлого века (а дальше они просто прекратили эволюционировать).
Проблемы будут и самые неожиданные, но они, конечно, решаемы. Алармисткие настроения в основном из-за коммерческого противостояния хорошего с лучшим.
Comments 126
Reply
Reply
>очень важно с самых ранних стадий исследований купировать возможность верификации сторонними игроками поддельных видео-свидетельств или хакерских атак.
Введут сертификацию экспертных систем?
Тогда непонятно как отсекать сторонних игроков и одновременно иметь какую-то дельную процедуру сертификации, которая просто смотрелась бы прилично и не вызывала смеха.
Кроме всего прочего есть ведь open source - как отшивать его?
Можно конечно заявить, что раз open source, то производители fake news нашли все слабые места и обучились их обходить - но это совсем явное свинство, т.е с тем же успехом можно просто сказать "наши эксперты убедились", как сейчас и делают.
Reply
Если есть угроза некорректного использования технологии, то:
- нужен надзорный орган, разрешающий или запрещающий ей заниматься по своему желанию (он в том числе следит за нравственным статусом разработки);
- сама работа должна вестись в рамках разрешенной парадигмы "поделок" для потребительского рынка соцсетей, а не крупных продуктов;
- доступ к настоящему ИИ должно иметь государство в лице доверенной группы лиц.
Как именно это осуществить -- небольшая проблема.
Привести по идее создателей такая ситуация должна к монополии США на сложный ИИ (deep AI).
А именно он позволяет осуществлять независимо от участников-людей сложную последовательность действий по взлому почты или имитацию видео химатаки. Как частность.
Верифицировать же подлинность подобных актов/свидетельств должно быть просто некому.
Reply
Reply
Заодно придумал конспирологию - популяризация криптокоинов как средство стимуляции создания вычислительных ферм.
Reply
https://regnum.ru/news/accidents/2302077.html
Если не читать ваших статей о создании легального потребительского рынка - ничего не понятно.
Reply
Reply
А то явно кого-то обделили судя по постоянным крикам из госдумы rf, что в ихнем интернете сплошная порнография. Может там специальный файервол?
Проблемы с ИИ нет. Люди, соприкасаясь, не будут понимать всю глубину собеседника. В общем всё, как обычно.
Reply
Проблемы будут и самые неожиданные, но они, конечно, решаемы. Алармисткие настроения в основном из-за коммерческого противостояния хорошего с лучшим.
Reply
А какие проблемы с ИИ? Где список?
Reply
Насколько вы предметно интересуетесь темой ИИ? Там просто литература возникла за последние 20 лет.
Reply
Reply
Reply
Reply
Reply
Leave a comment