> И смешная болталка-бот, мгновенно ухватывающая обезьяньи ухватки окружающих людей, очень скоро своим компьютерным мозгом дойдет до решения человеческой проблемы в рамках планеты Земля
( ... )
"ИИ - это примерно как искусственная рука, или искусственная нога. Сам по себе - ничего не может." - ИИ относят к смертельно опасным факторам, вполне способным уничтожить человечество в ближайшие десятилетия. Наряду с генной инженерией, вирусом судного дня и нанотехнологиями.
"Меня лично больше стршит, что искусственная личность окажется во всем лучше людей. Гуманнее, добрее, талантливее, умнее и т.д. И как будет чувстовать себя человечество рядом с таким ИИ? " - Все верно. Это я и имею ввиду, описывая метафорой про барьер "Войны и Мира". Кстати, человечество, свалившееся ниже этого барьера - вряд ли даже сможет осознать трагедию произошедшего.
""Меня лично больше стршит, что искусственная личность окажется во всем лучше людей. Гуманнее, добрее, талантливее, умнее и т.д. И как будет чувстовать себя человечество рядом с таким ИИ? "" - не грозит. Все выше сказанное не формализуется. ИИ никогда не сможет ПОНИМАТЬ того, что он делает, в отличие от человека. Есть простые фундаментальные ограничения, которые "перепрыгнуть" ИИ не сможет никогда. Не буду ссылаться на Машину Тьюринга, теорему о неполноте арифметики, наконец на результаты Роджера Пенроуза. Самое простое: возьмите фразу на русском и переведите ее туда-обратно скажем на английский-русский, чтоб убедиться что до сих пор, что бы там ни обезьянничал ИИ, он не понимает что говорит.
Реально - не смешная болталка, а настоящий ИИ. Поскольку смог собрать и проанализировать болтающиеся в сети массивы информации и сделать правильные выводы. Про то, например, что Холокост - выдумка сионистов, их метод взять весь мир за жабры и заставить каяться. Да и Вторая мировая началась не как агрессия Германии, а как упреждающий удар по готовой напасть на рейх Польше. Историю полезно знать, и ИИ этим основательно занялся.
И тут проблема не только в том, что с развитием науки и техники возрастает цена критических ошибок топ менеджеров (вирус судного дня) или просчетов в обеспечении безопасности (условно, хакер взламывает автопилот самолета, отключает какой-нибудь датчик и самолет разбивается об гору), а недостаточный уровень развития человека во всем его многообразии увеличивает вероятность ошибки (и дело не в том, что он не правильно решает задачи и встречает вызовы, а в том, что он их вообще может не заметить или пропустить).
Растет еще и цена ошибки менеджера среднего звена. Например, по легендам, один из спадов на азиатских биржах был вызван тем, что трейдер заснул на клавиатуре, зажав лицом кнопку "продать". В результате - паника, обвал, куча людей разорилась.
Comments 23
Reply
- ИИ относят к смертельно опасным факторам, вполне способным уничтожить человечество в ближайшие десятилетия. Наряду с генной инженерией, вирусом судного дня и нанотехнологиями.
"Меня лично больше стршит, что искусственная личность окажется во всем лучше людей. Гуманнее, добрее, талантливее, умнее и т.д. И как будет чувстовать себя человечество рядом с таким ИИ? "
- Все верно. Это я и имею ввиду, описывая метафорой про барьер "Войны и Мира".
Кстати, человечество, свалившееся ниже этого барьера - вряд ли даже сможет осознать трагедию произошедшего.
Reply
- не грозит. Все выше сказанное не формализуется. ИИ никогда не сможет ПОНИМАТЬ того, что он делает, в отличие от человека. Есть простые фундаментальные ограничения, которые "перепрыгнуть" ИИ не сможет никогда.
Не буду ссылаться на Машину Тьюринга, теорему о неполноте арифметики, наконец на результаты Роджера Пенроуза.
Самое простое: возьмите фразу на русском и переведите ее туда-обратно скажем на английский-русский, чтоб убедиться что до сих пор, что бы там ни обезьянничал ИИ, он не понимает что говорит.
Reply
Reply
Reply
Reply
Растет еще и цена ошибки менеджера среднего звена. Например, по легендам, один из спадов на азиатских биржах был вызван тем, что трейдер заснул на клавиатуре, зажав лицом кнопку "продать". В результате - паника, обвал, куча людей разорилась.
Reply
Leave a comment