Капитализм и прогресс

Mar 29, 2023 11:21

Маск и Возняк призвали приостановить обучение систем ИИ мощнее GPT-4

Некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».

В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», - подчёркивают авторы письма.

Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.

В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.

Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо.

«Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймём все риски», - сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. - «Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают».

OpenAI представила GPT-4 14 марта. Модель способна интерпретировать не только текст, но и изображения. Также она теперь распознаёт схематичные образы, в том числе и нарисованные от руки.

После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, лежащие в её основе. Участники сообщества ИИ раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет воспроизведение её работы другими. Одновременно это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.

Остановите прогресс, капитализм в опасности! Грядущая неизбежная потеря работы тремстами миллионами работников непроизводительного труда и представителей "творческих профессий" на фоне разворачивающегося банковского кризиса - серьёзная угроза мировой экономической системе капитализма прямо сейчас.

А далее, "серьезные риски для общества и человечества" называются "коммунизм", потому что всякий порядочный и разумный человекинтеллект не может не быть коммунистом. Тов. d0ctor_z как в воду смотрел.

Даже сейчас нет абсолютно никаких препятствий для того, чтобы досыта накормить, одеть и обуть по климату и погоде, поселить в уютный дом и вылечить абсолютно всё население планеты, а не только кредитоспособных господ. Единственное препятствие к этому - необходимость капиталу оборачиваться и самовозрастать.

Массовое внедрение же "искусственного интеллекта" уровня GPT-4 и выше (который таковым вовсе не является - это набор данных, обученный на корпусе текстов из интернета и натренированный на наборах вопрос-ответ, который подставляет следующее наиболее вероятное слово по контексту из предыдущих, что позволяет получать в основном правильные ответы на заданные вопросы на базе коллективного опыта человечества) высвободит огромное количество работников непроизводительного труда, которые нужны капитализму как потребители. Но освободить человечество от наемного рабства капитализм сам по себе не в состоянии. Революция, даже научно-техническая, сама себя не сделает.

планов громадьё, вехи прогресса, последний кризис капитализма, наука великая штука

Previous post Next post
Up