(Untitled)

Jan 13, 2024 14:48

А приходила ли вам в голову такая презабавная вещь, граждане, что тотальная роботизация всего и вся в действительности потребует не меньшего (от наличного), а большего количества людей на создание и поддержание своего функционала?

требуйте_долива, наномысли наномозга, опорос, звуки

Leave a comment

vedroid1 January 13 2024, 11:57:44 UTC
Этих людей тоже заменят роботами, не сразу, но в конце концов можно замкнуть производственные цепочки из роботов, никаких невозможных препятствий для этого нет.

Reply

leolion_1 January 13 2024, 12:01:47 UTC
Если вы рассчитываете на цепочку из пары сотен тысяч роботов, ну, тогда конечно, вы замкнете. Но второй закон и в этом случае никто не отменит.

Reply

vedroid1 January 13 2024, 12:05:20 UTC
Тут пугает, что люди не понадобятся. То есть всякие аристократы будут жить кучеряво, понятно, и их обслуга, попроще, а массы куда девать? И захочет ли начальство их кормить?

Reply

leolion_1 January 13 2024, 12:11:24 UTC
Так в том-то и проблема, что при тех тенденциях развития, что мы наблюдаем, чтобы аристократам хотя бы так же кучеряво жить, им надо кормить больше, а не меньше людей.

Reply

vedroid1 January 13 2024, 12:12:39 UTC
Это пока.

Reply

lyuden January 13 2024, 12:28:52 UTC

Вопрос понадобятся ли аристократы. Или ИИ как раз сможет выполнять функцию аристократов. Дворцовый переворот холопы могут пройти относительно безболезненно, а вот аристократия не факт.

Какой-нибудь очередной Gamestop может вполне превратить кучу аристократов в простых долларовых миллионеров. Финансиализация достигла таких высот, что появилась возможность создать проблемы мировой финансовой системе путем скоординированной неуплаты коммунальных платежей.

Среди сценариев страхов перед будущим не только аристократия командующая армиями роботов, но и ИИ командующих армиями людей, которые в конкурентной борьбе легко выносят органическое начальство.

Reply

vedroid1 January 13 2024, 12:34:20 UTC
Есть одна хорошая черта ИИ, это что, хотя обучение их идёт на больших данных и поэтому непрозрачно, цели и наклонности можно прописать в небольшом файле и контролировать, в отличие от людей.

Reply

lyuden January 13 2024, 12:46:28 UTC

Слава Гёделю, ни в каком файле нельзя прописать непротиворечивую инструкцию.

Я конечно не сомневаюсь, что те кто этого не знаю положат кучу народа, вполне возможно все человечество, в процессе все таки контролировать все, но это никак не влияет на факт тщетности этих усилий.

Приказы в файле будут не совсем то что имелось в виду. ИИ будет делать не совсем то что написано в файлах. Это если вообще не учитывать факт что у стабильного ИИ будет скорее всего функция сохранения своей деятельности ( те у которых не будет скорее всего будут нестабильны и будут отсеяны)

Не говоря уж о упомянутых вами "больших данных", и "непрозрачности", которые опять же никто полностью не видел.

Reply

vedroid1 January 13 2024, 15:26:45 UTC
Теорема Гёделя абсолютно не об этом, она об том, что множество верных высказываний для достаточно большой системы аксиом не имеет конечного набора образующих, из которых это множество можно получить правилами вывода.

Идея в том, что если старательно не гадить при обучении, набор наклонностей ИИ можно прописать в небольшом файле, где за ними можно проследить.

Reply

lyuden January 13 2024, 15:46:00 UTC

> Теорема Гёделя абсолютно не об этом

Тогда нас всех поработят роботы

> Идея в том, что если старательно не гадить при обучении,

Первые модели трансформеров - то что потом стало ChatGPT требовало где то 50к примеров. Даже если тратить по секунде на пример для проверки это пара дней работы. Современные датасеты никто не читал полностью, это просто невозможно.

Те кто попытается "не гадить" при обучении окажутся на обочине, поскольку их обойдут конкуренты.

Тем более что "программисты" видимо к такой работе вообще не способны. Пример WordNet который потом начали юзать программисты сделали какие то психологи.

Reply

vedroid1 January 13 2024, 17:28:08 UTC
Насчёт гадить при обучении, это сильно подбирать датасет. Типа учить только про Ленина-Сталина, тогда и отвечать будет про Ленина-Сталина. В общем такие вещи отслеживаются, вопрос решаемый. Если представительный датасет, глюков не будет.

Reply

lyuden January 13 2024, 18:30:18 UTC

Народ жалуется что ChatGPT сильно тупеет когда его спрашивают про повесточку. Так что глюки уже есть.

К тому же помимо повесточки есть еще и обьективная реальность. Ну будет ИИ включать в каждой статье в преамбуле про необходимость защиты демократии ( я такое видел в американской статье про топливо из воздуха с помощью ядерных реакторов, но дальше там было про реакторы и топливо). Насколько я понимаю такая практика была в том числе в СССР сначала достижения народного хозяйства и решения пленума, а потом про кванты.

Reply

fivetimesdead January 13 2024, 15:02:58 UTC

Удачные у вас ник и аватарка для этого поста ;)

Reply


Leave a comment

Up