Технический руководитель проекта поинтересовался у меня, считаю ли я, что из-за ИИ человечество отупеет. Я ответил, что, конечно, так и будет. Точно так же, как собаки в процессе одомашнивания заметно "отупели" по сравнению с волками. Волчий ум и независимость не помогали, а мешали предкам собак устанавливать взаимовыгодные взаимоотношения с людьми
(
Read more... )
Есть мнение, что люди отупляются (иногда целенаправленно, путём физического выпиливания самых умных) сами об свою цивилизацию, даже без помощи ИИ. Как и те собаки.
Reply
Reply
П.С.: Книгу нашёл: Алекс Розов, "ХОМОЭВОЛЮЦИЯ. БИТВА С ДУРАКАМИ."
Reply
Он: - А можешь запилить такую-то фичу?
Я: - Давай техзадание, буду пилить.
Он открывает chatGPT, вбивает туда одно предложение, chatGPT начинает выплёвывать простыню. Он пообещал потом это техзадание вычитать и повесить в Конфлюэнсе. Вычитать - "потому что надо сохраять критичное мышление".
То есть, хотеть-то, допустим, будет по-прежнему человек. А вот понимать, чего человек хочет, уже будет ИИ. Тут тоже пойдёт отбор: наибольшую выгоду от системы будут получать люди, чьи желания ИИ способен угадать более или менее правильно.
Возможно, человеческие хотения можно будет со временем заменить генератором случайных сигналов.
Reply
Можно, конечно, но зачем? Кто и где для достижения каких-то своих целей поставит рандом вместо целеполагатора? Впрочем, открываешь какой-нибудь Ютуб - а он сразу предлагает: не хотите ли вот это посмотреть-послушать, это похоже на то, что вы раньше запускали. Можно не думать, а запускать рекомендации одном сплошным плейлистом. Впрочем, примерно за это и ненавидят Фейсбук, так что в целом подход потенциально верный, но надо правильно его применить.
Reply
Reply
Leave a comment