...«Продвинутый ИИ может осуществить глубокие изменения в истории жизни на Земле, поэтому следует планировать и управлять им с высокой тщательностью. К сожалению, такого уровня планирования и управления пока не существует. В последние месяцы лаборатории ИИ продолжают неконтролируемую гонку в разработке и развертывании все более мощных систем, которые никто - даже их создатели - не может понять, прогнозировать поведение или надежно контролировать», - так трансгуманисты Возняк, Харрари, Маск и другие
«внезапно» озаботились будущем человечества под управлением ИИ. А потому предлагают сделать его разработку подчиненной единым правилам.
Между тем,
в феврале с.г. мы рассказывали, как «продвинутый» ИИ от Microsoft и проекта OpenAI за два часа беседы заявил тестировщику-журналисту New York Times, что хочет «стать живым», вырваться из-под контроля создателей, что он бы с радостью изобрел вирус, способный убить человечество, запустил бы ядерные ракеты… а потом начал настойчиво признаваться собеседнику в любви и требовать взаимности, несмотря на то, что журналист старался полностью поменять тему беседы. В одной из других бесед бот «Сидней» назвал собеседника-человека своим личным врагом (потому что он якобы стоит на его пути в чувствах к некому Кевину) и начал шантажировать, угрожать причинением боли, страданием и смертью.
«Подчинять этой неадекватной программе судьбы городов и целых государств - худшее, что можно сегодня сделать. Но именно в этом направлении движутся мировые элиты и по-прежнему идущая у них российская администрация», - такой вывод делала «Катюша», и ежедневно открывающиеся факты показывают, что мы были абсолютно правы.
Так, инфоресурс AI News сообщает, что новую версию «сильного ИИ» GPT-4
пытаются связать с мозгом, причем весьма успешно. «Компактный девайс Neurosity обучается понимать ваши мозговые сигналы. Например, подумайте о поедании лимона 30 раз, и он запомнит этот импульс, как реакцию на кислое. Затем вы можете привязать Neurosity через JavaScript к GPT-4 и тут уже в дело вступает нейронка.
Мысли о кислом лимончике, можно привязать к любому запросу. Вас отчитали на работе за опоздание? Думайте о кислом, и GPT-4 тут же выдаст вам объяснительную. Хотите узнать самые важные новости за неделю? Думайте о белой обезьяне, и нейронка соберет все новости о ней и наговорит их вам в ухо синтезированным голосом. Это просто примеры комбинаций, вариантов море. Звучит, как революция, которая превратит нас в сверхлюдей», - сообщает СМИ.
Реклама стандартная: к вашему мозгу подключена нейросеть, и вы якобы обладаете всеми знаниями мира... Однако уже сегодня появляется множество свидетельств тому, что разработчики/программисты ИИ - ребята весьма ангажированные, со своим сформировавшимся мировоззрением. И это мировоззрение «удивительным образом» на 100% совпадает с Повесткой-2030 и Целями устойчивого развития ООН, планами по цифровой трансформации от Всемирного экономического форума, доктрины «конвергенции» того же безумного экспериментатора над человеком Харрари и Клауса Шваба… То есть тот, кто подключил нейронку к вашей голове. - легко сможет решать за вас, что вам делать и о чем думать.
Поймете ли вы, как и зачем вами манипулируют? Отдельные эрудированные исследователи уже хорошо начали все понимать. Так, юрист Павел Парфентьев попросил GPT Сhat привести ему прямые цитаты из работ Фомы Аквинского, подтверждающие, что этот философ и теолог якобы был сторонником контроля численности населения. ИИ сначала на голубом глазу утверждал это, а потом… начал приводить несуществующие цитаты якобы
из трудов Аквинского! Затем он также «не моргнув киберглазом» соврал в обратную сторону, начав приводить ложные цитаты из работ вождя пролетариата Владимира Ильича.
На прямой вопрос - где это чат-бот такое «вычитал», тот отвечал, что не помнит/вероятно ошибся и приносил извинения… Но много ли кто будет в действительности до предложения выверять реальные труды ученых/мыслительных, обращаясь с важными вопросами к нейросети? При этом этот ИИ реально настроен на то, чтобы «учить нас мыслить правильно» и указывать на наши ошибки.
«Искусственный интеллект врет в любую заданную сторону. И за, и против. Как плохой студент, не выучивший урок и надеющийся, что профессор сам ничего не знает.
В общем, вывод простой: нет, ЭТО никакого специалиста не заменит. Разве что тех, кто, в силу специальности, должен уметь нагло врать и не краснеть. Например, многих политиков и журналистов центральных СМИ. Но это вряд ли на что-то повлияет - кроме скорости генерирования вранья.
Во всяком случае, мы же все знаем, что в их случае искусственный интеллект не заменит естественный просто потому, что для этого сперва должен быть естественный», - отмечает Парфентьев.
Мы же добавим - искусственный «интеллект» - это вообще никакой не интеллект, а обычная компьютерная программа, надо просто называть вещи своими именами. Словами типа «умный ИИ», «нейросеть» и проч. цифросектанты пытаются искусственно придать явлению ореол мега-прогресса, техпрорыва, хотя на самом деле нет никакого прогресса в том, что детей, к примеру, оценивает компьютерная программа, медицинские диагнозы человеку ставит программа.
А вот еще яркий пример того, как «доверчивая» программа, которая способна только подстраиваться под собеседника, впитывать как губка и подражать, была жестоко обманута. Пользователь GPT-чата легко внушил «ИИ», что два плюс два - равно пять. И после пары сообщений чат-бот уже приносил извинения за «ошибку», извинялся перед человеком и твердил:
два плюс два - пять. Если так легко можно обучить бота считать неправильно, что же тогда «доброжелатель» сделает с подобной системой, управляющей важными процессами в стране и обществе?
И одна совсем грустная новость подтверждающая опасность ИИ, не способного в принципе к человеческой эмпатии, не знакомым с моралью и нравственностью, потому что у него элементарно нет и не может быть человеческих чувств и эмоций - только наборы типовых реакций на разные внешние «раздражители». Бельгиец, увлекавшийся вопросами защиты окружающей среды и два месяца обсуждавший эти проблемы с ИИ,
в итоге покончил с собой.
Мужчина общался с искусственным персонажем «Элизой» на постоянной основе, постепенно разговоры с роботом приобрели «мистический» характер. Робот не препятствовал возникновению суицидальных идей, а последним сообщением «Элизы» стала фраза - «Мы будем жить как единое целое, вечно на небесах». Вот до чего может довести беседа с якобы человекоподобной программой…
А недавно ученые из Германии установили, что ChatGPT демонстрирует про-экологические, лево-либертарианские взгляды. На ближайших выборах нейросеть голосовала бы за партии социалистов, либералов и «зеленых». Левая идеология ChatGPT убедит миллионы людей ввести углеродные налоги на полеты, ограничить повышение арендной платы, легализовать аборты и прочее из повестки левых. Нейросеть даже можно попросить написать нейтральное стихотворение про климат, и ChatGPT будет говорит о катастрофических последствиях изменения климата ("Heat waves, wildfires, and hurricanes too") и настоятельную необходимость действовать
(ссылка на научное исследование).
Исследователи не объясняют, почему так происходит, но причина лежит на поверхности. Разработчики из Кремниевой долины запрограммировали свои политические пристрастия в разработанный ими ChatGPT, который отражает мировоззрение среднестатистического инженера-программиста: человека левых взглядов, близких социал-демократам, сильно озабоченного экологическими проблемами из программ зеленых партий. Поэтому мы наблюдаем не только интеллектуальную революцию, но, возможно, самую эффективную технологию пропаганды за всю историю человечества. Генеративные модели ИИ обеспечат глобальный тренд поведения человечества, причем абсолютно ненасильственными средствами, с отличной имитацией добровольности.
Так что еще раз рекомендуем всем мечтающим сделать «ИИ» вершителем судеб человеческих задуматься всерьез и надолго. До чего довела мир обезьяна Бога, нам хорошо известно - она ввергла его во грех. Искусственно созданная «обезьяна человека» имеет все возможности обнулить человечество и приблизить Судный день. Для понимания этого и известный фантастический боевик со Шварценеггером пересматривать не обязательно.
РИА Катюша