Кибервраль вместо киберпанка - или еще раз о конце "информационной эры"

Apr 01, 2023 12:18

По наводке  Александра Розова узнал прекрасное. А именно: оказывается множество IT-специалистов - включая такие фигуры, как Илон Маск и Стив Возник - а так же представителей науки и образования написали письмо  с просьбой остановить на время развитие пресловутого AI. (Как там сказано: сделать паузу на 6 месяцев.) Для того, чтобы - как это декларируется в большинстве источников - оценить все угрозы, которые данное направление может принести в наш мир.

Тут сразу же вспоминаешь то ли "Матрицу", то ли вообще "Скайнет" из "Терминатора". (В смысле: вот chatGPT разовьется во ЧТО-ТО, и пойдет убивать всех человеков.) Но на самом деле, конечно, все много проще: все эти деятели - ученые, инженеры, бизнесмены - имеют в виду совершенно иную опасность. О которой прекрасно сказано в письме - разумеется, несколько завуалировано и "замаскировано" той же "заботой" о "потенциально сокращаемых работниках" и т.п. элементами массовой культуры. Но это не суть важно: когда это люди, начинавшие часто, как пресловутые "стартаперы", заботились о народных массах. Нет, в реальности испугало их иное.

Вот это: "...мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?". Именно ради этой опасности и предлагается "приостановить развитие", а в это самое время разработать "...системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации..." ну и т.п. А уж после того, как подобные системы будут созданы, указанного "кракена" можно будет снова выпустить на волю.

Проще говоря: современные представители техническо-научной элиты испугались того, что потеряют "информационную адекватность" по отношению к текущему миру. Именно "представители элиты", поскольку народные массы находятся в "информационно неадекватном состоянии" давно. (Как минимум, лет тридцать, хотя там еще Марк Твен о чем-то подобном писал...) Но это как раз казалось неопасным - и даже удобным для элитариев. Ну да: пока народ "ковыряется" в огромной куче "информационного дерьма", тщательно набрасываемого ему разнообразными СМИ - пытаясь найти редкие зерна правды - то его можно считать полностью управляемым и совершенно неспособным к катастрофическим для элиты действиям. (На самом деле, кстати - совершенно напрасно. Но об этом будет чуть ниже.)

А вот сами "вершители судеб" должны были, наоборот, получать чистую правду. Ну, разумеется, с учетом того, где они "вершат". Например, для "специалистов по IT" эта "зона правды" должна существовать в области computer science, финансисты должны иметь минимум вранья в области биржевых котировок (как!!!!), медицинские чиновники должны не обманываться в плане эффективности лекарств, ну и т.д., и т.п. (Проще сказать: в той области, где элитарий управляет, он должен знать правду.) Ну, а "вершина элиты" - вроде президентов и министров - должна, вообще, "не пересекаться" с ложью.

Понятно, что создать подобную систему нелегко, в особенности при учете того, что - как сказано выше - народ-то "кормят" исключительно информационным дерьмом. Поэтому современный западный мир создал многоуровневую и крайне дорогостоящую "систему контроля и сертификации информации": всех этих "экспертов", разнообразные "лицензируемые" рейтинговые агентства, огромное количество "проверок и перепроверок", помощников и рецензентов - ну и т.д., и т.п. Разумеется, эффективность этой системы не слишком высока, однако определенный "градиент" соотношения "правда/ложь" по отношению к "общенародному состоянию" она, все же, создает.

Точнее, создавала до недавнего времени. До того момента, как была запущена "массовая интернетизация" - она же пресловутый не к ночи помянутый Web 2.0 - который, по существу, открыл "эпоху постправды". Дело в том, что идея о возможности "массовой генерации информационных сообщений" - то есть, о мире, в котором информацию "создают" не только ограниченное количество СМИ, но множество "независимых блогеров" - должна была привести к увеличению "мощности информационных потоков" в миллионы раз. И привело.

В подобной ситуации надеяться на то, что разнообразные "эксперты" сумеют разобраться в том, что верно, а что - ошибочно - оказалось невозможным. (Даже если принять, что эксперты реально разбираются в ситуации, то все равно, им не хватит времени. При том, что "реально разбираться" в условиях "информационного потопа" стало так же проблематично: рост потребного числа "экспертов" опережает возможности их адекватной подготовки.) Поэтому единственно разумным вариантом тут было бы прямой отказ от "приема" большей части "инфопотока" - проще говоря, отказаться от той же "интернетной информации" вообще. (Скажем, текущий российский режим старается следовать именно этой стратегии: "не читает Интернет".)

Проблемы тут две. Во-первых, сама идея "информационного отказа" слишком революционна для человека: в течении тысяч лет он жил в условиях "информационного дефицита", и поэтому не привык к подобным вещам. Ну, а во-вторых, даже если кто - как тот же Путин - решится это сделать, то сразу же превратиться в объект для критики. (Дескать, "в Интернете вся правда, и ее надо знать".) Понятно, что это - совершенно бредовое высказывание, но деваться от него некуда: в условиях "демократического общества" приходится "соответствовать уровню масс". (Ну да: змея укусила свой хвост - в том смысле, что длительное "заваливание инфодерьмом" вернулось для элиты.

Отсюда проистекают все эти мечты о Big Data - то есть, об автоматизированных способах работы с информационными потоками, которые, по идее, могли бы справиться с текущей ситуацией. Ну, и AI, по существу, отсюда же. (На самом деле эти самые "искусственные интеллекты" планировались именно как "универсальные фильтраторы", способные "вытащить" сверхредкие жемчужины истины из "кучи" того самого, чем "кормят народ".)

И вот тут оказалось, что змея свой хвост не просто укусила - но и заглотила почти по самую голову, да и вообще, начала уже активно переваривать. В том смысле, что - как уже было неоднократно сказано - пресловутый ИИ вместо того, чтобы заниматься "поиском истины", начал... ее "производить". На самом деле, кстати, это было бы ожидаемо - если бы уже указанные "специалисты по IT" имели бы минимальную философскую подготовку. В том смысле, что "нейросети" изначально основывались на поиске наиболее "экономичного" пути решения задач. А если "экономичнее" придумывать нужную потребителю информацию, нежели искать ее, то... ну, в общем, вы поняли.

Поэтому, фактически, эта самая "бигдата", совмещенная с ИИ, еще больше - на много порядков - ухудшила ситуацию. Настолько ухудшила, что даже те, кто еще вчера "топил" за указанное решение, оказался в растерянности перед тем, что делать дальше. А делать что-то нужно: во-первых, если оставить "все, как есть", то множество (возможно, миллионы) "нейросетей" буквально завалят информационное пространство "нужной информацией", причем, так, что определить: какая из них "сгенерированная", а какая "реальная", окажется вообще невозможным. (При том, что эта самая "реальная" на деле так же не равна истинной, просто ее "придумал человек, а не робот".) Ну, а во-вторых, даже если - каким-то образом - запретить все "нейрочаты", то все равно придется оставаться один на один с той мегамассой терабайтов, что генерируются сейчас.

Но и это еще не самое неприятное. Самое неприятное то, что указанные "IT-визионерами" меры - вроде обязательной "цифровой подписи" для создаваемого AI контента ("сделано роботами") - даже если и будут введены, то вряд ли уже чего изменят. Потому, что, во-первых, если для картинок и "больших статей" что-то подобное еще возможно, то для основной массы "коротких текстов это вряд ли подойдет. Ну, а во-вторых, потому, что гарантировать "обязательное использование" подобных вещей так же никто не решиться. (И вообще, кто будет "сертифицировать сертификаторов"?)

Так что можно сказать: "конец информационной эры" не за горами. Скорее наоборот: он уже, по существу, наступил, и время думать о "постинфомационных технологиях". Но понятно, что о последнем надо говорить уже отдельно. Равно как отдельно надо говорить и о том, можно ли удержаться в рамках "информационной эпохи" и как. (Проспойлерю: тому же Ким Чен Ыну это удается прекрасно, и не только ему.)

P.S. А вообще забавно: из всей массы "описаний опасностей ИИ", которые в массе генерируются (!) в Сети, указанная опасность мало кого вообще волнует. (Нет, все бояться "Скайнета" с его "убийством всех человеков" и прочих "электронных диктаторов".) Хотя тот же Лем прекрасно указывал на нее еще полвека назад. Если честно, то существуй бы хоть какая-то вероятность создания "реального искусственного интеллекта" в мире, то данный момент мог бы служить прекрасной иллюстрацией именно его поведения. В смысле - создания "ложной опасности", на которую бы были брошены все силы, в то время, как реально главная проблема состоит в другом.

Впрочем, как уже неоднократно говорилось, ожидать "реальный искусственный разум" на текущем уровне развития так же глупо, как ожидать то же реальное бессмертие.

техникогуманитарный баланс

Previous post Next post
Up