Leave a comment

mikaprok January 6 2020, 11:28:53 UTC
В Вашем посыле сразу несколько вопросов, каждый из которых, если к ним относится подобающим образом, требует многостраничных рассуждений и погружения в историю вопроса.

Давайте начнем с технических пояснений.

Да, повсеместно вычислительные мощности используют для сбора и прогнозирования событий политико-социальной жизни с 70-х годов XX века (кое-где даже раньше).

Однако, КТО именно принимает решения, предлагаемые ИИ - задачка со звездочкой.

Рассуждают так: если мы имеем дело с т. н. простым ИИ (пИИ), то перед нами решатель сложной системы уравнений. Ничего мистического в нем нет. Если сложный ИИ (сИИ), то перед нами Бог, который дает указания, a priori призванные управлять нашими решениями.

«сИИ нас уже просчитал»

В голове рисуется такая схема с обратной связью:

пИИ → эксперт → сеть пИИ → сИИ

Она неверная, т. к.:
- никто не знает, где граница пИИ и сИИ. Интуитивная она понятна, но в момент потери контроля над объемом данных вы уже не понимаете, насколько рационально с человеческой точки зрения предлагаемое ИИ решение;
- никто не знает, насколько ИИ в курсе насущной потребности эксперта. А эта потребность совсем необязательно (а скорее всего не) связана с решаемой системой уравнений.

Забавно, тем не менее, обратить внимание не на эту частность, а на то, что до сих пор не существует стройного определения того, что называется интеллектом.

Если Вы поинтересуетесь вопросом, то поймете, что обыденные суждения об «уме» не выдерживает никакой критики.
Все игры с IQ по своему интересны, но к реальной жизни применимы лишь отчасти. И т. д. и т.п..

Это хорошо известные вещи, которые просто не грех было бы каждый раз подсвечивать в разговорах на подобные темы.

Если вернуться к практическим сторонам дела, то вот, что мы имеем.

Американцы известны тем, что они одни из первых попробовали автоматизированные решения в целом ряде индустрий и, разумеется, задолго до бума ИИ 2010-х :-) Получилось хорошо, но с любопытными особенностями. Если сложность задачи превосходит определенный предел, например, затрагивает социальные вопросы, то в 76-78% случаев решение по пятибалльной шкале будет на 3, в 10% случаев на 4, в 2% на 5, а в оставшихся 10-12% случаев ... его лучше принимать человеку во избежание трагедии, потому что определенные нюансы еще не могут быть полностью алгоритмизированы.

Отсюда вся эта возня с моральным выбором, этикой , т. е., грубо говоря, иррациональностью.

На ком ИИ с пользой можно испытать?
На маргиналах и … «военных преступниках».

Вовсю этим занимаются, как мы видим.

Давать поручения на уровне риска самоустранения в случае 10% ошибки ядерной катастрофы никто не будет, если только:
- мы говорим с пИИ, а не сИИ (см. ранее);
- кто-то не сделает сеть пИИ раньше и не активизирует ее на предоставленных мощностях.

Правда, в этом случае ядерной войны все равно не будет. Догадайтесь почему :-)

Reply


Leave a comment

Up