Несколько неочевидных штрихов по рискам, связанным с искуственным интеллектом

Nov 04, 2023 19:11

Доклад был опубликован мной 1 октября 2023 года в закрытом сообществе "Основания". Сообразно правилам сообщества и принятой практике, я использую свое право опубликовать его открыто в своем журнале (с учетом, что обсуждение доклада внутри сообщества уже завершено ( Read more... )

Философия, Дивный Новый Мир, Факультет ненужных вещей, Архетипы, Мыслители, Экономикус, Семинар, Китайские предупреждения, Экстерминатус, Красиво жить не запретишь

Leave a comment

dumendil November 5 2023, 18:48:11 UTC

У меня тоже в работе есть элементы слабого ИИ. Но это уже мы в сторону ушли. Дело же не в том, что ИИ не справляется, а совсем наоборот, он слишком хорошо справляется. Так что возникает искушение всё на него и переложить. :) И, кстати, напомню о том, что внедрение в авиации автопилота способного к автоматической посадке, привело, через некоторое время к росту аварийности при посадках, хотя он делал это лучше людей. Причину быстро нашли и вовсе не в автопилоте, а в пилотах. :)

Попробую сформулировать покороче: В случае полной замены инструмента уровня L (ЕИ) на инструмент уровня L+1 (ИИ), при утере, по какой-то причине функциональности L+1, откат на уровень L обойдётся (сверху) во столько же (времени/ресурсов) сколько и подъём с L-1 до L.

В доказательство того, что функциональность может теряться и в давно используемых инструментах, напомню, что 30-ти летние баги в библиотеках обнаруживаются до сих пор. А уж та эпическая история с исправлением функции strcpy в glibc, когда на месяц с лишним перестали работать кучи программ, причём довольно крупных и весьма инфраструктурных... пришлось резко замораживать все обновления, но всё равно где-то что-то упало. Вобщем от обнаружения фатального дефекта в ИИ в будущем мы не застрахованны. По последствиям это вполне может быть фатально. Особенно, если люди забудут как это можно делать без ИИ (см. аналогию между извозчиками и таксистами, она именно про это).

Reply

whiteferz November 6 2023, 06:03:33 UTC
Да, Вы весьма убедительны. Вне зависимости от характера возможной реализации (глобальная или очаговая), указанный Вами риск достоин включения в перечень.

Для этого желательно придумать ему лаконичную, но наглядную формулировку - предлагайте, если есть.

Reply

dumendil November 6 2023, 12:50:33 UTC

Долго думал. :)

"Синдром отмены" - После успешного полного внедрения ИИ в какую-то область, обнаруженная внутренняя проблема с ИИ или проблема появившеяся вследствие изменения условий, может отбросить всю область и связанные с ней области на пару уровней развития технологии назад.

Reply

whiteferz November 6 2023, 12:56:21 UTC
Супер. Отлично-меметично. Возьму во вторую серию доклада.

Reply

dumendil November 6 2023, 14:28:17 UTC

Ещё подумал, что это, конечно, применимо к любой технологии или инструменту. Но ИИ тут уникален тем, что он заменяет сразу группу инструментов, а не какой-то один. Так что эффект от его отмены будет больше.

Reply

whiteferz November 6 2023, 14:43:11 UTC
Да, несравнимо.

Reply


Leave a comment

Up