MIT обнаружил. что ИИ - это всего лишь программа

Dec 23, 2021 17:25

MIT обнаружил серьезную проблему машинного обучения

Несмотря на все возможности нейронных сетей, мы до сих пор не понимаем, как они работают. Конечно, мы можем запрограммировать их на обучение, но понимание процесса принятия решений машиной остается во многом похожей на головоломку.

Например, если модель пытается классифицировать какое-то изображение, она может столкнуться с проблемами идентификации. Однако, недавно ученые из Массачусетского технологического института (MIT) обнаружили еще одну проблему нейронных сетей, которая вызывает беспокойство: «чрезмерная интерпретация», когда алгоритмы делают уверенные прогнозы на основе деталей, которые не имеют смысла для людей, таких как случайные узоры или помехи на изображении.



Иллюстрация pixabay


Это может быть особенно тревожным в таких условиях, как мгновенные решения для беспилотных автомобилей и медицинская диагностика заболеваний, требующих более неотложного внимания. В частности, автономные транспортные средства в значительной степени полагаются на системы, которые могут точно понимать окружающую обстановку и затем принимать быстрые и безопасные решения.

Сеть использовала изображения местности и узоры неба для для того, чтобы принимать решения. Команда обнаружила, что нейронные сети, обученные на популярных наборах данных, таких как CIFAR-10 и ImageNet, подвержены чрезмерной интерпретации. Например, модели, обученные на CIFAR-10, давали уверенные прогнозы даже тогда, когда 95 процентов входных изображений отсутствовали.

«Излишняя интерпретация - это проблема набора данных, вызванная этими бессмысленными сигналами в наборах данных. Эти изображения с высокой степенью достоверности не только неузнаваемы, но и содержат менее 10 процентов исходного изображения в несущественных областях, которые не имеют значения для людей. Но модели все же могут классифицировать их с высокой степенью уверенности», - говорит Брэндон Картер, аспирант Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института и автор исследования.

Помимо медицинской диагностики и технологий автономных транспортных средств, существуют варианты использования нейронных сетей в области безопасности и военных технологиях, которые могут принять решения основываясь на обработке отдельных элементов окружающего мира, чтобы принять неправильное решение.

Классифицировать изображения сложно, потому что модели машинного обучения способны улавливать эти бессмысленные тонкие сигналы. Затем, когда классификаторы изображений обучаются на наборах данных, таких как ImageNet, они могут делать кажущиеся надежными прогнозы на основе бессмысленных сигналов.

Эти бессмысленные, с точки зрения людей, сигналы могут привести к катастрофическим последствиям в реальном мире. Возникает вопрос, как мы можем изменить наборы данных и их интерпретацию алгоритмами таким образом, чтобы модели могли быть обучены более точно имитировать то, что человек думает о классификации изображений, и, следовательно, лучше обрабатывать сигналы в реальных сценариях, таких как, автономное вождение или медицинская диагностика?

Это может означать создание наборов данных в более контролируемых средах. Однако, вопрос остается открытым, а это означает, что идентификация объектов нейронными сетями, должна включать обучение с объектами неинформативного фона.

ARI

Искусственный интеллект, Наука и техника, Цифровизация

Previous post Next post
Up