Искусственный Интеллект (ИИ, он же AI - Artificial Intelligence) сегодня это одно из самых «модных» словечек в СМИ. Мне кажется, что в этом смысле ИИ уже потеснил даже «нанотехнологии». Слов нет, ИИ, как научное направление и его практические приложения, развивается стремительно. И потенциал ИИ кажется огромным, даже пугающим. Но не переоцениваем
(
Read more... )
Comments 39
На мой взгляд, проблема использования ИИ в таких делах состоит в том, что он должен обучаться постоянно, и ему так же постоянно надо подавать для этого материал в том же объёме, что и врачу-диагносту. А не просто дать одни только снимки и решить, что на этом всё. У врача, может, возможности памяти поменьше, но при этом больше органов чувств, которые тоже используются для диагностики и также самообучения. И объём данных соответственно больше и шире.
Reply
Эти системы делаются иначе. Прежде всего необходимо иметь максимально полную, структурированною и верифицированную информацию по индивидуальным случаям. Этот массив используется для обучения ИИ системы. Далее необходимы абсолютно независимые от первого массивы информации, на которых «обученный» алгоритм тестируется. В идеале результаты тестирования на разных независимых тестирующих выборках должны воспроизводится.
Reply
Не вполне понятно, что значит "независимый". Если просто единую базу данных разделили, часть использовали на обучение, а часть для контроля, то вопрос в пропорциях. При достаточно большой доле, оставленной для контроля, велика вероятность, что уникальные случаи не попадут в обучение.
Если мы берем обучаемые системы, то в конечном итоге любой алгоритм сводится к сравнению тем или иным образом с примерами, присутствовавшими в обучающей выборке. В силу естественного разброса есть случаи очень типичные, а есть уникальные. Если естественный разброс велик, то уникальные случаи нельзя выкидывать из обучения даже при контроле. У системы просто дыра будет в данной области, а нейросети результат все равно выдают. За что я их и не люблю.
Reply
Каждый человек имеет свой набор болячек, который строго индивидуален. Подгонять всех под единый стандарт - нонсенс! Это у мышей в лаборатории, которые выросли в стерильных условиях, могут быть одинаковые симптомы. А у Хомо Сапиенс - всё гораздо сложнее. ;)
Reply
если тестировать алгоритмы-победители, не на полном оригинальном наборе данных, а на выборках из него, то точность диагностики понизилась до 60-70%, а то и до 50%.
Тут есть вот какой вопрос. Текущая цель ИИ ведь не в том, чтобы решить абсолютно точно абсолютно все задачи. Ясное дело, в настоящее время это недостижимо. А текущая практическая цель скромнее: улучшить результаты интеллекта естественного при решении тех же задач. И тут надобно на тех же выборках сравнить результаты диагностики средних врачей-специалистов по этому виду рака с работой ИИ
Такое делалось?
Reply
Это как в байке про ИИ, обученный распознавать танк на снимках: при тестировании на наборе для обучения - 100%, на реальных снимках внезапно провал. Оказалось, тестовые снимки с танком были в солнечный день, без танка - в пасмурный. И ИИ научился определять не танк, а пасмурно или солнечно.
Reply
А смысл?
Посыл поста в его заглавии
Reply
А текущая практическая цель скромнее: улучшить результаты интеллекта естественного при решении тех же задач.
В большей степени «текущей практической целью» медицинских применений ИИ является резкое повышение производительности и нивелирования последствий значительной вариабельности в квалификации врачей, принимающих диагностические/терапевтические решения
Надобно на тех же выборках сравнить результаты диагностики средних врачей-специалистов по этому виду рака с работой ИИ
Думаю, это делалось. Но это не моя область и, навскидку, конкретные результаты я привести не могу.
Reply
Новые знания не рожают. Их получают от опыта, часто случайного.
Reply
У меня «рождать», а не рожать. Рожать - "производить на свет ребенка". Рождать - употребляется исключительно в образном смысле ("генерировать", "давать начало"). Взятие слова в кавычки это подчёркивает
Reply
Там не написано какого типа алгоритмы использованы. Я не люблю нейронные сети за то, что они что-то выдают в ситуациях, находящихся далеко в пространстве признаков от обучающей выборки , вместо того, чтобы честно сказать, что вышли за пределы компетенции.
Reply
Там это где? Вы ознакомились со статьями, которые цитируются в этой заметке?
Reply
Алгоритмы они к сожалению подробно не описывают, но работе со снимками обычно обучают нейронные сети. Для сепсиса может быть и другие используются. Байесовские алгоритмы и экспертные системы и обычно дают более приличные результаты в области своей компетенции, но трудоемки в части построения. Кроме того они слишком часто говорят "не знаю". Это производит плохое впечатление.
Reply
Leave a comment