Нейросети неправильно генерируют изображения из-за обучения на поврежденных, "шумных" данных,
рассказал РИА Новости директор по искусственному интеллекту и цифровым продуктам "Билайна" Константин Романов.
Одна из самых известных таких ошибок - некорректная генерация рук нейросетью Midjourney. Проблема еще и в том, что при использовании ошибочных данных последующие модели, обучающиеся на них, считают их релевантными, отметил эксперт, то есть ошибка накапливается.
И если при личном пользовании это не ведет к чему-то плохому, то, например, в медицине при описании диагноза проблема может стоить человеку жизни. Возможный выход - контроль исходных данных экспертами, отметил Романов.
==
Странно, что это озвучивают только сейчас. По-моему, это очевидный минус - нейросети не только обучаются, но и генерирует контент, на котором потом сами же и обучаются :)
Для получения чего-либо стоящего нужна цензура/модерация источников, но и тут проблема - модерация рано или поздно будет идеологизироваться, как произошло с той же википедией, в результате чего точной, правдивой информации там становится всё меньше.
В общем, в конце концов нейросети засрут информационное пространство своей безграмотностью и брехнёй и станет только хуже. При том, что идеи и википедии, и нейросетей сами по себе великолепны.
PS Простейший пример: однажды я увидел, как мой знакомый работал в ворде: после набора текста он громко смелся на тему "какой компьютер тупой" и вносил слова, подчёркнутые красным, в словарь, в результате чего они переставали быть неправильными :)