Мыльный пузырь LLM (БЯМ, Больших Языковых Моделей)

May 27, 2024 11:17



"Есть две критические и пока неразрешимые проблемы на архитектурном уровне самих моделей ГИИ (Генеративного Искусственного Интеллекта ).

Первое - нет вшитого контроля верификации выходных данных и корректности интерпретации. Другими словами, ГИИ не способен оценивать корректности и адекватность сгенерированного контента, нет встроенного критерия истинности.

Современные модели ГИИ не обладают критическим мышлением и верификатором результатов, что в контексте работы LLM означает: выявление логических связей и противоречий, оценка аргументов и доказательств, анализ данных и источников, адаптация выходного результата в контекст условий.

Доступные на сегодняшний день LLM:

•  Не проверяют достоверность источников информации и не различают надежные данные от ненадежных.
•  Не способны самостоятельно выявлять логические ошибки или противоречия в своих ответах.
•  Не могут критически оценивать представленные аргументы и доказательства.
•  Не могут адекватно адаптировать свои ответы к специфическим условиям или контексту задачи.

LLM обучаются на сверх больших массивах данных, изначальная достоверность которых под сомнением, и в этом наборе информационного мусора происходит компрессия данных и определение весов.

Те данные, на которых были обучены LLM изначально могут содержать ошибки, предвзятость и недостоверную информацию, а следовательно обучение часто строиться на ложных сведениях.

В некотором смысле веса в больших языковых моделях (LLM) определяют иерархию интерпретации информации, позволяя модели распознавать иерархические и контекстуальные зависимости в данных. Иначе говоря, веса определяют меру связанности информационных блоков, как одна часть информации влияет на другую часть информации.

Что это означает на практике? LLM крайне неэффективны в разработке инновационных смысловых конструкций и интерпретации изначально противоречивой информации, производя сложные многоуровневые оценки факторов, обстоятельств и зависимостей.

ГИИ могут быть эффективны в интерпретации общепризнанных наиболее популярных фактов регулярного характера, но не способы выстраивать иерархию приоритетов и многоуровневую композицию факторов риска в неоднозначном и неструктурированном наборе данных, вектор распределения которых не прогнозируем.

Следовательно, сложная аналитика процессов и событий не подвластна ГИИ, поэтому в ГИИ нет интеллекта в широком понимании. Это высоко эрудированная система, которая достаточно тупа в понимании связей и зависимостей сложных систем, а социология, психология, политология, экономика - это как раз те области, где нет жесткой структуризации данных и нет однозначности в интерпретации.

Можно формализовать математику или физику (здесь ГИИ в перспективе 3-5 лет может добиться успехов), но нельзя формализовать мотивы и действия социума, поэтому ГИИ не может управлять бизнес-процессами, не может прогнозировать и оценивать все те области, где задействован человек (финансы, экономика, социология, политика и т.д.).

К чему это приводит? ГИИ генерируют огромное количество контента, который на прикладных задачах практически невозможно применять из-за отсутствия достоверности.

В идеале система должна работать, как низко уровневая программа в процессоре, где повторение опытов всегда дает один и тот же результат - есть однозначность и прогнозируемость. В ГИИ слишком широкий диапазон допусков.

В итоге время и ресурсы на проверку результатов работы ГИИ превосходят любую потенциальную выгоду. Проще говоря, ГИИ слишком завораживающе фейкометят, чтобы использовать их в серьезных исследованиях и бизнес-процессах.

Низкая достоверность выходного контента вшита на уровне архитектуры LLM, поэтому проблема неисправима ни сейчас, ни в ближайшем будущем. "

Источник: https://spydell.livejournal.com/781774.html

"Ведущий специалист в области искусственного интеллекта Ян Лекун призвал молодых разработчиков не зацикливаться на больших языковых моделях (БЯМ), а вместо этого сосредоточиться на создании «ИИ следующего поколения»."

"Лекун написал в X: «Если вы студент, заинтересованный в создании систем искусственного интеллекта следующего поколения, не работайте над БЯМ». Эти высказывания быстро вызвали шквал вопросов и оживили дискуссию об ограничениях современных больших языковых моделей. Столкнувшись с непониманием, Лекун частично пояснил свою позицию. Он отметил, что сам работает над такими системами и призывает других присоединиться к нему.

Не имея конкретных примеров, многие пользователи X задались вопросами: что подразумевается под «ИИ следующего поколения» и какая альтернатива может быть предложена большим языковым моделям. Разработчики, специалисты по данным и эксперты по искусственному интеллекту предложили множество вариантов: от моделей на основе энергии до сетей Колмогорова-Арнольда (KAN).

Являясь сторонником целенаправленного ИИ и систем с открытым исходным кодом, Лекун также заявил Financial Times, что у больших языковых моделей ограниченное понимание логики, и они не достигнут человеческого уровня интеллекта.

По его словам, они «не понимают физический мир, не обладают постоянной памятью, не могут рассуждать в разумном смысле этого слова и не могут планировать иерархически». Многие разделяют скептицизм Лекуна относительно ограничений больших языковых моделей. Участники обсуждения критиковали «излишнюю зацикленность» отрасли на них, называя их «тупиком на пути к настоящему прогрессу»."

Источник:  https://alex-rozoff.livejournal.com/786381.html

ИИ, llm, chat gpt

Previous post Next post
Up