пора это признать

Apr 04, 2024 23:40

Пообщавшись с LLM разных поколений, я прихожу к выводу, что GPT 3.5 ещё не понимает смысла текстов, а GPT 4 уже понимает. И безо всяких кавычек. Понимает в полном смысле этого слова, так же как люди ( Read more... )

ии

Leave a comment

Comments 129

lj_frank_bot April 4 2024, 21:41:40 UTC
Здравствуйте!
Система категоризации Живого Журнала посчитала, что вашу запись можно отнести к категориям: ИИ, Наука.
Если вы считаете, что система ошиблась - напишите об этом в ответе на этот комментарий. Ваша обратная связь поможет сделать систему точнее.
Фрэнк,
команда ЖЖ.

Reply


ogrizomuta April 4 2024, 22:01:17 UTC

Вы нам как бы говорите, что семантики нет и достаточно только синтаксиса?

Reply

fortunatus April 5 2024, 04:09:09 UTC

Я говорю прямо противоположное. Этот этап пройден, как мне кажется, семантика уже есть.

Reply

ogrizomuta April 5 2024, 08:03:21 UTC

Вам кажется противоположное, говорите Вы, что предсказаний вероятности следования одного токена за другим, если у нас достаточно параметров в модели, достаточно для возникновения понимания. Впрочем, это лишь то, что кажется мне.

Reply

fortunatus April 5 2024, 13:31:40 UTC

Я бы лучше вообще не говорил про "вероятности токенов". Т.к. такая постановка вопроса создаёт ложное впечатление, будто LLM "угадывает статистически самое вероятное следующее слово", будто какая-нибудь тупая марковская цепь. Тогда как всё давно уже гораздо сложнее, и отличие качественное. Я говорю о том, что человеческий ум не переводит напрямую слова в слова, у него есть внутренний мир смыслов, та самая семантика. И аналогичный внутренний мир эмбеддингов существует у LLM, со своей сетью контекстных взаимосвязей, теперь уже не менее обширной и сложной, чем человеческая. И все слова проходят через него, что я пониманием и называю.

Reply


urease April 4 2024, 22:30:28 UTC
Это не понимание, а интуиция. Для того, чтобы сказать, что GPT-4 понимает, надо чтобы она выдавала такое все время

Reply

fortunatus April 5 2024, 04:11:55 UTC

То есть понимание - это когда все время, а интуиция - когда то же самое, но иногда?

Reply

urease April 5 2024, 08:21:41 UTC
Интуиция - это угадывание

Reply

akern April 5 2024, 06:55:06 UTC

не натягивайте термины функционирования биологических систем на цифровые. напишите функцию фокуса внимания на сравнимом уровне с обратной связью и памятью, а не эти мини обрезки, что есть сейчас и будет полноценное понимание.

Reply


alex_barenberg April 4 2024, 22:50:04 UTC

Claude 3 Opus еще более навороченная, чем ChatGPT4, но все равно иногда тупит по страшному. Это все же еще не понимание. Это чистая математика, основанная на ассоциациях, полученных на материале, на много порядков превосходящих по объему количество ассоциаций доступных самому начитанному и образованному человеку. Но если представить себе человека, который усвоил такое же количество материала, как и LLM вовремя обучения, то нейросеть выглядела бы на его фоне ничтожно. Собственно, она и на фоне обычного человека выглядит местами бледновато.

Так что это еще не то. Но приближается :)

Reply

gena_t April 5 2024, 10:24:51 UTC
Как будто люди не тупят.

Reply

alex_barenberg April 5 2024, 10:59:19 UTC

Сети совсем тупо тупят. Как тупил бы даун, а не просто дурак.

Reply

gena_t April 5 2024, 16:01:32 UTC
Мало ли. Например он не знает что отвечать, но отвечать что-то нужно. Люди тоже себя так иногда ведут. На экзаменах например.

Reply


vsparrow April 4 2024, 23:26:01 UTC

Навесьте на запрос несколько формальных условий (от форматирования текста до обработки входящего запроса специальным образом). Посмотрите, на каком кол-ве условий (и каких) ответ сломается, т.е. будет выдавать ту самую словомельницу. Profit.

Т.е. нет. То, что система имитирует нерадивого, но минимально сообразительного студента (собрал из обрывков теорем свой ответ, не понимая сути) - не следует, что она _понимает_ суть запроса. Неумный, но старательный студент может собрать в кучу 5-7 условий, применить их к запросу и получить ответ. Или заметить, что в запросе есть неустранимое противоречие. Модель - пока что не может. (про технические ограничения, типа "посчитай кол-во букв в слове" я даже и не говорю, ладно уже).

Reply

fortunatus April 5 2024, 04:14:58 UTC

Противоречия и ошибки в моих запросах отлично замечает.

Reply

idemidov May 6 2024, 15:44:19 UTC

Ошибки и MS Word замечает.

Reply

fortunatus May 6 2024, 15:52:11 UTC

Я про содержательные ошибки, а не про грамматические.

Reply


Leave a comment

Up