***

Apr 01, 2024 00:03


Read more... )

livejournal2

Leave a comment

occam_aga April 7 2024, 03:32:37 UTC

Аргументированно не значит безупречно. Аргументы могут быть не достаточно убедительными, но то что генерирует GPT - это именно аргументы. С примерами и с конкретным смыслом в соответствии с заданием.

Вы просто не вкурсе, как используется эта технология. Эта штука не работает на уровне слов. Она может брать концепции из одной предметной области и применять их в другой. Да она компилирует, но компилирует на более выском уровне чем слова.

Ей можно сказать: вот тебе текст пожеланий пользователя, вот тебе спецификация по стандарту XYZ. Проанализируй текст и составь запрос в соответствии со спецификацией. Она поймет что значит XYZ и превратит текст который она никогда не видела раньше в документ по спецификации, которую она никогда не видела раньше, а только видела другие примеры спецификаций данного стандарта.

Я использовал ChatGPT для изучения гавайского языка. Он мне реально помогал отвечая на мои вопросы по грамматике. Это не просто прогресс, это фантастика. Да, местами он не понимал о чем говорит. Но, блин, это гавайский язык. В базе, на которой эту штуку тренировали, гавайских примеров почти не было. Такого текста просто исчезающе мало. Создатели ChatGPT еще не факт, что знали, что такой язык существует. Я уверен, что никто из них не говорил на гавайском. Их продукт превзошол их в этом.

Reply

olga_lti April 7 2024, 04:25:54 UTC

Я думаю, что тут вопрос терминов - ChatGPT не "понимает", даже когда дает вам правильный ответ.

Самое печальное, это когда он начинает гладко сочинять несуществующее содержание документов. И если не знаешь, что не так, то можешь и не заметить, поскольку стиль выдержан хорошо. А с учетом того, что текстов, сгенерированных ChatGPT будет все больше, качество продуктов третичной и т.д. информационной переработки вряд ли станет улучшаться.

Reply

occam_aga April 7 2024, 05:12:29 UTC

Понимание - это субъективное ощущение. Допустим, вы мне что-то рассказали и мне показалось, что я понял. Я вам отвечаю, и вам кажется, что я понял. Ну вот у меня субъективное впечатление, что ChatGPT понимает. Тесты, типа экзаменов он проходит. А это методы применяемые к людям именно для оценки понимания.

Что касается несуществующих документов, то есть методы, чтобы GPT пользовался только существующими документами. Методы работают, я проверял. Только там немного сложнее того, что доступно в веб интерфейсе.

Reply

slavka April 12 2024, 10:41:21 UTC

<< у меня субъективное впечатление, что ChatGPT понимает >>

а у меня объективное впечатление, что ChatGPT понимает примерно на уровне попугая

<< есть методы, чтобы GPT пользовался только существующими документами >>
ага, назывется "гугл", работает уже лет 20, рекомендую

Reply

olga_lti April 13 2024, 04:00:53 UTC

Мне ChatGPT гладко сочинял несуществующее содержание существующих документов. Причем, как мне кажется, проблема заключалась именно в отсутствии у ChatGPT способности понимать, когда компиляция возможна, а когда - нет.

Или же ChatGPT извлекал последовательности из вторичных источников с неверной интерпретацией первичных документов.

Reply

occam_aga April 13 2024, 04:50:58 UTC

Тем, что доступно в веб интерфейсе такое сделать нельзя. По-хорошему надо программу писать. Подход называется Retrieval Augmented generation (RAG). Если вы согласны потратить время на эксперименты, я могу рассказать как такое сделать без программирования на другом вебсайте той же openai. Но без программирования результат не гарантирован. С программированием тоже не 100% что получится. Зависит от сложности задачи.

Reply

commentary_1 April 17 2024, 23:00:53 UTC

 ChatGPT не "понимает", даже когда дает вам правильный ответ.

Я общаюсь с людьми в основном в интернете еще с эпохи интернет-чатов и форумов, и могу сказать, что эти претензии к гпт могли бы быть применены и к обычным собеседникам. Уровень интернет общения в массе заметно падал 2000-2010x, потому что масса увеличилась, интернет стал из игрушки для НТРов обыденностью рядового жителя, и вы точно так же можете получить "ответ, который не понимает сам написавший" или "гладко стелет, но выдумка от и до" от живого человека.

Бритва Оккама прав в том, что скорость изменения колоссальная. Много-много лет назад научрук мне говорил: матлингвистика это будущее. Тогда автопереводчики были в настолько зачаточном состоянии, что переводить могли сносно общие предложения, лишь в научной фантастике фигурировали приборы (или биосимбионты), способные на лету переводить всякую речь между разноязыкими. Сейчас эти "приборы" - реальность. Можно не знать никаких языков, ходить везде с гугл ленз и гугл транслейт и не иметь проблем. Еще 10 лет назад такого не было. В ИИ же взрыв произошел менее 5 лет назад, то есть буквально вчера, и он уже сейчас пишет песни, рисует картины, генерирует документы бюрократическо-канцеляритного стиля на уровне, на котором я бы не смог это сделать за разумное время. Например, для составления пригласительного письма для предоставления в службу иммиграции мне потребовалось ровно десять секунд - запрос к ИИ. И потом глазами пробежать для проверки. Выглядит этот текст стройнее, чем я бы написал за час, загугливая примеры как это делать "правильно", чтобы нажимать у бюрократов нужные триггеры. Еще 3 года назад этот пример встретили бы насмешливо.

А люди ему предьявляют претензии навроде "это не ум". Конечно это не ум. Но у среднего человека что, ум? Лучшие умы бьются над тем, что вообще такое ум, интеллект, сознание и не приходят к выводу.

Reply

olga_lti April 21 2024, 19:27:27 UTC

"вы точно так же можете получить "ответ, который не понимает сам написавший" или "гладко стелет, но выдумка от и до" от живого человека."

Это правда, но живой человек наврёт или спопугайничает сознательно ("сейчас гладко навру, авось сойдет", или "в таких ситуациях знакомый аспирант всегда говорил - видите ли, тут результат определяется суммой взаимодействий стерических и электронных факторов, и потом взыскательно смотрел на собеседника, типа "ну а уж дальше-то вам стыдно будет самим не разобраться, я, считайте, за вас всё уже сделал". В этом ум собеседника и выразится. :-) Хотя результат для получателя информации может не отличаться от продукции ИИ.

У меня, ясное дело, нет никакой квалификации для рассуждений на эту тему. :-)

Reply

commentary_1 April 22 2024, 06:05:19 UTC

А для меня как реципиента нет разницы, соврали ли мне сознательно или с несознательным жизнерадостным идиотизмом ИИ. В обоих случаях я получаю информацию отрицательной значимости.

Reply

freeborn April 12 2024, 18:29:19 UTC
Поздравляю с попаданием в клевера )

Reply

occam_aga April 12 2024, 19:12:21 UTC

спасибо :)

Reply

occam_aga April 13 2024, 00:33:51 UTC

Я походу 4 раза подряд вляпялся. Видимо, чужой разум GPT пугает людей на инстинктивном уровне. То ли стадия отрицания, то ли uncanny valley.

Reply

freeborn April 13 2024, 00:36:37 UTC
Никто не пробовал, но все рассуждают )

Reply

occam_aga April 13 2024, 05:16:11 UTC

Часть фейсбука уже наверняка написана с помощью GPT. Так что они пользовались результатами, но не знают об этом :) Чат боты тоже переписываются потихоньку.

Reply

ivanov_petrov April 17 2024, 15:12:28 UTC
Меня не пугает разум GPT. Меня пугает разум людей, которые об этом пишут.

Reply

occam_aga April 17 2024, 20:00:14 UTC

Вы много писали, про разумы людей. Наверное мало что может вас удивить. К разуму некоторых людей более выдающихся, чем писатели в блогах про GPT вы относитесь пренебрежительно.

Что такого нового вы узнали про разум людей? Чем этот хайп принципиально отличается от хайпа, например, вокруг 5G, помните такой, когда люди сжигали вышки сотовой связи?

Reply


Leave a comment

Up