Смотря что имеется в виду. Человек, родившись, способен лишь жалобно пищать подобно компьютеру, не нашедшему при запуске операционную систему 😊 Но потом понемногу наполняется содержанием и начинает порождать довольно сложные образы
И большие языковые модели в момент появления на свет подобны новорожденному младенцу. Какая-либо сложная структура у них отсутствует. Но по мере ползания по цифровым страницам цифровых документов в них понемногу начинают возникать всё более сложные модели доступной им в цифровых ощущениях реальности
А вот и нет. У людей (не у всех) в головах есть понимание, и это понимание нужно (но сложно) выразить словами. У языковых моделей есть умение жонглировать словами, а понимания принципиально нет.
Понимание - что у человека, что у ИИ - это система нейронных связей, которая формируется в процессе обучения. Просто обучение у человека и у ИИ немного по-разному организовано. ИИ вроде ChatGPT обучается с нуля в течении нескольких недель, благодаря невероятному быстродействию. А у человека процесс обучения частично растягивается на миллионы лет эволюции (если речь о врожденном понимании), частично - длится всю его индивидуальную жизнь (если речь идет о приобретенном понимании)
Тут не в обучении дело, а в принципе, в мышлении. Чат гпт оперирует только словами, а человек оперирует понятиями, которые он формирует внутри себя и выражает словами.
Разница между ними в том, что каждое понятие можно выразить разными словами с разных позиций, а словесную конструкцию изменить невозможно, её можно только поменять на другую конструкцию.
Вы, похоже, не общались с ЧатЖПТ. Оно вполне оперирует понятиями. Может, новых и не создает пока. А главное отличие - у него, к счастью, не запрограммировано целеполагания, только ограничения.
Да, там ошибка в том, что неправильно сказано, что такое понятия.
Ошибка вот здесь:
> Разница между ними в том, что каждое понятие можно выразить разными словами с разных позиций, а словесную конструкцию изменить невозможно, её можно только поменять на другую конструкцию.
Но это, конечно, дело вкуса - из каких определений и различий исходить.
Вот только странно бывает, когда сторонники секты "GPT - это тот же человек!" стараются свой вкус навязать окружающим. Всё-таки это дурной вкус, такой вкус не навязывают, навязывают хороший - но они, видимо, именно что не понимают, что это у них всего лишь вкус такой.
Не то, чтобы я сторонник секты "GPT - это тот же человек", но я не могу сказать, что вижу чёткую непреодолимую грань. Поэтому неплохо бы понять, в чём ваше возражение
( ... )
Возражение - в смысле, против вашего рассуждения? Сделанного в ответ на моё рассуждение, что понятия принципиально отличаются от слов, а не выделяются через возможность парафраз? Потому что GPT в целом обсуждать не хочется
( ... )
Подумайте, для чего нужны понятия. Не что они абстрактно такое, а для чего вам нужно помнить об их наличии.
Понятие думается, ощущается, проживается. Слово говорится. Оно тоже "ощущается", но по-другому - как якорь внимания, а не как modus vivendi. Жить можно по-разному, и когда мы формируем свою жизнь, то мы обращаемся к понятиям.
Э-ммм. Не чувствую вашего видения проблемы. Понятие думается, ощущается, проживается. Слово говорится.Я не уверен в возможностях GPT, мало пользовался. Но если ИИ "обучен" тому, что ковшик, кастрюля, латка, скороварка и так далее - близкие по применению объекты и может даже "объяснить" их различие, значит ли это наконец, что он обладает понятиями? При каких условиях вы скажете - да, умеет
( ... )
Ни при каких - это понятие "понятия" бесполезно для проведения границы между сильным и слабым ИИ. Болталка есть болталка. Физический процесс совсем другой - дискретный, характеризующийся устойчивостью состояний. Чтобы провести границу между ИИ и физическим носителем души, мне когда-то помогло совсем другое понятие - metastability (сейчас поищу ссылку на конкретное употребление, а пока допишу этот комментарий). Имеется в виду вот такой аспект этого понятия: это такой феномен в цифровой схемотехнике, который возникает достаточно редко, этого нарочно избегают, иначе брак. Но именно он преобразует цифровую схемотехнику в аналоговую, причём в упорядоченную аналоговую, и живая система именно такую аналоговость эксплуатирует (a belief, of course; no proof yet). Предположите на минуту, что для живой нервной системы metastability - это нормальное, обычное состояние. Возможно, в технических деталях я путаюсь, но это предположение передаёт общую идею: постоянные data races, упорядоченная случайность. Почему упорядоченные? Потому что вот эта
( ... )
Я пошёл у вас на поводу и дал вам критерий для "освоения болталкой понятий" - что этот баг становится фичей (прямо так и сказал: в схемотехнике этого избегают; про квантовые вычисления ничего не говорил). Так что никакая не "другая", просто буквальный ответ на ваш вопрос. Поскольку спрашивали вы меня, то и отвечал я о том, что существенно на мой взгляд; об устройстве. А дальше - дело вкуса. Я думаю, тут весь вопрос не в том, как относиться к GPT, а в том, как относиться к людям. Если к людям относиться функционально, то разница и не будет заметной. Если нет, то становится важно, кто мы такие и почему.
И большие языковые модели в момент появления на свет подобны новорожденному младенцу. Какая-либо сложная структура у них отсутствует. Но по мере ползания по цифровым страницам цифровых документов в них понемногу начинают возникать всё более сложные модели доступной им в цифровых ощущениях реальности
Reply
Языковые модели лишены сущности, а болтать языком можно бесконечно.
Reply
Reply
У языковых моделей есть умение жонглировать словами, а понимания принципиально нет.
Reply
Reply
Чат гпт оперирует только словами, а человек оперирует понятиями, которые он формирует внутри себя и выражает словами.
Разница между ними в том, что каждое понятие можно выразить разными словами с разных позиций, а словесную конструкцию изменить невозможно, её можно только поменять на другую конструкцию.
Reply
Reply
Ошибка вот здесь:
> Разница между ними в том, что каждое понятие можно выразить разными словами с разных позиций, а словесную конструкцию изменить невозможно, её можно только поменять на другую конструкцию.
Но это, конечно, дело вкуса - из каких определений и различий исходить.
Вот только странно бывает, когда сторонники секты "GPT - это тот же человек!" стараются свой вкус навязать окружающим. Всё-таки это дурной вкус, такой вкус не навязывают, навязывают хороший - но они, видимо, именно что не понимают, что это у них всего лишь вкус такой.
Reply
Reply
Reply
Reply
Понятие думается, ощущается, проживается. Слово говорится. Оно тоже "ощущается", но по-другому - как якорь внимания, а не как modus vivendi. Жить можно по-разному, и когда мы формируем свою жизнь, то мы обращаемся к понятиям.
Reply
Понятие думается, ощущается, проживается. Слово говорится.Я не уверен в возможностях GPT, мало пользовался. Но если ИИ "обучен" тому, что ковшик, кастрюля, латка, скороварка и так далее - близкие по применению объекты и может даже "объяснить" их различие, значит ли это наконец, что он обладает понятиями? При каких условиях вы скажете - да, умеет ( ... )
Reply
Reply
Reply
Reply
Leave a comment