Leave a comment

yama_mayaa June 19 2023, 11:58:02 UTC

Не согласен. MJ это программа лишь при самом поверхностном рассмотрении. С тем же успехом можно сказать, что скульптор - это много натрий-калиевых насосов. Цимес MJ - в десятке (или сколько их там) миллиардах коэффициентов, к получению которых человеческий ум не касался. В фотошопе каждую строчку кода кто-то смоделировал в уме, поэтому его работа в принципе обозрима. Десять миллиардов выведенных в цифровой колбе цифр - нет.

> Разница между ней и фотошопом для конечного пользователя, в основном, в интерфейсе.
Мы же не о конечных пользователях говорим. Но если уж на то пошло, интерфейс MJ точно такой же, как у помощника-человека, который умеет рисовать и работает удаленно. У фотошопа интерфейс инструмента, ему нельзя объяснить словами что ты хочешь получить на выходе, как нельзя сказать это карандашу или резцу.

> "Искуственный отбор" применяется в программировании уже десятки лет, взять тот же генетический алгоритм
Применяется, вопрос в масштабах. А разница здесь колоссальная. Генетический алгоритм оптимизирует вам 100 параметров, а при построении GPT-4 метод обратного распространения оптимизирует вам триллион параметров. Десять порядков - это разница между нервной системой червячка C. elegans и человека.

Reply

eohippus_k June 19 2023, 12:55:29 UTC

>> скульптор - это много натрий-калиевых насосов

А работа фотошопа это переключение многих-многих транзисторов, охватить работу которых человеческий мозг тоже уже очень давно не в состоянии.

>> У фотошопа интерфейс инструмента, ему нельзя объяснить словами что ты хочешь получить на выходе

Да, но я не считаю разницу интерфейсов принципиальной.

>>Применяется, вопрос в масштабах

Все что я читал/слушал последнее время на тему интеллекта животных, говорит об отсутствии принципиальной разницы между ними и человеком, только количественные различия. Конечно, современный всплеск АИ это существенный шаг вперед, правильно настроенная нейронная сеть работает гораздо быстрее традиционных методов оптимизации на тех системах, на которые ее натренировали, но от способности быстро находить минимум функции многих переменных до гомункулуса захватывающего мир все еще довольно далеко.

Reply

yama_mayaa June 19 2023, 13:59:25 UTC

> охватить работу которых человеческий мозг тоже уже очень давно не в состоянии
В состоянии, хотя может быть не один и не всю сразу, иначе все это невозможно было бы сконструировать. На каждом уровне какой-то инженер или относительно небольшая группа инженеров охватила и создала для инженеров, работающих "этажом" выше, описание, одновременно сжато и точно указывающее функции их этажа и скрывающее несущественные для верхних этажей детали. Таких этажей от кремния до исходного кода собственно фотошопа наберется десяток-полтора. В случае MJ/GPT на верхнем уровне инженеров нет и не было, поэтому чтобы понять, как этот верхний уровень работает, приходится ковыряться в активациях нейронных сетей примерно так же, как нейрофизиологи ковыряются электродами и прочими МРТ в мозгах мышек и кошек. Таких статей уже много опубликовано.

> Все что я читал/слушал последнее время на тему интеллекта животных, говорит об отсутствии принципиальной разницы между ними и человеком, только количественные различия
Вобщем согласен. Качественные различия при увеличении количества бывают, но довольно редко, например при увеличении размера кучи ее самогравитация в какой-то момент создает достаточное давление, чтобы куча приобрела гидростатически равновесную форму. Чаще же какие количественные различия считать качественными - вопрос удобства моделирования.

> от способности быстро находить минимум функции многих переменных до гомункулуса захватывающего мир все еще довольно далеко
Тоже вобщем согласен. Но и неспособный захватывать мир, идеально послушный гомункулус тоже может быть весьма полезен и/или вреден в своей полезности.

Reply

arenhaus June 20 2023, 07:42:19 UTC
Человеческий ум этих коэффициентов как раз ещё как касался. Во-первых, нейросетку дрочат несчётное количество "механических турков", иначе она будет лажать совсем уже бессмысленно. Во-вторых, исходный материал для этих коэффициентов - сотни миллионов чужих работ и фоток. Взятых, кстати, без спросу и без лицензии. В этом софте 99.9% человеческого труда, причем 95% из него не оплачено.

Reply

yama_mayaa June 20 2023, 16:49:29 UTC

> Человеческий ум этих коэффициентов как раз ещё как касался.
Когда вы дрессируете собаку или учите ребенка, ваш ум не касается их синапсов. Вы не можете извлечь ваши внутренние представления из своего ума и вложить в их. Собака или ребенок создают свои внутренние представления на основе даваемых вами сведений и стимулов. Здесь то же.

> Во-первых, нейросетку дрочат несчётное количество "механических турков", иначе она будет лажать совсем уже бессмысленно.
Материал создают и готовят люди (в том числе неоплачиваемые и не имеющие никакого отношения к компаниям-создателям сетей), а обучение происходит автоматически. Там такие колоссальные объемы вычислений, что всех механических турков в мире не хватит подмахивать. Впрочем, подготовка материала тоже чрезвычайно сильно автоматизирована. Датасет Common Crawl за 2021 год, на котором обучаются GPT-3.5 и GPT-4, весит 320 терабайт (ТЕРАбайт, карл!) Даже если бы у вас в распоряжении был миллион механических турков, на одного пришлось бы 320 мегабайт - это примерно две БСЭ. Если же вы имеете в виду окончательную рихтовку обученной сети, чтобы она не рассказывала как делать бомбы и вешать негров, это действительно делают люди, но по сравнению с объемом вычислений на основное обучение это ноль без палочки, и без наличия уже обученной сети невозможно.

Reply

arenhaus June 24 2023, 10:29:29 UTC
Вы очень сильно антропоморфизируете нйросетку. А уж что касается добычи данных из сети при помощи crawl-ера - это просто неэтично и должно быть нелегально, после того, каким образом эти датасеты стали использоваться.

Впрочем, неважно.

Reply

yama_mayaa June 24 2023, 15:27:09 UTC

Антропоморфизирую нейросетку? О_о Скорее наоборот, нейросетизирую человека. В отличие от, скажем, Пенроуза, я не думаю, что у нас в голове происходит какая-то магия. Сущности вроде ChatGPT - конечно, не человек, их поведение только напоминает человека в некоторых отношениях, но они дают ценный и ранее не существовавший материал для понимания человека. Например, есть такой парадокс китайской комнаты Серля - когда Серль его придумал, это был чистый умственный эксперимент, а сейчас его можно "прощупать" на натуре.

> А уж что касается добычи данных из сети при помощи crawl-ера - это просто неэтично и должно быть нелегально, после того, каким образом эти датасеты стали использоваться.
Понятная точка зрения, но в данном случае к делу не относится.

Reply

arenhaus June 27 2023, 13:52:20 UTC
Никто не представляет себе "магию". Вы просто переоцениваете сложность и связность перцептронов и недооцениваете сложность и связность нервной системы. Если сильно прищуриться, то можно увидеть некоторое отдалённое сходство, на уровне представлений технаря 1940-х годов о нервной системе. Но не более.

Поведение, напоминаюшщее нам естественное, 1) не обязано обеспечиваться таким же механизмом, как у нас в голове и 2) не обязано обеспечиваться сложным механизмом вообще. Эмергентное поведение бывает у простых систем, причем похожее у разных систем. Марковская цепь, например, тоже выдаёт отличную имитацию глоссолалии на заданную тему, но вы же не будете утверждать, что в ней есть эквивалентная человеческому мозгу система.

Reply

yama_mayaa June 27 2023, 14:43:18 UTC

> Марковская цепь, например, тоже выдаёт отличную имитацию глоссолалии на заданную тему
Что угодно можно представить в виде марковской цепи, в том числе и человеческий мозг. То есть вы ничего этим не сказали. Если вы имеете в виду какие-то конкретные уровни сложности, давайте переходить к цифрам. О сложности и связности мозга я кое-что знаю, копался в нейрофизиологии в свое время, но оценить ширину внутренней полосы пропускания и сравнить с современными сетями типа GPT (в фазе тренировки и в фазе вывода отдельно!) пока не пробовал. Насчет того, какого количества параметров достаточно для описания одного нейрона или синапса, много споров и до сих пор много непонятного, например о роли РНК.

Что до глоссолалии - если осмысленный (хоть и с ошибками) перевод с вэньяня это для вас глоссолалия... 🤷

Reply

arenhaus June 28 2023, 11:25:05 UTC
Как интересно. Почему же марковские цепи не используются везде для создания искусственных мозгов, принятия правильных решений и так далее? Казалось бы, так просто...

(Что до цифр - одна пирамидная клетка коры мозга человека может иметь порядка 100,000 входящих синапсов. Это не считая исходящих синапсов и ветвлений дендритов, которые работают как логическая схема. Сигналы эти клетки обрабатывают и выдают "цифровым" способом, не просто отвечая на импульс, а отвечая по-разному на разные серии импульсов, приходящие на разные синапсы. Таких клеток в коре около 17 миллиардов. Не считая прочих типов клеток. И семь уровней связей между ними только в коре. Думайте сами.)

А вот насчет осмысленности... Видите ли, в глоссолалии вполне могут встречаться куски, которые вам покажутся осмысленными. Именно что покажутся, хотя смысла в них не больше, чем в остальных. Интеллект в этом случае работает только ваш, это вы ищете смыслы на выходе бредогенератора. Иногда находите, иногда нет - если добавить в бредогенератор статистику по вероятностям появления слова n+1 после n предыдущих, вы получите отличную концентрацию кусков, которые кажутся осмысленными. Но смысл в них не появится. Смысл здесь - чисто отражение вашего интеллекта.

И со статистикой есть ещё один малозаметный с первого взгляда психологический трюк: чем дальше текст от среднего по теме, тем больше вы получите на выходе того, в чём смысл не найдёте. Поэтому тривиальные тексты, каких большинство, такой автопереводчик ещё как-то переводит. Но чем менее текст тривиальный, тем больше в переводе будет ошибок - просто чем хуже вы знаете язык оригинала, тем меньше вы эти ошибки замечаете, и вам опять кажется, что оно работает. Попробуйте с нетривиальным текстом на языке, который хорошо знаете - убедитесь сами.

Пока что в этих всех хайповых "ИИ" без такого отражения интелекта пользователя (чтоб не сказать самообмана) и прямой фильтрации полученного бреда человеком вообще ничего не работает. И при выбранном ими подходе, скорее всего, и не будет.

Reply

yama_mayaa July 1 2023, 15:33:31 UTC
Марковская цепь - это просто довольно общий формализм, в который можно загнать очень многое, начиная от компьютеров и уравнений механики и заканчивая мозгами - была бы размерность текущего состояния достаточно велика. Вы, возможно, имели в виду древние текстовые бредогенераторы, основанные на марковских цепях очень малой размерности, например когда следующий символ порождаемого текста определяется четырьмя предыдущими (что порождает бред узнаваемо английский, немецкий или русский, смотря на каком материале матрица строилась). GPT, безусловно, родственный механизм, но если у такой цепи, грубо говоря, 30^4 параметров (в основном нулей) и тривиальная структура, то у GPT-3.5 175 млрд ненулевых параметров в довольно замысловатой структуре, которую наверняка можно представить в виде простого тензора ранга, на один большего максимальной длины контекста (4095), но компонент там будет не 175 млрд. О структуре GPT ниже.

И со статистикой есть ещё один малозаметный с первого взгляда психологический трюк: чем дальше текст от среднего по теме, тем больше вы получите на выходе того, в чём смысл не найдёте. Поэтому тривиальные тексты, каких большинство, такой автопереводчик ещё как-то переводит. Но чем менее текст тривиальный, тем больше в переводе будет ошибок - просто чем хуже вы знаете язык оригинала, тем меньше вы эти ошибки замечаете, и вам опять кажется, что оно работает. Попробуйте с нетривиальным текстом на языке, который хорошо знаете - убедитесь сами.

Я хорошо знаю это явление, т.к. играюсь с гуглопереводчиком уже много лет (чисто для любопытства).

кажутся осмысленными
отражение вашего интеллекта

Честно говоря, не вижу разницы между "осмысленным" и "кажется осмысленным". Попытки проводить такую категорическую разницу неизбежно придадут понятию осмысленности метафизический привкус. То же относится к "отражению интеллекта": интеллект сам есть отражение.

(Что до цифр - одна пирамидная клетка коры мозга человека может иметь порядка 100,000 входящих синапсов. Это не считая исходящих синапсов и ветвлений дендритов, которые работают как логическая схема. Сигналы эти клетки обрабатывают и выдают "цифровым" способом, не просто отвечая на импульс, а отвечая по-разному на разные серии импульсов, приходящие на разные синапсы. Таких клеток в коре около 17 миллиардов. Не считая прочих типов клеток. И семь уровней связей между ними только в коре. Думайте сами.)

О, цифры это хорошо, уже можно предметно сравнивать. Сравним. Вот как устроен GPT. Для начала, каждое слово (грубо говоря) входного текста длиной до n_ctx слов превращается в n_embd-мерный вектор. n_embd в GPT-3(.5) равнo 12288, a n_ctx - 4095. Позиция каждого слова во входном тексте кодируется и добавляется к его вектору. Получившаяся 4095 x 12288-мерная матрица последовательно обрабатывается 96 идентично устроенными слоями, состоящими каждый из перемешивающего блока ("многоголовое причинное самовнимание"), который обеспечивает связи между различными позициями входного текста, и простого двуслойного перцептрона, применяемого к каждой позиции по отдельности (4095 раз один и тот же), и в конце получившиеся векторы проектируются обратно на слова. "Толстые" коэффициенты каждого из 96 перемешивающих блоков составляют тензор из 3 х n_embd x n_embd = 450 млн компонент, а каждого из 96 перцептронов - 2 х 4 х n_embd x n_embd = 1.2 млрд компонент. Если посмотреть на эту штуку как на мозг, получится "кора" из n_ctx x n_embd = 50 млн паралельных "колонок" из 96 "нейронов" каждая, и каждый "нейрон" будет связан с многими тысячами соседей на своем уровне. Это, конечно, значительно меньше 100 тыс синапсов на 17 млрд пирамидных нейронов (которые, между прочим, занимаются далеко не только речью), но простой эту сеть тоже назвать уже нельзя. Сравнивать сущности такого рода с простыми марковскими цепями вроде упомянутой мной выше - столь же много и одновременно мало поучительно, как сравнивать крестики-нолики с шахматами: и то, и другое это конечные игры с полной информацией - математически эти объекты принадлежат к одному классу и к ним приложимы одни и те же теоремы - но все, что можно практически извлечь из крестиков-ноликов, неглупый человек при желании извлечет за час, а в шахматы люди играют уже несколько тысяч лет.

Reply

arenhaus July 2 2023, 07:20:57 UTC
Бредогенераторы на марковских цепях бывали и побольше. Но в общем, я всю дорогу пытьаюсь объяснить, что вбухивать колоссальные средства в технологии типа GPT, чтобы получить в итоге более совершенный бредогенератор - это очень нерациональная трата ресурсов.

В остальном - если вам непонятна разница между "осмысленно" и "ошибочно кажется вам осмысленным", то извините, что зря потратил ваше время.

Reply

yama_mayaa July 2 2023, 13:02:52 UTC

> вбухивать колоссальные средства в технологии типа GPT, чтобы получить в итоге более совершенный бредогенератор - это очень нерациональная трата ресурсов

Возможно, и даже наверняка, даже если опустить про бредогенератор, но ресурсы эти не принадлежат ни мне, ни вам, ни государствам, а частным лицам и организациям, влияния на которые у нас мало - разве Nvidia на рынке шортить.

> если вам непонятна разница между "осмысленно" и "ошибочно кажется вам осмысленным"
Я понимаю, что вы имеете в виду, но как я написал выше, я не считаю эту разницу категорической. (Понимание тезиса оппонента гарантирует согласие с этим тезисом только в том случае, когда тезис тривиален.) Что до ошибочности казания осмысленным того или иного текста, как вы это определите априори? Вот например уже два века очень умные люди копаются в текстах Гегеля, кажущихся им осмысленными, производя на свет сонмы интеллектуальных монстров, но идея, что эти тексты лишь кажутся осмысленными, воспринимается плохо.

Reply

arenhaus July 3 2023, 12:30:44 UTC
Знаете, когда у частных лиц и организаций появляется возможность в глобальном масштабе тратить дикое количество ресурсов впустую и при этом портить поляну всем ради маленького кусочка выгоды себе, стоит их, наверное, ограничивать. Хотя на практике вряд ли - никакая бюрократия за ними не успеет.

Что до иллюзии смысла - поскольку разница между смыслом и иллюзией смысла всё же существует, будем считать, что мы подошли к барьеру, через который я не смогу вас убедить перейти. Разве что вы хотите основательно обсуждать теорию информации, что такое понимание вообще, что такое иллюзия вообще и в данном частном случае и т.д.

Reply

yama_mayaa July 3 2023, 16:08:44 UTC

Почему же, я с интересом выслушаю ваши соображения на сей счет. Могу примерно представить себе, как в рамках теории информации можно рассуждать о смысле и иллюзии смысла. Положим, у нас есть программа А, порождающая последовательность символов П. Довольно естественно будет считать эту программу "смыслом" П, и что мы "понимаем" П, если знаем А. Далее, можно попытаться восстановить программу по всей П или некоторой ее части (вся П может или не находиться в нашем распоряжении, или может быть еще не порождена). Получится некоторая программа Б. Поскольку и А, и Б четко определены, вопрос, являются ли они эквивалентными, тоже определен (хотя может быть и не разрешим, см. проблему останова, но опустим этот момент). Однако у нас может не быть доступа к А, а только к порождаемой ею П. Тогда можно сравнивать А и Б, заставив Б порождать последовательность П' и сравнивая П и П'. Тут может случиться так, что П' совпадает с тем фрагментом П, на основании которого сооружалась Б, но в дальнейшем начинает отличаться и рано или поздно вовсе перестает коррелировать с П. Опять же естественно будет сказать, что Б, в отличии от А - это лишь "иллюзия смысла" П, и что знание Б не дает "понимания" П.

Reply

arenhaus July 4 2023, 09:22:08 UTC
Если честно, на моём опыте такие дискуссии ни к чему не приводят. Все остаются при своём мнении.

Особенно когда собеседник начинает, к примеру, с определения смысла как генерирующей программы. :) Смысл не сводится к восстановлению программы по её выводу. Даже как модель это здесь не очень подходит. Это подход к решению другого рода задачи - типа, определить структуру чёрного ящика по его выводу. А смысл - это в первую очередь коммуникационная категория.

Если бы вы его определили как неполно закодированное сообщение, и то бы ладно. А ваш выбор модели меня не обнадёживает насчёт перспектив для дискуссии.

Reply


Leave a comment

Up