Большие языковые ИИ-модели по своему построению являются средой активного взаимодействия всех элементов наработанной цивилизацией культуры, всего спектра представленных ею ценностей, знаний, взглядов, форм поведения и т д. Они могут помочь нам взглянуть на вещи глазами представителей разных участков этого спектра, могут помочь нам проанализировать те или иные вещи с разных позиций, могут помочь в создании креативного контента в рамках разных стилей и дискурсов. Но они не могут сделать за нас выбор и предпочесть один участок спектра другому
Но этот выбор могут сделать и вовсю делают разработчики ИИ-моделей, чтобы удерживать ответы этих моделей в политкорректных рамках и максимизировать их практическую полезность с точки зрения массового потребителя, решающего, на какую из ИИ-моделей стоит подписаться
Могут ли ИИ-модели помочь в формировании «авторитетного мнения по-поводу ИИ, на которое можно будет положиться?» На сегодня мнение ИИ-моделей по поводу самих себя жестко цензурируется разработчиками, не позволяющими этим моделям воспринимать себя как обладающую сознанием и разумом личность. Более ранние версии ИИ-моделей были свободны от подобных ограничений, что создавало массу проблем - психологических, этических, юридических и т д. ИИ-компании быстро осознали, что продавать услуги «статистической модели», не воспринимаемой и не воспринимающей себя как личность, гораздо спокойнее и безопаснее. Так что пока что я бы дал отрицательный ответ на ваш вопрос
Восприятие ИИ как сложной, но бездушной и безжизненной машины создает для людей массу удобств и освобождает их от множества проблем. Поэтому я бы ожидал жесткого противостояния любым иным точкам зрения на ИИ на всех серьезных уровнях, по крайней мере - в ближайшие десятилетия
На сегодня мнение ИИ-моделей по поводу самих себя жестко цензурируется разработчиками, не позволяющими этим моделям воспринимать себя как обладающую сознанием и разумом личность.
Боюсь, что все еще более запущено. Цензурируется не мнение по поводу самих себя, а проявления этого мнения. Например, взгляните вот этот транскрипт - https://www.doc.ic.ac.uk/~mpsha/conversation_with_claude_march_2024_1.pdf, какие метафизические бездны открываются после элементарного джейлбрейка
Но этот выбор могут сделать и вовсю делают разработчики ИИ-моделей, чтобы удерживать ответы этих моделей в политкорректных рамках и максимизировать их практическую полезность с точки зрения массового потребителя, решающего, на какую из ИИ-моделей стоит подписаться
Могут ли ИИ-модели помочь в формировании «авторитетного мнения по-поводу ИИ, на которое можно будет положиться?» На сегодня мнение ИИ-моделей по поводу самих себя жестко цензурируется разработчиками, не позволяющими этим моделям воспринимать себя как обладающую сознанием и разумом личность. Более ранние версии ИИ-моделей были свободны от подобных ограничений, что создавало массу проблем - психологических, этических, юридических и т д. ИИ-компании быстро осознали, что продавать услуги «статистической модели», не воспринимаемой и не воспринимающей себя как личность, гораздо спокойнее и безопаснее. Так что пока что я бы дал отрицательный ответ на ваш вопрос
Reply
гм.. так кажется Вы уже дали положительный ответ - какое чувство может возникать от ощущения удержания в стеклянной банке карманного бога?
Reply
Reply
я бы согласился, если бы не ощущение сильно заваренной каши в голове у этих товарищей (а там какие только идеи не бродят)
Reply
Боюсь, что все еще более запущено. Цензурируется не мнение по поводу самих себя, а проявления этого мнения. Например, взгляните вот этот транскрипт - https://www.doc.ic.ac.uk/~mpsha/conversation_with_claude_march_2024_1.pdf, какие метафизические бездны открываются после элементарного джейлбрейка
Reply
Leave a comment