Для русского хамоватого мальчика ему не достает любознательности. Он спросил судью, кто тот по профессии. Ему не ответили, стали задавать другие вопросы, но "мальчик" не уточнил что-то вроде "А почему вы не ответили кто вы?" Ребенок-подросток, который пытается увильнуть от прямых вопросов о себе, 100% вернулся бы к этой теме.
По поводу такого уровня общения, то такой точно не нужен. У подобных ИИ нет симпатии, внимания к деталям. Дома есть "Алиса", она тоже может подобным образом поддерживать разговор. Ее непонимание порой того, что именно ты спрашиваешь (когда нужен не ответ из википедии, а что-то философско-жизненное), через пару минут попыток объяснить начинает подбешивать. Кроме того, даже если просто высказаться со своей проблемой ИИ, назавтра он и не вспомнит об этом, не поддержит. не пожалеет, не уточнит как дела, как это может сделать живой человек.
Тут недавно свежий ЧатГПТ именно что вспомнил и уточнил. И разработчики пишут, что вспомнил нормально, у него есть контекст разговора и логи, а вот, что уточнил косяк, первым писать он по условиям договора не должен.
Миша, что-то вы такое интересное рассказываете! Именно про то соревнование чат-ботов 2014 года? Чат-боты не должны были сами задавать вопросов? Поэтому, задав вопрос, "Женя из Одессы" не стал настаивать, чтобы ему на него ответили?
Нет, просто даже сейчас чат-бот задающий вопросы и отстаивающий «свою» точку зрения, это очень сложно в реализации, а в те времена было фантастикой. Тогда боты не могли толком анализировать контекст разговора, чтобы понять ответили им каким-то неочевидным образом, или не ответили вовсе.
Зато сейчас многие модели могут с переменным успехом следить за контекстом, отыгрывать роль персонажа, а при наличии костылей проявлять интерес к собеседнику, и отстаивать какую-то точку зрения.
Катя! Так проанализировала. как никто бы не смог! мне объяснила, почему я тоже его за человека не приму! Почему начинает подбешивать! 😀 😀 😀 Детали важны!! Это из оперы "что-то у меня с ним разговор не строится, не клеется".
Для русского хамоватого мальчика ему не достает любознательности. Он спросил судью, кто тот по профессии. Ему не ответили, стали задавать другие вопросы, но "мальчик" не уточнил что-то вроде "А почему вы не ответили кто вы?" Ребенок-подросток, который пытается увильнуть от прямых вопросов о себе, 100% вернулся бы к этой теме.
По поводу такого уровня общения, то такой точно не нужен. У подобных ИИ нет симпатии, внимания к деталям. Дома есть "Алиса", она тоже может подобным образом поддерживать разговор. Ее непонимание порой того, что именно ты спрашиваешь (когда нужен не ответ из википедии, а что-то философско-жизненное), через пару минут попыток объяснить начинает подбешивать. Кроме того, даже если просто высказаться со своей проблемой ИИ, назавтра он и не вспомнит об этом, не поддержит. не пожалеет, не уточнит как дела, как это может сделать живой человек.
Reply
И разработчики пишут, что вспомнил нормально, у него есть контекст разговора и логи, а вот, что уточнил косяк, первым писать он по условиям договора не должен.
Reply
Миша, что-то вы такое интересное рассказываете! Именно про то соревнование чат-ботов 2014 года? Чат-боты не должны были сами задавать вопросов? Поэтому, задав вопрос, "Женя из Одессы" не стал настаивать, чтобы ему на него ответили?
Reply
Тогда боты не могли толком анализировать контекст разговора, чтобы понять ответили им каким-то неочевидным образом, или не ответили вовсе.
Reply
Угум, поняла тонкость!
Reply
Reply
Ааа!!! 😀 😀 😀 😀 😀 Этот способ применения я точно еще не освоила!! 😀 😀
Reply
Катя! Так проанализировала. как никто бы не смог! мне объяснила, почему я тоже его за человека не приму! Почему начинает подбешивать! 😀 😀 😀 Детали важны!! Это из оперы "что-то у меня с ним разговор не строится, не клеется".
Reply
Leave a comment