У меня к сегодняшнему дню накопился кое-какой опыт использования ИИ в профессиональном режиме, когда это требуется для работы, а не просто для разнообразных опытов и экспериментов.
И, пожалуй, на данный момент мои оценки LLM таковы - на первом месте все еще ChatGPT, а на второе внезапно вырвался Deepseek, на третьем, на приличном удалении - Gemini.
(
Read more... )
Reply
Нет, у меня возникло другое впечатление - что ключевые "мысли" остаются непродемонстрироваными.
Reply
Reply
В том-то и дело, что это отход от идеи черного ящика в пользу других способов взаимодействия с человеком. Не нужно считать что он на самом деле думает вот такими предложениями.
Reply
Нейросети сами охотно рассказывают, чем их способы генерации ответов отличаются от человеческих, и отсутствие строгого, формализуемого, последовательного мышления - фундаментальное "архитектурное" различие.
Поэтому, мне кажется, этот "внутренний диалог" - прикрученная свистоперделка для вау-эффекта, а не приоткрытая дверца в черный ящик.
Но я не настоящий эксперт по машинному обучению, могу и ошибаться, конечно.
Reply
Но люди действуют точно так же. Довольно часто ответ приходит как бы сам, непонятно откуда. А другим надо объяснить, почему ты так решил. И тогда задним числом ищешь и подбираешь логическую цепочку. Получается презентация идеи.
Reply
Наоборот было бы странно если бы оно сильно отличалось. Нейросетка и есть модель человеческого мозга, но только небольшой его части.
Reply
Reply
\\Это скорее всего очень упрощённое представление.
естественно.
Во-первых мы точно не знаем как работает наш мозг. Во-вторых даже если бы знали - у нас нет ресурсов чтоб это дело оцифровать и запустить, на данным момент наибольшие модели по количеству нейронов всё еще далеки от того количества что сидит у нас в мозгу.
Ну и вот как-то так.
Reply
Но как тогда можно говорить, что одно является моделью другого, если про устройство и особенно функционирование этого другого мы знаем слишком мало? И проблема в гораздо большей степени не в количестве нейронов, а в архитектуре сетей.
На более высоком уровне, чем локальная архитектура нейросетей, между человеческим словесным мышлением и работой LLM может обнаружиться сходство. Из-за сходной "среды обитания" и решаемых задач. Как между дельфинами и ихтиозаврами. Но и в этом случае моделями друг друга их назвать вряд ли можно.
Reply
МОдель не обязательно означает полное соответствие, вполне можно говорить что нейросеть - модель мозга, хотя и не соответсвующая ему на 100%.
На данный момент нейросети отражают наши знания о мозге, будут уточнения - модели подправят.
Ну и дело именно в ресурсах, чтоб понять что наша модель не верная и где надо подкрутить, нам надо взять нейронов как в человеческом мозге, связей как в нем же и всё это дело запустить, а мы пока не можем.
Reply
Но если некто сможет угадывать правдоподобную последовательность чужих мыслей - то чем это будет отличаться от мышления?
Reply
Философский зомби...
Reply
Reply
Я про то, что вопросы "как ты получил этот ответ на вопрос?" и "как, по-твоему, человек мог бы получить этот ответ на вопрос?" - это разные вопросы.
И DeepSeek как будто бы отвечает на второй.
А из этого ответа нельзя ничего понять о том, как именно думает сама нейросеть.
Reply
Ведь что значит "человек понимает текст"? Человек читает слова. Преобразует их в уме в некие идеи, понятия, которые в словах содержатся, но словам не равны и к ним не сводятся. Связывает эти понятия с другими, ранее усвоенными понятиями, выводит некое умозаключение и преобразует его обратно в слова ( ... )
Reply
Leave a comment