пару слов о deepseek

Jan 29, 2025 19:12


У меня к сегодняшнему дню накопился кое-какой опыт использования ИИ в профессиональном режиме, когда это требуется для работы, а не просто для разнообразных опытов и экспериментов.

И, пожалуй, на данный момент мои оценки LLM таковы - на первом месте все еще ChatGPT, а на второе внезапно вырвался Deepseek, на третьем, на приличном удалении - Gemini.
Read more... )

Leave a comment

ackforstpdcmnts January 29 2025, 18:57:52 UTC
У вас не возникло впечатление, что "внутренний диалог" - это просто угадывание правдоподобной последовательности мыслей, возникающих у человека при ответе на заданный вопрос, а не раскрытие настоящей внутренней логики?

Reply

cantanapoli January 29 2025, 18:59:11 UTC

Нет, у меня возникло другое впечатление - что ключевые "мысли" остаются непродемонстрироваными.

Reply

ackforstpdcmnts January 29 2025, 19:15:03 UTC
Я сильно сомневаюсь, что нейросетевые "мысли", выраженные человеческим языком, могут настолько напоминать человеческое мышление.

Reply

cantanapoli January 29 2025, 19:17:49 UTC

В том-то и дело, что это отход от идеи черного ящика в пользу других способов взаимодействия с человеком. Не нужно считать что он на самом деле думает вот такими предложениями.

Reply

ackforstpdcmnts January 29 2025, 23:06:41 UTC
Конечно, он не думает такими предложениями, но даже если то, как он думает, можно, не соврав, выразить такими предложениями - это уже слишком человекоподобно для нейросети.

Нейросети сами охотно рассказывают, чем их способы генерации ответов отличаются от человеческих, и отсутствие строгого, формализуемого, последовательного мышления - фундаментальное "архитектурное" различие.

Поэтому, мне кажется, этот "внутренний диалог" - прикрученная свистоперделка для вау-эффекта, а не приоткрытая дверца в черный ящик.

Но я не настоящий эксперт по машинному обучению, могу и ошибаться, конечно.

Reply

truvor January 30 2025, 03:11:03 UTC

Но люди действуют точно так же. Довольно часто ответ приходит как бы сам, непонятно откуда. А другим надо объяснить, почему ты так решил. И тогда задним числом ищешь и подбираешь логическую цепочку. Получается презентация идеи.

Reply

sakurovskiy January 30 2025, 07:26:28 UTC

Наоборот было бы странно если бы оно сильно отличалось. Нейросетка и есть модель человеческого мозга, но только небольшой его части.

Reply

jenia_levin February 1 2025, 11:14:37 UTC
Это скорее всего очень упрощённое представление. Биологический мозг это скорее сеть из многих нейросетей с сильно различающимися архитектурами. Даже разные участки коры больших полушарий сильно различаются, не говоря уже про мозжечок и подкорковые структуры. И из этих архитектур подробное описание их структур есть лишь для некоторых фрагментов. Есть, например, недавний проект, в котором для небольшого фрагмента коры (порядка 1 см3 или меньше) построили трёхмерную модель со всеми клетками и всеми связями (синапсами) между ними. Но и это описание неполное: ведь веса этих связей по анатомическому препарату можно оценить лишь приблизительно ( ... )

Reply

sakurovskiy February 1 2025, 14:21:39 UTC

\\Это скорее всего очень упрощённое представление.

естественно.

Во-первых мы точно не знаем как работает наш мозг. Во-вторых даже если бы знали - у нас нет ресурсов чтоб это дело оцифровать и запустить, на данным момент наибольшие модели по количеству нейронов всё еще далеки от того количества что сидит у нас в мозгу.

Ну и вот как-то так.

Reply

jenia_levin February 1 2025, 16:32:00 UTC

Но как тогда можно говорить, что одно является моделью другого, если про устройство и особенно функционирование этого другого мы знаем слишком мало? И проблема в гораздо большей степени не в количестве нейронов, а в архитектуре сетей.

На более высоком уровне, чем локальная архитектура нейросетей, между человеческим словесным мышлением и работой LLM может обнаружиться сходство. Из-за сходной "среды обитания" и решаемых задач. Как между дельфинами и ихтиозаврами. Но и в этом случае моделями друг друга их назвать вряд ли можно.

Reply

sakurovskiy February 2 2025, 07:29:17 UTC

МОдель не обязательно означает полное соответствие, вполне можно говорить что нейросеть - модель мозга, хотя и не соответсвующая ему на 100%.

На данный момент нейросети отражают наши знания о мозге, будут уточнения - модели подправят.

Ну и дело именно в ресурсах, чтоб понять что наша модель не верная и где надо подкрутить, нам надо взять нейронов как в человеческом мозге, связей как в нем же и всё это дело запустить, а мы пока не можем.

Reply

ffedd_ya January 29 2025, 19:49:01 UTC
Хм.

Но если некто сможет угадывать правдоподобную последовательность чужих мыслей - то чем это будет отличаться от мышления?

Reply

cantanapoli January 29 2025, 20:52:10 UTC

Философский зомби...

Reply

ffedd_ya January 30 2025, 18:13:53 UTC
Нет, философский зомби - это относится к СОЗНАНИЮ, а не к МЫШЛЕНИЮ.

Reply

ackforstpdcmnts January 29 2025, 22:56:08 UTC
Я про другое.

Я про то, что вопросы "как ты получил этот ответ на вопрос?" и "как, по-твоему, человек мог бы получить этот ответ на вопрос?" - это разные вопросы.

И DeepSeek как будто бы отвечает на второй.

А из этого ответа нельзя ничего понять о том, как именно думает сама нейросеть.

Reply

ffedd_ya January 30 2025, 18:13:12 UTC
Нейросеть думает примерно так:

Ведь что значит "человек понимает текст"? Человек читает слова. Преобразует их в уме в некие идеи, понятия, которые в словах содержатся, но словам не равны и к ним не сводятся. Связывает эти понятия с другими, ранее усвоенными понятиями, выводит некое умозаключение и преобразует его обратно в слова ( ... )

Reply


Leave a comment

Up