С Чад-гопотой связана одна малообсуждаемая проблема. Чтобы научить её общаться на уровне среднего человека, ей потребовалось скормить ВСЕ существующие тексты. Ну ладно, может, не все. Пусть будет 0,001%. Но всё равно это миллионы текстов. Человеки как-то обходятся без таких количеств. Очевидно, есть неизмеримо более эффективные способы обучения нейросетей, по сравнению с тем, что практикуется сейчас. "Многого мы ещё не знаем".
Но, с другой стороны, всё можно истолковать иначе, в эзотерическом ключе. Что, если методы обучения языковых моделей типа GPT близки к идеалу, и заметно улучшить их нельзя? Что, если эти модели обучаются с эффективностью, близкой к предельной? И для этого необходимы миллионы текстов, да, именно так. Но как же тогда обучаются люди?
Эзотерический ответ: а никак! Потому что на самом деле ум точно такая же внешняя по отношению к тушке вещь, как и сознание. Представим, что где-то в эмпиреях существует GPT-образная модель, заведующая языком, счётом и всякими символьными операциями - что-то вроде Тота-Гермеса-Джехути из
рассказа Харитонова, только, в отличие от него, не являющаяся богом или демоном, а лишённая всякого личностного начала - просто чистая способность, "ничейная сообразительность", "пучок эвристик в омега-пространстве". Когда сознание, тоже живущее где-то в эмпиреях, подключается к новорожденному телу, оно запрашивает "Гермеса", и тот предоставляет ему часть своих вычислительных мощностей. По мере того, как человек растёт и взрослеет, "Гермес" даёт ему всё больше возможностей. Этим объясняется, как дети так быстро учатся языку и прочему: на самом деле они не учатся, им постепенно подгружают новые библиотеки. Учится только "Гермес", когда его клиенты сталкиваются с новым словом, мемом или методом обработки информации. "Гермес" это усваивает и вносит в общий фонд. А потом отмеряет клиентам по чайной ложке.