LORA

Mar 26, 2023 21:10


Для большой и «делающей всё одинаково плохо» базовой модели, требования и к железу, и к качеству обучающего датасета при fine tuning дообучении заметно ниже, чем при полноценной тренировке. Настолько, что это уже вполне осуществимо на очень продвинутом пользовательском компьютере. Но всё равно ресурсов нужно много, даже для обучения только одного ( Read more... )

stable diffusion, Нейронки, gpt

Leave a comment

Comments 5

109 March 27 2023, 04:02:41 UTC
Я бы не отказался от персонального помощника на основе GPT, которого можно дообучать. А то ни от гугл ассистента, ни от алексы большого толка нет. Кортану я даже и пробовать не стал.

Reply

snormer March 29 2023, 20:48:57 UTC

Я бы сказал, год до возможности запустить ChatGPT на ноутбуке. У него размер где-то порядка 600-700GB с обвязкой, оптимизированый утрамбуют в половину этого.

Reply

109 March 30 2023, 04:50:32 UTC
А зачем локально-то? Пусть себе в облаке крутится. Я не настолько тороплюсь, чтобы лишние 100 миллисекунд меня напрягли. Я скорее про функциональность и персональную настройку.

Reply


twincat March 29 2023, 20:37:19 UTC
Хорошая шутка про "нет лишних пальцев". На втором рисунке их как раз четыре.

Reply

snormer March 29 2023, 20:46:28 UTC

Я специально оставил, знаю. Это исправляется в течение 5 минут, просто показываешь сети на эту руку и говоришь исправить.

Тем не менее, на "зажатых" моделях, которые обучены генерировать только в определённом стиле и/или только одного человека, уже сейчас плохие пальцы будут на 1 картинке из 10 случайно сгенерированных. А не на 99 из 100, как вначале.

Reply


Leave a comment

Up