Плато нейронок

May 03, 2024 16:53

мы на плато нейронок, особых новостей нет, а с тем, что есть, надо лично придумывать как использовать. И как в книжках по психологии, рецепты одного не подходят всем - потому что разный опыт и разные обстоятельства ( Read more... )

нейронки

Leave a comment

Comments 21

live13 May 3 2024, 10:04:59 UTC

А есть уже что-то что можно на своем наборе картинок удобно тренировать?
А то достали эти одинаковые девушки в трусах со странными пропорциями и одинаковыми лицами.

Reply

karajel May 3 2024, 10:44:18 UTC

Для stable diffusion тренируются. Или готовые качаются.

А так можно смешивать лица знаменитостей и будут не одинаковые лица. А трусы вообще не обязательны.

Reply

kvisaz May 3 2024, 11:28:39 UTC
live13 May 3 2024, 12:00:07 UTC

Спасибо!

Reply


livelight May 3 2024, 10:12:27 UTC
Они руками пишут SEO, и притом претендуют, что у них хороший AI?

Reply

kvisaz May 3 2024, 11:32:48 UTC

у них рисовальный AI
а детали неясны, пишет так

"Я выгрузил из SEO анализатора органический трафик по которому находят наших конкурентов в гугле, скормил все это в контекстное окно как часть промпта и запросил у LLM популярные стили генераций, по которым пользователи ищут наших конкурентов.В итоге, на запуске, мы получили топ-10 стилей которые точно востребованы в интернете.Ради теста я сравнил результаты своего анализа между Claude 3 Opus 200k и Llama-3-8B-Instruct-Gradient-1048k, и могу сказать что локальная модель отлично справилась для своего размера и действительно смогла написать важные стили, похожие на то что выдал Opus. Так что теперь вы можете делать анализ больших корпусов текста дома."

https://mikitos.ru/denissexy/19594.html

Reply

livelight May 3 2024, 12:00:05 UTC
То есть, SEO таки на нейронке, который генерит вот это всё. Значит, молодцы. А основным читателем является робот гугла, который их ранжирует. А людишки... кто их спрашивает?...

Reply

kvisaz May 3 2024, 15:17:35 UTC

как я понял, SEO дали таблицу данных и попросили выдать наиболее популярные запросы

если честно, сейчас выглядит как обычная операция в Excel, то есть не понятно, зачем нужна была нейронка, если цифры были известны.

Reply


cosmicstarcat May 3 2024, 11:30:49 UTC
нейросетки обладают одним презанятным эффектом
ОНИ НАДОЕДАЮТ
Спустя некоторое время картинки перестают радовать, текст становится неприятно читать
Так как мозг начинает запоминать характерные образцы генераций.

А значит выпуск нейроконтента в масс медиа будет грозить ЗАБВЕНИЕМ. Когда зрителям оно надоест

Reply

kvisaz May 3 2024, 15:15:27 UTC

это старость

я не могу перед сном никого уже читать, все не так и все не то, неприятно читать.

Гоголь - все уже прочитал, все известно.

Кинг - ну какое адское словоблудие, тонны историй из американской субурбии на грамм действительно интересного сюжета. Первые 15 тонн таких историй интересны, далее только надоедают. Они однотипные у Кинга. Лучше любой фильм категории "Б" посмотреть - там больше шансов увидеть деталь из американского быта.

Говард Лавкрафт - просто мусор. Мусор, которым присыпаны пара-тройка интересных деталей. Все, все уже известно - и что увидит герой, и как он отреагирует - непременно с завыванием и спасительным обмороком в конце. Хотя в половине случаев ничего страшного не происходит.

Роберт Говард и Конан - просто удивительно, как я это читал. Нейронка пишет так же. Но я не могу отправить себя на сто лет назад.

Мелвилл, Моби Дик - очень много отступлений. Правда, много интересных деталей и фактов, но такой смешанный стиль, что периодически просто забываешь, где мы последний раз видели героя в реальной обстановке.

Лев ( ... )

Reply


_c_a_x_e_p_ May 3 2024, 11:35:17 UTC
Пукан не пробовал? https://github.com/KindXiaoming/pykan

Reply

kvisaz May 3 2024, 14:49:14 UTC

выглядит как математический аппарат для того, что еще только надо создать и научить

Reply


akor168 May 3 2024, 23:26:27 UTC
Плато нейронок?

Или вы пропустили слово локальных, которые можно запустить на домашней системе?

Reply

kvisaz May 4 2024, 07:01:09 UTC

а что, вышла GPT 5?

Reply

akor168 May 4 2024, 23:39:03 UTC
Так нам показывают лишь крохи, ошметки. При этом опен-сорсные модели уверенно подтягиваются к уровню прошлых лет, отставая по таймлайну от лидера, да.
Проблема сейчас о которой сейчас никто прямо не говорит что дальнейшее усиление моделей нецелесообразно пока не будет решена проблема копирайтных данных(можно ли их показывать моделям). Потому никто и не спешит, видимо ждут когда в Китае или в России наплюют на этот аспект и начнут обучать на пиратских данных вроде "колхоза" или собрания Элбакян. Впрочем это лишь моя гипотеза и в нее необязательно верить. Но лично мне неинтересны модели которые не читали всего корпуса написанных человечеством книг и статей(потому что нельзя требовать от агента информации которую ему даже не показывали). То есть пока нам демонстрируют игрушки, уровень которых уже впечатляет тем не менее.
Но стартовая точка это именно модель в которой действительно будет все базы знаний и весь интернет впридачу. Но для такой модели нет правовой базы.

Reply

akor168 May 5 2024, 00:00:13 UTC
Нет смысла сейчас повышать объем текущих моделей, если заранее известно что самые вкусные накопленные человечеством данные не могут быть им показаны. Современные модели не раз демонстрировали что они не читали первоисточников базовых, но копирайтных книг, но читали их пересказы и обсуждения.
И набивать произвольным мусором из интернета модели тоже нет смысла поскольку этот мусор стоит на этой самой базе. Последовательность должна быть - сначала моделям показывают все качественные источники, а потому уже пихать все остальное. На первом этапе жесткие юридические ограничения, да и на втором в принципе тоже. Либо модели можно показать любой текст, либо это будет сделано в Корее(Китае, Иране, России). Любой прецедент вида что создатели моделей должны договариваться с КАЖДЫМ инстансом авторского права - бай-бай преимущество условного западного мира в ИИ.

Reply


Leave a comment

Up