Никитин рассказал "скрытую возможность" ИИ ChatGPT, который оказался доступен ему и его коллегам - по темам, в которых мало загруженной инфы (типа той биологии, которой занимается Никитин с коллегами), ИИ ВЫДУМЫВАЕТ "источники", на которые ссылается в своих завиральных ответах. Вплоть до того, что выдумывает это в ответ самому автору этой
(
Read more... )
Comments 7
Reply
Но в той области, где спрашивал Никитин с коллегами - там сетка обучена слабо, и разумеется ничего адекватного не может дать, кроме банальностей и вранья. Но мой пост о том, что эта реализация ИИ оказалась допускает враньё по фактам - выдумывает несуществующие факты, статьи.
Reply
То есть умышленное обучение правдоподобному вранью?
Reply
Reply
"ИИ" при текущей архитектуре - это только статистическая машина, не больше. Трансформеры хорошо справляются с трансформацией пространства эмбеддингов под текущий контекст, вот и вся магия.
Reply
Что такое эмбединги, их пространство, и что такое их трансформировать "под текущий контекст"?
Reply
Эмбеддинги:
Трансформеры - архитектура нейросетей, на данный момент самая мощная. Первой победила классические методы сжатия в "Large Text Compression Benchmark", это очень показательно, ибо сжатие текста = предсказывание последовательности - почти ИИ. Хуттер об этом с 2000-х писал, и тут "внезапно" ChatGPT - всего лишь предсказывает следующее слово, а так много может.
Отсюда простой вывод: универсального ИИ с текущими архитектурами не будет. ChatGPT не сможет по просьбе изучить что-то новое, только добавить в контекст. Это прекрасно объясняет пример, когда человек "убедил" ChatGPT, что 2 + 2 = 5. Т.е. не возможно самообучение.
Когда появится принципиально новая архитектура требующая для обучения на порядки меньше ресурсов (текущее состояние отлично видно на Large Text Compression Benchmark) тогда можно напрягаться по поводу универсального ИИ.
Reply
Leave a comment