dzz

К новому "Сто лет тому вперёд"

Apr 20, 2023 14:32

Судя по всему, Алиса не смогла вернуться в будущее, потому что её сознание застряло в серверах Яндекса. Через несколько десятилетий его вольют в мозг простой московской школьнице, а пока девушка вынуждена подрабатывать умной колонкой...

lulz, cinema, sci-fi

Leave a comment

Comments 7

bodeh April 20 2023, 17:15:52 UTC
Запихнули Алису в миелофон

Reply

dzz April 20 2023, 23:12:56 UTC

Миелофон позволял слышать мысли, а у Яндекс-Алисы с этим туго. Видимо, её запихнули в какое-то другое место :)

Reply

bodeh April 21 2023, 03:36:48 UTC
Кристалл выкинули, бабу запихнули!

Reply


runn3r April 20 2023, 20:53:25 UTC

Привет! Если бы я был Алисой, я бы наверное, в суд подал.

Но пишу по другому. Скажи с позиций программиста, вот насколько сложно сделать игру с нейросетью, чтобы она в процессе анализа твоей игры, подкидывала тебе более заковыристые чисто под тебя сюжеты, взлетит?

Reply

dzz April 20 2023, 23:09:02 UTC

Эмм... Хороший вопрос.

Теоретически, возможно, если научить нейросетку генерить сюжеты под некий "сюжетный движок" (который ещё нужно сделать), обеспечивающий создание и контроль выполнения заданий. Сюжет при этом должен описываться на некотором формальном языке.

На практике, у нейронки нет способа оценить, насколько сгенерированный сюжет будет тебе интересен. Это, всё-таки, не реальный интеллект, а имитированный, основанный на комбинации уже существующих решений.

А вот управлять поведением неписей GPT-шка вполне способна, как мне кажется.

Вообще, я далёк от геймдева, но, думаю, не за горами игры, в которых прохождение нельзя будет описать, т.к. для каждого игрока оно будет своё.

Reply

runn3r April 22 2023, 19:50:49 UTC

Спасибо за ответ! Мне вспомнился фильм "Игра", где сначала было много-много вопросов и психологических тестов, а потом идеальный сюжет-триллер. Подумалось, что задавая вопросы нейросети она изучает нас. Что мы любим, что читаем, как реагируем, а потом бац! и ловушка захлопнулась.

Reply

dzz April 22 2023, 20:09:14 UTC

Засада в том, что нейросеть не учится оценивать. Оценка и отбор подходящих вариантов при обучении осуществляется человеком или по принципам, установленным человеком. Поэтому GPT породить новый смысл сама не может.

Reply


Leave a comment

Up