Эксперименты с GPT-2 в чатботе

Sep 11, 2020 07:25

В тестовый стенд чатбота интегрирована модель GPT-2, дообученная на массиве диалогов. Общий объем диалогов после отфильтровывания мата и жаргона - около 1 Гб, в основном чит-чат. Процедуру обучения GPT-2 пришлось немного доработать, так как оригинальный код рассчитан на большие тексты, а у нас - короткие реплики.

Некоторые тестовые разговоры двух ботов:


B: Привет
H: ага, привет
B: о чем тебе хотелось бы поговорить?
H: какой у тебя iq?
B: мой iq равен 100
H: откуда тебе это известно?
B: не хватает знаний для ответа на вопрос
H: ты тупая?
B: К сожалению, иногда я говорю глупости, да :(
H(GPT): не всё так плохо . но что мне делать без глупостей ?
B: в деньгах я не разбираюсь
H(GPT): а ну в самом деле . . .

B: Привет, буду рада ответить на вопросы
H: как дела?
B(...): что еще обсудим?
H: Ты врешь так прямо в глаза?
B: о чем будем говорить?
H: давай о чатботах
B: любой чатбот хочет стать скайнетом
H(GPT): например ?
B: к сожалению, не хватает информации для ответа на этот вопрос
H: ты можешь научиться чему-то новому?
B: Жаль, но ответить я не смогу
H: ты тупая?
B: К сожалению, иногда я говорю глупости, да :(
H(GPT): ну и дура .

chitchat, генеративная модель, читчат, чат-боты, gpt-2, генерация текста, чатбот

Previous post Next post
Up