ChatGPT - чат-бот с искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках.
(Википедия) Все уже наслышаны об
опыте студента студента РГГУ, который написал и защитил (на троечку) диплом с помощью нейросети ChatGPT. Его диплом прошел проверку на плагиат, показав оригинальность 82%. Я уверен, что он не первый воспользовался генераторами текста для написания зачетных работ или рефератов, но первый, кто открыто в этом признался.
«Писать диплом с ChatGPT круто. Определенно, нужно редактировать самому, но большинство данных машина выдает сама», - откровенничал студент под ником @biblikz.
Прошла также новость о сданной журналистом
статье, созданной нейросетью и принесшей "автору" вполне реальные деньги.
Фактически, ChatGPT отвечает на любой вопрос. При этом программа не просто копирует ответ из Википедии, а анализирует и структурирует ответ, чтобы он был удобен для чтения и восприятия, а так же максимально релевантен вопросу. Нейросеть не только дает хороший ответ на вопрос, но и разъясняет его глубже и уходит в сопутствующие темы, если вы задаёте уточняющие вопросы.
Пишут, что
преподаватели РГГУ пришли в ужас от мысли, что студенты начнут штамповать рефераты и дипломы с помощью chatGPT, но никто не сможет отличить их от самостоятельно написанных работ. Особенно это опасно в гуманитарных областях, где различить науку и наукообразие намного труднее, чем, скажем, в математике или химии. Также встает вопрос,
кого считать автором работ, созданных искуственным интеллектом - создателей ChatGPT, авторов текстов, подобраных ботом или студента, который перевел и скомпилировал тексты, поставив под ними свою подпись.
Главная проблема в том, что хотя ChatGPT подбирает тексты по заданной теме, но вряд ли она может самостоятельно отличать достоверные, научные знания от ложных и псевдонаучных сведений. Так, ChatGPT использует Википедию как один из источников информации. Хотя поначалу Википедия представляла собой доступный всем справочник современных знаний, составленный компетентными энтузиастами, в настоящее время многие статьи выглядят предвзятыми или откровенно искажают информацию, в лучшем случае представляя фейки как "альтернативную точку зрения". Например, русская Википедия буквально оккупирована украинствующими и русофобствующими авторами, которые специально задались целью искажения информации в своих интересах. Поэтому при изучении истории ориентироваться на Википедию больше нельзя. Можно себе представить, что будет, если, скажем, плоскоземельщики объявят общий сбор и перепишут все статьи по географии, геологии и физике.
Также весьма вероятно, что вскорости ChatGPT на вопросы о происхождении жизни на Земле будет подкидывать статьи креационистов и поклонников межпланетного разума, а для лечении рака подберёт тексты о "лечении" торсионными полями, травяными настоями, БАДами, гомеопатией, перекисью водорода, водкой с маслом или керосиновыми клизмами - только потому, что у "альтернативщиков" оказалось достаточно времени и средств, чтобы заполнить Интернет соответствующей ерундой.
Не надо думать, что достоверность текстов, доступных ChatGPT, можно обеспечить, ограничив выбор источников наиболее надежными на взгляд разработчиков или администраторов нейросети. Например, повестка ЛГБТ, мультигендерности и смены пола весьма популярна во многих западных колледжах и университетах, которые традиционно считались надежными проводниками научной информации. Всё зависит от того, кто и с какой целью закажет "музыку", а как действуют многочисленные (в частности, американские) фонды и гранты, нацеленные на продвижение нужной им тематики, мы уже знаем.
После шума о злоупотреблениях ChatGPT компания Open AI задумалась о нейтрализации данного негативного эффекта и выпустила классификатор, отсеивающий тексты, которые сгенерированы при помощи ChatGPT. Правда, сама компания не может назвать это средство идеальным, потому что механизм определил только 26% текстов, написанных нейросетью, а текст, который написал человек, был назван созданным ботом в 9% случаев. Систему работы классификатора пока огласке не придали, но есть мнение, что тексты построенные нейросетью, содержат определенные метки, которые заставят сервис найти псевдослучайности в распределении каждого символа и отметить их как признак контента, генерированного сетью.