Нейронки - это такие предметы, практическая часть которых не измерена полностью.
Я недавно понялъ слѣдующее - программа chatGPT освоила естественный языкъ и рядъ предметныхъ областей лучше, чѣмъ люди сегодня могутъ провѣрить или измѣрить.
Поясню на примѣрѣ. Скажемъ, для англiйскаго языка есть оффицiально установленные уровни владенiя языкомъ и соотвѣтствующiе экзамены. То же для нѣмецкаго, французскаго. Сдалъ такой-то экзаменъ, значитъ, овладѣлъ языкомъ на такомъ-то уровнѣ. Но фокусъ въ томъ, что chatGPT уже прошелъ всѣ эти уровни, онъ уже можетъ сдать всѣ эти экзамены.
И то же самое въ другихъ областяхъ. ChatGPT уже можетъ пройти интервью на должность "старшiй программистъ" Гугла, сдать экзамены на MBA (Master of Business Administration) и bar exam (базовый экзаменъ для адвокатовъ). У насъ больше нѣтъ стандартныхъ способовъ измѣрять уровень знанiй или интеллекта chatGPT, онъ уже превзошелъ всѣ эти наши способы.
Ошибки chatGPT видны только эксперту, причемъ часто экспертъ заключаетъ, что ошибокъ нѣтъ. Это не значитъ, что chatGPT "
( ... )
это если стандартизированная программа проверки знаний. Собеседование с экспертом пока быстро выявляет. Неоднократно тут писали, что экзаменовали этого бота по своему профильному предмету, уровень - двоечник, которому ставят тройку потому, что отвечает похожими кусками из лекций, но совершенно ясно видно, что не понимает.
Именно. Присылайте на нормальный экзамен ко мне. Можно любого, хоть естественного идиота с нагрузкой в виде наисовременнейшего искусственного такого же. Буду спрашивать не то, что они смогут накомпилировать. Легко.
«Буду спрашивать не то, что они смогут накомпилировать» - какая цель таких вопросов? Кроме поднятия ЧСВ? Увидеть какое у человека в голове общее видение дисциплины? Ну так можно составить задачу без вычислений, задать человеку и послушать как он рассуждает.
А «учиться учиться» у нас проверялось на «квантовой электродинамике» (что ли) где готовится к ответу надо было с учебником/конспектом. То есть фактически делать «компиляцию компиляции».
Цель в педагогике одна. Должен научиться сам применять то, что услышал на лекциях и освоил на семинарах. Не только повторять попкой сказанное преподавателем или прочитанное в учебнике. Должен научиться приводить собственные примеры и составлять необходимые, показательные по теме вытянутого билета конструкции и готовить обоснования к ним. Покажи как мыслишь.
Я бы сказалъ, что тестъ Тьюринга никогда не работалъ, а не "пересталъ работать". У насъ никогда не было увѣренности, что мы знаемъ, какъ отличить человѣка отъ машины, задавая вопросы и получая отвѣты. А теперь мы знаемъ, что уже не можемъ этого сдѣлать - у насъ есть машина, отвѣчающая на вопросы точно какъ человѣкъ.
Это означаетъ, что у насъ нѣтъ четкихъ, надежно работающихъ критерiевъ того, что есть "разумъ" или "интеллектъ" или "умъ" или "душа". Принято говорить такими словами о людяхъ, но мы точно не знаемъ, что означаютъ эти слова.
А зачем это ангелу-машине? Это человеку нужно постоянно отличать несущественные вещи: навроде того, кто запостил хадис в комментарии к Иванову-Петрову - человек или искин.
Нейронки - это такие предметы, практическая часть которых не измерена полностью.
Я недавно понялъ слѣдующее - программа chatGPT освоила естественный языкъ и рядъ предметныхъ областей лучше, чѣмъ люди сегодня могутъ провѣрить или измѣрить.
Поясню на примѣрѣ. Скажемъ, для англiйскаго языка есть оффицiально установленные уровни владенiя языкомъ и соотвѣтствующiе экзамены. То же для нѣмецкаго, французскаго. Сдалъ такой-то экзаменъ, значитъ, овладѣлъ языкомъ на такомъ-то уровнѣ. Но фокусъ въ томъ, что chatGPT уже прошелъ всѣ эти уровни, онъ уже можетъ сдать всѣ эти экзамены.
И то же самое въ другихъ областяхъ. ChatGPT уже можетъ пройти интервью на должность "старшiй программистъ" Гугла, сдать экзамены на MBA (Master of Business Administration) и bar exam (базовый экзаменъ для адвокатовъ). У насъ больше нѣтъ стандартныхъ способовъ измѣрять уровень знанiй или интеллекта chatGPT, онъ уже превзошелъ всѣ эти наши способы.
Ошибки chatGPT видны только эксперту, причемъ часто экспертъ заключаетъ, что ошибокъ нѣтъ. Это не значитъ, что chatGPT " ( ... )
Reply
Теорема о бесконечности комаров. (Питерские поймут)
Reply
/Ошибки chatGPT видны только эксперту/
это если стандартизированная программа проверки знаний. Собеседование с экспертом пока быстро выявляет. Неоднократно тут писали, что экзаменовали этого бота по своему профильному предмету, уровень - двоечник, которому ставят тройку потому, что отвечает похожими кусками из лекций, но совершенно ясно видно, что не понимает.
Reply
Reply
Вот таких вот преподов и не любят: что-то спрашивают, а что хотят - не понятно.
Reply
Reply
«Буду спрашивать не то, что они смогут накомпилировать» - какая цель таких вопросов? Кроме поднятия ЧСВ? Увидеть какое у человека в голове общее видение дисциплины? Ну так можно составить задачу без вычислений, задать человеку и послушать как он рассуждает.
А «учиться учиться» у нас проверялось на «квантовой электродинамике» (что ли) где готовится к ответу надо было с учебником/конспектом. То есть фактически делать «компиляцию компиляции».
Reply
Покажи как мыслишь.
Reply
Ну то есть «тест Тьюринга, придуманный для уверенного отличия машины от человека, перестал работать. Но при чем здесь разумность машины или человека?»
Reply
Я бы сказалъ, что тестъ Тьюринга никогда не работалъ, а не "пересталъ работать". У насъ никогда не было увѣренности, что мы знаемъ, какъ отличить человѣка отъ машины, задавая вопросы и получая отвѣты. А теперь мы знаемъ, что уже не можемъ этого сдѣлать - у насъ есть машина, отвѣчающая на вопросы точно какъ человѣкъ.
Это означаетъ, что у насъ нѣтъ четкихъ, надежно работающихъ критерiевъ того, что есть "разумъ" или "интеллектъ" или "умъ" или "душа". Принято говорить такими словами о людяхъ, но мы точно не знаемъ, что означаютъ эти слова.
Reply
Ну да, так и Тьюринг-то придумывал тест скорее чтобы показать, что мы не можем отличить машину от человека.
Reply
зато машина может отличить человека от машины - попросив респондента быстро сосчитать что-либо: человек просто будет значительно медленнее робота
Reply
А зачем это ангелу-машине? Это человеку нужно постоянно отличать несущественные вещи: навроде того, кто запостил хадис в комментарии к Иванову-Петрову - человек или искин.
Reply
Машина может притвориться человеком.
Reply
но человек не всегда сможет притвориться машиной
Reply
Читаю "тесть Тьюринга". Думаю "А что, Тьюринг был женат?"
Reply
Leave a comment