Leave a comment

unera January 5 2025, 08:09:41 UTC
хоть творца мы готовим, хоть потребителя - а ИИ рано или поздно будет в этом процессе фигурировать в любом случае. Эта штука называется прогрессом.

А сопротивление ей - луддизм.

Нужно чётко разграничивать: наши запросы к системе образования, наши цели которые мы перед ним ставим и технологии, которые система образования будет применять.

Нельзя смешивать.

Применение ИИ - такая же технология, как применение электронных досок, плазменных панелей, видеоматериалов и так далее. Нельзя объединять это с "негодными целями" и бороться против. Иначе это именно луддизм получится

Reply

snik_snikov January 9 2025, 12:56:28 UTC

Прогресс - это не фетиш, а оценка результата. Если результат отрицательный, то и прогресс проблематичен. Так можно договориться, что создание новой формулы синтетических наркотиков - это неизбежный прогресс.

,

Reply

unera January 9 2025, 13:04:19 UTC

очень хороший метод спора - наклеивание ярлыков.

Явление, которое нам не нравится, сравниваем, например, с наркоманией, или, скажем рабовладением. И вуаля, спор сам собой становится не нужен.

Однако давайте вернёмся к AI.

Ситуация 1:

ребёнок задаёт вопрос. AI даёт ответ, строго выверенный с педагогической точки зрения (то есть понятный ребёнку с его багажом знаний)

Ситуация 2:

ребёнок задаёт вопрос. А живой педагог не обладает достаточными навыками, чтобы ответить так, чтобы ребёнку было понятно.

Какой вариант вы предпочли бы для своего ребёнка?

Вот, например, у моего ребёнка в школе крайне отвратительно преподаётся математика и физика. Абсолютно все ученики жалуются: "Ничего не понимаем". Я прямо не знаю, что с этим делать.

- Перевести в другую школу? Допустим, там с этими предметами будет лучше, а со скажем химией и историей хуже. Что делать? Дальше переводить?

- Требовать от школы замены преподавателя? (в данном случае имеем именно низкоквалифицированного педагога. Он объясняет "как сам понял", вводя странные термины в ( ... )

Reply

snik_snikov January 9 2025, 13:43:24 UTC

Ну это пока фантазии...

Я экспериментировал с доступными моделями ИИ. Могут они не слишком много, а главное доверять результатам нельзя (Например ChatGPT неверно решал задачи по математике 5-6 класса, яндексGPT, кстати видимо лучше освоивший российские сайты с ГДЗ, с ними справлялся без проблем). Ты должен быть достаточно компетентен, чтобы не только осознать ответ но и оценить его (верность, точность ответа, полноту и тд). Лучше всего существующие модели у меня справлялись с задачами форматирования текста. Тут я признаю их пользу, но это как-то маловато будет.

Теперь возьмем человека, тем более ребенка, который не критично подходит к тому, что выдает ему ИИ. Он не способен не верифицировать ответ, не оценить ни важность, ни актуальность, ни приоритет. И это не удивительно, так как этого не умеет делать ИИ. Он кушает всю информацию подряд и верифицировать ее невозможно из-за ее колоссальных объемов. А для ребенка это будет высшая инстанция.

Reply

unera January 9 2025, 13:53:06 UTC

> Ну это пока фантазии...

автоматический перевод или качественное распознавание текста было фантазиями совсем недавно, каких-то десять лет назад. А уж генерация картин, на уровне сопоставимом с многими художниками, так и вовсе были фантастикой.

и чтобы сделать применение AI в образовании НЕфантазиями, нужно просто поработать над этим.

речь ведь именно о перспективе, процитирую Ваш текст:

> ИИ должен в перспективе заменить учителей

Если AI сделает за следующие 10 лет такой же прогресс, как за предыдущие, то есть все шансы, что это возможно.

При этом, очевидно, что AI может иметь лучшее качество, нежели СРЕДНИЙ современный уровень преподавания. Уж по крайней мере он точно не будет выдумывать свои термины (ибо это проверяемо и исправляемо)

> Теперь возьмем человека, тем более ребенка, который не критично подходит к тому, что выдает ему ИИ.

повторюсь:

1. сейчас имеется куча ситуаций, когда безо всякого ИИ преподавание настолько плохо, что это даже не 19й век, это уровень шаманов или заклинателей

2. если ИИ будет выдавать в каких-то ( ... )

Reply


Leave a comment

Up