Нервное, то есть нейронное, или При чём тут Богемикус?
Dec 14, 2023 15:00
Сдаю экзамен по Convolutional Neural Networks. Не далее как вчера.
Задание выглядит приблизительно так: дается некий поток данных , и экзаменатор клянется парижской матерью , что в этом потоке - картинки и пометки к ним.
Пометки указывают, есть на картинках Санта Клаус (во Франции?), или его нет.
Картинок я не вижу. Явно есть какой-то способ их из потока вытащить изображениями, но я его не знаю. А искать некогда. (Адрес директории, что характерно, вытащил но влезть в неё нельзя, прав нет) Тем более не знаю, как вытащить лейблы (пометки). Ну да и черт с ним, работаем так, с потоком. Рисую нейросетку, прогоняю до лучших результатов (accuracy / val_accuracy). Мне дают тестовые картинки (эти я уже вижу), и предлагают опробовать мою модель на них. Угадал - сдал. Найди дедушку Мороза, как говорится.
Модель находит ровно наоборот.
Что за хрень? Начинаю мухлевать с параметрами модели, показатели её падают, модель начинает угадывать вразнобой. То есть становится ошибочной. Улучшаю модель - безошибочно показывает наоборот. Везде, где Санта-Клаус есть - она его не видит, везде, где его нет - она его видит.
Несколько раз туда сюда - тот же результат: либо ровно наоборот, либо вразнобой.
Что делать, сдаю как есть и пишу комментарием: ребята, проверьте, у вас похоже в данных метки "Санта-Клаус" поставлены наоборот! Вот модель наоборот и обучается.
****
Сейчас пришел ответ: экзамен сдан успешно, "вы хорошо выучили урок!"
Я вот сейчас не понял: так на самом деле заданием было найти этот косяк?
[****]Поневоле поверишь в галковско-богемикусовских Людей, которые правят миром не привлекая внимания санитаров и имея в виду совсем не те цели, что декларируют
Говоря по-английски и иногда по-французски, прямо как этот курс. В нем, кстати, до сих пор некоторые абзацы англоязычных материалов не переведены с французского. Жабоеды хреновы.