там пояснення є, в теоріі, валідейшен повинен бути десь почати зменшуватися (він і почав на 150 епосі, але перестав). але щось не дуже вийшло. далі, до речі, (я 5000 епох робив) мережа зовсім вмерла - загубився градієнт, і три крайні слої обнулилися.
Ага, з цими, нажаль, не допоможу, поки туди не добрався. Воюю з imbalanced learning на звичайній fully connected NN. І поки впевненого результату там добитись не вдалось - у мене працює звичайна логістична регресія :-)
Reply
Reply
Reply
там пояснення є, в теоріі, валідейшен повинен бути десь почати зменшуватися (він і почав на 150 епосі, але перестав). але щось не дуже вийшло.
далі, до речі, (я 5000 епох робив) мережа зовсім вмерла - загубився градієнт, і три крайні слої обнулилися.
просто дуже показовий фейл. такі танці з бубном.
Reply
Reply
Leave a comment