Думаю чего бы полезного поделать
1] Портировать свой научный код под CUDA написанный под пакет LAMMPS под более эффективный пакет HOOMD-Blue.
+) Низкий риск, что проект закончится ничем - как минимум код точно будет
+) напечатаю статью по этому делу и наберу немного цитат
+) так как большая часть кода написана, то отношение (усилия)/(кол-во строк кода) будет хорошим
+) конекшены - hpc чуваки из чикаго и nvidia
-) мало фидбэка - сам пакет имеет мало здвезд на гитхабе, похожие статьи имеют мало цитат
2] Написать (опять же на CUDA) LSTM Cell для низкоуровневой реализии рекурентных нейронный сетей (RNN)
https://github.com/baidu-research/persistent-rnn-) Высокий риск того, что усилия закончатся ничем. Возможно, я не сумею разобраться в базекода, или не смогу реализовать LSTM эффективнее чем распространненый пакеты
+) Разберусь в internals RNN и LSTM
+) Много плюсиков будет на github
+) конекшены - пацанами из байды которые делали это пакет
-) Цитируются такие статьи плохо (сам пакет имеет 10 цитат)
3] Продолжить копать в стоторону приложений RNN к разным задачам. Пройти, в частности, курс standford по Natural Language Processing using RNN. Решать классические задачи с kaggle.
+) Полезно для интервью и резюме - легко продать
+) Полезно для shift в сторону ML engineer
-) Импкат для человечества нулевой, нет никакой реальной задачи которую я решаю - низкая мотивация у меня посему