Беседа первая: введение, задачи байесовского вывода, основные вероятностные предположения машинного обучения.
Беседа вторая: эффект «горячей руки», сопряжённые априорные распределения.
Беседа третья: линейная регрессия и немного о глубоком обучении.
Беседа четвёртая: байесовский вывод в линейной регрессии и batch normalization.
Беседа пятая: геометрия классификации, оптимальный байесовский классификатор, немного о выборе моделей, свёрточные нейронные сети.
Беседа шестая: логистическая регрессия.
Беседа седьмая: статистическая теория принятия решений и ещё о свёрточных сетях.
Беседа восьмая: ещё немного о линейной регрессии и статистической теории принятия решений.
Беседа девятая: состязательные примеры, предсказательные распределения.
Беседа десятая: кластеризация, эмпирический байес, LSTM.
Беседа одиннадцатая: байесовский вывод для гауссиана, немного о порождающих моделях.
Беседа двенадцатая: экспоненциальное семейство, GAN'ы. Рассказ о задаче переноса стиля.
Беседа тринадцатая: VAE и трансформеры.
Беседа четырнадцатая: ещё о трансформерах.
Беседа пятнадцатая: EM, LambdaRank и прочее.
Беседа шестнадцатая: суслики и LambdaMART.
Беседа семнадцатая: немного о EM-алгоритме.
Беседа восемнадцатая обо всём на свете прошла очно в НИУ ВШЭ — Москва.
Беседа девятнадцатая: в основном о ранжировании.
Беседа двадцатая: вариационные приближения.
Беседа двадцать первая: LDA и RL.
Selected references
Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer, Information Science and Statistics series, 2006.
Kevin Murphy. Machine Learning: A Probabilistic Perspective, MIT Press, 2012.
David J. C. MacKay. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
С.И. Николенко, А.А. Кадурин, Е.О. Архангельская. Глубокое обучение. Питер, 2018.