В докладе будут рассмотрены два основных класса моделей в анализе данных и машинном обучении — генеративные и дискриминантные модели, а также связь между ними. Будет представлено описание роли этих моделей в рамках двух наиболее перспективных подходов к машинному обучению — глубокого обучения и вероятностного программирования. В частности, речь пойдет о нейробайесовском подходе, в котором модели глубокого обучения в явном виде описываются как генеративные и дискриминантные, а также о нейровероятностном программировании как объединении двух парадигм на примере библиотеки Edward.
Далее будет рассказано, как связь между генеративными и дискриминантными моделями может быть понята в терминах специализации программ. На примере таких моделей глубокого обучения, как автоэнкодеры и генеративные конкурирующие сети, будет рассказано, как вариационный байесовский вывод может трактоваться в качестве специализации, и как вероятностные программы можно компилировать в сети глубокого обучения. Далее будет описана новая концепция частичной специализации и ее связь с методами метаобучения.
Скачать презентацию