ВАРИАЦИОННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ И ОПРОСА ДИНАМИЧЕСКИХ БАЙЕСОВСКИХ СЕТЕЙ В УСЛОВИЯХ ЧАСТИЧНОЙ НАБЛЮДАЕМОСТИ ПАРАМЕТРОВ
https://doi.org/10.34822/1999-7604-2022-2-75-84
Аннотация
Использование вероятностных моделей на основе байесовских сетей является распространенным механизмом для описания процессов, протекающих в условиях неопределенности. Одним из актуальных направлений, связанных с оптимизацией расчета вероятностных характеристик динамических байесовских сетей, является оптимизация решения задач факторизации, распространения свидетельств и вычисления полного совместного распределения каждой из вершин графа байесовской сети. В исследовании рассматривается возможность представления байесовских сетей в виде гиперграфов. Исследование данного вопроса связано с необходимостью разработки оптимальных алгоритмов обучения байесовских сетей и определением основных подходов к реализации процедур опроса сети. Рассмотрены особенности использования вариационного вывода при формировании моделей перехода для нескольких смежных временных срезов с учетом семантики динамических байесовских сетей. Представлены алгоритмы для дискретных и непрерывных моделей динамических байесовских сетей. Предложенные подходы позволяют оптимизировать процедуру расчета априорных распределений динамической байесовской сети, упростить ее топологическую структуру, а так-же оптимизировать процедуру опроса сети в момент получения новых свидетельств и определения распределения вероятностей для скрытых переменных с учетом данных свидетельств.
Об авторе
П. В. ПолухинРоссия
кандидат технических наук
E-mail: alfa_force@bk.ru
Список литературы
1. Pearl J. Causality: Models, Reasoning and Inference. Cambridge University Press, 2009. 484 p.
2. Тихонов В. И., Миронов М. А. Марковские процессы. М. : Сов. радио, 1977. 488 с.
3. Jensen F. V., Nielsen T. D. Bayesian Networks and Decision Graphs. New York : Springer, 2007. 441 p.
4. Рассел С., Норвиг П. Искусственный интеллект: современный подход. М. : Вильямс, 2006. 1408 с.
5. Zacks S. Introduction to Reliability Analyses: Probability Models and Statistical Models. New York : Springer-Verlag, 1992. 212 p.
6. Murphy K. P. Machine Learning: A Probabilistic Perspective.
7. Massachusetts : MIT Press, 2012. 1067 p.
8. MacKay D. J. C. A Practical Bayesian Framework for Backpropagation Networks // Neural Computation. 1992. Vol. 4, No. 3. P. 448‒472.
9. Kullbak S., Leibler R. A. Information and Sufficiency // Ann Math Statist. 1951. Vol. 22, No 1. P. 79–86.
10. Bardenet R., Doucet A., Holmes C. Towards Scaling up Markov Chain Monte Carlo: An Adaptive Subsampling Approach // PMLR. 2014. Vol. 32, Is. 1. P. 405‒413.
11. Полухин П. В. Инструменты оптимизации многочастичного фильтра для вероятностных моделей динамических систем // Системы управления и информ. технологии. 2021. № 4 (86). С. 4–10.
12. Del Moral P., Doucet A., Jasra A. On Adaptive Resampling Procedures for Sequential Monte Carlo Methods // Bernoulli. 2012. Vol. 18, No. 1. P. 252‒278.
13. Ross S. M. Stochastic Processes. 2nd edition. New York: Wiley, 1996. 510 p.
14. Del Moral P. Nonlinear Filtering: Interacting Particle Resolution // Markov Processing and Related Fields. 1996. Vol. 2, No. 4. P. 555‒580.
15. Zaharia M., Chowdhury M., Das T. Resilent Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing // 9th USENIX Symposium on Networked Systems Design and Implementation, April 25‒27, 2012, San Jose. P. 1‒15.
Рецензия
Для цитирования:
Полухин П.В. ВАРИАЦИОННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ И ОПРОСА ДИНАМИЧЕСКИХ БАЙЕСОВСКИХ СЕТЕЙ В УСЛОВИЯХ ЧАСТИЧНОЙ НАБЛЮДАЕМОСТИ ПАРАМЕТРОВ. Вестник кибернетики. 2022;(2 (46)):75-84. https://doi.org/10.34822/1999-7604-2022-2-75-84
For citation:
Polukhin P.V. VARIATIONAL LEARNING AND SURVEY ALGORITHMS OF DYNAMIC BAYESIAN NETWORKS IN PARTIAL OBSERVABILITY OF PARAMETERS. Proceedings in Cybernetics. 2022;(2 (46)):75-84. https://doi.org/10.34822/1999-7604-2022-2-75-84