Preview

Вестник кибернетики

Расширенный поиск

ПРИМЕНЕНИЕ БАЙЕСОВСКИХ МЕТОДОВ ДЛЯ ОПТИМИЗАЦИИ ОБУЧЕНИЯ НЕЙРОСЕТЕВЫХ МОДЕЛЕЙ ТЕСТИРОВАНИЯ ПРИЛОЖЕНИЙ

https://doi.org/10.34822/1999-7604-2022-3-46-56

Аннотация

Нейросетевые модели являются универсальным инструментом для решения вероятностных задач в различных сферах и областях деятельности. Однако при решении ряда задач применение классических нейросетевых моделей и алгоритмов обучения может приводить к переобучению сети, вследствие чего происходит снижение точности апостериорного распределения выходного слоя нейросети и наблюдается слабая адаптивность сети к самообучению на основе ранее непредставленных данных в обучающей выборке. Тем самым снижаются возможности сети по выявлению аномалий. Одним из методов решения данной проблемы является использование байесовских методов для обучения и вероятностного вывода в нейросетях. При использовании байесовского под-хода в нейросетях подразумевается задание весов сети в виде вероятностного распределения по всем допустимым значениям, которые могут принимать параметры сети. Тогда для определения весов можно использовать классические механизмы обучения и вероятностного вывода, которые используются в байесовских сетях, в частности алгоритмы на основе метода Монте-Карло и цепей Маркова. В работе рассмотрены вопросы применения байесовских нейросетей для моделирования процесса тестирования веб-приложений.

Об авторе

П. В. Полухин
Воронежский государственный университет, Воронеж
Россия

кандидат технических наук

E-mail: alfa_force@bk.ru



Список литературы

1. Skansi S. Introduction to Deep Learning: From Logical Calculus to Artificial Intelligence. 2018. 191 p.

2. Зуев В. Н., Кемайкин В. Л. Модифицированные алгоритмы обучения нейронных сетей // Программные продукты и системы. 2019. Т. 4, № 2. С. 258–262.

3. Вершков Н. А., Кучуков В. А., Кучукова Н. Н. Теоретический подход к поиску глобального экстремума при обучении нейронных сетей // Тр. ИСП РАН. 2019. Т. 31, № 2. С. 41–52.

4. Russell S., Norvig P. Artificial Intelligence: A Modern Approach. Hoboken : Pearson, 2020. 1023 p.

5. Bunch P., Godsill S. Improved Particle Approximations to the Joint Smoothing Distribution Using Markov Chain Monte Carlo // IEEE Transactions Signal Processing. 2013. Vol. 61, Is. 4. P. 946‒953.

6. Mohan K., Pearl J. Graphical Models for Processing Missing Data // Journal of American Statistical Association. 2018. Vol. 116, Is. 534. P. 1023‒1037.

7. Азарнова Т. В., Полухин П. В., Аснина Н. Г., Проскурин Д. К. Формирование структуры байесовской сети процесса тестирования надежности информационных систем // Вестн. Воронеж. гос. техн. ун-та. 2017. Т. 13, № 6. 156 с.

8. Moral P. D., Doucet A. Particle Methods: An Introduction

9. with Application // ESAIM. 2014. Vol. 44. P. 1‒46.

10. Мельникова И. В., Сметанников Д. И. Исследование уравнений для вероятностных характеристик случайных процессов, заданных стохастическими уравнениями // Тр. ИММ УрО РАН. 2018. Т. 24, № 2. С. 185–193.

11. Bardenet R., Doucet A., Holmes C., Bardenet R. Towards Scaling up Markov Chain Monte Carlo:An Adaptive Subsampling Approach // Proceedings of the 31st International Conference on Machine Learning, June 22‒24, 2014, Beijing, China. 2014. Vol. 32, Is. 1. P. 405‒413.

12. LeCun Y., Bengio G., Hinton G. Deep Learning // Nature. 2015. Vol. 521. P. 436‒444.

13. Durmus A., Majewski S., Miasojedow B. Analysis of Langevin Monte Carlo via Convex Optimization // Journal of Machine Learning Research. 2019. Vol. 20. P. 1‒46.


Рецензия

Для цитирования:


Полухин П.В. ПРИМЕНЕНИЕ БАЙЕСОВСКИХ МЕТОДОВ ДЛЯ ОПТИМИЗАЦИИ ОБУЧЕНИЯ НЕЙРОСЕТЕВЫХ МОДЕЛЕЙ ТЕСТИРОВАНИЯ ПРИЛОЖЕНИЙ. Вестник кибернетики. 2022;(3 (47)):46-56. https://doi.org/10.34822/1999-7604-2022-3-46-56

For citation:


Polukhin P.V. USING BAYESIAN METHODS TO OPTIMIZE TRAINING OF NEURAL NETWORK MODELS FOR APPLICATION TESTING. Proceedings in Cybernetics. 2022;(3 (47)):46-56. (In Russ.) https://doi.org/10.34822/1999-7604-2022-3-46-56

Просмотров: 207


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1999-7604 (Online)