Preview

Вестник кибернетики

Расширенный поиск

Получение разреженных решений с использованием d-оптимального разбиения исходной выборки на обучающую и тестовую части и критерия регулярности

Полный текст:

Об авторах

А. А. Попов
Новосибирский государственный технический университет
Россия


Ш. А. Бобоев
Новосибирский государственный технический университет
Россия


Список литературы

1. Suykens J. A. K., Van Gestel T., De Brabanter J., De Moor B., Vandewalle J. Least Square Support Vector Machines. New Jersey ; London ; Singapore ; Hong Kong : World Scientific, 2002. 290 p.

2. Vapnik V. Statistical Learning Theory. New York : John Wiley, 1998. 736 p.

3. Cherkassky V., Ma Y. Practical selection of SVM parameters and noise estimation for SVM regression // Neural Networks. 2004. № 17. P. 113–126.

4. Попов А. А., Саутин А. С. Определение параметров алгоритма опорных векторов при решении задачи построения регрессии // Сб. науч. тр. НГТУ (Новосибирск). 2008. № 2 (52). С. 35–40.

5. Popov A. A., Sautin A. S. Selection of support vector machines parameters for regression using nested grids // The Third International Forum on Strategic Technology (Novosibirsk), 2008. P. 329–331.

6. Mao W., Mu X., Zheng Y., Yan G. Leave-one-out cross-validation-based model selection for multi-input multi-output support vector machine // Neural Computing and Application. 2014. № 2 (24). P. 441–451.

7. Rivas-Perea P., Cota-Ruiz J., Rosiles J.-G.. A nonlinear least squares quasi-Newton strategy for LP SVR hyper-parameters selection // International Journal of Machine Learning and Cybernetics. 2014. № 4 (5). P. 579–597.

8. Gupta A. K., Guntuku S. C., Desu R. K., Balu A. Optimisation of turning parameters by integrating genetic algorithm with support vector regression and artificial neural networks // The International Journal of Advanced Manufacturing Technology. 2015. № 1–4 (77). P. 331–339.

9. Jsuykens A. K., De Brabanter J., Lukas L., Vandewalle J. Weighted least squares support vector machines: robastness and sparse approximation // Neurocomputing. 2002. Vol. 48. P. 85–105.

10. Степашко В. С., Кочерга Ю. Л. Методы и критерии решения задач структурной идентификации // Автоматика. 1985. № 5. С. 29–37.

11. Сарычев А. П. Усредненный критерий регулярности метода группового учета аргументов в задаче поиска наилучшей регрессии // Автоматика. 1990. № 5. С. 28–33.

12. Степашко В. С. Асимптотические свойства внешних критериев выбора моделей // Автоматика. 1988. № 6. С. 75–82.

13. Попов А. А. Разбиение выборки для внешних критериев селекции моделей с использованием методов планирования эксперимента // Заводская лаборатория. 1997. № 1. С. 49–53.

14. Попов А. А., Бобоев Ш. А. Получение тестовой выборки в методе LS-SVM с использованием оптимального планирования эксперимента // Науч. вестн. Новосиб. гос. технич. ун-та. 2016. № 4. С. 80–99.

15. Попов А. А. Последовательные схемы построения оптимальных планов эксперимента // Сб. науч. тр. НГТУ (Новосибирск). 1995. Вып. 1. С. 39–44.


Рецензия

Для цитирования:


Попов А.А., Бобоев Ш.А. Получение разреженных решений с использованием d-оптимального разбиения исходной выборки на обучающую и тестовую части и критерия регулярности. Вестник кибернетики. 2018;(3 (31)):162-168.

For citation:


Popov A.A., Boboev S.A. Obtaining of Sparse Solutions with D-Optimal Partitioning of Original Sample into Training and Test Parts and Regularity Criterion. Proceedings in Cybernetics. 2018;(3 (31)):162-168. (In Russ.)

Просмотров: 111


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1999-7604 (Online)