Сокращение оценки усадки джеймса–штейна для решения задачи автоматической группировки однородных производственных партий

封面

如何引用文章

全文:

开放存取 开放存取
受限制的访问 ##reader.subscriptionAccessGranted##
受限制的访问 订阅存取

详细

Сокращение оценки усадки Джеймса–Штейна может значительно повысить точность кластерного анализа k-средних для относительно широкого диапазона данных. В статье исследована эффективность использования оценки усадки Джеймса–Штейна при решении задачи автоматической группировки промышленной продукции в однородные производственные партии. Проведены испытания для партий интегральных схем путем сравнения полученных результатов усадки с традиционным алгоритмом k-средних. Набор данных нормализуется в соответствии со значениями допустимого дрейфа, приемлемого параметра и стандартного отклонения. С помощью индекса Rand установлено, что точность кластеризации существенно возрастает в задаче автоматической группировки промышленной продукции в однородные производственные партии, когда средние значения неинформативных параметров уменьшаются до нуля. Установлено, что использование сокращения оценки усадки Джеймса–Штейна позволяет снизить влияние неинформативных параметров нормализованных данных до приемлемых значений.

全文:

受限制的访问

作者简介

Ф. Ахматшин

Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнева

Email: kravchenko-in71@yandex.ru
俄罗斯联邦, Красноярск

И. Петрова

Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнева

Email: kravchenko-in71@yandex.ru
俄罗斯联邦, Красноярск

Л. Казаковцев

Сибирский федеральный университет

Email: kravchenko-in71@yandex.ru
俄罗斯联邦, Красноярск

И. Кравченко

Институт машиноведения им. А. А. Благонравова РАН

编辑信件的主要联系方式.
Email: kravchenko-in71@yandex.ru
俄罗斯联邦, Москва

参考

  1. Ершов И. А., Воскобойникова О. Б., Стукач О. В. Кластерный анализ процессов в полупроводниковом производстве // Динамика систем, механизмов и машин. 2016. Т. 2. № 1. С. 178.
  2. Rozhnov I., Orlov V., Kazakovtsev L. Ensembles of clustering algorithms for problem of detection of homogeneous production batches of semiconductor devices // School-Seminar on Optimization Problems and their Applications. 2018. V. 2098. P. 338. http://ceur-ws.org/Vol-2098/paper29.pdf
  3. Oti E. U., Olusola M. O., Eze F. C., Enogwe S. U. Comprehensive Review of K-Means Clustering Algorithms // Int. J. of Advances in Scientific Research and Engineering. 2021. V. 7 (8). P. 64.
  4. Федосов В. В., Орлов В. И. Минимально необходимый объем испытанных изделий микроэлектроники на этапе входного контроля // Известия высших учебных заведений. Приборостроение. 2011. Т. 54. № 4. С. 58.
  5. Ahmatshin F. Selection of free parameter forel-2 algorithm in the problem of automatic grouping of industrial products by homogeneous production batches // Системы управления и информационные технологии. 2021. P. 28. https://doi.org/10.36622/Vstu.2021.86.4.006
  6. Mathai A., Provost S., Haubold H. Factor Analysis // Multivariate Statistical Analysis in the Real and Complex Domains. 2022. P. 679. https://doi.org/10.1007/978–3–030–95864–0_111
  7. Na S., Xumin L., Yong G. Research on k-means clustering algorithm: an improved k-means clustering algorithm // In: 2010 Third Int. Symposium on Intelligent Inf. Technology and Security Informatics, Jinggangshan. P. 63.
  8. Patel V. R., Mehta R. G. Modified k-Means Clustering Algorithm // Computational Intelligence and Inf. Technology. 2011. V. 250. Р. 307. https://doi.org/10.1007/978-3-642-25734-6_46
  9. Li Y., Wu H. A clustering method based on K-means algorithm // Physics Procedia. 2012. V. 25. P. 1104. https://doi.org/10.1016/j.phpro.2012.03.206
  10. Perez-Ortega J., Almanza-Ortega N.N., Romero D. Balancing effort and benefit of K-means clustering algorithms in Big Data realms // PLoS ONE. 2018. V. 13 (9). е0201874. https://doi.org/10.1371/journal.pone.0201874
  11. Aggarwal C. C., Reddy C. K. Data Clustering Algorithms and Applications. Publisher: CRC Press, 2013. https://www.researchgate.net/publication/331534089
  12. Kazakovtsev L. A., Antamoshkin A. N., Masich I. S. Fast deterministic algorithm for EEE components classification // IOP Conf. Series: Materials Science and Engineering. 2015. V. 94. P. 012015. https://doi.org/10.1088/1757-899X/04/1012015
  13. Ansari S. A., Darmawan N., Robbi R., Rahmat H. Using K-means clustering to cluster provinces in Indonesia // J. of Physics Conf. Series. 2018. V. 1028 (1). P. 012006.
  14. Hossain Md., Akhtar Md.N., Ahmad R. B., Rahman M. A dynamic K-means clustering for data mining // Indonesian J. of Electrical Engineering and Computer Science. 2019. V. 13 (2). P. 521. https://doi.org/10.11591/ijeecs.v13.i2.pp521-526
  15. Шкаберина Г. Ш., Казаковцев Л. А., Ли Ж. Модели и алгоритмы автоматической группировки объектов на основе модели k-средних // Сибирский журнал науки и технологий. 2020. Т. 21. № 3. С. 347. https://doi.org/10.31772/2587-6066-2020-21-3-347-354
  16. Kumar S., Tripathi Yo. M., Misra N. James–Stein type estimators for ordered normal means // J. of Statistical Computation and Simulation. 2006. V. 75. P. 501. https://doi.org/10.1080/00949650412331272877
  17. Tong T., Jang H., Wang Y. James–Stein type estimators of variances // J. of Multivariate Analysis. 2012. V. 107. P. 232. https://doi.org/10.1016/j.jmva.2012.01.019
  18. Gao J., Hitchcock D.B. James-Stein shrinkage to improve k-means cluster analysis // Computational Statistics & Data Analysis. 2010. V. 54. P. 2113. https://doi.org/10.1016/j.csda.2010.03.018

补充文件

附件文件
动作
1. JATS XML
2. Fig. 1. Comparative results for the 140UD25A IC with a different coefficient k for reducing the James-Stein shrinkage estimate by the value of the objective function: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

下载 (69KB)
3. Fig. 2. Comparative results for the 140UD25A IC with a different coefficient k for reducing the James–Stein shrinkage estimate by the standard deviation of the objective function value: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

下载 (76KB)
4. Fig. 3. Comparative results for the 140UD25A IC with a different k coefficient for reducing the James-Stein shrinkage estimate by the Rand index: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

下载 (71KB)
5. Fig. 4. Comparative results for the 140UD25A IC with a different k coefficient for reducing the James-Stein shrinkage estimate by the standard deviation of the Rand index: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

下载 (77KB)
6. Fig. 5. Comparative results for the 140UD26A IC with a different coefficient k for reducing the James–Stein shrinkage estimate by the value of the objective function: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

下载 (68KB)
7. Fig. 6. Comparative results for the 140UD26A IC with a different coefficient k for reducing the James–Stein shrinkage estimate by the standard deviation of the objective function value: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

下载 (72KB)
8. Fig. 7. Comparative results for IC140UD26A with a different k coefficient for reducing the James–Stein shrinkage estimate by the Rand index: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

下载 (66KB)
9. Fig. 8. Comparative results for the 140UD26A IC with a different k coefficient for reducing the James-Stein shrinkage estimate by the standard deviation of the Rand index: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

下载 (81KB)

版权所有 © Russian Academy of Sciences, 2024