УДК 004.8:004.942
DOI: 10.36871/2618-9976.2025.12–2.013
Авторы
Юрий Владиславович Трофимов,
Ассистент, младший научный сотрудник, Государственный университет «Дубна»; инженер-программист, ЛИТ им. М. Г. Мещерякова ОИЯИ, Дубна, Россия
Иван Александрович Матвеев,
Доктор технических наук. ФИЦ ИУ РАН, Москва, РФ; Государственный университет «Дубна», Дубна, Россия
Алексей Николаевич Аверкин,
Кандидат физико-математических наук, доцент, руководитель научноисследовательского центра ИИ Государственного университета «Дубна», Дубна, Россия
Александр Дмитриевич Лебедев,
Студент, Государственный университет «Дубна», Дубна, Россия
Андрей Сергеевич Ильин,
Студент, Университет Иннополис; Государственный университет «Дубна», Дубна, Россия
Михаил Дмитриевич Лебедев,
Магистрант, НИТУ «МИСиС»; Государственный университет «Дубна», Дубна, Россия
Аннотация
В работе предлагается гибридная нейро-символическая архитектура HYBRID-XIRIS, объединяющая перцептивные возможности глубоких сверточных нейронных сетей с когнитивной прозрачностью нечетких логических систем вывода. Система реализует последовательный конвейер: семантическую сегментацию анатомических структур глаза посредством YOLOv8s, извлечение 140+ интерпретируемых признаков с адаптивными фильтрами Габора, агрегацию в четыре лингвистические переменные и принятие решений через ANFIS с базой из 42 экспертных правил. Особое внимание уделяется механизму адаптивной фильтрации, где параметры вейвлетов динамически подстраиваются под энтропию шума входного изображения. Экспериментальные исследования на наборе OpenEDS демонстрируют точность детекции mAP@0.5 = 0.995 при устойчивости к синтетическим деградациям. Основным достижением работы является формирование семантических объяснений результатов идентификации на естественном языке, что открывает перспективы создания доверенных систем ИИ.
Ключевые слова
объяснительный
искусственный интеллект
биометрия радужки
нечеткая логика
адаптивная фильтрация
нейро-символические системы
ANFIS
доверенный ИИ
детекция YOLO
Список литературы
[1] Матвеев И. А., В. Новик, and И. Литвинчев, “Влияние факторов деградации на оптимальные пространственно-спектральные признаки биометрических шаблонов,” Журнал вычислительных наук, vol. 25, pp. 419–424, 2018.
[2] Трофимов Ю. В. and А. Н. Аверкин, “Связь доверенного искусственного интеллекта и XAI 2.0: Теория и фреймворки,” Мягкие измерения и вычисления, vol. 90, no. 5, pp. 68–84, 2025, doi: 10.36871/2618-9976.2025.05.006.
[3] Arrieta A. B., N. Diaz-Rodriguez, J. Del Ser, et al., “Explainable artificial intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI”, Information Fusion, vol. 58, pp. 82–115, 2020.
[4] Boteanu B., U. Pal, T. Blanton, and N. M. Nasrabadi, “OpenEDS: Open eyes dataset.” arXiv preprint arXiv:1901.08935, 2019.
[5] Chen C., O. Li, D. Tao, A. Barnett, C. Rudin, and J. K. Su, “This looks like that: Deep learning for interpretable image recognition,” in Advances in neural information processing systems, 2019.
[6] Daugman, “How iris recognition works,” IEEE Transactions on Circuits and Systems for Video Technology, vol. 14, no. 1, pp. 21–30, 2004.
[7] Flinkow T., S. Schockaert, V. Belle, et al., “Comparing differentiable logics for learning with logical constraints,” Information Fusion, 2025, https://doi.org/10.1016/j.scico.2025.103280.
[8] Fodor J. C., “A characterization of the hamacher family of t-norms,” Fuzzy Sets and Systems, vol. 61, no. 2, pp. 201–212, 1994, doi: 10.1016/0165-0114(94)90246-1.
[9] Ghassemi M., T. Naumann, P. Schulam, A. L. Beam, I. Y. Chen, and R. Ranganath, “A review of challenges and opportunities in machine learning for health,” AMIA Summits on Translational Science Proceedings, vol. 2021, p. 191, 2021.
[10] Hammer B. and P. Hitzler, Eds., Perspectives of neural-symbolic integration. Springer, 2007.
[11] Jain S. and B. C. Wallace, “Attention is not explanation,” in Proceedings of the 2019 conference of the north american chapter of the association for computational linguistics, 2019, pp. 3543–3556. doi: 10.18653/v1/N19-1357.
[12] Jang J.-S. R., “ANFIS: Adaptive-network-based fuzzy inference system,” IEEE Transactions on Systems, Man, and Cybernetics, vol. 23, no. 3, pp. 665–685, 1993, doi: 10.1109/21.256541.
[13] Jocher G., A. Chaurasia, and J. Qiu, “Ultralytics YOLOv8.” GitHub repository, 2023. Available: https://github.com/ultralytics/yolov8
[14] Kasabov N. K., “Evolving fuzzy neural networks for supervised/unsupervised online knowledge-based learning,” IEEE Transactions on Systems, Man, and Cybernetics, Part B, vol. 31, no. 6, pp. 902–918, 2001, doi: 10.1109/3477.969494.
[15] Lakkaraju H., N. Arsov, and O. Bastani, “Rethinking explainability as a dialogue: A practitioner’s perspective,” Communications of the ACM, vol. 65, no. 7, pp. 85–95, 2022, https://doi.org/10.48550/arXiv.2202.01875.
[16] Lin C.-T and C. S. G. Lee, “Neural-network-based fuzzy logic control and decision system,” IEEE Transactions on Computers, vol. 40, no. 12, pp. 1320–1336, 1991, doi: 10.1109/12.106218.
[17] Lundberg S. M. and S. Lee, “A unified approach to interpreting model predictions,” in Advances in neural information processing systems, 2017, pp. 4765–4774.
[18] Miller T., “Explanation in artificial intelligence: Insights from the social sciences,” Artificial Intelligence, vol. 267, pp. 1–38, 2019, doi: 10.1016/j.artint.2018.07.007.
[19] Onan A., “FuzzyTP-BERT: Enhancing extractive text summarization with fuzzy topic modeling and pre-trained language models,” Journal of King Saud University—Computer and Information Sciences, 2024, doi: 10.1016/j.jksuci.2024.102080.
[20] Quinlan J. R., “Induction of decision trees,” Machine Learning, vol. 1, no. 1, pp. 81–106, 1986, doi: 10.1007/BF00116251.
[21] Rudin C., “Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead,” Nature Machine Intelligence, vol. 1, no. 5, pp. 206–215, 2019, doi: 10.1038/s42256-019-0048-x.
[22] Selvaraju R. R., M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad-CAM: Visual explanations from deep networks via gradient-based localization,” in Proceedings of the IEEE international conference on computer vision, 2017, pp. 618–626.
[23] Sundararajan M., A. Taly, and Q. Yan, “Axiomatic attribution for deep networks,” in Proceedings of the 34th international conference on machine learning, 2017, pp. 3319–3328.
[24] Tibshirani R., “Regression shrinkage and selection via the lasso,” Journal of the Royal Statistical Society: Series B, vol. 58, no. 1, pp. 267–288, 1996.
[25] Tonekaboni S., S. Joshi, M. D. McCradden, and A. Goldenberg, “What clinicians want: Contextualizing explainable machine learning for clinical end use,” in Machine learning for healthcare conference, 2019, pp. 359–380.
[26] Vaswani A., N. Shazeer, N. Parmar, et al., “Attention is all you need,” in Advances in neural information processing systems, 2017, pp. 5998–6008.
[27] Wachter S., B. Mittelstadt, and C. Russell, “Counterfactual explanations without opening the black box: Automated decisions and the GDPR,” Harvard Journal of Law & Technology, vol. 31, no. 2, pp. 841–887, 2018.
[28] Wang D., Q. Yang, A. Abdul, and B. Y. Lim, “Designing theory-driven user-centric explainable AI,” in Proceedings of the 2019 CHI conference on human factors in computing systems, 2019, pp. 1–15. doi: 10.1145/3290605.3300831.
[29] Wildes R. P., “Iris recognition: An emerging biometric technology,” Proceedings of the IEEE, vol. 85, no. 9, pp. 1348–1363, 1997.
[30] Zadeh L. A., “Fuzzy sets,” Information and Control, vol. 8, no. 3, pp. 338–353, 1965.

