УДК 004.032.26:004.942
DOI: 10.36871/2618-­9976.2025.11.003

Авторы

Трофимов Юрий Владиславович,
Ассистент, младший научный сотрудник, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна»; инженерпрограммист, ЛИТ им. М.Г. Мещерякова ОИЯИ, г. Дубна, Россия
Аверкин Алексей Николаевич,
Кандидат физико­математических наук, доцент, руководитель научно­исследовательского центра «Искусственный интеллект» Государственного университета «Дубна», г. Дубна, Россия
Ильин Андрей Сергеевич,
Студент, Университет Иннополис; Государственный университет «Дубна», г. Дубна, Россия
Лебедев Александр Дмитриевич,
Студент, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна», г. Дубна, Россия
Муравьев Иван Павлович,
Студент, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна», г. Дубна, Россия
Шевченко Алексей Валерьевич,
Старший преподаватель, научный сотрудник, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна», г. Дубна, Россия

Аннотация

Представлен нечёткий трансформер FAN, в котором стандартное самовнимание заменено дифференцируемым нечётким выводом, который основывается на обучаемой функции принадлежности и t­нормах, обеспечивающих сквозное обучение с интерпретируемостью без пост­хок процедур объяснения. Архитектура поддерживает кроссмодальное нечёткое рассуждение для задач текст–изображение и интерфейс пошагового объяснения, который подстраивает глубину объяснений к уровню экспертности пользователя, повышает полезность интерпретаций для специалистов предметной области. В работе показано, как выбор t­норм и семейств функций принадлежности влияет на устойчивость к неопределённости и согласованности извлекаемых правил.

Ключевые слова

объяснимый ИИ
нейро-­нечеткие системы
мультимодальные трансформеры
прогрессивное раскрытие
Интерпретируемость
нечеткая логика
механизмы внимания
дифференцируемое рассуждение

Список литературы

[1] Трофимов Ю.В., Аверкин А.Н. Связь доверенного искусственного интеллекта и XAI 2.0:  Теория  и  фреймворки // Мягкие  измерения  и  вычисления. 2025.  Т. 90. № 5. С. 68–84. 2025. DOI: 10.36871/2618­9976.2025.05.006.

[2] A BERT­based with fuzzy logic sentimental classifier for sarcasm detection. Proceedings of ACE, 2024. DOI: 10.55041/ace.2024.15592.

[3] Anwar Z., Jabeen S., Alvi A., et al. Fuzzy ensemble of fine­tuned BERT models for domain­specific sentiment analysis. PLOS ONE, 2024, 19(5):e0300279. DOI: 10.1371/journal.pone.0300279.

[4] Chen C., Li O., Tao D., Barnett A., Rudin C. and Su J.K. This looks like that: Deep learning for interpretable image recognition. In Advances in neural information processing systems, 2019.

[5] Child R., Gray S., Radford A., and Sutskever I. Generating long sequences with sparse transformers. ArXiv preprint arXiv: 1904.10509, 2019.

[6] Clark K., Khandelwal U., Levy O., and Manning C.D. What does BERT look at? An analysis of BERT’s attention. In Proceedings of the 2019 ACL workshop BlackboxNLP, 2019, pp. 276–286. DOI: 10.18653/v1/W19­4828.

[7] E. van Krieken, Acar E., and F. van Harmelen. Differentiable fuzzy logic in PyTorch. GitHub repository, 2018. Available: https://github.com/HEmile/differentiable­fuzzy­logics.

[8] Flinkow T., Schockaert S., Belle V., et al. Comparing differentiable logics for learning with logical constraints. Information Fusion, 2025. DOI: 10.1016/j.inffus.2025.102507. (preprint: arXiv:2407.03847).

[9] Fodor J.C. A characterization of the Hamacher family of t­norms. Fuzzy Sets and Systems, 1994, vol. 61, no. 2, pp. 201–212. DOI: 10.1016/0165­0114(94)90246­1.

[10] Ghassemi M., Naumann T., Schulam P., Beam A.L., Chen I.Y. and Ranganath R. A review of challenges and opportunities in machine learning for health. AMIA summits on translational science proceedings, vol. 2021, p. 191, 2021.

[11] Hammer B. and Hitzler P., Eds., Perspectives of neural­symbolic integration. Springer, 2007.

[12] Innes M. et al. Fashionable modelling with flux. ArXiv preprint arXiv: 1811.01457, 2018.

[13] Isikdemir Y.E., Kazan H. The Scalable Fuzzy Inference­Based Ensemble Method for Sentiment Classification. Complexity, 2022. DOI: 10.1155/2022/5186144.

[14] Jain S. and Wallace B.C. Attention is not explanation. In Proceedings of the 2019 conference of the North American chapter of the association for computational linguistics, 2019, pp. 3543–3556. DOI: 10.18653/v1/N19­1357.

[15] Jang J.­S. R. ANFIS: Adaptive­network­based fuzzy inference system. IEEE Transactions on Systems, Man, and Cybernetics, vol. 23, no. 3, pp. 665–685, 1993, DOI: 10.1109/21.256541.

[16] Kasabov N.K. Evolving fuzzy neural networks for supervised/unsupervised online knowledge­based learning. IEEE Transactions on Systems, Man, and Cybernetics, Part B, vol. 31, no. 6, pp. 902–918, 2001. DOI: 10.1109/3477.969494.

[17] Lakkaraju H., Arsov N. and Bastani O. Rethinking explainability as a dialogue: A practitioner’s perspective. Communications of the ACM, vol. 65, no. 7, pp. 85–95, 2022, DOI: 10.1145/3531146.

[18] Lanham T. et al. Measuring faithfulness in chain­of­thought reasoning. ArXiv preprint arXiv:2307.13702, 2023, DOI: 10.48550/arXiv.2307.13702.

[19] Li G., Duan N., Fang Y., Gong M., Jiang D. and Zhou M. Unicoder­VL: A universal encoder for vision and language by cross­modal pre­training. In Proceedings of the AAAI conference on artificial intelligence, 2020, pp. 11336–11344.

[20] Lin C.­T. and Lee C.S.G. Neural­network­based fuzzy logic control and decision system. IEEE Transactions on Computers, vol. 40, no. 12, pp. 1320–1336, 1991, DOI: 10.1109/12.106218.

[21] Liu Y., Zhao Y., Xu J. A Validity Index for Fuzzy Clustering Based on Bipartite Structure. International Journal of Intelligent Systems, 2019. DOI: 10.1155/2019/2719617.

[22] Lu J., Batra D., Parikh D. and Lee S. ViLBERT: Pretraining task­agnostic visiolinguistic representations for vision­and­language tasks. In Advances in neural information processing systems, 2019.

[23] Lu J., Yang J., Batra D. and Parikh D. Hierarchical question­image co­attention for visual question answering. In Advancesin neural information processing systems, 2016, pp. 289–297.

[24] Lucieri M.N. Bajwa S.A. Braun M.I. Malik A. Dengel and Ahmed S. On the interpretability of artificial intelligence in radiology: Challenges and opportunities. Radiology: Artificial Intelligence, vol. 2, no. 3, p. e190043, 2020.

[25] Medina Grespan M., Favero A., et al. The Role of Transformer Architecture in the Logic­as­Loss Framework. In: Explainable and Interpretable AI in Industry (LNCS), 2025. DOI: 10.1007/978­3­031­60969­6_3.

[26] Miller T. Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, vol. 267, pp. 1–38, 2019. DOI: 10.1016/j.artint.2018.07.007.

[27] Norman D.A. The design of everyday things: Revised and expanded edition. Basic Books, 2013.

[28] Onan A. FuzzyTP­BERT: Enhancing extractive text summarization with fuzzy topic modeling and pre­trained language models. Journal of King Saud University – Computer and Information Sciences, 2024. DOI: 10.1016/j.jksuci.2024.102080.

[29] Oppermann R. Adaptively supported adaptability. International Journal of HumanComputer Studies, vol. 40, no. 3, pp. 455–472, 1994. DOI: 10.1006/ijhc.1994.1021.

[30] Pahud de Mortanges et al. Orchestrating explainable artificial intelligence for multimodal and longitudinal data in medical imaging. Npj Digital Medicine, vol. 7, no. 1, p. 195, 2024. DOI: 10.1038/s41746­024­01190­w.

[31] Quinlan J.R. Induction of decision trees. Machine Learning, vol. 1, no. 1, pp. 81–106, 1986. DOI: 10.1007/BF00116251.

[32] Rajpurkar P. et al. Chexnet: Radiologist­level pneumonia detection on chest x­rays with deep learning. ArXiv preprint arXiv: 1711.05225, 2017.

[33] Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, vol. 1, no. 5, pp. 206– 215, 2019. DOI: 10.1038/s42256­019­0048­x.

[34] Selvaraju R.R., Cogswell M., Das A., Vedantam R., Parikh D. and Batra D. Grad­cam: Visual explanations from deep networks via gradient­based localization. In Proceedings of the IEEE international conference on computer vision, 2017, pp. 618–626.

[35] Shaw P., Uszkoreit J. and Vaswani A. Self­attention with relative position representations. In Proceedings of the 2018 conference of the North American chapter of the association for computational linguistics, 2018, pp. 464–468.

[36] Sundararajan M., Taly A., and Yan Q. Axiomatic attribution for deep networks. In Proceedings of the 34th international conference on machine learning, 2017, pp. 3319–3328.

[37] Tibshirani R. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society: Series B, vol. 58, no. 1, pp. 267–288, 1996.

[38] Tonekaboni S., Joshi S., McCradden M.D. and Goldenberg A. What clinicians want: Contextualizing explainable machine learning for clinical end use. Machine learning for healthcare conference, pp. 359–380, 2019.

[39] Toufani­Movaghar D., Feizi­Derakhshi M.R. Word Embeddings and Validity Indexes in Fuzzy Clustering. ArXiv, 2022. DOI: 10.48550/arXiv.2205.06802.

[40] Vaswani A. et al. Attention is all you need. In Advances in neural information processing systems, 2017, pp. 5998–6008.

[41] Wachter S., Mittelstadt B. and Russell C. Counterfactual explanations without opening the black box: Automated decisions and the GDPR. Harvard Journal of Law & Technology, vol. 31, no. 2, pp. 841–887, 2018.

[42] Wang Y., et al. Improving extractive summarization with semantic enhancement through topic­injection based BERT model. Information Processing & Management, 2024. DOI: 10.1016/j.ipm.2024.103676.

[43] Wang, D., Yang Q., Abdul A. and Lim B.Y. Designing theory­driven user­centric explainable AI. in Proceedings of the 2019 CHI conference on human factors in computing systems, 2019, pp. 1–15. DOI: 10.1145/3290605.3300831.

[44] Wiegreffe S. and Pinter Y. Attention is not not explanation. In Proceedings of the 2019 conference on empirical methods in natural language processing, 2019, pp. 11–20.

[45] Wu J., Kang W., Tang H., Hong Y. and Yan Y. On the faithfulness of vision transformer explanations. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024, pp. 10936–10945.

[46] Zhang Y., Weng Y. and Lund J. Interpretable machine learning in healthcare. Proceedings of the 2018 ACM international conference on bioinformatics, computational biology, and health informatics, pp. 359–368, 2020.