УДК 004.032.26:004.942
DOI: 10.36871/2618-9976.2025.11.003
Авторы
Трофимов Юрий Владиславович,
Ассистент, младший научный сотрудник, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна»; инженерпрограммист, ЛИТ им. М.Г. Мещерякова ОИЯИ, г. Дубна, Россия
Аверкин Алексей Николаевич,
Кандидат физикоматематических наук, доцент, руководитель научноисследовательского центра «Искусственный интеллект» Государственного университета «Дубна», г. Дубна, Россия
Ильин Андрей Сергеевич,
Студент, Университет Иннополис; Государственный университет «Дубна», г. Дубна, Россия
Лебедев Александр Дмитриевич,
Студент, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна», г. Дубна, Россия
Муравьев Иван Павлович,
Студент, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна», г. Дубна, Россия
Шевченко Алексей Валерьевич,
Старший преподаватель, научный сотрудник, Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна», г. Дубна, Россия
Аннотация
Представлен нечёткий трансформер FAN, в котором стандартное самовнимание заменено дифференцируемым нечётким выводом, который основывается на обучаемой функции принадлежности и tнормах, обеспечивающих сквозное обучение с интерпретируемостью без постхок процедур объяснения. Архитектура поддерживает кроссмодальное нечёткое рассуждение для задач текст–изображение и интерфейс пошагового объяснения, который подстраивает глубину объяснений к уровню экспертности пользователя, повышает полезность интерпретаций для специалистов предметной области. В работе показано, как выбор tнорм и семейств функций принадлежности влияет на устойчивость к неопределённости и согласованности извлекаемых правил.
Ключевые слова
объяснимый ИИ
нейро-нечеткие системы
мультимодальные трансформеры
прогрессивное раскрытие
Интерпретируемость
нечеткая логика
механизмы внимания
дифференцируемое рассуждение
Список литературы
[1] Трофимов Ю.В., Аверкин А.Н. Связь доверенного искусственного интеллекта и XAI 2.0: Теория и фреймворки // Мягкие измерения и вычисления. 2025. Т. 90. № 5. С. 68–84. 2025. DOI: 10.36871/26189976.2025.05.006.
[2] A BERTbased with fuzzy logic sentimental classifier for sarcasm detection. Proceedings of ACE, 2024. DOI: 10.55041/ace.2024.15592.
[3] Anwar Z., Jabeen S., Alvi A., et al. Fuzzy ensemble of finetuned BERT models for domainspecific sentiment analysis. PLOS ONE, 2024, 19(5):e0300279. DOI: 10.1371/journal.pone.0300279.
[4] Chen C., Li O., Tao D., Barnett A., Rudin C. and Su J.K. This looks like that: Deep learning for interpretable image recognition. In Advances in neural information processing systems, 2019.
[5] Child R., Gray S., Radford A., and Sutskever I. Generating long sequences with sparse transformers. ArXiv preprint arXiv: 1904.10509, 2019.
[6] Clark K., Khandelwal U., Levy O., and Manning C.D. What does BERT look at? An analysis of BERT’s attention. In Proceedings of the 2019 ACL workshop BlackboxNLP, 2019, pp. 276–286. DOI: 10.18653/v1/W194828.
[7] E. van Krieken, Acar E., and F. van Harmelen. Differentiable fuzzy logic in PyTorch. GitHub repository, 2018. Available: https://github.com/HEmile/differentiablefuzzylogics.
[8] Flinkow T., Schockaert S., Belle V., et al. Comparing differentiable logics for learning with logical constraints. Information Fusion, 2025. DOI: 10.1016/j.inffus.2025.102507. (preprint: arXiv:2407.03847).
[9] Fodor J.C. A characterization of the Hamacher family of tnorms. Fuzzy Sets and Systems, 1994, vol. 61, no. 2, pp. 201–212. DOI: 10.1016/01650114(94)902461.
[10] Ghassemi M., Naumann T., Schulam P., Beam A.L., Chen I.Y. and Ranganath R. A review of challenges and opportunities in machine learning for health. AMIA summits on translational science proceedings, vol. 2021, p. 191, 2021.
[11] Hammer B. and Hitzler P., Eds., Perspectives of neuralsymbolic integration. Springer, 2007.
[12] Innes M. et al. Fashionable modelling with flux. ArXiv preprint arXiv: 1811.01457, 2018.
[13] Isikdemir Y.E., Kazan H. The Scalable Fuzzy InferenceBased Ensemble Method for Sentiment Classification. Complexity, 2022. DOI: 10.1155/2022/5186144.
[14] Jain S. and Wallace B.C. Attention is not explanation. In Proceedings of the 2019 conference of the North American chapter of the association for computational linguistics, 2019, pp. 3543–3556. DOI: 10.18653/v1/N191357.
[15] Jang J.S. R. ANFIS: Adaptivenetworkbased fuzzy inference system. IEEE Transactions on Systems, Man, and Cybernetics, vol. 23, no. 3, pp. 665–685, 1993, DOI: 10.1109/21.256541.
[16] Kasabov N.K. Evolving fuzzy neural networks for supervised/unsupervised online knowledgebased learning. IEEE Transactions on Systems, Man, and Cybernetics, Part B, vol. 31, no. 6, pp. 902–918, 2001. DOI: 10.1109/3477.969494.
[17] Lakkaraju H., Arsov N. and Bastani O. Rethinking explainability as a dialogue: A practitioner’s perspective. Communications of the ACM, vol. 65, no. 7, pp. 85–95, 2022, DOI: 10.1145/3531146.
[18] Lanham T. et al. Measuring faithfulness in chainofthought reasoning. ArXiv preprint arXiv:2307.13702, 2023, DOI: 10.48550/arXiv.2307.13702.
[19] Li G., Duan N., Fang Y., Gong M., Jiang D. and Zhou M. UnicoderVL: A universal encoder for vision and language by crossmodal pretraining. In Proceedings of the AAAI conference on artificial intelligence, 2020, pp. 11336–11344.
[20] Lin C.T. and Lee C.S.G. Neuralnetworkbased fuzzy logic control and decision system. IEEE Transactions on Computers, vol. 40, no. 12, pp. 1320–1336, 1991, DOI: 10.1109/12.106218.
[21] Liu Y., Zhao Y., Xu J. A Validity Index for Fuzzy Clustering Based on Bipartite Structure. International Journal of Intelligent Systems, 2019. DOI: 10.1155/2019/2719617.
[22] Lu J., Batra D., Parikh D. and Lee S. ViLBERT: Pretraining taskagnostic visiolinguistic representations for visionandlanguage tasks. In Advances in neural information processing systems, 2019.
[23] Lu J., Yang J., Batra D. and Parikh D. Hierarchical questionimage coattention for visual question answering. In Advancesin neural information processing systems, 2016, pp. 289–297.
[24] Lucieri M.N. Bajwa S.A. Braun M.I. Malik A. Dengel and Ahmed S. On the interpretability of artificial intelligence in radiology: Challenges and opportunities. Radiology: Artificial Intelligence, vol. 2, no. 3, p. e190043, 2020.
[25] Medina Grespan M., Favero A., et al. The Role of Transformer Architecture in the LogicasLoss Framework. In: Explainable and Interpretable AI in Industry (LNCS), 2025. DOI: 10.1007/9783031609696_3.
[26] Miller T. Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, vol. 267, pp. 1–38, 2019. DOI: 10.1016/j.artint.2018.07.007.
[27] Norman D.A. The design of everyday things: Revised and expanded edition. Basic Books, 2013.
[28] Onan A. FuzzyTPBERT: Enhancing extractive text summarization with fuzzy topic modeling and pretrained language models. Journal of King Saud University – Computer and Information Sciences, 2024. DOI: 10.1016/j.jksuci.2024.102080.
[29] Oppermann R. Adaptively supported adaptability. International Journal of HumanComputer Studies, vol. 40, no. 3, pp. 455–472, 1994. DOI: 10.1006/ijhc.1994.1021.
[30] Pahud de Mortanges et al. Orchestrating explainable artificial intelligence for multimodal and longitudinal data in medical imaging. Npj Digital Medicine, vol. 7, no. 1, p. 195, 2024. DOI: 10.1038/s4174602401190w.
[31] Quinlan J.R. Induction of decision trees. Machine Learning, vol. 1, no. 1, pp. 81–106, 1986. DOI: 10.1007/BF00116251.
[32] Rajpurkar P. et al. Chexnet: Radiologistlevel pneumonia detection on chest xrays with deep learning. ArXiv preprint arXiv: 1711.05225, 2017.
[33] Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, vol. 1, no. 5, pp. 206– 215, 2019. DOI: 10.1038/s422560190048x.
[34] Selvaraju R.R., Cogswell M., Das A., Vedantam R., Parikh D. and Batra D. Gradcam: Visual explanations from deep networks via gradientbased localization. In Proceedings of the IEEE international conference on computer vision, 2017, pp. 618–626.
[35] Shaw P., Uszkoreit J. and Vaswani A. Selfattention with relative position representations. In Proceedings of the 2018 conference of the North American chapter of the association for computational linguistics, 2018, pp. 464–468.
[36] Sundararajan M., Taly A., and Yan Q. Axiomatic attribution for deep networks. In Proceedings of the 34th international conference on machine learning, 2017, pp. 3319–3328.
[37] Tibshirani R. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society: Series B, vol. 58, no. 1, pp. 267–288, 1996.
[38] Tonekaboni S., Joshi S., McCradden M.D. and Goldenberg A. What clinicians want: Contextualizing explainable machine learning for clinical end use. Machine learning for healthcare conference, pp. 359–380, 2019.
[39] ToufaniMovaghar D., FeiziDerakhshi M.R. Word Embeddings and Validity Indexes in Fuzzy Clustering. ArXiv, 2022. DOI: 10.48550/arXiv.2205.06802.
[40] Vaswani A. et al. Attention is all you need. In Advances in neural information processing systems, 2017, pp. 5998–6008.
[41] Wachter S., Mittelstadt B. and Russell C. Counterfactual explanations without opening the black box: Automated decisions and the GDPR. Harvard Journal of Law & Technology, vol. 31, no. 2, pp. 841–887, 2018.
[42] Wang Y., et al. Improving extractive summarization with semantic enhancement through topicinjection based BERT model. Information Processing & Management, 2024. DOI: 10.1016/j.ipm.2024.103676.
[43] Wang, D., Yang Q., Abdul A. and Lim B.Y. Designing theorydriven usercentric explainable AI. in Proceedings of the 2019 CHI conference on human factors in computing systems, 2019, pp. 1–15. DOI: 10.1145/3290605.3300831.
[44] Wiegreffe S. and Pinter Y. Attention is not not explanation. In Proceedings of the 2019 conference on empirical methods in natural language processing, 2019, pp. 11–20.
[45] Wu J., Kang W., Tang H., Hong Y. and Yan Y. On the faithfulness of vision transformer explanations. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024, pp. 10936–10945.
[46] Zhang Y., Weng Y. and Lund J. Interpretable machine learning in healthcare. Proceedings of the 2018 ACM international conference on bioinformatics, computational biology, and health informatics, pp. 359–368, 2020.

