УДК 004.89
DOI: 10.36871/26189976.2026.03-2.011
Авторы
Юрий Владиславович Трофимов,
Государственный университет «Дубна», Дубна, Россия
Алексей Николаевич Аверкин,
Государственный университет «Дубна», Дубна, Россия
Егор Михайлович Кузнецов,
Государственный университет «Дубна», Дубна, Россия
Иван Александрович Трусов,
Государственный университет «Дубна», Дубна, Россия
Александр Дмитриевич Лебедев,
Государственный университет «Дубна», Дубна, Россия
Аннотация
Представлена архитектура SynergiXAI — фреймворка для построения воспроизводимых конвейеров объяснимого ИИ, объединяющего AutoML и XAI. Описание архитектуры выполнено по ISO/IEC/IEEE 42010:2011 и SEI Views and Beyond. Подход формализует получение объяснений как эксперимент со спецификацией, детерминированным ExplainPlan и оркестратором ExplainEngine. Сопоставимость обеспечивают протоколы IProtocol и метрики качества, доверие — SafetyGuard и TrustEvaluator, воспроизводимость — ArtifactStore и манифесты.
Ключевые слова
объяснимый искусственный интеллект
XAI
оркестратор объяснений
протоколы оценки
trust score
provenance
Список литературы
[1] ГОСТ Р 57100–2016/ISO/IEC/IEEE 42010:2011. Системная и программная инженерия. Описание архитектуры. — Введ. 2017–09–01. — М.: Стандартинформ, 2019. — 36 с.
[2] Тарасов В. Б. Агенты, многоагентные системы, виртуальные сообщества: стратегическое направление в информатике и искусственном интеллекте // Новости искусственного интеллекта. — 1998. — № 2. — С. 5–63.
[3] Тарасов В. Б. Системно-организационный подход в искусственном интеллекте // Программные продукты и системы. — 1997. — № 3. — С. 6–13. — URL: https://www. swsys.ru/index.php?id=1038&page=article (дата обращения: 01.03.2026).
[4] Трофимов Ю. В., Аверкин А. Н. Связь доверенного искусственного интеллекта и XAI 2.0: теория и фреймворки // Мягкие измерения и вычисления. — 2025. — May. — С. 68–84. — DOI: 10.36871/2618-9976.2025.05.006.
[5] Трофимов Ю. В., Лебедев А. Д., Ильин А. С., Аверкин А. Н. Ядро верифицируемой объяснимости: гибридная архитектура GD-ANFIS/SHAP для XAI 2.0 // Электронные библиотеки. — 2025. — Т. 28, № 5. — С. 1230–1252. — DOI: 10.26907/1562-5419-2025- 28-5-1230-1252.
[6] Трофимов Ю. В., Муравьёв И. П., Аверкин А. Н., и др. Новый плитогенно-нечёткий многослойный перцептрон (PN-MLP) на основе нечёткой, интуиционистской, нейтрософической и плитогенной логик с объяснительным искусственным интеллектом второго поколения (XAI 2.0) для платформы клинического анализа молочной железы // Нечёткие системы и мягкие вычисления. — 2025. — Т. 20, № 1. — С. 5–35. — DOI: 10.26456/fssc132.
[7] Трофимов Ю. В., Шевченко А. В., Кузнецов Е. М., и др. Объяснительная интервальная ANFIS типа 2 с интегралом Шоке и самонастраиваемыми параметрическими T-нормами для прогнозирования и стратификации риска гестационного сахарного диабета // Нечёткие системы и мягкие вычисления. — 2025. — Т. 20, № 2. — С. 43–67. — DOI: 10.26456/fssc134.
[8] Трусов И. А., Трофимов Ю. В., Стаценко Г. Э., Аверкин А. Н. Универсальный метод локализаций объяснений SHAP // Инжиниринг предприятий и управление знаниями (ИП&УЗ‑2025): сб. науч. тр. XXVIII Рос. науч. конф., 4–5 декабря 2025 г. / под науч. ред. Ю. Ф. Тельнова. — М.: ФГБОУ ВО «РЭУ им. Г. В. Плеханова», 2025. — Т. 1. — С. 343–349.
[9] Adadi A., Berrada M. Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI) // IEEE Access. — 2018. — Vol. 6. — P. 52138–52160. — DOI: 10.1109/ ACCESS.2018.2870052.
[10] Automated Machine Learning: Methods, Systems, Challenges [Электронный ресурс] / eds. F. Hutter, L. Kotthoff, J. Vanschoren. — Cham: Springer, 2019. — XIV, 219 p. — DOI: 10.1007/978-3-030-05318-5. — URL: https://doi.org/10.1007/978–3–030–05318–5 (дата обращения: 02.03.2026).
[11] Averkin A. N., Trofimov Yu. V., Lebedev A. D., Ilin A. S. Hybrid and Hierarchical Explainable AI Based on Kolmogorov-Arnold Networks // Proceedings of the Ninth International Scientific Conference “Intelligent Information Technologies for Industry” (IITI’25) / eds. S. Kovalev, I. Kotenko, A. Sukhanov. — Cham: Springer, 2026. — Vol. 2. — (Lecture Notes in Networks and Systems; vol. 1763). — P. 36–43. — DOI: 10.1007/978-3-032-13612-1_4.
[12] Balanya S. A., Maroñas J., Ramos D. Adaptive temperature scaling for robust calibration of deep neural networks // Neural Computing and Applications. — 2024. — Vol. 36. — P. 8073–8095. — DOI: 10.1007/s00521-024-09505-4.
[13] Clements P. C., Ivers J., Little R., Nord R., Stafford J. A. Documenting Software Architectures in an Agile World: Technical Note CMU/SEI‑2003-TN‑023. — Pittsburgh, PA: Software Engineering Institute, Carnegie Mellon University, 2003. — 24 p. — DOI: 10.1184/ R1/6573275.v1.
[14] Dickerson C. E., Wilkinson M. K., Hunsicker E., et al. Architecture Definition in Complex System Design Using Model Theory // IEEE Systems Journal. — 2021. — Vol. 15, No. 2. — P. 1847–1860. — DOI: 10.1109/JSYST.2020.2975073.
[15] Dijkstra E. W. On the Role of Scientific Thought // Selected Writings on Computing: A Personal Perspective. — New York: Springer, 1982. — P. 60–66. — DOI: 10.1007/978-1- 4612-5695-3_12.
[16] Dimitriadis T., Gneiting T., Jordan A. I. Stable reliability diagrams for probabilistic classifiers // Proceedings of the National Academy of Sciences of the United States of America. — 2021. — Vol. 118, No. 8. — Art. e2016191118. — DOI: 10.1073/pnas.2016191118.
[17] Guidotti R., Monreale A., Ruggieri S., Turini F., Giannotti F., Pedreschi D. A Survey of Methods for Explaining Black Box Models // ACM Computing Surveys. — 2018. — Vol. 51, No. 5. — P. 1–42. — DOI: 10.1145/3236009.
[18] Gundersen O. E., Shamsaliei S., Isdahl R. J. Do machine learning platforms provide out-ofthe-box reproducibility? // Future Generation Computer Systems. — 2022. — Vol. 126. — P. 34–47. — DOI: 10.1016/j.future.2021.06.014.
[19] Kreuzberger D., Kühl N., Hirschl S. Machine Learning Operations (MLOps): Overview, Definition, and Architecture // IEEE Access. — 2023. — Vol. 11. — P. 31866–31879. — DOI: 10.1109/ACCESS.2023.3262138.
[20] Kruchten P. Architectural Blueprints — The «4+1» View Model of Software Architecture // IEEE Software. — 1995. — Vol. 12, No. 6. — P. 42–50. — DOI: 10.1109/52.469759.
[21] Miró-Nicolau M., Jaume-i-Capó A., Moyà-Alcover G. A comprehensive study on fidelity metrics for XAI // Information Processing & Management. — 2025. — Vol. 62, Iss. 1. — Art. 103900. — DOI: 10.1016/j.ipm.2024.103900.
[22] Repetto S., Maljkovic I., Lotto M., et al. Evaluating the robustness of explainable AI in medical image recognition under natural and adversarial data corruption // Machine Learning. — 2026. — Vol. 115. — Art. 4. — DOI: 10.1007/s10994-025-06919-6.
[23] Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead // Nature Machine Intelligence. — 2019. — Vol. 1, No. 5. — P. 206–215. — DOI: 10.1038/s42256-019-0048-x.
[24] Samek W., Montavon G., Lapuschkin S., Anders C. J., Müller K.-R. Explaining Deep Neural Networks and Beyond: A Review of Methods and Applications // Proceedings of the IEEE. — 2021. — Vol. 109, No. 3. — P. 247–278. — DOI: 10.1109/JPROC.2021.3060483.
[25] Schlegel M., Sattler K.-U. Capturing end-to-end provenance for machine learning pipelines // Information Systems. — 2025. — Vol. 132. — Art. 102495. — DOI: 10.1016/j.is.2024.102495.
[26] Semmelrock H., Ross-Hellauer T., Kopeinik S., et al. Reproducibility in machine-learningbased research: Overview, barriers, and drivers // AI Magazine. — 2025. — Vol. 46, No. 2. — Art. e70002. — DOI: 10.1002/aaai.70002.
[27] Trofimov Yu. V., Averkin A. N., Ilin A. S., et al. A Fuzzy Transformer for Multimodal AI: Differential Fuzzy Attention and Adaptive Explanations // Soft Measurements and Computing. — 2025. — Vol. 11. — Art. 003. — DOI: 10.36871/2618-9976.2025.11.003.
[28] Trofimov Yu. V., Matveev I. A., Averkin A. N., et al. HYBRID-XIRIS: Neuro-Fuzzy Architecture for Explanatory Biometric Identification by Iris // Soft Measurements and Computing. — 2025. — Vol. 12, No. 2. — Art. 013. — DOI: 10.36871/2618-9976.2025.12-2.013.
[29] Van Heesch U., Avgeriou P., Hilliard R. A documentation framework for architecture decisions // Journal of Systems and Software. — 2012. — Vol. 85, No. 4. — P. 795–820. — DOI: 10.1016/j.jss.2011.10.017.
[30] Vilone G., Longo L. Notions of explainability and evaluation approaches for explainable artificial intelligence // Information Fusion. — 2021. — Vol. 76. — P. 89–106. — DOI: 10.1016/j.inffus.2021.05.009.

