УДК 004.891
DOI: 10.36871/2618-9976.2025.05.006
Авторы
Юрий Владиславович Трофимов,
Аспирант, ассистент кафедры; Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна»
Алексей Николаевич Аверкин,
Кандидат физико-математических наук, доцент, ведущий научный сотрудник центра перспективных исследований в искусственном интеллекте, Российский экономический университет им. Г.В. Плеханова
Аннотация
Статья посвящена исследованию связи доверенного искусственного интеллекта (Trusted AI) с объяснительным ИИ 2.0 (XAI 2.0). Обосновано, что XAI 2.0 является системообразующим ядром доверенного ИИ и необходимым условием ответственного ИИ (Responsible AI). Проведён критический анализ эволюции XAI (1.0 → 2.0), подтвердивший потребность в многоуровневых, контекстноадаптивных объяснениях. Предложена нейросимвольная иерархическая архитектура, объединяющая глубокие сети с нечеткими слоями, онтологический вывод и LLM-модуль. Сопоставительный анализ фреймворков и рекомендаций выявил конвергенцию практик объяснимости на всех этапах ML-SecOps-конвейера. Разработана семиуровневая шкала L0–L6 и интегральный индекс доверия, позволяющие формализовать эволюционный переход к ИИ с самообъяснением (L6). Предлагаемая архитектура объяснительного ИИ формирует инженерную основу для создания доверенных интеллектуальных систем с самообъяснением.
Ключевые слова
доверенный искусственный интеллект
объяснительный искусственный интеллект 2.0
нейросимвольная архитектура
семантическая объяснимость
робастность
MLOps / ML-SecOps