УДК 004.891
DOI: 10.36871/2618­-9976.2025.05.006

Авторы

Юрий Владиславович Трофимов,
Аспирант, ассистент кафедры; Федеральное государственное бюджетное образовательное учреждение высшего образования «Университет «Дубна»
Алексей Николаевич Аверкин,
Кандидат физико-­математических наук, доцент, ведущий научный сотрудник центра перспективных исследований в искусственном интеллекте, Российский экономический университет им. Г.В. Плеханова

Аннотация

Статья посвящена исследованию связи доверенного искусственного интеллекта (Trusted AI) с объяснительным ИИ 2.0 (XAI 2.0). Обосновано, что XAI 2.0 является системообразующим ядром доверенного ИИ и необходимым условием ответственного ИИ (Responsible AI). Проведён критический анализ эволюции XAI (1.0 → 2.0), подтвердивший потребность в многоуровневых, контекстно­адаптивных объяснениях. Предложена нейросимвольная иерархическая архитектура, объединяющая глубокие сети с нечеткими слоями, онтологический вывод и LLM­-модуль. Сопоставительный анализ фреймворков и рекомендаций выявил конвергенцию практик объяснимости на всех этапах ML­-SecOps­-конвейера. Разработана семиуровневая шкала L0–L6 и интегральный индекс доверия, позволяющие формализовать эволюционный переход к ИИ с самообъяснением (L6). Предлагаемая архитектура объяснительного ИИ формирует инженерную основу для создания доверенных интеллектуальных систем с самообъяснением.

Ключевые слова

доверенный искусственный интеллект
объяснительный искусственный интеллект 2.0
нейро­символьная архитектура
семантическая объяснимость
робастность
MLOps / ML-­SecOps