УДК 004.891.3:004.056
DOI: 10.36871/26189976.2026.02-3.007

Авторы

Али Анварович Халидов,
ФГБОУ ВО «Казанский государственный энергетический университет», Казань, Россия
Алексей Леонидович Ткаченко,
Калужский государственный университет им. К. Э. Циолковского, Калуга, Россия
Эльмира Фаиловна Амирова,
ФГБОУ ВО «Казанский государственный аграрный университет», Казань, Россия

Аннотация

В статье рассматриваются методики безопасной интеграции ассистентов программирования на основе технологий искусственного интеллекта в процессы защищённой разработки программного обеспечения. На основе анализа отечественных исследований в области безопасности систем с искусственным интеллектом и практик безопасной разработки формализуется модель угроз, включающая утечки артефактов разработки, внедрение уязвимостей через генерируемый код и злонамеренную модификацию модели. Предлагается сценарный подход к оценке рисков и система мер, включающая архитектурную изоляцию ассистента, регламентацию процессов, многоступенчатую валидацию его рекомендаций и целенаправленную подготовку разработчиков. Показано, что сочетание указанных мер позволяет снизить остаточный риск до уровня, совместимого с требованиями защищённой разработки.

Ключевые слова

искусственный интеллект
ассистенты программирования
защищённая разработка
модель угроз

Список литературы

[1] Гарбук С. В. Специальная модель безопасности создания и применения систем искусственного интеллекта // Вопросы кибербезопасности. 2024. № 1 (59). С. 15–23.

[2] Гололобов Н. В., Павленко Е. Ю. Анализ методов закрепления вредоносного программного обеспечения на уровне колец безопасности процессоров х86_64 // Проблемы информационной безопасности. Компьютерные системы. 2024. № 4. С. 9–21.

[3] Израилов К. Е. Архитектура системы для проведения генетического реинжиниринга программы с поддержкой поиска разноуровневых уязвимостей // Вопросы кибербезопасности. 2025. № 1 (61). С. 108–116.

[4] Канивец С. С. Концепция оценки процесса разработки безопасного программного обеспечения // BIS Journal—Информационная безопасность бизнеса. 2025. № 1 (56). С. 57–65.

[5] Кривченков Г. М. Использование искусственного интеллекта в области вычислительных технологий / Г. М. Кривченков, А. Л. Ткаченко // Вестник Калужского университета.— 2023.—№ 4(61).—С. 85–89.—DOI 10.54072/18192173_2023_4_85.—EDN OCRVLP.

[6] Костогрызов А. И., Нистратов А. А. Анализ угроз злонамеренной модификации модели машинного обучения для систем с искусственным интеллектом // Вопросы кибербезопасности. 2023. № 5 (57). С. 9–24.

[7] Лыкова О. М. Информационные процессы обучения нейросети при разработке приложения / О. М. Лыкова, А. Л. Ткаченко // Вестник Калужского университета.—2022.— № 4(57).—С. 84–91.—DOI 10.54072/18192173_2022_4_84.—EDN AEACYD.

[8] Марков А. С., Антипов И. С., Арустамян С. С., Магакелова Н. А. Сравнительный анализ и выбор статических анализаторов безопасности кода // Вопросы кибербезопасности. 2024. № 5 (63). С. 79–88.

[9] Падарян В. А. Безопасная разработка технологий искусственного интеллекта: вызовы и лучшие практики // Материалы III Форума «Технологии доверенного искусственного интеллекта». 2025. С. 3–12.

[10] Рыбаков А. Л., Рычков А. С. Модель угроз для генеративных и предиктивных систем искусственного интеллекта: опыт Сбера // Сетевая безопасность. 2025. № 2 (74). С. 56–65.