20.03.2026

Эксперт компании «Газинформсервис» предложила инструмент, оценивающий безопасность ИИ

Эксперт компании «Газинформсервис» предложила инструмент, оценивающий безопасность ИИ

На форуме «Цифровой маяк» в Южно-Сахалинске начальник Аналитического центра компании «Газинформсервис», к. т. н. Лидия Виткова выступила с докладом на тему «Безопасность систем искусственного интеллекта: статус и вызовы».

В своём выступлении эксперт провела параллель между системами ИИ и автомобилями, предложив участникам новый взгляд на проблему регулирования и ответственности в сфере ИБ.

Основой доклада стала метафора автомобиля как сложной системы, безопасность которой обеспечивается не только техническими характеристиками, но и целым комплексом мер: правилами дорожного движения, обучением водителей, дорожной инфраструктурой и контролирующими органами. В системах ИИ, по мнению спикера, такого комплексного подхода сегодня не хватает.

«В автомобиле ответственность за безопасность на дороге лежит на водителе, но при этом производитель отвечает за надёжность машины, а регулирующие органы создают среду — ПДД, знаки, разметку. В сфере ИИ мы пока не выстроили эту экосистему. Если мы хотим безопасно внедрять технологии, мы должны чётко определить границы и зоны ответственности для всех участников: от разработчика модели до конечного пользователя и специалиста по информационной безопасности», — отметила спикер.

В ходе выступления были обозначены технологические риски, такие как манипуляция запросами (Prompt Injection), отравление данных (Data Poisoning) и утечки информации. Однако главным вызовом, по мнению эксперта, остаётся отсутствие понимания архитектуры ИИ-систем, которые зачастую используются как «чёрный ящик».

Ключевым практическим итогом доклада стала презентация авторского опросника для самообследования (ссылка https://ai.gaz-is.com/check/). Этот инструмент предназначен для специалистов по информационной безопасности, чтобы они могли объективно оценить готовность своей организации к обеспечению защиты систем искусственного интеллекта.

«Этот опросник — первый шаг к осознанному управлению рисками. Специалист по ИБ должен понять, где проходят границы его ответственности, чего не хватает из информации о системе ИИ, чтобы выстроить надежный контур безопасности вокруг системы», — пояснила Лидия Виткова.

Выступление вызвало живой интерес у участников форума, представляющих как бизнес, так и государственные структуры. Участники дискуссии согласились, что безопасность ИИ требует не только технологических решений, но и создания нормативной базы, аналогичной «ПДД для автомобилей», где каждый участник процесса будет знать свои обязанности и меру ответственности.