Добавить в календарь 31.07.2025 11:00 31.07.2025 13:00 Europe/Moscow Не словом, а кодом. Как организовать защиту LLM без потерь производительности?

Вебинар "Не словом, а кодом. Как организовать защиту LLM без потерь производительности?" состоится 31 июля 2025 года в 11:00 (мск).

Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология — тем больше она интересна злоумышленникам.

На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас:

  • Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты.
  • Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API.
  • Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода.
  • Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели.
  • Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью.

Обязательности рассмотрим реальные технологии защиты, которые помогут вашему бизнесу быть устойчивее к атакам:

  • Продвинутая валидация запросов/ответов
  • Интерпретируемость (Interpretability) и прозрачность LLM
  • Детекция аномалий и др.

Необходимость защищать LLM уже реальность — регистрируйтесь.

Онлайн,

Не словом, а кодом. Как организовать защиту LLM без потерь производительности?

Снимок экрана 2025-07-13 в 01.41.18.png

Дата проведения: 31.07.2025. Начало в 11:00

Место проведения: Онлайн

Организатор: Positive Technologies
Будь в курсе всех мероприятий по теме ИБ (Информационная безопасность)
  • Анонс
  • Программа
  • Участники
  • Спикеры

Вебинар "Не словом, а кодом. Как организовать защиту LLM без потерь производительности?" состоится 31 июля 2025 года в 11:00 (мск).

Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология — тем больше она интересна злоумышленникам.

На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас:

  • Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты.
  • Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API.
  • Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода.
  • Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели.
  • Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью.

Обязательности рассмотрим реальные технологии защиты, которые помогут вашему бизнесу быть устойчивее к атакам:

  • Продвинутая валидация запросов/ответов
  • Интерпретируемость (Interpretability) и прозрачность LLM
  • Детекция аномалий и др.

Необходимость защищать LLM уже реальность — регистрируйтесь.