Добавить в календарь 09.07.2025 11:00 09.07.2025 12:00 Europe/Moscow Остается ли в тайне ваш диалог с LLM? Как использовать большие языковые модели безопасно

Вебинар "Остается ли в тайне ваш диалог с LLM? Как использовать большие языковые модели безопасно" состоится 9 июля 2025 года в 11:00 (мск).

Большие языковые модели уже помогают автоматизировать рутину, ускорять аналитику и расширять возможности сотрудников. Но вместе с пользой они приносят новые риски — от утечек конфиденциальных данных до проблем с соблюдением норм регулирования. Сейчас все больше инструментов, основанных на LLM, от чат ботов до полноценных AI IDE и важно знать, что могут сделать владельцы LLM с данными, которые они получают и как на это повлиять.

На вебинаре вы узнаете:

  • Как работают политики популярных LLM (OpenAI, Claude, Perplexity, DeepSeek, Gigachat и др.) и чем они отличаются.
  • Разберем основные пункты политик конфиденциальности вендоров больших языков моделей и известные случаи утечки данных пользователей.
  • Что важно предусмотреть в корпоративных правилах использования ИИ.
  • Какие данные допустимо обрабатывать во внешних сервисах, а что должно оставаться внутри.
  • Какие шаги помогут снизить вероятность компрометации данных.
  • Как не превратить свою интеллектуальную собственность и конфиденциальную информацию в бесплатный обучающий датасет для ИИ?

Вместе разберем реальные кейсы и сформируем план действий для безопасного внедрения LLM в компанию. По итогам вебинара вы получите шаблон политики безопасного использования LLM, соответствующий чеклист, а также иные практичные документы, помогающие выстраивать защиту при работе с большими языковыми моделями, развернутыми внутри или снаружи компании.

Онлайн,

Остается ли в тайне ваш диалог с LLM? Как использовать большие языковые модели безопасно

Снимок экрана 2025-07-07 в 00.08.55.png

Дата проведения: 09.07.2025. Начало в 11:00

Место проведения: Онлайн

Организатор: Positive Technologies
Будь в курсе всех мероприятий по теме ИБ (Информационная безопасность)
  • Анонс
  • Программа
  • Участники
  • Спикеры

Вебинар "Остается ли в тайне ваш диалог с LLM? Как использовать большие языковые модели безопасно" состоится 9 июля 2025 года в 11:00 (мск).

Большие языковые модели уже помогают автоматизировать рутину, ускорять аналитику и расширять возможности сотрудников. Но вместе с пользой они приносят новые риски — от утечек конфиденциальных данных до проблем с соблюдением норм регулирования. Сейчас все больше инструментов, основанных на LLM, от чат ботов до полноценных AI IDE и важно знать, что могут сделать владельцы LLM с данными, которые они получают и как на это повлиять.

На вебинаре вы узнаете:

  • Как работают политики популярных LLM (OpenAI, Claude, Perplexity, DeepSeek, Gigachat и др.) и чем они отличаются.
  • Разберем основные пункты политик конфиденциальности вендоров больших языков моделей и известные случаи утечки данных пользователей.
  • Что важно предусмотреть в корпоративных правилах использования ИИ.
  • Какие данные допустимо обрабатывать во внешних сервисах, а что должно оставаться внутри.
  • Какие шаги помогут снизить вероятность компрометации данных.
  • Как не превратить свою интеллектуальную собственность и конфиденциальную информацию в бесплатный обучающий датасет для ИИ?

Вместе разберем реальные кейсы и сформируем план действий для безопасного внедрения LLM в компанию. По итогам вебинара вы получите шаблон политики безопасного использования LLM, соответствующий чеклист, а также иные практичные документы, помогающие выстраивать защиту при работе с большими языковыми моделями, развернутыми внутри или снаружи компании.

luka.jpg
Лукацкий Алексей

Бизнес-консультант по безопасности, Positive Technologies. Эксперт BISA.