Добавить в календарь 18.02.2026 18:30 18.02.2026 22:00 Europe/Moscow MoscowAI #5 x Школа 21 — AGI на горизонте двух митапов

Митап "MoscowAI #5 x Школа 21 — AGI на горизонте двух митапов" состоится 18 февраля 2026 года в Москве.

После переносов, простуд, новогодних праздников, снежных циклонов и аномальных морозов организаторы возвращаются с пятым митапом. В этот раз — в гостях у Школы 21, образовательного проекта Сбера.

На этой встрече продолжат обсуждать одну из главных тем прошедшего года — агентов и автономные системы. В одном докладе обсудят механизмы оценки качества и его стабилизации в работе агентов в продакшене, а во втором рассмотрят архитектурный кейс проектирования и построения распределенной агентной системы. Кроме этого поговорят про эффективность, но не утилизации железа бигтех компаний или лимитов подписок, а личную, с аутсорсом рутины агентам. И, наконец, затронут еще одну новую для нашего митапа тему — безопасность ИИ и его будущее с нами или без — как пойдет (или можно на это повлиять?). 

Александр Ярыгин. Second Brain AI: как я делегировал рутину AI-агентам с Claude Code

- основатель агентства измеримых AI-решений Glake;
- автор блога «AI для людей»;
- рассказываю простым языком про AI для упрощения жизни и эффективный вайбкодинг;
- опыт — CMO, COO, CCO в EdTech.

Александр продемонстрирует свою систему Second Brain. Она работает на базе Claude Code и кучи MCP-интеграций. За несколько месяцев использования он понял, что это кардинально меняет подход к продуктивности, и покажет, как она работает и собирается. Больше никаких ручных переносов задач, забытых договорённостей со встреч и бесконечного переключения между приложениями.

Максим Шаланкин. От демо к продакшену: что ломается в background agents на реальных задачах

- ML Team Lead в финтех‑команде Big Data MWS (МТС);
- развивает продовые ML‑сервисы и решения с AI‑агентами;
- экспертиза включает проектирование и эксплуатацию AI‑агентов, архитектуру, деплой и мониторинг ML‑систем;
- преподаёт машинное обучение и AI‑агентов в НИУ ВШЭ, МФТИ и Школе аналитиков данных МТС.

Это доклад про оценку автономных систем: критерии качества, промпты и работу с расхождениями в вердиктах, self-check механизмы и определение того, гле агент действительно способен поймать ошибку и исправиться, а где они создают ложную уверенность. А так же про цикл обратной связи, который помогает background agents работать стабильно.

Андрей Носов. Federated AI Mesh: Agentic Workflows в 2026

- CTO / Ведущий AI архитектор в RAFT;
- эксперт с более чем 20-летним опытом в области IT, фокусирующийся на проектировании AI-систем и агентов, разработке и оптимизации LLM, управлении исследовательскими и техническими командами;
- портфель проектов за 2025-2026 год — более 20 проектов, включая Автоваз, Клинику Фомина, РЖД, Астра, Алеан, Soda Mena, Марс, Роскосмос, Манжерок и др.;
- автор научных публикаций, патентов в области диалоговых систем и обладателем премий за научные проекты, спикер AI Journey, Saint Highload, ICLR, SISSA, CNIOT и др.

Погружение в проектирование Federated AI Mesh — архитектуры, где LangGraph управляет когнитивными циклами, Kafka обеспечивает асинхронный транспорт, а n8n выступает масштабируемым исполнителем инструментов. Вы узнаете, как перейти от хрупких монолитных скриптов к распределенной системе автономных агентов, готовой к Enterprise-нагрузкам и сложным интеграциям 2026 года.

Олег Лариков. О возможностях будущих ИИ, или всё, что не убивает нас, делает нас страннее

- программист (алгоритмы, транспортное моделирование, картография, анализ данных);
- преподаватель ЦДО "Моноид"— для развивающихся в сфере AI-safety;
- лектор, организатор хакатонов и совместных обсуждений новых статей по вопросам безопасности и будущего ИИ.

Олег расскажет, какие странные опасения относительно ИИ "ушли в народ" в последние годы через открытые письма и популярные книги, были ли по этому поводу приняты какие-то законы, что в области AI-Safety делают сами компании и какие у нас вообще есть свидетельства рисков ИИ будь то теоретические или эмпирические.

Москва, ул. Вятская 27с42, Офис Школы 21

MoscowAI #5 x Школа 21 — AGI на горизонте двух митапов

MoscowAI #5 x Школа 21 — AGI на горизонте двух митапов

Дата проведения: 18.02.2026. Начало в 18:30

Место проведения: Москва , ул. Вятская 27с42, Офис Школы 21

Организатор: Школа 21, Moscow AI
Будь в курсе всех мероприятий по теме Разработка ПО
  • Анонс
  • Программа
  • Участники
  • Спикеры

Митап "MoscowAI #5 x Школа 21 — AGI на горизонте двух митапов" состоится 18 февраля 2026 года в Москве.

После переносов, простуд, новогодних праздников, снежных циклонов и аномальных морозов организаторы возвращаются с пятым митапом. В этот раз — в гостях у Школы 21, образовательного проекта Сбера.

На этой встрече продолжат обсуждать одну из главных тем прошедшего года — агентов и автономные системы. В одном докладе обсудят механизмы оценки качества и его стабилизации в работе агентов в продакшене, а во втором рассмотрят архитектурный кейс проектирования и построения распределенной агентной системы. Кроме этого поговорят про эффективность, но не утилизации железа бигтех компаний или лимитов подписок, а личную, с аутсорсом рутины агентам. И, наконец, затронут еще одну новую для нашего митапа тему — безопасность ИИ и его будущее с нами или без — как пойдет (или можно на это повлиять?). 

Александр Ярыгин. Second Brain AI: как я делегировал рутину AI-агентам с Claude Code

- основатель агентства измеримых AI-решений Glake;
- автор блога «AI для людей»;
- рассказываю простым языком про AI для упрощения жизни и эффективный вайбкодинг;
- опыт — CMO, COO, CCO в EdTech.

Александр продемонстрирует свою систему Second Brain. Она работает на базе Claude Code и кучи MCP-интеграций. За несколько месяцев использования он понял, что это кардинально меняет подход к продуктивности, и покажет, как она работает и собирается. Больше никаких ручных переносов задач, забытых договорённостей со встреч и бесконечного переключения между приложениями.

Максим Шаланкин. От демо к продакшену: что ломается в background agents на реальных задачах

- ML Team Lead в финтех‑команде Big Data MWS (МТС);
- развивает продовые ML‑сервисы и решения с AI‑агентами;
- экспертиза включает проектирование и эксплуатацию AI‑агентов, архитектуру, деплой и мониторинг ML‑систем;
- преподаёт машинное обучение и AI‑агентов в НИУ ВШЭ, МФТИ и Школе аналитиков данных МТС.

Это доклад про оценку автономных систем: критерии качества, промпты и работу с расхождениями в вердиктах, self-check механизмы и определение того, гле агент действительно способен поймать ошибку и исправиться, а где они создают ложную уверенность. А так же про цикл обратной связи, который помогает background agents работать стабильно.

Андрей Носов. Federated AI Mesh: Agentic Workflows в 2026

- CTO / Ведущий AI архитектор в RAFT;
- эксперт с более чем 20-летним опытом в области IT, фокусирующийся на проектировании AI-систем и агентов, разработке и оптимизации LLM, управлении исследовательскими и техническими командами;
- портфель проектов за 2025-2026 год — более 20 проектов, включая Автоваз, Клинику Фомина, РЖД, Астра, Алеан, Soda Mena, Марс, Роскосмос, Манжерок и др.;
- автор научных публикаций, патентов в области диалоговых систем и обладателем премий за научные проекты, спикер AI Journey, Saint Highload, ICLR, SISSA, CNIOT и др.

Погружение в проектирование Federated AI Mesh — архитектуры, где LangGraph управляет когнитивными циклами, Kafka обеспечивает асинхронный транспорт, а n8n выступает масштабируемым исполнителем инструментов. Вы узнаете, как перейти от хрупких монолитных скриптов к распределенной системе автономных агентов, готовой к Enterprise-нагрузкам и сложным интеграциям 2026 года.

Олег Лариков. О возможностях будущих ИИ, или всё, что не убивает нас, делает нас страннее

- программист (алгоритмы, транспортное моделирование, картография, анализ данных);
- преподаватель ЦДО "Моноид"— для развивающихся в сфере AI-safety;
- лектор, организатор хакатонов и совместных обсуждений новых статей по вопросам безопасности и будущего ИИ.

Олег расскажет, какие странные опасения относительно ИИ "ушли в народ" в последние годы через открытые письма и популярные книги, были ли по этому поводу приняты какие-то законы, что в области AI-Safety делают сами компании и какие у нас вообще есть свидетельства рисков ИИ будь то теоретические или эмпирические.

18:30 — открытие дверей
19:00 — начало докладов
21:00 — окончание докладов, нетворк
22:00 — закрытие площадки