Robot
Складчик
- #1
[Slurm] Разработка ИИ агентов [София Филиппова, Виктор Ведмич]
- Ссылка на картинку

Научитесь собирать ИИ-агентов для DevOps-задач: от LLM-враппера до мульти-агентной системы с мониторингом и деплоем в production.
Для кого этот курс:
Курс рассчитан на инженеров, которые уже работают с инфраструктурой и хотят добавить ИИ-агентов в свой стек. Не нужно быть data scientist-ом или ML-инженером. Нужен Python на уровне чтения и доработки кода, опыт с Docker и командной строкой.
DevOps- и SRE-инженеры
Чем наш курс отличается от других:
Модуль 01. Wrapper над LLM (FastAPI)
Structured output, LLM-арбитр, анализ намерений. Пишем собственный враппер с валидацией и асинхронной записью.
Практика: Свой wrapper + structured output + LLM-judge на простом сценарии.
Модуль 02. Claude Agent SDK через LiteLLM
SDK через LiteLLM-прокси. Три нюанса: CLI игнорирует BASE_URL, drop_params, совместимость версий LiteLLM.
Практика: Поднять LiteLLM gateway + 2−3 SDK-вызова с tool-use.
Модуль 03. Введение в ИИ-агентов + технология CrewAI
Что такое AI-агент, tool-calling, паттерн ReAct. Собираем агента через create_react_agent, мост в LangGraph.
Практика: ReAct-агент с инструментами: curl, grep, kubectl (read-only).
Модуль 04. Введение в MCP — FastMCP
Пишем MCP-сервер через FastMCP: stdin/stdout транспорт, декоратор @mcp.tool (), типизация параметров.
Практика: Свой MCP-сервер для Docker/K8s, подключение к LangGraph.
Модуль 05. Библиотека LangGraph
StateGraph, Router, Memory. Human-in-the-loop, Breakpoints, Time Travel. Мульти-агентный incident response.
Практика: Система: classifier, diagnostician, resolver + HITL через Telegram + checkpoint-restart.
Модуль 06. MCP в продакшене (FastMCP 3.2)
Streamable HTTP, JWT, OAuth 2.1. Демо уязвимости STDIO-RCE и защита. LangGraph MultiServerMCPClient.
Практика: Production MCP-сервер с JWT auth и sandbox, интеграция с LangGraph.
Модуль 07. Оценка (Evaluation) агентов
DeepEval (Pytest-style), Langfuse eval datasets, Agent-as-Judge. Eval-in-CI через GitHub Actions.
Практика: Свой eval-suite (5−10 тестов) + CI-workflow, который падает на регрессии.
Модуль 08. Наблюдаемость с помощью платформы Langfuse
Langfuse v3 self-hosted: tracing, sessions, prompts, datasets, experiments. Grafana + ClickHouse datasource.
Практика: Поднять Langfuse + подключить агента + eval-judge + скриншот дашборда.
Модуль 09. Управление расходами на облако (FinOps) и Операционная безопасность (SecOps)мощью платформы Langfuse
Dockerize LangGraph + Helm chartlet. DeepEval в CI + Langfuse в deployment + LiteLLM routing для cost. OWASP LLM Top 10 для агентов.
Практика: Докеризовать агент + DeepEval-in-CI + Langfuse в deployment + FinOps-измерение.
Модуль 10. Capstone: итоговый проект
Разбор rubric (11 критериев). Три варианта проекта: Incident Response, K8s Troubleshooter, Infra Code Reviewer.
Практика: GitHub repo + README с Mermaid-архитектурой + eval badge + 10-минутное демо.
Для кого этот курс:
Курс рассчитан на инженеров, которые уже работают с инфраструктурой и хотят добавить ИИ-агентов в свой стек. Не нужно быть data scientist-ом или ML-инженером. Нужен Python на уровне чтения и доработки кода, опыт с Docker и командной строкой.
DevOps- и SRE-инженеры
- Вы уже знаете, как работает инфраструктура. На курсе разберетесь, как подключить к ней ИИ-агентов:
- автоматический разбор инцидентов
- диагностика через kubectl и Docker
- мониторинг стоимости LLM-запросов.
- Если пишете на Python и хотите разобраться в ИИ-инженерии без академического ML.
- Курс построен вокруг кода: врапперы, SDK, фреймворки, тесты.
- Все, что вы привыкли делать с обычными сервисами, только с LLM под капотом.
- Python на уровне чтения кода и простых доработок
- Командная строка Linux или macOS
- Docker: запуск контейнеров, базовые команды
- Понимание HTTP API и клиент-серверной архитектуры
Чем наш курс отличается от других:
- Большинство курсов по ИИ-агентам заканчиваются там, где начинаются реальные проблемы
Агент работает, но никто не объясняет, как его докеризовать, как отслеживать стоимость запросов и что делать, когда LLM начинает галлюцинировать на production-данных. - Здесь вы проходите весь путь
От первого враппера над LLM до Helm-чарта, CI с eval-тестами и дашборда в Langfuse. Итоговый проект сдается как GitHub-репозиторий с архитектурой, тестами и демо, а не как скриншот из ноутбука.
- Соберете production-ready AI-систему. Итоговый проект: GitHub-репозиторий с мульти-агентной системой, eval-тестами в CI, мониторингом в Langfuse и документацией. Incident Response, K8s Troubleshooter или Infra Code Reviewer на выбор.
- Научитесь работать с актуальным стеком. LangGraph для оркестрации агентов, FastMCP для интеграции с Docker и Kubernetes, LiteLLM для маршрутизации между провайдерами, DeepEval для тестирования, Langfuse для мониторинга. Это инструменты, которые используются в production прямо сейчас, а не учебные фреймворки.
- Поймете, сколько стоит ваш агент. Semantic cache, routing между дешевыми и дорогими моделями, prompt compression. После курса вы сможете посчитать ROI и объяснить руководству, почему AI-инфраструктура стоит тех денег, которые на нее тратят.
- Сможете довести агента от прототипа до деплоя. Dockerize, Helm, CI с eval-тестами, Langfuse в deployment. Типичная боль: агент работает локально, но никто не знает, как его выкатить. После курса вы будете знать.
- Закроете вопрос безопасности. Prompt injection, tool poisoning, RCE через MCP. Вы будете знать, как проводить аудит по OWASP LLM Top 10 и как защитить агента до того, как он натворит дел.
- Локальные LLM
- n8n
- GitLab API
- MCP-брокер
- AI-боты с кастомным RAG
- Loki/ELK
- Prometheus/Grafana
Модуль 01. Wrapper над LLM (FastAPI)
Structured output, LLM-арбитр, анализ намерений. Пишем собственный враппер с валидацией и асинхронной записью.
Практика: Свой wrapper + structured output + LLM-judge на простом сценарии.
Модуль 02. Claude Agent SDK через LiteLLM
SDK через LiteLLM-прокси. Три нюанса: CLI игнорирует BASE_URL, drop_params, совместимость версий LiteLLM.
Практика: Поднять LiteLLM gateway + 2−3 SDK-вызова с tool-use.
Модуль 03. Введение в ИИ-агентов + технология CrewAI
Что такое AI-агент, tool-calling, паттерн ReAct. Собираем агента через create_react_agent, мост в LangGraph.
Практика: ReAct-агент с инструментами: curl, grep, kubectl (read-only).
Модуль 04. Введение в MCP — FastMCP
Пишем MCP-сервер через FastMCP: stdin/stdout транспорт, декоратор @mcp.tool (), типизация параметров.
Практика: Свой MCP-сервер для Docker/K8s, подключение к LangGraph.
Модуль 05. Библиотека LangGraph
StateGraph, Router, Memory. Human-in-the-loop, Breakpoints, Time Travel. Мульти-агентный incident response.
Практика: Система: classifier, diagnostician, resolver + HITL через Telegram + checkpoint-restart.
Модуль 06. MCP в продакшене (FastMCP 3.2)
Streamable HTTP, JWT, OAuth 2.1. Демо уязвимости STDIO-RCE и защита. LangGraph MultiServerMCPClient.
Практика: Production MCP-сервер с JWT auth и sandbox, интеграция с LangGraph.
Модуль 07. Оценка (Evaluation) агентов
DeepEval (Pytest-style), Langfuse eval datasets, Agent-as-Judge. Eval-in-CI через GitHub Actions.
Практика: Свой eval-suite (5−10 тестов) + CI-workflow, который падает на регрессии.
Модуль 08. Наблюдаемость с помощью платформы Langfuse
Langfuse v3 self-hosted: tracing, sessions, prompts, datasets, experiments. Grafana + ClickHouse datasource.
Практика: Поднять Langfuse + подключить агента + eval-judge + скриншот дашборда.
Модуль 09. Управление расходами на облако (FinOps) и Операционная безопасность (SecOps)мощью платформы Langfuse
Dockerize LangGraph + Helm chartlet. DeepEval в CI + Langfuse в deployment + LiteLLM routing для cost. OWASP LLM Top 10 для агентов.
Практика: Докеризовать агент + DeepEval-in-CI + Langfuse в deployment + FinOps-измерение.
Модуль 10. Capstone: итоговый проект
Разбор rubric (11 критериев). Три варианта проекта: Incident Response, K8s Troubleshooter, Infra Code Reviewer.
Практика: GitHub repo + README с Mermaid-архитектурой + eval badge + 10-минутное демо.
Показать больше
Зарегистрируйтесь
, чтобы посмотреть контент.