Будет проще, если есть опыт с Kubernetes или облачными платформами. Но не обязательно.
Курс рассчитан на инженеров, которые уже работают с инфраструктурой и хотят добавить ИИ-агентов в свой стек. Не нужно быть data scientist-ом или ML-инженером. Нужен Python на уровне чтения и доработки кода, опыт с Docker и командной строкой.
Если пишете на Python и хотите разобраться в ИИ-инженерии без академического ML. Курс построен вокруг кода: врапперы, SDK, фреймворки, тесты. Все, что вы привыкли делать с обычными сервисами, только с LLM под капотом.
Бэкенд-разработчики
Вы уже знаете, как работает инфраструктура. На курсе разберетесь, как подключить к ней ИИ-агентов: автоматический разбор инцидентов, диагностика через kubectl и Docker, мониторинг стоимости LLM-запросов.
DevOps- и SRE-инженеры
Python на уровне чтения кода и простых доработок
Командная строка Linux или macOS
Docker: запуск контейнеров, базовые команды
Понимание HTTP API и клиент-серверной архитектуры
Агент работает, но никто не объясняет, как его докеризовать, как отслеживать стоимость запросов и что делать, когда LLM начинает галлюцинировать на production-данных.
От первого враппера над LLM до Helm-чарта, CI с eval-тестами и дашборда в Langfuse. Итоговый проект сдается как GitHub-репозиторий с архитектурой, тестами и демо, а не как скриншот из ноутбука.
Здесь вы проходите весь путь
Большинство курсов по ИИ-агентам заканчиваются там, где начинаются реальные проблемы
02
Чем наш курс отличается от других
01
Соберете production-ready AI-систему. Итоговый проект: GitHub-репозиторий с мульти-агентной системой, eval-тестами в CI, мониторингом в Langfuse и документацией. Incident Response, K8s Troubleshooter или Infra Code Reviewer на выбор.
Научитесь работать с актуальным стеком. LangGraph для оркестрации агентов, FastMCP для интеграции с Docker и Kubernetes,LiteLLM для маршрутизации между провайдерами, DeepEvalдля тестирования,Langfuse для мониторинга. Это инструменты, которые используются в production прямо сейчас, а не учебные фреймворки.
Поймете, сколько стоит ваш агент. Semantic cache, routing между дешевыми и дорогими моделями, prompt compression. После курса вы сможете посчитать ROI и объяснить руководству, почему AI-инфраструктура стоит тех денег, которые на нее тратят.
Сможете довести агента от прототипа до деплоя. Dockerize, Helm, CI с eval-тестами, Langfuse в deployment. Типичная боль: агент работает локально, но никто не знает, как его выкатить. После курса вы будете знать.
Ваш результат за 10 недель на курсе
После курса у вас будет не набор теоретических знаний, а работающий код и конкретные навыки, которые можно применить на следующий день.
Закроете вопрос безопасности. Prompt injection, tool poisoning, RCE через MCP. Вы будете знать, как проводить аудит по OWASP LLM Top 10 и как защитить агента до того, как он натворит дел.
Инструменты, с которыми будете работать:
Локальные LLM
n8n
GitLab API
MCP-брокер
AI-боты с кастомным RAG
Loki/ELK
Prometheus/Grafana
Сертификат
В случае, если студент изучил 80% курса, но не выполнил или не сдал финальное задание, вместо сертификата выдаётся свидетельство.
Именной сертификат с индивидуальным номером получает студент, если:
прошёл 80% курса
принимал участие в решении практик, которые входят в курс
успешно сдал итоговый проект
Спикеры
Подробнее о спикере
Виктор Ведмич
Senior Solution Architect
Подробнее о спикере
София Филиппова
AI engineer at Innova
Консультант по безопасности LLM и prompt engineering
10+ лет в DevOps и системной архитектуре
Помогаю клиентам проектировать и запускать решения на базе крупного облачного провайдера (гиперскейлера)
Kubernetes, GitOps, IaC и CI/CD — от дизайна до продакшена
Основатель и ведущий канала DevOps Kitchen Talks
Фокус сейчас — GenAI и MLOps: внедряю AI на уровне компаний и помогаю инженерам перестроить подход к работе и оптимизировать процессы с помощью AI
2+ лет опыта интеграций LLM в сервисы различных доменных областей (от EdTech до MedTech)
Автор статей на Habr и Medium, спикер на профильных конференциях
5+ лет в бэкенд-разработке на Python и Node. js
Подробнее о спикере
София Филиппова
AI engineer at Innova
Консультант по безопасности LLM и prompt engineering
2+ лет опыта интеграций LLM в сервисы различных доменных областей (от EdTech до MedTech)
Автор статей на Habr и Medium, спикер на профильных конференциях
5+ лет в бэкенд-разработке на Python и Node. js
Виктор Ведмич
Senior Solution Architect
10+ лет в DevOps и системной архитектуре
Помогаю клиентам проектировать и запускать решения на базе крупного облачного провайдера (гиперскейлера)
Kubernetes, GitOps, IaC и CI/CD — от дизайна до продакшена
Основатель и ведущий канала DevOps Kitchen Talks
Фокус сейчас — GenAI и MLOps: внедряю AI на уровне компаний и помогаю инженерам перестроить подход к работе и оптимизировать процессы с помощью AI
12
1
недель
QA-сессия
Чат с экспертами
12
уроков
Программа курса
Structured output, LLM-арбитр, анализ намерений. Пишем собственный враппер с валидацией и асинхронной записью.
Практика: Свой wrapper + structured output + LLM-judge на простом сценарии.
SDK через LiteLLM-прокси. Три нюанса: CLI игнорирует BASE_URL, drop_params, совместимость версий LiteLLM.
Практика: Поднять LiteLLM gateway + 2−3 SDK-вызова с tool-use.
Что такое AI-агент, tool-calling, паттерн ReAct. Собираем агента через create_react_agent, мост в LangGraph.
Практика: ReAct-агент с инструментами: curl, grep, kubectl (read-only).
Курс практический, с написанием кода. Если вы готовы писать Python и работать в терминале, да. Если нужен обзорный формат без кода, этот курс не подойдет.