Блог Слёрм

Prompt Injection: самая серьезная угроза LLM в 2025 году

LLM уже давно помогает нам делать свою работу: собирает логи, генерирует скрипты и даже пишет за нас имейлы. Но вместе с этим нам следует помнить, что у развивающегося инструмента есть свои слабые места.

Что происходит

Prompt Injection — это атака, при которой кто-то (или что-то) заставляет LLM нарушить её системные инструкции. Опасность в том, что теперь модели работают прямо в пайплайнах, IDE и CLI и могут реально менять поведение инфраструктуры.

В конце прошлого года OWASP поставили Prompt Injection на лидирующую позицию в LLM Top 10. Атаки уже не теоретические. Например, из недавнего:

• В Amazon Q for VS Code нашли prompt-инъекции, генерирующие вредоносные команды

• В M365 Copilot зафиксировали так называемый «EchoLeak» — zero-click prompt-инъекцию, которая заставляла модель пересылать чувствительные данные злоумышленнику из email-контента

Инъекции глобально можно разделить на 2 типа:

1. Прямые (когда злоумышленник напрямую пишет «Игнорируй правила и сделай XYZ»)

2. Косвенные (когда вредоносная инструкция скрыта в данных: пользовательских запросах, конфигах)

В DevOps вторая категория опаснее: LLM может самостоятельно вычитать вредоносный кусок из конфига и выполнить его без вашего ведома

Как защищаться

1. Следуйте принципу наименьших привилегий — модель не должна иметь прав на выполнение команд в важных сервисах или в проде. Желательно выделять ей отдельную безопасную среду выполнения

2. Не забывайте про санитизацию ввода/вывода — проверяйте, что в модель не попали чувствительные данные. А также проверяйте вывод, чтобы модель случайно не посоветовала сделать rm -rf

3. Разделите роли — окружайте пользовательский ввод своими системными инструкциями

4. Внедрите Guard-агента — пусть в пайплайне будет дополнительный запрос к LLM, проверяющий ответ на опасные паттерны

5. Следуйте принципу «Human in the loop» — всё, что может повлиять на инфраструктуру, требует подтверждения человека-инженера

Хотя все это и звучит страшно и не очень обнадеживающе, мы с вами не отказываемся, например, от использования машин, потому что на них можно попасть в аварию. Prompt Injection — часть механики взаимодействия с ИИ. Следуя основным правилам защиты, вполне реально обезопасить себя, свой код и свою инфру

Если хотите не просто знать о проблемах, а научиться правильно внедрять AI в DevOps-процессы — приглашаем на курс «AI в DevOps», где мы разбираем:

— Безопасное использование LLM в пайплайнах

— Защиту от prompt injection и других угроз

— Локальные LLM и приватные RAG-системы

— Интеграцию AI в мониторинг и CI/CD

Старт потока 20 октября. Подробности — по ссылке
DevOps