Ethics & Privacy

Prompt injection и jailbreak

Prompt injection — это попытка через пользовательский ввод или внешний контент заставить модель нарушить правила, раскрыть лишнее или выполнить нежелательное действие.

Как использовать термин

Что смотреть рядом

Этот термин полезно читать вместе с соседними понятиями из раздела и связанными сценариями запуска Gravity AI.

Раздел глоссария

Ключевые риски, которые чаще всего всплывают на этапе согласования и вывода в продакшен: достоверность, безопасность и работа с данными.

Что это

Практическое определение

Prompt injection — это попытка через пользовательский ввод или внешний контент заставить модель нарушить правила, раскрыть лишнее или выполнить нежелательное действие.

Пример в eCommerce

Если система умеет вызывать инструменты или использовать внешние данные, защита от таких сценариев становится обязательной частью продакшена.

Бизнес-эффект

Снижает риски безопасности, защищает бизнес-логику и помогает безопаснее масштабировать AI-функции.

Нужен не просто словарь, а рабочий сценарий для вашего каталога?

Покажем, с какого сценария лучше начать, как связать его с метриками и где быстрее всего получить измеримый результат.