Top.Mail.Ru
Разработка
Тестирование
Prompt Injection в LLM-продуктах: тестирование утечек данных и безопасного использования инструментов
11 апреля
14.10-14.40
Зал 5

Большие языковые модели всё чаще становятся частью бизнес-процессов, но вместе с возможностями растут и риски. Prompt Injection — одна из ключевых угроз, способная привести к утечкам данных, обходу ограничений и неконтролируемому использованию встроенных инструментов.

В рамках доклада мы разберём сценарии атак на LLM-продукты, поговорим о методах тестирования уязвимостей, а также о практиках безопасной интеграции моделей и инструментов. Обсудим, как выявлять слабые места до инцидентов и какие меры действительно работают на практике.

Может заинтересовать
#похожие доклады