12.08.2024 Новости, БезопасностьСпециалисты «Лаборатории Касперского» изучили открытые данные и внутренние источники, чтобы выяснить, как и для чего люди используют indirect prompt injection (непрямые инъекции затравки). Этому киберриску подвержены многие системы на основе больших языковых моделей (LLM). Речь о текстовых описаниях задач, которые должны выполнять чат-боты. В случае с непрямыми инъекциями пользователи могут даже не подозревать, что нейросеть выполняет чужие инструкции. Как это работает. Множество решений на основе больших языковых моделей — алгоритмов, лежащих в основе популярных чат-ботов, работают так: человек задаёт вопрос чат-боту, который в свою очередь формулирует запрос к поисковой системе или доступной базе документов, читает выдачу, отбирает определённые страницы, анализирует и формирует ответ. Некоторые поисковые системы ...
читать далее.