27.02.2024 Экспертиза, Безопасность, Искусственный интеллектМанипулируя поведением большой языковой модели (LLM), атаки типа «инъекция подсказок» (prompt injection) могут предоставить злоумышленникам несанкционированный доступ к частной информации. Независимый аналитик Кристофер Тоцци обсуждает на портале ITPro Today стратегии, которые могут помочь разработчикам уменьшить уязвимость этого типа в LLM и чатботах. Если вы опытный разработчик, то наверняка знакомы с инъекционными атаками, такими как SQL-инъекции и межсайтовый скриптинг (XSS). Теперь появился новый вид инъекционного риска: prompt injection. Если вы разрабатываете приложения, основанные на генеративном искусственном интеллекте (GenAI) или больших языковых моделях (LLM), инъекция подсказок — это проблема, которую необходимо решить, чтобы предотвратить злоупотребление вашим ПО и данными, лежащими в его основе. Рассмотрим ...
читать далее.