SECURITY
AI
Security
A. K. Ngaleu
Books / Sécurité de l'IA
Sécurité de l'IA
Défendre les systèmes LLM en production
“Modèles de menaces, injection de prompts, exfiltration.”
Injection directe et indirecte, jailbreaks, exfiltration, attaques sur la chaîne d'approvisionnement.
SécuritéLLMModèles de menaces
Format
eBook · Paperback
Pages
260
Published
2025
Language
EN · FR
Inside the book
- Modèles de menaces LLM01
- Prompt injection sur le terrain02
- Injection indirecte03
- Jailbreaks et red-teaming04
- Vecteurs d'exfiltration05
- Sanitization des sorties06
- Risques chaîne d'approvisionnement07
- Détection et observabilité08