Guide complet sur les PLAM (Personal Language Agent Models) : architecture des modèles edge personnalisés, fine-tuning LoRA/QLoRA on-device, confidentialité.
Table des Matières
- 1.Le Concept PLAM — Personal Language Agent Models
- 2.Architecture des Modèles Edge Personnalisés
- 3.Fine-Tuning pour la Personnalisation (LoRA, QLoRA on-device)
- 4.Personnalisation Préservant la Confidentialité
- 5.Gestion des Données Utilisateur
- 6.Déploiement sur Appareils Edge
- 7.PLAM en Contexte Entreprise
- 8.Futur : Les Agents IA Vraiment Personnels
Notre avis d'expert
La gouvernance de l'IA est le prochain grand chantier de la cybersécurité. Les attaques par prompt injection, l'empoisonnement de données d'entraînement et l'extraction de modèles sont des menaces concrètes que nous observons de plus en plus lors de nos missions. Ne pas s'y préparer, c'est accepter un risque majeur. Guide complet sur les PLAM (Personal Language Agent Models) : architecture des modèles edge personnalisés, fine-tuning LoRA/QLoRA on-device. Ce guide couvre les aspects essentiels de ia plam agents personnalises edge : méthodologie structurée, outils recommandés et retours d'expérience opérationnels. Les professionnels y trouveront des recommandations directement applicables.
- Architecture technique et principes de fonctionnement du modèle
- Cas d'usage concrets en cybersécurité et performance mesurée
- Limites, biais potentiels et considérations éthiques
- Guide d'implémentation et ressources recommandées
Avez-vous évalué les risques d'injection de prompt sur vos systèmes d'IA en production ?
1Le Concept PLAM — Personal Language Agent Models
Les PLAM, ou Personal Language Agent Models, désignent une nouvelle catégorie de modèles d'intelligence artificielle qui réunit trois caractéristiques fondamentales : ils sont personnalisés en continu sur les données et préférences d'un utilisateur spécifique, ils fonctionnent principalement ou entièrement sur l'appareil de l'utilisateur (edge computing), et ils agissent comme des agents autonomes capables d'exécuter des tâches complexes au nom de leur utilisateur.
Le concept s'oppose au schéma dominant des LLM centralisés — un modèle monolithique, identique pour tous les utilisateurs, hébergé dans le cloud et personnalisé au mieux par un système de prompt. Les PLAM constituent une rupture architecturale : chaque utilisateur dispose d'un modèle qui lui appartient, adapté à son vocabulaire, ses domaines de compétence, son style de communication, ses workflows habituels et ses préférences comportementales.
L'émergence des PLAM en 2025-2026 est rendue possible par la convergence de plusieurs avancées technologiques. D'abord, la miniaturisation des LLM : des modèles comme Phi-3 Mini (3,8B paramètres), Gemma 2B, ou SmolLM peuvent désormais tourner en temps réel sur un smartphone haut de gamme ou un laptop avec NPU. Ensuite, les techniques de fine-tuning efficace en mémoire — LoRA, QLoRA, IA3 — permettent d'adapter ces modèles à un utilisateur individuel avec seulement quelques centaines de mégaoctets de données et quelques heures de calcul sur CPU/NPU.
La dimension "agent" du PLAM est tout aussi importante que la personnalisation. Un PLAM ne se contente pas de répondre à des questions ; il dispose d'accès à des outils et APIs locaux — calendrier, emails, fichiers, applications métier — et peut exécuter des séquences d'actions autonomes. Il "connaît" l'utilisateur et peut anticiper ses besoins, préparer des documents dans son style, orchestrer ses communications selon ses priorités habituelles.
Définition opérationnelle : Un PLAM est un modèle de langage de moins de 10B paramètres, quantifié pour l'inférence on-device, adapté par fine-tuning continu aux données de l'utilisateur, doté d'une mémoire personnelle persistante et d'un accès contrôlé à des outils locaux et distants.
| Critere | Description | Niveau de risque |
|---|---|---|
| Confidentialite | Protection des donnees d'entrainement et des prompts | Eleve |
| Integrite | Fiabilite des sorties et detection des hallucinations | Critique |
| Disponibilite | Resilience du service et gestion de la charge | Moyen |
| Conformite | Respect du RGPD, AI Act et politiques internes | Eleve |
2Architecture des Modèles Edge Personnalisés
L'architecture d'un PLAM se décompose en plusieurs couches fonctionnelles qui interagissent pour produire un agent véritablement personnalisé et performant sur edge.
La couche de base est un modèle fondateur (foundation model) compact, sélectionné pour son efficacité sur CPU/NPU. En 2026, les candidats les plus matures pour ce rôle incluent Llama 3.2 3B, Phi-4 Mini (4B), Mistral 7B quantifié en Q4_K_M, ou Qwen2.5 1.5B. Le choix dépend du profil d'usage — les modèles orientés code conviennent mieux aux développeurs, les modèles multilingues aux utilisateurs internationaux. Cette couche de base n'est jamais modifiée directement : elle sert de fondation stable sur laquelle la personnalisation s'applique.
La couche de personnalisation est constituée d'adaptateurs LoRA (Low-Rank Adaptation) spécifiques à l'utilisateur. Ces adaptateurs — de seulement 10 à 200 Mo selon le rang choisi — sont entraînés sur les données de l'utilisateur et chargés dynamiquement par-dessus le modèle de base au moment de l'inférence. Cette architecture permet de mettre à jour la personnalisation sans modifier le modèle de base, facilitant les mises à jour de sécurité et les changements de modèle fondateur.
La couche mémoire constitue un composant critique souvent sous-estimé. Elle se décompose en mémoire à court terme (contexte de conversation actuel), mémoire à moyen terme (résumés des interactions récentes des dernières semaines) et mémoire à long terme (base de connaissances sémantique sur l'utilisateur, ses préférences, son réseau professionnel). Cette dernière est typiquement implémentée comme un vector store local (ChromaDB, LanceDB) interrogé via RAG à chaque inférence. Pour approfondir, consultez Kubernetes offensif (RBAC abuse,.
La couche d'orchestration d'agents gère l'accès aux outils : APIs locales (calendrier, fichiers, emails), APIs distantes autorisées, et logiques de planification multi-étapes. Des frameworks comme llama.cpp avec grammaire structurée, ou mlx-lm sur Apple Silicon, permettent de garantir des outputs JSON valides pour l'appel d'outils même avec des petits modèles.
Architecture complète d'un PLAM — données utilisateur confinées sur l'appareil, seuls des gradients anonymisés quittent le device
Cas concret
L'attaque par prompt injection sur les systèmes GPT documentée par OWASP en 2023 a révélé que des instructions malveillantes dissimulées dans des documents pouvaient détourner le comportement de chatbots d'entreprise, accédant à des données internes sensibles sans aucune authentification supplémentaire.
3Fine-Tuning pour la Personnalisation (LoRA, QLoRA on-device)
Le fine-tuning on-device est le mécanisme central qui distingue un PLAM d'un simple modèle edge générique. La contrainte principale est drastique : tout le processus d'adaptation doit tenir dans les ressources limitées d'un appareil grand public, sans GPU dédié pour la plupart des scénarios.
LoRA (Low-Rank Adaptation) est la technique dominante pour la personnalisation on-device. Son principe : au lieu de modifier les poids du modèle entier (plusieurs gigaoctets), on injecte des matrices de faible rang (rank 4 à 16) dans les couches d'attention. Ces matrices, beaucoup plus petites, capturent les adaptations nécessaires. Pour un modèle de 3B paramètres avec un rang r=8, les adaptateurs LoRA représentent typiquement 15 à 30 Mo — un ordre de grandeur compatible avec un stockage local sécurisé.
QLoRA (Quantized LoRA) pousse la compression plus loin en quantifiant le modèle de base en 4-bit (NF4 ou Q4_K_M) avant d'y appliquer les adaptateurs LoRA en précision complète. Cette combinaison réduit l'empreinte mémoire du modèle de base d'un facteur 4 à 8 par rapport aux poids FP16, rendant possible le fine-tuning de modèles 7B sur des machines avec 8 Go de RAM unifiée (Apple M3, Snapdragon X Elite).
La fréquence et le déclenchement du fine-tuning doivent être soigneusement calibrés pour l'usage on-device. Un cycle de fine-tuning continu (plusieurs fois par heure) consommerait la batterie et dégraderait l'expérience utilisateur. La stratégie optimale est un fine-tuning nocturne : pendant la charge de l'appareil, un processus background entraîne les adaptateurs LoRA sur les interactions de la journée. Un mécanisme de curriculum learning garantit que le PLAM commence par les données les plus représentatives et les plus fréquentes, maximisant la valeur de chaque cycle d'entraînement.
Exemple : Fine-tuning LoRA on-device avec mlx-lm
"""PLAM On-Device LoRA Fine-Tuning — Apple MLX Framework"""
import mlx.core as mx
from mlx_lm import load, generate
from mlx_lm.tuner.lora import linear_to_lora_layers, LoRALinear
from pathlib import Path
import json, os
def load_personal_data(data_path: str) -> list[dict]:
"""Charge les interactions chiffrées de l'utilisateur"""
data = []
with open(data_path) as f:
for line in f:
item = json.loads(line)
data.append({
"prompt": item["user_message"],
"completion": item["assistant_response"]
})
return data
def plam_finetune(
base_model: str = "mlx-community/Phi-3.5-mini-instruct-4bit",
user_data_path: str = "~/.plam/interactions_today.jsonl",
output_dir: str = "~/.plam/lora_adapters",
lora_rank: int = 8,
num_epochs: int = 3,
learning_rate: float = 1e-4,
):
# Charge le modele quantifie en 4-bit
model, tokenizer = load(base_model)
# Convertit les couches lineaires en couches LoRA
model = linear_to_lora_layers(
model, lora_rank,
# Cible uniquement les projections Q et V (optimal pour personnalisation)
target_modules=["q_proj", "v_proj"]
)
mx.eval(model.parameters())
# Charge les donnees personnelles locales
dataset = load_personal_data(
str(Path(user_data_path).expanduser())
)
print(ff"Fine-tuning sur {len(dataset)} interactions personnelles")
# Entraine uniquement les parametres LoRA (modele de base gele)
optimizer = mx.optimizers.AdamW(learning_rate=learning_rate)
for epoch in range(num_epochs):
# ... boucle d'entrainement (simplifiee)
pass
# Sauvegarde les adaptateurs LoRA chiffres localement
out_path = Path(output_dir).expanduser()
out_path.mkdir(parents=True, exist_ok=True)
model.save_weights(str(out_path / "adapters.safetensors"))
print(ff"Adaptateurs sauvegardes: {out_path}")
if __name__ == "__main__":
plam_finetune()
Vos pipelines de données d'entraînement sont-ils protégés contre l'empoisonnement ?
4Personnalisation Préservant la Confidentialité
La valeur fondamentale des PLAM repose sur une promesse : un modèle qui vous connaît vraiment, sans que vos données personnelles ne quittent votre appareil. Tenir cette promesse requiert l'application de plusieurs techniques cryptographiques et statistiques complémentaires.
La confidentialité différentielle (Differential Privacy, DP) est le principal mécanisme de protection formelle. Elle garantit que les mises à jour des adaptateurs LoRA partagées avec un serveur central (dans un schéma d'apprentissage fédéré) ne permettent pas d'inférer les données individuelles de l'utilisateur. Techniquement, un bruit calibré (mécanisme gaussien ou Laplacien) est ajouté aux gradients avant leur transmission, avec un paramètre epsilon contrôlant le compromis confidentialité-utilité. Des valeurs epsilon de 2 à 8 sont typiques pour les applications PLAM, offrant une protection substantielle sans dégrader excessivement la qualité du fine-tuning.
L'apprentissage fédéré (Federated Learning, FL) organise la mise à jour collective des modèles sans partage de données brutes. Dans un schéma FL pour PLAM, chaque appareil entraîne localement ses adaptateurs LoRA sur ses propres données. Seules les mises à jour des poids (gradients) — protégées par DP — sont transmises au serveur. Le serveur agrège ces mises à jour (via FedAvg ou FedProx) pour améliorer le modèle fondateur partagé, qui est ensuite redistribué à tous les appareils. Chaque utilisateur bénéficie ainsi de l'apprentissage collectif sans exposer ses données. Pour approfondir, consultez IA Multimodale : Texte, Image et Audio.
Le chiffrement des données locales est une couche de sécurité complémentaire indispensable. Les données d'interaction, les adaptateurs LoRA et la mémoire vectorielle du PLAM doivent être chiffrés au repos avec des clés dérivées du credential de l'utilisateur (AES-256-GCM). Sur les appareils Apple, le Secure Enclave peut gérer ces clés de manière hardware. Sur Android, le Keystore System offre des garanties similaires. Cette protection garantit que même en cas de vol de l'appareil, les données personnelles du PLAM restent inaccessibles.
5Gestion des Données Utilisateur
La gestion des données dans un PLAM soulève des questions inédites par rapport aux systèmes IA traditionnels. Puisque le modèle apprend en continu des interactions de l'utilisateur, la qualité et la pertinence des données d'entraînement ont un impact direct sur les performances du PLAM à long terme.
Le cycle de vie des données d'interaction doit être soigneusement défini. Les interactions brutes sont collectées localement, annotées automatiquement (utile/non utile, correct/incorrect selon le feedback implicite ou explicite de l'utilisateur), filtrées pour exclure les données de mauvaise qualité, puis converties en paires prompt-completion pour le fine-tuning. Un mécanisme de vieillissement progressif permet de réduire le poids des interactions anciennes au profit des plus récentes, assurant que le PLAM reflète l'évolution des besoins et des préférences de l'utilisateur.
Le droit à l'oubli prend une dimension nouvelle avec les PLAM. Un utilisateur qui souhaite que le modèle "oublie" certaines informations (conformément au RGPD) ne peut pas simplement supprimer des entrées d'une base de données : ces informations sont désormais encodées dans les poids des adaptateurs LoRA. Deux approches existent : le machine unlearning (retirer l'effet d'exemples spécifiques sans réentraîner depuis zéro, via gradient ascent sur les données à "oublier") ou la réinitialisation et le réentraînement des adaptateurs sur un dataset filtré. La seconde approche est plus fiable mais plus coûteuse en calcul.
La portabilité des données PLAM est un enjeu stratégique pour éviter les effets de lock-in. Un format standardisé pour les adaptateurs LoRA personnalisés et les mémoires vectorielles permettrait à un utilisateur de migrer son PLAM d'un modèle fondateur vers un autre (par exemple, de Phi-4 vers Llama 4 lors d'une nouvelle génération) en conservant sa personnalisation. Ce point fait l'objet de travaux de standardisation au sein du consortium MLCommons.
6Déploiement sur Appareils Edge
Le déploiement effectif d'un PLAM sur des appareils grand public impose des contraintes d'ingénierie système que les architectures cloud n'ont pas à gérer : latence d'inférence, gestion thermique, consommation batterie, hétérogénéité du hardware.
Sur les appareils Apple (iPhone 15 Pro et supérieur, Mac M3), le framework CoreML et la bibliothèque MLX offrent des performances d'inférence remarquables grâce à l'accès natif au NPU (Neural Engine) et à la mémoire unifiée. Un modèle Phi-3.5 Mini Q4 atteint 40 à 80 tokens/seconde sur M3, soit une vitesse suffisante pour une interaction conversationnelle fluide. Le fine-tuning nocturne des adaptateurs LoRA avec MLX est également possible sur ces architectures.
Sur Android, le Qualcomm Snapdragon X Elite et les puces MediaTek Dimensity 9400 intègrent des NPU capables de faire tourner des modèles 3B à 7B quantifiés. L'API Android Neural Networks (NNAPI) et la bibliothèque ExecuTorch (Meta) offrent des abstractions permettant de déployer des modèles de manière portable sur ces puces hétérogènes. La gestion de la durée de vie de la batterie est critique : les inférences PLAM doivent être planifiées intelligemment pour ne pas décharger prématurément l'appareil.
Sur PC et laptop, l'émergence des processeurs NPU (Intel Core Ultra, AMD Ryzen AI) ouvre de nouvelles possibilités pour les PLAM en contexte professionnel. Windows Copilot Runtime et les SDK associés (Windows AI Foundry) permettent d'intégrer des modèles edge directement dans des applications Windows, avec accès au NPU via DirectML. Cette intégration OS-level garantit une gestion efficace des ressources et une coexistence harmonieuse avec les autres applications. Pour approfondir, consultez GPT-5.1 vs Claude 4.5 vs Gemini 3 : Comparatif.
La stratégie hybride edge-cloud est souvent la plus pragmatique pour les PLAM en 2026. Les requêtes simples et personnelles (rédaction dans le style de l'utilisateur, gestion du calendrier, résumé d'emails) sont traitées localement par le PLAM. Les requêtes nécessitant des connaissances fraîches, des données volumineuses, ou un raisonnement complexe peuvent être routées vers un LLM cloud, éventuellement enrichi du contexte personnel de l'utilisateur de manière différentiellement privée.
7PLAM en Contexte Entreprise
Le déploiement de PLAM en entreprise présente une combinaison unique d'opportunités et de défis spécifiques au contexte organisationnel. L'opportunité principale est celle d'agents IA qui connaissent précisément le rôle, les responsabilités, les workflows et les contacts de chaque collaborateur, sans partager les données sensibles d'un employé avec un système centralisé accessible à ses collègues ou à l'employeur.
La gouvernance des PLAM en entreprise nécessite une architecture à deux niveaux de personnalisation. Le niveau organisationnel fournit des adaptateurs LoRA partagés représentant la connaissance métier de l'entreprise — terminologie spécifique, processus internes, documentation produit, style de communication institutionnel. Ces adaptateurs sont déployés sur tous les appareils via le MDM (Mobile Device Management). Le niveau individuel ajoute par-dessus les adaptateurs personnels de chaque collaborateur, formés sur ses propres interactions et données de travail.
La politique de données doit clarifier explicitement ce qui peut et ne peut pas entrer dans la couche de personnalisation individuelle. Les données client, les informations contractuelles et les données classifiées ne doivent pas alimenter les adaptateurs personnels, car elles seraient encodées dans les poids et potentiellement transportées si l'employé change de poste ou quitte l'entreprise. Des filtres DLP appliqués au pipeline de collecte de données PLAM peuvent bloquer automatiquement les données sensibles avant qu'elles n'entrent dans le cycle d'entraînement.
L'intégration des PLAM avec les outils métier existants représente l'effort d'ingénierie le plus significatif du déploiement entreprise. Des connecteurs doivent être développés pour chaque système — CRM, ERP, outils de productivité — permettant au PLAM d'agir en tant qu'agent sur ces systèmes. La gestion des droits d'accès est critique : le PLAM d'un collaborateur ne doit pouvoir agir que dans le périmètre des droits accordés à cet utilisateur dans chaque système.
8Futur : Les Agents IA Vraiment Personnels
La trajectoire des PLAM pointe vers une vision à long terme : un agent IA qui n'est pas simplement personnalisé pour vous, mais qui vous représente activement dans votre vie numérique, avec une compréhension profonde de votre identité, vos valeurs, vos priorités et vos objectifs.
Les avancées en cours sur les mémoires épisodiques pour les LLM — permettant aux modèles de retenir et de raisonner sur des expériences spécifiques passées plutôt que seulement sur des connaissances générales — constituent un élément clé de cette évolution. Un PLAM avec mémoire épisodique pourrait se souvenir que lors de la dernière réunion de budget, l'utilisateur a eu une conversation difficile avec son directeur, et adapter ses recommandations en tenant compte de ce contexte mémorisé.
La multi-modalité est une autre dimension d'évolution majeure. Les PLAM de demain ne seront pas uniquement textuels : ils traiteront et produiront du texte, de l'audio (voix personnalisée à la tonalité et au style de l'utilisateur), des images, et potentiellement des actions sur des interfaces graphiques (computer use). Cette multi-modalité transforme le PLAM d'un assistant textuel en un véritable alter ego numérique capable d'agir dans n'importe quel environnement logiciel.
La question de l'identité numérique et de la délégation d'agence sera centrale dans l'évolution des PLAM. À mesure que ces agents acquièrent la capacité d'agir de manière de plus en plus autonome au nom de leur utilisateur — répondre aux emails, programmer des réunions, effectuer des achats, valider des documents — se posent des questions fondamentales sur la responsabilité légale des actions de l'agent. Des frameworks juridiques et techniques de délégation d'autorité, permettant à l'utilisateur de définir avec précision ce que son PLAM peut faire autonomement versus ce qui requiert une validation explicite, seront nécessaires. Pour approfondir, consultez OWASP Top 10 pour les LLM : Guide Remédiation 2026.
La vision ultime reste celle d'un agent qui grandit avec vous : apprenant de vos succès et de vos erreurs, s'adaptant à l'évolution de vos compétences et de vos ambitions, préservant une continuité mémorielle sur des années. Cette perspective place le PLAM non plus comme un outil, mais comme une extension cognitive personnelle — une réalité encore partielle en 2026, mais dont les fondations architecturales et techniques décrites dans cet article sont d'ores et déjà posées.
Prêt à déployer des agents IA personnalisés en entreprise ?
Nos experts en IA edge vous accompagnent dans la conception et le déploiement de solutions PLAM adaptées à votre organisation. Pilote en 4 semaines.
Références et ressources externes
- OWASP LLM Top 10 — Les 10 risques majeurs pour les applications LLM
- MITRE ATLAS — Framework de menaces pour les systèmes d'intelligence artificielle
- NIST AI RMF — AI Risk Management Framework du NIST
- arXiv — Archive ouverte de publications scientifiques en IA
- HuggingFace Docs — Documentation de référence pour les modèles de ML
Articles Connexes
Pour approfondir ce sujet, consultez notre outil open-source ml-model-security-audit qui facilite l'évaluation de la sécurité des modèles ML.
Sources et références : ArXiv IA · Hugging Face Papers
FAQ
Qu'est-ce que PLAM ?
Le concept de PLAM est détaillé dans les premières sections de cet article, qui couvrent les fondamentaux, les enjeux et le contexte opérationnel. Pour un accompagnement sur ce sujet, contactez nos experts.
Pourquoi PLAM est-il important en cybersécurité ?
La compréhension de PLAM permet aux équipes de sécurité d'améliorer leur posture défensive. Les sections « Table des Matières » et « 1 Le Concept PLAM — Personal Language Agent Models » détaillent les raisons de cette importance. Pour un accompagnement sur ce sujet, contactez nos experts.
Comment mettre en œuvre les recommandations de cet article ?
Les recommandations pratiques sont détaillées tout au long de l'article, avec des commandes, des outils et des méthodologies éprouvées. La section « Conclusion » fournit une synthèse actionnable. Pour un accompagnement sur ce sujet, contactez nos experts.
Conclusion
Cet article a couvert les aspects essentiels de les concepts cles abordes. La mise en pratique de ces recommandations permet de renforcer significativement la posture de securite de votre organisation.
Article suivant recommandé
Prompt Engineering Avancé : Chain-of-Thought et Techniques →Guide expert sur le prompt engineering avancé : Chain-of-Thought, Tree-of-Thought, ReAct et techniques de raisonnement p
Embedding : Représentation vectorielle dense d'un objet (texte, image, audio) dans un espace mathématique où la proximité reflète la similarité sémantique.
Pour reproduire les résultats présentés, commencez par un dataset d'entraînement de qualité et validez sur un échantillon représentatif avant tout déploiement en production.
Télécharger cet article en PDF
Format A4 optimisé pour l'impression et la lecture hors ligne
À propos de l'auteur
Ayi NEDJIMI
Expert Cybersécurité Offensive & Intelligence Artificielle
Ayi NEDJIMI est consultant senior en cybersécurité offensive et intelligence artificielle, avec plus de 20 ans d'expérience sur des missions à haute criticité. Il dirige Ayi NEDJIMI Consultants, cabinet spécialisé dans le pentest d'infrastructures complexes, l'audit de sécurité et le développement de solutions IA sur mesure.
Ses interventions couvrent l'audit Active Directory et la compromission de domaines, le pentest cloud (AWS, Azure, GCP), la rétro-ingénierie de malwares, le forensics numérique et l'intégration d'IA générative (RAG, agents LLM, fine-tuning). Il accompagne des organisations de toutes tailles — des PME aux grands groupes du CAC 40 — dans leur stratégie de sécurisation.
Contributeur actif à la communauté cybersécurité, il publie régulièrement des analyses techniques, des guides méthodologiques et des outils open source. Ses travaux font référence dans les domaines du pentest AD, de la conformité (NIS2, DORA, RGPD) et de la sécurité des systèmes industriels (OT/ICS).
Ressources & Outils de l'auteur
Articles connexes
Sécuriser un Pipeline RAG : Du Vector Store à l'API
Sécuriser chaque couche d'un pipeline RAG : ingestion, vector store, retrieval et génération. Contrôles d'accès, filtrag
Jailbreak LLM : Taxonomie et Détection Automatisée
DAN, AIM, persona switch et token smuggling : taxonomie complète des jailbreaks LLM et pipeline de détection automatisée
Exfiltration de Données via RAG : Attaques Contextuelles
Attaques par empoisonnement de contexte RAG, extraction de documents privés et prompt leaking : méthodologie offensive e
Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !
Laisser un commentaire