NOUVEAU - Intelligence Artificielle

Confidential Computing et IA : Entraîner et Inférer dans des Enclaves Sécurisées

TEE (Intel TDX, AMD SEV-SNP, ARM CCA), inférence confidentielle, entraînement multi-parties sécurisé et attestation de modèles

Ayinedjimi Consultants 28 février 2026 30 min de lecture Niveau Avancé

Table des Matières

1 Introduction au Confidential Computing pour l'IA

La protection des données est traditionnellement assurée selon trois états : at rest (chiffrement de stockage), in transit (TLS/mTLS) et in use (données en mémoire pendant le traitement). Si les deux premiers états bénéficient de solutions matures et largement déployées, la protection des données en cours de traitement reste le maillon faible. Le Confidential Computing résout ce problème en utilisant des environnements d'exécution de confiance matériels (Trusted Execution Environments, TEE) qui protègent les données en mémoire contre tout accès non autorisé, y compris de la part de l'opérateur de l'infrastructure (cloud provider, administrateur système).

L'intersection entre Confidential Computing et intelligence artificielle ouvre des possibilités considérables. Les organisations hésitent souvent à déployer des modèles IA dans le cloud pour des raisons de confidentialité : les données d'entraînement peuvent contenir des informations personnelles soumises au RGPD, les prompts utilisateurs révèlent des informations métier sensibles, et les poids du modèle constituent de la propriété intellectuelle de haute valeur. Le Confidential Computing permet de déployer l'IA dans des enclaves sécurisées où ni le cloud provider ni aucun administrateur ne peut accéder aux données en cours de traitement, aux prompts des utilisateurs, ni aux poids du modèle. Cette garantie est assurée par le matériel et vérifiable par attestation cryptographique.

Le Confidential Computing Consortium (CCC), fondé par la Linux Foundation en 2019 et regroupant Intel, AMD, ARM, Microsoft, Google, Meta et NVIDIA, pilote la standardisation des interfaces et des protocoles. En 2026, le marché du Confidential Computing pour l'IA connaît une croissance explosive, portée par les exigences réglementaires (RGPD, AI Act, HIPAA) et les cas d'usage en santé, finance et défense où la confidentialité des données est non négociable.

Définition clé : Le Confidential Computing protège les données en cours de traitement (in use) en utilisant des environnements d'exécution matériels isolés (TEE). Les données et le code à l'intérieur du TEE sont protégés contre tout accès externe — y compris du système d'exploitation, de l'hyperviseur et de l'opérateur de l'infrastructure — avec des garanties vérifiables par attestation cryptographique.

2 Technologies TEE (Intel TDX, AMD SEV-SNP, ARM CCA)

Trois technologies TEE majeures se partagent le marché en 2026, chacune avec des caractéristiques distinctes. Intel Trust Domain Extensions (TDX), successeur d'Intel SGX, fournit une isolation au niveau de la machine virtuelle plutôt qu'au niveau de l'application. TDX crée des Trust Domains (TD) — des VMs complètes dont la mémoire est chiffrée par le processeur avec des clés matérielles inaccessibles à l'hyperviseur. L'avantage majeur de TDX est la compatibilité applicative : tout logiciel existant fonctionne dans un TD sans modification, éliminant le besoin de porter les applications dans un SDK spécialisé comme c'était le cas avec SGX. TDX est disponible sur les processeurs Intel Xeon de 4ème génération (Sapphire Rapids) et suivants, avec une mémoire protégée pouvant atteindre plusieurs téraoctets.

AMD Secure Encrypted Virtualization-Secure Nested Paging (SEV-SNP) est l'implémentation AMD de la VM confidentielle. SEV-SNP chiffre la mémoire de chaque VM avec des clés AES-256 gérées par un processeur de sécurité dédié (AMD Secure Processor, ASP). SNP ajoute l'intégrité mémoire (protection contre les attaques de remapping) et l'attestation cryptographique au SEV de base. AMD SEV-SNP est disponible sur les processeurs EPYC de 3ème génération (Milan) et suivants, et est largement déployé chez les cloud providers (Azure, AWS, GCP). L'un des avantages d'AMD SEV-SNP est sa capacité à protéger de très grands espaces mémoire (jusqu'à 509 clés de chiffrement simultanées), ce qui le rend particulièrement adapté aux workloads IA nécessitant plusieurs dizaines de gigaoctets de mémoire.

ARM Confidential Compute Architecture (CCA), annoncé avec ARMv9, étend le modèle de sécurité ARM TrustZone avec des Realms — des environnements d'exécution isolés gérés par un Realm Management Monitor (RMM) matériel. CCA est particulièrement pertinent pour l'IA edge et mobile, où les modèles sont déployés sur des dispositifs ARM (smartphones, IoT, véhicules autonomes). NVIDIA Confidential Computing, via les GPU H100/H200 avec le mode CC-On, étend les garanties TEE au GPU. Les données et le code du modèle dans la mémoire GPU (HBM) sont chiffrés et protégés contre l'accès par l'hôte. Cette innovation est fondamentale pour l'IA confidentielle car les workloads ML sont massivement exécutés sur GPU.

3 Inférence confidentielle

L'inférence confidentielle permet d'exécuter un modèle IA sur des données utilisateur sans que quiconque — ni l'opérateur du service, ni le cloud provider, ni un attaquant ayant compromis l'infrastructure — ne puisse accéder aux données d'entrée, aux résultats de l'inférence ou aux poids du modèle. Ce cas d'usage est fondamental pour les applications IA traitant des données hautement sensibles : diagnostic médical à partir d'imagerie, analyse de documents juridiques confidentiels, traitement de données financières, ou interrogation de bases de connaissances classifiées.

L'architecture d'inférence confidentielle typique déploie le modèle et le moteur d'inférence (vLLM, TGI, TensorRT-LLM) à l'intérieur d'un TEE (VM confidentielle TDX ou SEV-SNP). Les requêtes utilisateur arrivent via un canal TLS terminé à l'intérieur du TEE — le cloud provider ne voit que du trafic chiffré. Les GPU confidentiels NVIDIA (H100 CC-On) chiffrent les données en transit entre le CPU et le GPU via un lien PCIe sécurisé et chiffrent la mémoire HBM du GPU. Avant d'envoyer ses données, l'utilisateur peut vérifier l'attestation du TEE pour confirmer que le code attendu (modèle + moteur d'inférence + configuration) s'exécute bien dans un environnement confidentiel non modifié.

Apple a implémenté ce concept à grande échelle avec Private Cloud Compute (PCC), annoncé en 2024 pour Apple Intelligence. PCC exécute les requêtes IA des utilisateurs Apple dans des enclaves sécurisées basées sur des puces Apple Silicon avec Secure Enclave, avec des garanties d'attestation publique et de non-rétention des données. Azure Confidential AI propose des VMs confidentielles (DCsv3, DCdsv3) avec GPU NVIDIA H100 en mode confidentiel pour le déploiement de modèles IA. Google Cloud Confidential Space offre un environnement similaire basé sur AMD SEV-SNP avec attestation et vérification de workload intégrées.

4 Entraînement multi-parties sécurisé

L'entraînement multi-parties sécurisé permet à plusieurs organisations de contribuer leurs données à l'entraînement d'un modèle commun sans que les données de chaque partie ne soient exposées aux autres. Ce cas d'usage répond à un besoin critique : dans de nombreux domaines (santé, finance, défense), les données d'entraînement sont réparties entre plusieurs organisations qui ne peuvent pas les partager pour des raisons réglementaires ou concurrentielles, mais qui bénéficieraient d'un modèle entraîné sur l'ensemble des données.

Le Confidential Computing offre une approche complémentaire au federated learning pour résoudre ce problème. Dans le federated learning, chaque partie entraîne localement et ne partage que les gradients — mais les gradients peuvent leaker des informations sur les données d'entraînement (gradient inversion attacks). Avec le Confidential Computing, les données brutes de chaque partie sont chargées dans un TEE centralisé où l'entraînement complet est exécuté de manière confidentielle. Aucune partie ne peut accéder aux données des autres, et l'opérateur de l'infrastructure ne peut accéder à aucune donnée. Le modèle résultant est extrait du TEE selon des règles de gouvernance prédéfinies (par exemple, seuls les poids du modèle sortent, pas les données). Des projets comme Cape Privacy, Opaque Systems et le consortium MELLODDY (pharmaceutique) implémentent cette approche en production.

5 Attestation de modèles

L'attestation est le mécanisme par lequel un TEE prouve cryptographiquement à un tiers que le code et la configuration exécutés correspondent à ce qui est attendu. Dans le contexte IA, l'attestation permet de vérifier que le modèle déployé est bien celui qui a été audité, que le moteur d'inférence n'a pas été modifié, et que l'environnement d'exécution est confidentiel et intègre. Le processus d'attestation génère un rapport d'attestation signé par le matériel (TPM, Secure Processor) contenant des mesures cryptographiques (hashes) du code, de la configuration et de l'état initial du TEE.

L'attestation de modèle étend ce concept en incluant le hash des poids du modèle dans le rapport d'attestation. Un utilisateur peut ainsi vérifier, avant d'envoyer ses données, que le modèle exact qui traitera sa requête est un modèle spécifique et audité, et non une version modifiée (par exemple backdoorée). Les services d'attestation comme Microsoft Azure Attestation (MAA), Intel Trust Authority et Google Confidential Space Attestation fournissent des API pour vérifier les rapports d'attestation. Le protocole RATS (Remote ATtestation procedureS) de l'IETF standardise les formats et les flux d'attestation pour garantir l'interopérabilité entre les implémentations TEE.

6 Azure Confidential Computing + IA

Microsoft Azure est le cloud provider le plus avancé en matière de Confidential Computing pour l'IA, avec une offre complète couvrant l'inférence, le fine-tuning et l'entraînement. Les VMs confidentielles DCsv3/DCdsv3 basées sur AMD SEV-SNP offrent jusqu'à 96 vCPUs et 384 Go de mémoire protégée pour les workloads IA CPU-only. Les VMs confidentielles avec GPU (NCCsv3 avec NVIDIA H100) permettent l'inférence et le fine-tuning de modèles avec des garanties de confidentialité sur le CPU et le GPU. Azure Confidential Ledger fournit un registre immuable pour l'audit des opérations de déploiement et d'attestation des modèles.

Azure OpenAI Service avec Confidential Inference permet d'utiliser les modèles GPT-4o et GPT-4 Turbo dans un environnement confidentiel où Microsoft ne peut pas accéder aux prompts ni aux réponses. Azure Machine Learning Confidential intègre les VMs confidentielles dans les pipelines AzureML, permettant le fine-tuning de modèles sur des données sensibles sans exposition au cloud provider. Le Azure Confidential Clean Room fournit un environnement multi-parties sécurisé pour l'entraînement collaboratif, avec des politiques de gouvernance définies par les participants et appliquées par le matériel. En complément, GCP Confidential Space et AWS Nitro Enclaves offrent des capacités comparables sur leurs plateformes respectives.

7 Performances et overhead

L'overhead de performance du Confidential Computing est un facteur critique pour les workloads IA, particulièrement sensibles à la latence et au throughput. Les technologies VM-level (TDX, SEV-SNP) offrent un overhead significativement plus faible que les technologies application-level (SGX). Pour AMD SEV-SNP, le chiffrement mémoire AES-256 est effectué par le contrôleur mémoire en matériel, avec un overhead typique de 2 à 5% sur les workloads compute-intensive comme l'inférence ML. Intel TDX présente un profil similaire. L'impact principal provient des transitions entre le monde confidentiel et le monde hôte (VM exits), qui sont plus fréquentes pour les workloads I/O-intensive que pour les workloads compute-intensive.

Pour les GPU confidentiels NVIDIA H100, l'overhead provient du chiffrement du bus PCIe entre le CPU et le GPU et du chiffrement de la mémoire HBM. Les benchmarks publiés par NVIDIA indiquent un overhead de 5 à 10% sur les workloads d'inférence LLM, et de 10 à 15% sur l'entraînement. L'impact est plus prononcé pour les modèles nécessitant des échanges fréquents entre CPU et GPU (embedding lookups, preprocessing). Pour les modèles dont le compute est dominé par les opérations matricielles sur GPU (attention, FFN), l'overhead est minimal. Les optimisations continues du firmware et des drivers NVIDIA réduisent progressivement cet overhead.

En termes de coût, les VMs confidentielles sont typiquement 10 à 20% plus chères que les VMs standard équivalentes, reflétant le coût du matériel TEE et de l'attestation. Pour les workloads IA où la confidentialité est non négociable (santé, finance, défense), ce surcoût est largement justifié par rapport aux alternatives (on-premise dédié, chiffrement homomorphe avec un overhead de 1000x, ou renoncement au cloud). Le calcul TCO doit intégrer les économies en matière de compliance (RGPD, HIPAA, AI Act) et de gestion des risques de fuite de données.

8 Conclusion et perspectives

Le Confidential Computing transforme fondamentalement la posture de sécurité des déploiements IA en éliminant la nécessité de faire confiance à l'opérateur de l'infrastructure. Les technologies TEE (Intel TDX, AMD SEV-SNP, ARM CCA) combinées aux GPU confidentiels NVIDIA permettent désormais l'inférence, le fine-tuning et l'entraînement de modèles IA avec des garanties de confidentialité vérifiables par attestation cryptographique, et un overhead de performance acceptable (2-15% selon le workload).

Les cas d'usage les plus immédiats sont l'inférence confidentielle de LLM sur des données sensibles (santé, juridique, finance), l'entraînement multi-parties dans les consortiums industriels et de recherche, et la protection de la propriété intellectuelle des modèles dans les déploiements cloud. Les offres cloud (Azure Confidential AI, GCP Confidential Space, AWS Nitro Enclaves) rendent ces capacités accessibles sans expertise matérielle spécifique. Les perspectives incluent le Confidential Computing homomorphe (combinaison TEE + HE pour une protection en couches), les GPU confidentiels de prochaine génération avec un overhead réduit, et l'attestation continue des pipelines MLOps complets.

Recommandations : Si vos modèles IA traitent des données sensibles dans le cloud, évaluez dès maintenant les offres de Confidential Computing. Commencez par l'inférence confidentielle (le cas d'usage le plus mature), intégrez l'attestation dans vos workflows de déploiement, et planifiez la migration des workloads de fine-tuning vers des VMs confidentielles avec GPU. Le surcoût de 10-20% est un investissement négligeable face aux risques de fuite de données et de non-conformité réglementaire.

Besoin d'un accompagnement expert ?

Nos consultants vous accompagnent dans la mise en place d'architectures IA confidentielles et l'intégration du Confidential Computing dans vos pipelines MLOps. Devis personnalisé sous 24h.

Ayi NEDJIMI - Expert Cybersécurité & IA

À Propos de l'Auteur

Ayi NEDJIMI • Expert Cybersécurité & IA

Ayi NEDJIMI est un expert senior en cybersécurité offensive et intelligence artificielle avec plus de 20 ans d'expérience en développement avancé, tests d'intrusion et architecture de systèmes critiques.

Expert reconnu en expertises judiciaires et investigations forensiques, il intervient régulièrement comme consultant expert auprès des plus grandes organisations françaises et européennes.

20+Ans d'expérience
100+Missions réalisées
150+Articles & conférences

Options de lecture

Taille du texte
Espacement
Mode de lecture
Partager