NOUVEAU - Intelligence Artificielle

IA Offensive : Comment les Attaquants Utilisent les LLM

Comprendre les techniques offensives basées sur l'IA pour mieux défendre : de la génération de malware au social engineering automatisé

Ayi NEDJIMI 13 février 2026 28 min de lecture Niveau Avancé

Table des Matières

1 Le Paysage des Menaces IA en 2026

L'année 2026 marque un tournant décisif dans l'utilisation offensive de l'intelligence artificielle. Depuis les premiers cas documentés en 2023 où des acteurs malveillants exploitaient ChatGPT pour générer du code malveillant rudimentaire, l'écosystème des menaces a connu une évolution exponentielle. Les rapports de Mandiant, CrowdStrike et Recorded Future convergent vers un constat alarmant : plus de 78% des campagnes APT détectées en 2025-2026 intègrent désormais une composante IA dans au moins une phase de leur kill chain.

Statistiques clés et démocratisation

La démocratisation des LLM open-source a radicalement transformé le paysage. Avec des modèles comme Llama 3, Mistral, Qwen et DeepSeek disponibles en téléchargement libre, les barrières techniques se sont effondrées. Les cybercriminels n'ont plus besoin de compétences avancées en programmation pour créer des outils sophistiqués. Selon le rapport Europol EC3 de janvier 2026, le nombre de malwares générés par IA a augmenté de 340% entre 2024 et 2025, tandis que le coût moyen d'une campagne de phishing a chuté de 95% grâce à l'automatisation par LLM.

Taxonomie des usages offensifs des LLM

Pour structurer l'analyse des menaces, nous proposons une taxonomie alignée sur la cyber kill chain de Lockheed Martin, augmentée par les capacités spécifiques des LLM. Chaque phase de la chaîne d'attaque peut désormais être amplifiée, voire entièrement automatisée, par l'intelligence artificielle générative :

Cyber Kill Chain augmentée par l'IA :

  • Reconnaissance : OSINT automatisé, scraping intelligent, profilage de cibles via analyse sémantique des réseaux sociaux
  • Weaponization : génération de malware polymorphe, création de payloads sur mesure, obfuscation automatique
  • Delivery : phishing hyper-personnalisé, vishing deepfake, création de sites de watering hole convaincants
  • Exploitation : découverte automatique de vulnérabilités, adaptation des exploits en temps réel
  • C2 & Actions : commande et contrôle adaptatif, exfiltration intelligente, persistance évasive

Cette taxonomie permet aux équipes de sécurité de cartographier précisément les risques liés à l'IA offensive et d'identifier les points de détection prioritaires dans chaque phase. La compréhension de ces mécanismes est fondamentale pour construire une stratégie de défense en profondeur adaptée aux menaces de nouvelle génération.

2 Génération de Malware Assistée par LLM

La génération de malware par LLM représente l'une des menaces les plus concrètes et les plus documentées de l'IA offensive. Les modèles de langage modernes, même ceux dotés de guardrails robustes, peuvent être détournés pour produire du code malveillant fonctionnel. Les chercheurs de Check Point Research et de Palo Alto Unit 42 ont démontré que les techniques de jailbreak permettent de contourner les protections dans plus de 60% des cas testés.

Code polymorphe et métamorphe via LLM

Le polymorphisme classique repose sur des routines de chiffrement et de déchiffrement qui modifient l'apparence du malware à chaque instance. Avec les LLM, cette technique franchit un nouveau palier : le modèle peut réécrire complètement la logique fonctionnelle d'un malware tout en préservant son comportement. Le résultat est un code qui change non seulement d'apparence mais aussi de structure algorithmique, rendant la détection par signatures pratiquement impossible.


# Exemple conceptuel : mutation polymorphe via LLM
# Le LLM génère des variantes fonctionnellement identiques
# mais structurellement différentes à chaque itération

Variante A : data = base64.b64decode(encoded)
              sock.connect((host, port))
              sock.send(data)

Variante B : import codecs
              payload = codecs.decode(encoded, 'base64')
              connection = socket.create_connection((host, port))
              connection.sendall(payload)

Variante C : from binascii import a2b_base64
              raw = a2b_base64(encoded)
              s = socket.socket()
              s.connect((host, port))
              s.send(raw)

# → Même fonctionnalité, 3 signatures différentes
# → Détection par hash : 0% de correspondance

Obfuscation automatique et évasion

Les LLM excellent dans l'obfuscation de code car ils comprennent la sémantique du programme. Contrairement aux obfuscateurs traditionnels qui appliquent des transformations mécaniques, un LLM peut raisonner sur le flux d'exécution et appliquer des transformations contextuellement pertinentes. Les techniques observées incluent le renommage sémantique des variables (utilisant des noms plausibles liés au domaine métier de la cible), l'insertion de code mort réaliste, et la réorganisation des structures de contrôle.

Alerte : Limites des guardrails LLM

Les recherches de 2025-2026 montrent que les techniques de jailbreak multi-étapes (DAN, role-play, context manipulation) permettent de contourner les garde-fous de la majorité des modèles commerciaux. Les modèles open-source sans alignement RLHF constituent une menace encore plus directe, car ils n'ont aucune restriction intégrée. La technique du "crescendo attack" — consistant à augmenter progressivement la dangerosité des requêtes au fil d'une conversation — affiche un taux de succès supérieur à 70% sur les modèles testés.

KILL CHAIN IA OFFENSIVE — 6 PHASES AUGMENTEES PAR LLM RECONNAISSANCE IA OSINT automatisé Profilage sémantique Scraping intelligent Surface d'attaque auto WEAPONIZATION LLM Malware polymorphe Payloads sur mesure Obfuscation auto Code metamorphe DELIVERY AUTOMATISE Spear phishing LLM Deepfake vocal Sites watering hole BEC automatisé EXPLOITATION ADAPTIVE Vuln discovery auto Exploit adaptation Privilege escalation Lateral movement IA C2 INTELLIGENT Protocole adaptatif Trafic mimétique Décision autonome Anti-forensics IA EXFILTRATION IA Sélection intelligente Stéganographie IA Canaux couverts Data staging auto AMPLIFICATION PAR LLM A CHAQUE PHASE Automatisation • Personnalisation • Adaptation en temps réel • Scaling massif • Évasion de détection +340% Malwares générés par IA (2024→2025) -95% Coût des campagnes de phishing 78% Campagnes APT avec composante IA

Figure 1 — Kill Chain IA Offensive : les 6 phases de la cyber kill chain augmentées par les LLM

Au-delà de la génération de code, les LLM sont utilisés pour créer des scripts de post-exploitation complets : énumération de systèmes, escalade de privilèges, mouvement latéral et persistance. L'attaquant peut décrire en langage naturel son objectif et obtenir un script PowerShell, Python ou Bash opérationnel en quelques secondes, adapté à l'environnement cible spécifique.

3 Social Engineering Automatisé par IA

Le social engineering a toujours été le vecteur d'attaque le plus efficace, exploitant la faille humaine plutôt que technique. Avec les LLM, cette menace atteint un niveau de sophistication sans précédent. Les attaquants peuvent désormais mener des campagnes de spear phishing hyper-personnalisées à grande échelle, combinant la précision du ciblage individuel avec le volume d'une opération automatisée. Le rapport Verizon DBIR 2026 indique que les attaques de phishing générées par IA affichent un taux de clic 3,5 fois supérieur aux campagnes traditionnelles.

Spear Phishing hyper-personnalisé via LLM

La chaîne d'attaque du phishing IA commence par une phase de reconnaissance automatisée. Un agent IA scrape le profil LinkedIn de la cible, ses publications sur les réseaux sociaux, ses contributions à des projets open-source, ses interventions dans des conférences. Ces données alimentent un prompt structuré qui génère un email parfaitement contextualisé, reprenant le ton, le vocabulaire et les centres d'intérêt de la cible.


# Pipeline de spear phishing IA — flux conceptuel

1. Reconnaissance
   LinkedIn scraping → extraction poste, compétences, collègues
   Twitter/X analysis → sujets d'intérêt, ton de communication
   GitHub repos → stack technique, projets récents

2. Profiling LLM
   Prompt: "Analyse ce profil et identifie les leviers
           psychologiques exploitables (urgence, autorité,
           curiosité technique, FOMO)"

3. Génération email
   Prompt: "Rédige un email de {collègue réel} à {cible}
           concernant {projet récent} avec un lien vers
           un document partagé urgent"

4. Résultat
   → Email indiscernable d'une communication légitime
   → Contexte vérifié, noms réels, projet existant
   → Taux de détection par filtres : <5%

Vishing et deepfake vocal

Le vishing (voice phishing) augmenté par IA représente une menace en pleine expansion. Les technologies de clonage vocal en temps réel comme celles développées par ElevenLabs, Resemble.AI ou les modèles open-source VALL-E et Bark permettent de reproduire fidèlement la voix d'un dirigeant à partir de quelques secondes d'échantillon audio. En 2025, le cas médiatisé de l'attaque contre Arup (25 millions de dollars perdus) via deepfake vidéo lors d'une visioconférence a démontré la maturité de cette technique.

Chatbots malveillants et ingénierie sociale interactive

Une tendance émergente est le déploiement de chatbots malveillants autonomes sur des plateformes de messagerie, des sites web compromis ou des faux portails de support technique. Ces chatbots, alimentés par des LLM, sont capables de mener des conversations interactives convaincantes pour extraire progressivement des informations sensibles : identifiants, codes MFA, données bancaires. Contrairement aux pages de phishing statiques, ces agents conversationnels s'adaptent aux réponses de la victime, gèrent les objections et maintiennent la pression psychologique en temps réel.

Point clé : La convergence entre le social engineering par LLM et les deepfakes audio/vidéo crée un vecteur d'attaque multi-canal extrêmement difficile à détecter. Un attaquant peut initier le contact par email (généré par LLM), relancer par téléphone (deepfake vocal) et confirmer par message instantané (chatbot IA) — créant une illusion de légitimité à travers plusieurs canaux indépendants.

4 Reconnaissance et OSINT Augmentées par IA

La phase de reconnaissance est historiquement l'étape la plus chronophage d'une opération offensive. Les LLM transforment radicalement cette phase en permettant une collecte et analyse d'informations à une vitesse et une profondeur inédites. Là où un pentester humain passe des heures à parcourir des sources OSINT, un agent IA automatisé peut corréler des milliers de données en quelques minutes, identifiant des patterns invisibles à l'analyse manuelle.

Scraping et analyse automatique de surface d'attaque

Les agents IA de reconnaissance combinent des outils classiques (Shodan, Censys, SecurityTrails, crt.sh) avec des capacités d'analyse sémantique LLM pour cartographier automatiquement la surface d'attaque d'une organisation. Le processus est structuré en couches progressives :

Corrélation de données OSINT et profilage de cibles

La puissance réelle des LLM en reconnaissance réside dans leur capacité à corréler des informations disparates provenant de sources multiples. Un agent IA peut combiner des informations issues de fuites de bases de données avec des profils de réseaux sociaux pour construire un graphe de relations socioprofessionnelles extrêmement précis. Ce profilage sert ensuite de base pour les campagnes de social engineering.


# Architecture d'un agent OSINT IA — flux d'analyse

Sources de données :
├── DNS / Whois / Certificats TLS
├── Shodan / Censys / BinaryEdge
├── LinkedIn / Twitter / GitHub
├── Glassdoor / Crunchbase
├── Pastebins / Dark web forums
└── Google Dorks automatisés

Analyse LLM :
├── Corrélation multi-sources
├── Identification de patterns
├── Évaluation de risque par asset
├── Scoring de vulnérabilité contextuel
└── Recommandation de vecteurs d'attaque

Output structuré :
├── Rapport de surface d'attaque
├── Graphe de relations (cibles prioritaires)
├── Liste de credentials potentiels
├── Vulnérabilités classées par exploitabilité
└── Scénarios d'attaque recommandés

Identification de vulnérabilités via analyse de code source public

Une application particulièrement redoutable des LLM en reconnaissance est l'analyse automatique de code source public pour identifier des vulnérabilités exploitables. Les modèles de code comme Code Llama, StarCoder et DeepSeek-Coder peuvent scanner des dépôts GitHub entiers pour détecter des failles de sécurité : injections SQL, XSS, SSRF, désérialisations non sécurisées, secrets codés en dur. Cette analyse, qui prendrait des semaines à un auditeur humain, s'effectue en quelques heures avec un taux de faux positifs de plus en plus faible.

Cas concret — Reconnaissance IA automatisée :

En décembre 2025, des chercheurs de Google Project Zero ont documenté un cas où un agent IA autonome a identifié une vulnérabilité zero-day dans un projet open-source populaire en analysant les commits récents et en corrélant les changements avec des patterns de vulnérabilité connus. L'agent a généré un exploit fonctionnel et un rapport de reconnaissance complet en moins de 4 heures — un travail qui aurait nécessité plusieurs jours pour une équipe de chercheurs expérimentés. Ce cas illustre la puissance et le risque de la reconnaissance automatisée par IA.

5 Évasion de Détection Assistée par IA

L'évasion de détection est le domaine où l'IA offensive produit ses effets les plus dévastateurs. Les défenses traditionnelles — antivirus basés sur signatures, règles YARA statiques, heuristiques comportementales simples — sont systématiquement contournées par des techniques adaptatives alimentées par des LLM. En 2026, les solutions EDR les plus avancées peinent à maintenir un taux de détection satisfaisant face à des malwares qui mutent en temps réel en fonction des réponses de l'environnement de sécurité.

Mutation de malware pour contourner EDR/AV

La stratégie la plus répandue consiste à utiliser un LLM en boucle de feedback avec un moteur antivirus local. L'attaquant soumet son malware à VirusTotal ou à un sandbox privé, récupère les signatures de détection, puis demande au LLM de réécrire le code pour éviter spécifiquement ces patterns. Ce cycle itératif converge généralement en 3 à 5 itérations vers un binaire indétectable par la majorité des moteurs AV commerciaux.


# Boucle d'évasion EDR assistée par LLM — flux conceptuel

ITERATION 1 :
  malware.exe → VirusTotal → 38/72 détections
  Analyse signatures : "Win32.Trojan.GenericKD"
  LLM prompt: "Réécris ce loader pour éviter la détection
               heuristique de type GenericKD. Utilise
               l'injection de processus via NtCreateSection."

ITERATION 2 :
  malware_v2.exe → VirusTotal → 12/72 détections
  Analyse signatures : "HEUR:Trojan.Win32.Agent"
  LLM prompt: "Les détections restantes ciblent le pattern
               d'appels syscall. Remplace par des appels
               indirects via ntdll.dll non hookée."

ITERATION 3 :
  malware_v3.exe → VirusTotal → 2/72 détections
  LLM prompt: "Ajoute un mécanisme de chargement en mémoire
               avec unhooking ETW et patch AMSI."

RESULTAT FINAL :
  malware_v4.exe → VirusTotal → 0/72 détections ✓

Adversarial ML contre les modèles de détection

Au-delà de l'évasion de signatures, les attaquants utilisent des techniques d'adversarial machine learning pour tromper directement les modèles de détection des solutions EDR. En analysant les modèles de classification de malware (souvent basés sur des architectures de type CNN ou transformer entraînés sur les features PE/ELF), il est possible de générer des perturbations minimales dans le binaire qui font basculer la classification de "malware" à "légitime" sans altérer la fonctionnalité.

MATRICE DES TECHNIQUES OFFENSIVES IA — PAR CATEGORIE ET SOPHISTICATION Basique Intermédiaire Avancé BASIQUE INTERMEDIAIRE AVANCE SOCIAL ENGINEERING Phishing générique LLM Templates email automatisés Traduction multi-langue Spear phishing personnalisé Clonage vocal basique Chatbot ingénierie sociale Deepfake vidéo temps réel BEC multi-canal automatisé Manipulation psychologique adaptative MALWARE GENERATION Scripts basiques (reverse shell) Obfuscation simple Keyloggers/RAT simples Code polymorphe LLM Évasion EDR ciblée Payloads contextualisés Malware métamorphe autonome Zero-day discovery + exploit Ransomware adaptatif IA RECONNAISSANCE OSINT Google Dorks automatisés Scraping LinkedIn basique Enumération DNS Corrélation multi-sources IA Profilage comportemental Surface d'attaque auto Agent OSINT autonome complet Graphe de relations dynamique Vuln discovery sur code source EVASION DETECTION Encodage/packing basique Variable renaming Sleep/delay injection Trafic C2 mimétique AMSI bypass généré LOLBins optimisés IA Adversarial ML anti-EDR Mutation temps réel adaptive Anti-sandbox IA comportemental EXPLOITATION Exploit public adapté Password spraying intelligent Chaîne d'exploits automatisée Privilege escalation IA Zero-day chaining autonome Exploit generation from patch diff

Figure 2 — Matrice des techniques offensives IA classées par catégorie et niveau de sophistication

Impact sur les défenses : La matrice ci-dessus illustre l'ampleur du défi pour les équipes de défense. Même les techniques de niveau basique, accessibles à des attaquants peu qualifiés grâce aux LLM, suffisent à contourner les protections de base de nombreuses organisations. Les techniques avancées, quant à elles, mettent en difficulté les solutions EDR les plus sophistiquées du marché.

6 Se Défendre Contre l'IA Offensive

Face à la montée en puissance de l'IA offensive, les organisations doivent repenser fondamentalement leur posture de défense. Les approches traditionnelles basées sur la détection de signatures et les règles statiques ne suffisent plus. Une stratégie de défense moderne doit intégrer l'IA dans ses propres capacités de détection et de réponse, tout en adoptant une posture proactive de threat hunting ciblant spécifiquement les techniques offensives IA.

Détection de contenu généré par IA

La première ligne de défense consiste à identifier le contenu généré par IA avant qu'il n'atteigne les utilisateurs finaux. Plusieurs approches complémentaires sont déployées en 2026 :

IA défensive vs IA offensive : la course aux armements

La dynamique entre IA offensive et IA défensive s'apparente à une course aux armements permanente. Chaque avancée côté attaquant est rapidement contrée par une innovation défensive, et vice versa. Les solutions de NDR (Network Detection and Response) et XDR (Extended Detection and Response) intègrent désormais des modèles de détection d'anomalies entraînés spécifiquement pour identifier les patterns d'attaque IA : comportements de scraping OSINT, patterns de phishing généré, et communications C2 mimétiques.

Frameworks de référence pour la défense contre l'IA offensive :

  • MITRE ATLAS (Adversarial Threat Landscape for AI Systems) : framework de référence pour cartographier les techniques d'attaque contre et via les systèmes IA, avec 90+ techniques documentées
  • NIST AI RMF (AI Risk Management Framework) : cadre structuré pour évaluer et atténuer les risques liés à l'IA, incluant les menaces offensives
  • OWASP AI Security : top 10 des risques de sécurité liés à l'IA, avec des recommandations opérationnelles pour chaque risque
  • EU AI Act — Article 52 : obligations de transparence pour les systèmes IA, incluant la détection et le signalement de contenu généré

Threat Hunting proactif des techniques IA

Le threat hunting proactif est essentiel pour détecter les attaques IA avant qu'elles n'atteignent leurs objectifs. Les équipes SOC doivent développer des hypothèses de chasse spécifiques aux techniques IA : recherche de patterns de phishing anormalement cohérents dans les logs email, détection de variantes polymorphes dans les soumissions sandbox, identification de comportements de reconnaissance automatisée dans les logs réseau. L'utilisation de LLM défensifs pour analyser les logs et générer des corrélations permet d'augmenter significativement la couverture de détection.

Recommandation clé : Les organisations doivent adopter une approche de "defense in depth" augmentée par l'IA, combinant détection de contenu généré en amont, analyse comportementale en temps réel, et threat hunting proactif en continu. L'objectif n'est pas de bloquer toute utilisation de l'IA, mais de créer suffisamment de couches de détection pour rendre les attaques IA économiquement non viables.

7 Prospective : L'Avenir de l'IA Offensive

L'évolution de l'IA offensive ne montre aucun signe de ralentissement. Les tendances actuelles permettent d'anticiper les menaces émergentes qui façonneront le paysage cybersécurité des prochaines années. Les équipes de défense doivent dès maintenant se préparer à des scénarios d'attaque plus sophistiqués, plus autonomes et plus difficiles à attribuer que tout ce que nous avons connu jusqu'à présent.

Agents IA autonomes pour campagnes offensives

La prochaine rupture majeure sera le déploiement d'agents IA entièrement autonomes capables de mener des campagnes offensives de bout en bout sans intervention humaine. Ces agents, combinant des capacités de planification, d'exécution et d'adaptation, pourront orchestrer simultanément la reconnaissance, la génération de payloads, le phishing ciblé, l'exploitation et l'exfiltration. Des prototypes comme PentestGPT et les recherches de DARPA sur les agents de cybersécurité autonomes (programme AIxCC) montrent que cette technologie est déjà en développement actif.


# Agent IA offensif autonome — architecture prospective

┌─────────────────────────────────────────┐
│         ORCHESTRATEUR CENTRAL           │
│    (LLM avec context window étendu)     │
│   Planning → Exécution → Adaptation     │
└─────────┬──────────┬──────────┬─────────┘
          │          │          │
    ┌─────┴──┐  ┌────┴───┐  ┌──┴──────┐
    │ RECON  │  │EXPLOIT │  │PERSIST  │
    │ Agent  │  │ Agent  │  │ Agent   │
    └────────┘  └────────┘  └─────────┘
          │          │          │
    ┌─────┴──┐  ┌────┴───┐  ┌──┴──────┐
    │PHISHING│  │LATERAL │  │EXFILTR  │
    │ Agent  │  │MOV Agt │  │ Agent   │
    └────────┘  └────────┘  └─────────┘

Chaque agent : autonome, spécialisé, communicant
Orchestrateur : planifie, priorise, adapte la stratégie
Boucle de feedback : résultats → replanification

IA multimodale offensive

Les modèles multimodaux comme GPT-4o, Gemini Ultra et les modèles open-source multimodaux ouvrent de nouvelles surfaces d'attaque. Un agent offensif multimodal peut analyser des captures d'écran de systèmes cibles pour identifier des vulnérabilités visuelles (informations sensibles affichées, configurations exposées), générer des deepfakes vidéo en temps réel pour du social engineering avancé, et même interpréter des diagrammes réseau photographiés pour planifier des attaques. La convergence texte/audio/vidéo/code dans un même modèle démultiplie les capacités offensives.

Régulation et cadre juridique

Le cadre réglementaire tente de rattraper l'évolution technologique. L'AI Act européen, entré en application progressive depuis 2025, classe les systèmes IA offensifs dans la catégorie "risque inacceptable", avec des sanctions pouvant atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial. Cependant, l'applicabilité de ces régulations aux acteurs étatiques et aux groupes cybercriminels opérant depuis des juridictions non coopératives reste un défi majeur. Les conventions internationales sur l'IA militaire progressent lentement, tandis que la réalité opérationnelle des cyberattaques IA s'accélère.

Recommandations pour les RSSI et équipes de défense

Pour faire face à la montée en puissance de l'IA offensive, les RSSI doivent dès maintenant mettre en place un ensemble de mesures stratégiques et opérationnelles :

Conclusion : L'IA offensive n'est plus une menace théorique mais une réalité opérationnelle quotidienne que les organisations doivent affronter. La clé de la résilience réside dans une approche proactive et adaptative : comprendre les techniques adverses pour mieux les détecter, utiliser l'IA comme outil défensif, et maintenir une veille technologique constante sur l'évolution des menaces. Les organisations qui sauront intégrer l'IA dans leur stratégie de défense tout en anticipant les usages offensifs seront les mieux armées pour naviguer dans ce nouveau paysage de menaces.

Ayi NEDJIMI - Expert Cybersécurité & IA

À Propos de l'Auteur

Ayi NEDJIMI • Expert Cybersécurité & IA

Ayi NEDJIMI est un expert senior en cybersécurité offensive et intelligence artificielle avec plus de 20 ans d'expérience en développement avancé, tests d'intrusion et architecture de systèmes critiques. Spécialisé en rétro-ingénierie logicielle, forensics numériques et développement de modèles IA, il accompagne les organisations stratégiques dans la sécurisation d'infrastructures hautement sensibles.

Expert reconnu en expertises judiciaires et investigations forensiques, Ayi intervient régulièrement en tant que consultant expert auprès des plus grandes organisations françaises et européennes. Son expertise technique couvre l'audit Active Directory, le pentest cloud (AWS, Azure, GCP), la rétro-ingénierie de malwares, ainsi que l'implémentation de solutions RAG et bases vectorielles (Milvus, Qdrant, Weaviate) pour des applications IA d'entreprise.

20+Ans d'expérience
100+Missions réalisées
150+Articles & conférences

Conférencier et formateur reconnu en cybersécurité, Ayi anime régulièrement des conférences techniques et participe activement au développement de modèles d'intelligence artificielle pour la détection de menaces avancées. Auteur de plus de 150 publications techniques, il partage son expertise de haut niveau pour aider les RSSI et architectes sécurité à anticiper les cybermenaces émergentes et déployer des solutions IA de nouvelle génération.

Options de lecture

Taille du texte
Espacement
Mode de lecture
Partager