NOUVEAU - Intelligence Artificielle

Phishing Généré par IA : Nouvelles Menaces

Analyse approfondie des nouvelles techniques de phishing propulsées par les LLM et stratégies de détection et de prévention adaptées

Ayi NEDJIMI 13 février 2026 25 min de lecture Niveau Intermédiaire

Table des Matières

1 L'Évolution du Phishing à l'Ère de l'IA Générative

Le phishing reste en 2026 le vecteur d'attaque initial numéro un, responsable de plus de 74% des compromissions initiales selon le rapport Verizon DBIR. Mais le paysage a radicalement changé : l'avènement des Large Language Models (LLM) a transformé des campagnes de phishing artisanales en opérations industrielles d'une sophistication sans précédent. Les fautes d'orthographe, longtemps le signal d'alerte numéro un, ont disparu. Les emails génériques envoyés en masse sont remplacés par des messages hyper-personnalisés, contextuellement pertinents et émotionnellement calibrés.

Du phishing de masse au spear phishing IA hyper-ciblé

La transition s'est accélérée en trois phases distinctes. Jusqu'en 2020, le phishing reposait sur le volume : des millions d'emails identiques envoyés en espérant qu'un faible pourcentage clique. Entre 2020 et 2023, les attaquants ont adopté le spear phishing manuel, investissant du temps pour rechercher leurs cibles sur LinkedIn, les réseaux sociaux et les fuites de données. Depuis 2024, les LLM ont automatisé cette personnalisation : un attaquant peut désormais générer des milliers d'emails uniques, chacun adapté au profil OSINT de sa cible, en quelques minutes et pour quelques dollars.

Statistiques alarmantes en 2026

Les chiffres sont vertigineux. Selon les études de Abnormal Security et SlashNext, les attaques par phishing généré par IA ont augmenté de 1 265% entre 2023 et 2026. Le taux de clic moyen sur un phishing IA personnalisé atteint 36%, contre 4,5% pour le phishing traditionnel. Le coût moyen d'une campagne de phishing IA est tombé à 0,03$ par cible (contre 4,50$ pour du spear phishing manuel), rendant l'attaque économiquement viable même contre des cibles de faible valeur.

Constat critique : Le phishing IA ne représente pas simplement une évolution quantitative mais une rupture qualitative. Les défenses traditionnelles basées sur la reconnaissance de patterns connus (signatures, mots-clés suspects, réputation d'expéditeur) sont largement inefficaces contre des emails uniques, grammaticalement parfaits et contextuellement pertinents. Les organisations doivent repenser leur stratégie de défense anti-phishing de fond en comble.

Impact économique et ROI des attaquants

L'économie du phishing IA est brutalement efficace. Une campagne ciblant 10 000 employés avec du phishing IA personnalisé coûte environ 300$ en tokens LLM et 200$ d'infrastructure (domaines, hébergement). Avec un taux de succès de 36%, cela produit 3 600 compromissions potentielles. Si seulement 1% de ces compromissions mène à une fraude réussie de 50 000$ en moyenne, le retour sur investissement pour l'attaquant atteint 3 600%. Cette asymétrie économique explique l'explosion des campagnes : le phishing IA est devenu le crime cybernétique le plus rentable au monde.

2 Techniques de Phishing Propulsées par les LLM

Les LLM (Large Language Models) ont révolutionné l'arsenal des attaquants en leur offrant des capacités qui étaient autrefois réservées aux groupes APT les plus sophistiqués. Désormais, un opérateur de phishing peut générer du contenu parfait dans n'importe quelle langue, cloner le style d'écriture d'un individu, créer des pages web réalistes et même déployer des chatbots de phishing interactifs capables de mener une conversation naturelle avec la victime pour extraire des informations sensibles.

Génération multilingue parfaite

L'un des changements les plus significatifs est la disparition des erreurs linguistiques comme indicateur de phishing. Les LLM génèrent du texte grammaticalement parfait dans plus de 90 langues, avec des nuances culturelles appropriées. Un attaquant russophone peut désormais produire un email en français commercial impeccable, utilisant le vouvoiement correct, les formules de politesse françaises et les conventions de mise en page d'un email professionnel hexagonal. Les formations utilisateur qui insistaient sur les fautes d'orthographe comme signal d'alerte sont devenues contre-productives car elles créent un faux sentiment de sécurité.

Personnalisation contextuelle via OSINT + LLM

La combinaison du scraping OSINT automatisé avec les capacités de synthèse des LLM crée un pipeline de personnalisation redoutable. L'attaquant collecte automatiquement les publications LinkedIn de la cible, ses tweets, ses participations à des conférences, ses publications techniques et les informations de son entreprise. Le LLM synthétise ces données en un profil comportemental puis génère un email qui fait référence à un événement récent auquel la cible a participé, utilise la terminologie de son secteur et mentionne des projets réels de son entreprise. Le résultat est un email que même un expert en sécurité aurait du mal à distinguer d'un message légitime.

Figure 1 — Évolution du phishing de 2010 à 2026 : sophistication croissante, coût décroissant

Clone de style d'écriture et chatbots interactifs

Les techniques les plus avancées incluent le clonage du style d'écriture d'un individu. En analysant quelques emails ou publications d'un dirigeant via un LLM fine-tuné, l'attaquant peut reproduire ses tics de langage, sa signature émotionnelle et ses formulations habituelles. L'email frauduleux devient pratiquement indistinguable d'un message réel du dirigeant, même pour ses collaborateurs proches.

Autre innovation majeure : les chatbots de phishing interactifs. Au lieu d'un simple email avec un lien malveillant, l'attaquant déploie un chatbot alimenté par un LLM qui engage une conversation en temps réel avec la victime. Ce chatbot peut répondre aux questions, lever les doutes et guider progressivement la cible vers la divulgation d'identifiants ou le téléchargement de malware. Le LLM génère des réponses contextuelles, gère les objections et adapte sa stratégie d'ingénierie sociale en temps réel, rendant l'attaque significativement plus efficace que les pages de phishing statiques traditionnelles.

3 BEC (Business Email Compromise) Augmenté par IA

Le Business Email Compromise (BEC) est la forme de phishing la plus coûteuse, représentant à elle seule 2,9 milliards de dollars de pertes déclarées au FBI IC3 en 2025. L'IA générative a transformé le BEC en une arme de précision chirurgicale. Les attaquants combinent désormais des emails parfaitement rédigés par LLM avec des deepfakes vocaux et vidéo pour créer des scénarios de fraude multi-canaux pratiquement impossibles à détecter sans procédures de vérification strictes.

Fraude au Président 2.0 : la convergence email + deepfake

La fraude au président 2.0 illustre parfaitement cette convergence. Le scénario classique — un email du PDG demandant un virement urgent — a évolué en une attaque multi-canal coordonnée. L'attaquant envoie d'abord un email généré par LLM qui imite parfaitement le style du dirigeant. Ensuite, un appel téléphonique avec un deepfake vocal temps réel (technologie disponible pour moins de 100$ via des APIs comme ElevenLabs) confirme la demande. Dans les cas les plus sophistiqués, un deepfake vidéo lors d'un appel Teams ou Zoom renforce la crédibilité. En février 2024, un employé d'une multinationale à Hong Kong a transféré 25,6 millions de dollars après un appel vidéo deepfake avec ce qu'il pensait être son directeur financier.

Compromission de supply chain par email IA

Les attaques de supply chain BEC sont particulièrement insidieuses. L'attaquant compromet (ou usurpe) la messagerie d'un fournisseur, puis utilise un LLM pour analyser l'historique des échanges commerciaux et générer des messages qui s'inscrivent naturellement dans le fil de la conversation existante. Le LLM reproduit le vocabulaire métier spécifique, les références de contrats, les numéros de commande et les habitudes de communication du fournisseur réel. L'email frauduleux annonce un changement de coordonnées bancaires avec des justifications plausibles (restructuration, nouveau partenaire bancaire, migration SEPA).

Scénarios multi-étapes : reconnaissance, profiling, attaque

Les campagnes BEC modernes exploitent les LLM à chaque étape d'un kill chain dédié. La phase de reconnaissance utilise un agent IA qui scrape automatiquement les organigrammes, identifie les décideurs financiers et cartographie les relations hiérarchiques via LinkedIn. La phase de profiling analyse le style de communication de chaque cible via ses publications publiques et génère un modèle de personnalité utilisable pour la manipulation. La phase d'attaque déploie une séquence d'emails calibrés : un premier email anodin pour établir la confiance (prétexting), suivi de la demande frauduleuse quelques jours plus tard.

Cas réel anonymisé (2025) : Un groupe criminel a ciblé une ETI française du secteur aéronautique. L'attaquant a utilisé un LLM pour analyser 6 mois d'échanges email entre l'entreprise et son fournisseur de pièces détachées (obtenus via une compromission de messagerie initiale). Le LLM a identifié une facture de 890 000€ en attente de règlement, cloné le style d'écriture du commercial du fournisseur, et envoyé un email parfaitement crédible demandant un changement de RIB pour raison de migration bancaire. Le virement a été effectué. La fraude n'a été détectée que 3 semaines plus tard lors du rapprochement comptable.

La sophistication de ces attaques souligne la nécessité de procédures de vérification systématiques indépendantes du canal email. Aucun changement de coordonnées bancaires ne devrait être accepté sans une vérification par un canal alternatif préétabli (appel téléphonique au numéro historique du fournisseur, portail fournisseur sécurisé, confirmation face-à-face pour les montants critiques). La technologie seule ne suffit pas : c'est la combinaison de contrôles techniques et organisationnels qui permet de résister aux attaques BEC augmentées par IA.

4 Détection du Phishing Généré par IA

Détecter du phishing généré par IA est un défi fondamentalement différent de la détection du phishing traditionnel. Les approches classiques — filtres basés sur des signatures, analyse de mots-clés suspects, vérification de la réputation de l'expéditeur — échouent face à des emails uniques, grammaticalement parfaits, envoyés depuis des domaines fraîchement créés ou des comptes légitimes compromis. La détection efficace en 2026 repose sur une approche multicouche combinant authentification email, analyse NLP avancée, sandbox comportemental et scoring de risque utilisateur.

Limites des filtres anti-spam traditionnels

Les filtres anti-spam de première génération (SpamAssassin, règles heuristiques) et même les solutions de seconde génération (Microsoft EOP, Google spam filter) reposent principalement sur des patterns statistiques appris sur des corpus de spam historiques. Or, le phishing IA génère du contenu qui n'a jamais été vu auparavant — chaque email est unique. Les indicateurs classiques comme les liens raccourcis, les pièces jointes suspectes ou les mots-clés d'urgence sont soigneusement évités par les LLM, qui ont été entraînés à produire du texte professionnel naturel. Résultat : les taux de faux négatifs des solutions traditionnelles face au phishing IA atteignent 65 à 78% selon les benchmarks 2026 de SE Labs.

Figure 2 — Pipeline de détection phishing IA multicouche : 5 couches de filtrage progressif

Détection par ML : classificateurs NLP et analyse de contenu généré

La détection du contenu généré par IA s'appuie sur plusieurs techniques complémentaires. L'analyse de perplexité mesure la prévisibilité statistique du texte — le contenu LLM tend à avoir une perplexité plus faible et plus uniforme que le texte humain. L'analyse du watermarking statistique détecte les empreintes involontaires laissées par les modèles de génération. Les classificateurs NLP fine-tunés sont entraînés sur des corpus mixtes (humain/IA) pour identifier des patterns subtils : distribution de la longueur des phrases, diversité lexicale, patterns de ponctuation et choix syntaxiques caractéristiques des LLM.

DMARC, DKIM, SPF renforcés et analyse comportementale

L'authentification email reste la première ligne de défense, mais doit être configurée strictement. DMARC en mode p=reject bloque les emails qui échouent l'authentification SPF/DKIM. L'analyse comportementale complète cette couche en détectant les anomalies de communication : un email du PDG envoyé à 3h du matin depuis une géolocalisation inhabituelle, une demande financière sans précédent dans l'historique, ou un changement soudain de tonalité dans les échanges avec un fournisseur. Les solutions comme Abnormal Security construisent un graphe relationnel de l'organisation et alertent sur toute déviation par rapport aux patterns normaux de communication.

5 Outils et Solutions Anti-Phishing IA

Le marché des solutions anti-phishing a connu une transformation majeure pour répondre à la menace du phishing généré par IA. Les éditeurs historiques ont intégré des capacités de détection par IA dans leurs produits, tandis que de nouveaux acteurs spécialisés proposent des approches innovantes basées sur l'analyse comportementale et la détection de contenu généré. Le choix de la solution dépend de la taille de l'organisation, de son écosystème email et de son niveau de maturité en cybersécurité.

Solutions Enterprise : Microsoft, Google, Proofpoint

Microsoft Defender for Office 365 (Plan 2) intègre depuis 2025 un module de détection de contenu généré par IA qui analyse la perplexité des emails et les compare aux modèles de communication habituels de l'expéditeur. La fonctionnalité Safe Links avec détonation en temps réel intercepte les liens de phishing même après livraison (time-of-click protection). L'intégration native avec Microsoft Sentinel permet une corrélation avec les événements Azure AD pour détecter les compromissions d'identité post-phishing.

Google Workspace a déployé des modèles de détection de phishing basés sur Gemini qui analysent simultanément le contenu textuel, les métadonnées des pièces jointes et les caractéristiques des URL. Le système de confidence scoring attribue un score de risque à chaque email et applique des actions différenciées : suppression automatique pour les scores élevés, mise en quarantaine avec bannière d'avertissement pour les scores intermédiaires.

Proofpoint TAP (Targeted Attack Protection) reste la référence pour les grandes entreprises avec sa capacité de sandboxing multi-phase. Les URLs et pièces jointes sont analysées dans un environnement isolé avec émulation de navigateur, détection de techniques d'évasion (delai d'activation, vérification de sandbox) et analyse par computer vision des pages de login pour détecter les clones de pages légitimes.

Nouveaux acteurs spécialisés IA

Abnormal Security s'est imposé comme le leader de la détection comportementale. Sa plateforme construit un modèle de communication interne de l'organisation (qui écrit à qui, quand, comment, avec quels types de demandes) et alerte sur toute déviation. Son approche est particulièrement efficace contre le BEC augmenté par IA car elle ne repose pas sur le contenu de l'email mais sur le contexte relationnel. Ironscales combine IA et crowdsourcing : les signalements des utilisateurs alimentent un modèle ML collaboratif qui améliore la détection pour toute la communauté de clients.

Solutions Open Source et simulation

Pour les organisations avec un budget limité ou souhaitant construire une solution sur mesure, l'écosystème open source offre des outils précieux. GoPhish reste la référence pour les campagnes de simulation de phishing, et peut être couplé avec un LLM (via API) pour générer des emails de test réalistes. PhishER de KnowBe4 (version community) permet le triage automatisé des emails signalés par les utilisateurs. Les API de détection de contenu généré comme GPTZero ou Originality.ai peuvent être intégrées dans un pipeline de filtrage email custom.

Solution Type Détection IA BEC Protection Taille cible Prix indicatif
Microsoft Defender O365 Intégré Avancée Excellente Toutes tailles 5-12$/user/mois
Abnormal Security API/Add-on Excellente Excellente Mid-market / Enterprise 6-15$/user/mois
Proofpoint TAP Gateway Avancée Très bonne Enterprise 8-20$/user/mois
Ironscales API/Add-on Bonne Bonne PME / Mid-market 4-8$/user/mois
GoPhish + LLM Open Source Simulation N/A (test) Toutes tailles Gratuit + API LLM

Recommandation RSSI : Ne vous reposez jamais sur une seule solution. La stratégie optimale combine une solution de gateway email (Proofpoint, Mimecast) avec une solution de détection comportementale API (Abnormal Security, Ironscales) déployée en complément. La gateway filtre les menaces connues et massives, tandis que la couche comportementale détecte les attaques ciblées et le BEC augmenté par IA que la gateway laisse passer.

6 Sensibilisation et Formation des Collaborateurs

La technologie ne peut pas tout résoudre. Face au phishing généré par IA, la couche humaine reste le dernier rempart — et souvent le plus fragile. Les programmes de sensibilisation traditionnels, qui consistaient à montrer des exemples de phishing grossier avec des fautes d'orthographe, sont devenus obsolètes. En 2026, la formation doit préparer les collaborateurs à faire face à des emails parfaitement rédigés, contextuellement pertinents et émotionnellement calibrés. L'approche doit évoluer d'une formation ponctuelle vers un programme continu et adaptatif.

Campagnes de simulation de phishing IA

Les campagnes de simulation de phishing doivent désormais utiliser des emails générés par LLM pour être représentatives des menaces réelles. L'approche recommandée combine GoPhish (plateforme open source de simulation) avec un LLM via API pour générer des scénarios personnalisés. Chaque email de test est adapté au profil OSINT du collaborateur cible : son département, ses projets en cours, ses interactions fréquentes et les actualités de son secteur. Cette personnalisation garantit que la simulation reflète fidèlement ce que les collaborateurs rencontreront dans une vraie attaque.

# Exemple : génération de phishing test avec GoPhish + LLM
import anthropic
import gophish

client = anthropic.Anthropic()

def generate_test_phishing(target_profile: dict) -> str:
    """Génère un email de test adapté au profil cible"""
    response = client.messages.create(
        model="claude-sonnet-4-20250514",
        system="""Tu es un expert en simulation de phishing
pour la sensibilisation. Génère un email réaliste
mais identifiable par un collaborateur formé.
Inclus 2-3 signaux faibles détectables.""",
        messages=[{
            "role": "user",
            "content": f"""Profil cible:
- Département: {target_profile['dept']}
- Rôle: {target_profile['role']}
- Projets: {target_profile['projects']}
Génère un email de phishing test."""
        }],
        max_tokens=500
    )
    return response.content[0].text

Reconnaître les signaux faibles du phishing IA

Les formations doivent évoluer pour enseigner de nouveaux signaux d'alerte adaptés au phishing IA. Les fautes d'orthographe ne sont plus un indicateur fiable. Les collaborateurs doivent apprendre à identifier des signaux plus subtils : une demande inhabituelle dans le contexte de la relation professionnelle, un sentiment d'urgence artificiel, une demande de contournement des procédures normales, un canal de communication inhabituel pour le type de demande, ou une absence de contexte préalable pour une action urgente.

Métriques de maturité et culture du signalement

La maturité du programme de sensibilisation se mesure par des KPI opérationnels précis. Le taux de clic sur les simulations de phishing doit diminuer progressivement (objectif : moins de 5% après 12 mois de programme). Le taux de signalement (report rate) est tout aussi important : il mesure le pourcentage de collaborateurs qui signalent activement le phishing reçu. L'objectif est d'atteindre un taux de signalement supérieur à 70%. Le temps de signalement — le délai entre la réception du phishing et le rapport à l'équipe sécurité — doit être inférieur à 5 minutes en moyenne.

La culture de la signalisation sans stigmatisation est essentielle. Les collaborateurs qui cliquent sur un phishing de simulation ne doivent jamais être sanctionnés ou humiliés publiquement. Au contraire, ceux qui signalent des emails suspects — même des faux positifs — doivent être encouragés et reconnus. L'objectif est de transformer chaque collaborateur en capteur humain du réseau de défense anti-phishing. Un bouton de signalement intégré au client email (comme le plugin Phish Alert de KnowBe4 ou le Report Message de Microsoft) réduit la friction et augmente significativement le taux de signalement.

Programme recommandé : Déployez des simulations de phishing IA mensuelles avec des scénarios progressivement plus sophistiqués. Chaque simulation est suivie d'un micro-learning de 3 minutes expliquant les signaux d'alerte spécifiques du scénario. Publiez un tableau de bord anonymisé des métriques par département pour créer une émulation positive. Organisez des sessions trimestrielles de retour d'expérience où les collaborateurs partagent les phishings réels qu'ils ont reçus et signalés.

7 Stratégie de Défense Globale Contre le Phishing IA

Face à la sophistication du phishing généré par IA, aucune mesure isolée ne suffit. La réponse efficace repose sur une stratégie de defense in depth qui combine sécurité email, protection des endpoints, gestion des identités, formation continue et procédures organisationnelles. Cette approche multicouche garantit que même si une couche de défense est contournée, les suivantes limitent l'impact de la compromission. L'objectif n'est pas de bloquer 100% des phishings (impossible face à l'IA), mais de réduire le temps de détection et de réponse pour minimiser les dommages.

Defense in Depth : les 5 couches essentielles

La défense en profondeur contre le phishing IA s'articule autour de cinq couches complémentaires. La couche email (gateway + API comportementale) filtre les menaces avant qu'elles n'atteignent les utilisateurs. La couche endpoint (EDR/XDR) détecte les payloads malveillants si un utilisateur clique. La couche identité (MFA résistante au phishing, conditional access) empêche l'exploitation des identifiants volés. La couche réseau (DNS filtering, web proxy) bloque l'accès aux domaines de phishing connus. La couche humaine (formation, procédures de vérification) constitue le dernier rempart comportemental.

Zero Trust et MFA résistante au phishing

L'approche Zero Trust appliquée aux communications email signifie que chaque demande est vérifiée indépendamment de son origine apparente. L'authentification forte est la pierre angulaire : les méthodes MFA traditionnelles (SMS, TOTP) sont vulnérables aux attaques de phishing en temps réel (adversary-in-the-middle). Seules les méthodes résistantes au phishing offrent une protection efficace. FIDO2/WebAuthn avec des clés physiques (YubiKey) ou des passkeys liées à l'appareil éliminent complètement le risque de vol d'identifiants par phishing car l'authentification est liée cryptographiquement au domaine légitime.

# Azure AD Conditional Access - Exiger MFA FIDO2
# pour les applications sensibles
{
  "displayName": "Require phishing-resistant MFA",
  "conditions": {
    "applications": {
      "includeApplications": ["Office365", "ERP"]
    },
    "users": {"includeGroups": ["Finance", "C-Suite"]}
  },
  "grantControls": {
    "authenticationStrength": {
      "requirementsSatisfied": "mfa",
      "allowedCombinations": [
        "fido2",
        "windowsHelloForBusiness"
      ]
    }
  }
}

Incident Response Plan spécifique phishing IA

Un plan de réponse aux incidents spécifique au phishing IA doit couvrir des scénarios que les playbooks traditionnels ne prévoient pas. L'identification doit intégrer la possibilité que l'email soit indiscernable d'un message légitime — la détection repose souvent sur les signalements utilisateurs ou les anomalies comportementales post-clic. Le confinement doit être rapide : révocation de sessions, reset de mots de passe, isolation du poste compromis dans les 15 minutes suivant la détection. L'éradication inclut la recherche proactive d'emails similaires dans toute la boîte de messagerie de l'organisation (message trace, threat hunting).

Checklist RSSI : Anti-Phishing IA 2026

Voici la checklist opérationnelle que tout RSSI devrait implémenter pour protéger son organisation contre le phishing IA en 2026 :

Vision 2026-2027 : L'avenir de la défense anti-phishing repose sur l'IA défensive capable de combattre l'IA offensive en temps réel. Les agents IA de sécurité analyseront chaque email entrant avec la même sophistication qu'un analyste SOC senior, en corrélant le contenu, le contexte relationnel, les métadonnées techniques et le profil de risque du destinataire. Le défi sera de maintenir un équilibre entre sécurité et productivité — des contrôles trop stricts paralysent l'organisation, des contrôles trop lâches l'exposent. La clé réside dans l'intelligence adaptative : des systèmes qui ajustent dynamiquement leur niveau de vigilance en fonction du contexte de risque en temps réel.

Ayi NEDJIMI - Expert Cybersécurité & IA

À Propos de l'Auteur

Ayi NEDJIMI • Expert Cybersécurité & IA

Ayi NEDJIMI est un expert senior en cybersécurité offensive et intelligence artificielle avec plus de 20 ans d'expérience en développement avancé, tests d'intrusion et architecture de systèmes critiques. Spécialisé en rétro-ingénierie logicielle, forensics numériques et développement de modèles IA, il accompagne les organisations stratégiques dans la sécurisation d'infrastructures hautement sensibles.

Expert reconnu en expertises judiciaires et investigations forensiques, Ayi intervient régulièrement en tant que consultant expert auprès des plus grandes organisations françaises et européennes. Son expertise technique couvre l'audit Active Directory, le pentest cloud (AWS, Azure, GCP), la rétro-ingénierie de malwares, ainsi que l'implémentation de solutions RAG et bases vectorielles (Milvus, Qdrant, Weaviate) pour des applications IA d'entreprise.

20+Ans d'expérience
100+Missions réalisées
150+Articles & conférences

Conférencier et formateur reconnu en cybersécurité, Ayi anime régulièrement des conférences techniques et participe activement au développement de modèles d'intelligence artificielle pour la détection de menaces avancées. Auteur de plus de 150 publications techniques, il partage son expertise de haut niveau pour aider les RSSI et architectes sécurité à anticiper les cybermenaces émergentes et déployer des solutions IA de nouvelle génération.

Options de lecture

Taille du texte
Espacement
Mode de lecture
Partager