OpenAI développe des Skills pour ChatGPT, des commandes slash personnalisables inspirées de Claude, marquant un tournant vers les assistants IA modulaires.
En bref
- OpenAI développe une fonctionnalité « Skills » pour ChatGPT, directement inspirée du système de compétences de Claude d'Anthropic.
- Ces Skills fonctionneront comme des slash commands personnalisables, permettant d'automatiser des workflows spécifiques.
- La fonctionnalité, baptisée en interne « hazelnuts », inclut un éditeur dédié et la conversion de GPT personnalisés en Skills.
Ce qui s'est passé
OpenAI travaille activement sur une nouvelle fonctionnalité majeure pour ChatGPT : les « Skills ». Repérée par plusieurs développeurs dans le code de l'application, cette fonctionnalité permettra aux utilisateurs de créer des instructions spécialisées que l'assistant pourra exécuter à la demande, via des commandes slash. Le concept est directement inspiré des Skills de Claude, l'assistant d'Anthropic, qui propose déjà des instructions contextuelles basées sur des dossiers de travail.
Le projet, dont le nom de code interne est « hazelnuts », comprend plusieurs composants : un éditeur de Skills intégré à l'interface ChatGPT, un système d'invocation par slash commands, et une option permettant de convertir les GPT personnalisés existants en Skills. Cette approche marque un changement stratégique : plutôt que de maintenir le GPT Store comme écosystème séparé, OpenAI semble vouloir intégrer les personnalisations directement dans le flux de conversation, selon BleepingComputer.
Cette évolution s'inscrit dans une course à l'intelligence artificielle personnalisable où chaque acteur cherche à rendre ses assistants plus adaptables aux besoins métier des utilisateurs. OpenAI avait déjà lancé GPT-5.4 en mars avec des versions Pro et Thinking, selon TechCrunch, mais les Skills représentent une approche complémentaire orientée productivité.
Pourquoi c'est important
L'arrivée des Skills dans ChatGPT pourrait redéfinir l'usage professionnel des assistants IA. Jusqu'ici, la personnalisation passait par les « Custom Instructions » ou les GPT du Store, deux approches limitées en termes de réutilisabilité et d'intégration dans les workflows quotidiens. Les Skills promettent une granularité bien supérieure, permettant par exemple de créer une commande dédiée à la revue de code, à la rédaction de rapports d'incident, ou à l'analyse de logs de sécurité.
Pour les professionnels de la cybersécurité et du SOC, cette fonctionnalité ouvre la voie à des assistants IA véritablement spécialisés, capables d'exécuter des tâches répétitives avec une cohérence accrue. La convergence entre les approches de Claude et ChatGPT montre que le marché s'oriente vers des assistants IA modulaires et personnalisables, loin du modèle unique généraliste. L'enjeu pour les entreprises sera d'évaluer la sécurité de ces Skills, notamment en termes de fuite de données et de contrôle des instructions transmises aux modèles, comme l'illustrent les risques déjà identifiés avec Claude Code.
Ce qu'il faut retenir
- OpenAI prépare des « Skills » pour ChatGPT : des commandes slash personnalisables inspirées de Claude d'Anthropic.
- La fonctionnalité inclut un éditeur dédié et la migration des GPT existants vers ce nouveau format.
- Les entreprises devront évaluer les implications sécurité de ces personnalisations avant adoption en production.
Quelle différence entre les Skills ChatGPT et les GPT personnalisés ?
Les GPT personnalisés sont des assistants complets avec leur propre identité et configuration, accessibles via le GPT Store. Les Skills, en revanche, sont des micro-instructions invocables directement dans une conversation standard via des slash commands. Elles s'intègrent au flux de travail sans nécessiter de changer de contexte, offrant une approche plus légère et modulaire que les GPT dédiés. Cette évolution favorise la réutilisabilité et la combinaison de plusieurs compétences dans une même session.
Besoin d'un accompagnement expert ?
Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.
Prendre contactÀ propos de l'auteur
Ayi NEDJIMI
Auditeur Senior Cybersécurité & Consultant IA
Expert Judiciaire — Cour d'Appel de Paris
Habilitation Confidentiel Défense
ayi@ayinedjimi-consultants.fr
Ayi NEDJIMI est un vétéran de la cybersécurité avec plus de 25 ans d'expérience sur des missions critiques. Ancien développeur Microsoft à Redmond sur le module GINA (Windows NT4) et co-auteur de la version française du guide de sécurité Windows NT4 pour la NSA.
À la tête d'Ayi NEDJIMI Consultants, il réalise des audits Lead Auditor ISO 42001 et ISO 27001, des pentests d'infrastructures critiques, du forensics et des missions de conformité NIS2 / AI Act.
Conférencier international (Europe & US), il a formé plus de 10 000 professionnels.
Domaines d'expertise
Ressources & Outils de l'auteur
Articles connexes
FIRESTARTER : APT persistant sur les pare-feu Cisco ASA
CISA et le NCSC britannique alertent sur FIRESTARTER, un implant déployé par l'APT UAT-4356 sur les pare-feu Cisco ASA et Firepower. Le malware survit aux patchs et aux reboots logiciels.
ADT confirme une fuite : ShinyHunters menace 10 M de clients
Le géant américain de la sécurité résidentielle ADT confirme une fuite après une attaque vishing sur Okta SSO. ShinyHunters revendique 10 millions de dossiers et fixe un ultimatum au 27 avril.
Pack2TheRoot CVE-2026-41651 : root Linux pour tous (8.8)
Une faille critique dans PackageKit (CVE-2026-41651, CVSS 8.8) permet à tout utilisateur Linux non privilégié d'obtenir root sur la majorité des distributions, du serveur Ubuntu LTS au poste Fedora.
Commentaires
Aucun commentaire pour le moment. Soyez le premier à commenter !
Laisser un commentaire