Une erreur de publication a exposé mardi 31 mars le code source de Claude Code, l’assistant phare d’Anthropic. Cette fuite massive dévoile des projets d’agents autonomes et fragilise la crédibilité de la start-up valorisée à 350 milliards de dollars, déjà touchée par un incident similaire le 27 mars.
Les informations à retenir
L’exposition du code source de Claude Code menace-t-elle la sécurité des entreprises clientes ?
« Aucune donnée sensible de clients ni aucun identifiant n’ont été impliqués ou exposés », assure Anthropic.
Le code dévolié permet néanmoins aux acteurs malveillants de chercher des failles zero-day (inconnues) dans l’outil utilisé par les développeurs tiers.
Anthropic a émis 8 000 requêtes DMCA (infraction de la loi américaine sur la propriété intellectuelle) pour supprimer les copies, mais le secret sur les futurs modèles est compromis.
Anthropic, la pépite de San Francisco qui prône une IA sécurisée, a laissé échapper mardi 31 mars 2026 les entrailles de son outil pour développeurs. Une maladresse humaine a rendu public un fichier interne sur le registre npm, porte d’entrée des bibliothèques logicielles. En quelques minutes, 512 000 lignes de code TypeScript ont été aspirées et dupliquées sur GitHub. Les fichiers révèlent une feuille de route technologique, baptisée « Ultraplan » ou « Kairos », transformant l’assistant en un agent doté de mémoire à long terme.
Une bévue de production aux effets systémiques
L’incident ne provient pas d’une attaque informatique complexe. « Il s’agissait d’un problème sur la publication de la mise à jour causé par une erreur humaine », admet un porte-parole de la société. Une archive de travail a été incluse par mégarde dans un paquet public.
Pour les entreprises qui intègrent Claude dans leurs processus, cette porosité pose la question de la rigueur des procédures de déploiement chez Anthropic. Un simple fichier de « map », normalement réservé au débogage, a servi de fil d’Ariane pour remonter jusqu’au code source non offusqué.
L’absence de fuite de données clients limite pour l’instant le risque juridique lié au RGPD. En revanche, l’exposition de l’architecture interne facilite le travail des concurrents.
Content retrieved from: https://www.latribune.fr/article/tech/intelligence-artificielle/38909844533159/500-000-lignes-de-code-fuitent-les-projets-secrets-danthropic-devoiles.



