Avec Code Review, Anthropic répond à un problème dont il est en partie responsable
Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d'examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l'asphyxie face au déluge de contributions générées par IA. Mais l'
Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d’examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l’asphyxie face au déluge de contributions générées par IA. Mais l’outil leur est-il réellement destiné ?
C’est un chiffre vertigineux qu’Anthropic glisse dans son annonce du 9 mars 2026 : la quantité de code produit par ingénieur dans ses équipes a augmenté de 200 % en un an. Une explosion directement imputable aux outils de génération assistée par IA, comme Claude Code.
Mais cette productivité débridée a un revers : plus de code à relire, et moins de temps pour le faire sérieusement.
Face à ce constat, Anthropic assure avoir la solution avec Code Review pour Claude Code, une fonctionnalité actuellement disponible en version préliminaire pour les abonnements Team et Enterprise.
Son principe est simple : à chaque fois qu’une pull request (PR), c’est-à-dire une proposition de modification du code, est soumise sur GitHub, une équipe d’agents IA est automatiquement déployée pour l’analyser en profondeur.

Votre vie privée doit rester privée.
Face aux cyberattaques, déjouez les pronostics. Les nouvelles arnaques sont plus complexes et plus sophistiquées, alors ne devenez pas une victime de plus, il existe des solutions performantes et accessibles.
— Claude (@claudeai) March 9, 2026Introducing Code Review, a new feature for Claude Code.
When a PR opens, Claude dispatches a team of agents to hunt for bugs. pic.twitter.com/AL2J4efxPw
Ce contenu est bloqué car vous n’avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Twitter.
Pour pouvoir le visualiser, vous devez accepter l’usage étant opéré par Twitter avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l’amélioration des produits d’Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l’audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Une équipe d’agents scrute toutes les modifications
L’architecture de Code Review est ce qui la distingue des solutions existantes. Plutôt qu’un seul modèle qui lit la PR de bout en bout, Claude Code déploie plusieurs agents en parallèle, chacun spécialisé dans une tâche précise : détecter les bugs, vérifier les faux positifs, puis classer les problèmes par ordre de sévérité. Le résultat est ensuite accompagné d’un commentaire de synthèse sur la modification, complété par des annotations directement sur les lignes problématiques.
Anthropic met en réalité à disposition un outil qu’elle utilise déjà en interne depuis plusieurs mois. Selon les chiffres communiqués par l’entreprise, avant Code Review, 16 % des PR recevaient des commentaires, ce taux grimpe désormais à 54 %.
Sur les grandes PR dépassant 1 000 lignes, 84 % débouchent sur des signalements, avec en moyenne 7,5 problèmes identifiés et seul 1 % des findings sont jugés incorrects par les ingénieurs.
Le processus s’adapte évidemment à la taille de la contribution. Une PR modifiant plus de 1 000 lignes mobilisera davantage d’agents et bénéficiera d’une analyse plus approfondie qu’un correctif mineur.
Reste une limite concrète : selon Anthropic, une revue prend en moyenne une vingtaine de minutes, et cette intensité de calcul se répercute mécaniquement sur le prix.
Un tarif qui cible les équipes professionnelles
Dans le billet de blog de présentation, Anthropic le concède elle-même : « La revue de code est devenue un goulot d’étranglement, et nos clients nous le font remarquer chaque semaine. Ils nous disent que les développeurs sont surchargés et que de nombreuses demandes de fusion ne sont examinées qu’en surface, sans analyse approfondie. »
Problème : Code Review n’est pas un outil grand public. Facturé à l’usage entre 15 et 25 dollars par revue en moyenne selon la taille de la PR, il est réservé aux abonnements Team et Enterprise de Claude.
Si les administrateurs peuvent définir des plafonds mensuels par organisation et restreindre l’outil à certains dépôts, cette tarification exclut de fait les mainteneurs bénévoles de petits projets open source, qui sont pourtant les premiers à souffrir du déluge de contributions automatisées.
Anthropic propose certes une GitHub Action open source, plus légère et gratuite, mais celle-ci n’atteint pas le niveau d’analyse de Code Review.
La newsletter pour ne rien manquer de l’actu IA, écrite par une IA
Vous souhaitez recevoir la newsletter Artificielles dans votre boîte mail ?
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !