Face à la concurrence accrue sur les talents, Anthropic renforce sa stratégie « safety-first » et ses ambitions en matière d’IA d’entreprises, en accueillant les fondateurs et ingénieurs de Humanloop, spécialiste des outils IA fiables et conformes.

Avec son modèle Claude, et notamment depuis Claude 3.7 Sonnet et Claude 4.1 Opus, Anthropic est devenue le grand challenger d’OpenAI en matière d’IA d’entreprise et l’usage de ses modèles dépasse même celui d’OpenAI dans une majorité d’entreprises américaines si l’on en croit l’étude de Menlo Ventures.

Et pour encore renforcer sa stratégie dans l’IA d’entreprise, Anthropic annonce le recrutement de l’équipe fondatrice et de la quasi-totalité des ingénieurs de Humanloop, start-up britannique spécialisée dans la gestion de prompts, l’évaluation de modèles et l’observabilité.

L’opération, dont les conditions financières n’ont pas été divulguées, s’inscrit clairement dans la tendance des « acqui-hire » (acquisition de savoir faire par acquisition des talents d’une startup) qui s’intensifie avec la concurrence sur les talents en IA. Les cofondateurs Raza Habib (CEO), Peter Hayes (CTO) et Jordan Burgess (CPO), ainsi qu’une douzaine de chercheurs et développeurs, rejoignent ainsi Anthropic, sans transfert d’actifs ni de propriété intellectuelle.

Fondée en 2020 en spin-off de l’University College London, Humanloop s’est rapidement fait connaître auprès de grands comptes comme Duolingo, Gusto ou Vanta pour ses outils permettant de concevoir, tester et déployer des applications d’IA fiables et conformes. Après un passage par Y Combinator et le Fuse Incubator, la société avait levé 7,91 millions de dollars, principalement auprès d’Index Ventures et YC. Elle a annoncé à ses clients, le mois dernier, la fermeture de sa plateforme en vue du rachat.

Cette intégration intervient alors qu’Anthropic élargit son offre pour les entreprises, notamment avec des fenêtres de contexte allongées, et qu’elle vient de conclure un accord avec l’administration fédérale américaine pour fournir ses services d’IA à l’ensemble des agences gouvernementales pour un dollar symbolique la première année, concurrençant directement OpenAI. Dans ce contexte, l’expertise de Humanloop en évaluation continue, garde-fous de sécurité et réduction des biais correspond à la ligne “safety-first” d’Anthropic.

La différenciation entre les grands acteurs des modèles IA ne se joue plus uniquement sur la « qualité modèle », mais sur la capacité à industrialiser les usages avec des garde-fous mesurables — jeux d’évals continus, observabilité fine des prompts et métriques métier, gestion des biais et des dérives, et traçabilité compatible avec les politiques de sécurité et les audits. L’intégration des équipes Humanloop devrait renforcer l’écosystème outils d’Anthropic sur ces volets, au moment où les contextes plus longs et l’agentisation élargissent les cas d’usage sensibles.

« Leur expérience éprouvée dans les outils et l’évaluation de l’IA sera inestimable pour faire progresser notre travail sur la sécurité et l’utilité des systèmes », a déclaré Brad Abrams, responsable produit API chez Anthropic. Raza Habib souligne de son côté que la vision de son équipe « s’aligne parfaitement » avec l’engagement de leur nouvel employeur en faveur d’un développement responsable de l’IA.

 

À lire également :

Ça y est… GPT-5 est là !

Anthropic serait plus utilisée qu’OpenAI en entreprises !

Claude Opus 4.1 : Anthropic élève le niveau

Anthropic ouvre Claude à la recherche web et marche sur les platebandes de Google

Anthropic lance son deep « Research » pour Claude et intègre son IA à Google Workspace