Skip to main content
AgentIA
Agents IA vs SaaS : Anthropic est-il en train de redéfinir l’industrie du logiciel ?

Anthropic est aujourd’hui l’un des laboratoires d’intelligence artificielle les plus influents au monde. Fondée par d’anciens chercheurs d’OpenAI, l’entreprise développe la famille de modèles Claude, dont la dernière génération alimente des systèmes d’agents capables d’exécuter des tâches complexes dans des environnements professionnels. Avec le lancement de Claude Cowork et de ses plugins, l’IA ne se contente plus d’assister les utilisateurs : elle commence à remplacer des pans entiers de workflows métiers.

Cette évolution a provoqué un choc immédiat sur les marchés technologiques. En février 2026, près de 285 milliards de dollars de capitalisation boursière se sont évaporés en une semaine dans le secteur logiciel, alors que les investisseurs réévaluaient brutalement la valeur des entreprises SaaS face à la montée des agents IA. Les actions de Capgemini ont reculé d’environ 9 %, Publicis de 9,2 % et Teleperformance de près de 5,8 %, illustrant l’inquiétude des marchés face à cette nouvelle génération d’outils capables d’automatiser des tâches juridiques, commerciales, marketing ou analytiques directement dans les outils de travail des entreprises.

Dans ce contexte, une question s’impose : l’IA agentique est-elle en train de redéfinir le modèle économique du logiciel ?

 

Anthropic met sous pression les entreprises SaaS et les services IT

Pendant plus de vingt ans, l’économie du logiciel d’entreprise a reposé sur un modèle simple : la licence par utilisateur. Les géants du secteur tels que Oracle, SAP, Salesforce ou Atlassian ont construit leur croissance sur une équation devenue presque universelle. Chaque nouvel employé nécessitait une licence supplémentaire, chaque équipe un nouvel outil spécialisé.

Le SaaS a renforcé ce modèle. Les entreprises ont multiplié les abonnements à des logiciels spécialisés, chacun avec sa propre interface, sa propre logique et ses propres coûts. Cette fragmentation logicielle est devenue la norme dans les organisations modernes.

L’arrivée des agents IA comme Claude Cowork change radicalement cette logique.

Ces systèmes ne se contentent plus d’ajouter une fonctionnalité d’intelligence artificielle à un logiciel existant. Ils deviennent une couche d’orchestration capable d’utiliser plusieurs outils à la place de l’utilisateur, automatisant des workflows entiers : analyse de données, rédaction de documents juridiques, préparation de présentations, gestion commerciale ou support client.

Autrement dit, là où une équipe utilisait auparavant plusieurs logiciels et plusieurs licences, un agent peut désormais effectuer une grande partie du travail lui-même.

Ce basculement remet directement en cause le modèle SaaS. Si un agent permet à un employé d’effectuer le travail de plusieurs personnes ou d’automatiser des tâches entières, le nombre de licences nécessaires diminue implicitement.

Même si cette transition reste encore marginale et n’émerge que progressivement dans les grandes entreprises, les marchés financiers en ont déjà anticipé les implications.

Goldman Sachs estime que les agents pourraient représenter plus de 60 % de la valeur créée dans l’industrie logicielle d’ici 2030.

Dans ce nouveau paradigme, la question n’est plus simplement d’intégrer de l’IA dans un produit. Elle devient : comment survivre dans un monde où le logiciel n’est plus l’interface principale ?

 

Focus cybersécurité : un secteur menacé… mais plus résilient grâce aux alliances

Si les entreprises SaaS sont directement exposées à cette disruption, le secteur de la cybersécurité présente une dynamique différente.

Les plateformes d’IA sont désormais capables d’automatiser certaines tâches traditionnellement réalisées par les équipes de sécurité : analyse de logs, détection d’anomalies, investigation d’incidents ou génération de rapports. Sur le papier, cela pourrait fragiliser une partie des fournisseurs de solutions de sécurité.

Mais contrairement au SaaS généraliste, les entreprises de cybersécurité disposent d’un avantage structurel : l’écosystème et les alliances.

Des acteurs comme CrowdStrike, Palo Alto Networks ou SentinelOne ont progressivement construit des plateformes interconnectées, combinant détection, réponse aux incidents, renseignement sur les menaces et orchestration de la sécurité. Ces entreprises ont également multiplié les partenariats technologiques afin d’intégrer l’IA directement dans leurs produits.

Dans ce secteur, l’IA n’est pas seulement une menace : elle devient aussi un levier d’amélioration.

Les acteurs historiques disposent par ailleurs d’un atout difficilement réplicable par les nouveaux entrants : des volumes massifs de données sur les menaces et des infrastructures de détection globales. Ces données constituent une barrière à l’entrée importante pour les modèles d’IA généralistes.

La stratégie adoptée par ces entreprises repose donc sur l'intégration rapide des capacités d’IA dans leurs plateformes.

Cette logique d’alliance réduit l’impact potentiel des agents IA en transformant la technologie en complément plutôt qu’en substitut.

 

Dette technique, dette d’apprentissage : le coût invisible de l’automatisation par les agents IA

Au-delà de l’impact économique sur les éditeurs SaaS ou les acteurs de la cybersécurité, l’arrivée des agents IA introduit un risque moins visible mais potentiellement tout aussi structurant pour les entreprises : la dette d’apprentissage.

Pendant des décennies, les organisations ont construit leurs modèles de formation interne autour d’un schéma relativement stable. Les profils juniors commencent par des tâches opérationnelles et répétitives telles rédaction de documents, analyses préliminaires, recherche d’information, production de livrables standards, puis montent progressivement en expertise au fil des années.

Ce mécanisme n’était pas seulement une organisation du travail. Il constituait le principal système de formation implicite des entreprises.

Or ce sont précisément ces tâches que les agents IA automatisent le plus rapidement.

Qu’il s’agisse d’analyser des données, de préparer une présentation, de rédiger un contrat ou d’effectuer un premier diagnostic technique, les agents comme Claude Cowork commencent à prendre en charge ce qui constituait historiquement le socle d’apprentissage des nouvelles recrues.

À court terme, l’effet est évident : productivité accrue, réduction des coûts et accélération des cycles de travail.

Mais à plus long terme, une question stratégique apparaît : comment former les experts de demain si les étapes intermédiaires disparaissent ?

Dans l’industrie du logiciel, un concept similaire est bien connu : la dette technique.

Lorsqu’une organisation privilégie des solutions rapides ou des raccourcis technologiques, elle accumule progressivement des fragilités qui devront être corrigées plus tard, souvent à un coût bien plus élevé.

La dette d’apprentissage pourrait devenir l’équivalent humain de ce phénomène.

En automatisant massivement les tâches d’entrée de carrière, les entreprises pourraient découvrir dans quelques années qu’elles ont réduit involontairement le principal mécanisme qui permettait de développer l’expertise interne.

Autrement dit, l’IA risque de supprimer les étapes qui formaient les experts avant même d’avoir remplacé les experts eux-mêmes.

 

L’IA agentique face aux contraintes politiques et géopolitiques

Si Anthropic exerce aujourd’hui une pression considérable sur l’industrie logicielle, l’entreprise n’est pas pour autant à l’abri de risques externes. L’IA devient progressivement un sujet géopolitique majeur, notamment dans les domaines de la défense et de la sécurité nationale.

Anthropic est actuellement engagée dans un bras de fer avec l’administration Trump aux États-Unis après avoir contesté certaines restrictions liées à l’utilisation de sa technologie dans des contextes militaires. Le laboratoire a intenté une action en justice pour contester des sanctions gouvernementales qui pourraient menacer plusieurs milliards de dollars de revenus potentiels, notamment liés à des contrats avec le ministère américain de la Défense.

Ce conflit révèle une tension croissante entre les entreprises d’IA et les gouvernements.

D’un côté, les États souhaitent sécuriser l’accès à ces technologies pour des usages militaires ou stratégiques. De l’autre, certaines entreprises dont Anthropic, cherchent à imposer des limites éthiques à l’utilisation de leurs modèles, notamment concernant les armes autonomes ou la surveillance de masse.

Cette confrontation pourrait ralentir certaines expansions commerciales de l’IA ou redéfinir les conditions d’accès à ces technologies. Autrement dit, même les acteurs les plus innovants ne sont pas totalement maîtres de leur trajectoire.