table des matières
SHARE:
SHARE:
Dans cette édition de la série “Quatre questions”, nous avons demandé à Eric Sibony, Chief Scientist et Chief Product Officer, de revenir sur l’évolution de Shift vers une adoption complète de l’IA agentique.
Nous avons eu une conversation similaire lors du lancement de Shift Claims. Comment la vision de Shift sur les agents et leur rôle dans l’IA pour l’assurance ont-ils évolué depuis ?
C’est une question intéressante, dans le sens où notre vision n’a pas vraiment changé. Nous pensons toujours que les agents peuvent apporter une valeur considérable aux assureurs, en leur permettant d’automatiser de plus en plus de processus cruciaux. Le véritable changement réside dans la technologie qui permet désormais de déployer des agents.
Nous avons observé des progrès majeurs dans les performances des LLM sur lesquels reposent l’IA agentique. En six mois, les réalités techniques et produits ont fortement mûri. Les principales mises à jour de modèles, notamment les sauts de performance observés en février chez plusieurs acteurs majeurs, ont fait évoluer les capacités des agents de tâches courtes et très encadrées vers des capacités de raisonnement sur plusieurs jours.
Concrètement, cela signifie que les agents ne se contentent plus d'automatiser des tâches répétitives : ils s'imposent désormais comme de véritables experts métiers. Cette évolution transforme aussi notre manière de concevoir nos produits. Nous n’ajoutons plus des capacités IA à des outils existants, mais nous plaçons désormais le raisonnement agentique au cœur même de nos solutions, que ce soit pour la gestion des sinistres, la détection de fraude, le traitement des recours, et d'autres cas d'usage.
Sur le plan opérationnel, Shift est passé de “l’IA comme moteur” à “les agents comme produit”. Nous avons intégré le raisonnement agentique dans le cœur de notre technologie, et ajouté une couche d’intégration et de d’interface pour que les agents puissent être utilisés comme des services à la demande, capables d’orchestrer différents outils comme la reconstruction d’entités, des API ou de la navigation externe.
Nous continuons de réutiliser et d’améliorer des composants éprouvés, comme la résolution d’entités ou les pipelines de données, mais ils servent désormais de socle aux agents au lieu d'être exploités comme des solutions autonomes.
Fondamentalement, la direction reste la même, mais le rythme, la réflexion architecturale et l’importance donnée à l’orchestration et à la R&D continue se sont nettement intensifiés.
Quand vous dites “Shift vend désormais des agents”, que signifie exactement cette affirmation, et pourquoi cette distinction est-elle importante ?
Dire que nous “vendons des agents” renvoie à deux réalités concrètes. D’abord, l’IA agentique est intégrée au cœur des produits, et n’est plus une fonctionnalités secondaires. Ensuite, nous fournissons une couche d’interface et d’intégration qui permet d’utiliser nos produits comme des agents autonomes et à la demande.
Dans cette logique, une capacité de détection de fraude dans les sinistres devient un “agent fraude” capable d’évaluer un dossier, de mener des investigations via plusieurs outils, d’escalader vers un humain si nécessaire, et d’être sollicité par d’autres agents au sein d'un parcours global de gestion des sinistres.
Cette distinction est importante car elle change les attentes des clients. Ils n’achètent plus un modèle prédictif ou un service analytique, mais un décideur autonome et modulaire.
Cela clarifie aussi la logique d’architecture et d’écosystème. Les agents ont besoin d’un accès fiable à des données structurées, d’intégrations d’outils (API, résolution d'entités, navigation) et de protocoles d'orchestration. Cela leur permet d'enchaîner les tâches, de maintenir un état de suivi sur plusieurs jours et de passer la main aux experts humains dès que nécessaire.
Enfin, cette interface réduit la complexité d’intégration pour les assureurs. Ils disposent de briques interopérables qui s’inscrivent dans un écosystème d’agents, plutôt que de modèles isolés conçus pour une seule tâche.
Beaucoup d’acteurs du secteur expliquent que les assureurs peuvent construire leurs propres agents. Quels défis rencontrent ceux qui choisissent cette voie ?
Les opportunités de développement sont réelles, mais il y a un fossé entre un agent "satisfaisant" et une solution de pointe au service de l'industrie. Les difficultés sont techniques, organisationnelles et liées à l’expertise métier.
Sur le plan technique, il faut construire une architecture de données capable d’alimenter correctement les agents, gérer les intégrations d’outils, ainsi que la gestion du contexte et des tâches longues. Sur le plan organisationnel, l'enjeu principal est de mettre en place des équipes de R&D dédiées, capables de s'adapter en continu à l'évolution rapide des modèles.
L’expertise métier est tout aussi critique. Elle permet de définir quand un agent doit agir, escalader ou reconnaître qu’il ne sait pas. Le prompt engineering seul est insuffisant. Les meilleurs agents reposent sur un accès structuré au contexte et sur des logiques de décision encadrées, pas sur des instructions ponctuelles.
Il existe aussi un enjeu de réactivité et de pérennité. Les avancées rapides des modèles et des outils font évoluer en permanence les architectures optimales. L’optimisation et la migration deviennent une activité continue, et non plus un projet ponctuel.
Enfin, la qualité et la gestion du risque sont particulièrement exigeantes. Pour atteindre les niveaux de précision attendus dans l’assurance, parfois supérieurs à 99% sur certains flux, il faut des systèmes de revue multi-agents, de détection des dérives de performance et des garde-fous adaptés au métier.
Les assureurs peuvent développer ces capacités, mais cela demande des investissements importants et une spécialisation que beaucoup préféreront éviter lorsque des solutions verticales éprouvées existent déjà.
Shift défend depuis longtemps une IA capable de dire “je ne sais pas”. L’adoption croissante des agents rend-elle cette position plus ou moins importante ?
La faculté d'un agent à reconnaître ses limites est un pilier fondamental de la sécurité et de la robustesse des architectures agentiques.
À mesure que les agents prennent en charge des décisions plus autonomes et à fort enjeux, parfois sur des cycles de plusieurs jours ou mois, le coût d’une réponse erronée, formulée avec une assurance injustifiée, devient critique.
La seule manière de faire évoluer l’automatisation de manière sûre est de combiner des décisions de haute précision avec une capacité d’abstention calibrée. Les agents doivent pouvoir se désengager lorsqu’ils ne sont pas suffisamment confiants ou lorsque le risque métier est trop élevé.
C’est un mécanisme central pour atteindre le niveau de fiabilité attendu dans l’assurance.
Les architectures agentiques rendent cette capacité plus accessible et plus nuancée. Il devient possible de décomposer les tâches entre agents d’orchestration et agents experts chargés du contrôle. Nous y ajoutons des modules de surveillance capables de détecter des dérives statistiques ou des signaux métier incohérents. Enfin, nous affinons la couche d'orchestration pour que la décision (oui / non / je ne sais pas) soit arbitrée en fonction de la justesse et du risque opérationnel.
Concrètement, cela signifie que l’on ne force plus une réponse binaire. L’abstention devient un résultat à part entière : encadré, explicable et lié à des circuits d'intervention humaine. C’est une condition nécessaire pour scaler l’automatisation sans dégrader le niveau de contrôle.