En esta edición de nuestra serie “Cuatro preguntas con…”, conversamos con Eric Sibony, Chief Scientist y Chief Product Officer, para reflexionar sobre la evolución de la compañía hacia la adopción total de la IA agéntica
Tuvimos una conversación similar sobre IA agéntica cuando presentamos Shift Claims. ¿Cómo ha evolucionado la visión de Shift sobre los agentes y su rol en la IA para seguros desde entonces?
Es una pregunta interesante porque, en esencia, nuestra visión no ha cambiado. Seguimos convencidos de que los agentes pueden aportar un valor increíble a las aseguradoras que buscan automatizar procesos cada vez más críticos. Lo que ha evolucionado es la tecnología subyacente que hace que estos agentes sean posibles.
Hemos visto saltos enormes en el rendimiento de los LLM (Large Language Models) que sirven de base para la IA agéntica. En tan solo seis meses, las realidades técnicas y de producto han madurado aceleradamente. Los lanzamientos de modelos clave, especialmente los grandes avances de febrero, han llevado la capacidad de los agentes de realizar tareas cortas y micro-gestionadas hacia un razonamiento sostenido de varios días.
Esto significa que los agentes pueden actuar cada vez más como expertos en la materia, en lugar de limitarse a automatizar pasos repetitivos. En la práctica, esto cambia cómo diseñamos nuestros productos: pasamos de añadir funciones agénticas a componentes aislados, a convertir el razonamiento agéntico en el núcleo de nuestros productos en áreas como siniestros, fraude o recobros.
Operativamente, Shift pasó de un enfoque de “IA como núcleo” a uno de “agentes como producto”. Hemos inyectado el razonamiento agéntico en el motor de nuestras soluciones e introducido una capa de integración y empaquetado para que los agentes funcionen como servicios ejecutables (callable services). Así, pueden orquestar herramientas como la reconstrucción de entidades, APIs o navegación externa según se requiera. Seguimos aprovechando y mejorando los componentes ya probados (como la resolución de entidades o los data pipelines), pero ahora los tratamos como herramientas para los agentes y no como resultados independientes.
En resumen: la dirección es la misma, pero el ritmo, el pensamiento arquitectónico y el énfasis en la orquestación y el I+D continuo se han intensificado.
Cuando dices que "Shift ahora vende agentes", ¿qué queremos decir exactamente con eso y por qué es importante la distinción?
Decir que “estamos vendiendo agentes” significa dos cosas concretas: primero, que la IA agéntica está embebida en el núcleo del producto, en lugar de ser vista como una capacidad secundaria; segundo, que proporcionamos la capa de empaquetado e integración para que nuestros productos puedan ser utilizados como agentes autónomos y conectables.
En este sentido, una solución para fraude en siniestros se convierte en un “agente de fraude” que evalúa un siniestro, realiza investigaciones con múltiples herramientas, escala el caso a un humano cuando es necesario y puede ser invocado por otros agentes dentro de un proceso de orquestación de siniestros más amplio. La distinción es vital porque cambia las expectativas del comprador: no estás adquiriendo solo un modelo predictivo o un servicio de analítica, sino un tomador de decisiones autónomo y adaptable.
Ese marco también clarifica nuestra visión del ecosistema. Los agentes necesitan acceso confiable a datos curados, integración con herramientas y protocolos de orquestación para encadenar el trabajo, mantener el contexto durante varios días y apoyarse en humanos según sea necesario. Además, el empaquetado de los agentes reduce la carga de integración para las aseguradoras: obtienen bloques modulares interoperables que juegan dentro de un ecosistema, en lugar de modelos individuales de ML (Machine Learning) o GenAI enfocados en una sola tarea.
Hay muchas voces en la industria que dicen a las aseguradoras que pueden construir sus propios agentes. ¿A qué retos se enfrentan quienes eligen ese camino?
La oportunidad de construir es real, pero la brecha entre un agente "suficientemente bueno" y uno líder en la industria es enorme. Los retos inmediatos son técnicos, organizacionales y de conocimiento de dominio.
Los desafíos técnicos incluyen construir una arquitectura de datos que alimente correctamente a los agentes, gestionar las integraciones y administrar tareas de largo alcance. En lo organizacional, el reto es establecer equipos de I+D dedicados que puedan adaptarse continuamente a modelos que cambian velozmente. El conocimiento de dominio es lo que permite desarrollar un modelo de negocio profundo para definir cuándo un agente debe actuar, escalar o decir “no lo sé”. El prompt engineering por sí solo no es suficiente; los mejores agentes dependen de un acceso estructurado al contexto y de una lógica de decisión curada, no solo de instrucciones ad-hoc.
También existe un problema de mantenimiento y de tiempo de generación de valor (time-to-value). Los avances en modelos y herramientas cambian la arquitectura óptima con frecuencia; optimizar y migrar sistemas es ahora un trabajo de producto constante, no un proyecto de una sola vez. Finalmente, la gestión de calidad y riesgo es difícil: para alcanzar los niveles de precisión que requiere el sector seguros, pensemos en un >99% en ciertos procesos, se necesita revisión multi-agente, monitoreo de desviaciones (drift) y barreras de seguridad alineadas con el negocio. Las aseguradoras pueden construir estas capacidades, pero es costoso y exige una especialización que muchas no querrán replicar cuando ya existen soluciones verticales probadas.
Shift ha defendido por mucho tiempo una IA que sepa decir "no lo sé". ¿La adopción continua de la IA agéntica hace que esta postura sea más o menos importante?
La capacidad de la IA para decir “no lo sé” se vuelve más importante, no menos, en las arquitecturas agénticas. A medida que se les encarga a los agentes una toma de decisiones de mayor impacto y autonomía, a veces orquestando tareas durante días o meses, el costo de una respuesta incorrecta o "excesivamente confiada" aumenta. La única forma de escalar la automatización segura es combinar decisiones de alta precisión con una abstención calibrada: agentes que sepan delegar cuando la confianza es baja o el riesgo de negocio es crítico. Ese sigue siendo el mecanismo central para lograr la confiabilidad que las aseguradoras exigen.
De hecho, las arquitecturas agénticas hacen que esta capacidad sea más alcanzable y matizada. Podemos descomponer tareas en agentes de orquestación más agentes especialistas de revisión, añadir módulos de monitoreo que detecten inconsistencias y ajustar la capa de orquestación para decidir “sí / no / no lo sé” basándose tanto en la probabilidad de acierto como en el riesgo derivado. En la práctica, esto significa que la abstención es un resultado de primer nivel: ajustado al riesgo, explicable y vinculado a rutas de escalación humana, permitiendo que la automatización escale de forma segura.