La verdad importa: IA neurosimbólica para el sector asegurador. - Magazine Community of Insurance

Compatibilité
Sauvegarder(0)
partager

La verdad importa: IA neurosimbólica para el sector asegurador.

Nota del Editor  

En un momento en el que la inteligencia artificial vive una explosión de expectativas —y también de confusión—, Ricardo Alonso Maturana destaca por su enfoque riguroso y diferencial. Como fundador y director de Gnoss, lleva más de dos décadas impulsando una visión de la IA que va más allá de lo probabilístico, apostando por modelos capaces de representar el conocimiento y razonar sobre él de forma estructurada y verificable.

Su trabajo se sitúa en la vanguardia de la llamada inteligencia artificial neurosimbólica, una aproximación que combina grafos de conocimiento, ontologías y modelos de lenguaje para construir sistemas no solo generativos, sino también explicables, trazables y auditables. Esta “caja de cristal” tecnológica permite seguir paso a paso el razonamiento de la máquina, no como una simple deducción probabilística al estilo de Holmes, sino como un proceso completo de comprensión que integra hechos, contexto y reglas, más cercano a la capacidad de Poirot para reconstruir la verdad a partir de elementos complejos y aparentemente inconexos.

Esta línea de desarrollo resulta especialmente relevante en sectores donde la precisión y la responsabilidad son críticas, como el asegurador, el financiero o el jurídico.

Desde Gnoss, Ricardo Alonso Maturana ha liderado la aplicación práctica de estas tecnologías en ámbitos diversos como el seguro, la banca, el turismo, la cultura o la formación, demostrando que es posible llevar la IA desde la experimentación hasta la resolución de problemas reales con impacto tangible.

Su tribuna, que acompaña estas líneas, profundiza en una idea clave: en contextos de alta exigencia, no basta con predecir; es necesario comprender y razonar. Una reflexión que invita a repensar el papel de la inteligencia artificial en las organizaciones y su verdadero potencial para generar confianza y valor.

“Los sectores de alto riesgo necesitan IA auditable, no IA probable. Y “auditable” aquí significa, o debería hacerlo, IA trazable y reproducible por terceras partes.”

(Ricardo a. Maturana)

Ricardo A. Maturana

La verdad importa: IA neurosimbólica para el sector asegurador.

(Grafos de conocimiento y razonamiento explicable como base de una nueva generación de inteligencia artificial.)

Autor: Ricardo Alonso Maturana, Director de Gnoss

Reconocer un fraude no es detectar una anomalía estadística. Ese podría ser el principio de la historia. Y, además, un buen principio, pero insuficiente. Reconocer un fraude es razonar sobre intenciones, contextos y hechos y llegar a una conclusión. Nuestra mente opera sobre información incompleta e imperfecta, conecta conceptos y hechos dispersos, considera cuidadosamente el contexto y llega a conclusiones que ningún modelo probabilístico puede alcanzar. Esa capacidad de distinguir lo verdadero de lo falso es un don misterioso, como la propia mente.

La mente son muchas cosas, pero sobre todo consiste en una estructura implícita de clases, relaciones y reglas que se corresponde con la estructura del mundo real y que nos permite identificar, distinguir y clasificar lo que existe ahí, sus entidades: las personas, organizaciones, eventos, lugares y toda clase de cosas, pero también las ideas y los conceptos (que no son cosas, pero que son igualmente reales y distinguibles). No sabemos por qué son así las cosas, pero el hecho es que, para los que creemos que la realidad no es el producto de un gran juego de ordenador, sino algo que está ahí fuera y que se corresponde con lo que nos representamos y pensamos, la mente es algo muy poderoso: es capaz de contener y manejar simbólicamente todo el universo inmenso y exterior. Algo mágico, cuando uno se para a pensarlo, pero que los ingenieros que han desarrollado los modelos de lenguaje, que ahora llamamos IA, han pasado perezosamente por alto. 

Las ontologías formalizan exactamente eso. Son el mapa que permite a una máquina reconocer entidades, clasificarlas y razonar sobre ellas con la misma lógica que usaría un especialista humano. Por ello, podemos considerarlas como “mentes artificiales”. En la práctica, las ontologías son lo que nos permiten conversar con los sistemas de IA en un marco de sentido común, teniendo la seguridad de que las entidades que nosotros nos representamos, María, Barcelona, la Guerra de la Independencia o este accidente de tráfico que involucró a estos vehículos y a estas personas en tal o cual sitio, es exactamente lo que la máquina está, al igual que nosotros, simbólicamente manejando.

Nuestra mente opera sobre “modelos de mundo”, sobre gigantescas “redes de ontologías” que ningún cálculo probabilístico puede emular, ni reemplazar. Determinar si una enfermedad o un bien están cubiertos por una póliza, establecer la causa real de un siniestro complejo o detectar un fraude bien construido no son tareas estadísticas. Son tareas que implican, a la vez, una consideración cuidadosa de las cosas y razonamiento. Exigen conocimiento especializado, contexto material, contractual y jurídico y una cadena argumentativa que alguien pueda seguir, revisar y corregir. El EU AI Act no ha inventado este problema: lo ha codificado. Los sectores de alto riesgo necesitan IA auditable, no IA probable. Y “auditable” aquí significa, o debería hacerlo, IA trazable y reproducible por terceras partes. Cuando se satisfacen esas dos condiciones, entonces decimos que la IA es explicable y, como consecuencia, confiable. A esta IA la denominamos segura porque podemos confiar en sus resultados.

La mayor parte de las soluciones del mercado son estadística glorificada que, con frecuencia, no encuentran los casos de uso que prometían. Detectan patrones, generan respuestas, útiles en ocasiones, pero operan como cajas negras: inescrutables, incorregibles, irreproducibles, inexplicables, inauditables. El problema no es que los patrones no sean útiles. El problema es confundirlos con conocimiento. Algo puede parecer un fraude y no serlo; algo puede no parecerlo y serlo. Sherlock Holmes llegaría a la verdad razonando sobre los hechos, no calculando la respuesta más probable. Ningún modelo generativo puede hacer lo que hace Holmes.

La IA neurosimbólica propone ir de las predicciones basadas en patrones al razonamiento que considera las causas de las cosas. El futuro no está contenido en el pasado. La realidad es muy creativa. Constantemente alumbra novedades. Un fraude nuevo, una combinación de circunstancias inédita, una cadena causal que ningún modelo ha visto antes; ese tipo de cosas exigen razonamiento para descubrirlas. La IA consigue emular este modo de operar humano hibridando grafos de conocimiento ontológicamente interpretados con modelos de lenguaje. La ontología formaliza el mundo del asegurador —entidades, atributos, relaciones, reglas contractuales, jurisprudencia, axiomas de razonamiento—. El LLM opera, no en el vacío estadístico del siguiente token más probable, sino sobre esa estructura semántica, en un universo con significado propio donde es posible descubrir conocimiento implícito y articular razonamientos trazables.

El resultado es una caja de cristal. Una cadena de razonamiento que va desde los hechos del siniestro hasta la cláusula aplicable, pasando por la jurisprudencia relevante, con cada paso trazable, explicable y verificable. El ahorro está en evitar errores que no se pueden corregir, en eludir auditorías que fallan, en asumir decisiones que nadie puede explicar.

GNOSS lleva más de dos décadas construyendo exactamente esto: grafos de conocimiento ontológicamente interpretados, integrados con tecnologías de aprendizaje automático y generativas, con el fin de crear sistemas que razonan sobre el mundo, porque son capaces de representarlo y manejarlo simbólica y lógicamente. En el sector asegurador, como en cualquier ámbito donde el fallo tiene un precio humano, la verdad es una obligación. En nuestra imaginación, Holmes es una máquina deductiva, que no falla. Claro que lo que está en juego es distinguir al asesino del mayordomo. Nos jugaríamos la buena literatura de misterio si no lo consiguiera. Hércules Poirot es capaz, cada vez que le dejan, de integrar en un hilo de razonamiento sutil un conjunto de hechos disperso, espacial y temporalmente inconexo, heterogéneo y diverso. “Elemental, mi querido Poirot; ¿nos conocemos de algo?”. C’est tout, mon cher ami Holmes.

Community of Insurance

Community of Insurance es una empresa de comunicación y gestión del conocimiento asegurador en RED, consultoria estratégica, transformación digital, corporate finance y eventos. Su misión es aportar innovación a la industria aseguradora con la búsqueda de soluciones en un marco exponencial de cambio.

¡Únete a Community of Insurance!

Los datos personales facilitados y cualesquiera otros generados durante el desarrollo de la relación contractual o comercial que mantengamos, serán tratados por COMMUNITY OF INSURANCE, S.L. La finalidad del tratamiento es gestionar y generar tu perfil profesional en nuestras aplicaciones y redes, gestionar los distintos servicios que proporciona el sitio web, y promover u organizar las actividades o eventos que desarrollemos, con el objetivo final de favorecer a la interrelación entre profesionales. Dicho tratamiento se basa en su consentimiento, en la relación contractual o comercial existente entre las partes, y en nuestro interés legítimo. Se podrán ceder datos a terceros para la prestación de servicios auxiliares, el cumplimiento del contrato, o por estricta obligación legal. Se podrán realizar transferencias internacionales de datos, a países con el mismo nivel de garantía.. Puede, cuando proceda, acceder, rectificar, suprimir, oponerse, así como ejercer otros derechos, tal y como se detalla en la información adicional y completa que puede ver en nuestra política de privacidad.

Artículos
relacionados

Coordonnées
Community of Insurance