Paolo Benanti (franciscano, teólogo y consultor del Vaticano y la ONU para cuestiones de IA) reflexiona sobre cómo el uso que la IA hace de nuestros datos podría llegar a generar “conciencias sintéticas” a medida en un futuro no muy lejano. Unido a esto y acercándome a un informe sobre los cambios de la IA generativa en España me llevan a hablaros hoy de la conciencia sintética. En el estudio se menciona que, si en 2024 usarla como “terapia o acompañamiento” ocupaba el segundo lugar, en 2025 ha pasado al primero. En el ranking le siguen “organizar la propia vida” y “encontrar un propósito”. Es decir, los tres usos principales apuntan directamente a la vida interior y personal.
Además, estamos asistiendo también al crecimiento de IAs específicas en el ámbito religioso: lectores de la Biblia, expertos en derecho canónico o herramientas de apoyo espiritual sin intervención humana. Incluido, en una charla reciente sobre los retos de la pastoral y la tecnología, alguien del público me preguntó: “¿Para cuándo un confesor por IA?”.
Retos de futuro
Ante este panorama podemos distinguir dos grandes retos. El primero es la IA como refugio afectivo y terapia emocional. En una sociedad cada vez más individualista, muchas personas buscan apagar su soledad acudiendo a la máquina, a un conversador en su propio teléfono móvil. El documento vaticano Antiqua et nova (AN 63) constata que algunas personas recurren a la IA buscando “relaciones humanas profundas, simple compañía o incluso relaciones afectivas”. Lo que vimos en la película Her (2013) ya es una realidad explotada por empresas que ofrecen chatbots personalizados o asistentes para conversaciones íntimas.
El segundo reto es el uso de la IA como consejero espiritual. La tecnología podría comenzar a adentrarse en la respuesta a dudas vitales. Un ejemplo es el experimento Deus ex Machina llevado a cabo en Lucerna (Suiza): los fieles podían interactuar con un holograma de Jesús impulsado por IA que actuaba como confesor, generando un lógico debate sobre su idoneidad teológica y sacramental.
Ante esto, necesitamos parar y reflexionar desde una visión antropológica. El papa Francisco y documentos como el mencionado Antiqua et nova advierten del riesgo de que los jóvenes se acostumbren a estas dinámicas. Hay un peligro de utilitarismo (AN 60): si los jóvenes antropomorfizan la IA, pueden desarrollar patrones que entiendan las relaciones de forma utilitaria. Corremos el inmenso riesgo de sustituir los vínculos auténticos con los demás y con Dios por un “simulacro sin vida” (AN 61). Las emociones podrían así reducirse a frases generadas a petición del usuario; la máquina simula, pero ojo, carece de la empatía y la corporeidad necesarias para dar un abrazo o mostrar verdadero consuelo.
Como padres y educadores, debemos estar en alerta frente al aislamiento y la deformación de las habilidades sociales que estas herramientas están provocando. Una máquina nunca te lleva la contraria, lo que haces es crear una falsa sensación de seguridad. Hay que ayudar a hacer una lectura crítica: una IA jamás sentirá, no dará un abrazo ni se conmoverá ante unas lágrimas; solo interpreta textos sin ver a la persona. Supervisemos estas aplicaciones desde edades tempranas, pues ya se están detectando casos de niños que muestran afecto a Alexa o Siri porque les cuenta cuentos. No estamos tan lejos de las conciencias a la carta; mantener los ojos y oídos abiertos nos ayudará en nuestra labor de acompañantes.