Inteligencia artificial en las ONG: cómo usar ChatGPT sin perder la voz de tu entidad - SocialCo, comunicación online para ONG

Compatibilité
Sauvegarder(0)
partager

La inteligencia artificial ya forma parte de nuestro día a día, tanto en lo personal como en el trabajo. Son ya muchos perfiles los que incluyen herramientas de inteligencia artificial en sus rutinas de trabajo, también los de quienes lleváis la comunicación de una entidad social.

A veces se cuela en forma de ChatGPT abierto en una pestaña, a veces como asistente integrado en el correo, en el procesador de textos o en herramientas como Canva. Si eres community manager seguro que estás utilizando alguna de estas 10 herramientas de IA para mejorar tu trabajo.

Y es que la IA puede ahorrar tiempo y ayudarnos con tareas pesadas o repetitivas, eso es una buena noticia (bueno, ya no es noticia). Pero hay una mala y esta sí que merece un titular: Si utilizamos la inteligencia artificial en automático, puede colarnos textos genéricos, datos inventados y sesgos que van justo en contra de lo que defendemos como organizaciones.

Por eso, en este post te vamos a hablar de la IA de lenguaje (modelos tipo ChatGPT, Gemini, Claude, etc.); porque casi todas las ONG las utilizáis en el día a día de vuestra comunicación y muchas nos habéis consultado qué está pasando con estas inteligencias artificiales, qué riesgos tienen y qué claves prácticas aplicar para usarla con criterio y sin perder vuestra voz.

1. Qué está pasando con la IA en las entidades sociales

En los últimos dos años trabajando con entidades hemos visto un patrón que se repite en muchas de ellas:

  • Alguna persona del equipo “trastea” con ChatGPT para salir del paso con un texto, un resumen o un email.
  • A veces, esa persona se apunta a un curso breve o se descarga una guía para tratar de aumentar su potencial.
  • No suele haber un acuerdo de equipo sobre para qué se puede usar y para qué no.
  • Casi nadie documenta cómo se está usando ni qué límites, medidas de seguridad se toman.

Fuera del Tercer Sector, los datos apuntan a lo mismo: la IA generativa se incorpora de forma rápida pero desigual. Todas las organizaciones, incluidos los órganos de gobierno, empezamos a preocuparnos por cómo usarla de forma ética y responsable.

Aquí es donde merece la pena parar un segundo.

Es muy tentador apuntarse a utilizar cualquier herramienta que prometa ahorrarte tiempo y costes, sobre todo cuando no llegas a todo. Con la IA de lenguaje pasa justo eso: la probamos, vemos que resuelve tareas en segundos y, si no nos paramos a pensar, podemos empezar a usarla sin hacernos preguntas importantes sobre sus implicaciones éticas, el impacto ambiental que tiene (por el consumo de energía de estos modelos) o el tipo de mensajes y decisiones que está reforzando.

En el caso de las ONG, esta reflexión es todavía más necesaria. Hay al menos dos ingredientes propios del sector que lo complican y lo hacen más relevante:

  • Recursos limitados: cuando vas justa de tiempo y presupuesto, cualquier promesa de “hacer lo mismo en la mitad de horas” es muy seductora y el momento de reflexión previo se pasa al final, cuando la herramienta ya está integrada en el trabajo del día a día.
  • Responsabilidad social: no es lo mismo equivocarse en el claim de una campaña comercial que en un mensaje sobre violencia de género, salud mental, infancia o migraciones. Lo que comunicáis tiene consecuencias muy reales en cómo se miran y se tratan determinadas realidades.

Por eso es tan importante no pasar de usarla un poco a lo loco. Es importante tener unas reglas mínimas y saber para qué nos viene bien y para qué no antes de que la IA se convierta en una compañera más del equipo.

2. Riesgos y líos habituales al usar ChatGPT en una ONG

También es verdad que no es nada nuevo, que cada vez se está hablando más de los riesgos funcionales de la IA y de sus implicaciones éticas, morales y para el planeta. Pero nunca está de más recordar algunas de ellas y tenerlas en cuenta para que tu integración de la IA en tu comunicación sea más estratégica y meditada.

2.1. Textos que no suenan a la entidad

Si le pedimos a la IA “Dame un post para Instagram sobre voluntariado en [nombre de la entidad] que sea potente y directo y hable de qué significa hacer voluntariado con nosotras y cómo dar el paso para sumarse. Lo normal es que obtengamos frases genéricas del tipo “cambia el mundo”, “tu ayuda es importante”, “juntas lo conseguiremos”, llenas de lugares comunes y con poco que ver con nuestra forma de hablar. Y es que la mayoría de las personas usa menos de 13 palabras para pedirle algo a la IA… y luego se decepcionan con el resultado ya que los mensajes podrían ser de cualquier organización.

Además, la IA puede colar un tono demasiado institucional o publicitario, usar expresiones poco inclusivas o paternalistas, o incluso deslizar ideas que chocan con vuestro enfoque (hablar de caridad cuando trabajáis desde los derechos, por ejemplo). El resultado: mensajes que probablemente no conectarán con vuestra base social, que pierden matices importantes (derechos, enfoque feminista, lenguaje inclusivo…) y que, si los publicas tal cual, pueden diluir la personalidad de tu entidad en vez de reforzarla.

2.2. Datos dudosos o directamente inventados

Los modelos de lenguaje no “saben” cosas: predicen palabras a partir de patrones. Eso significa que pueden mezclar datos, quedarse desactualizados o inventarse citas y referencias con toda la tranquilidad del mundo. Un uso responsable de la IA pasa por contrastar siempre la información con fuentes fiables. En esto también coinciden las recomendaciones específicas para organizaciones no lucrativas (como las que ofrece Google para ONG en su centro de recursos de IA).

2.3. Sesgos que se cuelan sin avisar

La IA se ha entrenado con textos donde no se representa a ciertas personas o se repiten estereotipos (por género, origen, diversidad funcional, edad…), por eso es fácil que reproduzca esos patrones. Varios estudios recientes sobre ética de la IA señalan este punto como uno de los grandes riesgos de la inteligencia artificial: la IA tiende a amplificar desigualdades ya existentes si no ponemos filtros humanos.

En comunicación social esto se traduce en cosas como:

  • campañas donde las personas migrantes solo aparecen como “víctimas”;
  • descripciones de “beneficiarios” que infantilizan;
  • imágenes y ejemplos que siempre colocan a los mismos perfiles en posiciones de poder.

La campaña “Cambiando una palabra” de Save the Children es un buen ejemplo de cómo usar la IA precisamente para evidenciar esos sesgos: cuando se pide a una herramienta generativa la imagen de un niño jugando “en Madrid” y luego “en Gaza” o “en Somalia”, la IA devuelve realidades marcadas por la guerra y la pobreza porque eso es lo que ha aprendido del mundo. La propia organización lo utiliza para mostrar que la desigualdad está tan documentada que ni siquiera una máquina puede evitar reflejarla.

Ya hemos hablado otras veces de cómo los nuevos entornos digitales (como el metaverso) tienden a replicar las desigualdades del mundo offline si no hacemos nada para evitarlo Con la IA pasa exactamente lo mismo: no es neutra, hereda sesgos de los datos con los que se ha entrenado.

Por eso insistimos que las personas usuarias también somos responsables de evitar que la inteligencia artificial perpetúe sesgos y estereotipos. No basta con “fiarse de la máquina”; hay que revisar y corregir.

2.4. Privacidad y seguridad de los datos

Otro punto clave: lo que subes a una herramienta de IA no siempre se queda “en tu ordenador”. Muchas guías de uso responsable recomiendan no introducir datos sensibles, información personal identificable ni contenidos que no podrías compartir con terceras partes sin permiso.

Para proteger los datos de tus personas si usas IA en tu trabajo:

  • no copies y pegues historias clínicas, informes con nombres y apellidos o listados de personas socias;
  • anonimiza siempre la información antes de trabajarla con IA;
  • revisa bien las condiciones de uso de la herramienta que vas a emplear.

En algunas plataformas puedes decidir si se usan tus conversaciones para entrenar el modelo o no: es importante revisar esta configuración y limitar la memoria de la herramienta cuando trabajes con contenidos sensibles.

En ChatGPT, por ejemplo, esta opción está en Configuración → Control de datos / Data controls, donde puedes activar o desactivar que tus chats se utilicen para “mejorar el modelo”, verás una opción tipo:

  • “Improve the model for everyone” / “Mejorar el modelo para todas las personas”
    o una frase similar que indica si permites usar tus chats para entrenamiento.

Los recursos de IA responsable para organizaciones sin ánimo de lucro de Google Nonprofits incluyen guías sencillas sobre este tipo de configuraciones.

2.5. Dejar que “decida” por ti

La IA puede ayudarte a ordenar ideas, proponer enfoques o sugerir textos, pero no debería decidir objetivos de campaña, mensajes clave o posicionamientos políticos. Las decisiones críticas tienen que seguir pasando por tus equipos y órganos de gobierno. Las recomendaciones para directivas que trabajan con IA lo repiten con bastante claridad: la responsabilidad sigue siendo humana.

3. Inteligencia artificial en la comunicación de tu ONG: claves prácticas para usar ChatGPT sin perder tu voz

“Menos magia, más encargos claros”. Me permito replicar la frase del último taller sobre prompts efectivos para entidades sociales al que asistimos en SocialCo. Me refiero a la Jornada Pixel, pulso digital del Tercer Sector y la Economía Social organizada por la Fundación Esplai. Quédatela como mantra siempre que utilices la inteligencia artificial con modelos de lenguaje.

Porque la diferencia entre un texto plano y uno realmente útil suele estar en cómo le pedimos las cosas a la IA. Aquí van algunas claves y ejemplos para que las adaptes a la realidad de tu ONG y puedas así utilizar la IA sin perder la voz de tu organización:

3.1. Piensa primero el encargo, luego el prompt

Antes de abrir ChatGPT, párate un momento:

¿para qué quieres el texto?, ¿quién lo va a leer?, ¿en qué canal?, ¿qué quieres que haga después quien lo lea?

Cuando tengas eso claro, entonces formula la petición. Por ejemplo:

“Necesito un borrador de email para nuestra base social explicando la nueva campaña de vivienda. Lo leerán personas donantes habituales, queremos que entiendan el problema y se animen a compartir la campaña con su entorno. Tono cercano y claro, sin dramatizar, máximo 300 palabras.”

Fíjate que aquí ya hay objetivo, público, tono y extensión. Estamos contando con que la herramienta de IA que utilizas esté configurada de manera apropiada para las tareas que le pedirás.

3.2. Dale contexto real de tu entidad

Los modelos de lenguaje funcionan mucho mejor cuando te conocen. Puedes contarle a la IA, de forma general, quién eres y cómo comunicas:

“Somos una entidad que trabaja por los derechos de la infancia. Usamos lenguaje inclusivo, evitamos el sensacionalismo y no prometemos más de lo que podemos demostrar.”

Ese contexto se puede guardar como instrucciones del sistema para reutilizarlo siempre que abras una nueva conversación.

En ChatGPT, por ejemplo, puedes incluirlo en las Instrucciones personalizadas (el apartado donde te pregunta qué debe saber sobre ti y cómo quieres que responda), y así se aplicará a todas las conversaciones nuevas.

En otros modelos de lenguaje (como Gemini, Claude o Copilot) suele haber opciones similares: campos de “perfil”, “estilo” o “preferencias” donde puedes dejar por escrito el tono, los valores y las pautas básicas de comunicación de tu entidad para que no tengas que repetirlas cada vez.

Además, en muchas herramientas puedes añadir contexto extra a nivel de chat: adjuntar documentos o conectar carpetas tipo Drive con manuales de estilo, dosieres de campañas o FAQs para esa conversación concreta. Eso ayuda a que la IA se apoye en materiales propios de la entidad. Aquí es clave poner límites (y revisar bien qué permite cada versión, gratuita o de pago): solo subir documentos que podrías compartir con terceras partes y evitar siempre informes con datos sensibles o información personal identificable.

3.3. Pídele que te haga preguntas antes de escribir

Una buena práctica es dejar que la IA pida más información antes de lanzarse a redactar. Por ejemplo:

“Antes de escribir nada, hazme las preguntas que necesites para adaptar el texto a nuestra realidad. Hazlas de una en una y espera mis respuestas.”

De esta forma, obligas al modelo a afinar y reduces la probabilidad de que rellene huecos con suposiciones.

3.4. Trabaja por fases, no todo de golpe

En lugar de pedir “hazme un post completo para el blog”, es más eficaz ir paso a paso:

  1. primero, un esquema con los apartados;
  2. después, propuestas de titulares;
  3. luego, un primer borrador;
  4. al final, una versión más corta para redes o boletín.

Este enfoque encaja con las recomendaciones educativas sobre IA responsable: usarla como herramienta para pensar mejor, no para saltarnos todo el proceso.

3.5. Enséñale ejemplos de vuestra voz

Si hay textos que representan muy bien cómo habla tu entidad (un post del blog, una newsletter, una campaña que os encante), puedes pegarlos en la conversación y decirle:

“Este es el estilo que queremos mantener. Por favor, adapta tus respuestas a este tono: cercano, claro, sin exagerar logros ni usar lenguaje condescendiente.”

Eso no garantiza que acierte siempre, pero ayuda mucho.

Si tienes un Manual de Marca en el que se defina vuestro propósito, tono y estilo… haz que la IA lo sepa y lo utilice.

Actualiza tus canales
con los contenidos y copys más frescos y atractivos .

Creamos, adaptamos o transformamos contenidos para tus canales

3.6. Marca reglas claras de calidad y ética

Poner límites está de moda, también con la IA:

  • que indique cuándo no tiene suficiente información;
  • que no invente referencias;
  • que marque con etiquetas tipo [No verificado] lo que necesite revisión;
  • que priorice siempre la protección de datos y la dignidad de las personas mencionadas.

Puedes traducir estos criterios a tus prompts de la siguiente manera, por ejemplo:

“Si no estás segura de un dato, dilo claramente y no lo inventes. Marca cualquier parte dudosa con [Revisión necesaria].”

Para que tengas más ejemplos, te dejamos algunos más que puedes adapt

Coordonnées
Sandra Jiménez