Publicar con transparencia cuando usas inteligencia artificial: guía para ONG y equipos de comunicación - SocialCo, comunicación online para ONG

Compatibilidad
Ahorrar(0)
Compartir

A la hora de comunicarte con tu audiencia, hay algo que vale oro: la confianza. Algo que se construye a base de coherencia, de hacer lo que dices… y de cuidar cómo lo cuentas.

Pero, y aquí viene el giro de guion de los últimos años, cada vez es más fácil crear imágenes, audios y vídeos que parecen reales sin serlo. Contenidos que, en muchos casos, acompañan nuestros mensajes de texto. Y, aunque el mensaje no se inventa, una imagen, un video, etc. que se note “falso” puede afectar a nuestra credibilidad general como fuente de comunicación.

Además, no es solo reputación. En un contexto donde la desinformación y los contenidos manipulados se mueven rápido, cada vez cuesta más separar lo auténtico de lo fabricado, y los deepfakes forman parte de ese problema.

Este artículo es un intento de brindar a tu equipo criterios claros (y aplicables) si en vuestra organización usáis inteligencia artificial para crear o editar contenidos. Sin dramas, sin postureo y sin convertirlo en un proceso imposible.

¡Ah! Y al final tienes una plantilla descargable para aplicar el etiquetado en tu ONG cuando haces contenidos con IA y un glosario (por ejemplo, qué significa “deployer”, “deepfake”, etc.) para que todo el mundo en el equipo hable el mismo idioma.

1. Por qué la transparencia en contenidos con IA protege la confianza de tu comunidad

Si tu contenido puede generar dudas de si es real o está creado con IA, lo mejor es aclararlo de antemano. Primero, porque no quieres que el foco se desplace del mensaje a la duda: cuando eso pasa, tu comunicación pierde fuerza. Y segundo, porque en nuestro sector la confianza no es un extra: es la base sobre la que se sostiene todo.

Está claro el poder que tiene la inteligencia artificial para crear contenido que puede engañar fácilmente a las personas. Y si aún tienes dudas mira este vídeo donde se advierte de forma muy visual de la necesidad de educarnos para no caer en engaños.

Sin embargo, tampoco queremos que pienses en que hay que “pedir perdón por usar IA”. La inteligencia artificial se puede utilizar, simplemente hay que hacerlo con criterio, de forma honesta y cuidada. Sería algo como decir: “esto se ha creado así”, para que la gente pueda centrarse en lo importante: el mensaje y la causa.

Si, además, estás usando IA para redactar, ordenar ideas o preparar borradores, te puede venir muy bien este otro post sobre cómo usar ChatGPT sin perder la voz de tu entidad.

2. Qué dice el AI Act sobre transparencia en contenidos generados con IA (y por qué importa a las ONG)

 Si estás viendo cada vez más guías, recomendaciones y “códigos” sobre inteligencia artificial, no es casualidad. Hay dos motivos principales:

  • Por un lado, el uso de IA en comunicación se ha normalizado a una velocidad rapidísima y muchas personas ya consumimos contenidos sin tener claro qué es real, qué está editado y qué está generado por una inteligencia artificial. Es lógico que necesitemos orientaciones para no “vivir en la duda” sobre cuándo y cómo avisar de esto.
  • Por otro, porque la Unión Europea ya ha puesto en marcha un marco común y ahora toca traducirlo a práctica: que no se quede en teoría, sino en decisiones concretas a la hora de publicar.

En ese contexto aparece el AI Act (Reglamento europeo de IA), que es la norma que regula el uso de la inteligencia artificial en la Unión Europea. El AI Act está en vigor desde el 1 de agosto de 2024, y se aplica por fases. En lo que nos interesa hoy, relacionado con la transparencia sobre contenido generado o manipulado con IA, las reglas correspondientes comenzarán a aplicarse el 2 de agosto de 2026.

El artículo 50 del AI Act, que está dentro de este reglamento, establece las reglas específicas sobre transparencia. Este artículo dispone que cualquier contenido generado o manipulado por IA debe ser etiquetado de manera clara y accesible, para que las personas puedan identificarlo sin confusión.

Por tanto, el Código de buenas prácticas sobre marcado y etiquetado de contenido generado con IA, impulsado por la Comisión Europea, no es una ley nueva, sino una guía práctica diseñada para ayudar a las entidades a implementar las reglas de transparencia establecidas en el artículo 50 del AI Act. Este Código responde preguntas concretas que muchas entidades os estáis planteando, tales como: “¿Cómo se etiqueta un vídeo generado por IA? ¿Y una imagen? ¿Y un podcast? ¿Y un post informativo?”

Este código y otros que circulan por internet son los que precisamente nos han dado pie a escribir este post. Plantean una serie de buenas prácticas para publicar con transparencia y cuidar la confianza de nuestra comunidad sin convertir cada publicación en una duda constante.

3. Cómo etiquetar contenidos con IA según el formato: vídeo, audio, imagen y texto

Ahora vamos a resumir lo que nos parece más útil del borrador de buenas prácticas de la Comisión Europea y después mostrártelo en ejemplos. Este apartado es, literalmente, un resumen de buenas prácticas del borrador por formato (vídeo, audio, imagen y texto), pensado para equipos que publican contenidos.

Me centro en “quienes publican”, aunque el borrador de buenas prácticas recoge también recomendaciones para proveedores de sistema; si es tu caso, consulta directamente el borrador para esa parte, pues aquí recogemos sólo las buenas prácticas para deployers.

Si publicas contenidos, eres un deployer. Como tal, te afectan algunas obligaciones de transparencia.

En el lenguaje del AI Act, un deployer es: quien usa una herramienta de IA y publica el resultado (aunque la herramienta sea de terceros). Si estás en una ONG, lo habitual es que estés aquí: no desarrollas el modelo, pero sí publicas contenido con él.

Como persona o equipo que publica contenidos generados con la ayuda de la inteligencia artificial si tus contenidos pueden hacer dudar a las personas de si son o no reales, conviene etiquetarlos de forma visible y coherente. Así que vamos a explicarte cómo hacerlo.

  • Cómo etiquetar vídeo generado o manipulado con IA
  • En vídeo, la recomendación es que el aviso esté donde ocurre la acción y llegue pronto. Si lo dejas para el final, mucha gente no llega y el aviso pierde sentido.
  • En redes, suele funcionar con dos capas: un aviso breve en pantalla al inicio y un refuerzo en el copy o descripción. Si el vídeo es largo, la lógica es no depender de un único punto (porque la gente entra y sale).
  • Cómo etiquetar audio con voz sintética o contenido generado con IA

En audio, no puedes confiar en un icono visual.

  • Si hay voz sintética o manipulación realista de voz, el aviso tiene que ser audible y estar al principio.
  • En piezas largas, repetirlo en algún punto tiene sentido (sin pasarte).

3.3 Cómo etiquetar imágenes generadas con IA si pueden confundirse con imágenes reales

Aquí la clave es evitar que la audiencia tenga que “adivinar”.

  • Si una imagen generada tiene estética de foto real o puede circular fuera de contexto (capturas, reenvíos), lo ideal es que el aviso viaje con ella: visible en la propia creatividad o en su presentación inmediata (por ejemplo, en la imagen o en el propio post/carrusel).
    • Cómo etiquetar texto generado con IA en contenidos informativos
  • En texto hay un matiz importante: si lo estás usando para informar al público en temas sensibles o de interés público, la transparencia debe ser fácil de encontrar, es decir, evidente.
  • Y si existe revisión humana y responsabilidad editorial, conviene decirlo, porque cambia completamente cómo se recibe (si añades alguna nota como: “lo hemos revisado”, es parte del valor de tu comunicación). Porque transparencia y voz van de la mano: no se trata solo de avisar, se trata también de que el contenido suene a tu entidad y esté revisado.

4. Ejemplos de etiquetado en contenidos generados con IA (campañas y plataformas)

Ver ejemplos reales ayuda mucho a calibrar qué es “avisar bien” y qué se queda corto.

4.1. Cómo etiqueta Meta imágenes generadas con IA

En este primer ejemplo, puedes ver cómo Meta explica que desde su platafoma se etiquetan imágenes fotorrealistas generadas con IA en Facebook, Instagram y Threads.

Y lo hace con avisos como “Imagined with AI” como los de la imagen de ejemplo. También explica que amplía el etiquetado según detecta indicadores estándar del sector. Este es un buen ejemplo de señalización consistente y evidente dentro de la propia plataforma.

Si utilizas alguno de estos canales y como ocurre en estos casos el propio canal te da herramientas de etiquetado, úsalas. Te quitas trabajo, reduces olvidos y la etiqueta es más estándar para quien consume el contenido.

4.2. Cómo pide YouTube divulgar contenido alterado o sintético

YouTube exige a las personas creadoras etiquetar, cuando divulgan contenido “alterado o sintético” que parezca realista y permite hacerlo durante el proceso de subida.

Esto es útil como referencia práctica, la propia plataforma te da los medios, no hay excusas. Incluso si publicas en otros canales, porque define bien el tipo de contenido que puede confundir (rostros, voces, escenas realistas, cambios significativos).

Cuando una plataforma pone el foco en “parece realista”, está hablando justo del criterio que nos interesa como entidades: evitar confusión.

4.3. Un ejemplo de una campaña generada con IA (y el reto de que el aviso viaje con la pieza)

La campaña de WWF cuenta que fue generada íntegramente con apoyo de IA. Eso, como contexto editorial, suma transparencia.

Ahora bien, si esa creatividad se comparte recortada, reenviada o fuera de contexto, el aviso en el artículo no siempre acompaña a la pieza. Por lo que cuando una imagen puede circular por su cuenta, mejor que el etiquetado esté en la propia creatividad o en su presentación inmediata, además de en la nota de campaña. (No porque “quede bonito”, sino porque protege el mensaje y evita comentarios del tipo: “¿esto es una foto real?” que disipan el mensaje que queremos transmitir).

5. Plantilla descargable para aplicar el etiquetado en tu ONG cuando haces contenidos con IA

Todas estas buenas prácticas y ejemplos que te ayudarán a mantener la confianza de tu audiencia irán cambiando, creciendo y transformándose según avance el mundo de la IA. Rápidamente. Por lo que, más allá del cómo y el qué etiquetar, en todas las entidades deberíamos tener una serie de normas, escritas, para que cuando alguien del equipo use inteligencia artificial en una pieza, sepa qué hacer sin improvisar y sin que dependa de una interpretación personal, de si parece o no parece…

Nosotras queremos compartirte nuestra lista particular, por si te ayuda para adaptarla a tu entidad. Recoge el: cuándo, dónde, cómo, plantillas y revisión rápida de errores frecuentes. Te dejamos un decálogo o resumen práctico para que lo descargues y lo tengas como cabecera para guiarte en el etiquetado de tus contenidos si utilizas la inteligencia artificial para ayudarte o hacerlos completamente.

Título del formulario.

Tu correo electrónico (obligatorio)

¿Para qué tipo de organización trabajas?

¿Qué tipo de contenido te interesa más?

Estrategia de comunicaciónRedes sociales y community managementCómo mejorar técnicamente mi webEmail e inbound marketingFundraising y campañas

Tu entidad hace

Acción directaTrabajo con contrapartesAtención o apoyo a otras entidades en su redIncidencia política y social

Detalles de contacto
Sandra Jiménez