Tema
Implicaciones para la democracia de las modificaciones de la política de verificación y moderación de contenido de Meta, y respuesta de la Unión Europea.
Resumen
El año 2025 ha arrancado con cambios en la política de verificación y moderación de contenido de Meta, justificándolos como un compromiso con la libertad de expresión. El anuncio llega tras años de un marco legal relajado, que imponía muy pocas obligaciones legales a las plataformas respecto al contenido que se publicaba en ellas, y que comenzó a hacerse más estricto con la aprobación del Reglamento de Servicios Digitales europeo. Las nuevas políticas de Meta, según Mark Zuckerberg, buscan reducir el papel de la empresa como árbitro de la verdad, aunque sus algoritmos siguen determinando el contenido que se amplifica en sus redes, impactando directamente en la conversación social. De esta manera, el anuncio de Meta subraya la necesidad de replantear el papel de las grandes tecnológicas en la democracia. Por su parte, la respuesta de la Unión Europea (UE) debería ser decidida y apostar por las herramientas ya existentes, explorar alternativas tecnológicas alineadas con valores europeos y abrir un debate participativo sobre la gobernanza digital. La UE tiene la oportunidad de liderar un modelo de sociedad digital que priorice los valores democráticos y el bien público. Para ello, un debate amplio, inclusivo y abierto sobre el futuro de la sociedad digital, la libertad de expresión y la plaza pública es imprescindible.
Análisis[1]
El 7 de enero de 2025, un día después del cuarto aniversario del asalto al Capitolio, Mark Zuckerberg publicó un vídeo anunciando cambios de calado en las políticas de moderación de contenido de su empresa, Meta. El CEO y fundador introducía estas medidas aludiendo a su férrea defensa de la libertad de expresión, los errores que cometían los complejos sistemas de moderación de contenido aplicados desde 2016 y su ambición por acabar con la censura en sus plataformas digitales. Aludía así a los principios y valores que defendían los ciber-libertarios de los orígenes de internet, entre los que destacaba la libertad de expresión.
Meta es un conglomerado de empresas de tecnología digital que agrupa algunas como Facebook, Instagram, Whatsapp y Facebook Messenger. La capitalización de mercado del grupo a 10 de enero se movía alrededor de los 1,5 billones de dólares (mayor que el PIB de Bélgica, Dinamarca e Irlanda juntos en 2023). En abril de 2024, sólo Facebook contaba con más de 3.000 millones de usuarios activos mensuales, algo menos de un 40% de la población mundial, y con 2.000 millones adicionales tanto en Instagram como en Whatsapp. Por ello, su política de moderación de contenido y el discurso en las plataformas tiene un efecto nada despreciable.
En su anuncio, Zuckerberg detalla las medidas que Meta va a acometer en seis puntos: (1) la supresión de los equipos de verificadores de datos (fact-checkers) en Estados Unidos (EEUU) y su sustitución por notas de la comunidad, al igual que las ya existentes en X; (2) la simplificación de las políticas de contenido que establecen qué está permitido o no, eliminando restricciones en temas como el género y la inmigración; (3) la recalibración de los filtros utilizados para escanear el contenido publicado en las plataformas e identificar aquellos posts que no están permitidos; (4) la reincorporación de las recomendaciones de contenido político en el feed de los usuarios; (5) la reubicación de los equipos de confianza, seguridad y moderación de contenido de California a Texas, donde su imparcialidad se supone estará más garantizada; y, por último, (6) la cooperación con la Administración Trump para proteger la libertad de expresión en el mundo. En este último punto, Zuckerberg mencionaba la “censura institucionalizada” que tiene lugar en Europa, así como la creciente censura de la Administración Biden que había dificultado el trabajo conjunto en los últimos cuatro años.
A finales de enero, la actuación de Meta ya ha provocado una reacción en cascada: Google y Microsoft han informado a la UE que abandonan sus compromisos de verificación de datos en parte de su negocio. TikTok, por su parte, condiciona su cumplimiento a la actuación de empresas que proporcionen servicios similares.
1. El marco legal y político: más obligaciones morales que jurídicas
Para entender el efecto de las propuestas, conviene repasar cuál es el marco legal y político en el que se enmarca la decisión. En EEUU, la ley más importante que regula la responsabilidad del contenido publicado en internet es la Ley sobre la Decencia de las Comunicaciones (Communications Decency Act) de 1996. Su artículo 230 exime a las plataformas de responsabilidad sobre el contenido que sus usuarios deciden publicar libremente en ellas, aunque sí pueden moderarlo. Por lo tanto, las plataformas pueden escoger ser, de alguna manera, vehículos “pasivos” que simplemente transmiten información. Con el aumento de los discursos de odio en plataformas digitales, la desinformación, así como la difusión de teorías de la conspiración y su traslación al mundo físico, el paradigma cambió relativamente en 2016. Tras las elecciones estadounidenses, en las que Donald Trump ganó por primera vez y Meta (entonces aún Facebook) se vio salpicada por el escándalo de Cambridge Analytica, la compañía introdujo un programa de verificación de datos para asegurar la veracidad de afirmaciones publicadas en sus redes, cubriendo en octubre de 2023 contenido publicado en más de 60 idiomas con la ayuda de 100 organizaciones externas. Esto se complementaba con sus Normas de Contenido y Publicidad, que indican qué tipo de contenido y comportamiento está prohibido, y aquel que irá acompañado de advertencias.
Aun así, los esfuerzos de Meta han estado sometidos a amplias críticas. Por un lado, los moderadores y verificadores de contenido están expuestos de manera constante a imágenes y vídeos altamente impactantes, con efectos en su salud mental y con una remuneración muy precaria pese a la crudeza de su labor y a los altos salarios del resto de empleados. Algunos de ellos han experimentado insomnio, ansiedad y estrés postraumático. Por otro lado, las políticas de Meta estaban lejos de cumplir plenamente su función. Muchos de sus usuarios no estaban protegidos por la política de verificación de datos y contenido al excluir buena parte de los idiomas de los países en los que Meta opera. Su ineficacia y las graves consecuencias de ésta, quedó patente cuando afloró información sobre el papel de Facebook como red social en la organización y promoción del genocidio contra la población Rohingya en Birmania. Sin embargo, el mayor golpe ocurrió en 2021. En ese año, el Wall Street Journal publicó los Archivos de Facebook basados en documentos internos que la exempleada de la empresa, Francis Haugen, había extraído de la compañía. Estos reflejaban la evidencia disponible y el conocimiento de Facebook sobre las limitaciones de sus programas, ejemplificados en su papel en conflictos religiosos en la India, la “inmunidad” de usuarios VIP a la aplicación de políticas de moderación de contenido y el daño causado por Instagram en la salud mental de chicas adolescentes. Esto último llevó a la compañía a testificar en el Congreso de EEUU tras la revelación de los Archivos de Facebook y al cambio de nombre de la compañía al actual Meta.
Pese a sus fallos, muchos de ellos ampliamente reportados, los esfuerzos de Meta eran puramente voluntarios. Las primeras obligaciones legales impuestas sobre las plataformas con respecto a los discursos de odio y la desinformación en internet aparecen con el Reglamento de Servicios Digitales (DSA, por sus siglas en inglés) de la UE de 2022, que entró plenamente en vigor en febrero de 2024. Anteriormente, en 2018, plataformas como Google, Facebook o Twitter se comprometieron voluntariamente con el Código de Buenas Prácticas en materia de Desinformación de la Unión Europea, adhiriéndose Microsoft y TikTok más tarde, y saliendo X (antes Twitter) en 2022. De esta manera, las plataformas reportan regularmente sus esfuerzos contra la desinformación. Sin embargo, en EEUU ha habido que esperar hasta 2024 para que el Senado apruebe una de las primeras normas que imponen obligaciones adicionales a las plataformas a través de la Ley de Protección de Menores en Internet (Kids Online Safety Act). Su futuro es aún incierto, ya que no ha sido aprobada por la Cámara de Representantes y hay dudas sobre las enmiendas que se propusieron antes de finales de 2024. Por tanto, en muchas jurisdicciones, las obligaciones legales y exigibles a las plataformas sobre el contenido publicado en las mismas son muy limitadas. Hasta ahora, era mucho mayor la presión mediática, social y moral que la legal.
A este contexto jurídico se añaden también otros acontecimientos que han tenido lugar en los últimos meses en EEUU y que sin duda han desempeñado un papel importante en la deriva de Meta. En agosto de 2024, Donald Trump afirmaba que el CEO de Meta había actuado en su contra en las elecciones de 2020 y amenazaba con posibles causas legales. Las elecciones de noviembre, que han resultado en la reelección de Trump como presidente de EEUU, han supuesto según el propio Zuckerberg un “punto de inflexión cultural”. Como resultado, Zuckerberg ha sido uno de los muchos magnates tecnológicos presentes en la ceremonia de toma de posesión de Donald Trump. Entre ellos estaba Elon Musk, uno de los principales aliados de Trump en la carrera por la Casa Blanca. Además de ser el hombre más rico del planeta, Musk compró Twitter en 2022 y un mes más tarde desmanteló gran parte de los equipos de moderación. El tándem Trump-Musk ha marcado una línea clara para el resto de los actores sobre cuál es la concepción de libertad de expresión favorecida por la nueva Casa Blanca. Con su comunicado estratégicamente difundido semanas antes del comienzo del nuevo mandato de Trump, Zuckerberg ha optado por subirse al carro y abanderar la libertad de expresión.
2. Efectos sobre la democracia: el arbitraje del discurso público
Más allá de las obligaciones legales de Meta y las motivaciones políticas que el anuncio haya podido tener, es importante no perder de vista sus posibles efectos sobre la democracia. Zuckerberg argumenta que las plataformas y, más concretamente, los verificadores de datos y moderadores de contenido no deberían convertirse en árbitros de la verdad decidiendo qué contenido es apto o no para alojarse en su red social. Por lo que, reviste de libertad de expresión y discurso democrático el repliegue voluntario y oportunista de las plataformas dentro de la plaza pública para reducir su intermediación y alteración del discurso que se amplifica en ellas.
Sin embargo, hay una contradicción fundamental en la decisión y argumentación que propone Zuckerberg. En primer lugar, no se ajusta a la verdad. Según sus propias normas, los verificadores de contenido revisan las publicaciones, a veces apoyados por otros sistemas como la identificación de palabras clave. El contenido se califica como falso o no según su fiabilidad y la consulta de las fuentes primarias para que la plataforma reduzca su distribución. En varias páginas corporativas, Meta explicita que los verificadores individuales no eliminan publicaciones, páginas o cuentas. Por tanto, la parcialidad y censura a la que hace referencia Zuckerberg no es correcta según el proceso oficial. El contenido que se elimina en la red social es aquel que infringe las Normas Comunitarias y las Políticas de la propia plataforma. Desde el día 7, éstas han cambiado y, entre otras, permiten “alegaciones de enfermedad mental o anormalidad basadas en el género o la orientación sexual”.
En segundo lugar, la contradicción surge de un argumento fundamentalmente cojo. Zuckerberg está renegando del papel de las plataformas tecnológicas y, especialmente, las redes sociales, como la nueva plaza pública. Meta, sus algoritmos y, por tanto, sus ingenieros, son árbitros de la verdad en la medida que recomiendan contenido e impulsan unas publicaciones u otras en los feeds de los usuarios en función de la interacción que pueden generar. Este diseño prioriza publicaciones que tienden a ser incendiarias y polarizadoras, al ser las que más atención captan, y a promover reacciones impulsivas. De este modo, las plataformas sí actúan como árbitros y gatekeepers,[2] si no de la verdad, del discurso público. Sus algoritmos y decisiones corporativas tienen efecto en la conversación social, el pensamiento y el comportamiento de la población. Hay ejemplos sobrados de ello, incluyendo el ya mencionado asalto al Capitolio el 6 de enero de 2021, que acabó directa o indirectamente con la vida de nueve personas y más de 1.500 acusados por delitos incurridos en ese acto a los que Trump ha indultado inmediatamente en su primer día como presidente. La reciente suspensión de los resultados de las elecciones presidenciales rumanas por sospechas de injerencia extranjera a través de TikTok, Facebook y Telegram evidencian de nuevo que las plataformas y su contenido tienen un impacto directo sobre la democracia.
Por lo tanto, es importante destacar que, con las medidas anunciadas, Meta y otros actores clave están rechazando su responsabilidad sobre la conversación pública, mientras que disfrutan de los beneficios de monopolizarla y amplificarla. Por un lado, renuncian a la responsabilidad que afecta negativamente a su cuenta de resultados a través de la contratación de equipos que revisan contenido; por el otro, mantienen su control sobre la promoción de voces y discursos con un alto componente viral que pueden monetizar. Son derechos sin obligaciones.
3. La respuesta de la UE: tres líneas de actuación
Frente a todo ello, la UE debería actuar siguiendo tres líneas principales: primero, reafirmándose y utilizando las herramientas que tiene a su disposición; segundo, explorando posibles alternativas que puedan disputar la hegemonía única de las plataformas estadounidenses y sus preceptos; y tercero, fomentando una reflexión democrática y abierta que ponga negro sobre blanco el tipo de sociedad digital que queremos construir.
En primer lugar, la UE no debería ser un observador y mucho menos doblegarse. Donald Trump muy probablemente presionará a la Unión a petición de las grandes tecnológicas por sus investigaciones de posibles infracciones del Reglamento de Mercados Digitales (DMA, por sus siglas en inglés), la norma europea que trata de preservar la competencia en los mercados digitales. Estas presiones posiblemente se repetirán en relación con toda la legislación digital que apruebe y aplique la UE, como el ya mencionado DSA, que busca crear un espacio digital más seguro y que tiene a X en el punto de mira, o el Reglamento de Inteligencia Artificial. Aun así, la UE tiene que ser capaz de hacer frente con decisión a estos retos y provocaciones, tanto del gobierno estadounidense como de las tecnológicas y sus CEO.
En el caso de Meta, la desinformación y los discursos de odio, la UE dispone del DSA y debe aplicarlo enteramente. Estamos aún en los primeros compases de la aplicación de la legislación digital aprobada en la última legislatura europea. Si la UE se “amedrenta” ante la nueva Casa Blanca, perderá su credibilidad y fortaleza como poder regulatorio y como defensora de un modelo alternativo de gobernanza digital. Por ello, la UE debe reafirmarse en sus compromisos a través de las herramientas de las que se ha dotado en los últimos años.
En segundo lugar, la UE debe apoyar otras iniciativas que se alineen con los valores europeos si lo considera necesario. Como ejemplo de iniciativas alternativas, en los últimos días ha surgido Free our Feeds, una propuesta apoyada por personalidades del mundo tecnológico y que cubre los ámbitos político, académico, empresarial, técnico y mediático. La iniciativa busca formar un ecosistema digital que proteja la “plaza pública digital” ya que “la infraestructura social gestionada en el interés público no puede ser gobernada por una compañía privada”. Pretende crear una fundación que use el protocolo en el que se basa la red social Bluesky y construir un ecosistema alte