- Centros educativos, instituciones y colectivos realizan un esfuerzo adicional este año para llenar febrero de ciencia, organizando más de 300 eventos.
- Las mujeres STEM (ciencias, tecnología, ingeniería y matemáticas) siguen estando infrarrepresentadas en los pilares principales.
La décima edición de la Iniciativa 11 de Febrero se celebrará durante todo el mes de febrero de 2026. Este año acogerá más de 300 eventos; cerca del 75% se celebrará en centros educativos. Se puede consultar el listado de todas las charlas concertadas clicando aquí.
La Iniciativa 11 de Febrero lleva diez años realizando un gran esfuerzo, junto con el resto de la comunidad científica, para unir cada año el ámbito STEM y el educativo, con iniciativas como #EnClase11F, considerando el aula como un ámbito muy importante en el que combatir la brecha de género en el mundo de la ciencia.
A estas actividades se suman los #Centros11F, los cuales organizan internamente sus propias actividades alrededor de esta celebración, y que suman 50 eventos.
Por supuesto, este año no falta la fuerza de instituciones no educativas, que han hecho un mayor esfuerzo para poder organizar las #Actividades11F, gymkanas, exposiciones, charlas, talleres, documentales, etc. En total se han apuntado, a fecha de hoy, más de 50 instituciones. Todos los eventos organizados en el marco del 11F se pueden consultar clicando aquí. Por supuesto, y al igual que en otras ediciones, se puede seguir en redes sociales los hashtags #actividades11F, #actividad11F, #centro11F, #11F2026 para estar totalmente al día de las actuaciones organizadas por todas las instituciones que participan en esta celebración.
Por último, pero no menos importante, es necesario nombrar a las tiendas que, un año más, llenarán sus escaparates de Mujeres y Ciencia mediante los #escaparates11F.
Los sesgos de género en Inteligencia Artificial
Este año, la iniciativa 11 de febrero quiere centrar su atención en los sesgos de género en la Inteligencia Artificial (IA).
La IA se ha convertido en uno de los pilares fundamentales de la sociedad actual, transformando profundamente la forma en que trabajamos, nos comunicamos y tomamos decisiones. Su crecimiento en las últimas décadas ha sido exponencial: desde los primeros sistemas capaces de realizar tareas simples hasta los actuales modelos avanzados que pueden analizar grandes volúmenes de datos, generar contenido, diagnosticar enfermedades o conducir vehículos autónomos. Hoy, la IA está presente en casi todos los ámbitos: la educación, la salud, la economía, la industria o la vida cotidiana.
Sin embargo, la IA no es neutral: sus algoritmos aprenden de los datos que les proporcionamos y, con ellos, replican los prejuicios y desigualdades de la sociedad, especialmente los de género. Los sesgos pueden surgir debido a varios factores; por datos de entrenamiento desequilibrados, etiquetas influenciadas por estereotipos, diseños creados desde perspectivas limitadas o la falta de diversidad en los equipos que desarrollan la tecnología.
Es por esto, que los algoritmos pueden reproducir y amplificar los prejuicios existentes en la sociedad. Cuando la IA aprende de datos desiguales, construidos en entornos donde predominan hombres, se refuerzan estereotipos y obstáculos para las mujeres.
Expertas advierten que no se trata solo de un fallo técnico, sino de un reflejo de cómo diseñamos las herramientas. La investigación identifica varios factores clave que provocan estos sesgos: la subrepresentación de mujeres en equipos de desarrollo, los datos de entrenamiento dominados por experiencias masculinas, y la falta de transparencia en los modelos algorítmicos. Por ejemplo, los sistemas de reconocimiento facial muestran peores resultados para mujeres de piel oscura, lo cual evidencia que la discriminación digital es real.
El ámbito laboral es especialmente vulnerable: en procesos de selección automatizados ya se han detectado sesgos que penalizan currículos femeninos o asocian automáticamente trabajos de mayor prestigio a hombres. Estas desigualdades se trasladan también al sector sanitario, financiero o judicial, donde la IA replica patrones discriminatorios que afectan a mujeres y otros grupos menos representados.
Para avanzar hacia una IA más justa, es imprescindible adoptar medidas concretas:
- Utilizar datos diversos y representativos de todas las identidades de género.
- Garantizar transparencia y trazabilidad de los modelos y sus decisiones.
- Contar con equipos de desarrollo inclusivos que integren múltiples perspectivas.
- Implementar marcos éticos y regulaciones que acompañen el diseño tecnológico con exigencia.
- Incorporar de forma transversal la perspectiva de género en cada fase de creación de la IA.
La igualdad no debe quedar al margen de la revolución tecnológica. Lo que se construye hoy en forma de algoritmos, se convierte mañana en decisiones cotidianas que afectan oportunidades, derechos y vidas. Para evitar que la IA reproduzca la historia de la desigualdad, debemos intervenir con conciencia crítica, regulación sólida y visión inclusiva.
Es por todo ello, que esta edición 2026 de 11F se centra en los sesgos de género en la IA. La ilustradora que ha hecho posible representar este tema ha sido Ame Soler de “Tres voltes Revel”
https://tresvoltesrebel.bigcartel.com/. “Tres voltes revel”, es un proyecto artístico valenciano, pensado para transmitir un mensaje reivindicativo y feminista a través de la ilustración.
Mediante su ilustración, Ame Soler busca transmitir un mensaje de esperanza. En ella se representa un futuro tecnológico en el que las mujeres también tendrán presencia en el ámbito de la programación y en el desarrollo de nuevas inteligencias artificiales.https://11defebrero.org/imagen-de-la-iniciativa-11f-2026/
Más información:
https://11defebrero.org/inteligencia–artificial-y–sesgos–de–genero/
- Flores Anarte, L. «Sesgos de género en la Inteligencia Artificial: El Estado de derecho frente a la discriminación algorítmica por razón de sexo». Revista Internacional de Pensamiento Político, vol. 18, 2023, págs. 95-120. Universidad Pablo de Olavide+1
- Perdomo Reyes, I. «Injusticia epistémica y reproducción de sesgos de género en la inteligencia artificial». Revista Iberoamericana de Ciencia, Tecnología y Sociedad – CTS, 2024.
- Pérez-Ugena Coromina, M. «Sesgo de género (en IA)». EUNOMÍA. Revista en Cultura de la Legalidad, núm. 26, 2024, págs. 311-330.
- Morffi Collado, C. L. & Bravo Placeres, I. «Sesgos de género en la selección laboral con inteligencia artificial: desafíos y soluciones».
Para obtener más información y/o realizar entrevistas, por favor, escribidnos un correo electrónico a la dirección contacto@11defebrero.org y daremos respuestalo antes posible.
Si quieres permanecer al día sobre la Iniciativa 11 de Febrero, apúntate a su boletín de noticias:
https://cutt.ly/wj10aoW