Empieza un nuevo año escolar y con ello llegan nuevas tendencias y herramientas que tener en cuenta a la hora de interactuar con el alumnado. También en el mundo digital. La mayoría de los niños, niñas y adolescentes pasan gran parte de sus días frente a la pantalla, y usan ordenadores y móviles para hacer sus tareas académicas… y para otras muchas cosas.
Por eso, entender qué es lo que están haciendo y cómo podemos ayudarlos a tener una vida digital más sana puede ser muy útil. Desde el rol que está jugando la inteligencia artificial (IA) en las aulas, pasando por el mundillo de las redes sociales, hasta la importancia de la privacidad y ciberseguridad, en Maldita.es hemos recopilado algunas cosas sobre el mundo digital en el que se mueven los menores que pueden ayudarte en esta vuelta al cole.
A un clic, ¿de qué hablamos en este tema? Pincha para ampliar
La inteligencia artificial se hace un espacio en las aulas como una herramienta útil para alumnos y profesores, pero también como arma para el ciberacoso
Como una herramienta útil, pero con límites y responsabilidad
El 82% de los alumnos ya ha utilizado alguna herramienta de IA, según el estudio de 2024 ‘El impacto de la IA en la educación en España’ de Empantallados.com y la consultora de investigación GAD3. La herramienta que más usan es ChatGPT (un 91%); también un 86% de los profesores encuestados.
ChatGPT es un modelo de inteligencia artificial que utiliza el procesamiento de lenguaje natural para entender y responder preguntas o conversaciones. Algunos alumnos lo pueden usar para resolver sus dudas, como preguntarle el significado de una palabra o pedirle que redacte una redacción en inglés. Sin embargo, hay que tener claro algo: los chatbots de cualquier tipo, como ChatGPT, Meta AI o Gemini de Google, no son fuentes fiables de información. La herramienta predice qué palabras van con qué palabras, pero puede mezclar y desordenar la información, o recoger de internet datos incorrectos. Por lo mismo, es importante contrastar siempre sus respuestas. Ahondamos más en esto en este artículo.
Estas herramientas de IA se pueden incorporar en clase, pero “de manera guiada, controlada y contrastada”, como nos indicó Francesc Pujol, profesor de Economía en la Universidad de Navarra, en este programa de Twitch. Y siempre recalcando la importancia de que los estudiantes entiendan los límites: qué no sirve para todo, comete errores y no debe ser utilizada sin verificación (te lo contamos aquí). Otro límite a tener en cuenta es que estas herramientas pueden reflejar los sesgos de género, raza o clase de los desarrolladores o de los datos a partir de los que aprenden (lo analizamos aquí).
Pero no todo son chatbots. El uso de herramientas de creación de imágenes también es extendido: estas nos permiten crear imágenes a partir de una instrucción de texto o prompt. Su evolución permite que sean cada vez más realistas, como la imagen del papa con un abrigo de plumas, y que se puedan utilizar para manipular o engañar. De hecho, aquí te contamos que en 2024 un 74,9% de los españoles decía estar muy preocupado por la manipulación de imágenes para crear contenido falso, según el Centro de Investigaciones Sociológicas (CIS).
Puedes echar un vistazo a los consejos de Maldita.es para reconocer vídeos, audios e imágenes generadas con IA. Pero ten en cuenta que, a medida que avanza la tecnología, es cada vez más difícil distinguirlos.
Como un arma para el ciberacoso
Son justamente estas herramientas de creación de imágenes las que se están usando para el ciberacoso. Su uso más extendido es la generación de deepfakes (vídeos hiperrealistas manipulados con IA) o imágenes de carácter sexual, donde se incorporan el rostro o cuerpo de la víctima en un contenido pornográfico. Esto ha pasado con menores de edad: hay cientos de casos de ello en Corea del Sur, en los que son adolescentes en centros educativos los que crean ese contenido de sus propias compañeras. España tampoco se libra de esto: se han registrado casos en distintos lugares del país, como en Almendralejo (Extremadura, 2023), en Sevilla (Andalucía, 2024), y recientemente en Ribera Alta (Comunidad Valenciana, 2025). Ojo, aquí te contamos qué hacer si nos pasa a nosotros a un menor a nuestro cargo.
La IA también se está utilizando para crear perfiles falsos, con el objetivo de difamar o suplantar a la víctima, o para generar memes o stickers humillantes. Todo esto puede tener graves consecuencias en los menores afectados, que pueden experimentar sentimientos de ansiedad, estrés, depresión, culpa e inseguridad, además de dudar de su propia percepción de la realidad por la disonancia que produce el contenido generado con IA. Así que fomentar la educación tecnológica y sexoafectiva, y promover una mirada crítica ante el contenido generado es una buena idea. Te contamos todos los detalles en este artículo.
Tendencias, contenido sexual y oversharing en redes sociales: el impacto de todo esto en la salud física y mental de los menores
Las tendencias a vigilar
Como sabrás, las redes sociales son un mundo. Uno en el que el algoritmo puede recomendarte cosas que quizá no deberían llegar nunca a tus alumnos. Por lo mismo, queremos contarte cuáles son esas tendencias con las que creemos que hay que tener especial ojo.
En TikTok abundan los retos virales peligrosos, el contenido machista y de control a la pareja y las dinámicas que pueden ser adictivas. Por eso, hemos recopilado todo en un cajón desastre que puedes consultar aquí. Entre ellos, están los vídeos que promueven la alimentación desordenada y la pérdida de peso peligrosa (pese a estar prohibido en la plataforma), lo que puede llevar a adolescentes a desarrollar trastornos alimenticios (te lo contamos en aquí). El culto al cuerpo también está presente en el coaching para “bros”, donde influencers como Llados venden cursos de cientos de euros a sus seguidores, en ocasiones menores, para “convertirse en millonarios”, lo que tiene consecuencias en la salud física, mental y financiera de ellos, como te contamos aquí.
Otro gran tema es la exposición de menores a contenido sexual en redes sociales.