🌐 Módulo 6

Módulo 6: Violencia de género en línea y formas de violencia posibilitadas por la inteligencia artificial

Te damos la bienvenida a este módulo sobre la violencia de género en línea y las formas de violencia posibilitadas por el uso de la inteligencia artificial. Este módulo explora las dinámicas de la violencia de género en la red y examina el doble papel que desempeña la inteligencia artificial, que puede utilizarse tanto para cometer estas violencias como para combatirlas.

🏛️ Socio responsable: Universidad de Oldenburg

📖

Panorama del módulo

Te damos la bienvenida a este módulo sobre la violencia de género en línea y las formas de violencia posibilitadas por el uso de la inteligencia artificial.

Este módulo explora las dinámicas de la violencia de género en la red y examina el doble papel que desempeña la inteligencia artificial, que puede utilizarse tanto para cometer estas violencias como para combatirlas.

🎯

Objetivos de aprendizaje del módulo

Al finalizar este módulo, serás capaz de:

  • Identificar las principales formas de violencia de género en línea y las formas de violencia posibilitadas por la inteligencia artificial.
  • Comprender la continuidad entre las dinámicas de violencia en línea y fuera de línea y cómo los abusos pueden escalar.
  • Analizar el doble papel que desempeña la inteligencia artificial en perpetuar o mitigar la violencia de género.
  • Aplicar algunas estrategias para proteger la seguridad digital y ofrecer apoyo en el ámbito de la animación socioeducativa.
Unidad 1

💻 Violencia de género en línea

Hoy en día, Internet desempeña un papel central en la forma en que las personas jóvenes construyen vínculos, se comunican y se descubren a sí mismas. Pero, junto con estas oportunidades, los espacios digitales también presentan riesgos serios, especialmente para las niñas, las jóvenes, quienes se identifican con la comunidad LGBTIQA+ y otros grupos marginados. La tecnología no es neutral. A veces puede ser una ayuda valiosa, pero también puede utilizarse para controlar, exponer públicamente o hacer daño.

Por violencia de género en línea se entienden todas aquellas acciones violentas llevadas a cabo a través de las tecnologías digitales que se dirigen a las personas en función de su género, su identidad de género o su orientación sexual. Según el Instituto Europeo para la Igualdad de Género (European Institute for Gender Equality – EIGE), más de la mitad de las mujeres jóvenes (52%) de la Unión Europea ha sufrido esta forma de violencia, en forma de amenazas, acoso o el intercambio no consensuado de imágenes íntimas (EIGE, 2022). Las personas jóvenes LGBTIQA+, pertenecientes a minorías étnicas o con discapacidad son un objetivo aún más expuesto.

Algunas formas de violencia de género en línea tienen gran visibilidad, como los comentarios de odio o las imágenes manipuladas. Otras están ocultas o se consideran aparentemente “normales”, como el control de mensajes por parte de la pareja o los intentos de ganarse la confianza de una persona para cometer un abuso. Sin embargo, todas las formas de violencia de género en línea pueden tener un profundo impacto emocional, psicológico y físico. Además, a menudo estos abusos se trasladan del ámbito virtual al real.

Esta sección presenta las siete principales formas de violencia de género en línea que las animadoras y los animadores socioeducativos deberían poder reconocer. Cada una de estas formas se ilustra con definiciones sencillas y ejemplos tomados de las plataformas más populares entre las personas jóvenes, como WhatsApp, TikTok, Discord o Instagram. Reconocer las señales es el primer paso para prevenir daños y ofrecer apoyo.

🧾 Siete principales formas de violencia de género en línea

1. Ciberacoso persistente (cyberstalking)

El uso de la tecnología para vigilar las actividades o la ubicación de una persona sin su consentimiento. Esta forma de violencia se traduce en rastrear los movimientos de una persona mediante aplicaciones GPS como Snap Map, controlar de forma obsesiva su estado en línea o compartir contraseñas para acceder a chats y mensajes privados.

Ejemplo: una chica sigue siendo controlada por su ex, que rastrea su ubicación en Snap Map, a pesar de que su relación ha terminado y ella lo ha bloqueado en Instagram.

2. Acoso informático

Mensajes repetidos e indeseados, de carácter agresivo o amenazante, de contenido sexual o humillante, enviados a través de mensajes privados, chats de grupo o perfiles anónimos. El contenido puede volverse cada vez más grave.

Ejemplo: un estudiante recibe una nota de voz de un compañero de clase que lo insulta y amenaza con revelar sus secretos.

3. Ciberacoso escolar (cyberbullying)

La continuidad de acciones especialmente crueles contra una persona menor de edad, normalmente llevadas a cabo por el grupo de iguales. Estas acciones incluyen la creación de memes, imitaciones, humillaciones públicas o la exclusión de espacios digitales (por ejemplo, grupos de WhatsApp, historias privadas).

Ejemplo: un grupo difunde memes para burlarse del cuerpo de una compañera, etiquetándola en los comentarios en TikTok.

4. Discursos de odio en línea vinculados al género

Expresiones amenazantes y violentas de intolerancia dirigidas contra una persona por su género, su orientación sexual o su identidad de género. A menudo el uso de estas expresiones tiende a “normalizarse” y minimizarse como ironía, memes o bromas. Sin embargo, estos comentarios pueden tener un fuerte impacto psicológico.

Ejemplo: en un servidor de Discord, a una persona joven no binaria se le llama constantemente usando marcadores de género incorrectos y, cuando comparte sus pronombres, es insultada.

5. Pornovenganza o difusión no consensuada de imágenes íntimas

Compartir o amenazar con compartir imágenes o vídeos íntimos sin el consentimiento de la persona afectada. Puede tratarse tanto de fotos reales como de contenidos producidos con IA, como los deepfakes.

Ejemplo: alguien comparte una foto desnuda enviada en privado o crea un vídeo deepfake y lo hace circular en un foro anónimo.

6. Grooming o captación en línea

Ocurre cuando una persona construye deliberadamente una relación de confianza con una persona menor de edad a lo largo del tiempo, contactándola en línea para manipularla o explotarla sexualmente. Quien capta suele fingir tener la misma edad o halaga a la persona con regalos, atenciones o cumplidos.

Ejemplo: una chica de 14 años que juega a videojuegos es invitada a un chat privado por alguien que le hace cumplidos y luego le pide que comparta fotos y secretos.

Nota: a menudo la víctima es captada con cumplidos, mientras que las amenazas y los chantajes aparecen más tarde. Las personas jóvenes podrían no darse cuenta de que están siendo manipuladas.

7. Doxxing o divulgación no autorizada de información personal

La divulgación pública de los datos personales de una persona (nombre, dirección, número de teléfono, escuela) con el objetivo de intimidar o incitar a otras personas a atacar a la víctima. A menudo este comportamiento sigue a disputas en línea o se dirige contra personas comprometidas socialmente o que comparten sus historias de coming out.

Ejemplo: después de que una persona joven comparta una publicación sobre los derechos LGBTIQA+ en TikTok, un troll decide publicar su dirección de casa en los comentarios.

Por qué es importante para quienes trabajan en animación socioeducativa

La violencia de género puede adoptar distintas formas, pero todas pueden afectar a la salud mental, la confianza, la seguridad y la libertad de la persona joven. Quienes trabajan en animación socioeducativa o en el ámbito escolar desempeñan un papel fundamental para reconocer señales de alerta, crear un entorno digital seguro y ayudar a las personas jóvenes a identificar conductas de riesgo. La figura 1 resume todas las formas de violencia de género en línea.

Diagrama que muestra las formas de violencia digital en línea
Figura 1. Las formas de violencia digital
📊 Tabla 1. Formas de violencia de género en línea
Forma Definición Ejemplos Estrategias para la animación socioeducativa Escenario
Ciberacoso persistente y vigilancia digital Control constante e indeseado mediante el uso de aplicaciones de monitoreo, GPS o control de accesos para rastrear los movimientos o las actividades en línea de una persona. Rogers et al. (2022) identifican algunas tácticas comunes, entre ellas el uso de spyware, el intercambio de contraseñas y el aprovechamiento de las opciones ofrecidas por aplicaciones como “Encontrar mi dispositivo”. Preguntar a las personas jóvenes si conocen los peligros de las aplicaciones ocultas o de compartir sus credenciales. Promover un análisis de las tecnologías y de los límites digitales. Una adolescente cuenta que, aunque rompió con su ex, él todavía conoce sus desplazamientos, aunque ella haya bloqueado su contacto.
Acoso informático Envío repetido de amenazas, insultos o contenidos degradantes a través de plataformas digitales. Henry & Powell (2018) indican que los abusos en línea a menudo imitan las mismas dinámicas de la violencia íntima tradicional, especialmente en lo que respecta a las rupturas. Ayudar a las personas jóvenes a conservar las pruebas, denunciar los mensajes en las plataformas y gestionar las consecuencias negativas. Un estudiante recibe a diario notas de voz agresivas de un compañero de clase en el chat de grupo.
Ciberacoso escolar (cyberbullying) Acoso o humillaciones sufridas en línea por personas menores de edad, a menudo a manos de estudiantes de su misma escuela o de su misma edad. Según Stonard et al. (2014), las tecnologías amplifican el alcance del acoso, ya que no se limita al entorno escolar, sino a la vida entera de la persona. Fomentar la aplicación de normas de convivencia entre iguales; usar juegos de rol para reforzar la empatía y las capacidades de intervención. Un grupo de chicas crea memes sobre el cuerpo de una compañera de clase y los comparte en Snapchat.
Discursos de odio en línea relacionados con el género Uso de una retórica agresiva y denigrante hacia una persona debido a su género o identidad de género. Según Powell et al. (2022), las mujeres y las personas de la comunidad LGBTIQA+ sufren discursos de odio caracterizados por expresiones múltiples de intolerancia (p. ej., una combinación de sexismo y homofobia). Preparar a las personas jóvenes para reconocer y responder al odio, no solo ignorarlo y seguir adelante. Unǝ adolescente no binariǝ es insultadǝ constantemente en un servidor de Discord para personas aficionadas a los videojuegos.
Difusión no consensuada de imágenes íntimas (pornovenganza) Compartir imágenes o vídeos íntimos sin el consentimiento de la persona retratada. Las víctimas suelen ser exparejas o personas del grupo de iguales. Lippman & Campbell (2014) demostraron que a menudo las y los adolescentes sufren presiones para enviar imágenes de desnudos que, con frecuencia, se redistribuyen sin su consentimiento. Enseñar a las personas jóvenes cuáles son sus derechos, ayudarles a comprender el concepto de consentimiento y las consecuencias emocionales asociadas a compartir imágenes íntimas. Un chico amenaza con publicar las fotos de su ex si ella no accede a hablar con él de nuevo.
Captación en línea (grooming) Conjunto de conductas destinadas a manipular a una persona menor de edad para que confíe o desarrolle una relación de dependencia con el fin de obtener favores sexuales. Según Wolak et al. (2008), la mayoría de los casos de captación en línea comienza con cumplidos y se transforma poco a poco en manipulación. Subrayar que quien comete abusos no solo construye una relación de confianza, sino que también utiliza amenazas; trabajar también la alfabetización mediática. Un chico de 15 años es invitado a un chat privado por una persona desconocida que le promete recompensas durante el juego.
Tabla 1. Formas de violencia de género en línea
Unidad 2

🤖 El papel de la inteligencia artificial en la violencia de género

La inteligencia artificial está cambiando nuestra forma de comunicarnos, interactuar y acceder a la información, especialmente dentro de los espacios digitales donde las personas jóvenes pasan mucho tiempo. Sin embargo, pese a sus beneficios, la inteligencia artificial también está transformando la manera de cometer delitos como la violencia de género.

Esta unidad examina cómo la inteligencia artificial puede utilizarse para facilitar abusos o apoyar iniciativas de prevención y lucha contra la violencia de género. Ofrece ideas prácticas para quienes trabajan en animación socioeducativa o enseñan en escuelas, para que puedan familiarizarse con las herramientas, los riesgos y las oportunidades que representa la inteligencia artificial.

La unidad subraya, además, los dilemas éticos vinculados al uso de sistemas automáticos en contextos delicados como la asistencia psicológica y reflexiona sobre los límites de los enfoques actuales adoptados para diseñar herramientas de inteligencia artificial, en particular aquellas que no aprovechan las aportaciones de las personas jóvenes o de las comunidades marginadas.

Además, las formas de violencia de género posibilitadas por sistemas de inteligencia artificial no deberían considerarse un fenómeno completamente nuevo. Se trata, de hecho, simplemente del uso de nuevos canales digitales para perpetrar la violencia. La violencia de género ocurre de manera continua tanto en línea como fuera de línea, ya que muchas de las amenazas que vemos ahora en la red —como los mecanismos de vigilancia, la coerción o la difusión no consensuada de imágenes íntimas— reflejan dinámicas de poder y control presentes en la vida cotidiana. La tecnología no inventó estos comportamientos, pero sí los ha amplificado, automatizado y difundido, a menudo de una manera que los hace difíciles de detectar o afrontar.

⚠️ La inteligencia artificial como herramienta capaz de amplificar la violencia de género

La inteligencia artificial puede ser una herramienta poderosa, pero como muchas tecnologías también se utiliza de forma incorrecta. De hecho, la inteligencia artificial ha proporcionado a los perpetradores de violencia de género nuevos métodos para acosar, humillar y controlar a las víctimas, especialmente en los espacios digitales donde las personas jóvenes están más activas.

Uno de los usos más inquietantes es el recurso a los deepfakes: imágenes o vídeos generados por inteligencia artificial que permiten añadir el rostro de una persona a una escena pornográfica sin su consentimiento. Estos vídeos a menudo se comparten en redes sociales o mediante aplicaciones de mensajería cifrada. Aunque esas imágenes sean falsas, las víctimas —a menudo chicas o mujeres jóvenes, o jóvenes pertenecientes a la comunidad LGBTIQA+— afirman sentirse humilladas, asustadas y socialmente aisladas (Umbach et al., 2024).

Otro mal uso de la inteligencia artificial consiste en la creación de bots programados para enviar mensajes violentos, humillantes o amenazantes. Estos bots se dirigen a activistas, influencers o a cualquier persona que aborde públicamente temas relacionados con el género, la sexualidad o la justicia social. El enorme volumen de mensajes puede hacer que el abuso parezca imparable, un mecanismo del que es imposible escapar (Powell et al., 2022).

La inteligencia artificial también puede hacer daño de manera indirecta. Los algoritmos de las plataformas tienden a dar prioridad a contenidos capaces de generar un alto engagement y, por tanto, a promover publicaciones que provocan ira o indignación. Esto significa que los contenidos misóginos o transfóbicos llegan a más personas, no porque las plataformas quieran promoverlos activamente, sino porque los sistemas de inteligencia artificial están diseñados para optimizar la atención, no la seguridad (Henry & Powell, 2018).

Por último, las tecnologías basadas en inteligencia artificial utilizadas en hogares inteligentes, dispositivos vestibles o aplicaciones de seguimiento de la salud mental pueden convertirse en herramientas de vigilancia. La persona agresora podría usar estos sistemas para monitorear la ubicación de la víctima, acceder a sus mensajes privados o interpretar sus estados de ánimo sin su consentimiento. Además, la víctima podría no ser consciente de que está siendo vigilada a distancia (Powell et al., 2022).

Estos riesgos nos permiten comprender un mensaje fundamental: la inteligencia artificial no causa los abusos, pero puede ser aprovechada por quienes tienen malas intenciones. Por ello, es esencial que quienes trabajan en animación socioeducativa, educación y servicios sociales comprendan cómo funcionan estas tecnologías y cómo se conectan con las dinámicas de violencia en línea, para proteger y dotar a las personas jóvenes de las herramientas necesarias para combatirlas, como se indica en la tabla 2.

📊 Tabla 2. La IA como herramienta capaz de facilitar la violencia de género
Método Descripción Ejemplo concreto Referencia
Deepfake Imágenes o vídeos generados por inteligencia artificial que sustituyen el rostro de alguien en contenidos pornográficos. Una adolescente descubre un vídeo pornográfico en el que aparece su rostro, realizado mediante la técnica del deepfake. Umbach et al. (2024)
Bots acosadores Perfiles automáticos que hacen spam con contenidos violentos o degradantes, a menudo dirigidos a personas activistas o pertenecientes a grupos marginados. Tras una intervención pública, una joven activista por el clima recibe cientos de mensajes insultantes generados con inteligencia artificial en todas las plataformas. Powell et al. (2022)
Amplificación algorítmica de mensajes de odio Los algoritmos de las plataformas dan prioridad a discursos de odio o publicaciones provocadoras para aumentar el engagement, exponiendo al grupo objetivo a abusos. Un grupo de influencers LGBTIQA+ denuncia un aumento de los mensajes de odio recibidos después de compartir una publicación sobre el pride. Henry & Powell (2018)
Explotación de datos personales Los sistemas de inteligencia artificial divulgan datos personales a través de dispositivos “inteligentes” o transmiten información sensible sin el consentimiento de la persona usuaria. Un altavoz inteligente en la casa de una adolescente graba una discusión privada y envía los audios al servidor sin el consentimiento de la usuaria. Powell et al. (2022)
Tabla 2: La IA como herramienta capaz de facilitar la violencia de género
🛟 La inteligencia artificial como herramienta contra la violencia de género

Aunque los sistemas de inteligencia artificial pueden utilizarse con fines maliciosos, también pueden resultar útiles para prevenir, detectar de forma temprana y apoyar a las víctimas de violencia de género. Si se desarrolla y utiliza de manera ética, la inteligencia artificial puede mejorar la seguridad y ampliar el acceso a los servicios de apoyo para las personas víctimas de abusos en línea.

La inteligencia artificial puede utilizarse eficazmente para reconocer y eliminar contenidos peligrosos. Herramientas que usan el reconocimiento de imágenes, como las creadas siguiendo el modelo de PhotoDNA de Microsoft, ya pueden ayudar a las plataformas a identificar y bloquear la publicación de material de abuso sexual infantil. Estos sistemas comparan las imágenes subidas con otros contenidos denunciados previamente. Aunque estas herramientas no pueden impedir que se creen nuevas imágenes, constituyen un mecanismo de protección importante frente a la difusión de material violento (UNICEF, 2022).

La inteligencia artificial, además, puede emplearse para impulsar chatbots y asistentes virtuales capaces de ayudar a las personas sobrevivientes de violencia a encontrar el apoyo que necesitan. Estas herramientas son especialmente útiles para personas jóvenes que quizá no se sientan con la seguridad necesaria para hablar con alguien en persona. Los chatbots pueden ayudar a las usuarias y los usuarios formulando preguntas sobre sus experiencias y poniendo a las personas en contacto con profesionales que trabajan en servicios de salud mental, asistencia legal o respuesta a emergencias. Cuando estos chatbots se diseñan teniendo en cuenta el impacto del trauma y están disponibles en varios idiomas, pueden ofrecer un primer contacto seguro antes de pasar a formas de apoyo más concretas (Musharu et al., 2025).

Los sistemas de procesamiento del lenguaje natural (Natural Language Processing, NLP) son una forma de inteligencia artificial que ayuda a los ordenadores a comprender el lenguaje humano. Se utilizan para identificar y bloquear discursos de odio. Plataformas como X (ex-Twitter), Instagram y TikTok recurren cada vez más a estos modelos para revisar publicaciones con el fin de detectar y eliminar mensajes escritos con lenguaje amenazante y violento. Aunque estas herramientas no son perfectas, ayudan a contener los daños y pueden proteger a las personas de los efectos psicológicos del acoso dirigido (Powell et al., 2022).

También se está intentando utilizar la inteligencia artificial en sistemas de prevención y denuncia. Algunas aplicaciones analizan elementos del comportamiento de la persona usuaria, como el tono de los mensajes y la frecuencia de los contactos, para identificar patrones de riesgo. Se ha considerado el uso de herramientas de inteligencia artificial para abordar casos de violencia doméstica y evitar situaciones de alto riesgo, impidiendo, de hecho, que se produzcan las agresiones. Estos modelos predictivos deben emplearse con cautela para evitar falsos positivos o vulneraciones de la privacidad, pero parecen prometedores para mejorar la rapidez de las intervenciones (Henry & Powell, 2018).

Lo que hace útiles a estas herramientas no es la tecnología con la que se han creado, sino la manera en que se introducen, se explican y se utilizan. Las herramientas co-diseñadas con la ayuda de personas jóvenes, sobrevivientes de violencia y organizaciones de base tienen más probabilidades de reflejar las necesidades reales de las personas, que por tanto podrán confiar en ellas con mayor facilidad (véase la tabla 3).

📊 Tabla 3. La inteligencia artificial como herramienta para combatir la violencia de género
Aplicación de IA Descripción Ejemplo Referencia
Herramientas de reconocimiento de imágenes Las herramientas de inteligencia artificial pueden identificar contenidos vinculados a abusos conocidos o sospechados (p. ej., imágenes íntimas compartidas sin consentimiento) y denunciarlos/eliminarlos de las plataformas. Meta utiliza una herramienta basada en el modelo PhotoDNA para bloquear la carga de material de abuso sexual infantil. UNICEF (2022)
Chatbots de seguimiento Bots impulsados por sistemas de inteligencia artificial guían a las personas sobrevivientes para encontrar el servicio más adecuado para ellas, 24/7, basándose en principios de atención psicológica sensible al trauma. Una persona joven accede a un chatbot en WhatsApp para encontrar un servicio de apoyo a la salud mental en su propio idioma. Musharu et al. (2025)
NLP para detectar discursos de odio Los sistemas de procesamiento del lenguaje natural (NLP) se usan para señalar automáticamente publicaciones misóginas y transfóbicas. Twitter empleaba herramientas capaces de categorizar contenidos basándose en datos sobre discursos de odio. Powell et al. (2022)
Control predictivo y alertas rápidas La inteligencia artificial se utiliza de manera experimental para analizar conductas de riesgo con el fin de prevenir la violencia o activar sistemas de denuncia. Algunas aplicaciones experimentales evalúan el riesgo de escalada en casos de violencia doméstica analizando el tono y la frecuencia de los mensajes. Henry & Powell (2018)
Tabla 3: La inteligencia artificial como herramienta para combatir la violencia de género
⚖️ Preocupaciones éticas y problemas relacionados con los datos (para quienes trabajan en animación socioeducativa)

Dado que los sistemas de inteligencia artificial se emplean para combatir la violencia de género, es esencial comprender no solo sus capacidades, sino también sus riesgos y limitaciones. Las herramientas de inteligencia artificial, de hecho, no son neutrales. Se crean en función de los datos con los que se entrenan, de los objetivos de quienes las desarrollan y del contexto social en el que se utilizan. Sin una supervisión adecuada, estas herramientas pueden reforzar desigualdades, exponer a las personas sobrevivientes a nuevas formas de violencia o no lograr proteger a quienes estaban destinadas a proteger.

Una de las principales preocupaciones es la presencia de sesgos (bias) en los modelos de inteligencia artificial. Muchos sistemas usados para reconocer discursos de odio, mensajes violentos o imágenes peligrosas se entrenan con los datos disponibles, por lo que ciertos grupos o idiomas pueden estar infrarrepresentados. En consecuencia, los abusos dirigidos a mujeres racializadas, a personas de la comunidad LGBTIQA+ o a personas no occidentales podrían no ser reconocidos. En algunos casos, la expresión legítima de rabia o frustración por parte de sobrevivientes se señala erróneamente como violencia, mientras que las amenazas reales siguen en línea (Powell et al., 2022).

Otro riesgo es la falta de transparencia sobre cómo los sistemas de inteligencia artificial toman decisiones. Las personas sobrevivientes podrían no saber por qué se elimina una publicación o por qué un chatbot ofrece una respuesta determinada. El problema de la opacidad (en inglés, “black box problem”) reduce la confianza en los sistemas de inteligencia artificial y limita su fiabilidad. Esto puede generar confusión o frustración entre personas jóvenes con menor familiaridad con los derechos digitales cuando buscan ayuda en la red (Henry & Powell, 2018).

El uso indebido de sistemas de vigilancia constituye otro problema. Herramientas de inteligencia artificial diseñadas para proteger a las personas, como sistemas de rastreo de ubicación o programas de reconocimiento de estados emocionales, pueden ser explotadas por quienes cometen abusos. Si estas aplicaciones no cuentan con medidas estrictas de protección de la privacidad, pueden usarse para monitorear o controlar a las víctimas en lugar de ayudarlas. Esto es especialmente peligroso en casos de violencia doméstica, ya que las nuevas tecnologías pueden integrarse en un mecanismo de control coercitivo (UNESCO, 2023).

La escasa participación de personas jóvenes en el diseño de estas herramientas representa otra limitación importante. Las personas jóvenes a menudo viven experiencias de abuso en línea particulares, pero rara vez se les consulta en el desarrollo de soluciones de seguridad digital. Esto puede traducirse en herramientas que no se ajustan a sus necesidades, usan un lenguaje poco claro o no tienen en cuenta elementos contextuales importantes, como jerga, normas culturales o riesgos inherentes a la arquitectura de las plataformas (Musharu et al., 2025).

Por último, faltan datos longitudinales que permitan evaluar el funcionamiento real de los sistemas de inteligencia artificial. Muchos enfoques están vinculados a proyectos piloto o a productos comerciales poco transparentes. Sin una evaluación independiente y datos de dominio público, es difícil saber si estas herramientas realmente reducen los riesgos con el tiempo o si simplemente trasladan el problema a otras plataformas o a otros segmentos de población.

Lista de verificación para un uso ético de herramientas de inteligencia artificial (para quienes trabajan en animación socioeducativa)
  • ¿La herramienta respeta la privacidad? ¿Los datos se almacenan de forma segura y las personas jóvenes pueden usarla sin compartir información sensible?
  • ¿El lenguaje utilizado es accesible? ¿La herramienta evita la jerga técnica y tiene en cuenta diferencias de edad, contexto cultural y nivel de alfabetización digital?
  • ¿Existen riesgos de reforzar estereotipos? ¿El sistema reconoce identidades diversas y evita sesgos de género, raciales o culturales?
  • ¿El funcionamiento de la aplicación es claro y transparente? ¿Quien la usa puede comprender cómo se toman las decisiones y qué ocurre con los datos personales?
  • ¿La herramienta se diseñó con aportes de personas jóvenes? ¿Personas jóvenes la han probado o ayudado a diseñarla para que sea útil e inclusiva?
📊 Tabla 4. Cuestiones éticas relacionadas con el uso de la inteligencia artificial para combatir la violencia de género
Cuestión ética Descripción Implicaciones
Falta de transparencia Muchas herramientas de inteligencia artificial son poco transparentes, ya que los mecanismos de decisión no son claros. Las personas sobrevivientes pueden no confiar en herramientas automatizadas o no comprender cómo se utilizan sus datos.
Sesgos y problemas de categorización La inteligencia artificial puede reflejar prejuicios sociales y no detectar abusos contra personas marginadas. Los sistemas de procesamiento del lenguaje natural pueden no reconocer expresiones de odio dirigidas a identidades de género no occidentales.
Riesgos relacionados con la vigilancia Herramientas pensadas para proteger pueden explotarse para controlar a la víctima o cometer abusos. El rastreo de ubicación o herramientas para reconocer estados emocionales pueden usarse en perjuicio de las víctimas.
Falta del punto de vista de las personas jóvenes Pocas herramientas de inteligencia artificial se co-diseñan con la colaboración de personas jóvenes, generando incompatibilidad entre seguridad y usabilidad. Los chatbots podrían no reconocer jerga o matices emocionales importantes para las personas jóvenes.
Tabla 4: Cuestiones éticas relacionadas con el uso de la inteligencia artificial para combatir la violencia de género
Comprueba tus conocimientos: cuestionario rápido
1. ¿Cuál de las siguientes opciones constituye un uso potencialmente peligroso de la inteligencia artificial?
2. ¿Cuál es el principal riesgo que representa el uso de sistemas de inteligencia artificial para prevenir la violencia de género?
3. ¿Por qué es importante la participación de la juventud en el diseño de herramientas de inteligencia artificial?
Unidad 3

🛡️ Estrategias para proteger tu seguridad en línea

Esta unidad presenta algunas estrategias prácticas para navegar por internet de forma segura sin sufrir violencia de género. Analiza cómo quienes trabajan en animación socioeducativa pueden ayudar a reducir los riesgos asociados a la violencia de género en línea fortaleciendo hábitos de seguridad digital, respondiendo de manera eficaz y fomentando una comunicación respetuosa que contribuya al empoderamiento de las personas. La unidad también muestra cómo el ejemplo positivo del grupo de iguales y las acciones de quienes presencian los hechos pueden transformar las culturas digitales para garantizar mayor seguridad e inclusión. Por último, ofrece indicaciones sobre el uso de plataformas específicas para denunciar abusos, proteger la privacidad y apoyar el bienestar mental de la juventud en los espacios digitales.

🧱 3.1 Estrategias clave para protegerse en línea
Ilustración de estrategias de protección digital
Figura 2: Cómo protegerse en línea

En un mundo cada vez más digital, proteger la información personal y la privacidad es un imperativo fundamental. Esta sección describe las estrategias que las personas deben adoptar para protegerse mejor cuando navegan por internet. Al aplicar estas estrategias, cada usuaria/o puede crear límites digitales sólidos, reconocer la importancia del consentimiento en sus comunicaciones en línea y ser consciente de los riesgos asociados a cada plataforma.

1. Fortalecer los límites digitales

  • Utilizar contraseñas fuertes y diferentes entre sí: asegúrate de que todas las cuentas principales estén protegidas con contraseñas complejas que no puedan vulnerarse fácilmente. Se recomienda utilizar un gestor de contraseñas para llevar un control.
  • Activar la autenticación de dos factores: esto añade un nivel adicional de seguridad a tus cuentas, ya que requiere una segunda forma de verificación de identidad, por ejemplo mediante un SMS o una app de autenticación.
  • Evitar compartir la ubicación en tiempo real: abstente de compartir tu ubicación o datos sensibles en foros públicos, ya que puede atraer atención no deseada o exponerte a riesgos adicionales.
  • Revisar periódicamente la configuración de privacidad: revisa de forma regular la configuración de privacidad en redes sociales, prestando especial atención a la ubicación, los permisos de etiquetado y la lista de seguidores, para asegurarte de que solo personas de confianza puedan acceder a tus datos personales.

2. Ser consciente de la importancia del consentimiento en las comunicaciones digitales

  • Pedir permiso antes de compartir contenidos: pide siempre permiso antes de compartir imágenes o vídeos en los que aparezcan otras personas. Así se respeta su privacidad y su derecho a la autodeterminación.
  • Respetar los límites en la mensajería: antes de reenviar contenido sensible en un chat grupal o por mensajes privados, es conveniente pedir permiso a la persona que envió el contenido para asegurarse de que está de acuerdo con la difusión.
  • Ser un ejemplo y mantener relaciones sanas en línea: promueve interacciones positivas evitando el lenguaje manipulador o las presiones, contribuyendo así a crear un entorno digital basado en el respeto.

3. Ser consciente de los riesgos que presentan las plataformas

  • Conocer los riesgos de las distintas apps: aprende a identificar aplicaciones con moderación débil o que toleran abusos por parte de usuarios anónimos, porque pueden suponer un riesgo significativo.
  • Aprender a gestionar el contenido: saber cómo bloquear, silenciar o denunciar contenido peligroso en las principales plataformas ayuda a proteger tu experiencia en línea.
  • Utilizar la configuración de seguridad: aprovecha las herramientas de seguridad que ofrecen las plataformas, como filtros de palabras clave, avisos de contenido sensible y límites de seguidores (por ejemplo, usando “Mejores amigos” en Instagram) para crear espacios en línea más seguros.

Al adoptar estas estrategias, las personas pueden mejorar su nivel de protección en línea y contribuir a crear un entorno digital más seguro para sí mismas y para las demás.

🎲 Actividad interactiva: “¿Qué deberías hacer?”

Lee cada escenario a continuación y elige la acción más adecuada para la/el profesional de la animación socioeducativa. Tras la elección, aparecerá la respuesta correcta con una breve explicación. Es una actividad únicamente informativa: no se guardan puntuaciones.

S1. «Una chica dice que su ex conoce todos sus desplazamientos, a pesar de que lo ha bloqueado en redes sociales.»
Tipo de violencia de género: Ciberacoso (cyberstalking)
S2. «Un estudiante te muestra una serie de mensajes privados de un compañero de clase que lo insulta y amenaza con “arruinarle la vida” en línea.»
Tipo de violencia de género: Acoso en línea
S3. «Se burlan de un chico en clase porque alguien ha creado un vídeo en TikTok usando un deepfake que lo muestra en situaciones vergonzosas.»
Tipo de violencia de género: Abuso de la imagen de otra persona
S4. «Una chica de 15 años aficionada a los videojuegos dice que alguien de su servidor de Discord no deja de hacerle cumplidos y ha empezado a pedirle selfies.»
Tipo de violencia de género: Grooming en línea
S5. «Unx adolescente no binarix afirma que recibe comentarios de odio como “suicídate” e insultos transfóbicos cada vez que publica algo en Instagram.»
Tipo de violencia de género: Discursos de odio
S6. «Una joven dice que sus compañeros de clase han empezado a enviarle emojis para burlarse de ella en los chats de grupo, después de que alguien difundiera una foto suya desnuda.»
Tipo de violencia de género: Abuso de la imagen de otra persona (difusión no consentida)
📚 Referencias
  1. DeRiggi, M., Henry, N., & Powell, A. (2023). Digital bystanders: What works to support victims of technology-facilitated GBV. Youth & Society. https://doi.org/10.1177/0044118X231163511
  2. Henry, N., & Powell, A. (2018). Technology-facilitated sexual violence: A literature review of empirical research. Trauma, Violence, & Abuse, 19(2), 195–208. https://doi.org/10.1177/1524838016650189
  3. Lippman, J. R., & Campbell, S. W. (2014). Damned if you do, damned if you don’t… if you’re a girl: Relational and normative contexts of adolescent sexting in the United States. Journal of Children and Media, 8(4), 371–386. https://doi.org/10.1080/17482798.2014.923009
  4. Musharu, T., Gomez, J. M., Rosales, M., & Navarro Soria, I. (2025, June). AI and open data for GBV prevention among youth: Ethical governance and policy frameworks in the EU. In Proceedings of the 14th BUIS-Tage Conference on Smart and Sustainable Infrastructures. Oldenburg, Germany.
  5. Powell, A., Henry, N., Flynn, A., & Sugiura, L. (2022). Online, always: A scoping review of technology-facilitated abuse and gender-based violence in the Global North. Computers in Human Behavior, 129, 107131. https://doi.org/10.1016/j.chb.2021.107131
  6. Rogers, M. M., Burke, J. G., & Earp, J. A. L. (2022). Technology-facilitated abuse in intimate relationships: A scoping review. Trauma, Violence, & Abuse, 24(4), 2210–2226. https://doi.org/10.1177/15248380221093133
  7. Stonard, K. E., Bowen, E., Lawrence, T. R., & Price, S. A. (2014). The relevance of technology to the nature, prevalence and impact of adolescent dating violence and abuse: A research synthesis. Aggression and Violent Behavior, 19(4), 390–417. https://doi.org/10.1016/j.avb.2014.06.005
  8. Umbach, R., Valdez, A., & Dobberstein, D. (2024). Non-consensual deepfake pornography: Evidence from ten countries. Proceedings of CHI ’24. https://doi.org/10.1145/3491102.3517575
  9. UNESCO. (2023). Exposing technology-facilitated gender-based violence in an era of generative AI. https://unesdoc.unesco.org/ark:/48223/pf0000386461
  10. UNICEF. (2022). Safer Chatbots: Implementation Guide. https://www.unicef.org/media/114681/file/Safer-Chatbots-Implementation-Guide-2022.pdf
  11. Wolak, J., Finkelhor, D., Mitchell, K. J., & Ybarra, M. L. (2008). Online «predators» and their victims: Myths, realities, and implications for prevention and treatment. American Psychologist, 63(2), 111–128. https://doi.org/10.1037/0003-066X.63.2.111
Please log in to view this module.

Scroll to Top