¿Puede la Inteligencia Artificial detectar violencia de género en los mensajes de tu novio?

Le hemos mostrado al sistema ChatGPT unos textos ficticios y preguntado si detecta algún síntoma de maltrato en ellos. Este es el resultado

Comparten sus contraseñas, lo entienden como una muestra de confianza. Revisan sus mensajes, sus publicaciones y los comentarios en las redes sociales. Las jóvenes no tienen claros los límites en una relación de pareja. Lo explicaba hace unos días Carmen Ruiz-Repullo, socióloga que lleva más de 25 años trabajando con adolescentes. Lo hacía en IX Congreso del Observatorio contra la Violencia Doméstica y de Género del Consejo General del Poder Judicial, donde aseguraba que le habían narrado situaciones en las que algunas chicas se habían visto obligadas a dormir con el móvil en modo videollamada porque así se lo exigían sus novios. Ellos, al parecer, lo justifican diciendo “que las quieren tanto que quieren saber qué hacen cuando no están juntos”.

Ruiz-Repullo señala que la violencia de género ahora se puede prolongar las 24 horas del día los 365 días del año, a través del móvil. “Porque estos dispositivos permiten al maltratador controlar todo lo que quiera, incluso por la noche”. Los casos de violencia machista entre adolescentes están en aumento. Además, las expertas llevan tiempo alertando de que la red de apoyo a las víctimas no está diseñada para las mujeres más jóvenes, ni ellas lo sienten así, no hablan su idioma, por así decirlo.

Señales de alerta o banderas rojas

Sin embargo, existe una herramienta de fácil acceso que pueden utilizar ellas mismas en la intimidad, sin necesidad de verbalizar sus sentimientos encontrados. Lo ideal siempre es pedir ayuda y acudir a profesionales si creemos, o tenemos dudas, de si nos encontramos en una situación o relación de violencia, pero la Inteligencia Artificial ya puede señalar las señales de alerta o “banderas rojas” de nuestras parejas a través de los mensajes que nos envían.

Probamos con ChatGPT, una herramienta que en palabras de Phil González, experto en comunicación digital, conferenciante, profesor y autor de varios libros,  “funciona como un buscador y utiliza una pantalla sencilla donde hacer esas búsquedas. Tiene un cuadro para preguntar, guarda todas las conversaciones que tienes con él y va aprendiendo de ti, de lo que buscas, de tus preguntas, incluso de cómo escribes”, explica.

“¿Por qué estás en línea y no me contestas?”

Así que le preguntamos a la Inteligencia Artificial: “¿Si te enseño los mensajes de mi novio puedes detectar síntomas de maltrato?” Esta es su respuesta: “Claro, si me compartes el mensaje, puedo ayudarte a analizarlo desde una perspectiva objetiva. Ten en cuenta que el maltrato puede tomar muchas formas: emocional, verbal, psicológico o incluso ser algo sutil. Si estás sintiendo que algo no está bien, ese ya es un indicio importante a considerar. Comparte lo que creas necesario y lo vemos juntos”.

Parece que puede ayudarnos así que le enviamos este supuesto texto: “¿Por qué estás en línea y no me contestas?” a los que nos responde: “El mensaje que compartes puede tener varias interpretaciones dependiendo del contexto y de cómo se exprese de forma habitual tu novio. Aunque, por sí solo, no necesariamente indica maltrato, puede ser una señal de control o celos, dependiendo del tono y frecuencia con la que lo diga.

“Una reacción desproporcionada podría ser indicativa de una actitud controladora”

Pero no se queda ahí, la herramienta nos invita a darle una vuelta. “Algunos puntos para reflexionar:¿Es algo aislado o recurrente? Si es algo que ocurre constantemente y te hace sentir presionada o vigilada, puede ser una bandera roja. ¿Cómo reaccionaría si no le contestas? Una reacción desproporcionada (como enojo, acusaciones o insultos) podría ser indicativa de una actitud controladora. ¿Cómo te sientes al leer esto? Si este tipo de mensajes te generan ansiedad, miedo o incomodidad, tus sentimientos son importantes y debes escucharlos. Si notas patrones similares con regularidad o sientes que este mensaje es parte de algo más grande, podría ser útil hablar con alguien de confianza o un profesional que te ayude a evaluar la situación. Estoy aquí para seguir ayudándote si lo necesitas”.

“Has cambiado tu foto de perfil y has puesto una que te hiciste para mí, no me parece”.

Seguimos con el experimento y le mostramos este otro hipotético mensaje “Has cambiado tu foto de perfil y has puesto una que te hiciste para mí, no me parece”. A lo que ChatGPT nos responde: Este mensaje refleja una actitud posesiva o controladora, especialmente si se interpreta como una forma de reclamar sobre algo que tú decidiste hacer con libertad. Si sientes que tu pareja intenta limitar tus decisiones personales o te hace sentir culpable por tus elecciones, puede ser una bandera roja.

Puntos clave a reflexionar: ¿Por qué no “le parece?” Una relación sana respeta la individualidad de cada persona. Tus fotos, aunque puedan tener un significado para ambos, son tuyas y puedes decidir cómo usarlas. ¿Te hace sentir mal o culpable? Si el comentario te genera incomodidad o sientes que no puedes tomar decisiones sin “su aprobación”, es algo importante a observar. ¿Es parte de un patrón? Si esto es uno de varios comentarios donde intenta influir en tu apariencia, acciones o decisiones, podría indicar un problema de control. Cómo abordar esto: Explica cómo te sientes. Puedes decir algo como: “Entiendo que esa foto es especial para ti, pero siento que tengo derecho a decidir cómo usarla.” Observa su reacción: una respuesta abierta indica disposición a entender; una respuesta defensiva puede reflejar control. Establece límites. Si notas que este comportamiento se repite, es fundamental establecer límites claros sobre lo que es tu espacio personal y tus decisiones. Recuerda, en una relación sana, hay respeto mutuo y espacio para que cada persona sea quien es. Si necesitas ayuda adicional, estoy aquí. 

Contrastar las respuestas con fuentes fidedignas

Las respuestas de la Inteligencia Artificial parecen adecuadas, pero como recuerda Phil González, hay que tener también cuidado porque la información puede ser sesgada si su fuente de información es errónea, hay que contrastar las respuestas. “La gente cree que la Inteligencia Artificial es algo estrafalario, pero te va dando respuestas cada vez más humanas. Abrir una cuenta es fácil y existen dos versiones una de pago y una gratuita cuya diferencia radica en cómo de actualizados sean los datos: la de pago utiliza una información, en teoría actualizada al minuto, y la que es gratis puede tener seis meses de antigüedad.

Existe una red de ayuda y apoyo para todas las mujeres en el caso de que crean o sepan que están en una situación de violencia. El 016 puede facilitar toda la información necesaria al respecto y las asociaciones de víctimas también atienden y aconsejan sea cual sea el contexto, por nimio que pueda parecer. Si por alguna razón alguien duda de si dar el paso, lo mismo puede encontrar respuestas en la Inteligencia Artificial.

 

TAGS DE ESTA NOTICIA