La inteligencia artificial (IA) aterriza en la lucha contra la violencia de género. Lo adelantó ayer la ministra de Igualdad, Ana Redondo. No dio muchos datos, pero puso fecha a su puesta en marcha y quedan pocas semanas para que empiece a funcionar. La idea, que no llegó a desarrollar, es incorporar esta herramienta a tareas de detección de víctimas. Una novedad con la que piensa que pueden intervenir antes de que se produzcan desenlaces “terribles” como los que vivimos todas las semanas. En lo que va de año, 34 mujeres y 10 niños han sido asesinadas en crímenes machistas.
A la espera de conocer los detalles de este “proyecto piloto” lo que sí se sabe a día de hoy es que los algoritmos de la inteligencia artificial permiten analizar grandes cantidades de datos con el fin de identificar patrones, comportamientos y señales de alerta. Es como funciona el sistema VioGén, un algoritmo que, tras un cuestionario a la víctima, al agresor y al entorno da como resultado una probabilidad de repetición del ataque y que divide a las víctimas según su nivel de riesgo.
Prevenir tres cuartas partes de los casos de violencia
Este mismo año los investigadores de la Universidad Loyola publicaron un estudio en la revista Scientific Reports que demostraba que el uso de inteligencia artificial en el análisis de sentencias judiciales desenmascaraba patrones de delincuencia que podían ayudar a prevenirla. Por ello se centraron en fallos de tribunales penales de violencia de género y concluyeron que este sistema podía prevenir tres cuartas partes de los casos de violencia. Para ello analizaron 491 sentencias de la base de datos jurídica Vlex de las cuales 330 eran delitos contra la intimidad, la integridad sexual, la integridad psicológica y física y la libertad personal y 161 se referían a asesinatos y homicidios.
La detección de las víctimas de violencia de género es una de las asignaturas pendientes que tiene nuestro sistema. Alrededor del 80 por ciento de las víctimas no denuncia su situación a las autoridades y son invisibles. Ni se las puede proteger ni ayudar y acompañar. Las expertas coinciden que ante esta circunstancia es el Estado el que se debe afanar en detectar el maltrato y formar y establecer protocolos para encontrar a las víctimas donde sí acuden: centros sanitarios, servicios sociales y colegios e institutos porque muchas veces es a través de los hijos cómo se puede detectar el maltrato y llegar hasta las víctimas.
¿Decisiones humanas o de la IA?
La diferencia entre un algoritmo y una IA es, según explica Phil González, escritor y experto en internet y redes sociales, es que en el algoritmo es la mano humana quien decide los patrones y los parámetros y con la IA es la propia máquina quien toma esas decisiones. Lo que representa un debate ético que ya puso sobre la mesa The New York Times cuando explicaba, en referencia al sistema VioGén, que era difícil distinguir dónde terminan las recomendaciones del algoritmo y dónde empezaba la toma de decisiones humana.
En ese mismo artículo se explicaba que, desde 2007, al menos, 247 mujeres han sido asesinadas tras el análisis del sistema VioGén. Asimismo, señalaba que en una revisión oficial de 98 crímenes machistas, 55 de las mujeres asesinadas habían recibido de VioGén la clasificación de riesgo no apreciado o bajo. Porque a pesar de que los policías pueden modificar las calificaciones de VioGén en función de las pruebas, aceptan las puntuaciones de riesgo alrededor del 95 por ciento de las veces.
No se desprende de las palabras de la ministra que se vaya a utilizar la IA para proteger a las víctimas, si no para detectarlas con lo que el problema ético sobre las decisiones de la herramienta no afectaría a la seguridad de estas mujeres.