The New York Times retrata los fallos del sistema VioGén

Aseguran en el artículo que, desde 2007, al menos 247 mujeres han sido asesinadas por su pareja o expareja después de que el algoritmo las evaluara

The New York Times critica en un artículo el sistema VioGén Javier Cuadrado

No importa que falle estrepitosamente, que hace un mes una mujer llamada Amal y sus dos hijos fueran asesinados porque el algoritmo no detectó un riesgo elevado en su situación de violencia. Tanto la ministra de Igualdad, Ana Redondo, como el ministro del Interior, Fernando Grande-Marlaska, del que depende el sistema VioGén, repiten en cada una de sus intervenciones que “funciona”. Las alabanzas al software que mide el nivel de peligrosidad de un maltratador y las posibilidades de que actúe son continuas. Esta misma semana Redondo aseguraba que había salvado cientos de vidas y Marlaska se llena la boca con que el sistema es “pionero” y “único en el mundo“. Eso sí, siempre añaden la coletilla de que “no es infalible“. Es ese punto, su fiabilidad, al que se agarra el diario norteamericano The New York Times (NYT) para analizar los errores que sí ha cometido el algoritmo en los últimos años y que publicó hace unos días en forma de reportaje.

Con el título “Un algoritmo le dijo a la policía que ella estaba a salvo. Después su marido la mató“, los periodistas Adam Satariano y Roser Toll Pifarré repasan los inicios de su creación, las características y las historias de las mujeres al que sistema falló. Para ello se entrevistaron con más de 50 víctimas, familias, policías, funcionarios gubernamentales y otros expertos sobre el sistema VioGén. La idea que atraviesa el artículo es que España “se ha vuelto dependiente de un algoritmo para combatir la violencia de género”.

El Reportaje de el New York Times

Los fallos del algoritmo

“El software está tan entrelazado con los cuerpos policiales que es difícil distinguir dónde terminan sus recomendaciones y dónde empieza la toma de decisiones humana”, se preguntan en el reportaje. Porque a pesar de que el sistema ha ayudado a proteger a mujeres vulnerables y en general, ha reducido la cifra de maltrato, “VioGén también ha dejado víctimas mortales al calcularse erróneamente su puntuación de riesgo. Desde 2007, al menos 247 mujeres han sido asesinadas por su pareja o expareja después de que VioGén las evaluara, según cifras gubernamentales. Si bien es cierto que la cifra es una fracción minúscula de los casos de violencia de género, es indicativa de los fallos del algoritmo. The New York Times averiguó que en una revisión oficial de 98 de esos feminicidios, 55 de las mujeres asesinadas habían recibido de VioGén la clasificación de riesgo no apreciado o bajo“, apuntan.

Hace unas semanas, la Inspectora Jefa de la UNAM, Elena Palacios, explicaba a Artículo14 cómo funcionaba de esta manera: “En el sistema metemos los casos denunciados, los hechos conocidos. Se introduce en el algoritmo el atestado policial, lo que nos dice la víctima, lo que nos han contado los testigos, lo que sabemos del agresor. El policía encargado de la protección de la víctima, va cumplimentando una serie de ítems. Hay varios indicadores. Es un método muy estudiado, un método científico que está auditado. Aún así, podemos tener una valoración de riesgo no apreciado y vemos como luego han asesinado a la víctima. Es predictivo, pero no es magia“, señalaba.

Que un equipo interdisciplinar revise los indicadores de riesgo

Tanto Redondo como Marlaska se han negado a cuestionar el sistema y no han profundizado en sus fallos, ni planteado revisar los parámetros. Sin embargo, la experta y exasesora del Ministerio de Igualdad, María Naredo, cree que “sería bueno que se revisasen los indicadores de riesgo y que lo hiciese un equipo interdisciplinar. Para entender bien las necesidades de las víctimas su evaluación debe salir del ámbito policial y que asesores expertos mejoren la herramienta.  Además, cero autocomplacencia, debemos seguir mejorando. El Ministerio de Interior debe hacer autocrítica”, advierte.

“Nunca se ha hecho público cuál es exactamente el algoritmo que determina el riesgo en el sistema VioGén. Nosotras, desde la la delegación, desde el Ministerio de Igualdad, sí que decíamos que ese algoritmo no está claro que tenga perspectiva de género en el sentido de que existen cuestiones que incrementan el peligro, como el embarazo y tener hijos que creemos que no figuraban como factores de riesgo”, advertía en una entrevista a Artículo14, la exdelegada del Gobierno contra la Violencia de Género, Victoria Rosell.

Rosell cree que VioGén tiene margen de mejora y que además de cuestiones objetivas se deberían introducir entrevistas con todos los implicados en esa situación de violencia desde los protagonistas: víctima, agresor, hijos, hasta el entorno en su conjunto. “Si solo miras un trozo del paisaje, no te da la foto completa y se trata precisamente de valorar el riesgo. Al fin y al cabo, es un algoritmo de predicción, cuántos más datos le introduzcas, mejor.