El caso de Amal, cuando el algoritmo falla

El 28 de junio una mujer y sus dos hijos fueron asesinados en Cuenca a pesar de que VioGén no detectó riesgo elevado. Desde 2007, 247 víctimas han muerto por fallos del sistema de protección

Vecinos de Zafarraya (Granada) se abrazan cerca del lugar dónde presuntamente un hombre de 34 años ha matado este sábado a su expareja y a su madre EFE

Amal había denunciado a su marido. Había hecho todo lo que el sistema le pide a las mujeres que sufren maltrato que hagan. No debió ser fácil, pero aun así tomó la decisión de contarlo y ponerse en manos de las instituciones. Era una víctima especialmente vulnerable, le atravesaban varios indicadores de riesgo. Amal era extranjera, no hablaba bien el idioma ni poseía un gran conocimiento de cómo funcionan nuestras leyes ni nuestros servicios públicos; vivía en un pueblo de menos de 7.000 habitantes y tenía dos hijos a su cargo. Todos esos factores influyen de cara enfrentarse a la violencia. Además, su a la postre asesino, se saltó multitud de veces las órdenes de alejamiento. No con una llamada o un encuentro por la calle, si no que se colaba en la vivienda donde vivía con los pequeños. Más de una vez. No solo eso, su ex pareja había verbalizado que la iba a matar, había hecho públicas esas amenazas a terceros. Con todo esto, ni los agentes encargados de su caso, ni el sistema VioGén, el algoritmo que fija los criterios de riesgo,  consideraron que su vida corriese peligro. Se equivocaron. El pasado 28 de junio su marido la asesinó a ella y a sus dos hijos y se fue a beber cervezas a un bar.

Más de 247 víctimas asesinadas por fallos del sistema

A pesar de todos estos factores, el sistema VioGén no detectó riesgo en su situación, ni se tomaron medidas contundentes antes los continuos quebrantamientos del asesino. El algoritmo falló. No es un caso aislado. Hace unas semanas el periódico estadounidense The New York Times (NYT)  publicó un reportaje en el que criticaba los fallos de este software de protección y aseguraba que al menos 247 mujeres han sido asesinadas desde 2007 tras el análisis de VioGén, según cifras gubernamentales. El diario apuntaba que la la cifra representaba una fracción minúscula de los casos totales de violencia de género, pero ilustraba e indicaba los fallos del algoritmo. El NYT insistía que en una revisión oficial de 98 de esos feminicidios, 55 de las mujeres asesinadas habían recibido de VioGén la clasificación de riesgo no apreciado o bajo .

Alrededor del 80 por ciento de las víctimas no denuncia nunca su situación, lo que dificulta la posibilidad de protegerlas. Sin embargo, cuando estas mujeres hacen lo que el sistema pide que hagan, cuando ponen en conocimiento de las autoridades su situación y su miedo y aún así no se las protege debidamente, la responsabilidad de las instituciones debería ser una prioridad. Es curioso como se esconden tras un algoritmo para no asumir que el sistema es imperfecto y que sus obligaciones han fracasado.

Porque aunque VioGén es un software al que se le introducen distintos parámetros y ofrece una predicción científica, son los responsables del sistema quienes, no solo introducen los datos, si no quienes se encargan de actualizarlos y completarlos una vez que la víctima abandona las dependencias policiales con un diagnóstico. VioGén puede arrojar un resultado, pero son las personas tras el sistema quienes pueden perfeccionar el nivel de riesgo.

Parámetros con perspectiva de género

La exdelegada del Gobierno contra la Violencia de Género, Victoria Rosell explicaba hace unas semanas en Artículo14 que el software es mejorable:  “Nunca se ha hecho público cuál es exactamente el algoritmo que determina el riesgo en el sistema VioGén. Nosotras, desde la la delegación, desde el Ministerio de Igualdad, sí que decíamos que ese algoritmo no está claro que tenga perspectiva de género en el sentido de que existen cuestiones que incrementan el peligro, como el embarazo y tener hijos que creemos que no figuraban como factores de riesgo”, advierte.

Rosell cree que VioGén tiene margen de mejora y que además de cuestiones objetivas se deberían introducir entrevistas con todos los implicados en esa situación de violencia desde los protagonistas: víctima, agresor, hijos, hasta el entorno en su conjunto. “Si solo miras un trozo del paisaje, no te da la foto completa y se trata precisamente de valorar el riesgo. Al fin y al cabo, es un algoritmo de predicción, cuántos más datos le introduzcas, mejor. Hay todavía mucho que trabajar sobre todo en el riesgo de la infancia“, insiste, y recuerda que le consta que la judicatura sigue siendo muy reacia a suprimir completamente las visitas y la patria potestad de los agresores aunque lo establezca la ley.