Los errores del algoritmo que han costado vidas

Desde 2007, al menos 247 mujeres han sido asesinadas después de que VioGén las evaluara y en 98 de estos feminicidios, 55 de las asesinadas habían recibido la clasificación de riesgo bajo no apreciado

Vecinos de Zafarraya (Granada) se abrazan cerca del lugar dónde presuntamente un hombre de 34 años ha matado este sábado a su expareja y a su madre EFE

Solo el 21,7 por ciento de las víctimas de violencia de género denuncia, según la macroencuesta de Igualdad. Lo que significa que el Estado se ocupa de proteger y acompañar a una minoría de las mujeres que necesitan ayuda. A pesar de ello, el sistema de atención tiene serias lagunas y déficits que tanto las expertas en violencia como las propias víctimas llevan tiempo denunciando. Además, de las 98.168 víctimas inscritas en agosto en el sistema VioGén, tan solo 22 son consideradas de riesgo extremo, un 0,02 por ciento. Solo esa veintena de mujeres cuentan con escolta las 24 horas del día, el resto, no reciben ningún tipo de protección directa. Pueden tener pulseras telemáticas y otros dispositivos y reciben llamadas de seguimiento de los más de 43.500 agentes dedicados a labores de vigilancia, pero están en una situación de vulnerabilidad obvia.

Desde 2007, al menos 247 mujeres han sido asesinadas después de que VioGén las evaluara, según cifras gubernamentales. Así lo explicaba The New York Times en un reportaje publicado hace unos meses. El medio estadounidense averiguó que en una revisión oficial sobre los crímenes machistas de 98 de estos feminicidios, 55 de las mujeres asesinadas habían recibido del algoritmo la clasificación de riesgo bajo no apreciado”.

El caso de Amal y sus dos hijos

El 28 de junio pasado, VioGén volvió a fallar y se llevó por delante la vida de una mujer y sus dos hijos. Su nombre era Amal, vivía en Las Pedroñeras, en Cuenca y había denunciado a su marido. Había hecho todo lo que el sistema le pide a las mujeres que sufren maltrato que hagan. No debió ser fácil, pero aun así tomó la decisión de contarlo y ponerse en manos de las instituciones. Era una víctima especialmente vulnerable, le atravesaban varios indicadores de riesgo. Amal era extranjerano hablaba bien el idioma ni poseía un gran conocimiento de cómo funcionan nuestras leyes ni nuestros servicios públicos; vivía en un pueblo de menos de 7.000 habitantes y tenía dos hijos a su cargo. Todos esos factores influyen de cara enfrentarse a la violencia. Además, su a la postre asesino, se saltó multitud de veces las órdenes de alejamiento. No con una llamada o un encuentro por la calle, si no que se colaba en la vivienda donde vivía con los pequeños. Más de una vez. No solo eso, su ex pareja había verbalizado que la iba a matar, había hecho públicas esas amenazas a terceros. Con todo esto, ni los agentes encargados de su caso, ni el sistema VioGén, consideraron que su vida corriese peligro. Se equivocaron. Ese fatídico 28 de junio su marido la asesinó a ella y a sus dos hijos y se fue a beber cervezas a un bar.

“Tiene que haber personal suficiente”

Ana Bella, de la Fundación que lleva su nombre piensa que el sistema VioGén podría ser más preciso con más medios. Cree que la coordinación entre las distintas agencias dedicadas a la atención de las víctimas lo mejoraría porque fallos humanos va a haber siempre. “VioGén es un algoritmo, pero después deciden las personas y los datos los meten los policías en el sistema y para que la información esté actualizada tiene que haber personal suficiente para hacer un seguimiento minucioso al maltratador y a la mujer”, apunta.

La experta y exasesora del Ministerio de Igualdad, María Naredo, cree que “sería bueno que se revisasen los indicadores de riesgo y que lo hiciese un equipo interdisciplinar. Para entender bien las necesidades de las víctimas su evaluación debe salir del ámbito policial y que asesores expertos mejoren la herramienta.  Además, cero autocomplacencia, debemos seguir mejorando. El Ministerio de Interior debe hacer autocrítica”, explica.

Algoritmo con perspectiva de género

Victoria Rosell, exdelegada del Gobierno contra la Violencia de Género, advertía en una entrevista a Artículo14 que “nunca se ha hecho público cuál es exactamente el algoritmo que determina el riesgo en el sistema VioGén. Nosotras, desde la la delegación, desde el Ministerio de Igualdad, sí que decíamos que ese algoritmo no está claro que tenga perspectiva de género en el sentido de que existen cuestiones que incrementan el peligro, como el embarazo y tener hijos que creemos que no figuraban como factores de riesgo”,

Rosell cree que VioGén tiene margen de mejora y que además de cuestiones objetivas se deberían introducir entrevistas con todos los implicados en esa situación de violencia desde los protagonistas: víctima, agresor, hijos, hasta el entorno en su conjunto. “Si solo miras un trozo del paisaje, no te da la foto completa y se trata precisamente de valorar el riesgo. Al fin y al cabo, es un algoritmo de predicción, cuántos más datos le introduzcas, mejor”, insistía.