Las grietas en el ‘escudo IA’ del Gobierno: ¿dónde están las mujeres en esta revolución?

La inteligencia digital podría aumentar el PIB español un 8% en una década, pero solo el 23% de sus empleados son mujeres. Las expertas advierten de que la falta de diversidad en el sector perpetuará los sesgos de género

El Ministerio para la Transformación Digital ya ha puesto sobre la mesa el anteproyecto legal que ‘adapta’ el Reglamento Europeo de la Inteligencia Artificial (IA) a la legislación española. El responsable de la cartera, Óscar López, adujo tras el último Consejo de Ministros que esta tecnología, “si se aplica bien”, lograría en una década hacer crecer el PIB en un 8% en más de 100.000 millones de euros.

López también reivindicó algunos hitos en los que ha participado el Gobierno central, como el desarrollo de ALIA, el modelo de lenguaje natural público que anunció hace un año; el reparto de fondos europeos a través del Kit Digital; o las primeras inversiones a través de la Sociedad Española de Transformación Tecnológica, la SETT. El ministro abundó que el anteproyecto legal, sumado a la adaptación de otras regulaciones tecnológicas europeas, está “completando un escudo de protección” para “los derechos digitales”.

Pero este escudo tiene grietas. El relato del ministro contó con una gran ausencia: la acuciante falta de paridad en la emergente industria IA. En España solo el 23% de los trabajadores en el sector de la IA son mujeres: el sector está dejando atrás a la mitad de la población, que de esta forma no está accediendo al potencial de este mercado laboral, ni les permitirá protagonizar la transformación económica que aspira aplicar esta tecnología.

Novedades del anteproyecto

En realidad, el Reglamento Europeo de la IA, como todo reglamento comunitario, no requiere una transposición explícita. Esta norma, que se aprobó bajo Presidencia Española del Consejo de la Unión Europea a finales de 2023, cataloga los sistemas IA en función del riesgo que suponen a los derechos de los ciudadanos (riesgo nulo, limitado, alto o inaceptable) y le impone una serie de obligaciones a todos estos modelos y a sus desarrolladores. En los casos más extremos se contempla la total prohibición del sistema.

Pero el Gobierno ha aprovechado su texto para llevar más lejos la norma, y, por ejemplo reparte competencias a la hora de velar por el cumplimiento de esta regulación. El Poder Judicial atenderá las aplicaciones de sistemas IA en la justicia, la Junta Electoral se hará cargo de las afecciones que la tecnología pueda tener en procesos electorales, mientras que Protección de Datos atenderá a sistemas de reconocimiento biométrico que tienen que ver con el tratamiento de datos personales. Para el resto de casos está la Agencia Española de Supervisión de la IA (AESIA), con sede en Galicia.

‘Deepfakes’

El Reglamento IA tiene su propio régimen sancionador, pero el Gobierno también aprovecha para ampliarlo y proponer multas con las que combatir los deepfakes, las fotos y vídeos falsificados con IA. Sin embargo, no ha trascendido cómo el Ejecutivo planea que las tecnológicas cumplan con ese extremo, más allá de la idea de incrustar marcas de agua, avisando a los usuarios de que lo que están viendo no es real. Para entidades como la Federación de Asociaciones para la Prevención del Maltrato Infantil, el anteproyecto es un paso clave, pero “insuficiente” y necesita de “medidas más contundentes”.

El Reglamento Europeo ya habla de que cuando un archivo constituya una “ultrasuplantación” se hará público “que esos contenidos han sido manipulados de manera artificial”, pero un deepfake generado fuera de la Unión Europea podrá seguir siendo accesible por ciudadanos del bloque comunitario a través de internet.

Mujeres en IA

La industria de la inteligencia artificial, al igual que sucede en el resto del sector STEM, está muy masculinizada. Algunos informes, como la última entrega de la serie de Randstad, Comprender la escasez de talento, arrojaban brotes verdes: según sus datos, el 45% de los profesionales formados en IA en España son mujeres, lo que representa una menor brecha de género que en el cómputo global, donde las trabajadoras formadas en IA representan apenas el 30% del total.

Pero preparación y ejercicio son cosas distintas y otros informes ofrecen datos más preocupantes. Es el caso del documento ‘La IA en la UE: Tendencias e ideas de LinkedIn para 2024’, que detalla cómo solo el 26,3% de la masa laboral del sector IA en la Unión Europea lo componen mujeres.

El propio Gobierno rebajó esa cifra al 23% para el caso de España, según el último informe ‘Brecha digital de género del Observatorio Nacional de Tecnología y Sociedad (Ontsi)’, lo que llevó a la Federación Española de Mujeres Directivas, Ejecutivas, Profesionales y Empresarias (FEDEPE) a recordar que “la falta de diversidad en estos sectores perpetúa sesgos que impactan en la sociedad del presente y en la construcción del futuro”.

Nombres

Es cierto que el propio Ejecutivo se ha rodeado de grupos de expertos paritarios. La Carta de Derechos Digitales que el Gobierno presentó en 2021 contó con la colaboración de especialistas como Argelia Queralt (CGPJ), la hispanomexicana Carissa Véliz (Universidad de Oxford), Paloma Llaneza (Razona Legaltech), Ofelia Tejerina (Internautas), Simona Levi (Xnet), Emilia Saiz (Organización Mundial de Ciudades y Gobiernos Locales) o Celia Fernández Aller (Universidad Politécnica de Madrid).

El Consejo Asesor Internacional en IA, que se constituyó el año pasado, contó también con Erika Staël Von Holstein, directora del think tank Reimaginar Europa, Kate Crawford, investigadora en Microsoft Research; o Francesca Bria, expresidenta del Fondo Nacional de Innovación de Italia.

Son nombres de primer orden. A día de hoy siguen poniendo sobre aviso de los riesgos de una IA sin ética y con sesgos, en una industria en la que también participan otras expertas como Gemma Galdon, española y una de las primeras impulsoras del mundo de una consultora y auditora especializada en ética algorítmica, Éticas, o ejecutivas y profesionales como Nerea Luis, directora de IA en la consultora española Sngular.

No son los únicos nombres que sobresaldrían si se atiende al resto del continente. Profesionales como Meike Zehlike, científica aplicada para la IA responsable en la alemana Zalando, Susan Wegner, jefa global de Datos e IA en la también alemana Allianz, o Celine Xu, científica de datos jefa en la sueca H&M son algunos ejemplos. Sin embargo, los datos evidencian que, con todo, queda mucho camino por andar.

Desafíos

Para transitarlo, España ya cuenta con una ley que exigirá más paridad en los órganos de dirección a las empresas del Ibex 35 desde julio del año que viene y al resto de sociedades cotizadas desde julio de 2027. Del mismo modo, el Reglamento IA, cuya adaptación nacional todavía debe iniciar su tramitación parlamentaria en las Cortes, exige a las empresas que empiecen a aplicar de forma efectiva la regulación desde agosto del año que viene, y desde agosto de 2027, en el caso de los sistemas IA de alto riesgo.

Tanto el Reglamento como la ley proyectada por el Gobierno identifican prácticas prohibidas en sistemas de alto riesgo. “Por ejemplo, un chatbot que genere adicción al juego en usuarios”, o “un juguete infantil que anime a niños a completar retos que les provoquen lesiones graves”. “Esto estaba ocurriendo”, aseveró el ministro López hace unos días.

La igualdad, con todo, no será el único desafío que deberá abordar el sector de la IA en España o en la Unión Europea. También deberá responder a la narrativa de las gigantes tecnológicas estadounidenses. Carme Artigas, exsecretaria de Estado y copresidenta del comité asesor en IA de la ONU, avisó a finales del año pasado que la Unión “está perdiendo la batalla narrativa” sobre la regulación en el ámbito de la IA.

Por su parte, Arthur Mensch, CEO de Mistral, la principal empresa IA francesa y una de las esperanzas blancas de la industria, descarta que la regulación sea el mayor problema del sector europeo… aunque, en sus propias palabras, tampoco ayuda.

TAGS DE ESTA NOTICIA