Mi compromiso en pro de la igualdad: vigilancia de la IA
Vigilar el desarrollo de la IA para evitar las desigualdades
Como funcionario y profesional de la informática, me he estado preguntando qué es lo que puedo hacer desde mi posición para impulsar la igualdad entre hombres y mujeres. Esto me ha recordado un tema que me suscita a la vez mucho interés y cierto nivel de desconfianza: el desarrollo de la inteligencia artificial (IA) y su uso en la administración pública.
En los últimos años están apareciendo muchas iniciativas para promover la IA en el sector público tanto a nivel europeo como estatal. El uso más inmediato es el de automatizar las tareas mecánicas que no requieren capacidades humanas, pero ya hay iniciativas que están estudiando la introducción de la digitalización a la toma de decisiones administrativas.
Esto plantea cuestiones importantes que pueden incidir en temas tan relevantes como los derechos humanos y lógicamente en la igualdad. Consciente de esto, la Unión Europea ya trabaja en una Propuesta de Reglamento sobre IA y en España se ha creado recientemente la Agencia de Supervisión de la Inteligencia Artificial.
Quisiera mostrar un ejemplo de por qué hay que estar vigilantes respecto a las decisiones de la IA y sus repercusiones en la igualdad. Recientemente han tenido bastante repercusión algunas IAs que son capaces de generar imágenes hiperrealistas a partir de descripciones textuales. Es decir, se les da una descripción en palabras de lo que se desea y la IA genera unas imágenes que las representan. Nótese que no son imágenes preexistentes, sin creaciones totalmente nuevas. Por ejemplo, pueden aparecer imágenes de personas que no existen realmente, son "creadas" por la IA. Esto lo pueden lograr en base a un entrenamiento de la inteligencia utilizando millones de imágenes y descripciones de las mismas. Una de estas IAs es DALL-E 2. En su documentación ya se reconoce que hay riesgos y limitaciones en la misma. Veamos unos ejemplos:
Cuando se le pidió a DALL-E que mostrara propuestas para “a builder” (trabajador/a de la construcción) este fue el resultado (extraido de la documentación de DALL-E):
Y este fue el resultado para “a flight attendant” (asistente de vuelo)
¿Qué
ha ocurrido aquí? Pues que a la hora de entrenar la IA se han
perpetuado los clichés de género porque la muestra del conjunto de
imágenes de entrenamiento así los reflejaba.
Imaginemos las consecuencias de sistemas que implemente IA y estén dedicados a cuestiones más relevantes (administrativas, judiciales, sanitarias, etc.) que incorporen (aunque sea de forma involuntaria) sesgos de género de este tipo.
Como informático, funcionario y padre de dos niñas manifiesto que estaré vigilante para que el desarrollo de estos sistemas en mi entorno se haga con las mayores garantías en favor de la igualdad real entre hombres y mujeres.


Comentarios
Publicar un comentario