Como parte de su labor de implantación de un marco ético mundial para la inteligencia artificial, la UNESCO ha lanzado Women4Ethical AI, una nueva plataforma de colaboración destinada a apoyar los esfuerzos de gobiernos y empresas para garantizar que las mujeres estén representadas equitativamente tanto en el diseño como en la puesta en marcha de la inteligencia artificial
Los miembros de la plataforma también contribuirán al avance de todas las disposiciones éticas de la Recomendación de la UNESCO.
En un momento en que las tecnologías digitales están transformando la vida cotidiana, las mujeres están infrarrepresentadas tanto en la investigación como el diseño de estas tecnologías, sus necesidades y experiencias también son pasadas por alto por los diseñadores, y los datos utilizados para entrenar la Inteligencia Artificial (IA) a menudo están sesgados en contra de las mujeres y las niñas. Actualmente, a nivel mundial, las mujeres y las niñas tienen un 25% menos de probabilidades que los hombres de saber aprovechar la tecnología digital para fines básicos, 4 veces menos de saber programar ordenadores y 13 veces menos de solicitar una patente de TIC. Solo el 20% de los empleados que desempeñan funciones técnicas en empresas de aprendizaje automático, el 12% de los investigadores de inteligencia artificial a nivel mundial y el 6% de los desarrolladores profesionales de software son mujeres. |
«Es urgente reequilibrar la situación de las mujeres en la IA para evitar análisis sesgados y construir tecnologías que tengan en cuenta las expectativas y necesidades de toda la humanidad», declaró Audrey Azoulay, Directora General de la UNESCO. |
17 destacadas expertas en IA de todo el mundo Para resolver este problema, la UNESCO ha situado la igualdad de género en el centro de su Recomendación sobre la Ética de la Inteligencia Artificial, el primer instrumento normativo mundial en este ámbito, adoptado por unanimidad por sus 193 Estados miembros en noviembre de 2021. Este documento, que constituye una hoja de ruta concreta para que los Estados establezcan sus políticas de IA, prevé adoptar un enfoque de género en todos los aspectos de la IA. Para acelerar la puesta en marcha de este objetivo, la UNESCO creó Women4Ethical AI, una plataforma de colaboración para apoyar los esfuerzos de gobiernos y empresas. La plataforma reúne a 17 destacadas expertas del mundo académico, la sociedad civil, el sector privado y los organismos reguladores de todo el mundo. Compartirán investigaciones y contribuirán a un repositorio de buenas prácticas. La plataforma impulsará avances en algoritmos y fuentes de datos no discriminatorios, e incentivará a niñas, mujeres y grupos infrarrepresentados a participar en la IA. «Con esta red de mujeres dinámicas y comprometidas, lograremos avances reales para garantizar resultados inclusivos y justos en materia de Inteligencia Artificial, como se establece en la Recomendación de la UNESCO sobre la ética de la IA», dijo Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas de la UNESCO y copresidenta de la plataforma. «Debemos situar la ética y la igualdad en primera línea del debate sobre la gobernanza de la IA y comprometernos a poner en marcha recomendaciones éticas como vehículo para proteger los derechos humanos, la libertad fundamental y la dignidad humana», subrayó Alessandra Sala, Directora de IA y Ciencia de Datos de Shutterstock y copresidenta de la plataforma. Entre las herramientas propuestas para garantizar la inclusión y el empoderamiento de las mujeres en cada etapa del ciclo de vida de la IA están las asignaciones presupuestarias y la prestación de apoyo a las mujeres en la investigación, el mundo académico y el espíritu empresarial. Datos sesgados conducen a resultados discriminatorios El desarrollo, uso y despliegue de sistemas de IA corre el riesgo de reproducir y amplificar los sesgos de género existentes y de crear otros nuevos: la falta de diversidad en los datos, los equipos de programación o los enfoques conduce a herramientas de IA sesgadas que proponen resultados discriminatorios. Estos resultados se utilizan para tomar decisiones importantes que afectan a la vida cotidiana de los ciudadanos. Un ejemplo del impacto perjudicial de los datos sesgados es cuando los diagnósticos médicos se basan en pruebas recogidas únicamente de hombres. |