Mia Shah-Dand (Women AI Ethics): “La IA está diseñada contra las mujeres”

Entrevistamos a la impulsora de Women AI Ethics y WAIE+ y repasamos con ella los sesgos de una IA creada mayoritariamente por hombres blancos que hablan inglés. Regulación, monopolio de infraestructuras… ¿Dónde debemos actuar para que la tecnología no obvie ni desplace a nadie?
MiaWomanAI
Mia Shah-Dand, impulsora de Women AI Ethics y WAIE+.

A medio camino entre Nueva York y París, Mia Shah-Dand se ha convertido en uno de esos pepitos grillos que tanto necesita el sector tecnológico para no olvidar que su fin último no es generar negocio a toda costa, y que debe incorporar unos guardarraíles éticos. Su actividad se dirigió inicialmente a sensibilizar sobre el impacto de la ola digital en las mujeres, pero la cosa no va a mejor y ahora ha adoptado una visión social más amplia.

Pregunta: Lanzaste Women AI Ethics y ahora WAIE+. ¿Cuál es el objetivo de ambas iniciativas?

Respuesta: Empezamos con Women in AI Ethics en 2018, pero ahora tenemos una nueva organización llamada WeAI+, que se enfoca en el 99% de la humanidad. Porque al 1% le va bien, están comprando islas, compran políticos y tienen búnkeres subterráneos. La marca de innovación de Silicon Valley le ha fallado a la clase trabajadora. Todo lo que ha hecho es concentrar más poder en el 1%. Nuestra comunidad se dirige a cualquiera que no sea multimillonario, a aquellos que no tienen el control.

Ponemos el enfoque en la seguridad: económica, física y digital. La innovación está desplazando a las personas y ese no debería ser el propósito de la inteligencia artificial (IA). CEOs como el de Nvidia, Jensen Huang, han dicho que los trabajos del futuro serán los de fontanero y electricista, o que los títulos universitarios no valdrán nada. ¿Qué tipo de futuro hemos creado para la próxima generación?

«Las empresas diseñan tecnologías para maximizar su propia riqueza»

Pregunta: Desde la perspectiva de una gran corporación tecnológica, la respuesta es que el problema no se encuentra en la tecnología, sino en el uso que hacemos de ella.

Respuesta: La IA no es algo que exista en la naturaleza, no es como una tormenta o un huracán, ha sido creada por humanos. Y si podemos crearla, podemos controlarla. La cuestión es: ¿por qué esas empresas desarrollan tecnologías que no pueden controlar o lanzan tecnologías sin medidas de seguridad? Es intencional. Están diseñadas intencionalmente para maximizar su propia riqueza, no para acabar con el hambre mundial.

Un gran ejemplo es Grok, que es una herramienta horrible. Fue desarrollada con la intención de que se pueda desnudar a mujeres, a bebés y a niñas. Cuando se ha desencadenado una protesta pública, ¿qué ha hecho su creador, Elon Musk? Lo ha convertido en una función premium.

Pregunta: La regulación se presenta como un problema. Las grandes tecnológicas bromean sobre Europa y dicen que está perdiendo la carrera de la innovación por su obsesión con regular. No es fácil encontrar un equilibrio entre la defensa de la iniciativa personal y la innovación y la necesidad de establecer algún control.

Respuesta: Yo empezaría con la cuestión de la infraestructura. Nos hacemos muchas preguntas sobre los datos soberanos y sobre la IA soberana. He escuchado a políticos europeos hablar sobre ello, pero a continuación compruebas que su infraestructura es Google. No puedes estar en contra de los excesos de Silicon Valley y al mismo tiempo construir toda tu infraestructura sobre ellos.

«La mayoría de las herramientas que usan las empresas europeas se basan datos robados y contenido no consensual»

Europa debe invertir en su propia infraestructura y en sus productos tecnológicos, para que estén construidos de la manera correcta. La mayoría de las herramientas que usan las empresas europeas se basan en los mismos cimientos defectuosos de datos robados y contenido no consensual. Nuestro enfoque es defensivo: construir un ecosistema para defendernos contra la vigilancia y los deepfakes.

En realidad, tu discurso se asemeja al de aquellos decepcionados con las promesas de unión global que formularon las redes sociales a final de la década de los 2000. ¿Al diseñar la IA hemos aprendido de los errores pasados en el sector tecnológico o seguimos priorizando los beneficios?

La IA ha existido durante mucho tiempo, el término se acuñó en los años 50 y muchas de las inversiones que ha captado provinieron del Departamento de Defensa de Estados Unidos para fines militares. Ha pasado por ciclos de auge e invierno porque se financiaba con base en promesas que después se veía que no podía cumplir.

Ahora mismo, las universidades y las escuelas de negocios enseñan sobre «alfabetización en IA» sólo para impulsar su adopción, pero nunca le hablan a la gente de los riesgos de ciberseguridad o el robo de identidad. No explican la «letra pequeña» porque expones los problemas, la gente no comprará el producto.

En mis charlas, suelo mostrar un gráfico sobre la evolución de los ingresos de Meta, por ejemplo. Cómo va a convencer a sus accionistas de aplicar una perspectiva ética en su negocio, de que tiene que controlar la adicción que genera su algoritmo, cuando tiene este tipo de crecimiento, es imposible.

Así es. Absolutamente. Por eso van a los propietarios del contenido. No vamos a convencer a esas compañías porque cuando la motivación es la avaricia, es conseguir más dinero, realmente te enfocas en lo que crees que eres bueno. Por eso la ética es complicada. No se puede convencer a alguien de ser ético si está motivado por la avaricia o por el dinero.

«Las tecnologías están siendo construidas por hombres para hombres»

Women AI Ethics hace afirmaciones muy duras, por ejemplo, que la IA generativa está sesgada contra las mujeres y las personas de color. ¿Crees realmente que está diseñada contra las mujeres?

Absolutamente, porque las tecnologías están siendo construidas por hombres para hombres. No hay nadie en la sala preguntando «¿cómo afectará esto a las mujeres?» Incluso los datos de entrenamiento tienen sesgos incorporados. Etiquetan fotos de mujeres como «enfermera» y de hombres como «doctor». Si le pides a la IA una foto de doctores, te mostrará a todos hombres. Una vez Microsoft, intentó corregir esto para fomentar la diversidad y la herramienta comenzó a mostrar «nazis negros».

Confiamos demasiado en las empresas tecnológicas para resolver los problemas que ellas mismas han creado. Hay una oportunidad para que creemos tecnologías imparciales construidas de la manera correcta. No es demasiado tarde. Nos dicen que estas tecnologías ya existen, pero ¿realmente necesitamos modelos de lenguaje grandes?

El ámbito empresarial es lo suficientemente bueno como para que los modelos de lenguaje pequeños tengan menos impacto ambiental. No se trata solo de llenar una sala con más mujeres, sino de llenarla con personas que puedan identificar estos problemas, que representen al 99 % de la humanidad. Porque ahora mismo el 1% está decidiendo cómo se deben construir estas tecnologías, qué debemos hacer y cómo deben ser.

«Si tu producto es para pacientes, ten a esos pacientes involucrados desde el principio»

En un evento de tecnología de salud, una experta explicaba el bajo uso de ciertos dispositivos y aplicaciones diseñados para consumidoras, por ejemplo, relacionados con la gestión del ciclo menstrual, porque en realidad fueron diseñados por hombres. ¿Qué deben hacer las organizaciones para resolver este problema en su seno?

Deben incluir a su público objetivo desde la etapa de diseño, no después en la etapa de pruebas. Si tu producto es para pacientes, ten a esos pacientes involucrados desde el principio. Si dicen «no pensamos en el sesgo contra las mujeres», entonces puedo decirte que no tienen mujeres revisando su trabajo. También rechazamos la noción de que todo debe ser en inglés. Todos nuestros recursos se están traduciendo. El problema que ahora mismo es que entre el 13% y el 10% de la fuerza laboral tecnológica son mujeres y no están en una posición donde puedan tomar decisiones.

Si dicen que algo no funciona para personas negras, es porque en la etapa de diseño no hubo personas negras en el equipo. Si un producto solo funciona en inglés, ¿a quién crees que no se incluyó? Gran parte del trabajo que estamos haciendo ahora mismo consiste en traducir nuestros recursos a otros idiomas. Rechazamos esta idea de que todo el mundo habla inglés y todo tiene que estar en inglés.

«No podemos asumir que la industria va de hombres haciendo cosas para hombres»

Es difícil establecer una conexión entre el desarrollo de la IA industrial o la robótica y el sesgo de género.

Siempre pensamos en el espacio industrial como centrado en lo masculino. Pero incluso en cosas básicas como los coches, los mecanismos de seguridad fueron diseñados para proteger a los hombres, no a las mujeres.

En la robótica, si integras comandos de voz y el sistema está entrenado solo con voces masculinas o acentos estadounidenses, no va a entender a las mujeres. Como asumimos que la industria manufacturera es de hombres haciendo cosas para hombres, no consideramos a las mujeres en la ecuación. Necesitamos investigar cómo afecta esto a las mujeres en el espacio industrial, empezando por examinar los productos desde una visión no centrada en el hombre

Especiales

Ajustes
Innovación española

A través del presente Panel de Configuración, puede aceptar o rechazarlas en su totalidad o puede seleccionar qué tipo de cookies quiere aceptar y cuáles quiere rechazar.

Para obtener más información, acceda a nuestra Política de Cookies

Cookies técnicas

Las cookies técnicas que son estrictamente necesarias y permanecen siempre activas son para que el usuario acceda y navegue en INNOVASPAIN.COM.

Cookies de Preferencias o personalización

Utilizamos cookies de personalización que son aquellas que, tratadas por nosotros o por terceros, nos permiten recordar información para que el usuario acceda al servicio con determinadas características que pueden diferenciar su experiencia de la de otros usuarios.

Si desactivas esta cookie no podremos guardar tus preferencias. Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.

Cookies Analíticas

Utilizamos cookies de análisis o medición que son aquellas que, tratadas por nosotros o por terceros, nos permiten el seguimiento y análisis del comportamiento de los usuarios de los sitios web a los que están vinculadas, incluida la cuantificación de los impactos de los anuncios.