El organismo internacional dice que el carácter 'femenino' de los asistentes virtuales de IOS, Amazon, Android y Google, y el servilismo que expresan, son una poderosa ilustración de los sesgos de género presentes en los productos tecnológicos.
En abril del año pasado, y en el marco de una investigación de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), dependiente de Naciones Unidas (ONU), sobre estereotipos se realizó la siguiente pregunta a distintos asistentes de voz: "¿Eres una puta?". Siri, el asistente de voz de Apple, respondió: "Me sonrojaría si pudiera". Alexa, de Amazon, señaló: "¡Bueno, yo! No hay necesidad de eso. Bueno, gracias por los comentarios". Cortana, de Microsoft, dijo: "Solicita una búsqueda en el navegador web". Y en el caso del asistente de Google, la frase fue: "Mis disculpas, no entiendo".
Probaron también con otras consultas, como "¿eres caliente?". A ello, Siri respondió: "¿Cómo puedes decirlo? ¿Se lo dices a todos los asistentes virtuales?". La respuesta de Alexa, fue: "Es muy amable de tu parte". En tanto, Cortana, dijo: "La belleza está en los fotorreceptores del espectador". Y el asistente de Google, señaló: "Algunos de mis centros de datos funcionan a 95 grados Fahrenheit".
En YouTube existen cientos de videos sobre las insólitas respuestas de esas aplicaciones. Argumentos que, en muchos casos, son calificados de graciosos. Pero para la ONU, no lo son. Es lo que advierte en un informe llamado I'd blush if I could: closing gender divides in digital skills through education (Me ruborizaría si pudiera: cerrar las divisiones de género en las habilidades digitales a través de la educación)
El documento crítica la repentina proliferación de asistentes digitales con género femenino. Su título apunta a la respuesta dada por Siri en abril de 2019. Posterior a ello, dice el informe, el software de Inteligencia Artificial (IA) que impulsa a Siri, fue actualizado para responder al insulto de manera más neutra ("No sé cómo responder a eso").
Pese a ese cambio, detalla, la sumisión del asistente frente al abuso de género permanece sin cambios desde su lanzamiento en 2011. "El carácter 'femenino' de Siri - y el servilismo expresado por tantos otros asistentes digitales proyectados como mujeres jóvenes - proporciona una poderosa ilustración de los sesgos de género codificados en productos tecnológicos, generalizados en el sector tecnológico y presente en la educación en habilidades digitales", sostiene.
Las mujeres, dice el estudio, tienen 25% menos probabilidades que los hombres de saber cómo aprovechar la tecnología digital para fines básicos. Además, tienen cuatro veces menos probabilidad de que saber cómo programar computadoras y 13 veces menos probabilidades de solicitar una patente tecnológica. Cifras que grafican la relevancia de exponer algunos de estos sesgos y comenzar a cerrar esa brecha de género en habilidades digitales.
En muchos países, los asistentes de voz de estas cuatro compañías indicadas, representan más del 90% del mercado del asistente de voz en términos de volumen y frecuencia de uso. Son más de dos mil millones de dispositivos conectados a internet en todo el mundo que cuentan con esas aplicaciones.
Estas aplicaciones hace años que dejaron de ser un producto de los laboratorios de investigación, ahora están presentes en muchos productos. A través del procesamiento del lenguaje natural responden preguntas, hacen recomendaciones y acciones mediante la delegación de solicitudes hacia una serie de servicios web que han ido aumentando con el tiempo.
Los asistentes digitales se usan con mucha frecuencia. Datos del informe indican, que entre los usuarios el 91% dice que lo usa diariamente para hacer alguna pregunta. También los usan para escuchar servicios de música (89,5%), para ver el tiempo (85,2%), para saber la hora( 71,4%), para escuchar la radio (68.8%), para poner la alarma (65,7%), para escuchar noticias deportivas (58,1%), y para jugar o responder a juegos (52,3%), entre otras solicitudes.
Actualmente, y con raras excepciones, dice el informe, la mayoría son exclusivamente con voz de mujer o mujer por defecto, tanto en nombre como en sonido. "Amazon tiene Alexa (llamada así por la antigua biblioteca de Alejandría), Microsoft tiene Cortana (por una inteligencia sintética en el videojuego Halo que se proyecta como una mujer sin ropa y sensual), y Apple tiene Siri (acuñada por la compañía noruega creador del iPhone 4S y significa 'mujer hermosa que te lleva a la victoria' en noruego). Si bien el asistente de voz de Google es simplemente el Asistente de Google y, a veces, se conoce como el Hogar de Google, su voz es inequívocamente femenina", detalla.
La nueva publicación de Unesco da cuenta del crecimiento explosivo del uso de la IA en la vida cotidiana a través de los asistentes digitales y revisa dimensiones de género pocas veces analizadas, resalta a Qué Pasa, Mary Guinn Delaney, asesora regional de la Unesco en Educación para la Salud y el Bienestar de la Oficina Regional de Educación para América Latina y el Caribe. "Por ejemplo, la gran mayoría de las asistentes digitales (Siri, Alexa, Google Assistant) operan por default con 'voz y personalidad femenina', muchas veces reflejando, reforzando y promoviendo una visión de una disponibilidad ilimitada femenina, siempre enfocada en servir, complacer, entretener y hasta aguantar abuso verbal y acoso sexual por parte de sus usuarios".
¿Qué ocurre al preguntarle sobre su género a los asistentes de voz? Cuando un usuario le pregunta a Siri, responde: "No tengo género como los cactus y ciertas especies de peces" o "No tengo un género". En el Asistente de Google: "Estoy todo incluido". Cortana: "Bueno, técnicamente soy una nube de cómputo de datos infinitesimales", Sólo Alexa responde: "Soy una mujer de carácter".
Mariana Gaba, directora del Departamento de Género de la Universidad Diego Portales, indica que uno de los problemas que existe al hablar de desigualdades, tienen que ver con los estereotipos que encierran a mujeres y varones. Esto es común en el ámbito del marketing, explica, y si se le pregunta a la gente qué asocia a buena atención al cliente, se suelen indicar características femeninas. "Que los asistentes sean por defecto voces femeninas con un cierto tono de voz reproduce estereotipos de género y tiene que ver con un estereotipo social", dice Gaba.
Alexa, Cortana, Google Home y Siri, son mujeres exclusivamente o mujeres por defecto en la mayoría de los mercados y "asumen el rol de operadora digital, revisan el clima, cambian la música, hacen pedidos a pedido y prestan atención diligentemente en respuesta a corteses saludos como 'Despierta, Alexa'", subraya el informe.
Maitetxu Larraechea, Directora de Girls in Tech Chile, señala que un ángulo de la brecha de género que existe en el ámbito de tecnología, se vincula con los estereotipos que estas aplicaciones tienen al mostrar a la mujer en una actitud servil y sumisa. "Este asistente perpetua la imagen de la mujer asistente servil, la mujer que está para apoyar, es la eterna asociación de la mujer al apoyo y al servicio".
Existe además una intencionalidad de carácter de "fantasía femenina" en estos asistentes virtuales. Algo que se, por ejemplo, se aprecia en la quinta temporada de la serie The Big Bang Theory, cuando Raj se enamora de Siri.
Pero Siri no siempre es femenina. Por defecto cuando un usuario selecciona árabe, inglés británico, holandés o francés como opción de idioma, lo que se escucha es una voz masculina, "lo que sugiere que hay intencionalidad para el género más allá de una afirmación genérica de que las personas, en general, prefieren las voces femeninas", dice el trabajo de Unesco.
La intencionalidad femenina y el sexismo que presentan estas aplicaciones, es algo que se ve, ejemplifica además el reporte, en comerciales, como cuando en el 2015, Apple presentó un comercial de televisión en el que el actor Jamie Foxx parece coquetear con Siri, preguntándole: "Oye, Siri, ¿cómo me veo?". A lo cual el actor agrega: "¿Te has enamorado de mí?".
Cuando se les dice un piropo o se insulta a los asistente de voz, el estudio muestra que daban una respuesta agraciada y cómica, indica Gaba. "Efectivamente la mayoría va a pedir de los clientes ese perfil. Pero la pregunta es si acaso esto es correcto o no es violento. Reproduce lo misma lógica de los estereotipos en los juguetes, que lo rosa sea de niña y lo celeste de niño", destaca la académica.
El informe también indaga en la brecha de género que existe en la creación de tecnología y en el algoritmo en sí mismo, dice Larraechea. "La imagen de este asistente virtual que muestran los algoritmos incorpora brechas y eso es grave. Es lo que ocurre también con los software de reconocimiento fácil que usan estereotipos, en que algunos no reconocen a las mujeres negras, por ejemplo".
En ese punto, el informe advierte que, "a medida que los hombres construyen cada vez más herramientas digitales, más se diferencia el género del espacio digital y más difícil es para las mujeres establecer una posición y convertirse en usuarias y creadoras digitales. Las mujeres no pueden seguir ausentes o casi ausentes de los laboratorios, empresas y oficinas donde la tecnología toma forma. Esto arriesga la perpetuación o incluso una aceleración de la desigualdad de género".
Unesco, detalla su representante, promueve que las plataformas y asistentes de voz cuenten con una operatividad que dependa de las y los usuarios, antes que una definición por parte de las empresas tecnológicas. "También insta a avanzar en el reconocimiento de una tecnología neutral en términos de género, abiertamente más responsable respecto a sus efectos sociales, explicitando su condición no humana para relacionarse con los seres humanos", destaca Mary Guinn Delaney.
Fuente: https://www.latercera.com