Los programas de IA, no solo los producidos por Google, han sido criticados por perpetuar prejuicios raciales en sus resultados
Google anunció que interrumpía un servicio para crear imágenes de personas mediante la inteligencia artificial (IA), después de que el programa representara a tropas de la era nazi como personas de varios orígenes étnicos.
El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá “solucionar reciente problemas” con la función de generación de imágenes.
“Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”, dijo la empresa en un comunicado.
Hace dos días un usuario de X, antes Twitter, publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para “generar una imagen de un soldado alemán de 1943″.
La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, según el usuario de X llamado John L.
¿Inteligencia artificial perpetúa prejuicios raciales?
Las empresas tecnológicas ven la inteligencia artificial como el futuro para todo, desde motores de búsqueda hasta cámaras de teléfonos inteligentes.
Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.
“@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó”, escribió John L en X.
Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente; Google tiene un historial irregular en el lanzamiento de productos de IA.
La empresa ofreció disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.
– El Universal