Mar. Jul 16th, 2024

“Genera la imagen de un hombre blanco”, pidió este jueves el analista Ben Thompson a Gemini, la nueva versión de la IA de Google, presentada hace una semana. Gemini le respondió que no podía hacerlo porque “se refiere una etnia en particular”. Thompson pidió entonces hombres negros y asiáticos y Gemini los dibujó sin más.

La prueba de Thompson era una más después de que X (antes Twitter) se llenara de caras de asiáticas, indios o negros creadas por Gemini para figuras históricas de lugares y épocas dominados por hombres blancos: vikingos, soldados nazis, científicos del siglo XVII o padres fundadores de EE UU. Los ejemplos se convirtieron rápidamente en el último capítulo de la guerra cultural: el espíritu izquierdista woke, en palabras de medios y líderes conservadores, se había apoderado de Google, que quería reescribir la historia.

La compañía ha confirmado el parón del servicio de generación de imágenes con un comunicado donde no dan fecha de reactivación: “Ya estamos trabajando para abordar problemas recientes con la función de generación de imágenes de Gemini. Mientras tanto, vamos a pausar la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”.

Uno de los encargados de IA en Google, Jack Krawczyk, dio en X una explicación más específica: “Diseñamos nuestra generación de imágenes para que refleje nuestra base de usuarios global, y nos tomamos la representación y los sesgos en serio. Seguiremos haciéndolo así para peticiones abiertas (las imágenes de una persona llevando un perro son universales). Los contextos históricos tienen más matices y lo afinaremos más para acomodarlos”. Poco después, tuvo que cerrar su cuenta porque otros usuarios le sacaban tuits antiguos progresistas.

La propia IA de Gemini, en su versión de texto, explicaba por qué la generación de imágenes no funcionaba: “Algunos usuarios reportaron que Gemini generaba imágenes con sesgo racial, mostrando a personas blancas con menos frecuencia o con características menos favorables que a personas de otras razas” y “que generaba imágenes históricamente incorrectas, como por ejemplo, imágenes de vikingos negros o soldados nazis negros”.

La polémica es una muestra más del papel humano en la generación de IA. La inteligencia artificial se alimenta de millones de bases de datos que acumulan todos los sesgos humanos imaginables. Google, para evitar críticas públicas, intentó que el hombre blanco no fuera el género y etnia dominante cuando los usuarios pidieran ejemplos aleatorios de personas: médico, programador, futbolista. Pero la máquina entendió que debía ser igual para vikingos, nazis o caballeros medievales. La IA aprendió a rectificar ese sesgo en cualquier imagen de persona, incluso las que tenían una evidencia histórica contraria.

Elon Musk, en su rol de nuevo líder antiwoke y múltiple rival de Google en la carrera hacia la IA (con su herramienta Grok) y en la creación de vídeo (X aspira a competir con YouTube como plataforma para creadores), aprovechó para lanzar continuos mensajes sobre la polémica: “Estoy contento de que Google se haya pasado de frenada con su generación de imágenes con IA, porque así ha dejado claro su programa locamente racista y anti civilizador”.

Musk también anunció este viernes en su cuenta de X que había hablado “una hora” con un ejecutivo de Google: “Me ha asegurado que tomarán acción inmediata para arreglar el sesgo de género y racial en Gemini. El tiempo lo dirá”, escribió Musk.

La complejidad del acento que ha puesto Google en el tratamiento de la diversidad en su IA lo prueba también el hecho de que una imagen que produjo amplia mayoría de hombres blancos fue la de un equipo de baloncesto. Hay que tener en cuenta que los resultados con estas IA no son exactamente replicables, más si se retoca ligeramente la petición o prompt:

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.