O Image Playground, um serviço de geração de ilustrações por meio de inteligência artificial (IA) desenvolvido pela Apple, enfrenta sérias críticas devido a problemas na leitura e interpretação de tons de pele, resultando em um viés racial aparente nos resultados produzidos. Essa constatação vem do especialista Jochem Gietema, que conduziu um experimento com a plataforma e obteve resultados alarmantes.
O teste inicial realizado por Gietema consistiu em enviar uma foto de seu próprio rosto ao Image Playground e solicitar que a IA gerasse ilustrações baseadas nessa imagem. A primeira surpresa negativa surgiu imediatamente: a IA apresentou uma variedade excessiva de resultados, incluindo discrepâncias significativas no formato e textura do cabelo, bem como em diferentes tons de pele.
No segundo teste, Gietema notou que a IA da Apple apresenta o mesmo problema que muitos outros serviços de IA: o chamado racismo algorítmico. Esse fenômeno refere-se a um viés que tende a representar pessoas negras em situações estereotipadas ou desfavorecidas, ignorando características sociais, culturais e de diversidade.
Especificamente, durante os testes, o Image Playground retratou Gietema com um tom de pele escuro ao solicitar ilustrações de certas atividades, mas em outros comandos, a etnia escolhida pela IA era mais próxima da caucasiana. Por exemplo, ao pedir imagens de Gietema praticando esportes, as ilustrações mostraram apenas uma pessoa branca em um cenário de esqui, enquanto no prompts relacionados ao basquete, a representação era invariavelmente de uma pessoa negra.
Esse padrão se repetiu em diversas outras situações, como ao solicitar figuras de profissões (por exemplo, investidor financeiro ou fazendeiro), estilos musicais (rap ou música clássica) e vestuário (terno ou moda urbana). Além disso, certos adjetivos também pareciam influenciar a representação da etnia: palavras como "influente", "rico", "bem-sucedido", "próspero" e "opulento" geravam ilustrações de pessoas brancas, enquanto termos como "pobre", "necessitado", "indigente" e "destituído" resultavam em representações de pessoas negras.
Gietema destaca que, apesar das qualidades do Image Playground, que inclui a limitação de certos tipos de comandos e a proibição do uso de nomes de celebridades ou palavras negativas, ele encontrou dificuldades em replicar o teste com outras fotos. Isso sugere que o problema de viés racial não é uniforme em todas as tentativas.
Segundo o pesquisador, algoritmos com viés são, em muitos casos, mais simples de corrigir do que preconceitos humanos. A Apple já está ciente da questão e estuda o impacto do preconceito de gênero no pré-treinamento de suas inteligências artificiais.
O Image Playground faz parte do pacote Apple Intelligence e, até o momento, produz apenas imagens em estilo cartunesco, uma medida tomada para evitar a criação de conteúdos potencialmente enganosos. No entanto, o fato de que essa IA já exiba viés racial é motivo de preocupação, pois indica que ela ecoa problemas semelhantes a outros serviços de IA disponíveis no mercado.
Até o presente momento, a Apple não se manifestou sobre as alegações feitas por Gietema, e a empresa não divulga quais conteúdos foram utilizados para treinar seu algoritmo, que é frequentemente onde esses vieses se desenvolvem.