Google suspende plataforma de criação de imagens por IA após críticas: diversidade étnica gera polêmica e serviço é retirado do ar

Na última semana, o gigante da tecnologia Google surpreendeu a todos ao anunciar a suspensão de sua plataforma de criação de imagens, chamada Gemini. Essa ferramenta, lançada no início de fevereiro, tinha como principal objetivo competir com outras plataformas semelhantes, como Dall-E e Midjourney, que permitem aos usuários descrever por texto o que desejam e a plataforma cria imagens baseadas nessas descrições.

No entanto, o serviço do Google ficou disponível por pouco mais de duas semanas devido a uma série de críticas e ataques intensos recebidos nas redes sociais, principalmente no Twitter. A polêmica surgiu devido ao modo como a plataforma respondia aos pedidos de criação de imagens de pessoas. Ao contrário de outras plataformas, o Gemini retornava resultados com uma ampla diversidade étnica, o que gerou controvérsias e discussões.

Em um cenário onde os algoritmos muitas vezes apresentam viés racial, a atitude do Google em priorizar a representatividade étnica em suas imagens foi interpretada de forma ambígua. Por um lado, muitas pessoas apoiaram a iniciativa da empresa em ser mais inclusiva e representativa. Por outro, houve aqueles que criticaram a decisão, argumentando que a plataforma não estava atendendo corretamente aos pedidos dos usuários.

O caso Gemini acabou colocando em evidência a questão do controle e da calibração das plataformas de inteligência artificial. A declaração da empresa ao explicar a suspensão do serviço revelou que a decisão de priorizar a diversidade étnica foi uma escolha consciente, mas que tal calibração falhou em considerar determinados contextos.

Esse episódio, portanto, serve como um alerta e uma reflexão sobre a importância de compreender que a inteligência artificial, embora muitas vezes seja vista como uma entidade incontrolável, na realidade é apenas um software criado e controlado por seres humanos. A atitude do Google de suspender o serviço e rever sua calibração demonstra que as empresas têm o poder de intervir e corrigir eventuais falhas em suas plataformas.

Diante disso, é essencial abandonar as fantasias e mitos que cercam o debate sobre inteligência artificial e compreender que, no final das contas, a responsabilidade sobre o uso e comportamento dessas tecnologias recai sobre aqueles que as criam e as controlam. O caso Gemini, ainda que polêmico, nos lembra da importância de manter um olhar crítico e cauteloso em relação às promessas e narrativas que envolvem a IA.

Artigos relacionados

Botão Voltar ao topo