No entanto, o serviço do Google ficou disponível por pouco mais de duas semanas devido a uma série de críticas e ataques intensos recebidos nas redes sociais, principalmente no Twitter. A polêmica surgiu devido ao modo como a plataforma respondia aos pedidos de criação de imagens de pessoas. Ao contrário de outras plataformas, o Gemini retornava resultados com uma ampla diversidade étnica, o que gerou controvérsias e discussões.
Em um cenário onde os algoritmos muitas vezes apresentam viés racial, a atitude do Google em priorizar a representatividade étnica em suas imagens foi interpretada de forma ambígua. Por um lado, muitas pessoas apoiaram a iniciativa da empresa em ser mais inclusiva e representativa. Por outro, houve aqueles que criticaram a decisão, argumentando que a plataforma não estava atendendo corretamente aos pedidos dos usuários.
O caso Gemini acabou colocando em evidência a questão do controle e da calibração das plataformas de inteligência artificial. A declaração da empresa ao explicar a suspensão do serviço revelou que a decisão de priorizar a diversidade étnica foi uma escolha consciente, mas que tal calibração falhou em considerar determinados contextos.
Esse episódio, portanto, serve como um alerta e uma reflexão sobre a importância de compreender que a inteligência artificial, embora muitas vezes seja vista como uma entidade incontrolável, na realidade é apenas um software criado e controlado por seres humanos. A atitude do Google de suspender o serviço e rever sua calibração demonstra que as empresas têm o poder de intervir e corrigir eventuais falhas em suas plataformas.
Diante disso, é essencial abandonar as fantasias e mitos que cercam o debate sobre inteligência artificial e compreender que, no final das contas, a responsabilidade sobre o uso e comportamento dessas tecnologias recai sobre aqueles que as criam e as controlam. O caso Gemini, ainda que polêmico, nos lembra da importância de manter um olhar crítico e cauteloso em relação às promessas e narrativas que envolvem a IA.