No centro da questão está a nova política de privacidade da Meta, que entrou em vigor na última quarta-feira (26) e abrange plataformas como Instagram, Facebook e Messenger. Essa política autoriza a utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa. A ANPD argumentou que esse tratamento de dados pessoais pode impactar um grande número de pessoas, especialmente crianças e adolescentes, e que essas informações estão sujeitas à proteção especial da Lei Geral de Proteção de Dados (LGPD).
A ANPD decidiu, por iniciativa própria, fiscalizar a aplicação da nova política da Meta e constatou riscos de dano grave e difícil reparação aos usuários. A agência destacou a falta de informações adequadas e necessárias fornecidas pela empresa aos titulares de dados, bem como obstáculos excessivos e não justificados para os usuários se oporem a esse tipo de tratamento de seus dados pessoais. Para a ANPD, os usuários compartilharam suas informações nas plataformas da Meta com a expectativa de se relacionar com amigos e empresas de interesse, sem considerar que esses dados seriam usados no treinamento de IA.
Em resposta, a Meta expressou desapontamento com a decisão da ANPD e ressaltou que não é a única empresa a utilizar informações coletadas para o treinamento de IA. A empresa afirmou estar em conformidade com as leis de privacidade e regulamentações do Brasil e se comprometeu a trabalhar com a ANPD para esclarecer quaisquer dúvidas. A Meta destacou que a decisão representa um retrocesso para a inovação e a competividade no desenvolvimento de IA, atrasando assim os benefícios dessa tecnologia para as pessoas no Brasil.
A ANPD, órgão criado em 2020 e vinculado ao Ministério da Justiça e Segurança Pública, é composto por cinco diretores indicados pelo presidente e aprovados pelo Senado. Atuando para garantir a proteção dos dados dos cidadãos e a conformidade com a LGPD, a agência segue vigilante em relação ao uso dos dados pessoais por empresas como a Meta.