A Meta, empresa dona do Facebook, Instagram e WhatsApp, afirma ter suspendido os recursos de inteligência artificial generativa utilizados em suas redes sociais no Brasil. A medida é uma resposta à decisão da Autoridade Nacional de Proteção de Dados (ANPD) que ordenava a suspensão da coleta de dados e informações de usuários para o treinamento de seus modelos de inteligência artificial.
A ideia da companhia é criar uma espécie de chatbot, como o ChatGPT, treinado a partir de posts e publicações feitas pelos titulares das contas, incluindo legendas, fotos e vídeos.
De acordo com a ANPD, nesta terça-feira, 16, a Meta formalizou sua resposta no sistema de informações da autoridade, informando o cumprimento da medida. “Neste momento, a resposta está em análise pela equipe técnica”, declara a ANPD.
Conforme apurou o Estadão, a suspensão abrange apenas as ferramentas que já estavam ativas na plataforma. Desse modo, ficam excluídas aquelas que ainda estão em desenvolvimento.
“Decidimos suspender ferramentas de genAI que estavam ativas no Brasil enquanto engajamos com a ANPD para endereçar suas perguntas sobre IA generativa”, afirma um porta-voz da Meta em relação aos mecanismos de inteligência artificial sendo usados no Brasil.
No início de julho, o Instituto de Defesa de Consumidores (Idec) notificou a ANPD, a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade) pela forma como a Meta estava usando informações de usuários do Brasil para treinar a sua inteligência artificial.
Pedindo às autoridades o impedimento da utilização de dados pessoais dos consumidores para esse fim, o instituto alegou que “a violação aos direitos básicos do consumidor está evidente.” De acordo com o Idec, seria dever da companhia garantir informações claras, precisas e facilmente acessíveis sobre seu intuito de treinar a IA usando dados de usuários.
Além disso, a empresa de Mark Zuckerberg não explicaria a relação entre o treinamento da inteligência artificial e os serviços prestados ao titular da conta.
Ainda no início do mês, a ANPD determinou que a Meta suspendesse a coleta de dados de brasileiros para treinar seus sistemas de IA. Para a autoridade, havia indícios de violação à Lei Geral de Proteção de Dados.
Assim, a ANPD ordenou a suspensão imediata, no Brasil, da vigência da nova política de privacidade da empresa. Em caso de descumprimento, haveria uma multa diária de R$ 50 mil.
A prática da empresa se tornou pública quando ela tentou alterar os termos de uso de usuários na Europa em 26 de junho. Com a repercussão negativa do caso, usuários e autoridades brasileiras descobriram que os termos de uso em território brasileiro haviam sido alterados em 22 de maio – neste dia foi publicado o formulário em que usuários podem indicar que não desejam ter seus dados usados pela IA.
A falta de antecedência e transparência na mudança dos termos, além da burocracia envolvida no formulário para que o usuário decline a coleta de dados, motivou a ação da agência brasileira.