A
Meta, empresa dona do Facebook, Instagram e WhatsApp, afirma ter
suspendido os recursos de inteligência artificial generativa utilizados
em suas redes sociais no Brasil. A medida é uma resposta à decisão da
Autoridade Nacional de Proteção de Dados (ANPD) que ordenava a suspensão
da coleta de dados e informações de usuários para o treinamento de seus
modelos de inteligência artificial.
A ideia da companhia é
criar uma espécie de chatbot, como o ChatGPT, treinado a partir de
posts e publicações feitas pelos titulares das contas, incluindo
legendas, fotos e vídeos.
De
acordo com a ANPD, nesta terça-feira, 16, a Meta formalizou sua
resposta no sistema de informações da autoridade, informando o
cumprimento da medida. “Neste momento, a resposta está em análise pela
equipe técnica”, declara a ANPD.
Conforme apurou o Estadão,
a suspensão abrange apenas as ferramentas que já estavam ativas na
plataforma. Desse modo, ficam excluídas aquelas que ainda estão em
desenvolvimento.
“Decidimos
suspender ferramentas de genAI que estavam ativas no Brasil enquanto
engajamos com a ANPD para endereçar suas perguntas sobre IA generativa”,
afirma um porta-voz da Meta em relação aos mecanismos de inteligência
artificial sendo usados no Brasil.
No início de julho, o
Instituto de Defesa de Consumidores (Idec) notificou a ANPD, a
Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo
de Defesa Econômica (Cade) pela forma como a Meta estava usando
informações de usuários do Brasil para treinar a sua inteligência
artificial.
Pedindo
às autoridades o impedimento da utilização de dados pessoais dos
consumidores para esse fim, o instituto alegou que “a violação aos
direitos básicos do consumidor está evidente.” De acordo com o Idec,
seria dever da companhia garantir informações claras, precisas e
facilmente acessíveis sobre seu intuito de treinar a IA usando dados de
usuários.
Além disso, a empresa de Mark Zuckerberg não
explicaria a relação entre o treinamento da inteligência artificial e os
serviços prestados ao titular da conta.
Ainda
no início do mês, a ANPD determinou que a Meta suspendesse a coleta de
dados de brasileiros para treinar seus sistemas de IA. Para a
autoridade, havia indícios de violação à Lei Geral de Proteção de Dados.
Assim,
a ANPD ordenou a suspensão imediata, no Brasil, da vigência da nova
política de privacidade da empresa. Em caso de descumprimento, haveria
uma multa diária de R$ 50 mil.
A prática da empresa se
tornou pública quando ela tentou alterar os termos de uso de usuários na
Europa em 26 de junho. Com a repercussão negativa do caso, usuários e
autoridades brasileiras descobriram que os termos de uso em território
brasileiro haviam sido alterados em 22 de maio – neste dia foi publicado
o formulário em que usuários podem indicar que não desejam ter seus
dados usados pela IA.
A falta de antecedência e
transparência na mudança dos termos, além da burocracia envolvida no
formulário para que o usuário decline a coleta de dados, motivou a ação
da agência brasileira.