Autoridade de Proteção de Dados publica despacho sobre nova política de privacidade. Uso de dados em sistemas de IA gera multa de R$ 50 mil.
A Autoridade Nacional de Proteção de Dados (ANPD) tomou uma decisão importante relacionada à inteligência artificial. A Meta, gigante da tecnologia responsável pelo Facebook, Instagram e WhatsApp, foi instruída a interromper a implementação da nova política de privacidade da empresa no Brasil, que envolve o tratamento dos dados pessoais dos cidadãos.
Essa medida da ANPD demonstra a preocupação com a proteção dos dados dos usuários em meio ao avanço da IA nas plataformas digitais. É essencial garantir que as empresas utilizem a inteligência artificial de forma ética e transparente, respeitando a privacidade e a segurança dos indivíduos. A regulação adequada do uso da IA é fundamental para preservar a confiança dos usuários e promover um ambiente online mais seguro e confiável.
Decisão sobre o Uso de Dados para Treinar Inteligência Artificial
A recente decisão impacta diretamente a estratégia da Meta em utilizar informações para ‘treinar’ sistemas de inteligência artificial generativa. Em outras palavras, esse processo visa enriquecer a base de dados usada pelas IAs para produzir respostas automatizadas. O g1 busca contato com a Meta, que já defendeu a legitimidade de sua política de dados em ocasiões anteriores.
Instagram e Facebook estão empregando fotos e textos dos usuários para aprimorar a IA: por que essa prática está gerando questionamentos? Como evitar que Instagram e Facebook usem conteúdos pessoais para o treinamento de inteligência artificial? A determinação foi publicada no ‘Diário Oficial da União’ desta terça-feira (2) e estipula uma multa diária de R$ 50 mil em caso de descumprimento, devido ao risco iminente de prejuízo grave e irreversível ou de difícil reparação aos direitos fundamentais dos titulares afetados.
O Conselho Diretor da ANPD foi responsável pela decisão, e o diretor-presidente da autoridade, Waldemar Gonçalves, assinou o documento. Conforme o despacho, a Meta deve cumprir imediatamente a ordem. Em um prazo de cinco dias, a partir da notificação, a empresa deve apresentar ao governo: documentação que comprove a alteração na Política de Privacidade dos seus serviços, excluindo a parte referente ao uso de dados pessoais para treinar IAs generativas; uma declaração assinada por um representante legal confirmando a suspensão do uso desses dados.
O caso ganhou destaque em 4 de junho, quando a Meta anunciou na União Europeia e no Reino Unido que sua política de privacidade permitiria o uso de dados dos usuários para treinar sua IA. Após a repercussão negativa, a empresa recuou e adiou a modificação da política na Europa, porém não adotou a mesma medida no Brasil.
Quando o Instituto de Defesa do Consumidor (Idec) acionou o governo contra a nova política de privacidade desses serviços, a Meta argumentou que o uso das informações para treinar inteligência artificial está em conformidade com os interesses legítimos da empresa, de seus usuários e de terceiros. ‘Estamos empenhados em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências gerativas de IA juntamente com os modelos que a impulsionam – de maneira segura, responsável e em conformidade com as regulamentações de privacidade no Brasil’, afirmou a companhia ao g1 em 23 de junho. Os treinamentos de modelos de inteligência artificial requerem a utilização de grandes volumes de dados e são essenciais para que, em fases posteriores, esses modelos sejam capazes de analisar informações e até mesmo gerar conteúdo de forma autônoma.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo