Crédito: Divulgação
Segundo a justiça brasileira, nova política de IA da Meta vai contra a Lei Geral de Proteção de Dados (LGPD)
No dia 2 de julho, a ANPD (Autoridade Nacional de Proteção de Dados) emitiu uma medida preventiva pedindo a suspensão imediata do uso de dados pessoais para treinamento de sistemas de IA (inteligência artificial) pela Meta. É a empresa responsável pelo Instagram e Facebook. O descumprimento da medida pode acarretar em uma multa de R$ 50 mil por dia.
No dia 26 de junho, a empresa atualizou sua política de privacidade para permitir o uso de informações públicas. Coisas como conteúdos compartilhados pelos usuários, para treinamento de IA generativa. A nova política vai contra a Lei Geral de Proteção de Dados (LGPD), segundo a ANPD.
Como justificativa para a medida protetiva, a autarquia citou uso de hipótese legal inadequada para o tratamento de dados pessoais. Também alegou falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado. E também limitações excessivas ao exercício dos direitos dos titulares. Além de tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.
Além disso, de acordo com a autoridade vinculada ao Ministério da Justiça, havia obstáculos excessivos e não justificados para que os usuários pudessem se opor ao uso de seus dados.
A Meta considerou a decisão um retrocesso no desenvolvimento de IA no Brasil. Além disso, alegou ser mais transparente “do que muitos participantes nessa indústria que tem usado conteúdos públicos para treinar seus modelos e produtos” (via Agência Brasil). “Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas”, concluiu.
Especialistas opinam sobre decisão da ANPD para treinamento de IA da Meta
De acordo com Lucas Galvão, especialista em cibersegurança e CEO da Open Cybersecurity, a penalidade aplicada pela ANPD à Meta “pode impactar significativamente a continuidade dos serviços da empresa no Brasil”.
Ele afirma que as políticas de privacidade da Meta devem sofrer ajustes a fim de “garantir conformidade com a LGPD, assegurando transparência e respeito aos direitos dos usuários e respeitando a legislação vigente”. Além disso, ressalta o uso de dados de não usuários das redes sociais como um desafio ainda maior.
“A LGPD traz consigo as diretrizes quanto ao uso de dados pessoais. Quando adaptamos para o contexto da IA, especialmente o princípio da transparência (art. 6), é exigido que os usuários sejam informados sobre o uso de seus dados para essa finalidade específica. Isso se enquadra na base legal de execução de contrato. Há um desafio particular na coleta de dados de não usuários, apesar do previsto no art. 7.”, explicou.
Segundo Galvão, isso pode implicar não só na Meta, mas também em outras companhias. “Este precedente pode impactar todas as empresas que usam dados pessoais para treinar IA. Se a ANPD exigir consentimento explícito, os modelos atuais podem se tornar inviáveis. O consentimento é revogável. E tecnicamente é complexo remover dados de uma base já utilizada, exigindo o retreinamento dos modelos, o que leva tempo e não elimina a possibilidade de erros”, conclui.
“Pode estabelecer um precedente significativo”
Allan de Alcântara, engenheiro de computação e sócio-proprietário na FrankFox Informática, também enxerga os impactos dessa decisão. “Penalizar a META por uso inadequado de dados pessoais para treinamento de IA pode estabelecer um precedente significativo no Brasil.”
“Isso não apenas reforça a necessidade de conformidade com a LGPD, mas também sinaliza um alerta para outras empresas que dependem de dados pessoais para desenvolver e aprimorar seus serviços, como Facebook e WhatsApp. O impacto imediato pode incluir uma revisão rigorosa dos métodos de coleta, armazenamento e uso de dados pessoais, potencialmente afetando a agilidade e a inovação no setor de inteligência artificial”, disse.
De acordo com o engenheiro, a exigência de transparência e consentimento explícito dos usuários para o uso de seus dados pessoais pela LGPD “representa um desafio significativo para empresas que dependem de grandes conjuntos de dados para treinar modelos de inteligência artificial”.
“Especialmente problemático é o tratamento de dados de não usuários, cuja obtenção de consentimento pode ser ainda mais complexa”, opina. E, por fim, ele conclui: “Essa exigência pode não apenas dificultar a inovação contínua em tecnologias de IA, devido à necessidade de obter permissões explícitas retroativamente, mas também aumentar os custos e o tempo necessários para ajustar e retreinar modelos já existentes, potencialmente desacelerando o progresso tecnológico no país”.
Fonte: Gizmodo.