Órgão do Ministério da Justiça prorroga prazo para envio de documentos e condiciona reconsideração à análise técnica. Multa de R$ 50 mil se ordem fosse descumprida.
A Meta teve um recurso negado pela Autoridade Nacional de Proteção de Dados (ANPD), que manteve a decisão de suspender o uso de dados de brasileiros para treinar inteligência artificial (IA). O despacho foi divulgado nesta quarta-feira (10), reforçando a importância da Meta cumprir as normas de proteção de dados.
Essa determinação da ANPD destaca a responsabilidade das empresas em garantir a segurança e privacidade das informações dos usuários. A Meta deve se adequar às regulamentações vigentes para evitar possíveis penalidades e manter a confiança dos clientes em seus serviços.
Meta: Multa para Empresa em Caso de Descumprimento de Ordem
No começo de julho, o órgão vinculado ao Ministério da Justiça estabeleceu uma penalidade de R$ 50 mil para a empresa caso não cumprisse a ordem. A Meta é a responsável pelas redes sociais como Facebook, Instagram e WhatsApp. A diretora da ANPD, Miriam Wimmer, destacou que a agência identificou sinais de violação de direitos por parte da grande empresa de tecnologia na coleta de dados dos usuários das plataformas. A decisão foi tomada após a Meta implementar novos termos de uso nas redes que permitem a utilização de dados de postagens públicas dos usuários, como fotos e textos, para o treinamento de sistemas de inteligência artificial generativa.
‘Foi a primeira vez que tomamos uma medida efetiva, de caráter preventivo, justamente devido aos indícios de violação de direitos que podem causar danos difíceis de reparar ou irreparáveis’, afirmou a diretora da ANPD. No comunicado divulgado nesta quarta-feira, a ANPD concedeu mais tempo para que a Meta envie documentação assinada por um representante legal da empresa confirmando a suspensão do uso dos dados. O órgão também determinou que a revisão completa da decisão só ocorrerá após uma avaliação técnica das medidas propostas pela Meta, juntamente com um plano de conformidade apresentado pela empresa.
Após a publicação da decisão no início de julho, a Meta declarou que a abordagem da empresa em relação à inteligência artificial está em conformidade com a legislação brasileira. O caso ganhou destaque em 4 de junho, quando a Meta informou na União Europeia e no Reino Unido que sua política de privacidade passaria a permitir o uso de dados dos usuários para treinar sua inteligência artificial. Isso significava que o conteúdo de milhões de pessoas postado no Instagram e no Facebook estaria sendo utilizado para o treinamento de inteligência artificial sem oferecer contrapartidas ou informações detalhadas sobre o uso da ferramenta.
Diante da reação negativa, a empresa recuou e adiou a alteração da política na Europa, mas não fez o mesmo no Brasil. Quando o Instituto de Defesa do Consumidor acionou o governo contra a nova política de privacidade desses serviços, a Meta afirmou que o uso das informações para treinar inteligência artificial é de seu legítimo interesse, bem como dos usuários e outras partes envolvidas. ‘Estamos comprometidos em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências geradoras de inteligência artificial juntamente com os modelos que as alimentam – de maneira segura, responsável e em conformidade com as regulamentações de privacidade no Brasil’, afirmou a empresa ao g1 em 23 de junho.
Os treinamentos de modelos de inteligência artificial envolvem a utilização de grandes volumes de dados e são essenciais para que, em fases posteriores, sejam capazes de analisar informações e até mesmo gerar insights valiosos.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo