Clearview AI disse que infringiu a lei de privacidade da Austrália, ordenando a exclusão de dados

Depois do Canadá, agora a Austrália descobriu que a polêmica empresa de reconhecimento facial, Clearview AI, infringiu as leis de privacidade nacionais ao coletar secretamente a biometria facial dos cidadãos e incorporá-la ao seu serviço de correspondência de identidade alimentado por IA – que vende para agências de cumprimento da lei e outros.

Em um demonstração hoje, a comissária de informação e privacidade da Austrália, Angelene Falk, disse que a ferramenta de reconhecimento facial da Clearview AI violou a Lei de Privacidade 198 do país.8 por:

  • coletar informações confidenciais dos australianos sem consentimento
  • coleta de informações pessoais por meios injustos
  • não tomar medidas razoáveis para notificar os indivíduos sobre a coleta de informações pessoais
  • não tomar medidas razoáveis para garantir que as informações pessoais divulgadas sejam precisas, tendo em conta o propósito de divulgação
  • não tomar medidas razoáveis para implementar práticas, procedimentos e sistemas para garantir a conformidade com os Princípios de Privacidade da Austrália.

No que parece ser uma grande vitória para a privacidade, o regulador ordenou que Clearview parasse de coletar biometria facial e modelos biométricos dos australianos; e destruir todas as imagens e modelos existentes que ele contém.

O Office of the Australian Information Commissioner (OAIC) realizou uma investigação conjunta sobre a Clearview com a agência de proteção de dados do Reino Unido, o Information Commissioner (IOC).

No entanto, o regulador do Reino Unido ainda não anunciou quaisquer conclusões.
Em um separado demonstração hoje – que possivelmente parece um pouco confuso) – a OIC disse que está “considerando seus próximos passos e qualquer ação regulatória formal que possa ser apropriada de acordo com as leis de proteção de dados do Reino Unido”.

Uma porta-voz da OIC se recusou a dar mais detalhes – por exemplo, por quanto tempo ela estará pensando em talvez fazer algo.

Os cidadãos do Reino Unido devem esperar que o regulador não demore tanto “considerando” a Clearview quanto tem examinado (mas deixando de agir contra) o problema de legalidade da adtech.

Outros reguladores europeus já aplicaram sanções à Clearview …

De volta ao outro lado do mundo, a OAIC não perde tempo agindo contra Clearview nem medindo palavras.

Em comentários públicos sobre a decisão da OAIC (pdf) descobrindo que a Clearview violou a lei australiana, Falk disse: “A coleta secreta desse tipo de informação sensível é irracionalmente intrusiva e injusta. Ele acarreta um risco significativo de danos a indivíduos, incluindo grupos vulneráveis, como crianças e vítimas de crimes, cujas imagens podem ser pesquisadas no banco de dados da Clearview AI.

Por sua natureza, essas informações de identidade biométrica não podem ser reemitidas ou canceladas e também podem ser replicadas e usadas para roubo de identidade. Os indivíduos apresentados no banco de dados também podem estar em risco de identificação incorreta ”, disse ela, acrescentando:“ Essas práticas estão muito aquém das expectativas dos australianos quanto à proteção de suas informações pessoais ”.

A OAIC também concluiu que os impactos do sistema biométrico da Clearview AI sobre a privacidade “não eram necessários, legítimos e proporcionais, tendo em consideração quaisquer benefícios de interesse público”.

Quando os australianos usam mídia social ou sites de relacionamento profissional, eles não esperam que suas imagens faciais sejam coletadas sem o consentimento de uma entidade comercial para criar modelos biométricos para fins de identificação totalmente não relacionados”, disse Falk.

A raspagem indiscriminada das imagens faciais das pessoas, apenas uma fração das quais seria conectada com investigações de aplicação da lei, pode impactar negativamente as liberdades pessoais de todos os australianos que se percebem sob vigilância.

O regulador da Austrália disse que entre outubro de 2019 e março de 2020, o Clearview AI forneceu testes de sua ferramenta para algumas forças policiais locais – que realizaram buscas usando imagens faciais de indivíduos localizados na Austrália.

A OAIC acrescentou que está atualmente finalizando uma investigação sobre o uso experimental da tecnologia pela Polícia Federal Australiana para decidir se a força cumpriu os requisitos do Código de Privacidade das Agências do Governo Australiano para avaliar e mitigar os riscos de privacidade. Portanto, resta saber se as autoridades locais receberão uma sanção.

No início deste ano, o órgão de proteção de dados da Suécia alertou os policiais do país sobre o que considerou o uso ilegal da ferramenta Clearview – emitindo uma multa de € 250.000 nesse caso.

Voltando ao OAIC, ele disse que a Clearview se defendeu argumentando que as informações que manipulou não eram dados pessoais – e que, como uma empresa com sede nos Estados Unidos, não estava sob a jurisdição do Ato de Privacidade da Austrália. A Clearview também afirmou ao regulador que havia parado de oferecer serviços para as forças de segurança australianas logo após o início da investigação da OAIC.

No entanto, Falk rejeitou os argumentos de Clearview, dizendo que ela estava satisfeita com a conformidade com a lei australiana e que as informações tratadas eram informações pessoais cobertas pela Lei de Privacidade.

Ela também disse que o caso reforça a necessidade de a Austrália fortalecer as proteções por meio de um revisão atual da Lei de Privacidade, incluindo a restrição ou proibição de práticas como coleta de dados de informações pessoais de plataformas online. E ela acrescentou que o caso levanta perguntas adicionais sobre se as plataformas online estão fazendo o suficiente para prevenir e detectar a extração de dados pessoais.

As atividades da Clearview AI na Austrália envolvem a coleta automatizada e repetitiva de informações biométricas confidenciais dos australianos em grande escala, com fins lucrativos. Essas transações são fundamentais para seu empreendimento comercial ”, disse Falk. “O pedido de patente da empresa também demonstra a capacidade da tecnologia de ser usada para outros fins, como namoro, varejo, distribuição de benefícios sociais e concessão ou negação de acesso a uma instalação, local ou dispositivo.

Clearview foi contatado para comentar a decisão da OAIC.

A empresa confirmou que haverá recurso – envio desta declaração (abaixo), atribuída a Mark Love, BAL Lawyers, em representação da Clearview AI:

A Clearview AI não mediu esforços para cooperar com o Office of the Australian Information Commissioner. Ao fazer isso, a Clearview AI forneceu informações consideráveis, mas é evidente para nós e para a Clearview AI que o Comissário não entendeu corretamente como a Clearview AI conduz seus negócios. A Clearview AI opera legitimamente de acordo com as leis de seus locais de negócios.

A Clearview AI pretende buscar a revisão da decisão do Comissário pelo Tribunal de Recursos Administrativos (australiano). Não apenas a decisão do Comissário errou o alvo na maneira de operar da Clearview AI, como também o Comissário carece de jurisdição.

Para ser claro, a Clearview AI não violou nenhuma lei nem interferiu na privacidade dos australianos. Clearview AI não faz negócios na Austrália, não tem nenhum usuário australiano.

A polêmica empresa de reconhecimento facial enfrentou litígios em seu próprio território nos Estados Unidos – sob a Lei de Privacidade de Informações Biométricas de Illinois.

Embora, no início deste ano, Minneapolis tenha votado para proibir o uso de software de reconhecimento facial para seu departamento de polícia – efetivamente proibindo o uso de ferramentas como o Clearview pela polícia local.

As consequências da remoção da Clearview AI da web pública e de sites de mídia social para acumular um banco de dados de mais de 3 bilhões de imagens a fim de vender um serviço global de correspondência de identidade para as autoridades policiais pode ter contribuído para um anúncio feito ontem pela empresa-mãe do Facebook, Meta – que disse que excluiria sua própria montanha de dados biométricos faciais.

O gigante da tecnologia citou “preocupações crescentes sobre o uso da tecnologia como um todo”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.