Nos últimos anos, houve um crescimento substancial no desenvolvimento e uso da tecnologia de reconhecimento facial (TRF) tanto pelo setor público como privado. Muitos desses usos, inclusive, passam despercebidos pelos indivíduos, tornando-se parte do cotidiano, como no caso de desbloqueio de smartphones, rotulagem automática de rostos em fotos em mídias sociais e em bancos de dados (por vezes, com a identificação da pessoa) ou verificação de identidade em aplicativos variados.

Ademais, aumentam os casos de aplicação da tecnologia para fins de personalização de varejo, vigilância (pública e privada), marketing e publicidade, além de confirmação de identidade para acesso a serviços ou mesmo a categorização de indivíduos em grupos específicos. Dentre as justificativas mais frequentes, está a implementação de serviços mais eficientes e personalizados, redução dos índices de fraude e criminalidade e promoção da segurança, seja ela pública ou privada.

O problema é que a tecnologia, capaz de identificar, seguir, selecionar e rastrear indivíduos, se baseia em dados biométricos, considerados sensíveis, de difícil alteração, o que pode levar a violações de direitos e liberdades, incluindo os direitos à privacidade e proteção de dados, o direito à liberdade de expressão, o direito à liberdade de reunião/associação e os direitos à igualdade e não discriminação.

No atual estágio de desenvolvimento da tecnologia, o seu potencial danoso é ainda maior para grupos vulneráveis, como negros, mulheres e a comunidade LGBTQIA+, principalmente quando olhamos por meio de lentes de interseccionalidade. Diversos estudos, como o realizado em 2018 pela pesquisadora do MIT, Joy Buolamwini, já comprovaram significativa diferença em termos de acurácia de diferentes ferramentas de reconhecimento facial em relação a rostos de pessoas não brancas e, ainda mais intensamente, em mulheres negras, de forma a reforçar estereótipos e preconceitos já existentes na sociedade.

Ademais, os critérios utilizados para criar e utilizar o reconhecimento facial partem de uma lógica cisgênera e binária de classificação. Consequentemente, a implementação de TRF tem o potencial de intensificar a atual realidade de exclusão e estigmatização já sofridas por pessoas transexuais e não binárias, que constantemente se veem em situações de constrangimentos e negação de seus direitos fundamentais, em especial o direito à identidade.

Diante dos riscos associados à tecnologia, muitas organizações da sociedade civil, autoridades de proteção de dados e até legisladores criaram documentos para, de alguma forma, influenciar em sua regulação. Abaixo, listamos algumas dessas iniciativas:

1) Opinião da Autoridade de Proteção de Dados do Reino Unido (ICO) sobre o uso da tecnologia de reconhecimento facial ao vivo em locais públicos

Documento do ICO publicado em junho de 2021 sobre o uso de reconhecimento facial ao vivo (live facial recognition – LFR) em locais públicos por empresas privadas e organizações públicas. Ele explica como a proteção de dados e a privacidade das pessoas devem estar no centro de todas as decisões para implantar a referida tecnologia, além de explicar como a lei estabelece um alto padrão para justificar o uso de LFR e seus algoritmos em locais públicos, como, por exemplo, onde fazemos compras, socializamos ou nos reunimos.

2) Opinião da Autoridade de Proteção de Dados do Reino Unido (ICO) sobre o uso da tecnologia de reconhecimento facial para fins de aplicação da lei em locais públicos

Documento do ICO publicado em junho de 2019 sobre o uso de reconhecimento facial ao vivo (live facial recognition – LFR) em locais públicos para fins de aplicação da lei. A autoridade reconhece que as normas de proteção de dados se aplicam em todo o processo da tecnologia, desde a análise de necessidade e proporcionalidade para implantação, a compilação de listas de observação, o processamento de dados biométricos até a retenção e exclusão desses dados, seja para a realização de testes na tecnologia ou para sua implantação operacional de rotina. O documento pode ser lido em conjunto com uma investigação do ICO sobre como a polícia usa o reconhecimento facial em locais públicos, também de outubro de 2019.

3) Diretrizes do Conselho da Europa para o Reconhecimento Facial no âmbito da Convenção para a Proteção de Pessoas Quanto ao Processamento Automático de Dados Pessoais (Convenção 108)

Essas diretrizes, publicadas em janeiro de 2021, fornecem um conjunto de medidas de referência para governos, desenvolvedores, fabricantes, prestadores de serviços e demais entidades que usam ferramentas de reconhecimento facial, com o intuito de garantir que a referida tecnologia não afete adversamente a dignidade humana, os direitos humanos e as liberdades fundamentais das pessoas. Dentre as recomendações, está a proibição de reconhecimento facial de emoções e de reconhecimento facial que tenha como único propósito determinar a cor de pele, religião/crença, sexo, raça, origem étnica, idade, condições de saúde ou status social de uma pessoa. As diretrizes têm um escopo geral e abrangem os usos de tecnologias de reconhecimento facial nos setores público e privado.

4) Carta aberta pedindo a proibição global de tecnologias de reconhecimento biométrico que permitem vigilância em massa e discriminatória

Carta aberta elaborada pela Access Now, Anistia Internacional, European Digital Rights (EDRi), Human Rights Watch, Internet Freedom Foundation (IFF) e o Instituto Brasileiro de Defesa do Consumidor (IDEC) para clamar pelo banimento de tecnologias de reconhecimento biométrico que permitem vigilância em massa e discriminatória, a exemplo do reconhecimento facial. Argumenta-se que a proibição é necessária porque, embora uma moratória pudesse interromper temporariamente o desenvolvimento e uso dessas tecnologias, a implantação da ferramenta em locais acessíveis ao público é incompatível com direitos humanos e liberdades civis. A carta define seu escopo e os riscos potencialmente causados pelo uso da tecnologia, além de trazer pedidos e recomendações para legisladores, agências administrativas, órgãos judiciais e entidades privadas.

5) Nota Técnica sobre o PL 865/19 SP produzido pelo ITS-Rio em conjunto com Access Now, Lapin e outras entidades parceiras

O projeto de lei paulista buscava autorizar o uso da tecnologia de reconhecimento facial (TRF) em estações do Metrô e da Companhia Paulista de Trens Metropolitanos (CPTM), em direção contrária à tendência internacional de banimentos e moratória da tecnologia. A referida Nota Técnica, então, pediu pelo vetou governamental ao PL, expondo possíveis falhas da proposta, como a ausência de devidas salvaguardas e garantias necessárias para o uso de TRF, já que a ferramenta é capaz de criar riscos para direitos fundamentais, permite vigilância em massa, racismo, transfobia e reduz as liberdades fundamentais. Todas essas questões foram mais detalhadamente abordadas na Nota Técnica produzida pelo ITS-Rio em conjunto com seus parceiros.

6) Proposta de Regulamento de Inteligência Artificial da União Europeia

Publicada pela Comissão Europeia em abril de 2021, a Proposta busca regular a Inteligência Artificial na União Europeia, a partir de uma abordagem baseada no risco. Sistemas de identificação biométrica à distância, em tempo real ou diferido, o que inclui o reconhecimento facial, são uma das principais preocupações da iniciativa. Com base em diferentes graus de risco, a tecnologia de reconhecimento facial, a depender de suas características particulares do caso concreto, seria de risco inaceitável (e, por isso, proibida) ou elevado, sujeita a diversas obrigações legais, como a realização de relatórios de impacto prévio por autoridades terceiras específicas.

7) Parecer conjunto das Autoridades de Proteção de Dados da União Europeia (EDPB e EDPS) sobre a proposta de Regulamento de Inteligência Artificial (AI Act)

Parecer conjunto adotado pelo Comitê Europeu de Proteção de Dados (EDPB) e pela Autoridade Europeia para a Proteção de Dados (EDPS) em junho de 2021 sobre a Proposta de Regulamento da Inteligência Artificial na União Europeia. Tendo em conta os riscos extremamente elevados representados pela identificação biométrica remota de indivíduos em espaços acessíveis ao público, as autoridades exigem uma aplicação imediata do princípio da precaução e apelam a uma proibição geral de qualquer utilização de IA para o reconhecimento automatizado de características humanas em espaços acessíveis ao público, como o reconhecimento como o reconhecimento facial, em qualquer contexto. Da mesma forma, a EDPB e a EDPS recomendam a proibição de sistemas de IA que utilizem biometria para categorizar indivíduos em grupos com base na etnia, sexo, orientação política ou sexual ou outros motivos pelos quais a discriminação é proibida.

Por Paula Guedes | Fonte: Itsrio
Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *