Tecnologias de análise emocional não devem ser consideradas para decisões importantes, diz regulador

O comissário de informação atentou às empresas para evitar tecnologias de “análise emocional” ou enfrentar multas, devido à natureza “pseudocientífica” do campo.

Pela primeira vez o regulador alertou sobre a ineficácia de uma nova tecnologia, disse Stephen Bonner, vice-comissário, justificada pelo dano que poderiam ter causado se as empresas fizessem decisões importantes com base em dados sem sentido. 

Ele diz que “há muito investimento e engajamento em torno de tentativas biométricas de detectar emoções”. Essas tecnologias tentam inferir informações sobre estados mentais usando dados como o brilho da pele de alguém ou “microexpressões” fugazes em seus rostos.

Infelizmente, essas tecnologias não parecem ser apoiadas pela ciência”, disse Bonner. “Isso é bastante preocupante, porque estamos cientes de que algumas organizações analisam essas tecnologias como formas possíveis de tomar decisões muito importantes: identificar se as pessoas podem ser fraudadores ou se os candidatos a emprego são dignos de obter essa função. E não parece haver nenhum sentido de que isso funcione.”

Para Bonner, utilizar a tecnologia de análise emocional não é um problema em si. Contudo, tratá-la como algo mais do que entretenimento é. 

Existem muitos usos que são bons, casos de bordas leves… se você tem uma festa de Halloween e quer medir quem está mais assustado na festa, esta é uma tecnologia interessante e divertida. É um gerador de números aleatórios caro, mas isso ainda pode ser divertido.”

Mas se você está usando isso para tomar decisões importantes sobre as pessoas – para decidir se elas têm direito a uma oportunidade, ou algum tipo de benefício, ou para selecionar quem recebe um nível de dano ou investigação, qualquer um desses tipos de mecanismos … Estaremos prestando muita atenção às organizações que fazem isso. O que estamos chamando aqui é muito mais fundamental do que uma questão de proteção de dados. O fato de que eles também podem violar os direitos das pessoas e nossas leis é certamente o motivo pelo qual estamos prestando atenção a eles, mas eles simplesmente não funcionam.”

LEIA TAMBÉM:

Existe uma grande variedade de maneiras pelas quais os cientistas próximos a isso o descartam. Acho que ouvimos ‘hokum’, ouvimos ‘meio cozido’, ouvimos ‘ciência falsa’. É uma possibilidade tentadora: se pudéssemos ver a cabeça dos outros. Mas quando as pessoas fazem afirmações extraordinárias com pouca ou nenhuma evidência, podemos chamar a atenção para isso.”

Em um estudo sobre o futuro das tecnologias biométricas, a ICO identificou que a tentativa de desenvolvimento de “IA emocional” é uma das quatro questões. Algumas são questões regulatórias simples, com empresas que desenvolvem tecnologias semelhantes exigindo maior clareza sobre as regras de proteção de dados. 

No entanto, outros são mais fundamentais: o regulador alertou que é difícil aplicar a lei de proteção de dados quando tecnologias como rastreamento de olhar ou reconhecimento de impressão digital “podem ser implantadas por uma câmera à distância para coletar dados verificáveis ​​de uma pessoa sem contato físico com qualquer pessoa”. sistema sendo necessário”. Por exemplo, obter o consentimento de cada passageiro que passasse por uma estação seria praticamente impossível. 

Na primavera de 2023, o regulador publicará orientações sobre como usar tecnologias biométricas, incluindo reconhecimento facial, impressão digital e reconhecimento de voz. A área é particularmente sensível, uma vez que “os dados biométricos são exclusivos de um indivíduo e são difíceis ou impossíveis de serem alterados em caso de perda, roubo ou uso inadequado”.

Fonte: The Guardian

Autor(a):Alex Hern

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.