Uso adequado da IA generativa para proteção de dados sensíveis

Uma das grandes preocupações das empresas quando adentram o universo da Inteligência Artificial, em especial da IA generativa, é com o equilíbrio entre a inovação e as leis atualmente vigentes, a exemplo da Lei Geral de Proteção de Dados (LGPD). O uso inadequado da ferramenta, considerada recente no mercado, pode trazer malefícios à instituição em questão e impactar a privacidade e proteção de dados pessoais e sensíveis, afetando os titulares.

O avanço da IA, ao mesmo tempo que trouxe mudanças e melhorias para a sociedade e ao ambiente empresarial, levantou alguns questionamentos entre especialistas. A criação de um regulamento específico para o uso dessa ferramenta tem sido desenvolvido pelo Poder Executivo, o chamado ​​Projeto de Lei n° 2338.

O PL ainda não teve aprovação geral, no entanto, as instituições podem contar com a ética e as leis brasileiras para melhor trabalharem com a ferramenta. Antes da popularização da IA, a LGPD já revelava a forma adequada de tratar informações pessoais e sensíveis em ambientes digitais e, com isso, deve ser considerada durante a inserção da nova tecnologia.

Popularização da IA

2023 foi um ano especial para a evolução da IA generativa, com instrumentos como o ChatGPT se popularizando e outras novas ferramentas sendo criadas pelas empresas que buscavam se adaptar à nova demanda do mercado. 

Além das instituições, a população brasileira encontrou na tecnologia uma forma de obter informações, criar imagens e ilustrações novas e obter auxílio para atividades específicas do dia a dia.

Profissionais da área da comunicação e saúde, por exemplo, passaram a integrar a inovação à rotina visando obter suporte em momentos pontuais do dia e para tarefas mais repetitivas e menos desafiadoras. 

Por definição, a inteligência artificial é a capacidade que máquinas possuem de realizar tarefas similares às que os humanos fariam, assim como pensar de forma semelhante a eles. Com isso, conseguem desempenhar ações simples ou complexas.

Para funcionar, utilizam uma grande quantidade de dados para aprender e entregar os resultados esperados. O ChatGPT, uma das ferramentas generativas mais utilizadas, considera as informações inseridas para fornecer respostas e textos, o que pode ser preocupante caso os dados integrados forem de caráter sensível e não tiverem a análise prévia de um ser humano. 

Descubra como proteger seus dados na era da inteligência artificial!

LGPD e tratamento de informações sensíveis

O debate sobre a proteção de dados dos cidadãos brasileiros é anterior à tecnologia. No entanto, com a maior utilização das ferramentas tecnológicas houve o aumento de divulgação de dados e a necessidade de um regulamento que colocaria regras ao tratamento. 

Portanto, desde setembro de 2020, as instituições que lidam diretamente com dados (sejam internos ou externos) precisam se atentar aos pontos, colocar os princípios e bases legais em prática, assim como seguir os direitos dos titulares.

Quando se trata de dados sensíveis (informações voltadas para o quadro de saúde dos indivíduos, suas preferências políticas, orientação sexual ou biometria), o cuidado é ainda maior, visto que a exposição pode levar a discriminação dos titulares.

Equilíbrio entre os pontos

Um dos principais desafios é oferecer dados suficientes para a tecnologia sem que esta ação infrinja nenhum dos artigos destacados pela LGPD. É de responsabilidade da empresa criadora da ferramenta, e das instituições que a utilizam, o cuidado com os dados selecionados e a aplicação de conceitos como o consentimento e finalidade para a escolha das informações que são coletadas e/ou divulgadas.

Para os dados sensíveis, a minimização das informações (coleta apenas do que é imprescindível para análise) ou aplicação de técnicas de remoção ou modificação dos dados (a exemplo da anonimização e pseudonimização) é um ponto a ser considerado para que riscos sejam evitados.

A proteção dessas informações levam a cibersegurança e a redução das vulnerabilidades, que costumam ser aproveitadas por cibercriminosos. Ao equilibrar ambos os entendimentos e colocar em prática as medidas éticas e morais, as empresas criadoras e as utilizadoras ainda reduzem a possibilidade de discriminação e preconceitos das IAs que ocorrem por verificação de padrões. 

LGPD e saúde

Conformidade e suporte de especialistas

A conformidade com a LGPD leva a redução de riscos que tendem a afetar a empresa permanentemente. Alguns dos problemas observados com a não inclusão das ações de proteção de dados são:

  • multas e sanções;
  • impacto negativo à reputação;
  • redução de parcerias;
  • aumento de incidentes de dados;
  • redução dos investimentos.

A LGPD Brasil atua para garantir que seus clientes estejam alinhados com a legislação e para que mantenham a ética em todas as etapas do uso da IA.  Dessa forma, através de consultorias personalizadas, compreendem o momento em que a empresa se encontra para oferecer as soluções necessárias. 

O site oficial da LGPD Brasil oferece detalhes sobre a lei, mais informações sobre a tecnologia e sobre o funcionamento das consultorias personalizadas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.