Preocupações com IA: G7 busca padrões internacionais para avaliar tecnologia

Após uma reunião de ministros de tecnologia do grupo dos países mais industrializados do mundo, foi anunciado que o G7 buscará a criação de padrões internacionais para avaliar os riscos relacionados à inteligência artificial (IA). 

O G7 discute maneiras de conter a propagação de preconceito e desinformação, violação de direitos autorais e outros efeitos nocivos devido à IA.

Após a reunião, o ministro de Assuntos Internos e Comunicações do Japão, Gomei Matsumoto, disse: “Conseguimos compartilhar políticas para promover o desenvolvimento e a utilização da AI”. 

Os ministros chegaram à cinco princípios para o uso adequado da IA e outras tecnologias em desenvolvimento: 

  1. Estado de Direito
  2. Devido processo legal
  3. Utilização de oportunidades de inovação
  4. Democracia
  5. Respeito aos direitos humanos

Com o foco nas preocupações com a IA, o G7 concordou com um plano para determinar padrões para se preparar para seu uso generalizado. 

LEIA TAMBÉM: Entenda como a Lei de Proteção de Dados pode impactar o Chile

Ainda, os ministros discutiram medidas para facilitar a distribuição de dados através das fronteiras, durante a reunião. 

A busca por padrões internacionais para avaliar as tecnologias de IA se dá porque regulamentar todo o uso pode coibir o processo da tecnologia. O intuito é assegurar que as avaliações de risco de IA não se tornem desconformes no contexto internacional, respeitando os regulamentos estabelecidos por cada país. 

Questões como se os programas de IA estão aprendendo com dados imparciais ou se existem discriminações com base em raça, localização e outros fatores quando, por exemplo, a tecnologia se aplica para contratar funcionários. 

É esperado que os padrões imponham que os dados usados para “ensinar” uma tecnologia de IA sejam armazenados para garantir a transparência.

Também serão incluídos na declaração pedidos de supervisão humana de IA, processamento de dados que garanta a proteção da privacidade e um sistema de defesa contra ataques cibernéticos. 

A liderança na criação da base para os padrões de avaliação está sendo assumida pela Organização para Cooperação e Desenvolvimento Econômico (OCDE) e atores privados, como o Alan Turing Institute, do Reino Unido. 

A União Europeia (UE) iniciou o debate sobre uma legislação em 2021 e está liderando o caminho na regulamentação da IA. Dentre as regras em discussão no bloco, aplicativos de IA com alto risco de violação de direitos humanos em áreas como emprego, educação e assistência médica serão permitidos apenas se atenderem a certos padrões. A expectativa é que os detalhes sejam divulgados no ano que vem.

Segundo a vice-presidente executiva da Comissão Europeia, Margrethe Vestager, o bloco pretende ter regras em vigor até dezembro para reger serviços como o ChatGPT em razão da rápida adesão ao aplicativo.

VEJA MAIS: ChatGPT e LGPD: proteção de dados deve ser uma prioridade da IA generativa

Já os EUA e o Japão, até o momento, avaliam caminhos de estabelecer diretrizes flexíveis nos setores público e privado. Contudo, o uso generalizado do ChatGPT conduziu algumas sugestões de que pode haver a necessidade de criar algumas regras mais rígidas. 

A preocupação do Departamento de Comércio dos EUA é de que a IA pode ser usada para fomentar discriminação e ampliar a reprodução de notícias falsas. O órgão tem solicitado sugestões para a criação de um sistema de auditoria para a IA. 

No Japão também será estabelecido um conselho de estratégia para IA em maio, visando a avaliação de políticas dos ministérios e as agências do governo. 

Ao passo que as discussões regulatórias avançam rapidamente, os países do G7 adotarão uma abordagem coordenada para garantir que as regras não sejam desconexas e desacelerem os investimentos no desenvolvimento da IA.

Fonte: Valor

Autor(a): Nikkei Asia

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.