Cibersegurança em 2023: cenário com a intensificação da IA

O ano de 2022 colocou em evidência a rapidez com que as transformações ocorrem no mundo digitalizado em que vivemos, e a necessidade de adaptar-se com a mesma agilidade. Cibersegurança e proteção de dados são exemplos que trazem novos desafios. Nesse sentido, antecipar tendências pode revelar-se um fator determinante para a carreira desses profissionais, bem como para a sobrevivência de empresas ou negócios.

Esta reflexão não se resume a um exercício de “futurologia”. A proposta é atingir um melhor entendimento do presente, para que então seja possível identificar e analisar o que esperar no ano de 2023.

Uma das principais tendências para este ano será a intensificação do uso de tecnologias de Inteligência Artificial (IA), motivada pelo aumento da eficiência digital e de processos. A expectativa é que, em pouco tempo, as tecnologias de IA sejam integradas ou incorporadas a ferramentas que utilizamos no cotidiano, como, por exemplo, editores de texto.

LEIA TAMBÉM: 

Em 2022, diversas ferramentas de IA viralizaram na Internet e foram popularizadas. Exemplos disso são o programa Midjourney, que gera imagens a partir de um texto contendo instruções, ou do aplicativo Lensa, que cria diferentes versões de “selfies” a partir das imagens enviadas pelo usuário. São formas lúdicas de incorporar a IA à cultura e ao cotidiano, tornando esse tipo de tecnologia mais comum, mais acessível, menos intimidador, mas não eximido de riscos.

A rigor, o que esse tipo de programa faz é utilizar referências (isto é, um banco de dados) para formar novas composições (seja em texto ou em imagem, nos exemplos dados). Em outras palavras, a IA é mais tangível do que aparenta: trata-se, em verdade, de um conjunto de códigos, algoritmos, bancos de dados, programadores e usuários[1]. Quando as ferramentas citadas realizam o reprocessamento de dados, há uma espécie de apropriação de estilos de arte que identificam seu autor, como o caso do estilo de pintura adotado por Andy Warhol ou por Romero Britto.

Nesse sentido, as IA demandam o surgimento de diferentes dilemas, em especial no campo do Direito. Especialmente no caso de ferramentas capazes de gerar imagens, há intenso debate sobre os direitos autorais de propriedade intelectual dos autores das obras utilizadas para alimentar a base de dados da IA. Ainda não está claro qual o limite entre o plágio e uma “criação” feita dessa forma, e já há ações judiciais para dirimir tais conflitos.

Ainda, no final de 2022, o lançamento do ChatGPT gerou diversas polêmicas e debates éticos, e comprovou que o acesso massificado a esse tipo de tecnologia está cada vez mais próximo. O ChatGPT é uma ferramenta (chatbot) capaz de gerar textos automaticamente, em diversos formatos, contemplando diferentes assuntos. É capaz, inclusive, de gerar códigos maliciosos para invasão de dispositivos, como ransomwares. Esse não é o primeiro caso de utilização de uma IA resultante em comportamentos antiéticos ou discriminatórios.

Até aqui, o uso da IA por empresas ainda encontra limitações: desde questões orçamentárias, até falta de capacitação de funcionários ou incompatibilidade com sistemas já utilizados. São muitos os obstáculos que ainda se colocam para que a IA passe a fazer parte do cotidiano e seja efetivamente incorporada aos processos de negócio.

Nesse contexto, a cibersegurança e da proteção de dados pessoais também demandam preocupações. Isso porque, como dito, essas informações podem ser insumos essenciais para o funcionamento de sistemas de IA. Nesses casos, será necessário observar as regras jurídicas existentes sobre a proteção da privacidade e segurança da informação, desafiando a possível falta de clareza ou segurança sobre as normas específicas que devem ser aplicáveis.

Ainda que as ferramentas de IA realizem cada vez mais atividades determinantes para o desenvolvimento econômico e social, essas tecnologias podem colocar em risco a privacidade, conter imprecisões de processamento, operar com discriminações e serem utilizadas para dar causa a incidentes de segurança, o que destaca a importância da criação de um sandbox para testes prévios antes do lançamento de uma ferramenta do gênero no mercado. Longe de ser um impedimento de uso, testes prévios e o respeito às normas regulatórias para IA servem para estabelecer condições legítimas para o funcionamento, de forma lícita, ética e adequada[2].

Quanto às normas aplicáveis à IA, existem algumas iniciativas que, certamente, terão repercussão sobre a regulamentação nacional; no âmbito da União Europeia, é preciso mencionar o AIA (Artificial Intelligence Act), normativa aprovada em dezembro de 2022, no contexto legislativo do DSA (Digital Services Act) e DMA (Digital Markets Act).

Já no Brasil, o Projeto de Lei 21/2020 ficou conhecido como o Marco Legal do Desenvolvimento e Uso da Inteligência Artificial, e possui duplo objetivo. Primeiro, estabelecer direitos para proteção do elo mais vulnerável, isto é, a pessoa natural que já é constantemente impactada por sistemas de IA. E, segundo, dispor de ferramentas de governança, fiscalização e supervisão, criando condições de segurança jurídica para inovação e o desenvolvimento econômico-tecnológico[3]. Com isso, o Brasil reconhece que a proteção de direitos e liberdades e a criação de novas cadeias de valor não são mutuamente excludentes.

Inteligência artificial

Se a IA será uma tendência presente em 2023, os ciberataques também são um tema central. Os problemas envolvendo cibersegurança não são apenas causados por ataques de hackers ou ameaças com tecnologias aprimoradas. Muitos riscos persistem diante da ausência de medidas de segurança básicas, que consequentemente deixam dados pessoais e informações confidenciais vulneráveis. A ausência de proteções adequadas em redes, softwares e dispositivos soma-se às falhas humanas e ao negligenciamento de políticas de privacidade, conscientização e treinamentos, como causas do aumento exponencial de ataques maliciosos.

Para 2023, o avanço da Internet das Coisas (IoT) nos negócios e sociedade pode aprofundar esse cenário, já que mais equipamentos eletrônicos estarão conectados. Mesmo para aqueles que indicam que não armazenam dados pessoais de identificação direta, a conexão IoT pode abrir portas para usar os dispositivos como gateways e acessar outros conectados em rede, que contenham dados pessoais ou informações confidenciais.

A IA igualmente está presente na discussão da cibersegurança, já que podem ser aliadas na previsão de ataques ou falhas de segurança, reconhecendo padrões de ameaça. De acordo com o Cost of a Data Breach Report 2022 do IBM Security, o uso de inteligência artificial por empresas para detecção de incidentes é útil na economia de recursos e tempo de identificação e contenção da violação, considerando que a média de custo de uma violação de incidente de segurança, que em 2022 foi de 4,35 milhões[4].

Por outro lado, os algoritmos de IA podem ser o que efetivamente dão causa a incidentes. Isto porque a alta capacidade de aprimoramento das IAs pode resultar em incidentes de proteção de dados, quando por exemplo tais ferramentas são utilizadas para emular vozes ou mesmo pessoas, servindo de instrumento para fraudes ou, ainda, utilizadas para o disparo em massa de mensagens com phishing.

Novos ou não, os desafios da cibersegurança continuam exigindo, como prioridade, o desenvolvimento de uma cultura de segurança íntegra, que trabalhe com conscientização e investimento em medidas de segurança físicas, técnicas e organizacionais. É justamente na busca pelo uso seguro e responsável das novas tecnologias que residem os desafios da cibersegurança deste ano.

Igualmente, deverá ser dada muita atenção a possíveis ataques cibernéticos à infraestrutura pública dos governos, que necessitam cada vez mais investir em recursos de segurança para a proteção da segurança da informação e privacidade dos cidadãos. Segundo dados do Gabinete de Segurança Institucional da Presidência da República, só em 2019 ocorreram 10.716 incidentes cibernéticos contra o governo brasileiro. Em 2021, foram aproximadamente 5.000 tentativas de ataque[5].

As tendências abordadas aqui são apenas um recorte do vasto cenário das novas tecnologias. Mais do que previsões, o objetivo foi apresentar um recorte dos principais temas que devem ocupar os debates acadêmicos e dentro das empresas ao longo deste ano.

Até o final de 2023, muitas transformações ainda devem ocorrer no campo IA, na cibersegurança e no âmbito regulatório. A dedicação a tais desafios exigirá novos aprendizados, sem esquecer do fortalecimento dos pontos de atenção já conhecidos para a proteção de dados e cibersegurança. Embora a transformação ocorra de forma constante, manter em mente os direitos, princípios e liberdades fundamentais e as boas práticas de segurança da informação e proteção de dados é algo essencial para uma adaptação exitosa.


[1] PARRY, Rupert. AI & IP: Who owns music made by a machine? Goethe Institut. https://www.goethe.de/prj/k40/en/mus/machine-music.html Acesso em: 23 jan. 2023.

[2] INFORMATION COMISSIONER’S OFFICE (ICO). Guidance on IA and Data Protection. Disponível em: https://ico.org.uk/for-organisations/guide-to-data-protection/key-dp-themes/guidance-on-ai-and-data-protection/about-this-guidance/#whatdoyou. Acesso em: 22 jan. 2023.

[3] CJSUBIA. Relatório final da Comissão de Juristas responsável por Subsidiar Elaboração de Substitutivo sobre Inteligência Artificial no Brasil. p. 10. https://legis.senado.leg.br/comissoes/mnas?codcol=2504&tp=4 Acesso em: 23 jan. 2023.

[4] IBM SECURITY, Cost of a Data Breach Report. 2022. Disponível em: https://www.ibm.com/downloads/cas/3R8N1DZJ. Acesso em: 20 jan. 2023.

[5] ITO, Daniel. Governo sofreu quase cinco mil incidentes cibernéticos em 2021. Agência Brasil. 28 de janeiro de 2022. Disponível em:

https://agenciabrasil.ebc.com.br/radioagencia-nacional/seguranca/audio/2022-01/governo-sofreu-quase-cinco-mil-incidentes-ciberneticos-em-2021. Acesso em: 20 jan. 2023.


AMANDA CUNHA MELLO SMITH MARTINS – Advogada na área de Direito do Consumidor, mestre em Direito pela Faculdade de Direito da USP e coordenadora de consumidores na Comissão de Privacidade e Proteção de Dados da OAB-SP
BRUNA MARQUES DA SILVA – Advogada da Lee, Brock, Camargo Advogados (LBCA) e mestre em Direito pela Universidade do Vale do Rio dos Sinos (Unisinos)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.