PUBLICIDADE

Foto do(a) blog

Jornalismo, educação, tecnologia e as combinações disso tudo

Opinião|IA se torna essencial na cibersegurança, em ano em que criminosos abusarão da mesma tecnologia

Foto do author Paulo Silvestre
Atualização:
O jornalista Pedro Bial, que tem sido vítima de "deep fakes" que usam sua imagem para vender "remédios milagrosos" - Foto: reprodução

Esse é um ano em que pessoas e empresas devem ver um crescimento explosivo no uso da inteligência artificial por criminosos, seja para aplicação de golpes, seja para ataques a sistemas corporativos. A boa notícia é que a mesma IA se apresenta como uma poderosa aliada para conter essas ameaças, não apenas corrigindo problemas, mas também ao preveni-los.

PUBLICIDADE

O cibercrime com inteligência artificial generativa será impulsionado em 2024 pelas eleições em grandes países (como Brasil e EUA) e guerras amplamente midiáticas, como a de Israel contra o Hamas e a invasão russa na Ucrânia. O tema foi abordado nessa quinta, em uma mesa-redonda promovida pela IBM sobre o uso da inteligência artificial na cibersegurança, conduzido por Fábio Mucci, líder de Segurança da IBM Brasil, e Marcos Chaves, Cybersecurity Services da IBM Consulting Latin America.

Além desses grandes eventos, o uso da IA pelo cibercrime impacta cada vez mais o cotidiano de pessoas e de empresa. Isso vai desde a tecnologia sendo usada para criar "phishing" mais eficientes (quando se engana o usuário para se obter algo) para golpes em indivíduos ou invasões a empresas, até plataformas de IA generativa construídas especificamente para produção de fake news, programas maliciosos e outras práticas ilícitas, como o FraudGPT. Mesmo plataformas "regulares", como o ChatGPT, apesar de seus esforços para impedir seu uso por criminosos, acabam se prestando a isso. Outro alerta para pessoas, empresas e governos é o crescimento do uso dessa tecnologia nos processos de desinformação, como na criação de notícias, áudios e vídeos falsos cada vez mais críveis.

Isso já vem acontecendo. Nessa semana, Pedro Bial acusou a Meta (dona do Facebook, Instagram e WhatsApp) de se beneficiar indiretamente de publicações falsas em que a imagem do jornalista é usada para vender um "remédio milagroso", prática que vem vitimando várias celebridades. Mas esses "deep fakes" também podem impactar pessoas comuns, que recebem mensagens falsas de texto e áudio, cada vez mais confiáveis, para lhes aplicar golpes, especialmente via WhatsApp.

Publicidade

Para combater isso, usuários, desenvolvedores e instituições governamentais precisam se unir para tomar medidas preventivas. Da mesma forma que a IA impulsiona o crime, inclusive dando escala e velocidade para ataques e outras práticas já conhecidas, ela pode e deve ser usada nesse trabalho de prevenção.

Segundo a IBM, com a inteligência artificial generativa, as equipes de segurança digital gastam 55% menos tempo para encontrar ameaças e 85% menos para responder a um incidente. Isso fica ainda mais importante quando 64% dos gestores enfrentam pressão para acelerar iniciativas com IA generativa, mas 84% deles veem riscos nessa adoção. Não é à toa, portanto, que 64% deles apontam segurança como prioridade para esse uso.

No entanto, apenas 23% das empresas estudadas no Brasil estão usando extensivamente segurança impulsionada por IA e automação. Isso representa 17% a menos do que a média global, o que é preocupante, uma vez que o Brasil foi responsável por 67% dos casos atendidos pela equipe de segurança da IBM na América Latina. O varejo foi o setor mais atacado em 2022, com 31% dos casos, seguido pelos setores financeiros e de seguros, e de energia.

A IA pode ajudar empresas a identificar as brechas antes que possam ser exploradas em ataques. O velho "jogo de xadrez" entre equipes de segurança e criminosos, em que se tenta antecipar os movimentos do outro lado, fica muito mais poderoso.

Publicidade

Desde a invasão de um sistema corporativo até o ataque efetivo, o malware fica, em média, 277 dias "dormente", coletando informações da vítima, segundo a IBM. A inteligência artificial pode ajudar as equipes de segurança a detectarem e recuperar o sistema mais rapidamente, antes que o ataque se concretize, mesmo para ameaças inéditas.

Mas a tecnologia, por si só, não é suficiente. As companhias precisam fazer usos éticos dela e com forte governança para minimizar falhas. Isso recai na discussão sobre regulamentação dessa tecnologia, uma preocupação de diversos governos, inclusive do brasileiro. Mucci reforçou a importância da governança e que as regulamentações não acabem atrapalhando o desenvolvimento da IA. "Temos capacidade de superar esses resultados de segurança e de impor limites à IA com governança".

 

Opinião por Paulo Silvestre

É jornalista, consultor e palestrante de customer experience, mídia, cultura e transformação digital. É professor da Universidade Mackenzie e da PUC–SP, e articulista do Estadão. Foi executivo na AOL, Editora Abril, Estadão, Saraiva e Samsung. Mestre em Tecnologias da Inteligência e Design Digital pela PUC-SP, é LinkedIn Top Voice desde 2016.

Comentários

Os comentários são exclusivos para assinantes do Estadão.