Esse é um ano em que pessoas e empresas devem ver um crescimento explosivo no uso da inteligência artificial por criminosos, seja para aplicação de golpes, seja para ataques a sistemas corporativos. A boa notícia é que a mesma IA se apresenta como uma poderosa aliada para conter essas ameaças, não apenas corrigindo problemas, mas também ao preveni-los.
O cibercrime com inteligência artificial generativa será impulsionado em 2024 pelas eleições em grandes países (como Brasil e EUA) e guerras amplamente midiáticas, como a de Israel contra o Hamas e a invasão russa na Ucrânia. O tema foi abordado nessa quinta, em uma mesa-redonda promovida pela IBM sobre o uso da inteligência artificial na cibersegurança, conduzido por Fábio Mucci, líder de Segurança da IBM Brasil, e Marcos Chaves, Cybersecurity Services da IBM Consulting Latin America.
Além desses grandes eventos, o uso da IA pelo cibercrime impacta cada vez mais o cotidiano de pessoas e de empresa. Isso vai desde a tecnologia sendo usada para criar "phishing" mais eficientes (quando se engana o usuário para se obter algo) para golpes em indivíduos ou invasões a empresas, até plataformas de IA generativa construídas especificamente para produção de fake news, programas maliciosos e outras práticas ilícitas, como o FraudGPT. Mesmo plataformas "regulares", como o ChatGPT, apesar de seus esforços para impedir seu uso por criminosos, acabam se prestando a isso. Outro alerta para pessoas, empresas e governos é o crescimento do uso dessa tecnologia nos processos de desinformação, como na criação de notícias, áudios e vídeos falsos cada vez mais críveis.
Isso já vem acontecendo. Nessa semana, Pedro Bial acusou a Meta (dona do Facebook, Instagram e WhatsApp) de se beneficiar indiretamente de publicações falsas em que a imagem do jornalista é usada para vender um "remédio milagroso", prática que vem vitimando várias celebridades. Mas esses "deep fakes" também podem impactar pessoas comuns, que recebem mensagens falsas de texto e áudio, cada vez mais confiáveis, para lhes aplicar golpes, especialmente via WhatsApp.
- Assine gratuitamente minha newsletter sobre experiência do cliente, mídia cultura e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts, Google Podcasts ou Soundcloud
Para combater isso, usuários, desenvolvedores e instituições governamentais precisam se unir para tomar medidas preventivas. Da mesma forma que a IA impulsiona o crime, inclusive dando escala e velocidade para ataques e outras práticas já conhecidas, ela pode e deve ser usada nesse trabalho de prevenção.
Segundo a IBM, com a inteligência artificial generativa, as equipes de segurança digital gastam 55% menos tempo para encontrar ameaças e 85% menos para responder a um incidente. Isso fica ainda mais importante quando 64% dos gestores enfrentam pressão para acelerar iniciativas com IA generativa, mas 84% deles veem riscos nessa adoção. Não é à toa, portanto, que 64% deles apontam segurança como prioridade para esse uso.
No entanto, apenas 23% das empresas estudadas no Brasil estão usando extensivamente segurança impulsionada por IA e automação. Isso representa 17% a menos do que a média global, o que é preocupante, uma vez que o Brasil foi responsável por 67% dos casos atendidos pela equipe de segurança da IBM na América Latina. O varejo foi o setor mais atacado em 2022, com 31% dos casos, seguido pelos setores financeiros e de seguros, e de energia.
A IA pode ajudar empresas a identificar as brechas antes que possam ser exploradas em ataques. O velho "jogo de xadrez" entre equipes de segurança e criminosos, em que se tenta antecipar os movimentos do outro lado, fica muito mais poderoso.
Desde a invasão de um sistema corporativo até o ataque efetivo, o malware fica, em média, 277 dias "dormente", coletando informações da vítima, segundo a IBM. A inteligência artificial pode ajudar as equipes de segurança a detectarem e recuperar o sistema mais rapidamente, antes que o ataque se concretize, mesmo para ameaças inéditas.
Mas a tecnologia, por si só, não é suficiente. As companhias precisam fazer usos éticos dela e com forte governança para minimizar falhas. Isso recai na discussão sobre regulamentação dessa tecnologia, uma preocupação de diversos governos, inclusive do brasileiro. Mucci reforçou a importância da governança e que as regulamentações não acabem atrapalhando o desenvolvimento da IA. "Temos capacidade de superar esses resultados de segurança e de impor limites à IA com governança".