PUBLICIDADE

‘Criamos algo que não conseguimos explicar’, diz conselheira de IA da União Europeia

Clara Durodié diz que é preciso ponderar sobre quando o uso de inteligência artificial é realmente necessário

PUBLICIDADE

Foto do author Cristiane Barbieri
Atualização:
Foto: DIV
Entrevista comClara DurodiéMembro da Aliança de Inteligência Artificial da União Europeia

Estrategista em tecnologia especializada em negócios, riscos e geopolítica da inteligência artificial (IA) em serviços financeiros, Clara Durodié foi conselheira do Fórum Econômico Mundial, do Grupo Parlamentar Misto do Reino Unido, da comissão especial sobre o tema no Japão e é membro da Aliança de Inteligência Artificial da União Europeia. Nesta semana, ela estará no Brasil para participar do MKBR, evento da Anbima e da B3 que acontece na quintam 6, para convidados, no Teatro B32, em São Paulo.

Durodié é autora do livro “Decoding AI in Financial Services - Business Implications for Boards and Professionals” (algo como “Decodificando a IA nos serviços financeiros - implicações de negócios para conselhos e profissionais), lançado em 2019 e que ganhará uma nova versão também na próxima semana. Apesar de acompanhar a evolução desta tecnologia há bastante tempo, ela diz que entramos num novo momento, com a IA ganhando mais autonomia. Para ela, é o momento de parar e pensar tanto na adoção quanto na regulação do tema.

“A ingenuidade humana chegou a um nível tão alto que criamos algo que não conseguimos explicar como funciona”, diz. “Digo a empresas e reguladores: este não é o tempo para se apressar.” Ela conversou com o Estadão/Broadcast. Leia abaixo:

A sra. acompanha IA antes de todo o barulho sobre essa tecnologia. O que a sra. vê para o futuro?

O mais importante é olhar esse grande campo da IA e tentar entender, enquanto a tecnologia amadurece, para onde estamos indo. Na segunda edição do meu livro sobre inteligência artificial para pessoas não tecnológicas, quis explicar que esse campo deve ser entendido também do ponto de vista da busca pela sua própria autonomia. Até o ChatGPT e a IA generativa, usávamos a IA preditiva para classificação, engenharia de recomendação e assim por diante. Por exemplo, classificar se uma pessoa é ou não elegível para um empréstimo pessoal, um financiamento imobiliário ou uma hipoteca. Com a IA generativa, entramos no que eu chamo de inteligência artificial semi autônoma, com texto, discursos, vídeos, imagens e áudio. É a IA cognitiva, uma tecnologia que tem uma boa compreensão do contexto, habilidades de pensar, fazer planos, entre outras coisas. São ferramentas que estão sendo desenvolvidas, com um nível de autonomia bastante alto e que podem se engajar com outros agentes. É um novo mundo muito diferente, que nós não sabemos exatamente como será, porque nunca o experimentamos.

Quais os desafios na regulação de algo tão desconhecido?

No Reino Unido e na Europa, a IA preditiva foi muito adotada, em todos os tipos de funções e tarefas. Mas agora, como essa tecnologia se torna mais autônoma, ela pode mudar a natureza do que desempenha. Bem como será capaz de, em muitas formas, mudar e desafiar as exigências dos reguladores. Ao mesmo tempo em que está ganhando mais autonomia, nós, humanos, não conseguimos exatamente explicar como ela toma algumas decisões. O regulador começará a fazer perguntas, não apenas sobre as decisões, mas também sobre a consistência dos resultados. Porque, com a IA generativa, nunca é certo se a mesma resposta será dada de novo e de novo. De uma perspectiva regulatória, isso é muito importante. Além disso, é essencial entender quais situações ou instâncias são elegíveis para adotar essa tecnologia.

Como assim?

Pode haver instâncias em que decidamos não adotar essa tecnologia porque ela não é confiável, não é adequada ou as regras não permitem espaço para resultados diversos. Precisamos entender o que a tecnologia pode fazer e então escolher o algoritmo certo. Mas ter certeza de que ficamos dentro dos requisitos regulatórios.

A tecnologia vem sendo adotada sem que saibamos suas consequências?

A ingenuidade humana chegou a um nível tão alto que criamos algo que não conseguimos explicar como funciona. Quando a IA alucina, por exemplo, produz um resultado distante do que os reguladores realmente querem. Então, de novo, é caso de pensar: “vamos usar essa tecnologia para nossos objetivos ou deixá-la fazer o que quiser?”

Publicidade

Isso diz respeito apenas a reguladores ou também a negócios?

Na segunda edição do meu livro, faço a seguinte pergunta: “quão lenta é sua estratégia de IA?” Porque todo mundo está correndo atrás de seu uso, mas é preciso desacelerar e perguntar quais ferramentas cada tecnologia oferece e como aprender com cada uma delas. É preciso ser bastante seletivo de acordo com o objetivo de cada empresa. Na verdade, a grande pergunta a ser respondida é “onde queremos ir, como negócio?” A empresa quer crescer expandindo o número de seus clientes? Quer ir a outros países? O que faz como negócio para ser mais lucrativo? Uma vez que se entenda esse objetivo, é possível determinar se estou usando ou não a melhor a tecnologia para me apoiar nessa meta. Vejo muito no Reino Unido, especialmente em relação ao ChatGPT, muitas empresas embarcarem e reportarem seu uso sem se preocupar com riscos ou consequências negativas. Elas têm colocado dados em risco e enfrentado desafios, sem saber o motivo. Há algoritmos opacos que têm tomada de decisões e consistência impossíveis de entender. É preciso fazer uma curadoria de uso bastante cuidadosa.

As empresas deveriam adotar um protocolo na adoção de IA?

As empresas precisam ter uma estratégia de IA, que implica gerenciar dados, construir e fazer a curadoria dos algoritmos. Assumir a propriedade de cada passo é muito importante. Para desenhar essa estratégia, recomendo olhar para o negócio como se desmontasse um carro, olhando para cada um dos milhares de pedaços que o compõem. É quase decompor todo o negócio para entender seu funcionamento, processos e responsáveis. Com esse tipo de visão, é possível entender como cada processo gera lucro e, a partir daí, adotar uma estratégia para IA. Deixe-me lhe dar um exemplo. Quando você vai jogar tênis, põe salto alto? Quando vai jogar golfe, calça botas de caminhada? O ponto é: como é necessário escolher calçados certos para diferentes atividades, precisamos ser inteligentes e bem informados no uso de algoritmos e do tipo certo de IA para a tarefa. Não é só escolher o mais caro, o mais sofisticado, mas o certo. Se conseguir isso, já é o vencedor de parte da batalha.

Alguma companhia está fazendo isso de maneira bem feita?

A IA será capaz de mudar e desafiar as exigências dos reguladores Foto: DIV

Uma empresa que aparece continuamente no topo dos rankings de adoção de IA é o JP Morgan. Eles investiram uma quantidade fabulosa de dinheiro em IA e desenvolveram ferramentas interessantes. Mas é preciso prestar atenção a uma pequena notícia do início deste ano: o JPMorgan decidiu investir bilhões, nos próximos três a quatro anos, para abrir 500 agências bancárias nos Estados Unidos. Parece-me que estão olhando para o seu modelo de negócio e dizendo: “ok, usamos a IA para algumas tarefas, mas há outras em que precisamos ter operações bancárias físicas. A IA não vai substituir isso.” É algo incrível do ponto de vista de estratégia: onde todos os outros fecharam suas agências, eles estão desenvolvendo pontos de entrada para uma nova geração de clientes. É um exemplo muito bom de um negócio que olha as ferramentas - sejam tecnológicas ou físicas -, e faz o que for necessário para expandir seu alcance. É um olhar estratégico interessante.

Como os conselhos devem se envolver nessa estratégia?

Os conselhos deveriam começar pedindo esse tipo decomposição do negócio para compreender as partes integradas, em sua função de garantir a supervisão de risco. Na minha experiência, os conselhos não têm conhecimento e informação para fazer as perguntas certas. Portanto, nunca terão as respostas certas. Em meu livro, no fim de cada capítulo, há uma seção com perguntas que os conselhos deveriam fazer. Um dos maiores riscos das empresas em 2024, quando se trata da adoção da IA, é que elas não têm diretores qualificados para fazer as perguntas certas. Além disso, ao mesmo tempo que é preciso entender o negócio da IA, tem de se compreender a governança e a geopolítica da IA.

O que é isso?

CONTiNUA APÓS PUBLICIDADE

Quando se olha para o ambiente político, vê-se claramente que está sendo remodelado pela geopolítica e por países que querem usar a tecnologia como ganho de poder. Estão sendo criados ecossistema que os permitem entregar serviços tecnológicos que, em alguns casos, podem criar grandes níveis de dependência. Quatro anos atrás, políticos europeus começaram a ter conversas profundas sobre a soberania da União Europeia, porque eles queriam ter independência dos fornecedores. Esse é o lado geopolítico - que afeta um gestor de banco no Brasil, por exemplo. Em outras palavras, é preciso entender o que estou comprando e trazendo para dentro de casa. Quais influências estão ligadas a essa tecnologia?

É um desafio grande também para os reguladores, não?

Ser regulador é um trabalho muito difícil. Além de ajudá-los a entender a IA e como as empresas estão procurando incorporá-la, é preciso fazer uma pergunta básica: “quero que minha família seja submetida a essa tecnologia?” É um ecossistema vasto para regular, mas se as pessoas forem encorajadas a pensar eticamente, é um bom ponto de partida. Encorajo as pessoas a colocarem um pouco de sabedoria nisso tudo porque estamos construindo sistemas que vão atravessar gerações. Este não é o tempo para se apressar.

Algum país tem feito um trabalho melhor em termos de regulação?

Todo regulador vai tentar agir em linha com sua própria ética, cultura e visão do futuro. Na União Europeia, a visão do futuro é preservar a dignidade humana. Foi esse o espírito por trás do Acordo de Regulação da IA da Europa. No Reino Unido, até agora, tínhamos um governo que decidiu não regular nada. O que está acontecendo é que temos um número de casos na Corte que estão passando pelo desafio de entender a tecnologia. Porque há casos de pessoas acusadas de roubar ou de fazer coisas que nunca fizeram. É uma tendência similar à que vemos nos Estados Unidos.

Publicidade

Como o Brasil deveria agir em relação a esse tema?

Primeiro de tudo, sou grande fã do Brasil, amo sua língua - que é a mais incrível do mundo -, sua cultura e seu desejo pela vida. Há humanidade em suas almas, que vejo a cada vez que eu encontro brasileiros. É algo para preservar com cuidado porque vocês têm um monte de tesouros. Sua cultura e sua sociedade precisam de proteção, para que não sejam alteradas pela forma como essa tecnologia pode alterar uma sociedade.

Comentários

Os comentários são exclusivos para assinantes do Estadão.