Foto do(a) page

Conheça o Espaço Aberto na editoria de Opinião do Estadão. Veja análises e artigos de opinião em colunas escritas por convidados e publicadas pelo Estadão.

Opinião|Gargalos na educação sobre IA e perspectivas sobre a ‘data economy’

Muito pouco se tem discutido sobre a importância de que o estudo da inteligência artificial ande em sintonia com a proteção de dados

A inteligência artificial (IA), na maior parte do tempo, é uma infraestrutura invisível que condiciona as nossas compras, assim como o que devemos ouvir, ler e seguir nas redes sociais, por intermédio do aprendizado de algoritmos, que por sua vez exige toda cautela, sob pena de direcionar a sociedade a reduzidos nichos de pensamento.

Infelizmente, na quadra atual, passamos para um novo estágio em que precisaremos aprender a identificar se as vozes e os rostos de celebridades promovendo produtos ou ideias são verdadeiros (e não um deep fake), ou se um livro foi escrito fielmente por um ser humano, e não por uma máquina, tal como ocorreu com 5% do Tokyo-to Dojo-to, de Rie Kudan, o que também nos leva às discussões éticas e, sobretudo, nos remete à importância não somente de sua regulação, mas como educarmos a população para compreender e identificar estes casos, a partir de qual idade e as metodologias disponíveis.

Desde 2017 a China revelou seu Plano de Desenvolvimento de Inteligência Artificial, que tem por escopo torná-la líder global até 2030, por intermédio de investimentos maciços não somente em startups e laboratórios, mas notadamente na educação.

Este tópico suscitou uma reflexão sobre a partir de qual estágio da vida as crianças podem ser educadas no tocante à IA e à proteção de dados, e a resposta da China foi: desde o jardim de infância.

Com relativo atraso, somente em 2021 o Brasil publicou sua Estratégia Brasileira de Inteligência Artificial, contendo o eixo de capacitação voltado predominantemente à graduação e à pós-graduação, mas com um objetivo de extrema relevância: aperfeiçoar a Base Nacional Comum Curricular (BNCC) para que, entre as competências a serem desenvolvidas na educação básica, a IA seja abordada a partir dos 4 anos de idade.

Essa política pública permanece no atual governo federal, como se infere da Estratégia para a transformação digital 2022-2026, tendo em vista que no eixo qualificações para um futuro digital propõe-se a criação de conceitos para o ensino fundamental, o médio regular e o profissionalizante que ressaltem a importância da IA e do seu uso qualificado.

Entretanto, até o presente momento não houve avanço na sua efetiva implementação, o que traz à tona o debate sobre como professores e educadores se habilitarão em relação a estes temas relevantíssimos que, para além da compreensão e da identificação pela população sobre deep fakes e outros engodos, implica a tentativa de solver as demandas do mercado, que, segundo o governo federal, necessitará de 70 mil novos profissionais ao ano nas áreas de big data, internet das coisas (ioT), segurança, nuvem e IA, uma vez que somente 46 mil profissionais com perfil nessas áreas se formam anualmente, o que se soma ao descasamento entre a oferta e a demanda de mão de obra nas Regiões Norte e Nordeste, em comparação com o restante do País.

Qual seria a razão deste déficit profissional no setor? De acordo com o governo federal, há informações sinalizando que o problema pode estar nos ensinos fundamental e médio, respectivamente de competência dos municípios e Estados, uma vez que menos de 20% dos estudantes se interessam por áreas relacionadas a ciência, tecnologia, engenharia e matemática.

Contudo, a qualificação para lidar com a IA demanda muito mais do que essas habilidades acima relatadas, uma vez que seu objetivo é tornar-se próxima do pensamento humano, e, portanto, há extrema necessidade de uma análise crítica, filosófica, ética e, acima de tudo, jurídica.

Dessa forma, em que pese a IA ser reconhecidamente uma disciplina acadêmica desde 1956, e detentora de quatro dimensões – conhecer e entender; usar e aplicar; avaliar e criar; e, por fim, aplicar todos esses conceitos de maneira ética –, hoje a discussão gira em torno de relevantes metodologias de ensino, desde a educação infantil até os cursos de Direito, em que a Comissão Especial de Revisão das Diretrizes Curriculares Nacionais, criada pela OAB, deverá esquadrinhar uma disciplina conjunta sobre IA e proteção de dados.

Ademais, muito pouco se tem discutido sobre a importância de que o estudo da inteligência artificial ande em sintonia com a proteção de dados, uma vez que estes são a fonte de alimentação e aprendizado da primeira. Trata-se do fenômeno conhecido como mineração de dados, que combina estatística com inteligência artificial, por intermédio da ciência de dados.

Essa inextricável ligação permitirá ao País o desenvolvimento da economia de dados (data economy), com vistas à criação de uma infraestrutura de armazenamento e compartilhamento do exponencial volume de informações essenciais para novos modelos de negócios, mas sempre condicionada à adequada proteção das informações pessoais e sensíveis, prevista na Lei n.º 13.709/2018.

Esta economia de dados vai além da perspectiva relativamente estreita de influenciar a rentabilidade, as avaliações de mercado ou a carga tributária das empresas, mas também visa à redução de custos, melhoria da eficiência e a busca por soluções inovadoras, seja no âmbito privado ou público, a ponto de a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) constatar que o investimento em inteligência de dados sistematicamente maior que o mero investimento em armazenamento de dados nas economias da Espanha, Suécia e Reino Unido fornece uma contribuição importante em termos de vantagens competitivas com outros países da Europa.

No Direito, este uso intensivo de dados suscitará muitos debates e, quiçá, o aperfeiçoamento da LGPD brasileira nos mesmos moldes do Regulamento Geral de Proteção de Dados da União Europeia, cujo artigo 24 resguarda a proteção de dados que visem a controlar comportamentos dos seus titulares, isto é, que possam definir o perfil de uma pessoa e influenciar as suas decisões, ou, ainda, analisar ou prever as suas preferências, o seu comportamento e as suas atitudes.

São estes dados comportamentais que nas eleições poderão ser utilizados indevidamente. E, aparentemente, a minuta do Tribunal Superior Eleitoral (TSE) que dispõe sobre propaganda eleitoral, utilização e geração do horário gratuito e condutas ilícitas em campanha eleitoral, alterando a sua Resolução n.º 23.610/2019, se preocupou com o tema em seu artigo 33, §§ 1.º e 2.º, ao exigir registro específico e informação objetiva e explícita aos titulares no ato da solicitação do consentimento de uso dos dados para a formação de perfil comportamental, o que efetivamente suscita a importância de que o artigo 12, § 2.º, da Lei n.º 13.709/2018 seja aprimorado para efetivamente tutelar essa exigência – e, se o caso permitir, que sanções sejam aplicadas pela Autoridade Nacional de Proteção de Dados, que é a autoridade efetivamente competente para tratar do tema.

*

PÓS-GRADUADO E MESTRE EM DIREITO ADMINISTRATIVO PELA PUC-SP, PROFESSOR DE GRADUAÇÃO E PÓS-GRADUAÇÃO, É PÓS-GRADUANDO EM ARBITRAGEM, PELA FACULDADE DE DIREITO DA UNIVERSIDADE DE LISBOA, E EM DIREITO DA PROTEÇÃO DE DADOS, PELA FACULDADE DE DIREITO DA UNIVERSIDADE DE LISBOA/IRISH COMPUTER SOCIETY

Opinião por Roberto Tadao Magami Junior

Pós-graduado e mestre em Direito Administrativo pela PUC-SP, professor de graduação e pós-graduação, é pós-graduando em Arbitragem, pela Faculdade de Direito da Universidade de Lisboa, e em Direito da Proteção de Dados, pela Faculdade de Direito da Universidade de Lisboa/Irish Computer Society