Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Modelos regulatórios para a inteligência artificial no Brasil: por que é tão complexo fazer uma opção?


Por Fernanda Bragança e Renata Braga
Fernanda Bragança e Renata Braga. Foto: DIVULGAÇÃO

A inteligência artificial (IA) é uma tecnologia com propósito geral, o que significa que pode ser aplicada em segmentos distintos e tem um espectro de atuação que se expande em múltiplas atividades. Ao mesmo tempo, é uma tecnologia com caráter disruptivo, tendo em vista que a sua aplicação promove transformações robustas nos negócios e na sociedade. Ela depende de uma interferência humana cada vez menor, conta com uma capacidade crescente de processamento com as metodologias de deep learning[1] e faz tomada de decisão com alta assertividade. Outra característica marcante é a sua rápida evolução; o que dificulta a antecipação dos seus impactos jurídicos pelo legislador.

Diante de um cenário de crescente aplicação de IA e de forte domínio das big techs[2], os países têm se mobilizado para elaborar uma regulação dessa tecnologia.  Matthew Scherer[3], em artigo que trata sobre a regulação dos sistemas de IA, observa que os mecanismos tradicionais de regulação, tais como os que são empregados em licenciamento de produtos, supervisão de pesquisa e desenvolvimento e responsabilização civil, não são mais suficientes para lidar com os riscos associados ao uso da IA na atualidade.

continua após a publicidade

Nesse sentido, há desde Estados com posicionamentos mais liberais, em que o mercado tem maior protagonismo sobre a regulação e a atuação estatal tem o objetivo de delimitar princípios éticos gerais; até Estados mais conservadores, com um maior controle sobre o mercado tecnológico, sendo os imperativos de segurança e soberania nacional os grandes balizadores do tratamento do tema. Este é o primeiro de uma série de artigos que tem o objetivo de aprofundar sobre o posicionamento normativo brasileiro nessa questão, a partir das discussões iniciadas com o Projeto de Lei (PL) Nº. 21, de 2020 e com o Relatório final da Comissão de Juristas[4] responsável por subsidiar a elaboração do substituto sobre IA no país. Neste texto, serão abordadas as possibilidades de estruturas regulatórias para a matéria. Os modelos de regulação que costumam ser mais referenciados são: regulação setorial, regulação baseada em riscos e autorregulação.

A regulação setorial é defendida por muitos autores, que veem a descentralização normativa como um fator importante para que cada setor tenha maior autonomia e dinamismo para tratar das especificidades que lhe afetam. Assim, as agências reguladoras exerceriam um papel fundamental de análise e fiscalização da IA nas suas áreas de atuação. Trata-se de um modelo que reafirma o papel gerencial do Estado e distribui para as agências a necessidade de acompanharem mais de perto os desdobramentos da utilização dessa tecnologia no setor regulado de sua competência. As agências evitariam a captura e o domínio pelos interesses privados, atentas à constante mitigação de potenciais riscos e danos na saúde e outras esferas públicas, sobretudo.

Em que pese essa proposta ter sido apontada como a solução mais adequada para atender às especificidades dos setores regulados por alguns especialistas da Comissão de Juristas, e encontrar respaldo nos EUA, alguns desafios são inerentes à sua implementação. Uma primeira questão que precisa ser definida é sobre a necessidade ou não de se criar uma autoridade reguladora específica para cuidar da IA no país. Os defensores da existência dessa entidade afirmam que é indispensável um órgão central que coordene os agentes reguladores em cada âmbito de atuação, com o intuito de conferir uma uniformidade de direcionamento na matéria, e evitar sobreposições ou conflitos normativos intersetoriais[5]. Contudo, essa discussão sobre a criação de um órgão regulador central ainda parece longe de um consenso.

continua após a publicidade

Cabe ressaltar, ainda, que para além do plano nacional, Olivia Erdélyi e Judy Goldsmith[6] propõem a criação uma entidade reguladora internacional, de modo que possa estabelecer parâmetros para eventuais divergências de interpretação entre as agências nacionais e, também, poderia funcionar como um fórum transnacional para a discussão e definição de padrões comportamentais com foco nos desenvolvedores de IA.

O modelo de regulação baseado em riscos foi a posição dominante[7] na Comissão de Juristas, com forte inspiração na proposta de regulamentação europeia[8]. Essa proposta regulatória se baseia na criação de uma modelação de níveis escalonados e de salvaguardas proporcionais para a mitigação de riscos a depender da aplicação da IA. Nessa linha, seria necessária a criação de critérios para a definição dos vários níveis de risco dos sistemas de IA. Uma classificação comum na doutrina é a que divide esses riscos em: i) inaceitável, ii) elevado e iii) baixo ou mínimo. O texto do substitutivo do PL Nº 21, de 2020 optou por estabelecer as hipóteses de risco excessivo e alto risco. Na Comissão de Juristas, os especialistas[9] alertaram para uma dificuldade imediata: é necessário definir quem terá essa atribuição de classificação, uma vez que o PL não havia delimitado a questão. Outro ponto[10] abordado é o fato de que essa classificação não pode ser inflexível, de tal modo que possa ser fácil e rapidamente adaptada à evolução da própria tecnologia.

O relatório da Comissão de Juristas[11] enfatizou que esse tipo de regulação baseada em riscos não pode ficar restrito ao mero cumprimento de checklists, uma vez que a diretriz deve ser sempre a real e efetiva prevenção de riscos aos seres humanos. O foco não deve ser, portanto, criar mais uma regra de compliance a ser cumprida pelos desenvolvedores de sistemas de IA.

continua após a publicidade

Além disso, alguns especialistas também chamaram atenção para o fato de que não é necessário optar por um único modelo de regulação. É possível, inclusive, a elaboração de uma proposta que combine tanto uma avaliação e prevenção de riscos quanto uma abordagem focada em direitos. Nesse sentido, a opinião de alguns especialistas[12] foi, justamente, que o PL Nº 21, de 2020 deveria explorar mais essa possibilidade de mesclar os modelos.

Um terceiro modelo é o da autorregulação, que significa a criação de um conjunto de regras para os atores da área por meio de códigos de conduta ou guias de boas práticas, por exemplo. O objetivo é estabelecer padrões técnicos, comportamentais e de conduta que tenham caráter vinculante, ainda que tenham sido concebidos, originalmente, no âmbito de uma empresa determinada.

Alguns juristas defenderam a opção de uma autorregulação regulada, em que o Estado estabelece um conjunto basilar de padrões éticos e de governança[13] a serem observados para assegurar o desenvolvimento de sistemas de IA confiáveis, ao mesmo tempo em que permite autonomia na autorregulação setorial, com a orientação dos requisitos fundamentais específicos[14] e fiscalização da sua execução. Uma outra possibilidade seria uma corregulação regulada, com a junção das contribuições do setor privado e da academia, sempre com abrangência multidisciplinar, e até com a possibilidade de realização de consulta pública sobre as proposições normativas.

continua após a publicidade

Esse modelo apresentou, também, uma boa aceitação na Comissão de Juristas, uma vez que permite uma atualização e adequação normativa mais célere, em um tema permeado por rápidas mudanças e em que há grande dificuldade de se estabelecer, de antemão, um conjunto de regras taxativas[15]. Cabe destacar, ainda, que, nesse modelo, o Estado teria um papel subsidiário em relação à autorregulação efetivada pelo setor privado.

O Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento estuda a temática e enviou contribuições escritas à Comissão de Juristas. Antes disso, o Centro do Judiciário havia publicado duas Notas Técnicas sobre o Marco Legal da IA no Brasil, sendo a primeira relativa ao PL que tramitou na Câmara dos Deputados[16]; e o segunda sobre o Substitutivo ao PL Nº 21, de 2020 que tramitou no Senado Federal[17].

Esses dois documentos foram elaborados por uma rede interinstitucional de pesquisadores, sob a coordenação do Ministro Luis Felipe Salomão e da juíza federal Caroline Tauk. A edição mais recente analisa, justamente, a proposta discutida no âmbito do Senado, e propôs alguns pontos de reflexão no projeto de regulamentação brasileiro.

continua após a publicidade

Para além da definição de um modelo regulatório, alguns desafios constaram nas considerações da rede interinstitucional de pesquisadores do Centro do Judiciário e que serão objeto de outros artigos. Apenas para ilustrar, um dos destaques foi sobre o perfil da proposta, que possui um caráter mais generalista - mas vinculante - com a estipulação de princípios, direitos, deveres e instrumentos de governança para o uso da IA no Brasil, além de fixar diretrizes para a atuação do Poder Público, de pessoas físicas e jurídicas, de direito público ou privado, e entes sem personalidade (art. 1º).

De fato, a definição do modelo regulatório é permeada de complexidades jurídicas, mas sobretudo, traduz a opção política e estratégica do país no desenvolvimento e operação dos sistemas do IA em seu território. É preciso considerar, também, que essa normativa terá um impacto relevante para determinar a atração de investimentos e a evolução e dinamismo tecnológico nessa seara. O PL Nº 21, em alguma medida, interage de forma bem próxima aos modelos de regulação setorial e de regulação baseada em risco, mas ainda são necessárias algumas definições para uma melhor delimitação da regulamentação a ser seguida pelo Brasil.

[1] FAN, Jianqing; MA, Cong; ZHONG, Yiqiao. A selective overview of deep learning. HHC Public Access, Author manuscript, 23 jul. 2021. Disponível em: . Acesso em: 17 jan. 2023.

continua após a publicidade

[2] Cf. Com lucro recorde em 2020, quarteto de big techs vale um terço do PIB dos EUA. CNN, 5 fev. 2021. Disponível em: . Acesso em 17 jan. 2023.

em: 18 jan. 2022).

[4] Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Brasília, 2022. Disponível em: . Acesso em: 18 jan. 2023.

[5] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[6] ERDÉLYI, Olivia; GOLDSMITH, Judy. "Regulating artificial intelligence: Proposal for a global solution". Government Information Quarterly, Vol. 39, Nº 4, pp. 1-13, out. 2022. Disponível em: . Acesso em: 18 jan. 2023.

[7]  Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 86.

[8] COMISSÃO EUROPEIA. Proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (regulamento inteligência artificial) e altera determinados atos legislativos da União. Bruxelas, 21 abr. 2021. Disponível em: . Acesso em: 18 jan. 2023.

[9] Ibidem, p. 87.

[10] Ibidem.

[11] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 87.

[12] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[13] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

[14] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 223.

[15] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

*Fernanda Bragança, pesquisadora do Centro de Inovação, Administração e Pesquisa do Poder Judiciário da FGV Conhecimento. Doutora em Direito pela Universidade Federal Fluminense. Advogada.

*Renata Braga, professora da Universidade Federal Fluminense UFF/VR. Pesquisadora colaboradora externa do Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento. Doutora em Direito pela UFSC

Fernanda Bragança e Renata Braga. Foto: DIVULGAÇÃO

A inteligência artificial (IA) é uma tecnologia com propósito geral, o que significa que pode ser aplicada em segmentos distintos e tem um espectro de atuação que se expande em múltiplas atividades. Ao mesmo tempo, é uma tecnologia com caráter disruptivo, tendo em vista que a sua aplicação promove transformações robustas nos negócios e na sociedade. Ela depende de uma interferência humana cada vez menor, conta com uma capacidade crescente de processamento com as metodologias de deep learning[1] e faz tomada de decisão com alta assertividade. Outra característica marcante é a sua rápida evolução; o que dificulta a antecipação dos seus impactos jurídicos pelo legislador.

Diante de um cenário de crescente aplicação de IA e de forte domínio das big techs[2], os países têm se mobilizado para elaborar uma regulação dessa tecnologia.  Matthew Scherer[3], em artigo que trata sobre a regulação dos sistemas de IA, observa que os mecanismos tradicionais de regulação, tais como os que são empregados em licenciamento de produtos, supervisão de pesquisa e desenvolvimento e responsabilização civil, não são mais suficientes para lidar com os riscos associados ao uso da IA na atualidade.

Nesse sentido, há desde Estados com posicionamentos mais liberais, em que o mercado tem maior protagonismo sobre a regulação e a atuação estatal tem o objetivo de delimitar princípios éticos gerais; até Estados mais conservadores, com um maior controle sobre o mercado tecnológico, sendo os imperativos de segurança e soberania nacional os grandes balizadores do tratamento do tema. Este é o primeiro de uma série de artigos que tem o objetivo de aprofundar sobre o posicionamento normativo brasileiro nessa questão, a partir das discussões iniciadas com o Projeto de Lei (PL) Nº. 21, de 2020 e com o Relatório final da Comissão de Juristas[4] responsável por subsidiar a elaboração do substituto sobre IA no país. Neste texto, serão abordadas as possibilidades de estruturas regulatórias para a matéria. Os modelos de regulação que costumam ser mais referenciados são: regulação setorial, regulação baseada em riscos e autorregulação.

A regulação setorial é defendida por muitos autores, que veem a descentralização normativa como um fator importante para que cada setor tenha maior autonomia e dinamismo para tratar das especificidades que lhe afetam. Assim, as agências reguladoras exerceriam um papel fundamental de análise e fiscalização da IA nas suas áreas de atuação. Trata-se de um modelo que reafirma o papel gerencial do Estado e distribui para as agências a necessidade de acompanharem mais de perto os desdobramentos da utilização dessa tecnologia no setor regulado de sua competência. As agências evitariam a captura e o domínio pelos interesses privados, atentas à constante mitigação de potenciais riscos e danos na saúde e outras esferas públicas, sobretudo.

Em que pese essa proposta ter sido apontada como a solução mais adequada para atender às especificidades dos setores regulados por alguns especialistas da Comissão de Juristas, e encontrar respaldo nos EUA, alguns desafios são inerentes à sua implementação. Uma primeira questão que precisa ser definida é sobre a necessidade ou não de se criar uma autoridade reguladora específica para cuidar da IA no país. Os defensores da existência dessa entidade afirmam que é indispensável um órgão central que coordene os agentes reguladores em cada âmbito de atuação, com o intuito de conferir uma uniformidade de direcionamento na matéria, e evitar sobreposições ou conflitos normativos intersetoriais[5]. Contudo, essa discussão sobre a criação de um órgão regulador central ainda parece longe de um consenso.

Cabe ressaltar, ainda, que para além do plano nacional, Olivia Erdélyi e Judy Goldsmith[6] propõem a criação uma entidade reguladora internacional, de modo que possa estabelecer parâmetros para eventuais divergências de interpretação entre as agências nacionais e, também, poderia funcionar como um fórum transnacional para a discussão e definição de padrões comportamentais com foco nos desenvolvedores de IA.

O modelo de regulação baseado em riscos foi a posição dominante[7] na Comissão de Juristas, com forte inspiração na proposta de regulamentação europeia[8]. Essa proposta regulatória se baseia na criação de uma modelação de níveis escalonados e de salvaguardas proporcionais para a mitigação de riscos a depender da aplicação da IA. Nessa linha, seria necessária a criação de critérios para a definição dos vários níveis de risco dos sistemas de IA. Uma classificação comum na doutrina é a que divide esses riscos em: i) inaceitável, ii) elevado e iii) baixo ou mínimo. O texto do substitutivo do PL Nº 21, de 2020 optou por estabelecer as hipóteses de risco excessivo e alto risco. Na Comissão de Juristas, os especialistas[9] alertaram para uma dificuldade imediata: é necessário definir quem terá essa atribuição de classificação, uma vez que o PL não havia delimitado a questão. Outro ponto[10] abordado é o fato de que essa classificação não pode ser inflexível, de tal modo que possa ser fácil e rapidamente adaptada à evolução da própria tecnologia.

O relatório da Comissão de Juristas[11] enfatizou que esse tipo de regulação baseada em riscos não pode ficar restrito ao mero cumprimento de checklists, uma vez que a diretriz deve ser sempre a real e efetiva prevenção de riscos aos seres humanos. O foco não deve ser, portanto, criar mais uma regra de compliance a ser cumprida pelos desenvolvedores de sistemas de IA.

Além disso, alguns especialistas também chamaram atenção para o fato de que não é necessário optar por um único modelo de regulação. É possível, inclusive, a elaboração de uma proposta que combine tanto uma avaliação e prevenção de riscos quanto uma abordagem focada em direitos. Nesse sentido, a opinião de alguns especialistas[12] foi, justamente, que o PL Nº 21, de 2020 deveria explorar mais essa possibilidade de mesclar os modelos.

Um terceiro modelo é o da autorregulação, que significa a criação de um conjunto de regras para os atores da área por meio de códigos de conduta ou guias de boas práticas, por exemplo. O objetivo é estabelecer padrões técnicos, comportamentais e de conduta que tenham caráter vinculante, ainda que tenham sido concebidos, originalmente, no âmbito de uma empresa determinada.

Alguns juristas defenderam a opção de uma autorregulação regulada, em que o Estado estabelece um conjunto basilar de padrões éticos e de governança[13] a serem observados para assegurar o desenvolvimento de sistemas de IA confiáveis, ao mesmo tempo em que permite autonomia na autorregulação setorial, com a orientação dos requisitos fundamentais específicos[14] e fiscalização da sua execução. Uma outra possibilidade seria uma corregulação regulada, com a junção das contribuições do setor privado e da academia, sempre com abrangência multidisciplinar, e até com a possibilidade de realização de consulta pública sobre as proposições normativas.

Esse modelo apresentou, também, uma boa aceitação na Comissão de Juristas, uma vez que permite uma atualização e adequação normativa mais célere, em um tema permeado por rápidas mudanças e em que há grande dificuldade de se estabelecer, de antemão, um conjunto de regras taxativas[15]. Cabe destacar, ainda, que, nesse modelo, o Estado teria um papel subsidiário em relação à autorregulação efetivada pelo setor privado.

O Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento estuda a temática e enviou contribuições escritas à Comissão de Juristas. Antes disso, o Centro do Judiciário havia publicado duas Notas Técnicas sobre o Marco Legal da IA no Brasil, sendo a primeira relativa ao PL que tramitou na Câmara dos Deputados[16]; e o segunda sobre o Substitutivo ao PL Nº 21, de 2020 que tramitou no Senado Federal[17].

Esses dois documentos foram elaborados por uma rede interinstitucional de pesquisadores, sob a coordenação do Ministro Luis Felipe Salomão e da juíza federal Caroline Tauk. A edição mais recente analisa, justamente, a proposta discutida no âmbito do Senado, e propôs alguns pontos de reflexão no projeto de regulamentação brasileiro.

Para além da definição de um modelo regulatório, alguns desafios constaram nas considerações da rede interinstitucional de pesquisadores do Centro do Judiciário e que serão objeto de outros artigos. Apenas para ilustrar, um dos destaques foi sobre o perfil da proposta, que possui um caráter mais generalista - mas vinculante - com a estipulação de princípios, direitos, deveres e instrumentos de governança para o uso da IA no Brasil, além de fixar diretrizes para a atuação do Poder Público, de pessoas físicas e jurídicas, de direito público ou privado, e entes sem personalidade (art. 1º).

De fato, a definição do modelo regulatório é permeada de complexidades jurídicas, mas sobretudo, traduz a opção política e estratégica do país no desenvolvimento e operação dos sistemas do IA em seu território. É preciso considerar, também, que essa normativa terá um impacto relevante para determinar a atração de investimentos e a evolução e dinamismo tecnológico nessa seara. O PL Nº 21, em alguma medida, interage de forma bem próxima aos modelos de regulação setorial e de regulação baseada em risco, mas ainda são necessárias algumas definições para uma melhor delimitação da regulamentação a ser seguida pelo Brasil.

[1] FAN, Jianqing; MA, Cong; ZHONG, Yiqiao. A selective overview of deep learning. HHC Public Access, Author manuscript, 23 jul. 2021. Disponível em: . Acesso em: 17 jan. 2023.

[2] Cf. Com lucro recorde em 2020, quarteto de big techs vale um terço do PIB dos EUA. CNN, 5 fev. 2021. Disponível em: . Acesso em 17 jan. 2023.

em: 18 jan. 2022).

[4] Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Brasília, 2022. Disponível em: . Acesso em: 18 jan. 2023.

[5] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[6] ERDÉLYI, Olivia; GOLDSMITH, Judy. "Regulating artificial intelligence: Proposal for a global solution". Government Information Quarterly, Vol. 39, Nº 4, pp. 1-13, out. 2022. Disponível em: . Acesso em: 18 jan. 2023.

[7]  Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 86.

[8] COMISSÃO EUROPEIA. Proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (regulamento inteligência artificial) e altera determinados atos legislativos da União. Bruxelas, 21 abr. 2021. Disponível em: . Acesso em: 18 jan. 2023.

[9] Ibidem, p. 87.

[10] Ibidem.

[11] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 87.

[12] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[13] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

[14] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 223.

[15] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

*Fernanda Bragança, pesquisadora do Centro de Inovação, Administração e Pesquisa do Poder Judiciário da FGV Conhecimento. Doutora em Direito pela Universidade Federal Fluminense. Advogada.

*Renata Braga, professora da Universidade Federal Fluminense UFF/VR. Pesquisadora colaboradora externa do Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento. Doutora em Direito pela UFSC

Fernanda Bragança e Renata Braga. Foto: DIVULGAÇÃO

A inteligência artificial (IA) é uma tecnologia com propósito geral, o que significa que pode ser aplicada em segmentos distintos e tem um espectro de atuação que se expande em múltiplas atividades. Ao mesmo tempo, é uma tecnologia com caráter disruptivo, tendo em vista que a sua aplicação promove transformações robustas nos negócios e na sociedade. Ela depende de uma interferência humana cada vez menor, conta com uma capacidade crescente de processamento com as metodologias de deep learning[1] e faz tomada de decisão com alta assertividade. Outra característica marcante é a sua rápida evolução; o que dificulta a antecipação dos seus impactos jurídicos pelo legislador.

Diante de um cenário de crescente aplicação de IA e de forte domínio das big techs[2], os países têm se mobilizado para elaborar uma regulação dessa tecnologia.  Matthew Scherer[3], em artigo que trata sobre a regulação dos sistemas de IA, observa que os mecanismos tradicionais de regulação, tais como os que são empregados em licenciamento de produtos, supervisão de pesquisa e desenvolvimento e responsabilização civil, não são mais suficientes para lidar com os riscos associados ao uso da IA na atualidade.

Nesse sentido, há desde Estados com posicionamentos mais liberais, em que o mercado tem maior protagonismo sobre a regulação e a atuação estatal tem o objetivo de delimitar princípios éticos gerais; até Estados mais conservadores, com um maior controle sobre o mercado tecnológico, sendo os imperativos de segurança e soberania nacional os grandes balizadores do tratamento do tema. Este é o primeiro de uma série de artigos que tem o objetivo de aprofundar sobre o posicionamento normativo brasileiro nessa questão, a partir das discussões iniciadas com o Projeto de Lei (PL) Nº. 21, de 2020 e com o Relatório final da Comissão de Juristas[4] responsável por subsidiar a elaboração do substituto sobre IA no país. Neste texto, serão abordadas as possibilidades de estruturas regulatórias para a matéria. Os modelos de regulação que costumam ser mais referenciados são: regulação setorial, regulação baseada em riscos e autorregulação.

A regulação setorial é defendida por muitos autores, que veem a descentralização normativa como um fator importante para que cada setor tenha maior autonomia e dinamismo para tratar das especificidades que lhe afetam. Assim, as agências reguladoras exerceriam um papel fundamental de análise e fiscalização da IA nas suas áreas de atuação. Trata-se de um modelo que reafirma o papel gerencial do Estado e distribui para as agências a necessidade de acompanharem mais de perto os desdobramentos da utilização dessa tecnologia no setor regulado de sua competência. As agências evitariam a captura e o domínio pelos interesses privados, atentas à constante mitigação de potenciais riscos e danos na saúde e outras esferas públicas, sobretudo.

Em que pese essa proposta ter sido apontada como a solução mais adequada para atender às especificidades dos setores regulados por alguns especialistas da Comissão de Juristas, e encontrar respaldo nos EUA, alguns desafios são inerentes à sua implementação. Uma primeira questão que precisa ser definida é sobre a necessidade ou não de se criar uma autoridade reguladora específica para cuidar da IA no país. Os defensores da existência dessa entidade afirmam que é indispensável um órgão central que coordene os agentes reguladores em cada âmbito de atuação, com o intuito de conferir uma uniformidade de direcionamento na matéria, e evitar sobreposições ou conflitos normativos intersetoriais[5]. Contudo, essa discussão sobre a criação de um órgão regulador central ainda parece longe de um consenso.

Cabe ressaltar, ainda, que para além do plano nacional, Olivia Erdélyi e Judy Goldsmith[6] propõem a criação uma entidade reguladora internacional, de modo que possa estabelecer parâmetros para eventuais divergências de interpretação entre as agências nacionais e, também, poderia funcionar como um fórum transnacional para a discussão e definição de padrões comportamentais com foco nos desenvolvedores de IA.

O modelo de regulação baseado em riscos foi a posição dominante[7] na Comissão de Juristas, com forte inspiração na proposta de regulamentação europeia[8]. Essa proposta regulatória se baseia na criação de uma modelação de níveis escalonados e de salvaguardas proporcionais para a mitigação de riscos a depender da aplicação da IA. Nessa linha, seria necessária a criação de critérios para a definição dos vários níveis de risco dos sistemas de IA. Uma classificação comum na doutrina é a que divide esses riscos em: i) inaceitável, ii) elevado e iii) baixo ou mínimo. O texto do substitutivo do PL Nº 21, de 2020 optou por estabelecer as hipóteses de risco excessivo e alto risco. Na Comissão de Juristas, os especialistas[9] alertaram para uma dificuldade imediata: é necessário definir quem terá essa atribuição de classificação, uma vez que o PL não havia delimitado a questão. Outro ponto[10] abordado é o fato de que essa classificação não pode ser inflexível, de tal modo que possa ser fácil e rapidamente adaptada à evolução da própria tecnologia.

O relatório da Comissão de Juristas[11] enfatizou que esse tipo de regulação baseada em riscos não pode ficar restrito ao mero cumprimento de checklists, uma vez que a diretriz deve ser sempre a real e efetiva prevenção de riscos aos seres humanos. O foco não deve ser, portanto, criar mais uma regra de compliance a ser cumprida pelos desenvolvedores de sistemas de IA.

Além disso, alguns especialistas também chamaram atenção para o fato de que não é necessário optar por um único modelo de regulação. É possível, inclusive, a elaboração de uma proposta que combine tanto uma avaliação e prevenção de riscos quanto uma abordagem focada em direitos. Nesse sentido, a opinião de alguns especialistas[12] foi, justamente, que o PL Nº 21, de 2020 deveria explorar mais essa possibilidade de mesclar os modelos.

Um terceiro modelo é o da autorregulação, que significa a criação de um conjunto de regras para os atores da área por meio de códigos de conduta ou guias de boas práticas, por exemplo. O objetivo é estabelecer padrões técnicos, comportamentais e de conduta que tenham caráter vinculante, ainda que tenham sido concebidos, originalmente, no âmbito de uma empresa determinada.

Alguns juristas defenderam a opção de uma autorregulação regulada, em que o Estado estabelece um conjunto basilar de padrões éticos e de governança[13] a serem observados para assegurar o desenvolvimento de sistemas de IA confiáveis, ao mesmo tempo em que permite autonomia na autorregulação setorial, com a orientação dos requisitos fundamentais específicos[14] e fiscalização da sua execução. Uma outra possibilidade seria uma corregulação regulada, com a junção das contribuições do setor privado e da academia, sempre com abrangência multidisciplinar, e até com a possibilidade de realização de consulta pública sobre as proposições normativas.

Esse modelo apresentou, também, uma boa aceitação na Comissão de Juristas, uma vez que permite uma atualização e adequação normativa mais célere, em um tema permeado por rápidas mudanças e em que há grande dificuldade de se estabelecer, de antemão, um conjunto de regras taxativas[15]. Cabe destacar, ainda, que, nesse modelo, o Estado teria um papel subsidiário em relação à autorregulação efetivada pelo setor privado.

O Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento estuda a temática e enviou contribuições escritas à Comissão de Juristas. Antes disso, o Centro do Judiciário havia publicado duas Notas Técnicas sobre o Marco Legal da IA no Brasil, sendo a primeira relativa ao PL que tramitou na Câmara dos Deputados[16]; e o segunda sobre o Substitutivo ao PL Nº 21, de 2020 que tramitou no Senado Federal[17].

Esses dois documentos foram elaborados por uma rede interinstitucional de pesquisadores, sob a coordenação do Ministro Luis Felipe Salomão e da juíza federal Caroline Tauk. A edição mais recente analisa, justamente, a proposta discutida no âmbito do Senado, e propôs alguns pontos de reflexão no projeto de regulamentação brasileiro.

Para além da definição de um modelo regulatório, alguns desafios constaram nas considerações da rede interinstitucional de pesquisadores do Centro do Judiciário e que serão objeto de outros artigos. Apenas para ilustrar, um dos destaques foi sobre o perfil da proposta, que possui um caráter mais generalista - mas vinculante - com a estipulação de princípios, direitos, deveres e instrumentos de governança para o uso da IA no Brasil, além de fixar diretrizes para a atuação do Poder Público, de pessoas físicas e jurídicas, de direito público ou privado, e entes sem personalidade (art. 1º).

De fato, a definição do modelo regulatório é permeada de complexidades jurídicas, mas sobretudo, traduz a opção política e estratégica do país no desenvolvimento e operação dos sistemas do IA em seu território. É preciso considerar, também, que essa normativa terá um impacto relevante para determinar a atração de investimentos e a evolução e dinamismo tecnológico nessa seara. O PL Nº 21, em alguma medida, interage de forma bem próxima aos modelos de regulação setorial e de regulação baseada em risco, mas ainda são necessárias algumas definições para uma melhor delimitação da regulamentação a ser seguida pelo Brasil.

[1] FAN, Jianqing; MA, Cong; ZHONG, Yiqiao. A selective overview of deep learning. HHC Public Access, Author manuscript, 23 jul. 2021. Disponível em: . Acesso em: 17 jan. 2023.

[2] Cf. Com lucro recorde em 2020, quarteto de big techs vale um terço do PIB dos EUA. CNN, 5 fev. 2021. Disponível em: . Acesso em 17 jan. 2023.

em: 18 jan. 2022).

[4] Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Brasília, 2022. Disponível em: . Acesso em: 18 jan. 2023.

[5] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[6] ERDÉLYI, Olivia; GOLDSMITH, Judy. "Regulating artificial intelligence: Proposal for a global solution". Government Information Quarterly, Vol. 39, Nº 4, pp. 1-13, out. 2022. Disponível em: . Acesso em: 18 jan. 2023.

[7]  Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 86.

[8] COMISSÃO EUROPEIA. Proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (regulamento inteligência artificial) e altera determinados atos legislativos da União. Bruxelas, 21 abr. 2021. Disponível em: . Acesso em: 18 jan. 2023.

[9] Ibidem, p. 87.

[10] Ibidem.

[11] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 87.

[12] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[13] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

[14] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 223.

[15] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

*Fernanda Bragança, pesquisadora do Centro de Inovação, Administração e Pesquisa do Poder Judiciário da FGV Conhecimento. Doutora em Direito pela Universidade Federal Fluminense. Advogada.

*Renata Braga, professora da Universidade Federal Fluminense UFF/VR. Pesquisadora colaboradora externa do Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento. Doutora em Direito pela UFSC

Fernanda Bragança e Renata Braga. Foto: DIVULGAÇÃO

A inteligência artificial (IA) é uma tecnologia com propósito geral, o que significa que pode ser aplicada em segmentos distintos e tem um espectro de atuação que se expande em múltiplas atividades. Ao mesmo tempo, é uma tecnologia com caráter disruptivo, tendo em vista que a sua aplicação promove transformações robustas nos negócios e na sociedade. Ela depende de uma interferência humana cada vez menor, conta com uma capacidade crescente de processamento com as metodologias de deep learning[1] e faz tomada de decisão com alta assertividade. Outra característica marcante é a sua rápida evolução; o que dificulta a antecipação dos seus impactos jurídicos pelo legislador.

Diante de um cenário de crescente aplicação de IA e de forte domínio das big techs[2], os países têm se mobilizado para elaborar uma regulação dessa tecnologia.  Matthew Scherer[3], em artigo que trata sobre a regulação dos sistemas de IA, observa que os mecanismos tradicionais de regulação, tais como os que são empregados em licenciamento de produtos, supervisão de pesquisa e desenvolvimento e responsabilização civil, não são mais suficientes para lidar com os riscos associados ao uso da IA na atualidade.

Nesse sentido, há desde Estados com posicionamentos mais liberais, em que o mercado tem maior protagonismo sobre a regulação e a atuação estatal tem o objetivo de delimitar princípios éticos gerais; até Estados mais conservadores, com um maior controle sobre o mercado tecnológico, sendo os imperativos de segurança e soberania nacional os grandes balizadores do tratamento do tema. Este é o primeiro de uma série de artigos que tem o objetivo de aprofundar sobre o posicionamento normativo brasileiro nessa questão, a partir das discussões iniciadas com o Projeto de Lei (PL) Nº. 21, de 2020 e com o Relatório final da Comissão de Juristas[4] responsável por subsidiar a elaboração do substituto sobre IA no país. Neste texto, serão abordadas as possibilidades de estruturas regulatórias para a matéria. Os modelos de regulação que costumam ser mais referenciados são: regulação setorial, regulação baseada em riscos e autorregulação.

A regulação setorial é defendida por muitos autores, que veem a descentralização normativa como um fator importante para que cada setor tenha maior autonomia e dinamismo para tratar das especificidades que lhe afetam. Assim, as agências reguladoras exerceriam um papel fundamental de análise e fiscalização da IA nas suas áreas de atuação. Trata-se de um modelo que reafirma o papel gerencial do Estado e distribui para as agências a necessidade de acompanharem mais de perto os desdobramentos da utilização dessa tecnologia no setor regulado de sua competência. As agências evitariam a captura e o domínio pelos interesses privados, atentas à constante mitigação de potenciais riscos e danos na saúde e outras esferas públicas, sobretudo.

Em que pese essa proposta ter sido apontada como a solução mais adequada para atender às especificidades dos setores regulados por alguns especialistas da Comissão de Juristas, e encontrar respaldo nos EUA, alguns desafios são inerentes à sua implementação. Uma primeira questão que precisa ser definida é sobre a necessidade ou não de se criar uma autoridade reguladora específica para cuidar da IA no país. Os defensores da existência dessa entidade afirmam que é indispensável um órgão central que coordene os agentes reguladores em cada âmbito de atuação, com o intuito de conferir uma uniformidade de direcionamento na matéria, e evitar sobreposições ou conflitos normativos intersetoriais[5]. Contudo, essa discussão sobre a criação de um órgão regulador central ainda parece longe de um consenso.

Cabe ressaltar, ainda, que para além do plano nacional, Olivia Erdélyi e Judy Goldsmith[6] propõem a criação uma entidade reguladora internacional, de modo que possa estabelecer parâmetros para eventuais divergências de interpretação entre as agências nacionais e, também, poderia funcionar como um fórum transnacional para a discussão e definição de padrões comportamentais com foco nos desenvolvedores de IA.

O modelo de regulação baseado em riscos foi a posição dominante[7] na Comissão de Juristas, com forte inspiração na proposta de regulamentação europeia[8]. Essa proposta regulatória se baseia na criação de uma modelação de níveis escalonados e de salvaguardas proporcionais para a mitigação de riscos a depender da aplicação da IA. Nessa linha, seria necessária a criação de critérios para a definição dos vários níveis de risco dos sistemas de IA. Uma classificação comum na doutrina é a que divide esses riscos em: i) inaceitável, ii) elevado e iii) baixo ou mínimo. O texto do substitutivo do PL Nº 21, de 2020 optou por estabelecer as hipóteses de risco excessivo e alto risco. Na Comissão de Juristas, os especialistas[9] alertaram para uma dificuldade imediata: é necessário definir quem terá essa atribuição de classificação, uma vez que o PL não havia delimitado a questão. Outro ponto[10] abordado é o fato de que essa classificação não pode ser inflexível, de tal modo que possa ser fácil e rapidamente adaptada à evolução da própria tecnologia.

O relatório da Comissão de Juristas[11] enfatizou que esse tipo de regulação baseada em riscos não pode ficar restrito ao mero cumprimento de checklists, uma vez que a diretriz deve ser sempre a real e efetiva prevenção de riscos aos seres humanos. O foco não deve ser, portanto, criar mais uma regra de compliance a ser cumprida pelos desenvolvedores de sistemas de IA.

Além disso, alguns especialistas também chamaram atenção para o fato de que não é necessário optar por um único modelo de regulação. É possível, inclusive, a elaboração de uma proposta que combine tanto uma avaliação e prevenção de riscos quanto uma abordagem focada em direitos. Nesse sentido, a opinião de alguns especialistas[12] foi, justamente, que o PL Nº 21, de 2020 deveria explorar mais essa possibilidade de mesclar os modelos.

Um terceiro modelo é o da autorregulação, que significa a criação de um conjunto de regras para os atores da área por meio de códigos de conduta ou guias de boas práticas, por exemplo. O objetivo é estabelecer padrões técnicos, comportamentais e de conduta que tenham caráter vinculante, ainda que tenham sido concebidos, originalmente, no âmbito de uma empresa determinada.

Alguns juristas defenderam a opção de uma autorregulação regulada, em que o Estado estabelece um conjunto basilar de padrões éticos e de governança[13] a serem observados para assegurar o desenvolvimento de sistemas de IA confiáveis, ao mesmo tempo em que permite autonomia na autorregulação setorial, com a orientação dos requisitos fundamentais específicos[14] e fiscalização da sua execução. Uma outra possibilidade seria uma corregulação regulada, com a junção das contribuições do setor privado e da academia, sempre com abrangência multidisciplinar, e até com a possibilidade de realização de consulta pública sobre as proposições normativas.

Esse modelo apresentou, também, uma boa aceitação na Comissão de Juristas, uma vez que permite uma atualização e adequação normativa mais célere, em um tema permeado por rápidas mudanças e em que há grande dificuldade de se estabelecer, de antemão, um conjunto de regras taxativas[15]. Cabe destacar, ainda, que, nesse modelo, o Estado teria um papel subsidiário em relação à autorregulação efetivada pelo setor privado.

O Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento estuda a temática e enviou contribuições escritas à Comissão de Juristas. Antes disso, o Centro do Judiciário havia publicado duas Notas Técnicas sobre o Marco Legal da IA no Brasil, sendo a primeira relativa ao PL que tramitou na Câmara dos Deputados[16]; e o segunda sobre o Substitutivo ao PL Nº 21, de 2020 que tramitou no Senado Federal[17].

Esses dois documentos foram elaborados por uma rede interinstitucional de pesquisadores, sob a coordenação do Ministro Luis Felipe Salomão e da juíza federal Caroline Tauk. A edição mais recente analisa, justamente, a proposta discutida no âmbito do Senado, e propôs alguns pontos de reflexão no projeto de regulamentação brasileiro.

Para além da definição de um modelo regulatório, alguns desafios constaram nas considerações da rede interinstitucional de pesquisadores do Centro do Judiciário e que serão objeto de outros artigos. Apenas para ilustrar, um dos destaques foi sobre o perfil da proposta, que possui um caráter mais generalista - mas vinculante - com a estipulação de princípios, direitos, deveres e instrumentos de governança para o uso da IA no Brasil, além de fixar diretrizes para a atuação do Poder Público, de pessoas físicas e jurídicas, de direito público ou privado, e entes sem personalidade (art. 1º).

De fato, a definição do modelo regulatório é permeada de complexidades jurídicas, mas sobretudo, traduz a opção política e estratégica do país no desenvolvimento e operação dos sistemas do IA em seu território. É preciso considerar, também, que essa normativa terá um impacto relevante para determinar a atração de investimentos e a evolução e dinamismo tecnológico nessa seara. O PL Nº 21, em alguma medida, interage de forma bem próxima aos modelos de regulação setorial e de regulação baseada em risco, mas ainda são necessárias algumas definições para uma melhor delimitação da regulamentação a ser seguida pelo Brasil.

[1] FAN, Jianqing; MA, Cong; ZHONG, Yiqiao. A selective overview of deep learning. HHC Public Access, Author manuscript, 23 jul. 2021. Disponível em: . Acesso em: 17 jan. 2023.

[2] Cf. Com lucro recorde em 2020, quarteto de big techs vale um terço do PIB dos EUA. CNN, 5 fev. 2021. Disponível em: . Acesso em 17 jan. 2023.

em: 18 jan. 2022).

[4] Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Brasília, 2022. Disponível em: . Acesso em: 18 jan. 2023.

[5] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[6] ERDÉLYI, Olivia; GOLDSMITH, Judy. "Regulating artificial intelligence: Proposal for a global solution". Government Information Quarterly, Vol. 39, Nº 4, pp. 1-13, out. 2022. Disponível em: . Acesso em: 18 jan. 2023.

[7]  Cf. Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 86.

[8] COMISSÃO EUROPEIA. Proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (regulamento inteligência artificial) e altera determinados atos legislativos da União. Bruxelas, 21 abr. 2021. Disponível em: . Acesso em: 18 jan. 2023.

[9] Ibidem, p. 87.

[10] Ibidem.

[11] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 87.

[12] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 85.

[13] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

[14] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 223.

[15] Relatório Final: Comissão de Juristas Responsável por subsidiar elaboração de Substitutivo sobre Inteligência Artificial no Brasil. Ob. Cit., p. 224.

*Fernanda Bragança, pesquisadora do Centro de Inovação, Administração e Pesquisa do Poder Judiciário da FGV Conhecimento. Doutora em Direito pela Universidade Federal Fluminense. Advogada.

*Renata Braga, professora da Universidade Federal Fluminense UFF/VR. Pesquisadora colaboradora externa do Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento. Doutora em Direito pela UFSC

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.