Mundo injusto, algoritmos justos


Mais cedo do que tarde, haverá uma demanda para proteger as pessoas dos algoritmos e nós deveríamos estar discutindo como fazer isso desde já

Por Silvio Meira

Se um sistema afeta a vida das pessoas, exige-se que seu comportamento seja justo. Pelo menos no que costumamos chamar de civilização. Ser justo é tratar todos da mesma forma em cada contexto, sem favorecer ou discriminar. Dito assim, fica fácil ver que o mundo é injusto e que a busca por mais justiça será eterna. Em tal mundo, injusto, estamos escrevendo algoritmos para tomar decisões sobre a vida das pessoas. E é certo que devemos fazer o melhor que podemos para que eles sejam justos. Pelo menos tanto quanto possível.

Há muita pesquisa sobre como garantir que um algoritmo é justo. Mas parece ser impossível mostrar que um algoritmo, incluindo os de inteligência artificial (IA), é justo sem informação de fora do sistema. Em outras palavras, não é possível escrever um algoritmo que decide se um outro é justo ou não. Quase certamente, ao invés de deixar certas classes de decisões que afetam a vida das pessoas a critério de um algoritmo, talvez seja mais prudente – e muito mais justo – ter a análise e recomendação feitas por um algoritmo apenas como parte do processo de tomada de decisão e longe da intervenção que, lá no mundo real, tentará resolver um problema.

continua após a publicidade
Algoritmos tomam decisões que, cada vez mais, afetam vidas Foto: Kacper Pempel/Reuters

Parafraseando Stuart Russell, algoritmos são benéficos na medida em que se espera que suas ações alcancem nossos objetivos. O problema, aí, é o significado de “nossos”. Numa rara oportunidade para entender os meandros de sistemas que tratam pessoas, o estudo de um algoritmo de retenção de segurados nos EUA mostrou que sua essência era cobrar menos dos clientes com mais chance de mudar de seguradora e cobrar mais dos clientes mais fiéis. Em que serviços isso acontece no Brasil? Será que nossos reguladores do setor de seguros e finanças, além de telecom e outros, não deveriam avaliar os algoritmos de seus regulados para saber se os clientes estão sendo tratados de forma justa?

Algoritmos tomam decisões que, cada vez mais, afetam vidas. “Eles”, ou seus responsáveis, terão que se explicar quando a justiça de suas ações for posta em causa. No caso das caixas pretas de IA, as explicações deverão ser formais e isso não vai ser fácil, até porque será preciso confiar em quem cria as explicações. E isso, por sua vez, pode criar mais problemas do que resolve. Uma das soluções para tratar as caixas pretas é código aberto. Deveria ser óbvio, já que quase todos os sistemas relevantes do presente e do futuro estão na nuvem, interdependentes de muitos outros sistemas. Abrir o código para análise por terceiros não afeta a essência do modelo de negócios e cria a transparência mínima para que se confie que “suas ações alcançam nossos objetivos”.

continua após a publicidade

Mais cedo do que tarde, haverá uma demanda para proteger as pessoas dos algoritmos e nós deveríamos estar discutindo como fazer isso desde já. Para evitar, que no futuro, se tome decisões legislativas sem as necessárias reflexões para fazer algo de longo prazo, exequível e, principalmente, justo. Para as pessoas e os algoritmos, também.É PROFESSOR EXTRAORDINÁRIO DA CESAR.SCHOOL, FUNDADOR E PRESIDENTE DO CONSELHO DO PORTO DIGITAL E CHIEF SCIENTIST NA DIGITALSTRATEGY.COMPANY

Se um sistema afeta a vida das pessoas, exige-se que seu comportamento seja justo. Pelo menos no que costumamos chamar de civilização. Ser justo é tratar todos da mesma forma em cada contexto, sem favorecer ou discriminar. Dito assim, fica fácil ver que o mundo é injusto e que a busca por mais justiça será eterna. Em tal mundo, injusto, estamos escrevendo algoritmos para tomar decisões sobre a vida das pessoas. E é certo que devemos fazer o melhor que podemos para que eles sejam justos. Pelo menos tanto quanto possível.

Há muita pesquisa sobre como garantir que um algoritmo é justo. Mas parece ser impossível mostrar que um algoritmo, incluindo os de inteligência artificial (IA), é justo sem informação de fora do sistema. Em outras palavras, não é possível escrever um algoritmo que decide se um outro é justo ou não. Quase certamente, ao invés de deixar certas classes de decisões que afetam a vida das pessoas a critério de um algoritmo, talvez seja mais prudente – e muito mais justo – ter a análise e recomendação feitas por um algoritmo apenas como parte do processo de tomada de decisão e longe da intervenção que, lá no mundo real, tentará resolver um problema.

Algoritmos tomam decisões que, cada vez mais, afetam vidas Foto: Kacper Pempel/Reuters

Parafraseando Stuart Russell, algoritmos são benéficos na medida em que se espera que suas ações alcancem nossos objetivos. O problema, aí, é o significado de “nossos”. Numa rara oportunidade para entender os meandros de sistemas que tratam pessoas, o estudo de um algoritmo de retenção de segurados nos EUA mostrou que sua essência era cobrar menos dos clientes com mais chance de mudar de seguradora e cobrar mais dos clientes mais fiéis. Em que serviços isso acontece no Brasil? Será que nossos reguladores do setor de seguros e finanças, além de telecom e outros, não deveriam avaliar os algoritmos de seus regulados para saber se os clientes estão sendo tratados de forma justa?

Algoritmos tomam decisões que, cada vez mais, afetam vidas. “Eles”, ou seus responsáveis, terão que se explicar quando a justiça de suas ações for posta em causa. No caso das caixas pretas de IA, as explicações deverão ser formais e isso não vai ser fácil, até porque será preciso confiar em quem cria as explicações. E isso, por sua vez, pode criar mais problemas do que resolve. Uma das soluções para tratar as caixas pretas é código aberto. Deveria ser óbvio, já que quase todos os sistemas relevantes do presente e do futuro estão na nuvem, interdependentes de muitos outros sistemas. Abrir o código para análise por terceiros não afeta a essência do modelo de negócios e cria a transparência mínima para que se confie que “suas ações alcançam nossos objetivos”.

Mais cedo do que tarde, haverá uma demanda para proteger as pessoas dos algoritmos e nós deveríamos estar discutindo como fazer isso desde já. Para evitar, que no futuro, se tome decisões legislativas sem as necessárias reflexões para fazer algo de longo prazo, exequível e, principalmente, justo. Para as pessoas e os algoritmos, também.É PROFESSOR EXTRAORDINÁRIO DA CESAR.SCHOOL, FUNDADOR E PRESIDENTE DO CONSELHO DO PORTO DIGITAL E CHIEF SCIENTIST NA DIGITALSTRATEGY.COMPANY

Se um sistema afeta a vida das pessoas, exige-se que seu comportamento seja justo. Pelo menos no que costumamos chamar de civilização. Ser justo é tratar todos da mesma forma em cada contexto, sem favorecer ou discriminar. Dito assim, fica fácil ver que o mundo é injusto e que a busca por mais justiça será eterna. Em tal mundo, injusto, estamos escrevendo algoritmos para tomar decisões sobre a vida das pessoas. E é certo que devemos fazer o melhor que podemos para que eles sejam justos. Pelo menos tanto quanto possível.

Há muita pesquisa sobre como garantir que um algoritmo é justo. Mas parece ser impossível mostrar que um algoritmo, incluindo os de inteligência artificial (IA), é justo sem informação de fora do sistema. Em outras palavras, não é possível escrever um algoritmo que decide se um outro é justo ou não. Quase certamente, ao invés de deixar certas classes de decisões que afetam a vida das pessoas a critério de um algoritmo, talvez seja mais prudente – e muito mais justo – ter a análise e recomendação feitas por um algoritmo apenas como parte do processo de tomada de decisão e longe da intervenção que, lá no mundo real, tentará resolver um problema.

Algoritmos tomam decisões que, cada vez mais, afetam vidas Foto: Kacper Pempel/Reuters

Parafraseando Stuart Russell, algoritmos são benéficos na medida em que se espera que suas ações alcancem nossos objetivos. O problema, aí, é o significado de “nossos”. Numa rara oportunidade para entender os meandros de sistemas que tratam pessoas, o estudo de um algoritmo de retenção de segurados nos EUA mostrou que sua essência era cobrar menos dos clientes com mais chance de mudar de seguradora e cobrar mais dos clientes mais fiéis. Em que serviços isso acontece no Brasil? Será que nossos reguladores do setor de seguros e finanças, além de telecom e outros, não deveriam avaliar os algoritmos de seus regulados para saber se os clientes estão sendo tratados de forma justa?

Algoritmos tomam decisões que, cada vez mais, afetam vidas. “Eles”, ou seus responsáveis, terão que se explicar quando a justiça de suas ações for posta em causa. No caso das caixas pretas de IA, as explicações deverão ser formais e isso não vai ser fácil, até porque será preciso confiar em quem cria as explicações. E isso, por sua vez, pode criar mais problemas do que resolve. Uma das soluções para tratar as caixas pretas é código aberto. Deveria ser óbvio, já que quase todos os sistemas relevantes do presente e do futuro estão na nuvem, interdependentes de muitos outros sistemas. Abrir o código para análise por terceiros não afeta a essência do modelo de negócios e cria a transparência mínima para que se confie que “suas ações alcançam nossos objetivos”.

Mais cedo do que tarde, haverá uma demanda para proteger as pessoas dos algoritmos e nós deveríamos estar discutindo como fazer isso desde já. Para evitar, que no futuro, se tome decisões legislativas sem as necessárias reflexões para fazer algo de longo prazo, exequível e, principalmente, justo. Para as pessoas e os algoritmos, também.É PROFESSOR EXTRAORDINÁRIO DA CESAR.SCHOOL, FUNDADOR E PRESIDENTE DO CONSELHO DO PORTO DIGITAL E CHIEF SCIENTIST NA DIGITALSTRATEGY.COMPANY

Se um sistema afeta a vida das pessoas, exige-se que seu comportamento seja justo. Pelo menos no que costumamos chamar de civilização. Ser justo é tratar todos da mesma forma em cada contexto, sem favorecer ou discriminar. Dito assim, fica fácil ver que o mundo é injusto e que a busca por mais justiça será eterna. Em tal mundo, injusto, estamos escrevendo algoritmos para tomar decisões sobre a vida das pessoas. E é certo que devemos fazer o melhor que podemos para que eles sejam justos. Pelo menos tanto quanto possível.

Há muita pesquisa sobre como garantir que um algoritmo é justo. Mas parece ser impossível mostrar que um algoritmo, incluindo os de inteligência artificial (IA), é justo sem informação de fora do sistema. Em outras palavras, não é possível escrever um algoritmo que decide se um outro é justo ou não. Quase certamente, ao invés de deixar certas classes de decisões que afetam a vida das pessoas a critério de um algoritmo, talvez seja mais prudente – e muito mais justo – ter a análise e recomendação feitas por um algoritmo apenas como parte do processo de tomada de decisão e longe da intervenção que, lá no mundo real, tentará resolver um problema.

Algoritmos tomam decisões que, cada vez mais, afetam vidas Foto: Kacper Pempel/Reuters

Parafraseando Stuart Russell, algoritmos são benéficos na medida em que se espera que suas ações alcancem nossos objetivos. O problema, aí, é o significado de “nossos”. Numa rara oportunidade para entender os meandros de sistemas que tratam pessoas, o estudo de um algoritmo de retenção de segurados nos EUA mostrou que sua essência era cobrar menos dos clientes com mais chance de mudar de seguradora e cobrar mais dos clientes mais fiéis. Em que serviços isso acontece no Brasil? Será que nossos reguladores do setor de seguros e finanças, além de telecom e outros, não deveriam avaliar os algoritmos de seus regulados para saber se os clientes estão sendo tratados de forma justa?

Algoritmos tomam decisões que, cada vez mais, afetam vidas. “Eles”, ou seus responsáveis, terão que se explicar quando a justiça de suas ações for posta em causa. No caso das caixas pretas de IA, as explicações deverão ser formais e isso não vai ser fácil, até porque será preciso confiar em quem cria as explicações. E isso, por sua vez, pode criar mais problemas do que resolve. Uma das soluções para tratar as caixas pretas é código aberto. Deveria ser óbvio, já que quase todos os sistemas relevantes do presente e do futuro estão na nuvem, interdependentes de muitos outros sistemas. Abrir o código para análise por terceiros não afeta a essência do modelo de negócios e cria a transparência mínima para que se confie que “suas ações alcançam nossos objetivos”.

Mais cedo do que tarde, haverá uma demanda para proteger as pessoas dos algoritmos e nós deveríamos estar discutindo como fazer isso desde já. Para evitar, que no futuro, se tome decisões legislativas sem as necessárias reflexões para fazer algo de longo prazo, exequível e, principalmente, justo. Para as pessoas e os algoritmos, também.É PROFESSOR EXTRAORDINÁRIO DA CESAR.SCHOOL, FUNDADOR E PRESIDENTE DO CONSELHO DO PORTO DIGITAL E CHIEF SCIENTIST NA DIGITALSTRATEGY.COMPANY

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.