Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Plataformas digitais e a mediação algorítmica de oportunidades de trabalho


Por Rafael Mosele  e Cláudio Lucena
Rafael Mosele  e Cláudio Lucena. FOTO: DIVULGAÇÃO Foto: Estadão

O trabalho humano na economia digital, e particularmente com a pandemia tem sido profundamente redesenhado em função de plataformas globais orientadas a dados e automação, aumento de eficiência e economia de recursos.

continua após a publicidade

É nesse novo contexto que, no último dia 31 de dezembro, a seção trabalhista do Tribunal de Bolonha, na Itália, declarou que um dos algoritmos utilizados pela Deliveroo estava causando efeitos discriminatórios.

Este algoritmo era utilizado para alocar e atribuir as chamadas de serviços de entrega e direcionava as melhores oportunidades aos entregadores que tivessem os melhores índices de reputação.

O índice de reputação, por sua vez, era obtido de acordo com uma classificação, determinada por um índice de confiabilidade (número de vezes que o entregador não participou de um horário de entrega em que havia previamente indicado que estaria disponível) e o índice de pico de participação (número de vezes que o entregador ficou disponível nos horários mais relevantes ou de pico).

continua após a publicidade

Esses índices caíam quando os entregadores cancelavam essas reservas de horários que eles haviam previamente indicado como disponíveis ou quando não aceitavam pedidos de entrega nos horários de pico.

Pior, o ranking não levava em consideração os motivos que teriam causado a ausência do entregador.

Aliás, levava, em alguns casos. A Deliveroo não justificava a ausência dos entregadores, por exemplo, por motivo de saúde, licença maternidade/paternidade ou por exercício do direito de greve. Mas mantinha fora do cálculo do índice reputacional as situações de acidentes com os entregadores ou problemas técnicos com a plataforma, deixando claro que a implementação em código de situações excludentes era uma opção empresarial, e que as situações desfavoráveis à companhia eram reconhecidas e preservadas.

continua após a publicidade

Para o Tribunal, a ausência de critérios claros e equitativos para o cálculo do índice reputacional feriu direitos fundamentais dos trabalhadores, pois sempre que optassem por exercer, por exemplo, direitos reconhecidos na legislação nacional como o de greve, licença paternidade/maternidade ou licença médica, sofreriam um impacto negativo nas suas estatísticas, independentemente de qualquer justificativa.

E assim a corte concluiu que o sistema de perfilamento da Deliveroo (com base na confiabilidade e no pico de participação) tratava de forma desigual os trabalhadores que não participavam da sessão agendada por motivos triviais daqueles que estão impedidos de participar por motivos legalmente justificáveis, discriminando estes últimos.

A empresa chegou a afirmar que o algoritmo não está mais em uso desde o dia 2 de novembro de 2020, mas não apresentou evidência concreta do funcionamento do modelo, o que era responsabilidade processual sua. A discriminação baseada na definição de perfis para formação de ranking de reputação foi declarada pelo Tribunal, que ainda condenou a Deliveroo a divulgar a decisão e a pagar uma indenização pelo dano não-patrimonial causado no valor de EUR50,000.00 (cinquenta mil euros).

continua após a publicidade

A formação de perfil, ou profiling, técnica que acompanha a intensificação do uso de dados pessoais e que pode ser não só justificável como útil em diversas aplicações, pode também resultar em previsões imprecisas e causar a partir daí efeitos negativos, como uma negação de serviços e bens ou uma discriminação injustificada.

Nesse sentido, em diretriz elaborada pelo Article 29 Working Party, grupo de trabalho composto por autoridades de dados europeias, "a definição de perfis e as decisões automatizadas são suscetíveis de gerar riscos significativos para os direitos e as liberdades das pessoas, que exigem garantias adequadas". (2)

O RGPD - Regulamento Geral de Proteção de Dados -, no seu artigo 4º, ponto 4, define perfis como:

continua após a publicidade

"(...) qualquer forma de tratamento automatizado de dados pessoais que consista em utilizar esses dados pessoais para avaliar certos aspetos pessoais de uma pessoa singular, nomeadamente para analisar ou prever aspetos relacionados com o seu desempenho profissional, a sua situação económica, saúde, preferências pessoais, interesses, fiabilidade, comportamento, localização ou deslocações;"

A LGPD - Lei Geral de Proteção de Dados - é menos detalhada neste aspecto. Não define, embora mencione e trate a formação de perfis. Mas se a LGPD não possui menção expressa quanto a esta definição, as relações de trabalho no Brasil estariam sujeitas a questionamentos semelhantes? A resposta é positiva, na medida em que o art. 20 da LGPD garante de forma expressa que o titular de dados possa solicitar a revisão das decisões tomadas unicamente com base no tratamento automatizado de seus dados e que afetem os seus interesses, fazendo referência a hipóteses de impacto na definição de perfil pessoal, profissional, de consumo e de crédito, e ainda a aspectos da personalidade do titular.

Além disso, o §1º do artigo 20 disciplina que cabe ao controlador fornecer informações claras e adequadas a respeito dos critérios e dos procedimentos, da engrenagem que é utilizada para a decisão automatizada, resguardados os segredos comercial e industrial.

continua após a publicidade

A questão que permanece, contudo, é que os algoritmos que são usados cada vez mais intensamente na onda global atual de automação são mais orgânicos e auto-adaptáveis. E um dos grandes problemas da governança sobre o impacto deste tipo de código é a sua opacidade, a ausência de transparência e clareza sobre como o resultado é obtido através do processamento. A isto some-se a dificuldade de compreensão por parte das pessoas atingidas pela decisão. (3)

No caso de Bolonha, a ausência de transparência do algoritmo, aliada ao fato de que não adotava parâmetros que proporcionassem igualdade de oportunidades enquanto considerava outros, a critério da empresa, levou o modelo a aplicar padrões discriminatórios.

À luz da LGPD, recomenda-se cautela na adoção de sistemas de decisões automatizadas, já que o controlador, caso reconhecida uma violação decorrente do modelo de automação que implementou, não só poderá sofrer sanções diretas expressivas, como poderá ver sua reputação comprometida, ao ser obrigado a publicizar a violação aos princípios da Lei Geral de Proteção de Dados.

Além de boas práticas universais de cuidado e de avaliação prévia, é preciso observar mais especificamente os princípios de Privacy by Design e Privacy by Default, e considerar a cautela adicional (ou a obrigação?) de elaboração do relatório de impacto à proteção de dados. São medidas importantes de gestão e redução de risco, em um momento em que praticamente todas as atividades começam a aproveitar os benefícios de uma automação que é intensa e promissora, mas que carrega consigo o aumento do potencial de que estas decisões automatizadas violem direitos de titulares de dados.

Por fim, outra importante observação é que ao contrário do modelo regulatório europeu, a LGPD não prevê a possibilidade de revisão humana da decisão automatizada, o que poderá significar um desafio adicional no uso de modelos éticos e transparentes de inteligência artificial, principalmente em um cenário de expansão de criação e uso de perfis profissionais e de ampliação de espaço para a discriminação.

Na sequência desta nova onda de contencioso judicial questionando algoritmos, uso intensivo de dados pessoais, perfilamento e inteligência artificial em ambientes de trabalho, em 11 de fevereiro de 2021, o Tribunal Distrital de Amsterdam (4) julgará uma demanda movida por motoristas em face do Uber. Volta à cena o cerne da mesma temática: a ausência de transparência e de informações adicionais acerca de um algoritmo da plataforma, neste caso, o que excluiu os motoristas das viagens para passageiros que anteriormente lhes deram a classificação mais baixa possível.

É, definitivamente, uma tendência para acompanhar, com perspectivas de impacto e desdobramentos globais, inclusive na estruturação do modelo brasileiro.

*Rafael Mosele, Master of law (LLM) pela Fundação Getúlio Vargas. Especialista em Direito do Trabalho pelo Centro Universitário Curitiba. Graduado em Direito pela Universidade de Passo Fundo. Sócio do escritório Célio Neto Advogados. Membro do Comitê de Relações do Trabalho do Instituto Mundo do Trabalho. Conselheiro Fiscal e diretor das Relações do Trabalho do Instituto Nacional de Proteção de Dados - INPD

*Cláudio Lucena, professor e ex-diretor da Faculdade de Direito, coordenador de Relações Internacionais e Conselheiro da INOVATEC, Universidade Estadual da Paraíba. Pesquisador da Fundação para a Ciência e a Tecnologia do Governo Português, afiliado ao Research Center for the Future of Law da Universidade Católica Portuguesa. Associated Scholar no Projeto CyberBRICS da Faculdade de Direito da Fundação Getúlio Vargas, Rio de Janeiro. Advogado. Sócio, CRRF Advogados. Diretor Técnico e de Relações Internacionais do Instituto Nacional de Proteção de Dados - INPD

(1) - A Deliveroo é empresa que opera um aplicativo de entrega de comida online fundada em 2013 em Londres, Inglaterra, que opera em mais de duzentos locais no Reino Unido, Holanda, França, Bélgica, Irlanda, Espanha, Itália, Austrália, Nova Zelândia, Cingapura, Hong Kong, Emirados Árabes Unidos e Kuwait.

(2) - Disponível em https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053. Acessado em 06/01/2021.

(3) - Disponível em http://eduardomagrani.com/wp-content/uploads/2019/07/Entre-dados-e-robo%CC%82s-Pallotti-1306201

(4)  Disponível em https://uk.reuters.com/article/netherlands-uber-lawsuit-idUKKBN28Q1N5. Acessado em 06/01/2021

Rafael Mosele  e Cláudio Lucena. FOTO: DIVULGAÇÃO Foto: Estadão

O trabalho humano na economia digital, e particularmente com a pandemia tem sido profundamente redesenhado em função de plataformas globais orientadas a dados e automação, aumento de eficiência e economia de recursos.

É nesse novo contexto que, no último dia 31 de dezembro, a seção trabalhista do Tribunal de Bolonha, na Itália, declarou que um dos algoritmos utilizados pela Deliveroo estava causando efeitos discriminatórios.

Este algoritmo era utilizado para alocar e atribuir as chamadas de serviços de entrega e direcionava as melhores oportunidades aos entregadores que tivessem os melhores índices de reputação.

O índice de reputação, por sua vez, era obtido de acordo com uma classificação, determinada por um índice de confiabilidade (número de vezes que o entregador não participou de um horário de entrega em que havia previamente indicado que estaria disponível) e o índice de pico de participação (número de vezes que o entregador ficou disponível nos horários mais relevantes ou de pico).

Esses índices caíam quando os entregadores cancelavam essas reservas de horários que eles haviam previamente indicado como disponíveis ou quando não aceitavam pedidos de entrega nos horários de pico.

Pior, o ranking não levava em consideração os motivos que teriam causado a ausência do entregador.

Aliás, levava, em alguns casos. A Deliveroo não justificava a ausência dos entregadores, por exemplo, por motivo de saúde, licença maternidade/paternidade ou por exercício do direito de greve. Mas mantinha fora do cálculo do índice reputacional as situações de acidentes com os entregadores ou problemas técnicos com a plataforma, deixando claro que a implementação em código de situações excludentes era uma opção empresarial, e que as situações desfavoráveis à companhia eram reconhecidas e preservadas.

Para o Tribunal, a ausência de critérios claros e equitativos para o cálculo do índice reputacional feriu direitos fundamentais dos trabalhadores, pois sempre que optassem por exercer, por exemplo, direitos reconhecidos na legislação nacional como o de greve, licença paternidade/maternidade ou licença médica, sofreriam um impacto negativo nas suas estatísticas, independentemente de qualquer justificativa.

E assim a corte concluiu que o sistema de perfilamento da Deliveroo (com base na confiabilidade e no pico de participação) tratava de forma desigual os trabalhadores que não participavam da sessão agendada por motivos triviais daqueles que estão impedidos de participar por motivos legalmente justificáveis, discriminando estes últimos.

A empresa chegou a afirmar que o algoritmo não está mais em uso desde o dia 2 de novembro de 2020, mas não apresentou evidência concreta do funcionamento do modelo, o que era responsabilidade processual sua. A discriminação baseada na definição de perfis para formação de ranking de reputação foi declarada pelo Tribunal, que ainda condenou a Deliveroo a divulgar a decisão e a pagar uma indenização pelo dano não-patrimonial causado no valor de EUR50,000.00 (cinquenta mil euros).

A formação de perfil, ou profiling, técnica que acompanha a intensificação do uso de dados pessoais e que pode ser não só justificável como útil em diversas aplicações, pode também resultar em previsões imprecisas e causar a partir daí efeitos negativos, como uma negação de serviços e bens ou uma discriminação injustificada.

Nesse sentido, em diretriz elaborada pelo Article 29 Working Party, grupo de trabalho composto por autoridades de dados europeias, "a definição de perfis e as decisões automatizadas são suscetíveis de gerar riscos significativos para os direitos e as liberdades das pessoas, que exigem garantias adequadas". (2)

O RGPD - Regulamento Geral de Proteção de Dados -, no seu artigo 4º, ponto 4, define perfis como:

"(...) qualquer forma de tratamento automatizado de dados pessoais que consista em utilizar esses dados pessoais para avaliar certos aspetos pessoais de uma pessoa singular, nomeadamente para analisar ou prever aspetos relacionados com o seu desempenho profissional, a sua situação económica, saúde, preferências pessoais, interesses, fiabilidade, comportamento, localização ou deslocações;"

A LGPD - Lei Geral de Proteção de Dados - é menos detalhada neste aspecto. Não define, embora mencione e trate a formação de perfis. Mas se a LGPD não possui menção expressa quanto a esta definição, as relações de trabalho no Brasil estariam sujeitas a questionamentos semelhantes? A resposta é positiva, na medida em que o art. 20 da LGPD garante de forma expressa que o titular de dados possa solicitar a revisão das decisões tomadas unicamente com base no tratamento automatizado de seus dados e que afetem os seus interesses, fazendo referência a hipóteses de impacto na definição de perfil pessoal, profissional, de consumo e de crédito, e ainda a aspectos da personalidade do titular.

Além disso, o §1º do artigo 20 disciplina que cabe ao controlador fornecer informações claras e adequadas a respeito dos critérios e dos procedimentos, da engrenagem que é utilizada para a decisão automatizada, resguardados os segredos comercial e industrial.

A questão que permanece, contudo, é que os algoritmos que são usados cada vez mais intensamente na onda global atual de automação são mais orgânicos e auto-adaptáveis. E um dos grandes problemas da governança sobre o impacto deste tipo de código é a sua opacidade, a ausência de transparência e clareza sobre como o resultado é obtido através do processamento. A isto some-se a dificuldade de compreensão por parte das pessoas atingidas pela decisão. (3)

No caso de Bolonha, a ausência de transparência do algoritmo, aliada ao fato de que não adotava parâmetros que proporcionassem igualdade de oportunidades enquanto considerava outros, a critério da empresa, levou o modelo a aplicar padrões discriminatórios.

À luz da LGPD, recomenda-se cautela na adoção de sistemas de decisões automatizadas, já que o controlador, caso reconhecida uma violação decorrente do modelo de automação que implementou, não só poderá sofrer sanções diretas expressivas, como poderá ver sua reputação comprometida, ao ser obrigado a publicizar a violação aos princípios da Lei Geral de Proteção de Dados.

Além de boas práticas universais de cuidado e de avaliação prévia, é preciso observar mais especificamente os princípios de Privacy by Design e Privacy by Default, e considerar a cautela adicional (ou a obrigação?) de elaboração do relatório de impacto à proteção de dados. São medidas importantes de gestão e redução de risco, em um momento em que praticamente todas as atividades começam a aproveitar os benefícios de uma automação que é intensa e promissora, mas que carrega consigo o aumento do potencial de que estas decisões automatizadas violem direitos de titulares de dados.

Por fim, outra importante observação é que ao contrário do modelo regulatório europeu, a LGPD não prevê a possibilidade de revisão humana da decisão automatizada, o que poderá significar um desafio adicional no uso de modelos éticos e transparentes de inteligência artificial, principalmente em um cenário de expansão de criação e uso de perfis profissionais e de ampliação de espaço para a discriminação.

Na sequência desta nova onda de contencioso judicial questionando algoritmos, uso intensivo de dados pessoais, perfilamento e inteligência artificial em ambientes de trabalho, em 11 de fevereiro de 2021, o Tribunal Distrital de Amsterdam (4) julgará uma demanda movida por motoristas em face do Uber. Volta à cena o cerne da mesma temática: a ausência de transparência e de informações adicionais acerca de um algoritmo da plataforma, neste caso, o que excluiu os motoristas das viagens para passageiros que anteriormente lhes deram a classificação mais baixa possível.

É, definitivamente, uma tendência para acompanhar, com perspectivas de impacto e desdobramentos globais, inclusive na estruturação do modelo brasileiro.

*Rafael Mosele, Master of law (LLM) pela Fundação Getúlio Vargas. Especialista em Direito do Trabalho pelo Centro Universitário Curitiba. Graduado em Direito pela Universidade de Passo Fundo. Sócio do escritório Célio Neto Advogados. Membro do Comitê de Relações do Trabalho do Instituto Mundo do Trabalho. Conselheiro Fiscal e diretor das Relações do Trabalho do Instituto Nacional de Proteção de Dados - INPD

*Cláudio Lucena, professor e ex-diretor da Faculdade de Direito, coordenador de Relações Internacionais e Conselheiro da INOVATEC, Universidade Estadual da Paraíba. Pesquisador da Fundação para a Ciência e a Tecnologia do Governo Português, afiliado ao Research Center for the Future of Law da Universidade Católica Portuguesa. Associated Scholar no Projeto CyberBRICS da Faculdade de Direito da Fundação Getúlio Vargas, Rio de Janeiro. Advogado. Sócio, CRRF Advogados. Diretor Técnico e de Relações Internacionais do Instituto Nacional de Proteção de Dados - INPD

(1) - A Deliveroo é empresa que opera um aplicativo de entrega de comida online fundada em 2013 em Londres, Inglaterra, que opera em mais de duzentos locais no Reino Unido, Holanda, França, Bélgica, Irlanda, Espanha, Itália, Austrália, Nova Zelândia, Cingapura, Hong Kong, Emirados Árabes Unidos e Kuwait.

(2) - Disponível em https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053. Acessado em 06/01/2021.

(3) - Disponível em http://eduardomagrani.com/wp-content/uploads/2019/07/Entre-dados-e-robo%CC%82s-Pallotti-1306201

(4)  Disponível em https://uk.reuters.com/article/netherlands-uber-lawsuit-idUKKBN28Q1N5. Acessado em 06/01/2021

Rafael Mosele  e Cláudio Lucena. FOTO: DIVULGAÇÃO Foto: Estadão

O trabalho humano na economia digital, e particularmente com a pandemia tem sido profundamente redesenhado em função de plataformas globais orientadas a dados e automação, aumento de eficiência e economia de recursos.

É nesse novo contexto que, no último dia 31 de dezembro, a seção trabalhista do Tribunal de Bolonha, na Itália, declarou que um dos algoritmos utilizados pela Deliveroo estava causando efeitos discriminatórios.

Este algoritmo era utilizado para alocar e atribuir as chamadas de serviços de entrega e direcionava as melhores oportunidades aos entregadores que tivessem os melhores índices de reputação.

O índice de reputação, por sua vez, era obtido de acordo com uma classificação, determinada por um índice de confiabilidade (número de vezes que o entregador não participou de um horário de entrega em que havia previamente indicado que estaria disponível) e o índice de pico de participação (número de vezes que o entregador ficou disponível nos horários mais relevantes ou de pico).

Esses índices caíam quando os entregadores cancelavam essas reservas de horários que eles haviam previamente indicado como disponíveis ou quando não aceitavam pedidos de entrega nos horários de pico.

Pior, o ranking não levava em consideração os motivos que teriam causado a ausência do entregador.

Aliás, levava, em alguns casos. A Deliveroo não justificava a ausência dos entregadores, por exemplo, por motivo de saúde, licença maternidade/paternidade ou por exercício do direito de greve. Mas mantinha fora do cálculo do índice reputacional as situações de acidentes com os entregadores ou problemas técnicos com a plataforma, deixando claro que a implementação em código de situações excludentes era uma opção empresarial, e que as situações desfavoráveis à companhia eram reconhecidas e preservadas.

Para o Tribunal, a ausência de critérios claros e equitativos para o cálculo do índice reputacional feriu direitos fundamentais dos trabalhadores, pois sempre que optassem por exercer, por exemplo, direitos reconhecidos na legislação nacional como o de greve, licença paternidade/maternidade ou licença médica, sofreriam um impacto negativo nas suas estatísticas, independentemente de qualquer justificativa.

E assim a corte concluiu que o sistema de perfilamento da Deliveroo (com base na confiabilidade e no pico de participação) tratava de forma desigual os trabalhadores que não participavam da sessão agendada por motivos triviais daqueles que estão impedidos de participar por motivos legalmente justificáveis, discriminando estes últimos.

A empresa chegou a afirmar que o algoritmo não está mais em uso desde o dia 2 de novembro de 2020, mas não apresentou evidência concreta do funcionamento do modelo, o que era responsabilidade processual sua. A discriminação baseada na definição de perfis para formação de ranking de reputação foi declarada pelo Tribunal, que ainda condenou a Deliveroo a divulgar a decisão e a pagar uma indenização pelo dano não-patrimonial causado no valor de EUR50,000.00 (cinquenta mil euros).

A formação de perfil, ou profiling, técnica que acompanha a intensificação do uso de dados pessoais e que pode ser não só justificável como útil em diversas aplicações, pode também resultar em previsões imprecisas e causar a partir daí efeitos negativos, como uma negação de serviços e bens ou uma discriminação injustificada.

Nesse sentido, em diretriz elaborada pelo Article 29 Working Party, grupo de trabalho composto por autoridades de dados europeias, "a definição de perfis e as decisões automatizadas são suscetíveis de gerar riscos significativos para os direitos e as liberdades das pessoas, que exigem garantias adequadas". (2)

O RGPD - Regulamento Geral de Proteção de Dados -, no seu artigo 4º, ponto 4, define perfis como:

"(...) qualquer forma de tratamento automatizado de dados pessoais que consista em utilizar esses dados pessoais para avaliar certos aspetos pessoais de uma pessoa singular, nomeadamente para analisar ou prever aspetos relacionados com o seu desempenho profissional, a sua situação económica, saúde, preferências pessoais, interesses, fiabilidade, comportamento, localização ou deslocações;"

A LGPD - Lei Geral de Proteção de Dados - é menos detalhada neste aspecto. Não define, embora mencione e trate a formação de perfis. Mas se a LGPD não possui menção expressa quanto a esta definição, as relações de trabalho no Brasil estariam sujeitas a questionamentos semelhantes? A resposta é positiva, na medida em que o art. 20 da LGPD garante de forma expressa que o titular de dados possa solicitar a revisão das decisões tomadas unicamente com base no tratamento automatizado de seus dados e que afetem os seus interesses, fazendo referência a hipóteses de impacto na definição de perfil pessoal, profissional, de consumo e de crédito, e ainda a aspectos da personalidade do titular.

Além disso, o §1º do artigo 20 disciplina que cabe ao controlador fornecer informações claras e adequadas a respeito dos critérios e dos procedimentos, da engrenagem que é utilizada para a decisão automatizada, resguardados os segredos comercial e industrial.

A questão que permanece, contudo, é que os algoritmos que são usados cada vez mais intensamente na onda global atual de automação são mais orgânicos e auto-adaptáveis. E um dos grandes problemas da governança sobre o impacto deste tipo de código é a sua opacidade, a ausência de transparência e clareza sobre como o resultado é obtido através do processamento. A isto some-se a dificuldade de compreensão por parte das pessoas atingidas pela decisão. (3)

No caso de Bolonha, a ausência de transparência do algoritmo, aliada ao fato de que não adotava parâmetros que proporcionassem igualdade de oportunidades enquanto considerava outros, a critério da empresa, levou o modelo a aplicar padrões discriminatórios.

À luz da LGPD, recomenda-se cautela na adoção de sistemas de decisões automatizadas, já que o controlador, caso reconhecida uma violação decorrente do modelo de automação que implementou, não só poderá sofrer sanções diretas expressivas, como poderá ver sua reputação comprometida, ao ser obrigado a publicizar a violação aos princípios da Lei Geral de Proteção de Dados.

Além de boas práticas universais de cuidado e de avaliação prévia, é preciso observar mais especificamente os princípios de Privacy by Design e Privacy by Default, e considerar a cautela adicional (ou a obrigação?) de elaboração do relatório de impacto à proteção de dados. São medidas importantes de gestão e redução de risco, em um momento em que praticamente todas as atividades começam a aproveitar os benefícios de uma automação que é intensa e promissora, mas que carrega consigo o aumento do potencial de que estas decisões automatizadas violem direitos de titulares de dados.

Por fim, outra importante observação é que ao contrário do modelo regulatório europeu, a LGPD não prevê a possibilidade de revisão humana da decisão automatizada, o que poderá significar um desafio adicional no uso de modelos éticos e transparentes de inteligência artificial, principalmente em um cenário de expansão de criação e uso de perfis profissionais e de ampliação de espaço para a discriminação.

Na sequência desta nova onda de contencioso judicial questionando algoritmos, uso intensivo de dados pessoais, perfilamento e inteligência artificial em ambientes de trabalho, em 11 de fevereiro de 2021, o Tribunal Distrital de Amsterdam (4) julgará uma demanda movida por motoristas em face do Uber. Volta à cena o cerne da mesma temática: a ausência de transparência e de informações adicionais acerca de um algoritmo da plataforma, neste caso, o que excluiu os motoristas das viagens para passageiros que anteriormente lhes deram a classificação mais baixa possível.

É, definitivamente, uma tendência para acompanhar, com perspectivas de impacto e desdobramentos globais, inclusive na estruturação do modelo brasileiro.

*Rafael Mosele, Master of law (LLM) pela Fundação Getúlio Vargas. Especialista em Direito do Trabalho pelo Centro Universitário Curitiba. Graduado em Direito pela Universidade de Passo Fundo. Sócio do escritório Célio Neto Advogados. Membro do Comitê de Relações do Trabalho do Instituto Mundo do Trabalho. Conselheiro Fiscal e diretor das Relações do Trabalho do Instituto Nacional de Proteção de Dados - INPD

*Cláudio Lucena, professor e ex-diretor da Faculdade de Direito, coordenador de Relações Internacionais e Conselheiro da INOVATEC, Universidade Estadual da Paraíba. Pesquisador da Fundação para a Ciência e a Tecnologia do Governo Português, afiliado ao Research Center for the Future of Law da Universidade Católica Portuguesa. Associated Scholar no Projeto CyberBRICS da Faculdade de Direito da Fundação Getúlio Vargas, Rio de Janeiro. Advogado. Sócio, CRRF Advogados. Diretor Técnico e de Relações Internacionais do Instituto Nacional de Proteção de Dados - INPD

(1) - A Deliveroo é empresa que opera um aplicativo de entrega de comida online fundada em 2013 em Londres, Inglaterra, que opera em mais de duzentos locais no Reino Unido, Holanda, França, Bélgica, Irlanda, Espanha, Itália, Austrália, Nova Zelândia, Cingapura, Hong Kong, Emirados Árabes Unidos e Kuwait.

(2) - Disponível em https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053. Acessado em 06/01/2021.

(3) - Disponível em http://eduardomagrani.com/wp-content/uploads/2019/07/Entre-dados-e-robo%CC%82s-Pallotti-1306201

(4)  Disponível em https://uk.reuters.com/article/netherlands-uber-lawsuit-idUKKBN28Q1N5. Acessado em 06/01/2021

Rafael Mosele  e Cláudio Lucena. FOTO: DIVULGAÇÃO Foto: Estadão

O trabalho humano na economia digital, e particularmente com a pandemia tem sido profundamente redesenhado em função de plataformas globais orientadas a dados e automação, aumento de eficiência e economia de recursos.

É nesse novo contexto que, no último dia 31 de dezembro, a seção trabalhista do Tribunal de Bolonha, na Itália, declarou que um dos algoritmos utilizados pela Deliveroo estava causando efeitos discriminatórios.

Este algoritmo era utilizado para alocar e atribuir as chamadas de serviços de entrega e direcionava as melhores oportunidades aos entregadores que tivessem os melhores índices de reputação.

O índice de reputação, por sua vez, era obtido de acordo com uma classificação, determinada por um índice de confiabilidade (número de vezes que o entregador não participou de um horário de entrega em que havia previamente indicado que estaria disponível) e o índice de pico de participação (número de vezes que o entregador ficou disponível nos horários mais relevantes ou de pico).

Esses índices caíam quando os entregadores cancelavam essas reservas de horários que eles haviam previamente indicado como disponíveis ou quando não aceitavam pedidos de entrega nos horários de pico.

Pior, o ranking não levava em consideração os motivos que teriam causado a ausência do entregador.

Aliás, levava, em alguns casos. A Deliveroo não justificava a ausência dos entregadores, por exemplo, por motivo de saúde, licença maternidade/paternidade ou por exercício do direito de greve. Mas mantinha fora do cálculo do índice reputacional as situações de acidentes com os entregadores ou problemas técnicos com a plataforma, deixando claro que a implementação em código de situações excludentes era uma opção empresarial, e que as situações desfavoráveis à companhia eram reconhecidas e preservadas.

Para o Tribunal, a ausência de critérios claros e equitativos para o cálculo do índice reputacional feriu direitos fundamentais dos trabalhadores, pois sempre que optassem por exercer, por exemplo, direitos reconhecidos na legislação nacional como o de greve, licença paternidade/maternidade ou licença médica, sofreriam um impacto negativo nas suas estatísticas, independentemente de qualquer justificativa.

E assim a corte concluiu que o sistema de perfilamento da Deliveroo (com base na confiabilidade e no pico de participação) tratava de forma desigual os trabalhadores que não participavam da sessão agendada por motivos triviais daqueles que estão impedidos de participar por motivos legalmente justificáveis, discriminando estes últimos.

A empresa chegou a afirmar que o algoritmo não está mais em uso desde o dia 2 de novembro de 2020, mas não apresentou evidência concreta do funcionamento do modelo, o que era responsabilidade processual sua. A discriminação baseada na definição de perfis para formação de ranking de reputação foi declarada pelo Tribunal, que ainda condenou a Deliveroo a divulgar a decisão e a pagar uma indenização pelo dano não-patrimonial causado no valor de EUR50,000.00 (cinquenta mil euros).

A formação de perfil, ou profiling, técnica que acompanha a intensificação do uso de dados pessoais e que pode ser não só justificável como útil em diversas aplicações, pode também resultar em previsões imprecisas e causar a partir daí efeitos negativos, como uma negação de serviços e bens ou uma discriminação injustificada.

Nesse sentido, em diretriz elaborada pelo Article 29 Working Party, grupo de trabalho composto por autoridades de dados europeias, "a definição de perfis e as decisões automatizadas são suscetíveis de gerar riscos significativos para os direitos e as liberdades das pessoas, que exigem garantias adequadas". (2)

O RGPD - Regulamento Geral de Proteção de Dados -, no seu artigo 4º, ponto 4, define perfis como:

"(...) qualquer forma de tratamento automatizado de dados pessoais que consista em utilizar esses dados pessoais para avaliar certos aspetos pessoais de uma pessoa singular, nomeadamente para analisar ou prever aspetos relacionados com o seu desempenho profissional, a sua situação económica, saúde, preferências pessoais, interesses, fiabilidade, comportamento, localização ou deslocações;"

A LGPD - Lei Geral de Proteção de Dados - é menos detalhada neste aspecto. Não define, embora mencione e trate a formação de perfis. Mas se a LGPD não possui menção expressa quanto a esta definição, as relações de trabalho no Brasil estariam sujeitas a questionamentos semelhantes? A resposta é positiva, na medida em que o art. 20 da LGPD garante de forma expressa que o titular de dados possa solicitar a revisão das decisões tomadas unicamente com base no tratamento automatizado de seus dados e que afetem os seus interesses, fazendo referência a hipóteses de impacto na definição de perfil pessoal, profissional, de consumo e de crédito, e ainda a aspectos da personalidade do titular.

Além disso, o §1º do artigo 20 disciplina que cabe ao controlador fornecer informações claras e adequadas a respeito dos critérios e dos procedimentos, da engrenagem que é utilizada para a decisão automatizada, resguardados os segredos comercial e industrial.

A questão que permanece, contudo, é que os algoritmos que são usados cada vez mais intensamente na onda global atual de automação são mais orgânicos e auto-adaptáveis. E um dos grandes problemas da governança sobre o impacto deste tipo de código é a sua opacidade, a ausência de transparência e clareza sobre como o resultado é obtido através do processamento. A isto some-se a dificuldade de compreensão por parte das pessoas atingidas pela decisão. (3)

No caso de Bolonha, a ausência de transparência do algoritmo, aliada ao fato de que não adotava parâmetros que proporcionassem igualdade de oportunidades enquanto considerava outros, a critério da empresa, levou o modelo a aplicar padrões discriminatórios.

À luz da LGPD, recomenda-se cautela na adoção de sistemas de decisões automatizadas, já que o controlador, caso reconhecida uma violação decorrente do modelo de automação que implementou, não só poderá sofrer sanções diretas expressivas, como poderá ver sua reputação comprometida, ao ser obrigado a publicizar a violação aos princípios da Lei Geral de Proteção de Dados.

Além de boas práticas universais de cuidado e de avaliação prévia, é preciso observar mais especificamente os princípios de Privacy by Design e Privacy by Default, e considerar a cautela adicional (ou a obrigação?) de elaboração do relatório de impacto à proteção de dados. São medidas importantes de gestão e redução de risco, em um momento em que praticamente todas as atividades começam a aproveitar os benefícios de uma automação que é intensa e promissora, mas que carrega consigo o aumento do potencial de que estas decisões automatizadas violem direitos de titulares de dados.

Por fim, outra importante observação é que ao contrário do modelo regulatório europeu, a LGPD não prevê a possibilidade de revisão humana da decisão automatizada, o que poderá significar um desafio adicional no uso de modelos éticos e transparentes de inteligência artificial, principalmente em um cenário de expansão de criação e uso de perfis profissionais e de ampliação de espaço para a discriminação.

Na sequência desta nova onda de contencioso judicial questionando algoritmos, uso intensivo de dados pessoais, perfilamento e inteligência artificial em ambientes de trabalho, em 11 de fevereiro de 2021, o Tribunal Distrital de Amsterdam (4) julgará uma demanda movida por motoristas em face do Uber. Volta à cena o cerne da mesma temática: a ausência de transparência e de informações adicionais acerca de um algoritmo da plataforma, neste caso, o que excluiu os motoristas das viagens para passageiros que anteriormente lhes deram a classificação mais baixa possível.

É, definitivamente, uma tendência para acompanhar, com perspectivas de impacto e desdobramentos globais, inclusive na estruturação do modelo brasileiro.

*Rafael Mosele, Master of law (LLM) pela Fundação Getúlio Vargas. Especialista em Direito do Trabalho pelo Centro Universitário Curitiba. Graduado em Direito pela Universidade de Passo Fundo. Sócio do escritório Célio Neto Advogados. Membro do Comitê de Relações do Trabalho do Instituto Mundo do Trabalho. Conselheiro Fiscal e diretor das Relações do Trabalho do Instituto Nacional de Proteção de Dados - INPD

*Cláudio Lucena, professor e ex-diretor da Faculdade de Direito, coordenador de Relações Internacionais e Conselheiro da INOVATEC, Universidade Estadual da Paraíba. Pesquisador da Fundação para a Ciência e a Tecnologia do Governo Português, afiliado ao Research Center for the Future of Law da Universidade Católica Portuguesa. Associated Scholar no Projeto CyberBRICS da Faculdade de Direito da Fundação Getúlio Vargas, Rio de Janeiro. Advogado. Sócio, CRRF Advogados. Diretor Técnico e de Relações Internacionais do Instituto Nacional de Proteção de Dados - INPD

(1) - A Deliveroo é empresa que opera um aplicativo de entrega de comida online fundada em 2013 em Londres, Inglaterra, que opera em mais de duzentos locais no Reino Unido, Holanda, França, Bélgica, Irlanda, Espanha, Itália, Austrália, Nova Zelândia, Cingapura, Hong Kong, Emirados Árabes Unidos e Kuwait.

(2) - Disponível em https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053. Acessado em 06/01/2021.

(3) - Disponível em http://eduardomagrani.com/wp-content/uploads/2019/07/Entre-dados-e-robo%CC%82s-Pallotti-1306201

(4)  Disponível em https://uk.reuters.com/article/netherlands-uber-lawsuit-idUKKBN28Q1N5. Acessado em 06/01/2021

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.