Deprecated: The behavior of unparenthesized expressions containing both '.' and '+'/'-' will change in PHP 8: '+'/'-' will take a higher precedence in /var/www/lavits.org/wp-content/plugins/newsletter/includes/module-base.php on line 1222
[Rodrigo Firmino] Riscos e contradições dos programas de vigilância tecnológica – Lavits

[Rodrigo Firmino] Riscos e contradições dos programas de vigilância tecnológica

Em entrevista ao jornalista Fernando Barros para o Tilt UOL, Rodrigo Firmino discorreu sobre programas de vigilância estatal a partir do projeto Sharp Eyes do governo chinês. Parte da conversa pode ser conferida na matéria BBB distópico: vigilância na China faz vizinhos vigiarem uns aos outros, publicada aqui.

A conversa com Barros, no entanto, não focou apenas no projeto do governo chinês e abordou outras dimensões da vigilância tecnológica como os riscos éticos, legais e sociais da “vigilância total” e a questão do paradoxo da privacidade/segurança. Firmino ainda abordou os projetos de vigilância tecnológica no contexto brasileiro. Confira abaixo a íntegra da entrevista.

 

Fernando Barros: O Sharp Eyes é um extenso programa de vigilância na China que busca alcançar 100% de cobertura e nenhum ponto cego com câmeras de reconhecimento facial espalhadas por diferentes pontos de áreas urbanas e rurais. As imagens captadas são integradas a um grande banco de dados. O argumento é a segurança pública, mas quais os riscos de iniciativas como essa?

Rodrigo Firmino: Há inúmeros riscos e incômodos jurídicos e éticos relacionados ao que se chama de “vigilância total”, a partir do uso de sistemas securitários e uma suposta garantia de maior segurança em troca de certos níveis de liberdade civil e privacidade. Isso não é exclusividade da China, e é o que se conhece como paradoxo da privacidade/segurança (the privacy paradox), frequentemente usado nas justificativas para a implementação de medidas mais rígidas de segurança e vigilância, sob a alegação do famigerado “quem não deve não teme”. Esse mesmo paradoxo se aplica a situações mais mundanas do nosso dia-a-dia, quando, por exemplo, aceitamos fornecer dados pessoais em troca de conforto ou entretenimento no uso de algum aplicativo ou serviço digital (muitas vezes sem ler as políticas de privacidade das empresas). Para além dessa questão, há outro problema ainda mais profundo: apesar da importância regulatória do Estado, não há garantias que o aparato estatal de sistemas e do conjunto de políticas será sempre usado em nome da ética e da justiça social. Para falar do ocidente, que conhecemos melhor, temos vivenciado os riscos de mudanças de governo e regime em países como EUA e Brasil (com os governos Trump e Bolsonaro, respectivamente), em que os arranjos institucionais democráticos são fragilizados por atitudes autocráticas e ações de perseguição a quem pensa diferente do grupo que detém o poder executivo. Assim, além dos riscos éticos e jurídicos à privacidade de indivíduos e grupos, há a grave consequência de intensificação de perseguição e eliminação de minorias e grupos opositores ao regime com poder de controle do aparato tecnológico e institucional de vigilância e segurança. E sabemos bem que em países como o Brasil, isso significa a perseguição e eliminação da população pobre, negra e todos que se levantam como vozes de resistência. Há, ainda, um outro elemento mais específico da sua pergunta que é a escalada do uso de um tipo de tecnologia que tem se mostrado extremamente problemático, o reconhecimento facial. Vários estudos e experimentos demonstram duas limitações fundamentais dessa tecnologia: sua falibilidade técnica (problemas de precisão de leitura, por exemplo); e, mais importante, um viés de identificação marcado pelo racismo e pelo estigma a certos grupos sociais (veja os estudos de Tarcízio Silva, por exemplo, sobre racismo algorítmico, ou de Joy Buolamwini sobre preconceito algorítmico e gender bias). Este é um problema estrutural do uso de tecnologias como reconhecimento facial e aprendizado de máquina (basicamente porque as máquinas aprendem a replicar os mesmos problemas e preconceitos que estão na base dos processos computacionais, nunca neutros). Essa tecnologia já foi banida em vários lugares e existem campanhas ativas para ampliar o banimento de uso por governos e forças policiais. No caso da China, esses aparatos têm sido testados em situações de similar perseguição e exclusão, como na província de Xinjiang.

 

FB: O Sharp Eyes parece maximizar a questão da vigilância tecnológica, não somente dando ao governo, órgãos policiais, etc, acesso às câmeras e buscando integrar câmeras públicas e privadas, como também induzindo os próprios cidadãos a vigiarem uns aos outros. Os residentes das localidades monitoradas podem acessar as câmeras pela TV e denunciar caso vejam algo suspeito. Temos aí pavimentados caminhos para um certo flerte com uma distopia, algo como o cenário orwelliano do livro 1984?

RF: Pois é. Acho que as distopias ficcionais se sobrepõem para ilustrar essas possibilidades de escalada da vigilância, principalmente por meios tecnológicos. Mas acho que Orwell já não é mais capaz de mostrar o cenário atual e as perspectivas de controle que estão postas. Creio que haja ao menos duas dimensões de vigilância. Uma, mais clássica, é representada por 1984 e pela ideia do Big Brother, de estados autocráticos ou totalitários exercendo o poder de vigiar e punir e de controlar aspectos importantes da vida nas sociedades modernas. Mas há também a dimensão do que muitos chamam de little brothers, de todos vigiando todos, melhor representada por obras como The Circle, de Dave Eggers (que também foi parar nas telas do cinema). Sobre essa segunda dimensão, a combinação de capacidades computacionais e principalmente comunicacionais das tecnologias de vigilância e segurança, com a possibilidade de sistemas e aparelhos trocando informações entre si (Internet das Coisas) ininterruptamente, e com a naturalização do uso de mídias sociais (ou ainda o que o sociólogo David Lyon chama de ”cultura da vigilância”), transforma qualquer pessoa em um ”sistema móvel de vigilância”. Outro sociólogo, Zigmunt Bauman, contextualiza tudo isso em um estágio ”pós-panóptico” na história da modernidade.

 

FB: Como avalia a questão da vigilância tecnológica no Brasil? Não sei de um projeto nacional por aqui como o Sharp Eyes, mas temos visto nos últimos anos surgir iniciativas de reconhecimento facial em espaços públicos em alguns estados. A sociedade precisa estar mais atenta?

RF: É verdade. O Brasil tem uma configuração estatal bastante diferente da China, o que torna mais difícil a implementação global de um único sistema integrado (e que também torna mais difícil o controle de pandemias e epidemias, diga-se). Mas isso não significa que tentativas de integração de sistemas e bancos de dados não sejam feitas, e sem o escrutínio da população, esquivando-se ao debate público. O risco está presente e é necessário estarmos vigilantes, com o perdão do trocadilho. O governo de São Paulo tenta, há vários anos, implementar sistemas de vigilância massiva com uso de tecnologias como as quais tratamos nessas perguntas (inclusive o reconhecimento facial). Neste sentido, o pesquisador Alcides Peron vem estudando os projetos de São Paulo há bastante tempo. Há ainda o risco de uso dessas tecnologias por empresas privadas, e isso tem acontecido, em alguns casos em parcerias público-privadas. Felizmente, várias organizações, coletivos, ONGs, e grupos ativistas estão atentos às tentativas de implementação desses projetos. Um caso interessante, relativamente recente, que envolveu a tentativa de uso de câmeras de reconhecimento facial pela Viaquatro na linha amarela do metrô de São Paulo, contou com a atuação do IDEC (Instituto Brasileiro de Direitos do Consumidor) e da LAVITS (Rede Latino Americana de Estudos sobre Vigilância, Tecnologia e Sociedade) em ação civil pública para questionar e barrar o projeto. Conseguimos que a justiça obrigasse a empresa a adesivar as câmeras para bloquear a captura de imagens. Em uma mobilização no início de março, essas e outras organizações publicaram uma carta aberta ao governador de São Paulo cobrando o veto do projeto de lei 865/19 que prevê a implantação de câmeras de reconhecimento facial em todo o sistema de trens metropolitanos e metrô. A carta aponta os vários problemas dessa tecnologia, como também os riscos envolvidos. Além da LAVITS e do IDEC, outros exemplos de grupos atentos ao uso abusivo de tecnologias e práticas de vigilância incluem: Artigo19 Brasil, Associação Data Privacy Brasil de Pesquisa, Coding Rights, Derechos Digitales, Coalizão Direitos na Rede, e Intervozes. O Brasil tem tradição na luta por direitos digitais, que vem dos tempos do movimento software livre até o pioneiro e inovador Marco Civil da Internet, mas este é um tipo de luta em que não se pode perder a atenção. Os debates sobre essas questões precisam extrapolar o limite de atuação das organizações que citei e chegar com mais frequência ao público em geral. As pessoas necessitam compreender todas as dimensões envolvidas na adoção acrítica de tecnologias de vigilância e controle e os possíveis riscos à liberdades civis e justiça digital (para ficar no específico). Esse tipo de atenção por parte da sociedade é crucial, pois a falácia do “quem não deve não teme” costuma funcionar como justificativa rasa e de fácil aceitação quando não se conhecem todos os desdobramentos da formação de um arranjo de forças e políticas em desequilíbrio entre garantias de direitos e a necessidade de sistemas de vigilância e punição.

 

[Ilustração: Sahar Baharloo]

Compartilhe