Por Graciele Almeida de Oliveira
Virgílio Augusto Fernandes Almeida é professor de Ciência da Computação da Universidade Federal de Minas Gerais e é também professor associado ao Berkman Klein Center for Internet and Society na Universidade de Harvard. Foi secretário de política de informática no Ministério da Ciência, Tecnologia e Inovação (2011-2015). Atualmente dedica-se às pesquisas focadas na interação entre sistemas sociais e sistemas distribuídos em larga escala, como big data, algoritmos e machine learning.
Você trabalha com o impacto social dos algoritmos. O que isso significa?
Os algoritmos têm um impacto muito grande, várias ações do dia-a-dia são controladas por eles. Posso dar vários exemplos. No Facebook os posts são colocados em uma ordem e selecionados por um algoritmo que sabe, por exemplo, seus interesses. Ele faz isso para manter sua atenção, para que permaneça mais tempo conectado. Quando o motorista de Uber recebe a comunicação de chamada, são os algoritmos que selecionam os carros mais próximos. Esse motorista, quando foi contratado, interagiu com algoritmos e não com pessoas. Se for dispensado, até a linguagem é diferente – será por meio do aplicativo, que será desativado. Ao ouvir música no Spotify, um algoritmo guarda a lista com suas preferidas e sugere outras. No pedido de visto para alguns países é um algoritmo que indica o oficial responsável por analisar o processo e também auxilia no processo de concessão. Dependendo do tipo de empréstimo que você pede a um banco, ou a uma financeira, um algoritmo vai predizer se ele pode ou não ser concedido em função do seu perfil.
Os algoritmos são mocinhos ou vilões?
Não são mocinhos ou bandidos, mas devem ser observados, porque as decisões são cada vez mais tomadas por eles – então, é preciso ter condições de saber elas são justas. Há vários pontos nessa questão, que é objeto de pesquisa em áreas como computação, direito, direitos humanos e comunicação.
Os algoritmos não agem intencionalmente, não têm intenção de ter efeitos negativos e positivos, mas têm impacto social. Primeiro, por exemplo, o que você lê é determinado por um algoritmo. Se ele tiver um viés político e ideológico, tentará te passar esse viés. Se for justo ou injusto, por exemplo, em função de gênero, raça ou orientação sexual, isso impacta as pessoas. Foi publicado um artigo em uma revista científica mostrando que os homens nas plataformas online recebiam anúncios de empregos com salários mais altos do que os anúncios de empregos para mulheres. Neste caso, as bases de dados usadas provavelmente tinham muito mais homens com funções mais bem remuneradas do que mulheres. Por isso, é importante ter mecanismos de responsabilização. Quem é responsável por uma injustiça, uma decisão errada?
É preciso pensar, então, sobre como os algoritmos estão sendo construídos?
É necessário que os algoritmos sejam mais transparentes, até para que haja o processo de responsabilização. Vamos supor que ocorra um problema com um algoritmo que controla uma situação, como um carro autônomo. Se há um atropelamento, é preciso saber o que levou a isso e quem é o responsável. O veículo? O dono do veículo? Os algoritmos? As empresas que desenvolveram os algoritmos? São questões novas que advêm da digitalização da sociedade.
Então é preciso pensar os algoritmos dentro da esfera ética?
Ética é a palavra certa. É necessário estudar as questões éticas associadas aos algoritmos para inferir se eles não estão levando a injustiças para determinados grupos sociais, se não têm vieses embutidos, ou seja, não tentam influir ideologicamente em uma decisão.
Um exemplo ilustrativo: no MIT fizeram um experimento chamado The moral machine, ou máquina moral. Os algoritmos deveriam decidir que procedimento tomar quando um obstáculo surge no caso de um carro autônomo. Se for uma pessoa: ele vai em direção e atropela ou desvia e cai em um despenhadeiro e mata quem estiver dentro do carro? E quando for uma criança? E se forem várias pessoas? Há uma decisão que não é técnica, mas moral. Essas questões de ética são importantes na formação dos engenheiros, dos desenvolvedores. Eles devem ter essa formação para pensar o impacto das decisões na sociedade.
Nesse sentido há leis no Brasil voltadas para a ética em relação aos algoritmos?
Ainda não. Há poucos meses foi sancionada a Lei de proteção aos dados pessoais, que regula quando podem ser coletados e quem são os donos dos dados. Isso é importante pois, hoje em dia, em todas as interações com os algoritmos via aplicativos como Waze, Facebook, Whatsapp, Uber, cartão de crédito, Twitter, há coleta de dados. No Brasil há o Marco Civil da Internet, e agora essa lei, mas nada diretamente referente aos algoritmos.
Os cursos de formação de engenheiros possuem cursos voltados para a ética?
No Brasil, pode ser que uma universidade ou outra tenha um curso voltado para as questões éticas associadas ao algoritmo. Nos Estados Unidos, Harvard, MIT e Stanford estão incluindo disciplinas de ética como parte integrante dos currículos de ciência da computação e sistemas de informação.
Você comentou que somos influenciados por algoritmos sem que percebamos. Deveria haver um processo formativo e informativo para a sociedade sobre essa influência?
Acho que há um conceito de awareness, ou seja, a sociedade deve estar ciente. Não há necessidade de que todos entendam sobre os algoritmos, mas é preciso que se saiba que muitas decisões são tomadas por processos automáticos, de modo que possam haver órgãos da sociedade civil, ONGs, para observação disso. Eventualmente, até agências de governo. É mais fácil pensar em um processo em que certas organizações fiquem de olho para ver se decisões automáticas não são injustas, enviesadas ou buscam objetivo diferente do interesse da sociedade.
Nesse contexto, a imprensa tem um papel importante em começar a trazer essa questão da automação de decisão para o grande público. As notícias falsas, por exemplo, já existiam há muito tempo, mas o problema foi amplificado por algoritmos, e a sociedade acaba se baseando em informações que não são verdadeiras. A imprensa pode ter papel importante em divulgar o que é falso e o que é fato. Temos exemplos como a Agência Lupa e a Comprova, mas precisa ter uma escala muito maior.
É nesse sentido que vocês desenvolvem o projeto de moderação de conteúdo falso e de ódio em redes sociais?
Em função da situação de polarização política há conteúdos radicais, que incentivam o ódio e a discriminação. Nosso projeto tentar separar aqueles que têm conteúdo mais radical, em termos de mensagens de ódio, dos demais. É muito difícil pesquisar, porque a questão do discurso de ódio é subjetiva e depende de vários fatores, como geográficos e políticos. Nesse contexto, estamos trabalhando para criar algoritmos que possam identificar automaticamente esses conteúdos de ódio.
Qual o futuro da relação entre o social e os algoritmos? O que é importante e o que precisa ser desenvolvido?
Os algoritmos fazem parte de processos de decisões, e isso atinge praticamente toda a sociedade. É preciso ter condições para verificar se eles são justos, ter transparência nos processos de tomada de decisão e mecanismos de responsabilização quando algo dá errado. Nos Estados Unidos e na Europa as discussões, fruto do processo de digitalização da sociedade, estão em torno do justo, responsabilizável e transparente nos algoritmos.
Graciele Almeida de Oliveira é bacharel em química (USP), doutora em ciências – bioquímica, graduanda em educomunicação (USP) e aluna da especialização em jornalismo científico pelo Labjor/Unicamp.