Por Marcelo Soares
Às vezes, gosto de provocar os amigos: “você tem mais medo da inteligência artificial ou da burrice natural?”
Conhecemos bem os efeitos da burrice natural. Já a inteligência artificial é praticamente uma incógnita no debate público, porque tem quase tantas definições quantos forem os objetivos.
No papo marqueteiro da indústria do software, qualquer chatbot que responde apenas às perguntas que conhece e dá pau quando depara com o desconhecido é uma forma de inteligência artificial.
No viés hollywoodiano de parte do debate de divulgação, a inteligência artificial pode ser algo como Gideon, a sarcástica personalidade que faz funcionar a nave de Lendas do Amanhã, ou Ultron, o robô assassino inadvertidamente criado pelos Vingadores. Ou HAL, de “2001”, uma síntese entre os dois.
No noticiário, é o tempero misterioso usado por uma empresa suspeita da Grã-Bretanha para virar o mundo de cabeça para baixo usando dados roubados do Facebook.
Nos MOOCs onde muitos buscam conhecimento tecnológico para criar aplicações de inteligência artificial, são técnicas de classificação de grandes massas de dados que praticamente equivalem a ter à disposição uma quantidade invejável de estagiários para separar o joio do trigo.
As definições são conflitantes entre si, e muitas vezes elas levam à incompreensão do assunto.
Quando o chatbot Tay, da Microsoft, começou a papagaiar insultos racistas menos de 24 horas após ir ao ar, em 2016, parte do noticiário a respeito sugeria algo como estar prestes a nascer dali um Ultron boca-suja que ganharia vida e sairia caminhando pela Terra para exterminar o ser humano.
Na verdade, tínhamos ali uma das primeiras situações ilustrativas do que ocorre quando a inteligência artificial e a burrice natural unem suas forças: um programa que funcionou muito bem para a função de coletar inputs de conversa e reelaborar a partir deles novas respostas – só que com os inputs do mais refinado espírito de porco que o Twitter pode oferecer.
Com bem menos repercussão, essa colaboração continua ativíssima nos algoritmos de redes sociais como Facebook e YouTube.
Algoritmos são basicamente receitas de bolo: coleções de passos a seguir visando chegar a um resultado específico. No caso das redes sociais, o resultado específico é fazer incautos passarem o máximo de tempo possível interagindo lá dentro. Para isso, a partir dos ingredientes já fornecidos pelo incauto mostrando o que lhe chama a atenção, as redes sociais oferecem mais daquilo na timeline. Se você gosta de música e em suas redes sociais demonstra interesse no assunto – tocando vídeos, postando comentários, curtindo, compartilhando -, você verá cada vez mais música. Se você gosta de fotos de bebês, a mesma coisa.
Se você gosta de um determinado político, idem. Na verdade, se você o odeia também.
Durante todo o tempo em que estamos interagindo em redes sociais, estamos enviando sinais aos seus vorazes bancos de dados. O Facebook sabe que tenho interesse em guitarras, análise de dados e equidade social; também infere por algum motivo que me escapa que eu tenho interesse em hóquei e na série B do Campeonato Brasileiro (de onde o Inter – meu time, embora eu não acompanhe – já saiu há um ano, poxa). Também sabe que eu troquei de smartphone – classifica até pela marca – e que na maior parte do tempo estou conectado via wi-fi.
Todos esses dados são usados basicamente para direcionar anúncios a você, de uma maneira ou de outra. Geralmente são anúncios de produtos, mas também podem tentar lhe vender ideias.
Após a eleição de 2016, a empresa Cambridge Analytica tornou-se famosa por criar algo que, no viés Hollywood do debate sobre inteligência artificial, parecia algo semelhante a uma máquina de leitura de mentes que fez com que um desclassificado ganhasse a presidência dos Estados Unidos.
Na verdade, trata-se de uma sacada bastante engenhosa. Aplicaram um teste de personalidade a um número grande de pessoas. Correlacionaram os resultados do teste a tipos de interesses manifestados na rede social – quem tivesse interesse em uma determinada marca de calças, diz um resultado recentemente divulgado, teria maior chance de votar num candidato conservador. Então, na hora de pagar ao Facebook para direcionar anúncios políticos, ao invés de direcioná-los a homens de 30 a 40 anos em tal parte do país (que podem votar de qualquer jeito), poderiam direcionar a homens que, além do fator demográfico, tivessem interesse por aquela marca de calças. Com isso, atingiriam menos gente mas o anúncio teria mais relevância.
Como você lerá no fascinante artigo de Michael Jordan, o que se chama de inteligência artificial muitas vezes é basicamente classificação automática de dados. Então, ela entra aqui no sentido de indicar o caminho até o público que se quer atingir. O resto vem da mensagem utilizada para atingir o público, e aí entra a clássica arte da persuasão.
No livro Contágio: Por que as coisas pegam, Jonah Berger publicou os resultados de estudos que fez sobre postagens de notícias e descobriu que, quanto mais extremas são as reações causadas por uma notícia, mais ela causa engajamento. Esse engajamento é medido nas métricas em que os investidores do Facebook estão sempre de olho: frequência de visitas, tempo gasto etc.
Claude Shannon foi o primeiro a ter a sacada de dissociar a transmissão da mensagem de seu conteúdo para melhor entender os entraves à difusão. No mundo da internet, ocorre algo semelhante: toda visualização é uma visualização, independente do que o incauto pensa a respeito do que está vendo.
Então, toda vez em que alguém compartilha com indignação algum absurdo dito ou feito por alguém, isso torna aquele conteúdo mais relevante aos “olhos” dos algoritmos de redes sociais. É um conteúdo engajante, por mais que engaje nossos fígados.
No YouTube, pesquisadores norte-americanos descobriram que alguns tipos de vídeo, especialmente sobre temas políticos e sociais, levam seus usuários a espirais de conspiração que ficam mais extremas a cada passo. Zeynep Tufekci conta que assistiu vídeos sobre alimentação saudável; em seguida, o algoritmo lhe oferecia vídeos sobre vegetarianismo; em seguida, sobre veganismo. Em pouco tempo, viriam conspirações sobre vacinas e outras coisas do gênero.
Agora imagine que, numa terra distante, tenha um dia surgido um político que descobriu uma mina de ouro: falar absurdos dava visibilidade. Programas de auditório e de comédia passaram a convidá-lo com frequência para falar de temas polêmicos, porque sua participação sempre assertiva aumentava a audiência.
Nos anos 80, falava-se muita bobagem na TV também. Mas as transmissões eram únicas. Quem viu, viu; outros ficam sabendo por quem viu (só conheço quem conheça o famoso “fecha na Prochaska” de segunda ou terceira mão). Já no começo do século 21 havia o YouTube. Quem não viu sempre poderia ver em suas redes sociais a gravação registrada para a posteridade e compartilhada loucamente. Seja por achar graça, seja por concordar, seja por discordar frontalmente.
“Toda tirada extremista”, escreveu Umberto Eco em um dos textos reunidos em seu Pape Satàn Aleppe, “corre o risco de estimular o consenso dos insensatos.”
A eleição de 2018 foi uma rara eleição em que havia candidatos para todos os gostos possíveis. Ainda assim, o efeito polarizante das mensagens fez com que eleitores que poderiam votar num candidato moderado optassem por um candidato delirante. Também fez com que uma conspiração espalhada em vídeos do YouTube chegasse ao primeiro debate eleitoral, gerando uma torrente de memes e gracinhas que, como que feitos por um exército de marqueteiros voluntários, levaram um político sem qualquer representatividade a superar a terceira candidata mais votada das duas eleições anteriores.
E, claro, houve o Whatsapp.
Ainda que o Whatsapp não seja uma rede social baseada em algoritmos – tudo o que você enviar a um amigo será recebido por ele –, a inteligência artificial aparentemente também ajudou a segmentar grupos de recipientes no Whatsapp. O número de telefone de uma pessoa pode ser relacionado ao seu perfil no Facebook; seu perfil no Facebook pode ser correlacionado ao que a pessoa curte; assim, é possível criar grupos com alguma assertividade na “linha editorial”.
O que acontece no Whatsapp, porém, é uma caixa preta. Não fica registro do que circula lá dentro, mas é sabido que circula com alta velocidade. Mais ainda: circula com a chancela de ter sido mandado por pessoas que conhecemos de perto – amigos, parentes. O boca-a-boca sempre foi um fator muito mais forte de formação de opinião do que a imprensa. Com redes sociais rápidas, o boca-a-boca ganhou músculos e a possibilidade de atores maliciosos entrarem no jogo para tentar influenciá-lo na carona dos amigos e parentes.
Foi assim que caminhoneiros pararam o Brasil em maio. E foi assim que um deputado do baixo clero virou presidente do Brasil após dez anos de carreira como meme.
A inteligência artificial existe e está funcionando. Dificilmente enfrentaremos a Era de Ultron tão cedo. Mas como fazer para evitar os efeitos deletérios? As autoridades brasileiras claramente não sabem o que fazer a respeito.
Tudo indica que ainda conviveremos por um bom tempo com a simbiose entre inteligência artificial e burrice natural. E é nessa parceria que precisamos ficar de olho.
Marcelo Soares, editor convidado deste dossiê da revista ComCiência, é jornalista especializado em análise de dados e fundador da empresa Lagom Data, em São Paulo. Primeiro editor de audiência e dados do jornal Folha de S.Paulo, também lecionou jornalismo de dados nas pós-graduações em jornalismo digital da ESPM e da PUC-RS. É membro do Consórcio Internacional de Jornalistas Investigativos (ICIJ) e foi um dos fundadores da Associação Brasileira de Jornalismo Investigativo (Abraji). Escreveu para Los Angeles Times e Wired News e participou da elaboração de projetos que ganharam os prêmios Esso (2006), IRE (2008, 2010 e 2013), CNI (2014), SND (2014), SIP (2014), Petrobrás (2017) e Inep (2018).