Por Karen Canto e Tainá Scartezini
Imagem: Gerd Altmann, Pixabay
Desde que o novo coronavírus cruzou as fronteiras do continente asiático e começou a se espalhar pelo mundo, os avanços científicos e tecnológicos têm fornecido ferramentas úteis ao enfrentamento da pandemia. Modelos epidemiológicos se consolidaram como métodos eficientes na projeção do Sars-CoV-2, e a inteligência artificial, por sua vez, tornou-se aliada na triagem e diagnóstico de pacientes.
Um exemplo da importância dos modelos matemáticos na condução de medidas contra a pandemia foi a mudança de estratégia do Reino Unido após as projeções feitas pelo Imperial College. Quando surgiram os primeiros casos de infecção no país, o governo britânico optou por não adotar medidas de isolamento, para permitir que o vírus se espalhasse rapidamente, imunizando parte população. A estratégia, no entanto, foi abandonada após as projeções do estudo estimarem a morte de até 490 mil pessoas, caso medidas de mitigação não fossem adotadas. O modelo combinou dados de dinâmicas de populações com as estatísticas disponíveis para covid-19 até então, com projeções em diferentes cenários.
Embora o estudo do Imperial College seja útil em nível global, ele é incapaz de avaliar particularidades regionais e fazer projeções precisas para populações específicas. Nesse sentido, avaliações locais são muito importantes, explica o físico José Dias do Nascimento, professor do Departamento de Física Teórica e Experimental da Universidade Federal do Rio Grande do Norte (UFRN) e pesquisador do Centro de Astrofísica de Harvard-Smithsonian. Nascimento é um dos responsáveis pelo modelo físico matemático que tem guiado o governo do Rio Grande do Norte em suas políticas de mitigação: “O modelo surgiu como um exercício para tentarmos entender a evolução do coronavírus na China. Como os resultados eram robustos e confiáveis, as projeções, inicialmente aplicadas ao Rio Grande do Norte, foram expandidas para o Brasil”.
O modelo epidemiológico empregado pelo pesquisador é o Seir, que considera quatro grupos: S = susceptíveis, E = expostos, I = infectados e R = removidos. Nascimento explica que esse modelo é mais confiável pois no grupo dos expostos estão contemplados os assintomáticos, que no caso da covid-19 são muito importantes. “Através de equações robustas, uma grande quantidade de dados é analisada em tempo real pelo método estatístico conhecido como Monte Carlo via cadeias de Markov (MCMC)”. Os dados também são usados para alimentar diariamente a plataforma CoronavírusRN, criada em parceria com outros pesquisadores da universidade para acompanhar a disseminação da doença.
O pesquisador alerta para o uso de alguns modelos matemáticos de forma oportunista, por setores da sociedade que desejam afrouxar o isolamento. Um exemplo é a projeção feita pela Universidade de Tecnologia e Design de Singapura, que prevê o fim da pandemia entre 1° de junho e 23 de agosto. De acordo com Nascimento, esse estudo “precisa ser refutado” pois apresenta estimativas imprecisas obtidas pela utilização de um modelo epidemiológico Sir, que considera três grupos: S = susceptíveis, I = infectados e R = removidos. “Esse modelo não é adequado para covid-19 pois não considera os indivíduos assintomáticos, aquelas pessoas infectadas com potencial de transmissão”, explica o pesquisador.
Uso da inteligência artificial para diagnosticar a covid-19
A inteligência artificial tem sido uma ferramenta poderosa na triagem e pré-diagnóstico de infectados pelo Sars-CoV-2. O site CoronaBr, uma iniciativa voluntária das startups Pixit e Axonn, é uma plataforma que simula um enfermeiro virtual. Pedro faz perguntas ao usuário e analisa suas respostas, buscando padrões numa grande quantidade de dados processados. Dessa maneira ele avalia a possibilidade de o usuário estar infectado e, em caso de alta probabilidade, o orienta a buscar atendimento em uma unidade de saúde.
Segundo Flávio Machado, CEO da Pixit, “o CoronaBr foi lançado no dia 19 de março, já recebeu mais de 21 milhões de visitas e mais de 94% dos visitantes completaram o teste”. Machado explica que os assistentes virtuais são ferramentas poderosas para a interação de dispositivos com pessoas. “Agregando inteligência e neurociência, esses assistentes desempenham, de forma massiva, tarefas repetitivas que seriam humanamente inviáveis”, diz. O algoritmo foi avaliado e validado por órgãos governamentais.
Também no campo da inteligência artificial, pesquisadores do Laboratório de Big Data e Análise Preditiva em Saúde (Labdaps) da Faculdade de Saúde Pública da USP, em parceria com o Hospital Israelita Albert Einstein, testaram cinco algoritmos de aprendizado de máquina (machine learning) no diagnóstico de casos de covid-19: redes neurais, árvores impulsionadas por gradiente, florestas aleatórias, regressão logística e máquinas de vetores de suporte.
Os algoritmos tiveram acerto de 78% para diagnóstico positivo e 77% para diagnóstico negativo, conforme consta no estudo publicado no começo de abril na medRxiv, plataforma de preprints, isto é, de artigos que ainda não foram revisados por outros cientistas.
Eles são menos precisos que o teste de RT-PCR (reação em cadeia de polimerase em tempo real). Nesses, a especificidade é de quase 100% (resultado negativo em não infectados) e a sensibilidade (resultado positivo no teste em infectados) “varia de 63% a 93% de acordo com o início dos sintomas, dinâmica viral e do espécime clínico coletado”, de acordo o grupo Força Colaborativa Covid-19 no Brasil.
Ainda assim, os algoritmos são mais precisos que o teste rápido de anticorpos IgM e IgG, cuja chance de dar um falso negativo é de 75%.
No entanto, os algoritmos não substituem o teste de RT-PCR, chamado de “padrão ouro”. O que eles podem fazer, sugerem os pesquisadores, é alocar prioritariamente quem será diagnosticado por RT-PCR, em caso de escassez de testes, bem como ajudar na tomada de decisões médicas. Assim, ajudam decisões médicas num cenário em que não há testes para todo mundo e no qual o teste mais preciso demora entre 1 e 5 dias para ficar pronto.
Tratando-se de algoritmos, a questão fundamental é a quantidade de informações acumuladas. Na pesquisa do Labdaps, a amostra era composta por 235 pacientes do Hospital Albert Einstein que haviam sido testados para covid-19 com RT-PCR. Desses pacientes, 102, ou aproximadamente 40%, deram positivo. Os pesquisadores usaram 70% da amostra total para informar os algoritmos e 30% para testar sua capacidade de diagnóstico. Além disso, para treinar os algoritmos, foram usadas 15 variáveis, das quais linfócitos, leucócitos, eosinófilos, basófilos e hemoglobina tiveram respectivamente as melhores performances preditivas. Tais variáveis são obtidas por meio de exames de rotina, o que é uma vantagem para os pesquisadores.
Covid-19, tecnologia e privacidade dos dados
A combinação de medidas de proteção, como distanciamento social e uso de máscaras e de álcool em gel, com ampla testagem e tecnologia, conforme observado em países asiáticos tais como Japão e Coreia do Sul, tem se mostrado mais efetiva.
Entretanto, a estratégia também despertou preocupações com a privacidade dos dados, quer essas tecnologias sejam algoritmos de aprendizado de máquina, enfermeiros virtuais, ou aplicativos de celular que monitoram o status imunológico de uma população, assim como seus deslocamentos. Edward Snowden, conhecido por revelar o esquema de vigilância global elaborado pela Agência de Segurança Nacional dos Estados Unidos, chegou a dizer que uma “arquitetura da opressão” está sendo desenvolvida.
Por esse motivo, a Comissão Europeia, órgão executivo da União Europeia, elaborou um guia de recomendações para assegurar a total proteção de dados nos aplicativos que combatem a pandemia. Dentre as recomendações, destacam-se: a instalação do aplicativo deve ser livre e consentida; o usuário deve ter total controle sobre seus dados pessoais, os quais devem ser armazenados no aparelho do próprio usuário e encriptados; e os dados devem ser mantidos somente pelo tempo em que medidas médicas e administrativas relevantes sejam necessárias.
Por ora, tudo indica que a questão da vigilância permanecerá um desafio. Apesar disso, os modelos epidemiológicos têm desempenhado um papel chave na formulação de políticas públicas. Mas no caso da capacidade preditiva dos algoritmos, ela ainda depende de amostras mais representativas da população. E não vão substituir tão cedo a necessidade de interação humana.
“Apesar de o enfermeiro virtual ser uma ferramenta poderosa, não acredito que a interação médico-paciente possa ser substituída”, diz Machado.
Karen Canto é graduada e mestre em química pela UFRGS, doutora em ciências pela Unicamp, aluna do curso de especialização em jornalismo científico Labjor/Unicamp e bolsista Mídia Ciência (Fapesp).
Tainá Scartezini é mestranda em antropologia pela USP e cursa a especialização em jornalismo científico do Labjor/Unicamp. Desenvolve um podcast de divulgação científica de antropologia, o Selvagerias.