Por Michael Jordan
Precisamos compreender que o atual diálogo público sobre inteligência artificial (IA) — que se concentra em um estrito subconjunto da indústria e um estreito subconjunto da academia — corre o risco de nos cegar para os desafios e oportunidades que são apresentados pelo escopo total de IA, aumento de inteligência (AI) e infraestrutura inteligente (II). Traduzido do original “Artificial intelligence – The revolution hasn’t happened yet”, publicado em 19 de abril de 2018, por Amin Simaika.
A inteligência artificial (IA) é o mantra da era atual. A expressão é proferida igualmente por especialistas em tecnologia, acadêmicos, jornalistas e investidores. Assim como muitas expressões que migram dos campos técnicos e acadêmicos para a circulação geral, o uso da expressão é acompanhado por bastante compreensão errada. Mas esse não é o caso clássico do público que não entende os cientistas; neste caso, são os cientistas que, com frequência, estão tão atônitos quanto o público. A ideia que a nossa era está, de alguma forma, testemunhando o surgimento de uma inteligência em silício que rivaliza com a nossa própria inteligência entretém a todos nós — fascinando-nos e assustando em igual medida. E, infelizmente, isso desvia nossa atenção.
Há uma narrativa diferente que se pode contar sobre a era atual. Considere a seguinte história, que envolve seres humanos, computadores, dados e decisões de vida ou morte, mas onde o foco é alguma coisa diferente das fantasias de inteligência em silício. Quando minha mulher estava grávida, há 14 anos, fizemos um exame de ultrassom. Havia uma geneticista na sala e ela apontou alguns pontos brancos em torno do coração do feto. “São marcadores de síndrome de Down”, observou, “e agora o seu risco subiu para 1 em 20”. Ela também nos informou que poderíamos saber se realmente o feto tinha a modificação genética correspondente à síndrome de Down através de uma amniocentese. Mas a amniocentese era arriscada — o risco de matar o feto durante o procedimento era de aproximadamente 1 em 300. Sendo estatístico, decidi descobrir de onde provinham tais números. Para encurtar a história, descobri que, no Reino Unido, dez anos antes, havia sido realizada uma análise estatística em que esses pontos brancos, que refletem o acúmulo de cálcio, foram realmente estabelecidos como indicadores da síndrome de Down. Mas eu também notei que o aparelho de imagem usado em nosso teste tinha algumas centenas de pixels a mais por cm² do que o aparelho usado no estudo no Reino Unido. Voltei à geneticista e disse a ela que acreditava que os pontos brancos tinham probabilidade de serem falsos positivos — que eram, literalmente, “ruído branco”. E ela respondeu: “Ah, isso explica por que começamos a ver um aumento nos diagnósticos de síndrome de Down alguns anos atrás. Foi quando chegou o aparelho novo.”
Não fizemos a amniocentese e nasceu uma menininha saudável alguns meses depois. Mas o episódio me perturbou, especialmente depois que um cálculo rápido me convenceu de que muitas milhares de pessoas tinham recebido esse diagnóstico no mesmo dia em todo o mundo, que muitas delas haviam optado por amniocentese e que alguns bebês haviam morrido desnecessariamente. E isso continuou acontecendo dia após dia até que, de alguma maneira, o problema foi resolvido. O problema que esse episódio revelou não tinha a ver com meus cuidados médicos individuais. Ele se referia a um sistema médico que media variáveis e resultados em vários lugares e épocas, realizava análises estatísticas e fazia uso dos resultados em outros lugares e épocas. O problema tinha a ver não apenas com a análise dos dados em si, mas com o que os pesquisadores de bancos de dados chamam de “procedência” — em sentido amplo, de onde surgiram os dados, que inferências foram extraídas dos dados e quão relevantes são essas inferências para a situação presente. Embora um ser humano treinado possa conseguir calcular tudo isso na base do caso a caso, a questão era projetar um sistema médico em escala planetária que pudesse fazer isso sem necessidade de supervisão humana tão detalhada.
Eu também sou cientista da computação, e me ocorreu que os princípios necessários para construir sistemas de inferência e decisão em escala planetária desse tipo, mesclando ciência da computação com estatística e levando em conta utilidades humanas, estavam ausentes de minha educação. Também me ocorreu que o desenvolvimento de tais princípios — que serão necessários não apenas na área médica, mas também em áreas como comércio, transportes e educação — era pelo menos tão importante quanto os da construção de sistemas de inteligência artificial (IA) que podem nos maravilhar com suas habilidades de jogar jogos ou habilidades sensório-motoras.
Independentemente de chegarmos ou não a entender “inteligência” a qualquer momento em breve, com certeza temos um grande desafio em nossas mãos para reunir computadores e humanos de forma a melhorar a vida humana. Embora esse desafio seja visto por algumas pessoas como subordinado à criação de “inteligência artificial”, também pode ser encarado de maneira mais prosaica — mas com a mesma reverência — como a criação de um novo ramo da engenharia. Assim como a engenharia civil e a engenharia química de décadas passadas, essa nova disciplina pretende captar o poder de algumas poucas ideias principais, trazendo novos recursos e capacidades para as pessoas e fazendo isso com segurança. Ao passo que a engenharia civil e a engenharia química se construíram sobre física e química, essa nova disciplina de engenharia será construída sobre ideias às quais o século passado deu substância — ideias tais como “informação”, “algoritmo”, “dados”, “incerteza”, “computação”, “inferência” e “otimização”. Além disso, como uma grande parte do foco da nova disciplina se concentrará em dados de/sobre os seres humanos, seu desenvolvimento exigirá perspectivas de ciência sociais e humanidades.
Embora os blocos construtivos tenham começado a despontar, os princípios para unir esses blocos ainda não surgiram, e assim os blocos estão atualmente sendo reunidos de forma aleatória.
Dessa forma, assim como os seres humanos construíram edificações e pontes antes de haver engenharia civil, agora eles estão progredindo na construção de sistemas em escala social de inferência e de tomada de decisão, sendo que tais sistemas envolvem máquinas, humanos e o ambiente. Assim como os primeiros edifícios e pontes às vezes caíam — de formas imprevistas e com consequências trágicas — muitos de nossos sistemas de escala social de inferência e tomada de decisão já estão expondo graves falhas conceituais.
E, infelizmente, não somos muito bons em prever qual será a próxima falha grave que surgirá. O que nos falta é uma disciplina de engenharia com seus princípios de análise e projeto.
IA como coringa conceitual
O atual diálogo público sobre essas questões usa com demasiada frequência a “inteligência artificial” como um coringa intelectual, um coringa que torna difícil raciocinar sobre o escopo e consequências da tecnologia emergente. Vamos começar considerando com maior cuidado o que a “IA” tem sido usada para se referir, tanto recentemente como historicamente.
A maior parte do que está sendo chamado de “IA” hoje em dia, especialmente na esfera pública, é o que se chamava de “aprendizado de máquina” (AM) nas últimas décadas. O AM é um campo algorítmico que mescla ideias de estatística, ciência da computação e muitas outras disciplinas para projetar algoritmos que processam dados, fazem previsões e ajudam a tomar decisões. Em termos de impacto sobre o mundo real, o AM é uma coisa concreta, e não apenas recentemente. Na realidade, já estava claro no início dos anos 1990 que o AM adquiriria maciça relevância industrial, e, na virada do século, as empresas com visão de futuro tais como a Amazon já estavam usando AM em todos os seus negócios, resolvendo problemas de suporte (críticos para a missão), para detecção de fraude e previsão da cadeia de suprimento e construindo serviços inovadores voltados para os consumidores tais como sistemas de recomendação. À medida que as bases de dados e recursos de computação foram crescendo rapidamente ao longo das duas décadas seguintes, ficou claro que o AM logo alimentaria não somente a Amazon, mas essencialmente qualquer empresa na qual as decisões pudessem depender de dados de larga escala. Surgiriam novos modelos de negócios. A expressão “ciência de dados” começou a ser empregada com referência a esse fenômeno, refletindo a necessidade dos especialistas em algoritmos de AM entrarem em parceria com especialistas em sistemas distribuídos e bases de dados para construir sistemas de AM escaláveis e robustos e refletindo o escopo social e ambiental mais amplo dos sistemas resultantes.
Essa confluência de ideias e tendências de tecnologia foi renomeada como IA nos últimos anos. Essa mudança de nome merece ser examinada minuciosamente.
Historicamente, a expressão IA foi cunhada no fim da década de 1950 para se referir à aspiração audaciosa de realizar em software e em hardware uma entidade que possuísse inteligência no nível humano. Usaremos a expressão “IA imitativa de humanos” para nos referir a essa aspiração, enfatizando a noção que a entidade artificialmente inteligente deveria se parecer com um de nós, se não fisicamente, pelo menos mentalmente (seja lá o que isso queira dizer). Em grande parte, isso era um empreendimento acadêmico. Embora já existissem campos acadêmicos como pesquisa de operações, reconhecimento de padrões, teoria da informática e teoria de controle, e com frequência fossem inspirados pela inteligência humana (e inteligência animal), essas áreas provavelmente se concentravam em sinais e decisões de “nível inferior”. A capacidade de, digamos, um esquilo perceber a estrutura tridimensional da floresta em que vive e saltar entre galhos, era inspiradora para esses campos. A IA destinava-se a se concentrar em algo diferente — a capacidade de “nível superior” ou capacidade “cognitiva” dos humanos “raciocinarem” e “pensarem”. Sessenta anos mais tarde, no entanto, o raciocínio e o pensamento de nível superior permanecem inatingíveis. Os desenvolvimentos que agora estão sendo chamados de “IA” surgiram em sua maioria nas áreas de engenharia associadas ao reconhecimento de padrões e controle de movimentos de nível inferior e no campo da estatística — a disciplina se concentrava em encontrar padrões em dados e em fazer previsões bem fundamentadas, testes de hipóteses e decisões.
Realmente, o famoso algoritmo de “retropropagação” que foi descoberto por David Rumelhart no início da década de 1980 e que agora é encarado como estando no centro da chamada “revolução de IA” surgiu primeiro no campo da teoria de controle nas décadas de 1950 e 1960. Uma de suas primeiras aplicações foi otimizar o empuxo das naves Apolo conforme se dirigiam à lua.
Desde a década de 1960 foi feito muito progresso. No entanto, tal progresso provavelmente não proveio da busca de IA imitativa de humanos. Em vez disso, como no caso das naves espaciais Apolo, muitas vezes essas ideias ficaram ocultas nos bastidores, tendo sido o trabalho manual de pesquisadores focados em desafios específicos de engenharia. Embora não visíveis para o público em geral, a pesquisa e a construção de sistemas em áreas como recuperação de documentos, classificação de textos, detecção de fraudes, sistemas de recomendação, busca personalizada, análise de redes sociais, planejamento, diagnósticos e testes A/B de comparação têm sido um grande êxito — são os avanços que alimentam empresas como Google, Netflix, Facebook e Amazon.
Pode-se simplesmente concordar em se referir a tudo isso como IA e, na realidade, é isso que parece ter acontecido. Tal rotulagem pode ser uma surpresa para os pesquisadores de otimização ou de estatística, que acordam um dia e se vêem de repente mencionados como “pesquisadores de IA”. Porém, deixando de lado a rotulagem de pesquisadores, o problema maior é que o uso desse acrônimo único, mal definido, impede um entendimento claro da gama de questões intelectuais e comerciais em jogo.
Da IA para ampliação de inteligência (AI) e infraestrutura inteligente (II)
As duas últimas décadas testemunharam grande progresso — na indústria e nos meios acadêmicos — em uma aspiração complementar para a IA imitativa de humanos que, com frequência, é chamada de “ampliação da inteligência” (AI). Aqui a computação e os dados são usados para criar serviços que ampliam a inteligência e a criatividade humanas. Uma ferramenta de busca pode ser vista como exemplo de AI (ela aumenta a memória humana e o conhecimento factual), assim como a tradução de idioma natural (aumenta a capacidade de comunicação de um ser humano). A geração de sons e imagens baseada em computação serve como paleta e intensificador de criatividade para artistas. Embora serviços desse tipo pudessem, em conceito, envolver raciocínio e pensamento de alto nível, atualmente eles não o fazem — na maior parte, executam vários tipos de operações de correspondência de cadeia e numéricas que captam padrões que os humanos podem utilizar.
Na esperança que o(a) leitor(a) ainda tolere um último acrônimo, vamos conceber em termos amplos uma disciplina de “infraestrutura inteligente” (II), através da qual existe uma rede de computação, dados e entidades físicas que torna os ambientes humanos mais solidários, interessantes e seguros. Tal infraestrutura está começando a aparecer em áreas tais como transporte, medicina, comércio e finanças com vastas implicações para os seres humanos individualmente e para as sociedades. Esse aparecimento surge às vezes em conversas sobre uma “internet das coisas”. Porém, tal esforço geralmente se refere ao mero problema de colocar “coisas” na internet – não se refere ao conjunto muito superior de desafios associados a essas “coisas”, capaz de analisar essas cadeias de dados para descobrir fatos sobre o mundo e interagir com os seres humanos e outras “coisas” em um nível muito mais elevado de abstração do que meros bits.
Por exemplo, voltando ao meu caso pessoal, poderíamos imaginar viver nossas vidas em um “sistema médico em escala social” que estabelece fluxos de dados e fluxos de análise de dados entre médicos e dispositivos posicionados dentro do corpo humano ou em torno do corpo, conseguindo assim ajudar a inteligência humana a fazer diagnósticos e prover tratamentos. O sistema incorporaria informações de células do corpo, DNA, exames de sangue, ambiente, genética populacional e a vasta literatura científica sobre drogas e tratamentos. Não se concentraria apenas em um único paciente e um médico, mas nas relações entre todos os seres humanos — exatamente da mesma maneira como os exames médicos atuais permitem que experimentos feitos em um conjunto de seres humanos (ou animais) sejam estendidos aos tratamentos de outros humanos. Ajudaria a manter noções de relevância, proveniência e confiabilidade de forma semelhante ao atual sistema bancário, que se concentra em tais desafios na área de finanças e pagamentos. E, embora se possa prever o surgimento de muitos problemas nesse sistema — envolvendo questões de privacidade, questões de confiabilidade, questões de segurança etc. — esses problemas devem ser devidamente enxergados como desafios, não como empecilhos.
Agora chegamos a uma questão crítica: será que trabalhar com a IA imitativa de humanos clássica é a melhor forma ou a única forma de focar nesses desafios maiores? Algumas das recentes histórias exitosas de AM mais alardeadas se deram, na realidade, em áreas associadas à IA imitativa de humanos — áreas como visão por computador, reconhecimento de fala, jogos e robótica. Então, talvez devêssemos simplesmente esperar mais progresso em áreas como essas. Há duas questões aqui. Em primeiro lugar, embora apenas pela leitura de jornais não se consiga saber, o sucesso na IA imitativa de humanos, na verdade, tem sido limitado — estamos muito longe de concretizar as aspirações da IA imitativa de humanos. Infelizmente a adrenalina (e o medo) de fazer até mesmo um progresso limitado em IA imitativa de humanos dá origem a níveis excessivos de atenção da mídia (e exuberância nas reportagens) que não estão presentes em outras áreas da engenharia.
Em segundo lugar e ainda mais importante, o êxito nessas áreas não é nem suficiente nem necessário para resolver problemas importantes de IA e de II. Quanto à suficiência, vamos pensar nos carros sem motorista. Para se realizar tal tecnologia, uma gama de problemas de engenharia precisarão ser resolvidos e eles podem ter pouca relação com as competências humanas (ou falta de competências humanas). O sistema geral de transporte (um sistema de II) provavelmente se parecerá mais com o atual sistema de controle de tráfego aéreo do que a atual coleção de condutores humanos mal preparados, olhando para frente e distraídos. Será muito mais complexo do que o atual sistema de controle de tráfego aéreo, especificamente em seu uso de enormes quantias de dados e modelagem estatística adaptativa para informar decisões minuciosas. São esses desafios que precisam estar na linha de frente, e, nesse caso, um esforço no foco em IA imitativa de humanos poderia representar um desvio da atenção.
Quanto ao argumento da necessidade, algumas vezes se alega que a aspiração da IA imitativa de humanos inclui as aspirações de IA e de II, porque o sistema da IA imitativa de humanos não apenas seria capaz de resolver os problemas clássicos de IA (como integrados, por exemplo, no teste de Turing), mas também seria nossa melhor aposta para resolver os problemas de IA e de II. Tal argumento tem poucos precedentes históricos. A engenharia civil se desenvolveu imaginando-se a criação de um carpinteiro ou pedreiro artificial? A engenharia química deveria ter sido pensada em termos de criação de um químico artificial? E de modo ainda mais polêmico: se nossa meta era construir fábricas químicas, deveríamos ter primeiro criado um químico artificial que teria então calculado como construir uma fábrica química?
Um argumento relacionado é que a inteligência humana é o único tipo de inteligência que conhecemos e que deveríamos pretender imitá-la como um primeiro passo. Mas os seres humanos, na verdade, não são muito bons em alguns tipos de raciocínio — temos nossos lapsos, inclinações e limitações. Além disso, criticamente, não evoluímos para realizar os tipos de tomadas de decisões em grande escala que os sistemas modernos de II devem enfrentar, nem para lidar com os tipos de incerteza que surgem nos contextos de II. Alguém poderia argumentar que um sistema de IA não apenas limitaria a inteligência humana, mas também a “corrigiria”. Mas agora estamos no campo da ficção cientifica — esses argumentos especulativos, embora sejam divertidos no contexto da ficção, não devem ser nossa estratégia principal para seguir em frente em face dos problemas críticos de IA e de II que estão começando a surgir. Precisamos solucionar os problemas de IA e de II conforme seus próprios méritos, e não como um mero corolário para uma agenda de IA imitativa de humanos.
Não é difícil apontar desafios algorítmicos e de infraestrutura nos sistemas de II que não são temas centrais na pesquisa de IA imitativa de humanos. Os sistemas de II exigem a capacidade de gerenciar repositórios distribuídos de conhecimento que estão mudando rapidamente e têm probabilidade de ser globalmente incoerentes. Tais sistemas devem lidar com interações de borda de nuvem ao tomar decisões pontuais e distribuídas e precisam lidar com fenômenos de cauda longa em que há muitos dados sobre alguns indivíduos e poucos dados sobre a maioria dos indivíduos. Devem tratar das dificuldades de compartilhar dados entre fronteiras administrativas e competitivas. Por último, e de particular importância, os sistemas de II devem trazer ideias econômicas tais como incentivos e precificação para o campo das infraestruturas estatísticas e computacionais que unem os humanos uns aos outros e a bens valiosos. Tais sistemas de II podem ser vistos como não meramente oferecendo um serviço, mas como criando mercados. Há campos como a música, literatura e jornalismo que estão ansiando pelo surgimento de tais mercados em que a análise de dados vincula produtores e consumidores. E tudo isso deve ser feito dentro do contexto em evolução de normas sociais, éticas e legais.
Logicamente, os problemas com a IA imitativa de humanos permanecem de grande interesse também. No entanto, o atual foco em fazer pesquisa de IA através de coleta de dados, implantação de infraestrutura de “aprendizado profundo” e demonstração de sistemas que imitam certas habilidades humanas estritamente definidas — com pouca coisa indicando princípios explanatórios emergentes — tende a retirar do foco importantes problemas abertos em IA clássica. Esses problemas incluem a necessidade de trazer significado e raciocínio para sistemas que realizam processamento de linguagem natural, a necessidade de inferir e representar causalidade, a necessidade de elaborar representações de incerteza computacionalmente fáceis de controlar e a necessidade de elaborar sistemas que formulem e sigam metas de longo prazo. Essas são metas clássicas em IA imitativa de humanos, mas no atual rebuliço sobre a “revolução de IA” é fácil esquecer que ainda não foram resolvidas.
A IA também continuará bastante essencial porque, para o futuro previsível, os computadores não conseguirão igualar os humanos em sua capacidade de raciocinar abstratamente sobre situações do mundo real. Precisaremos de interações bem pensadas entre humanos e computadores para resolver nossos problemas mais prementes. E vamos querer que os computadores desencadeiem novos níveis de criatividade humana, não que substituam a criatividade humana (seja lá o que isso possa significar).
Foi John McCarthy (enquanto era professor em Dartmouth e logo assumiria um cargo no Instituto de Tecnologia de Massachusetts, MIT) que cunhou o termo IA, aparentemente para distinguir sua agenda florescente de pesquisa daquela empreendida por Norbert Wiener (na época um professor mais antigo do MIT). Wiener havia cunhado o termo “cibernética” para se referir à sua própria visão de sistemas inteligentes — uma visão que estava vinculada de perto a pesquisa de operações, estatística, reconhecimento de padrões, teoria da informação e teoria de controle. Por outro lado, McCarthy enfatizou os vínculos com a lógica. Em uma reviravolta interessante, foi a agenda intelectual de Wiener que veio a dominar na atual época, sob a bandeira da terminologia de McCarthy. (Entretanto, esse estado de coisas é, com certeza, apenas temporário; o pêndulo balança mais para a área de IA do que para a maioria das áreas).
Mas precisamos ir além das perspectivas históricas particulares de McCarthy e Wiener.
Precisamos compreender que o atual diálogo público sobre IA — que se concentra em um estrito subconjunto de indústria e um estreito subconjunto de meios acadêmicos — corre o risco de nos cegar para os desafios e oportunidades que são apresentados pelo escopo total de IA, AI e II.
Esse escopo relaciona-se menos com a realização de sonhos de ficção cientifica, ou pesadelos de máquinas super-humanas, e mais à necessidade que os humanos têm de entender e moldar a tecnologia à medida que ela se torna cada vez mais presente e influente em suas vidas diárias. Além disso, nesse processo de entender e moldar, há necessidade de um conjunto diverso de vozes de todas as esferas da vida, não meramente um diálogo entre os tecnologicamente antenados. O foco estrito na IA imitativa de humanos evita que se ouça uma gama de vozes adequadamente ampla.
Enquanto a indústria continuará a gerar muitos desenvolvimentos, os meios acadêmicos também continuarão a ter um papel essencial não somente fornecendo algumas das ideias técnicas mais inovadoras mas também agrupando pesquisadores das disciplinas de computação e estatística com pesquisadores de outras disciplinas cujas contribuições e perspectivas são extremamente necessárias — em especial as ciências sociais, as ciências cognitivas e as humanidades.
Por outro lado, embora humanidades e ciências sejam essenciais à medida que seguimos em frente, também não devemos fingir que estamos falando sobre outra coisa que não um esforço de engenharia de escala e escopo nunca vistos — a sociedade está pretendendo construir novos tipos de artefatos. Tais artefatos devem ser construídos de forma que funcionem como se proclama. Não queremos construir sistemas que nos ajudem com tratamentos médicos, opções de transporte e oportunidades comerciais para descobrir, após o fato ocorrido, que esses sistemas na realidade não funcionam — que cometem erros que cobram seu custo em termos de vidas humanas e felicidade. Nesse sentido, como eu enfatizei, há uma disciplina de engenharia que ainda vai surgir para as áreas focadas em dados e em aprendizado. Por mais empolgantes que essas últimas áreas possam parecer, elas ainda não podem ser encaradas como tendo constituído uma disciplina de engenharia.
Além disso, precisamos aceitar o fato que o que estamos testemunhando é a criação de um novo ramo da engenharia. O termo “engenharia” frequentemente é invocado em um sentido estrito — nos meios acadêmicos e além — com conotações de maquinário frio, sem reações, e conotações negativas de perda de controle pelos humanos. Mas uma disciplina de engenharia pode ser o que queremos que seja.
Na época atual, termos uma oportunidade real de conceber algo historicamente novo —uma disciplina de engenharia centrada no ser humano.
Eu resistirei a dar um nome a essa disciplina emergente, mas se o acrônimo IA continuar a ser usado como nomenclatura substituta, precisamos ter consciência das limitações muito reais desse substituto. Vamos ampliar nosso escopo, reduzir o exagero da propaganda e reconhecer os graves desafios à frente.
Michael I. Jordan é professor de ciência da computação e estatística na Universidade da Califórnia, Berkeley. Trabalhou mais de três décadas com ciências computacionais, inferenciais, cognitivas e biológicas, primeiro como aluno de graduação na UC, San Diego e depois como membro docente no MIT e em Berkeley.
crédito da foto: Peg Skorpinski