Por Alessandra Schwantes Marimon
Um dos desafios é tornar interação com usuários por meio de chatbots mais eficazes.
Um dos desafios da inteligência artificial (IA) é a possibilidade de computadores interagirem diretamente com humanos. Com o desenvolvimento desse campo, há a “explosão” dos chamados chatbots, programas de software que “conversam” com usuários. No dia a dia, essas ferramentas são usadas para diversos fins, como serviços de saúde, educação e comércio eletrônico.
“Chatbots podem auxiliar desde tarefas corriqueiras, como fazer uma busca por um restaurante ou garantir acessibilidade em sites, até facilitar o relacionamento com os clientes de uma empresa em redes sociais como WhatsApp, Twitter e Facebook, recepcionando uma solicitação ou reclamação e já direcionando uma solução”, explica a professora do programa de pós-graduação em informática aplicada da Universidade de Fortaleza (Unifor/CE), Vládia Pinheiro.
A professora explica que, para a área de IA, o teste de Turing pode ser considerado como um marco. Ele foi introduzido em 1950 por Alan Turing para avaliar a capacidade de uma máquina em exibir comportamento inteligente equivalente a um ser humano. “Computadores que interagissem com humanos em linguagem como português e inglês, foram uma das motivações do início da área de IA e um dos requisitos do teste de Turing. Os chatbots são, hoje, a concretização desse objetivo”, aponta.
Um negócio de robôs
Já é possível, por exemplo, pedir pizza e até solicitar um Uber utilizando um chatbot. No Brasil, alguns chatbots criados por empresas têm chamado atenção pela facilidade e rapidez no atendimento, como o robô Lú, da loja Magazine Luiza, e o Paguinho, da PagSeguro. Ainda assim, no entanto, apresentam muitas vezes respostas difusas e de pouca utilidade.
Vládia afirma que as empresas se beneficiam dessa tecnologia por “oferecerem canais de atendimento e relacionamento com clientes de forma rápida e difusa”. E, além disso, há outro ponto destacado. “Os dados de diálogos podem ser posteriormente analisados, gerando conhecimento sobre as necessidades das pessoas”, diz. Esse potencial, porém, deve acender o alerta para uma série de questionamentos sobre vigilância e privacidade de dados.
Código de utilidade pública
Os chatbots também se mostram promissores como ferramentas auxiliares para serviços que envolvem a área da educação. O professor do Instituto de Computação (IC) da Unicamp, Paulo Lício de Geus, coordenou um projeto com a participação de alunos, para criação de um chatbot da Diretoria Acadêmica (DAC) da universidade. O objetivo da ferramenta, que poderá entrar em funcionamento no primeiro semestre do ano que vem, será atender de forma rápida e eficaz as dúvidas da comunidade universitária.
De acordo com o pesquisador, a demanda surgiu em função da baixa disponibilidade de funcionários. “Isso exigiu que a DAC encontrasse alternativas para preservar sua força de trabalho e, especialmente, melhorasse o atendimento de balcão. Em caso de sucesso da ferramenta, poderia reduzir o deslocamento físico à sede da DAC”, diz. Com a implementação, não apenas mão de obra como também recursos financeiros poderiam ser economizados.
Há também chatbots politicamente engajados. A robô feminista Beta (ou Betânia) é um exemplo de ferramenta de mobilização online desenvolvida pelo Nossas, um laboratório de ativismo. Segundo o site, a Beta foi programada para captar dados dos usuários com a finalidade de permitir que enviem emails de pressão ao poder público por meio do Facebook Messenger. Algumas pautas que estão no radar da Beta são a PEC 29, que pretende proibir por completo o aborto no Brasil (inclusive nos casos em que é permitido hoje) e o projeto Escola Sem Partido, que quer proibir as expressões “gênero” e “orientação sexual” nas escolas.
Error 404
Por serem tecnologias relativamente novas, e muitas ainda em fase de experimentação, expectativas muito altas com relação aos chatbots podem gerar frustrações ainda maiores. De Geus se diz cético quanto à verdadeira utilidade dessas ferramentas, que ainda enfrentam diversos desafios para que funcionem de forma eficaz. “Na maioria das instâncias que encontrei no meu uso, chatbots são inúteis ou quase isso. Para um chatbot ser útil precisa retornar informação útil ao usuário”, comenta o professor.
Afinal de contas, a inteligência artificial ainda não é tão inteligente assim. O próprio Facebook reafirmou isso ao admitir que precisaria rever o modelo de inteligência artificial aplicado no Messenger, porque os programas não atenderam a 70% dos pedidos dos usuários. Segundo Geus, isso pode ter a ver com o “hype” que essas tecnologias recebem. “Normalmente as empresas disponibilizam as últimas ferramentas da moda, mas aparentemente não testam ou não medem resultados após algum tempo de uso, já que a inutilidade desse tipo de ferramenta é predominante”.
Quem utiliza assistentes de voz como o Google Assistente sabe bem o que é ter que repetir diversas vezes a mesma solicitação e, mesmo assim, receber a resposta “Desculpe, não consigo entender”. Ainda vai demorar um tempo até que se reduzam as experiências frustrantes. “Chatbots precisam ser monitorados caso utilizem técnicas de AI, pois sua melhora constante (aprendizado) depende muito de algumas dicas do supervisor humano, que referenda ou não decisões tomadas pelo motor de IA”, afirma Geus.
No entanto, quando a implementação é eficaz e com um objetivo claro, o pesquisador afirma que chatbots trazem benefícios, mesmo que não sejam capazes de entender todos os tipos de perguntas. “O chatbot pode diminuir muito o tempo de dirimir as dúvidas dos usuários, que, em caso contrário, teriam que se valer dos mecanismos convencionais: ligar para a central da organização para falar com alguém após teclar várias opções demoradas no call center, ou procurar nos serviços de busca pela informação desejada e eficaz no meio das respostas etc”.
Consequências mais graves
Nem só de falhas operacionais aparentemente inofensivas vive a inteligência artificial. Experimentos com chatbots também podem ter graves consequências, que colocam em jogo questões éticas e de direitos humanos. Foi o que aconteceu com a Tay, uma robô lançada no Twitter em 2016 pela Microsoft para conversar em tempo real com os usuários e soar como uma adolescente millennial. Com dados cedidos por determinados grupos de pessoas, ela acabou “aprendendo”, por exemplo, a odiar o feminismo e a amar Hitler. Horas depois, a empresa decidiu desativá-la permanentemente.
Para evitar que os sistemas de inteligência artificial não sejam “enviesados” ao tomar decisões, recomendar ou filtrar dados, a professora Vládia, da Universidade de Fortaleza, chama atenção para a necessidade de garantir que essas ferramentas atendam aos requisitos de FAT (fairness, accountability, transparency – ou justiça, responsabilidade, transparência). “Aí reside o maior desafio da área hoje: se o conhecimento do mundo tem preconceito, como fazer com que os sistemas de IA aprendam sem esse viés, e que possam, pelo menos, atender a critérios de justiça e responsabilidade na tomada de decisão?”.
Segundo ela, no contexto dos chatbots o obstáculo é ainda maior. “Em situações de diálogo online, atitudes discriminatórias contra questões de gênero, raça ou qualquer opção de vida são mais críticas e evidentes. Para além das questões de segurança, ainda precisamos entender como o processo de aprendizagem dos sistemas pode identificar essas situações e, dessa forma, dirimir os riscos”. Assim, a complexidade dos sistemas de IA pedem ainda – e por um bom tempo – constantes interferências humanas para resolver problemas.
Alessandra Schwantes Marimon é mestranda em divulgação científica e cultural (Labjor/Unicamp) e bolsista Mídia Ciência (Fapesp)