REVISTA ELETRÔNICA DE JORNALISMO CIENTÍFICO
Dossiê Anteriores Notícias Reportagens Especiais HumorComCiência Quem Somos
Dossiê
Editorial
Parábola do cão digital - Carlos Vogt
Reportagens
Computação cognitiva: capturando corações, mentes e paladares
Roberto Takata
Memória artificial: sobre dados, vigilantes e vigiados
Kátia Kishi
Big Data traz demandas grandes à saúde
Patrícia Santos
A arte que trafega em dados
Janaína Quitério
As novas tecnologias em uso na agricultura: integrar dados para produzir com eficiência
Carolina Medeiros
Artigos
Ciência de dados: desafio para a ciência, indústria e governo
Artur Ziviani, Fábio Porto e Eduardo Ogasawara
Big data e jornalismo: datasets, APIs, algoritmos e sensores
Walter Teixeira Lima Junior
Big data e as capacidades de gestão da informação
Antônio Carlos Gastaud Maçada, Rafael Alfonso Brinkhues, José Carlos Freitas Júnior
Representação e análise de dados espaço-temporais
Karine Reis Ferreira
O céu é dos robôs
Ana Paula Zaguetto
Resenha
Decifrando códigos
Fabiana Micaele Silva
Entrevista
Danilo Doneda
Entrevistado por Sarah Schmidt
Poema
Campeão
Carlos Vogt
Humor
HumorComCiencia
João Garcia
    Versão para impressão       Enviar por email       Compartilhar no Twitter       Compartilhar no Facebook
Reportagem
Memória artificial: sobre dados, vigilantes e vigiados
Por Kátia Kishi
10/07/2015
Já parou para pensar onde estão os milhares de dados guardados em “nuvem”? Pela influência das propagandas sobre tecnologia, a computação em nuvem é entendida, no senso comum, apenas como um novo recurso para ter as informações em qualquer lugar com acesso à internet, sem a necessidade de carregar arquivos em algum dispositivo móvel, como pen drive ou HD externo. Como se as informações estivessem “no ar”.

Assim explica Bruno de Mattos Almeida, aluno de mestrado em sociologia na Unicamp, que pesquisa sobre o tema. Ele destaca que o discurso das grandes empresas, ao apresentar o uso desse tipo de navegação, é a facilidade de compartilhamento e comunicação. No entanto, o que poucas pessoas se atentam é que tudo que acontece no ambiente da internet não está “solto no ar”, mas armazenado em um data center.

E não apenas quem voluntariamente insere conteúdo em alguma plataforma está usando computação em nuvem, mas qualquer pessoa que mantenha contas de e-mails ou redes sociais, acesse sites, blogs, faça downloads de aplicativos em um aparelho móvel ou ainda uma simples pesquisa em buscadores como o Google.

Isso acontece porque tudo o que se faz na internet, que também é física, deixa rastros, que podem ser filtrados e analisados – até mesmo uma mensagem não enviada e descartada. O professor do Centro de Informática da Universidade Federal de Pernambuco, Paulo Romero Martins Maciel, interpreta essa grande massa de dados armazenados nas várias “nuvens”, ou data centers, como o popular big data.

Big data vem se popularizando porque agora muitas empresas, e até mesmo governos, veem a importância em filtrar dados pessoais para vender mais produtos, adequados para cada público-alvo, ou apresentar novas propostas de políticas públicas. Essa é a ideia, por exemplo, das chamadas cidades inteligentes, nas quais a análise dos dados dos moradores pode ajudar a diminuir o caos do trânsito.

Para exemplificar melhor, basta entender o que acontece quando se utiliza aplicativos como o Waze, popular por permitir a comunicação entre motoristas para que se ajudem a fugir dos congestionamentos. O aplicativo também registra todos os movimentos de seus usuários, mesmo que não estejam se comunicando com outras pessoas naquele momento, ao rastreá-los com o GPS de seus aparelhos.

Isso é big data: um volume muito grande de dados que estão, a cada segundo, sendo armazenados em algum lugar físico, mesmo que seus usuários não percebam. (Para entender melhor, veja como são captados esses “rastros”, no vídeo Nerdologia).

O que são data centers?

Traduzido como “centro de dados” ou “centro de informações”, é onde todas essas informações digitais são armazenadas – queira o usuário, ou não. Os data centers são considerados os sucessores dos centros de processamento de dados dos anos 70 e 80, mas com a possibilidade de armazenar mais informações e ter vários computadores conectados.

Segundo o artigo “Construindo um data center”, publicado no dossiê sobre computação em nuvem da Revista USP (n. 97, 2013), nos últimos anos, as mudanças no setor tecnológico têm contribuído com o aperfeiçoamento dos data centers. Se antes um computador de pequeno porte tinha uma taxa máxima de transmissão de 100 megabytes por segundo, agora a taxa em um cabo de fibra ótica chega a 100 gigabytes por segundo, além de vários outros recursos que são utilizados em conjunto.

O artigo também aponta que, por consequência, para um data center não ficar obsoleto rapidamente, deve considerar sua construção em um amplo lugar para a passagem dos cabos – vide os farm servers, que seriam grandes fazendas com vários data centers de empresas tecnológicas como Google e Facebook – além de estar preparado para altas refrigerações (o que pode justificar o grande número desses centros nos países mais frios), e de energia elétrica.

Paulo Maciel também destaca que esse ramo poderia ser uma possibilidade para o Brasil, que se destaca em energia limpa. “Os grandes data-centers (farms) são consumidores significativos de energia. Portanto, a localidade e o mix energético (tipos de fontes energéticas) da região são fatores importantes para maior ou menor emissão de “pegadas” de carbono. Estima-se que os sistemas de tecnologia da informação atualmente consumam entre 2% e 3% da energia gerada nos EUA. Esse aspecto poderia ser muito bem explorado pelo Brasil, que tem uma matriz energética mais “limpa” do que a do EUA, por exemplo. Por outro lado, um dos nossos problemas é que o valor da nossa energia é mais cara do que as dos EUA”.

Bruno Almeida lembra que os grandes data centers precisam e buscam uma estabilidade política e energética para se instalarem, mas não só isso. “Sempre pensamos em empresas de tecnologia que têm data center, mas muitas outras precisam também. A maioria das informações das empresas são digitalizadas, então ou elas têm seus próprios data centers, ou alugam um”, explica.

Sobre um investimento maior em tecnologias e gerenciamento de Big Data, Ricardo Pimenta, pesquisador do Instituto Brasileiro de Informação em Ciência e Tecnologia (IBICT) do Ministério da Ciência, Tecnologia e Inovação (MCTI), aponta que o Brasil ainda está aquém de sua possibilidade política e tecnológica. “Big Data não é somente restrito ao mercado e às empresas; pois é nesse meio que vem ocorrendo maiores investimentos e mudanças. Penso que o Marco Civil da Internet é um passo, pois representa um elemento fundamental para se discutir outros. Mas ainda são necessários mais investimentos, principalmente na formação dessa mão de obra. Da mesma maneira, torna-se necessário que grandes data centers possam estar em solo brasileiro”, diz.

Vigilância X privacidade

De mesmo modo que algumas pessoas desconsideram a estrutura física quando utilizam a internet, Almeida debate outras implicações no uso, como a vigilância e gratuidade dos serviços oferecidos: “Quando uso um serviço gratuito de e-mail, ele é realmente gratuito? Não, eu estou gerando dinheiro para a empresa, estou pagando com as minhas informações. Isso é, de certo modo, a base da pirâmide que faz com que essas empresas tenham uma capacidade incrível de explorar essas informações”.

Paulo Maciel explica que essa mineração dos dados é feita por meio de uma “perfilação” das informações mais importantes. “Os sistemas mais simples avaliam o tráfego on-the-fly a procura de termos de interesse. Uma vez encontrado um termo, realizam avaliações mais específicas. Nesse caso, após um alerta, uma “lupa” é colocada sobre o conjunto de dados de interesse. Grandes agências de segurança, no entanto, têm capacidade computacional e de armazenamento para guardar o tráfego total de dados por uma janela de tempo considerável. Essas agências podem, portanto, realizar uma avaliação detalhada de todas informações transmitidas dentro do período”, explica.

Nessa mesma linha, Almeida destaca que, atualmente, é impossível a vigilância de todas as pessoas, pois é produzida mais informação do que a capacidade de avaliação de dados, mas é por meio dessa perfilação que chegam as propagandas nas redes sociais e sites de buscas. Também é dessa forma que se escolhe a pessoa que será abordada por seguranças por ser “potencialmente perigosa ou mereça ser vigiada”. “O problema é que os filtros para a classificação são tomados de acordo com a cultura, política e preconceitos de cada pessoa/empresa, uma decisão que fica na zona cinzenta de julgamentos. Enquanto a pessoa passar nos testes, ela será ignorada. Pode ser o maior ‘vilão do planeta’, mas não será vigiado, por não ter apresentado os ‘alertas’ como potencial terrorista”, exemplifica.

Questões sobre o direto à privacidade ou direito ao esquecimento, e quem tem acesso às informações que produzimos, também são suscitadas. Ricardo Pimenta, do IBICT, indica que podemos ter acesso ao que voluntariamente produzimos, mas não ao que produzem sobre nós a partir dos rastros que deixamos na nuvem, que são propriedade das empresas. “Em tese devemos ter direito ao que produzimos. No entanto, os dados e informações mantidas nos data centers de empresas privadas só estão ali, não caíram no esquecimento, no apagamento inerente a qualquer tipo de registro por vias digitais quando desligamos a tomada ou não a mantemos na memória RAM de nossas máquinas, porque essas empresas as mantêm. Elas constroem um capital com nossas informações. E esse capital é composto pelos meta-dados, novas e compostas informações que auxiliam uma diferente memória coletiva, institucional, técnica e politica, mas não mais social, sobre nós”, reflete.

Pimenta trabalha com a ideia de que Big Data representa essa memória artificial de interesse de terceiros, que poderão saber mais sobre nós que nós mesmos e lucrar, como na área de saúde, com acesso aos registros de medicamentos e exames de vários pacientes. No entanto, o pesquisador também destaca que a vigilância é anterior às tecnologias e à busca por capital das empresas, então não deve ser entendida como o “mal da era digital”. “Nós nos monitoramos desde sempre. As muitas religiões existentes no mundo sempre compartilharam, em sua grande maioria, o discurso de que Deus, ou os deuses, estariam nos vigiando. Na modernidade, apenas trocamos, ou acrescentamos, novas ferramentas. A tecnologia e a ciência nos propiciaram incrementar toda uma cultura da vigilância”.

Nessa reflexão sobre o uso das tecnologias digitais, Pimenta também destaca que o clamado “direito ao esquecimento” é uma reinterpretação do “direito de ser deixado só”, cunhado, em 1890, por Samuel Warren e Louis Brandeis, na Harvard Law Review. O problema atual, segundo o historiador, é que, ao mesmo tempo em que as pessoas exigem essa privacidade, se expõem nas redes sociais e produzem mais informações sobre elas. “Somos os responsáveis por obtermos mais de 800 “amigos” nessas redes. Perdemos a dimensão espacial e quantitativa da informação que produzimos ou compartilhamos e, obviamente, tornamo-nos objeto de desejo, ou de repúdio, por esses mesmos 800 amigos eletrônicos. Respeitar, portanto, os direitos básicos de privacidade e anonimato no ciberespaço requererá, ao meu ver, uma nova e constante atual competência em se lidar com tais tecnologias frente às práticas cotidianas. E, ainda assim, penso que tal competência não assegura a preservação da intimidade, pois ainda há o que se produz sobre nós”.

“A diferença reside na perspectiva. Estamos vigiando ou sendo vigiados? Somos nós a julgar ou a compartilhar imagens pessoais e de terceiros, ou somos nós os expostos nesse momento? Estamos todos, alguns mais, outros menos, colaborando para a “entropia informacional” no ciberespaço. E este é um ponto importante, pois quem será capaz de lidar com essa entropia? Penso que as grandes corporações capazes de lidar com Big Data, são elas que crescerão politicamente e economicamente nesse cenário”, completa Pimenta.