Editorial:

A parábola do cão digital
Carlos Vogt

Reportagens:
Governo se compromete com o SocInfo
Escolas públicas sem computadores
Realidade digital nas relações de trabalho
Internet de alta velocidade
Novas tecnologias de hardware
Certificação digital, segurança possível
Web semântica
Direitos autorais e copyleft
Hackers e crackers
Arquivos abertos e modelos de publicação
Telemedicina, aplicações para o Brasil
Artigos:
Computação ubíqua e cooperativa
Ricardo Anido

A Internet é autosustentável?
Peter Schultz

A maturidade da informação
Karma Rubio
Castells e a "era da informação"
Osvaldo Lopes
Controle social e gestão da Internet
Carlos Afonso
Jovens e computadores
Tom Dwyer
Nova Internet
Nelson Simões
Poema:
Media Watching
Carlos Vogt
 
Bibliografia
Créditos

 

 

A Internet é um sistema autosustentável?

Peter A. B. Schultz

A Internet é hoje em dia, alguns anos após o início da sua expansão além dos limites dos centros de pesquisa, o grande meio para o intercâmbio de informações, abrangendo um leque crescente de atividades e áreas do conhecimento; bem como de realização de operações, muitas das quais inimagináveis sem a intervenção humana direta há apenas dez anos. Essa diversidade do uso da Internet e da WWW (World Wide Web), seu veículo multimídia, é o tema de vários outros artigos dessa edição. Um exercício interessante para avaliar a importância da Internet sobre o cotidiano é tentar imaginar impactos similares, que os adventos das redes de energia elétrica e de telefonia devem ter causado em suas épocas iniciais.

A analogia com as redes de energia elétrica e de telefones é o ponto de partida para introduzir dois conceitos relativos à pergunta do título: sustentabilidade e vulnerabilidade dessas redes. De fato, exitem muitas semelhanças: um endereço na WWW pode ser comparado a um número disponível na lista telefônica ou a uma conexão de uma residência (localizada na rua tal, número tal) à rede de fornecimento de energia elétrica. Cada uma dessas conexões são nós de uma rede ligados a outros nós principais (subestações ou centrais telefônicas), formando o que pode ser chamado de sistema complexo. Esses sistemas funcionam bem a maior parte do tempo. Às vezes, alguns telefones ficam mudos temporariamente, o que não afeta o funcionamento do resto do sistema. Isso caracteriza a autosustentabilidade de um sistema complexo. Por outro lado, o apagão ocorrido em 21 de janeiro de 2002, devido à queda de uma linha de transmissão importante, mostra outra característica desse tipo de rede: a vulnerabilidade frente a acidentes (ou sabotagens) em seus nós ou conexões principais.

A comparação acima é, no entanto, apenas parcial, pois a coleção de "sites" e páginas da WWW, construídas a partir do conceito de hipertexto, cresce a cada instante, junto com uma modificação constante das ligações entre as páginas, sem uma coordenação central como ocorre para as redes de telefones e de energia elétrica. A WWW é, portanto, uma rede complexa, que cresce e se modifica continuamente sem um controle central! Tal sistema complexo pode crescer indefinidamente e continuar funcionando? A Internet só se justifica se as informações ou serviço que buscamos puderem ser de fato localizados e acessados. No final dos anos 80, bem antes do desaparecimento das limitações ao uso comercial da Internet (1995), tentou-se criar uma indexação do conteúdo na rede nos moldes da biblioteconomia tradicional. Esse procedimento logo mostrou-se inviável com o rápido crescimento do número de nós e páginas. Para se ter uma idéia, em junho de 1993 existiam apenas 130 "sites", enquanto que em março de 2002 esse número chegou a mais de 38 milhões! A viabilidade da Internet e do seu crescimento foi garantido pelo aparecimento dos navegadores em 1993 e mais recentemente dos programas de busca. No momento a tecnologia computacional carrega a maior parte da responsabilidade de organizar a informação na Internet. Um breve resumo dessa história da Internet pode ser encontrada na "Hobbes' Internet timeline", que disponibiliza também dados interessantes sobre o crescimento da rede.

A tecnologia de busca está longe de ser ideal. Uma pesquisa realizada em 1998 (Searching the World Wide Web, S. Lawrence e C. Lee Giles, Science vol. 280, p. 98 (1998)) mostrou que o tamanho da WWW indexável (coleção de documentos catalogados pelo cruzamento de dados disponíveis nos principais programas de busca) na época era de 320 milhões de páginas (hoje em dia são mais de 1 bilhão) , mas que o tamanho real seria muito maior e de um modo geral todas as estimativas subestimavam significativamente o número de páginas. Além disso, verificou-se que os programas de busca cobriam entre 3% e 34% da WWW indexável! Com o contínuo desenvolvimento de programas de busca inteligentes essa porcentagem tende a crescer.

O problema da busca e intercâmbio de informações na rede criou uma nova área de atuação: a engenharia de tráfego da Internet. A relevância dessa atividade é bem descrita no artigo "Internet tomography" de K. Claffy e colaboradores, que considera a infraestrutura da Internet como um "equivalente cibernético de um ecosistema" (outro sistema complexo!). De acordo com esses autores, bem como com a experiência cotidiana de qualquer usuário da Internet, "sem um monitoramento adequado e análise do comportamento do tráfego da Internet, a habilidade dessa infraestrutura de continuar crescendo e desenvolvendo completamente seu potencial poderá ser seriamente comprometida". Nesse sentido passaram a ser desenvolvidas ferramentas computacionais para fazer tomografias da rede, que constituem os passos preliminares no diagnóstico dos problemas de tráfego e estratégias de melhoria das ferramentas de busca e organização das informações contidas na WWW. Um programa interessante com esse propósito é o CAIDA, sigla para "Cooperative Association for Internet Data Analysis".

As tomografias (mapas) dos documentos na Web possibitaram aos cientistas a busca de modelos matemáticos que descrevessem a estrutura e o crescimento dessas redes. Descobriu-se que a Internet (e a WWW) pertence a uma classe de redes chamada de "redes livres de escalas" (scale-free networks). O que vem a ser esse tipo de rede? Nesse tipo de rede é estatisticamente significativa a existência de nós ("sites" ou páginas) ligados a um número muito grande de outros nós. Ao mesmo tempo, a probabilidade de encontrar nós com um dado número de conexões aumenta à medida que esse número de conexões diminui. Em resumo, a Internet possui um número pequeno (mas significativo!) de nós com um número muito grande de "links", enquanto que a grande maioria dos nós mostra um número muito pequeno desses "links". É o caso deste hipertexto, por exemplo, acessível através de uma única conexão (comciencia) e a partir do qual é possível acessar diretamente apenas 5 páginas. Uma outra maneira de dizer isso é que a conectividade da rede é não homogênea. As duas principais características de uma rede livre de escalas é que são robustas (apresentam um alto grau de tolerância frente a falhas), mas ao mesmo tempo vulneráveis. Para entender essas características precisamos definir ainda uma medida do tamanho da rede, chamada de "diâmetro da Internet". O tamanho da rede é simplesmente o número de "clicks no mouse" necessários para ir de uma página a outra qualquer na Web. Esse número seria de apenas 19 em média (Diameter of the World-Wide-Web, Barabási e colaboradores), embora o número de páginas exceda a um bilhão! Trata-se, portanto, do que chamamos de mundo pequeno, característica compartilhada pela rede de relacionamentos pessoais (Apesar de sermos mais de seis bilhões de habitantes, o número médio de elos na cadeia de "sou amigo de fulano, que conhece sicrano, que conhece beltrano" é de apenas seis relacionamentos entre quaisquer pessoas na Terra. Uma leitura complementar a essa discussão, bem como ao resto deste artigo, é o texto de divulgação Physics of the Web, de Albert-Lazlo Barabási).

O diâmetro da Internet mantém-se praticamente inalterado se 2,5% das conexões forem rompidas de forma aleatória. Isso significa que, em geral, é fácil encontrar um desvio na rede em torno de um "link" interrompido, sem para isso ter que aumentar significativamente o número de "clicks no mouse". É um pouco como se deparar com o trânsito impedido numa rua e fazer um desvio em volta do quarteirão. Esse número, 2,5%, parece pequeno, mas o importante é que é muito maior que a taxa atual de falhas de conexão na Internet, cerca de 0,33%. A rede é, portanto, robusta e altamente tolerante frente a erros aleatórios (como no caso dos telefones mudos isoladamente). A potencial má notícia, no entanto, reside na outra ponta dessa rede livre de escalas, ou seja, nos nós altamente conectados. Quando um número pequeno desses nós é desconectado (por causa de um acidente, ou mesmo uma sabotagem), a estrutura de toda a rede é modificada drasticamente e o diâmetro da mesma pode chegar a dobrar, o que pode inviabilzar a comunicação devido à sobrecarga nas demais conexões, bem como levar à fragmentação de toda a rede em pequenas sub-redes isoladas. (Ver também "The Internet Achilles' Heel", Barabási e colaboradores). Na verdade o problema pode ser mais sério ainda, como no exemplo mencionado do apagão, ocorrido devido à queda de uma única linha de transmissão.

Esses estudos sobre a estrutura (ou topologia), dinâmica de crescimento e rearranjos na presença de falhas de redes como a Web, são exemplos de "fenômenos emergentes", isto é, fenômenos que não podem ser previstos a partir das poucas regras (ou leis) básicas que regem a evolução do sistema, mas que são manifestações que surgem apenas quando esses sitemas passam a ter um determinado tamanho. No caso da Internet e da Web, as características emergentes são tais que o crescimento autosustentável é diretamente vinculado à possibilidade de colapso frente a falhas em um número pequeno de pontos estratégicos. As necessidades tecnológicas e econômicas de garantir a viabilidade da Internet levaram à disponibilidade de dados cada vez mais completos de sua estrutura, tornando-a quase um padrão para estudos fundamentais sobre sistemas complexos e seus fenômenos emergentes. Ao mesmo tempo, as questões levantadas por tais estudos de Ciência Básica são extremamente relevantes para monitorar e desenvolver a eficiência do tráfego de informações na Internet.

Peter Schulz é professor do Instituto de Física da Unicamp.

 

Atualizado em 10/04/2002

http://www.comciencia.br
contato@comciencia.br

© 2002
SBPC/Labjor
Brasil

Contador de acessos: