A
Internet é um sistema autosustentável?
Peter
A. B. Schultz
A
Internet é hoje em dia, alguns anos após o início
da sua expansão além dos limites dos centros de pesquisa,
o grande meio para o intercâmbio de informações,
abrangendo um leque crescente de atividades e áreas do conhecimento;
bem como de realização de operações,
muitas das quais inimagináveis sem a intervenção
humana direta há apenas dez anos. Essa diversidade do uso
da Internet e da WWW (World Wide Web), seu veículo multimídia,
é o tema de vários outros artigos dessa edição.
Um exercício interessante para avaliar a importância
da Internet sobre o cotidiano é tentar imaginar impactos
similares, que os adventos das redes de energia elétrica
e de telefonia devem ter causado em suas épocas iniciais.
A analogia
com as redes de energia elétrica e de telefones é
o ponto de partida para introduzir dois conceitos relativos à
pergunta do título: sustentabilidade e vulnerabilidade dessas
redes. De fato, exitem muitas semelhanças: um endereço
na WWW pode ser comparado a um número disponível na
lista telefônica ou a uma conexão de uma residência
(localizada na rua tal, número tal) à rede de fornecimento
de energia elétrica. Cada uma dessas conexões são
nós de uma rede ligados a outros nós principais (subestações
ou centrais telefônicas), formando o que pode ser chamado
de sistema complexo. Esses sistemas funcionam bem a maior parte
do tempo. Às vezes, alguns telefones ficam mudos temporariamente,
o que não afeta o funcionamento do resto do sistema. Isso
caracteriza a autosustentabilidade de um sistema complexo.
Por outro lado, o apagão ocorrido em 21 de janeiro de 2002,
devido à queda de uma linha de transmissão importante,
mostra outra característica desse tipo de rede: a vulnerabilidade
frente a acidentes (ou sabotagens) em seus nós ou conexões
principais.
A comparação
acima é, no entanto, apenas parcial, pois a coleção
de "sites" e páginas da WWW, construídas
a partir do conceito de hipertexto, cresce a cada instante, junto
com uma modificação constante das ligações
entre as páginas, sem uma coordenação central
como ocorre para as redes de telefones e de energia elétrica.
A WWW é, portanto, uma rede complexa, que cresce e se modifica
continuamente sem um controle central! Tal sistema complexo pode
crescer indefinidamente e continuar funcionando? A Internet só
se justifica se as informações ou serviço que
buscamos puderem ser de fato localizados e acessados. No final dos
anos 80, bem antes do desaparecimento das limitações
ao uso comercial da Internet (1995), tentou-se criar uma indexação
do conteúdo na rede nos moldes da biblioteconomia tradicional.
Esse procedimento logo mostrou-se inviável com o rápido
crescimento do número de nós e páginas. Para
se ter uma idéia, em junho de 1993 existiam apenas 130 "sites",
enquanto que em março de 2002 esse número chegou a
mais de 38 milhões! A viabilidade da Internet e do seu crescimento
foi garantido pelo aparecimento dos navegadores em 1993 e mais recentemente
dos programas de busca. No momento a tecnologia computacional carrega
a maior parte da responsabilidade de organizar a informação
na Internet. Um breve resumo dessa história da Internet pode
ser encontrada na "Hobbes'
Internet timeline", que disponibiliza também dados
interessantes sobre o crescimento da rede.
A tecnologia
de busca está longe de ser ideal. Uma pesquisa realizada
em 1998 (Searching the World Wide Web, S. Lawrence e C. Lee Giles,
Science vol. 280, p. 98 (1998)) mostrou que o tamanho da WWW indexável
(coleção de documentos catalogados pelo cruzamento
de dados disponíveis nos principais programas de busca) na
época era de 320 milhões de páginas (hoje
em dia são mais de 1 bilhão) , mas que o tamanho real
seria muito maior e de um modo geral todas as estimativas subestimavam
significativamente o número de páginas. Além
disso, verificou-se que os programas de busca cobriam entre 3% e
34% da WWW indexável! Com o contínuo desenvolvimento
de programas de busca inteligentes essa porcentagem tende a crescer.
O problema
da busca e intercâmbio de informações na rede
criou uma nova área de atuação: a engenharia
de tráfego da Internet. A relevância dessa atividade
é bem descrita no artigo "Internet
tomography" de K. Claffy e colaboradores, que considera
a infraestrutura da Internet como um "equivalente cibernético
de um ecosistema" (outro sistema complexo!). De acordo com
esses autores, bem como com a experiência cotidiana de qualquer
usuário da Internet, "sem um monitoramento adequado
e análise do comportamento do tráfego da Internet,
a habilidade dessa infraestrutura de continuar crescendo e desenvolvendo
completamente seu potencial poderá ser seriamente comprometida".
Nesse sentido passaram a ser desenvolvidas ferramentas computacionais
para fazer tomografias da rede, que constituem os passos preliminares
no diagnóstico dos problemas de tráfego e estratégias
de melhoria das ferramentas de busca e organização
das informações contidas na WWW. Um programa interessante
com esse propósito é o CAIDA,
sigla para "Cooperative Association for Internet Data Analysis".
As
tomografias (mapas) dos documentos na Web possibitaram aos cientistas
a busca de modelos matemáticos que descrevessem a estrutura
e o crescimento dessas redes. Descobriu-se que a Internet (e a
WWW) pertence a uma classe de redes chamada de "redes livres
de escalas" (scale-free networks). O que vem a ser esse tipo
de rede? Nesse tipo de rede é estatisticamente significativa
a existência de nós ("sites" ou páginas) ligados a um número muito grande de outros nós.
Ao mesmo tempo, a probabilidade de encontrar nós com um dado
número de conexões aumenta à medida que esse
número de conexões diminui. Em resumo, a Internet
possui um número pequeno (mas significativo!) de nós
com um número muito grande de "links", enquanto
que a grande maioria dos nós mostra um número muito
pequeno desses "links". É o caso deste hipertexto,
por exemplo, acessível através de uma única
conexão (comciencia) e a partir do qual é possível
acessar diretamente apenas 5 páginas. Uma outra maneira de
dizer isso é que a conectividade da rede é não
homogênea. As duas principais características de uma
rede livre de escalas é que são robustas (apresentam
um alto grau de tolerância frente a falhas), mas ao mesmo
tempo vulneráveis. Para entender essas características
precisamos definir ainda uma medida do tamanho da rede, chamada
de "diâmetro da Internet". O tamanho da rede é
simplesmente o número de "clicks no mouse" necessários
para ir de uma página a outra qualquer na Web. Esse número
seria de apenas 19 em média (Diameter
of the World-Wide-Web, Barabási e colaboradores), embora
o número de páginas exceda a um bilhão! Trata-se,
portanto, do que chamamos de mundo pequeno, característica
compartilhada pela rede de relacionamentos pessoais (Apesar de sermos
mais de seis bilhões de habitantes, o número médio
de elos na cadeia de "sou amigo de fulano, que conhece sicrano,
que conhece beltrano" é de apenas seis relacionamentos
entre quaisquer pessoas na Terra. Uma leitura complementar a essa
discussão, bem como ao resto deste artigo, é o texto
de divulgação Physics
of the Web, de Albert-Lazlo Barabási).
O diâmetro
da Internet mantém-se praticamente inalterado se 2,5% das
conexões forem rompidas de forma aleatória. Isso significa
que, em geral, é fácil encontrar um desvio na rede
em torno de um "link" interrompido, sem para isso ter
que aumentar significativamente o número de "clicks
no mouse". É um pouco como se deparar com o trânsito
impedido numa rua e fazer um desvio em volta do quarteirão.
Esse número, 2,5%, parece pequeno, mas o importante é
que é muito maior que a taxa atual de falhas de conexão
na Internet, cerca de 0,33%. A rede é, portanto, robusta
e altamente tolerante frente a erros aleatórios (como no
caso dos telefones mudos isoladamente). A potencial má notícia,
no entanto, reside na outra ponta dessa rede livre de escalas, ou
seja, nos nós altamente conectados. Quando um número
pequeno desses nós é desconectado (por causa de um
acidente, ou mesmo uma sabotagem), a estrutura de toda a rede é
modificada drasticamente e o diâmetro da mesma pode chegar
a dobrar, o que pode inviabilzar a comunicação devido
à sobrecarga nas demais conexões, bem como levar à
fragmentação de toda a rede em pequenas sub-redes
isoladas. (Ver também "The
Internet Achilles' Heel", Barabási e colaboradores).
Na verdade o problema pode ser mais sério ainda, como no
exemplo mencionado do apagão, ocorrido devido à queda
de uma única linha de transmissão.
Esses
estudos sobre a estrutura (ou topologia), dinâmica de crescimento
e rearranjos na presença de falhas de redes como a Web, são
exemplos de "fenômenos emergentes", isto é,
fenômenos que não podem ser previstos a partir das
poucas regras (ou leis) básicas que regem a evolução
do sistema, mas que são manifestações que surgem
apenas quando esses sitemas passam a ter um determinado tamanho.
No caso da Internet e da Web, as características emergentes
são tais que o crescimento autosustentável é
diretamente vinculado à possibilidade de colapso frente a
falhas em um número pequeno de pontos estratégicos.
As necessidades tecnológicas e econômicas de garantir
a viabilidade da Internet levaram à disponibilidade de dados
cada vez mais completos de sua estrutura, tornando-a quase um padrão
para estudos fundamentais sobre sistemas complexos e seus fenômenos
emergentes. Ao mesmo tempo, as questões levantadas por tais
estudos de Ciência Básica são extremamente relevantes
para monitorar e desenvolver a eficiência do tráfego
de informações na Internet.
Peter
Schulz é professor do Instituto de Física da Unicamp.
|