Biotecnologia
e física quântica apontam
para novas tecnologias de hardware
A
velocidade da Internet depende não só da capacidade
das linhas de transmissão de dados, mas também do
desempenho dos próprios computadores.
Esse
desempenho vem sofrendo revoluções desde que o primeiro
computador eletrônico com algoritmo genérico foi criado,
em 1946 (o Eniac). Uma das maiores foi desencadeada pela substituição
da válvula pelo transístor
como componente principal dos circuitos de um computador, em 1956.
Por ser muito menor e mais rápido do que a válvula
e por não "queimar" como sua antecessora, o transístor
constituiu um enorme avanço na miniaturização
e na velocidade computacional.
Os
passos seguintes foram desdobramentos da invenção
do transístor, inovações tecnológicas
baseadas no mesmo princípio. Em 1969, apareceu o primeiro
circuito integrado e, em 1971, foi criado o primeiro microprocessador,
com todos os circuitos principais de um computador (a unidade central
de processamento, ou CPU, na sigla em inglês) concentrados
em um único circuito integrado de uns poucos centímetros
cúbicos. Esses microprocessadores são usados nos computadores
pessoais modernos (o que ocupa o espaço restante no interior
das máquinas são acessórios como memória,
circuitos para driver, impressora, etc.).
O desempenho
dos computadores foi elevado ainda mais com o uso da computação
paralela, na qual uma tarefa (um cálculo, por exemplo) é
dividida em várias sub-tarefas, realizadas por vários
microprocessadores simultaneamente.
Desde
a criação do microprocessador, a velocidade dos computadores
vem duplicando a cada 18 meses, fenômeno conhecido como Lei
de Moore. Segundo Gordon Moore, que propôs a lei já
em 1965 (a hipótese original era dobrar a cada 12 meses),
uma das razões possíveis para essa regularidade é
a especulação: "as pessoas sabem que têm
que permanecer naquela curva para continuar competitivas, então,
esforçam-se para que ela aconteça", afirmou numa
entrevista
para a revista norte-americana Scientific American.
Moore
prevê que essa regularidade se mantenha ainda por vários
anos, talvez dez. Porém, ela não pode durar para sempre,
pois a miniaturização só pode prosseguir até
que os componentes tenham dimensões atômicas.
Algumas
pesquisas recentes apontam para novas tecnologias de processamento,
dessa vez inteiramente diferentes do padrão inaugurado pelos
transístores, que prometem driblar essas limitações.
O que elas têm em comum é a possibilidade de se fazer
cálculos paralelos de modo muito mais massivo do que na computação
paralela tradicional.
Chips
de DNA
Em
1994, o pesquisador Leonard Adleman, da Universidade da Califórnia
do Sul (EUA), mostrou, em um trabalho publicado na revista Science,
como se poderia usar as técnicas comuns da biologia molecular
para simular problemas matemáticos e resolvê-los. A
idéia faz uso da propriedade da molécula de DNA de
codificar e guardar informações (propriedade que permite
a ele ser o repositório do código genético).
Essas informações podem ser manipuladas através
da engenharia genética, de forma a resolver problemas matemáticos.
A
grande vantagem do "chip de DNA", como veio a ser chamado,
é a possibilidade de se fazer grande quantidade de cálculos
paralelos realizando o algoritmo (a manipulação do
DNA necessária) apenas uma ou algumas poucas vezes. Na computação
paralela tradicional, são necessários tantos microprocessadores
quanto sub-tarefas a serem realizadas. Na computação
com DNA, um único tubo de ensaio pode, teoricamente, realizar
trilhões de operações matemáticas simultaneamente.
Além disso, o DNA é capaz de concentrar informação
em um espaço cerca de um trilhão de vezes menor do
que um chip tradicional.
A
possibilidade teórica se tornou realidade no fim do ano passado
com o trabalho do cientista Ehud Shapiro e seus colaboradores, do
Instituto Weizman de Ciência, em Israel, relatado na revista
Nature de 22/11/01. O grupo de Shapiro conseguiu construir um sistema
que resolvia alguns problemas específicos sem precisar da
assistência humana durante o processo.
Porém,
as dificuldades técnicas de implementação dessa
tecnologia até agora, fizeram com que boa parte da comunidade
científica se tornasse pessimista quanto ao chip de DNA se
tornar tão rápido quanto os de silício. "Não
temos a pretensão de fazer um computador de DNA mais rápido
que os atuais de silício", afirmou o próprio
Shapiro para a Folha de S. Paulo (16/03/02). Na sua opinião,
uma das aplicações possíveis, que o chip tradicional
não poderia realizar, é dentro da célula, onde
poderia induzir certas reações químicas para
combater doenças.
Dualidade
onda-partícula
A outra
grande vertente da computação massivamente paralela
é a computação quântica, idealizada em
1985 por David Deutsch, da Universidade de Oxford (Reino Unido).
Esta técnica utiliza-se de um fenômeno conhecido por
"emaranhamento quântico". Para se compreender esse
fenômeno, deve-se ter em mente que, de acordo com a mecânica
quântica, as partículas elementares - como elétrons,
prótons e nêutrons - não são exatamente
corpúsculos no sentido estrito do termo: podem exibir comportamentos
característicos de ondas em certas circunstâncias,
enquanto em outras apresentam características corpusculares.
Isso é radicalmente diferente do que acontece com os objetos
macroscópicos do cotidiano. As interpretações
mais aceitas dessa "dualidade
onda-partícula" do mundo subatômico, como
é conhecida, é que essas "partículas"
não são ondas nem corpúsculos, mas entidades
que se comportam ora como um, ora como outro. Sistemas compostos
dessas partículas, como átomos ou moléculas,
também apresentam essas características - porém,
quanto maior a massa, menos pronunciadas são as características
ondulatórias e mais evidentes as corpusculares, de forma
que para um mero átomo já é extremamente difícil
(mas possível) detectar comportamentos ondulatórios.
Por isso, não se observa tais comportamentos nos corpos macroscópicos
presentes no cotidiano.
Um
fenômeno comum com ondas, mas impossível para corpúsculos,
é a superposição. Ondas podem penetrar uma
na outra e misturar-se, somando-se, cancelando-se, atravessando
uma a outra. Por causa de suas características ondulatórias,
um átomo pode estar, em certas circunstâncias bem específicas,
numa superposição entre dois estados. Se tivermos
um conjunto de partículas nessa situação, diz-se
que elas estão em um estado "emaranhado".
A idéia
da computação quântica é usar os estados
em que um átomo pode estar como bits (unidades de informação).
Pode-se escolher átomos que estejam preferencialmente em
dois dentre os vários estados possíveis, de forma
que, na prática, haverá só dois estados possíveis.
Enquanto na computação tradicional, o transístor
poderia estar apenas num ou noutro estado, nunca nos dois ao mesmo
tempo, na computação quântica o átomo
pode ser encontrado em um, em outro ou numa superposição
dos dois estados.
A
vantagem disso é a possibilidade de se fazer cálculos
massivamente paralelos, como no chip de DNA. Se um átomo
pode estar em 2 estados possíveis, dois átomos podem
estar em 4, três em 8, e assim por diante. Teoricamente, com
um conjunto de três átomos, pode se fazer 8 cálculos
paralelos ao mesmo tempo. A quantidade de tarefas paralelas possíveis
cresce exponencialmente com o número de sistemas, ao contrário
da computação paralela tradicional, onde o número
de tarefas é igual ao número de microprocessadores
disponíveis. A capacidade de um sistema assim seria, teoricamente,
muito maior do que o permitido pelos chips de silício, mesmo
que estes atingissem o limiar da escala atômica.
Mas
as dificuldades técnicas para a implementação
dessa idéia são colossais. O principal problema é
que o estado emaranhado é extremamente instável. Superposições
quânticas envolvendo elétrons são corriqueiras,
mas uma envolvendo um átomo inteiro de forma controlada só
foi obtida pela primeira vez em 1998 (o artigo foi publicado por
Quentin Turchette e colaboradores na revista Physical Review
Letters de 17-26 de outubro). A razão é que qualquer
perturbação, mesmo mínima, destrói a
superposição, fazendo o sistema evoluir rapidamente
para um dos estados que o compõem.
Mesmo
que os chips de DNA e a computação quântica
se revelem inviáveis por causa das dificuldades práticas,
elas já introduziram um novo conceito na teoria computacional:
os cálculos massivamente paralelos, que poderão driblar
a limitação física (o limite das dimensões
atômicas) do desempenho dos chips de silício comuns.
Segurança
na rede
O emaranhamento
também pode, teoricamente, ser usado no aperfeiçoamento
da segurança na rede. Normalmente para garantir que arquivos
transmitidos pela Internet não sejam alterados, eles são
codificados antes da transmissão. O receptor recebe uma "chave"
(informação que permite a decodificação)
para poder ler o arquivo. Em geral, tudo isso - a codificação,
a transmissão, a transmissão da chave e a decodificação
- é feito automaticamente. Para se garantir que o código
não seja quebrado, a chave deve ser suficientemente extensa,
de forma que um eventual hacker teria que dispor de um tempo proibitivamente
longo para quebrá-la. Porém, sempre existe a possibilidade
de o hacker interceptar a própria transmissão da chave.
A
chamada criptografia quântica ainda não impossibilita
que o hacker intercepte a chave, mas torna impossível fazê-lo
sem que um dos interlocutores - o receptor ou o transmissor da mensagem
- saiba. O princípio baseia-se no fenômeno conhecido
como "colapso" do estado emaranhado. Mesmo que um átomo
esteja em tal estado, quando o observamos, sempre o vemos ou em
um estado ou em outro, não detectamos o estado emaranhado
diretamente. Isso acontece porque o processo de medida já
é suficientemente perturbativo para destruir o emaranhamento.
Se temos um par de átomos em um estado emaranhado, ao observarmos
um deles, o emaranhamento do par inteiro colapsará, mesmo
que os dois estejam separados por grandes distâncias. Os diversos
tipos de criptografia quântica repousam nesse princípio:
o hacker que tentar quebrar uma chave que esteja num estado emaranhado
com algum sistema em poder de um dos interlocutores interferirá
necessariamente com esse sistema, e o interlocutor saberá
que a chave foi violada. Esse princípio teórico já
foi testado experimentalmente com sucesso. A experiência é
mais fácil do que no caso da computação quântica
descrito acima, porque pode ser feita com fótons, partículas
levíssimas e com comportamentos ondulatórios evidentíssimos
(manifestam-se como ondas eletromagnéticas - luz, por exemplo),
com os quais é muito mais fácil de se obter emaranhamento
do que com átomos inteiros.
(RB)
|