Modelos
matemáticos e simulações computacionais de
sistemas complexos
O
aumento da capacidade de processamento dos computadores modernos
vem permitindo a sua utilização no estudo de assuntos
extremamente complexos, como o clima, organismos vivos, fenômenos
populacionais ou mesmo a mente humana. Com programas computacionais
adequados podem ser feitas "simulações"
do comportamento dos sistemas reais e, assim, fazer previsões
com diversos graus de aproximação. As previsões
climáticas que vemos na televisão, por exemplo, são
obtidas por esse método.
Mecânica Newtoniana
Na sua obra principal, Princípios Matemáticos
da Filosofia Natural (1683), o cientista inglês Isaac
Newton expôs sua grande síntese do conhecimento
da Mecânica e da Gravitação da época,
organizando-os num sistema matemático simples e coerente.
Foi um feito portentoso e inigualável. Toda a Física,
desde então e até o início do século
XX, foi baseada nesse sistema. Procurou-se explicar os fenômenos
não-mecânicos, como a luz, o calor e o magnetismo,
segundo os paradigmas definidos pelo sistema newtoniano. O
sistema só veio a ser suplantado com o advento da Mecânica
Quântica e da Relatividade, no século XX (ver
edição de Física
Moderna)
|
A capacidade
de previsão da ciência vem aumentando desde que o advento
da mecânica newtoniana, em fins do século XVII, trouxe
um aumento sem precedentes das suas possibilidades previsivas. Uma
das características mais marcantes dessa revolução
protagonizada pelo cientista inglês Isaac Newton foi a "matematização
da física": toda afirmação física
deveria ser exprimível por meio de equações
matemáticas e as conclusões seriam obtidas através
da resolução dessas equações e da manipulação
de expressões também matemáticas.
Isso
deu à mecânica um caráter determinístico
radical. Se soubermos a posição e a velocidade de
todas as partículas de um sistema, em um dado instante, poderemos,
em teoria, conhecer o seu estado físico em qualquer instante
posterior (ou anterior), bastando para isso resolver as equações.
Mesmo que essas equações sejam por demais complexas,
tornando a sua solução humanamente impossível,
a previsão é possível em princípio.
O matemático
francês Pierre Simon de Laplace expressou essa idéia
com a seguinte alegoria: se uma enteléquia superior pudesse
conhecer a posição e a velocidade de todas as partículas
do Universo e se ela tivesse uma capacidade de processamento infinita,
poderia prever o estado de todas as coisas do Universo em qualquer
instante futuro.
Os computadores mais modernos, evidentemente, não chegam
aos pés do personagem de Laplace. Para poder submeter um
mero vírus a esse método, seria necessário
conhecer a posição e a velocidade de todos os seus
átomos e das partículas que os compõem e, mesmo
que pudéssemos fazê-lo, as equações seriam
complexas demais para serem resolvidas. Porém, com um pouco
de criatividade, é possível obter soluções
aproximadas das equações, boas o suficiente para fazer
previsões confiáveis. Sistemas muito maiores do que
um vírus, como a população de peixes de um
lago, ou mesmo a atmosfera, podem ser tratados com uma versão
aproximada desse método, com bons resultados.
Como
se faz isso?
O conceito
de aproximação é fundamental. O principal
nesse caso é a escolha de algumas variáveis que têm
maior influência no comportamento de um sistema. Essas variáveis
serão consideradas nas equações e as outras
serão relevadas. Para que essa escolha possa ser feita de
forma judiciosa, há que se ter um conhecimento qualitativo
prévio sobre o sistema. Por exemplo, para o estudo do clima,
são fundamentais variáveis como a velocidade e a direção
dos ventos, a pressão atmosférica e a temperatura
em diversos pontos da atmosfera. Mas variáveis como a quantidade
de aviões voando em cada instante podem ser desprezadas com
razoável grau de precisão.
Com
essas aproximações, obtém-se um conjunto de
equações que representam o sistema em estudo com alguma
precisão. Se as variáveis forem bem escolhidas, a
precisão será boa. Além disso, muitas aproximações
simplificam as equações, mas reduzem o grau de confiabilidade
dos resultados. Poucas aproximações permitem maior
precisão, mas tornam as equações mais complexas.
Um sistema pode ser (e em geral é) tão complexo que,
para se conseguir uma aproximação que produza equações
tratáveis, a confiabilidade ficaria tão pequena que
o resultado seria inútil. À medida que os computadores
vão ficando mais e mais sofisticados, entretanto, vão
sendo necessárias cada vez menos aproximações
e, assim, pode-se obter resultados cada vez mais precisos. Fenômenos
antes intratáveis passam a ser abordáveis com grau
razoável de confiabilidade.
Outro
dado fundamental são os parâmetros observacionais.
As equações obtidas com o auxílio das aproximações
contêm variáveis cujo valor deve ser obtido mediante
medidas ou observações da Natureza. Tais medidas devem
ser as mais precisas possíveis, para que as soluções
das equações também o sejam.
Um
passo além das aproximações descritas acima
deve ser dado, entretanto, para tornar as equações
tratáveis. Um exemplo ajudará a clarificar esse ponto.
Foi dito acima que a previsão através de modelos físico-matemáticos
está baseada no fato de que, se conhecermos o estado de um
sistema em um certo momento, então através das equações
adequadas podemos conhecer o seu estado em qualquer outro instante
posterior ou anterior. Ora, no caso de uma previsão climática,
para conhecer o estado da atmosfera em certo instante, deveríamos
saber a velocidade do vento, a pressão atmosférica
e inúmeros outros parâmetros em cada ponto da atmosfera.
Isso tornaria o número de parâmetros observacionais
praticamente infinito. Por isso, escolhe-se alguns pontos. O conjunto
desses pontos constitui a grade numérica. Por exemplo, o
CPTEC (Centro de Previsão do Tempo e Estudos Climáticos),
do Instituto Nacional de Pesquisas Espaciais (Inpe), disponibiliza
resultados com cálculos com grades cujos pontos estão
separados por até 40 km (uma grade de 40 km x 40 km).
Um
terceiro ponto importante é o modo pelo qual são resolvidas
as equações. As equações praticamente
nunca têm solução conhecida ou alcançável
mediante as técnicas matemáticas conhecidas. Devem,
portanto, ser resolvidas computacionalmente por métodos indiretos
chamados métodos numéricos. Por esses métodos,
as equações não são resolvidas no sentido
próprio do termo: obtém-se, por meios indiretos, soluções
aproximadas, e o processo é repetido muitas vezes, de forma
que as diversas "soluções" encontradas em
cada passo vão convergindo para algum valor. Muitas vezes
são necessários milhões de passos para se obter
uma solução confiável.
Após
as equações serem resolvidas dessa maneira, o último
passo é interpretar os resultados. E aqui é fundamental
o conceito de margem de erro. Essa margem será definida
pelo grau de aproximação dos diversos passos acima:
a escolha inicial das variáveis relevantes, a precisão
da medida dos parâmetros observacionais, a precisão
do método numérico utilizado, o tamanho da grade numérica,
a adequação dessa grade (pode ser necessário
que ela seja mais "fina" em certas regiões). É
necessário, ao escolher as variáveis no início
do processo, que se quantifique a provável influência
no resultado final das variáveis desprezadas.
Com
processadores cada vez mais velozes e com o domínio sobre
as variáveis que influenciam diferentes fenômenos,
o potencial dos modelos matemáticos tende a crescer, embora
margens de erro, ainda que pequenas, continuem existindo e o modelo
comporte sempre alguma dose de imprevisibilidade.
(RBD)
|