De membros biomecânicos a chips neurais, as polêmicas são muitas acerca dos avanços tecnológicos, tais como a prótese Flex Foot Cheetah do corredor sul-africano Oscar Pistorius ou os maiôs LCZ-Racer dos nadadores recordistas em 2008. Mas não é preciso ir tão longe: o que seria de nós sem o celular, o computador e a câmera digital? A fusão entre homem e máquina, que vem se intensificando com o desenvolvimento da eletrônica, biônica, nanotecnologia e engenharia genética, já não é mais tema restrito à ficção científica, mas uma realidade que ameaça mudar a maneira como percebemos o mundo.
Recentemente, o especialista em nanotecnologia e pesquisador da Microsoft, Ramez Naam, declarou ao jornal O Estado de S. Paulo que “as novas tecnologias preservarão a juventude e a saúde, aumentarão a capacidade de aprender e nos darão o poder de decidir em que vamos nos transformar. A ciência dará a cada um o poder de decidir a própria evolução” (Eu, Robô, 02/05/2010, Caderno Link). Pois que evolução seria essa? É possível delimitar alguns aspectos que restringem a evolução do homem propiciada pela tecnologia ou iremos nos tornar, inevitavelmente, uma máquina em todos os sentidos? Afinal, “somos a ponta da evolução do primata ou somos a ponta de um primata em evolução?”, questiona Márcio Barreto, professor da Faculdade de Ciências Aplicadas da Universidade Estadual de Campinas, campus de Limeira.
Da ciência moderna à contemporânea
Voltando um pouco na história, podemos dizer que o apagamento da fronteira entre homem e máquina data no final da Idade Média, quando as transformações no mundo do trabalho serviram de base para uma revolução também no âmbito da ciência. De um lado, a expansão do comércio levou à popularização da matemática entre os comerciantes e banqueiros, que passaram a utilizar os números para representar seus lucros e prejuízos. De outro, a difusão de máquinas, como os moinhos, fez surgir um novo tipo de profissional, o técnico-artesão, cuja metodologia de trabalho era baseada na experimentação. Esse novo racionalismo que emergia na sociedade levou muitos intelectuais a pensarem num novo método de produção do conhecimento.
“Alguns nomes importantes do Renascimento, como Willian Gilbert, Galileu e Francis Bacon, contribuíram para a incorporação da experimentação e da linguagem matemática à prática científica, inaugurando o que chamamos de ciência moderna”, explica Barreto. Nesse novo método, a racionalidade deixa de ser sustentada apenas pelo raciocínio lógico e abstrato, como faziam os pensadores e filósofos da Antiguidade, sendo ressignificada com a experimentação. As inovações tecnológicas da época também influenciaram a ciência moderna, que passa a compreender a natureza como se ela funcionasse com a regularidade de uma máquina, o que permitiria que seus fenômenos pudessem ser medidos e previstos por meio de equações matemáticas. Tal forma de pensar o mundo ficou conhecida como mecanicismo e teve seu auge nos séculos XVIII e XIX.
Não só aquilo que nos cerca, mas o próprio homem passou também a ser comparado a uma máquina. Analogias como “o coração é uma bomba” ou “o sistema circulatório é um sistema fechado de dutos”, por exemplo, são resquícios do pensamento mecanicista no estudo do corpo humano. No livro o Discurso do método, de 1637, essa ideia do universo-máquina fica bem clara quando Descartes afirma que “a indústria dos homens pode produzir, sem empregar nisso senão pouquíssimas peças, em comparação à grande multidão de ossos, músculos, nervos, artérias, veias e todas as outras partes existentes no corpo de cada animal, considerará esse corpo como uma máquina que, tendo sido feita pelas mãos de Deus, é incomparavelmente mais bem ordenada e contém movimentos mais admiráveis do que qualquer das que possam ser inventadas pelos homens”.
Levando essa mecanização ao extremo, O homem-máquina (1747), do filósofo La Mettrie, subverte a autonomia da mente ao colocar o homem como um artefato mecânico. Essa possibilidade de ruptura entre corpo e mente é o que constitui o cerne do questionamento sobre os efeitos dos avanços tecnológicos no homem. O jornalista e filósofo Adauto Novaes, em um dos capítulos do livro O homem-máquina: a ciência manipula o corpo, publicado em 2003, afirma que “Tudo caminha – principalmente o corpo – para o artifício. Ou melhor, observamos o início de uma substituição do ser e de suas experiências da vida – isto é, da antiga relação, em nós, da natureza e do espírito (espírito entendido como inteligência, potência de transformação) – por mecanismos implantados em nós. Poderíamos dizer, sem risco de erro, que um corpo tecnicizado guarda ainda ‘qualidades ocultas’ do corpo natural, enigmas que nos levam a pensar, permanentemente, o jamais pensado ainda?”. Em outras palavras, indaga-se se as tecnologias chegarão ao ponto de anular a essência humana, substituindo a criatividade e espontaneidade.
Para o filósofo Denis Rosenfield, professor da Universidade Federal do Rio Grande do Sul (UFRGS), não faz sentido pensar em essência humana num mundo que a relação entre homem e tecnologia está em constante mutação. “O impensável está se tornando pensável. Quem diria que, há alguns anos, a reprodução in vitro seria possível?
O atual debate sobre o uso da tecnologia no futebol foi reacendido devido aos erros de arbitragem nessa Copa do Mundo. Diante da disponibilidade de tecnologias capazes de ampliar a percepção humana, o ditado popular “errar é humano” deixa de ser admissível. Mesmo assim a Federação Internacional de Futebol (Fifa) ainda é refratária ao assunto. Apenas o temor ao modo como essas tecnologias podem influenciar nossa capacidade de decisão explica tamanha resistência.
A lentidão para a incorporação de uma nova tecnologia, como no caso da Fifa, é, muitas vezes, apenas um modo de reduzir os erros em sua utilização. A máquina só não chegará a substituir o homem porque é preciso que alguém – humano – faça a leitura dos dados”, esclarece Rosenfield. A interpretação dos fenômenos naturais implica, então, em certos aspectos que não são inerentes ao universo das máquinas, mas próprios do pensamento humano e do mundo natural ao seu redor, o que restringe o tipo de transformação que podemos sofrer pelas tecnologias.
A subjetividade e a imprevisibilidade são alguns desses aspectos que não fazem parte da lógica de funcionamento das máquinas. Sua percepção só emergiu com a ruptura do paradigma mecanicista por volta de 1930, quando surgiram certas acepções na física e na matemática que colocaram em xeque os postulados da prática científica calcados na previsibilidade, objetividade e neutralidade (O discurso da ciência na contemporaneidade: “nada existe a menos que observemos”, Márcia Martins, 2009). Uma dessas acepções foi o Princípio da Incerteza, de Heisenberg (1927), que afirma ser impossível medir com precisão e simultaneamente a velocidade e a posição de uma partícula atômica. Neste caso, a medição depende de como as variáveis serão tomadas pelo observador.
Essa tendência anunciada pela mecânica quântica foi reforçada por outros teoremas que se disseminaram na época, como o Teorema da Indefinibilidade, de Tarski (1930), e o Teorema da Incompletude, de Gödel (1931). No primeiro, rompeu-se com a ideia de verdade absoluta, que dá lugar a uma concepção relativista de acordo com o observador e as variáveis por ele consideradas. No segundo, rompeu-se com a ideia de que a resolução de uma questão envolve um conjunto certo de regras e procedimentos, uma vez que esses são determinados pelo observador que os opera.
A imprevisibilidade faz parte do modelo caótico e probabilístico da ciência contemporânea, da teoria do caos, que se torna ainda maior com o aumento da complexidade do sistema. Adepto à filosofia de Deleuze, Gregory Flaxman, professor do Departamento de Estudos da Comunicação da Universidade da Carolina do Norte, defende que teorias complexas como a teoria das cordas, teoria física capaz de explicar tudo, são mais incompletas do que teorias simples. Entretanto, mesmo essas, por terem algum grau de imprecisão, estão sujeitas à substituição.
Renovando o conhecimento
A substituição de teorias é o que o físico e filófoso Thomas Kuhn chamou de revolução científica. Em seu livro A estrutura das revoluções científicas (1962), Khun explica que o acúmulo de anomalias, situações que o paradigma vigente não é capaz de explicar, instaura uma situação de crise que suscita a emergência de reformulações conceituais até que surja um novo candidato a paradigma. Gradativamente, então, a comunidade científica passa a fazer ciência sob o novo paradigma até que a sua aceitação seja completa e o paradigma anterior seja abandonado definitivamente. Isso aconteceu, por exemplo, quando o modelo geocêntrico de Ptolomeu foi abandonado em favor do modelo heliocêntrico de Copérnico, e também quando o modelo determinístico da ciência moderna perdeu força para o caos probabilístico da ciência contemporânea.
É claro que uma teoria falseada não necessariamente é derrubada de imediato, como defendia o filósofo Karl Popper. Enquanto não houver uma alternativa melhor disponível, os fatos discordantes à teoria vigente vão sendo ajustados por explicações adicionais, chamadas de hipóteses ad hoc. Contudo, as ideias de Popper tiveram um grande impacto na sociologia da ciência ao mostrar que o acúmulo de fatos concordantes não legitima uma teoria científica, já que as hipóteses nunca podem ser demonstradas como verdadeiras. Se o conhecimento científico fosse preciso e completo, ele seria verdadeiro e, consequentemente, estável. Mas, como afirma Flaxman, tudo o que acreditamos é fluído porque nossas explicações são imprecisas e caóticas.
Desse modo, colocar um árbitro eletrônico no lugar do homem em uma partida de futebol não é garantia de uma arbitragem imune de erros. As variáveis são muitas, ou melhor, infinitas, e sua interpretação, embora ampliada com a incorporação da tecnologia, não exclui o homem do processo. Se por um lado não há limite para os avanços tecnológicos, uma vez que o conhecimento está em constante processo de substituição, ao menos temos a garantia de que ele nunca irá nos transformar em seres previsíveis ou dispensáveis. O homem-máquina agradece.
|