A REVOLUÇÃO QUÂNTICA : VISÕES DO FUTURO (VÍDEOS) E REFLEXÕES



A revolução quântica poderá transformar qualquer idéia da ficção científica em ciência real. Desde metamateriais com propriedades tão impressionantes quanto a invisibilidade, passando por energia quântica ilimitada e supercondutores de temperatura, até o elevador especial de Arthur C. Clarke. Alguns cientistas predizem, inclusive, que na segunda metade do século qualquer um poderá ter um fabricador molecular que rearranjará as moléculas para produzir qualquer coisa a partir de qualquer material. Como usaremos este poder à nossa disposição?

VEJA ABAIXO O


Maravilhoso vídeo com o Físico Michio Kaku, falando de
ciência e tecnologia. Fantástico!
"Se conhecermos o átomo, conheceremos todo o Universo."






Fonte:http://www.youtube.com/



A Revolução Quântica






Foi a física quântica que primeiro insuflou as revoluções do DNA e biomolecular na década de 50. E na década de 90, com a introdução da tomografia por emissão de pósitrons, da visualização por ressonância magnética e da tomografia computadorizada axial, ela ajudou a alterar o modo como a pesquisa médica e a medicina curativa eram conduzidas. A quântica também forneceu-nos o laser e o transistor, que estão transformando fundamentalmente a natureza do comércio, dos negócios, do entretenimento e da ciência. O poder do computador vem da quântica e os extraordinários progressos no seqüênciamento do DNA têm a mesma origem.
A teoria e a prática quântica determinarão, majoritariamente, o curso do século 21.
Comecemos pela nanotecnologia: até que ponto podemos reduzir as máquinas?
A nanotecnologia promete para um futuro relativamente próximo as menores máquinas possíveis, máquinas moleculares. Muita pesquisa e conquista ainda serão necessárias, mas a nanotecnologia é perfeitamente compatível com as leis da física e deve inaugurar uma nova era em nossa relação com a biologia e a tecnologia.
Os cientistas já manipulam átomos isolados e podemos acreditar que um dia irão fabricar rodas e engrenagens com apenas alguns átomos de diâmetro. E os mais sonhadores já imaginam a possibilidade de que essas máquinas sejam capazes de auto-reprodução, criando um número ilimitado de robôs moleculares para realizar proezas que desafiam nossa imaginação.
Com cerca de um décimo de micrômetro de tamanho (e o micrômetro é o milímetro dividido por mil), essas micromáquinas poderão manipular átomos individuais. Com trilhões desses robôs moleculares convergindo num local, problemas biológicos e de engenharia genética hoje intratáveis poderiam ser resolvidos.
Entre outras coisas, essas máquinas poderão: destruir micróbios infecciosos; matar células tumorais; patrulhar a circulação do sangue e remover placas das artérias; limpar o meio ambiente devorando resíduos perigosos; permitir o cultivo de alimentos baratos e abundantes para acabar com a fome no mundo; construir outras máquinas (de micro chips a foguetes propulsores); construir supercomputadores do tamanho de átomos; e até reparar células danificadas e reverter o processo de envelhecimento.
Os críticos da nanotecnologia dizem que essas esperanças são tão sensacionais quanto são poucos os resultados das pesquisas. Ainda não se produziu uma única máquina em laboratório e não há expectativa à vista para os dez primeiros anos do século. Mas a verdade é que ela é possível e físicos e químicos estão tratando de construir protótipos.
Até 2020 espera-se que a primeira geração de micromáquinas, os chamados sistemas microeletrônicos (smem) já tenham ampla aplicação comercial. São sensores e motores em miniatura com o tamanho aproximado de uma partícula de poeira. Longe de serem verdadeiras máquinas moleculares, já estão entrando no mercado, criando uma indústria de alguns bilhões de dólares.
Em vez de gravar milhões de transistores¸os cientistas agora gravam minúsculos sensores e motores em plaquetas de silício. E minúsculos feixes de raios X estão sendo usados para gravar polímeros, que podem ser galvanizados para se criar moldes metálicos. Um fiapo de silício da espessura de um fio de cabelo, pode detectar desacelerações súbitas de um carro e substituir os antigos e desajeitados detectores de movimento dos air bags.
Entre outras façanhas o smem pode criar num só chip um laboratório inteiro capaz de diagnósticops médicos e análises químicas sofisticadas. Ou criar um microaparelho capaz de passar por nossos vasos sangüíneos, movimentado por um miniveículo.
De 2020 a 2050 os smem já poderão ser substituídos por máquinas moleculares verdadeiras. Resultados entusiasmantes já estão sendo obtidos há tempos em laboratório, com os pesquisadores manipulando estruturas que não têm mais do que alguns átomos de largura.
Para conduzir a eletricidade e conectar as várias partes da máquina molecular os cientistas introduziram o nanotubo de carbono. São cilindros ocos, feitos de moléculas de carbono, que têm cem vezes a resistência do aço, mas apenas 1/60 do seu peso. Com a vantagem de serem tão finos que só juntando 50 mil deles é possível chegar à espessura de um fio de cabelo.
São inúmeros os usos para essas fibras e pode-se fazer, por exemplo, um transistor molecular com nanotubos.
Diante do rápido progresso na manipulação de átomos individuais a primeira geração de máquinas moleculares poderá ser apresentada ainda nesta década.


O grande objetivo dos pesquisadores é produzir supercondutores à temperatura ambiente. A supercondutividade é uma estranha propriedade do mundo quântico e supermagnetos supercondutivos podem gerar campos magnéticos colossais com pouca energia e fazer um trem levitar alguns centímetros acima dos trilhos de metal, deslizando sem atrito e evitando o desgaste dos sistemas mecânicos que impedem as grandes velocidades.
Uma razão da ineficiência dos grandes ímãs é que todos os dispositivos elétricos emitem calor e o calor excessivo drena energia no circuito¸ provoca panes e altos custos. A supercondutividade pode mudar isso. Heike Kamerlingh Onnes descobriu que o mercúrio perdia toda a resistência elétrica quando resfriado a cerca de 4,2 graus acima do zero absoluto e ganhou um Nobel. Hoje, descobriu-se uma quantidade surpreendente de substâncias supercondutoras, milhares. Só que o custo de resfriá-las com hélio liquido é proibitivo para uso comercial. Daí a importância de chegar ao supercondutor à temperatura ambiente, que não exija resfriamento.
Durante décadas os físicos não tinham esperança de encontrá-lo e aqueles que continuavam pesquisando eram ridicularizados pela procura da“pedra filosofal” dos alquimistas. Mas só ele será capaz de transformar a indústria de tal modo que teremos uma segunda Revolução Industrial.
Em 1986, dois desses sonhadores ganharam um Nobel: K. Alexander Muller e J. Georg Hednorz anunciaram a criação de um supercondutor cerâmico a 35 graus acima do zero absoluto, a primeira grande descoberta na área em 70 anos.
Logo, Maw-Kuen Wu e Paul Chu mostraram que o óxido de ítrio-bário-cobre podia se tornar supercondutor à amena temperatura de 93 graus acima do zero absoluto (aproximadamente 180º Celsius negativos).
Começou a corrida em laboratórios de todo o mundo. E já houve resultados com materiais que se tornaram supercondutores a 23 graus Celsius negativos.
Os cientistas ainda estão longe da temperatura ambiente, mas essa nova classe de supercondutores já está provocando uma revolução na ciência. A cerâmica de cobre, por exemplo, pode ser resfriada com nitrogênio líquido, que custa apenas dez centavos de dólar por quarto de galão, tornando viável uma grande quantidade de produtos comerciais.
É impossível prever quando supercondutores à temperatura ambiente serão descobertos: amanhã ou nunca, mas talvez para os anos 20.
No entanto, vários países, mesmo sem eles, já estão fabricando trens maglev para conectar suas principais cidades. Como o Japão, onde os trens maglev já rodam a grandes velocidades sobre colchão de ar. Só que suas bobinas magnéticas consomem grande quantidade de energia. E as pesquisas prosseguem porque o congestionamento aéreo e das estradas de rodagem tornam o trem bala (capaz de fazer até 500 quilômetros por hora) o meio ideal para ligar cidades separadas por 400 quilômetros como Rio e São Paulo.


As duas fontes alternativas de energia renovável mais citadas pelos cientistas como parte do futuro do homem são a fusão e a energia solar. Qualquer fonte de energias para o século 21 deve ser barata, inexaurível e ilimitada. Até 2030 os combustíveis fósseis estarão extremamente escassos e com preços proibitivos. E o aquecimento global produzido por sua queima será insuportável.
A demanda de energia está crescendo e prevê-se que o consumo mundial vá triplicar até 2040.
O que substituirá o combustível fóssil? Ele já deveria ter sido substituído mas os grandes produtores de petróleo impediram que isso acontecesse. Os maiores poluidores do mundo (responsáveis por 40% de toda a poluição) os Estados Unidos da América, não aderiram ao protocolo de Kioto, que estabeleceu a necessidade de reduzir as emissões poluentes para não sacrificar as gerações futuras. Nem mesmo a ameaça à sobrevivência da humanidade abala George W. Bush, um mentiroso freqüente que garantiu aos americanos que o objetivo real do protocolo é “quebrar a espinha dorsal da economia americana”. Como mentiu ao procurar os responsáveis pelo 11 de setembro no Iraque, que sempre quis invadir para controlar exatamente o seu petróleo. Como mentiu para diminuir os impostos dos ricos e para cortar verbas federais essenciais para diminuir a pobreza, e continuou de férias e mentindo diante das falhas estruturais de Nova Orleans (o governo federal era responsável pelos diques de proteção da cidade, mas faltaram verbas para a manutenção.)
A revolução que não foi feita no século passado foi a Revolução da Energia e, do ponto de vista humano, talvez ela fosse a mais urgente e necessária. Mas o assunto fica para outra palestra.


No fim do século 19 circulavam três tipos de carros, em número aproximadamente igual: a vapor, elétrico e a gasolina. O carro a vapor, muito pesado, perdeu terreno enquanto Henry Ford e Thomas Edison cultivavam uma rivalidade que, em 20 anos, mostrou-se francamente favorável a Ford porque os carros da sua linha de montagem eram mais baratos. Com isso, prevaleceu a gasolina, infelizmente. Até porque a gasolina acumulava cem vezes a concentração de energia das baterias elétricas. Resultado: a autonomia da maioria dos carros elétricos não passava de 160 quilômetros, um terço da alcançada pelos carros a gasolina sem necessidade de reabastecimento. Além disso, as baterias levavam de três a quatro horas para recarregar.
Mesmo assim, o motor de combustão interna pode ter a morte decretada no século 21. Principalmente porque cada um consome cerca de 11.300 litros em sua vida útil, emitindo 32 toneladas de carbono no ar, poluindo, provocando chuva ácida e o aquecimento global. Veículos motorizados produzem mais da metade da poluição nas áreas urbanas e um quarto de todos os gases responsáveis pelo efeito estufa, além de serem responsáveis por metade do petróleo consumido no mundo.
A alternativa mais atraente ao motor de combustão interna, nesse início de século, é o carro elétrico híbrido, computadorizado. E o computador determinaria quando usar o carro elétrico, na cidade, e o de célula solar nas estradas. Até que os problemas do motor elétrico estejam resolvidos.
A indústria automobilística já está trabalhando com materiais extremamente leves e resistentes, os mesmos que a NASA usa para a nova geração de naves espaciais. Com menos peso, ultracondensadores e células combustíveis, esses carros ganharão mais autonomia e serão interessantes: os ultracondensadores armazenando mais carga elétrica e as células oferecendo um grau de eficiência maior porque não produz qualquer poluição (ao contrário das baterias de ácido e chumbo). As células de combustível têm uma taxa de eficiência de 40%, duas vezes maior que a do motor de combustão interna. Elas ainda são caras e o hidrogênio é potencialmente explosivo e precisa ser manejado com cuidado. Mas com a produção em massa, a combinação solar /hidrogênio /elétrico será muito atraente por volta de 2020, no máximo.


Uma das grandes invenções que movimentou a Revolução da Informação foi o laser, que já tem a capacidade de enviar bilhões de chamadas telefônicas através de feixes de luz, usando fibras óticas. A atual geração já nem se impressiona com a impressão a laser, os CD a laser, a cirurgia a laser e os cortadores a laser para a indústria…
A nova geração de lasers, no entanto, vai abrir caminhos tiotalmente novos, à medida que se tornarem microscópicos ou, ao contrário, gigantescos. Por exemplo, permitindo que nas nossas salas haja televisores em 3D, isto é, emitindo imagens em três dimensões. Embora a televisão holográfica ainda esteja a décadas de distância, as barreiras a ela são estritamente técnicas e não conceituais. O desenvolvimento tecnológico deve mudar nosso modo de encarar o entretenimento, quando substituirmos nossos aparelhos de televisão bidimensionais, o que ocorrerá assim que for resolvido o problema da imensa quantidade de memória necessária para armazenar figuras holográficas.
Os transistores ópticos já estão no nível dos transistores de silício na década de 50.
Em 1989 a Bell já conseguia fabricar um milhão de lasers numa plaqueta minúscula, menor que uma unha. Com o tamanho aproximado de bactérias, esses microlasers podem chegar a ter um terço de um micrômetro, uma limitação decorrente do fato de que ele precisa ser maior do que o comprimento de onda de uma luz laser.


Todo fã da Jornada nas Estrelas sabe que a nave Enterprise obtém sua energia da antimatéria. Lá para o final do século é possível que o ser humano já esteja usando um motor assim.
P.A,M. Dirac, um dos fundadores da Teoria Quântica, concebeu uma equação que descrevia os elétrons obedecendo a teoria da relatividade de Einstein. Mas compreendeu que a famosa equação E=mc2 não era completamente correta. Na verdade deveria ser E= + mc2. Com isso, ele postulou um novo estado da matéria, a antimatéria, que tem propriedades notáveis.
A antimatéria é quase indistinguível da matéria comum e é possível formar antiátomos a partir de antielétrons e antiprótons. Até antipessoas e antiplanetas são teoricamente possíveis, com a mesma aparência de pessoas e planetas comuns. Mas as semelhanças terminam aí. A carga da antimatéria é o oposto da carga da matéria comum; ela vai se destruir numa explosão de energia ao contato com matéria comum. Se uma pessoa segurasse um pedaço de antimatéria, explodiria imediatamente com a força de milhares de bombas de hidrogênio.
Em resumo: não é sensato segurar antimatéria, mas este talvez seja o combustível ideal para as viagens espaciais, como sugere há tempos a ficção científica, porque não deixaria poluição (produtos residuais) e geraria enorme impulso.
Há décadas os cientistas vêm brincando nos laboratórios com quantidades ínfimas de antimatéria. Obter grande quantidade de antiátomos e de antimoléculas é economicamente (e na prática) improdutivo. A criação de antimoléculas vai demorar décadas e a criação de antimatéria suficiente para uso num motor concebido com a tecnologia atual levaria o país mais rico do mundo à falência.
Outro problema é onde colocar a antimatéria: qualquer caixa contendo antimatéria explodiria instantaneamente. Nem é possível colocar antiátomos num campo magnético ou numa garrafa magnética, já que eles terão carga neutra. (Por exemplo, o antiplástico atravessará sem esforço o mais forte campo magnético.)
Mas, não havendo razão científica para se excluir o uso de antimatéria como combustível, em um futuro distante, resolvidos os problemas econômicos que impedem sua obtenção e outros probleminhas secundários como o do seu armazenamento, podemos imaginar que no futuro remoto, um dia, o sonho da ficção científica será realidade.


Uma coisa, certamente, aprendemos com o avanço tecnológico: não dizer que certas coisas são impossíveis. Mas há tecnologias futuristas que são incompatíveis com as leis conhecidas da eletrodinâmica, da teoria quântica, da relatividade, das leis conhecidas da física e, quase certamente, não se realizarão. Entre elas as pistolas de raio (por conta do tamanho, impróprio para armazenar a energia necessária); os campos de força (aquelas paredes transparentes e impenetráveis feitas de pura energia, porque as forças eletromagnética, gravitacional e nuclear não podem prover um campo de força); os teletransportadores (porque os átomos arremessados ao espaço deveriam ser recompostos um a um na mesma ordem, o que é impossível); a invisibilidade (porque o que torna um objeto visível ou invisível é a estrutura das camadas de elétrons do átomo e não se sabe como manipular a estrutura atômica para alterar suas propriedades ópticas à nossa vontade).
O que não quer dizer que, no futuro, um dia, uma nova teoria da física venha a permitir que o que hoje parece totalmente impossível à luz dos nossos conhecimentos, se torne possível.


Há duas possibilidades: ou estamos sozinhos no Universo ou não estamos. Ambas são igualmente aterradoras.” A frase é do cientista e escritor Arthur C. Clarke.
Outra frase é do nosso cientista Marcelo Gleiser: “A vocação do ser humano é descobrir novas terras e agora o que nos resta é o caminho das estrelas”.
O caminho já está sendo trilhado com sondas, robôs autônomos, veículos controlados à distância. Uma estação espacial está construída e sendo ampliada. Há várias pesquisas de escuta, à procura de sinais de vida inteligente no espaço.
A colonização do espaço não é uma especulação, mas uma questão ligada à própria sobrevivência da espécie, a longo prazo. Numa escala de tempo de milênios a milhões de anos é inevitável um choque da Terra com um grande meteoro ou um cometa, ou ainda um desastre natural que comprometa a maior parte da vida no planeta. Isto quer dizer que um dia, inevitavelmente, nossa espécie terá de encontrar um novo lar no espaço cósmico.
É difícil planejar em detalhe o futuro das viagens ao espaço porque a força motora por trás dos principais (e mais ricos) programas espaciais tem sido mais política do que científica. Com a chegada do homem à Lua, uma vez fincada a bandeira estava declarada a vitória e mudou-se o esquema paramenor, mais rápido, mais barato e melhor. Uma missão que leva 20 anos para apresentar seu resultado e é extremamente dispendiosa não interessa aos políticos. É mais sensato distribuir o risco enviando dez sondas menores, mas mais sofisticadas. E assim tem sido.
A própria Estação Espacial é vista como um elefante branco para a qual ainda não se encontrou uma missão científica que valha a pena e os custos. E mesmo o porto espacial original não existirá. A Alpha tem o tamanho aproximado de um campo de futebol de 110 por 88 metros, transportando apenas uma tripulação de seis astronautas trabalhando em sete laboratórios em órbita a 320 quilômetros acima da Terra.
Quase 100 bilhões de dólares, para quê? Os cientistas já disseram, com clareza, que o programa não se justifica do ponto de vista científico e ela está praticamente obsoleta.
Por sua vez, os ônibus espaciais parecem condenados e a congressista Dana Rohrabacher disse que eles são “uma relíquia da Guerra Fria” e “o mais eficiente invento conhecido para permitir ao homem destruir cédulas de dólar”. Basta dizer que custa cerca de 15 mil dólares mandar uma libra de carga para o espaço no ônibus. E ainda é preciso cruzar os dedos e desejar boa sorte aos tripulantes na hora da reentrada na atmosfera.


Depois de 2020 tipos radicalmente diferentes de foguetes serão necessários para cumprir uma nova função: realizar longas missões interplanetárias, prestar assistência a uma base de robôs na Lua, investigar o cinturão de asteróides, pegar carona num cometa. Um meio de transporte barato e confiável, provavelmente com propulsão solar / elétrica (iônica), porque possibilitará avançar no sentido da velocidade, da eficiência e da economia tanto quanto as leis da física nos permitem.
O motor iônico é quase o exato oposto do foguete Saturno, que gerava nove milhões de libras de impulso em apenas alguns minutos em sua viagem à Lua. O problema é que foguetes químicos produzem uma enorme energia apenas por um breve período. Já o motor iônico emite apenas um fino feixe de íons, gerando uma quantidade moderada de impulso, mas conseguindo manter esse impulso quase indefinidamente. O motor iônico é a tartaruga na corrida com a lebre: sua aceleração é pequena, mas constante e pode ser mantida durante muitos anos. E a física nos diz que o importante não é o impulso, mas o produto do impulso pelo tempo de sua duração, o chamado“impulso específico”.
É provável que as missões interplanetárias de longa duração usem foguetes químicos para escapar da atração gravitacional da Terra, e motores iônicos no espaço para acelerar de maneira constante até velocidades elevadas que nos levem a outros planetas.
Segundo o físico Freeman Dyson, “um sistema diversificado de espaçonaves solar-elétricas tornará todo o sistema solar quase tão acessível para comércio ou exploração quanto a superfície da Terra na época da navegação a vapor”.Depois de 2020 nossos instrumentos serão tão sensíveis que poderão detectar planetas minúsculos, semelhantes à Terra, girando em torno de sistemas estelares próximos, o que nos encorajará a chegar às estrelas. E a grande meta será encontrar um planeta extra-solar capaz de comportar a vida humana, o que abriria uma nova era para a astronomia e nos permitiria criar colônias no espaço. Como disse o visionário cientista russo Konstantin Tsiolkovisky, “a Terra é o berço da Humanidade, mas não se pode ficar no berço para sempre”.
O impulso específico de um foguete necessário para missões interplanetárias de longa duração é de apenas alguns milhares de segundos, o que está perfeitamente ao alcance dos motores iônicos.
O problema das espaçonaves tripuladas, no entanto, viola as fronteiras da física conhecida e os recursos do planeta. Melhor dizer que são dois: primeiro as distâncias que nos separam das estrelas e que são verdadeiramente assombrosas. Embora um feixe de luz, viajando a cerca de 300 mil quilômetros por segundo, a partir da Terra, possa levar cerca de um dia para chegar a planetas extremos do nosso sistema solar, precisaria de quatro anos para atingir a estrela mais próxima, Alpha Centauri e cem para atingir a maioria das que vemos à noite. Uma espaçonave, deslocando-se a uma pequena fração da velocidade da luz levaria séculos para chegar às estrelas próximas. E nada pode se deslocar mais depressa que a luz.
O impulso necessário para uma aproximação à velocidade da luz é de 30 milhões de segundos, o que excede, por imensa margem, a capacidade de todos os foguetes conhecidos até agora.
Mas há um foguete imaginado, movido por um motor de reação de fusão que suga hidrogênio interestelar para servir de combustível à medida que corre no espaço numa velocidade quase igual à da luz. E é possível torná-lo notavelmente leve, já que ele se vale da extração de recursos do ambiente e não de um combustível que deva carregar.
O motor se assemelha a um grande funil que suga moléculas de hidrogênio enquanto avança e o autor desse projeto, Robert Bussard, estimava que uma espaçonave tripulada pesando 900 toneladas poderia acelerar indefinidamente a 980 centímetros por segundo quadrado. O que é conveniente porque as pessoas dentro da nave seriam atraídas para o chão e sentiriam uma gravidade artificial comparável à da Terra, 1g. Ele calculou que a nave poderia aproximar-se, gradualmente, da velocidade da luz, em um ano. o que levaria a tripulação à Alfa do Centauro em cinco anos. Mas, como tempo é desacelerado a bordo da espaçonave (segundo a Teoria da Relatividade Especial de Einstein), a tripulação chegaria às Plêiades em 11 anos pelo relógio de bordo e à Andrômeda em 25 anos (quando mais de dois milhões de anos teriam passado na Terra)…
De qualquer forma, os projetos de viagens longas, que exigem uma década (medido no relógio do foguete), trazem problemas. Se forem tripuladas, a tripulação não encontrará, na volta, seus contemporâneos. E a duração das viagens seria insuportável para o ser humano. A solução da ficção científica talvez seja a mais recomendável: fazer hibernar os astronautas.
Infelizmente, ao contrário do que parece nos filmes, a hibernação envolve graves problemas técnicos, como os cristais que se formam dentro das células. Cristais de gelo que crescem e podem acabar por romper as paredes das células. O processo de descongelamento também é danoso para o tecido: quando a temperatura é elevada ao grau de derretimento, começa a haver uma fusão de cristais de gelo que comprimem, deformam e até rompem as células.
Hoje, é difícil manter rins ou fígados vivos por congelamento durante mais de três dias e corações e pulmões por mais de meio dia. É notoriamente difícil, com o atual conhecimento, congelar o corpo humano ou partes dele, a não ser células sangüíneas e espermatozóides.
Alguns especialistas tentaram o congelamento rápido, para minimizar a formação de cristais de gelo letais, num processo chamado devitrificação. Funciona, mas gera outros problemas: os lipídios da membrana celular que estão, geralmente, na forma líquida, se transformam em um gel (de modo parecido ao que ocorre com a gordura animal resfriada). Em conseqüência a membrana passa a vazar e as células morrem rapidamente à medida que seu delicado equilíbrio químico é perturbado.
A solução está na natureza, que concebeu alguns mecanismos engenhosos que permitem a animais de sangue frio sobreviver a um inverno gelado. As pesquisas já esclareceram os mecanismos biolõgicos que tornam isso possível e agora tratam de adaptá-los. Já conseguiram prolongar muito a vida de alguns órgãos de mamíferos, mas não na escala necessária para um vôo de longa duração. Mas continuam tentando.
“A vida humana é preciosa demais para ficar restrita a um planeta”,escreveu Carl Sagan. E um dia a Terra vai morrer, segundo a física, e isso é inevitável, o que significa que o programa espacial é a esperança da espécie.
O limite máximo para a existência da Terra é de cerca de cinco bilhões de anos, quando o Sol esgotará seu combustível de hidrogênio e se converterá em uma estrela vermelha gigante. Antes disso os oceanos ferverão, as montanhas derreterão, o céu ficará em chamas e o planeta arderá até ficar reduzido a cinzas. A Terra morrerá pelo fogo.
Muito antes a Terra passará por desastres ambientais que ameaçarão a existência da espécie e o quanto antes estivermos preparados para imigrar, tanto melhor.


É pura arrogância imaginar que somos a única forma de vida inteligente no espaço cósmico, em meio a bilhões de planetas semelhantes à Terra no universo. Mas a verdade é que ainda não se detectou sinal dessa vida comprovado cientificamente.
A ficção científica trabalha sempre com variações da aparência do corpo humano. Mas a maioria dos exobiólogos acredita que há apenas alguns critérios básicos para a vida inteligente:
· Alguma forma de olhos ou de um órgão sensorial para recolher informações do ambiente.
· Alguma forma de mão ou tentáculo capaz de manipular o ambiente.
· Alguma forma de linguagem que permita fazer cultura.
· Alguma forma de escrita ou de registro da cultura para que ela possa ser transmitida às gerações futuras.
As descobertas, invenções e revoluções científicas do passado (a introdução da pólvora, da imprensa de tipos móveis, de máquinas, de energia a vapor, da eletricidade, da energia atômica) modificaram a civilização de modo radical. Como é que as revoluções do século 20 vão deixar o século 21?
As pesquisas com as células-tronco e a tentativa de produzir células embrionárias provocando outras células eletricamente e sem fecundação (para afastar as objeções religiosas) já dá uma boa medida da aceleração da pesquisa científica depois da Revolução Biomolecular. Na feliz imagem de um jornalista francês, a conquista genética permitirá que os engenheiros genéticos passem a funcionar como coreógrafos da vida. A Revolução da Informática promete poder de computação ilimitado, novos caminhos na comunicação, até a inteligência artificial trazendo conforto e modernidade para dentro de casa. E a Revolução Quântica promete novos materiais, novas fontes de energia, talvez a possibilidade de criar novas formas da matéria e a indicação do rumo a uma civilização planetária.


Os astrofísicos exploram ativamente os tipos de civilização que podem existir no futuro de séculos e de milênios e propõem as linhas mestras especulativas para a evolução da nossa civilização nos vários milhares de anos que se seguirão.
A partir de considerações puramente físicas, conclui-se que qualquer civilização no espaço cósmico depende, sucessivamente, de três principais fontes de energia: o seu planeta, a sua estrela e a sua galáxia. O astrônomo russo Nikolai Kardashev classifica as civilizações de acordo com a sua fonte de recursos: Tipos I, II ou III, com base na progressão natural do consumo de energia.
A produção de energia de cada tipo de civilização é, aproximadamente, 10 bilhões de vez maior do que a anterior.
Nós, aqui na Terra, modestamente, ainda não somos uma civilização do Tipo I, mas chegaremos lá, mesmo que a expansão seja moderada. Se a economia do mundo crescer à pequeníssima taxa de 1% ao ano (o que é uma previsão muito conservadora), como o crescimento econômico é impulsionado, basicamente, pelo consumo maior de energia, dentro de mais alguns séculos nosso mundo estaria próximo de ser uma civilização planetária, do Tipo I.
Mais energia permitiria mais crescimento e se passássemos a crescer a 3%, em 800 anos chegaríamos a ser uma civilização estelar, do Tipo II.
Aí, será necessário dominar as viagens interestelares e a transição do Tipo II para o III será mais lenta. As necessidades de energia levarão o ser humano a buscá-la fora do Sistema Solar, mas, se andarmos ligeiro, em 100 mil anos estaremos transformados em uma civilização galáctica, do Tipo III.
Dessas três transições, a mais perigosa, segundo os cientistas, talvez seja a transição de uma civilização do Tipo 0 para uma civilização do Tipo !. O perigo é que uma civilização do Tipo 0 é como uma criança que aprende a andar, incapaz de controlar seus desejos e suas emoções, suas explosões de raiva autodestrutiva. Sua história é manchada por erros primários, ódios sectários, ações fundamentalistas, guerras nacionalistas, terrorismo, provocações guerrilheiras e preconceitos raciais ou sociais ultrapassados. É uma civilização que caminha, no século 21, ao longo das muitas linhas de fratura criadas há milênios e aprofundadas nos séculos 19 e 20.
Se a civilização conseguir sobreviver ao desastre global, sua ciência, inevitavelmente, conseguirá desvendar os segredos da vida, do átomo e da inteligência artificial. Se conseguir recuperar os melhores valores humanos, o conteúdo das revoluções do século 20 renderá material suficiente para abrir os caminhos que levarão a sociedade atual ao nível de uma civilização planetária, com a colaboração entre os povos que caracteriza esse tipo de civilização.





A REVOLUÇÃO DA TEORIA QUÂNTICA

As verdadeiras revoluções científicas são aquelas que além de ampliar os conhecimentos existentes, se fazem também acompanhar de uma mudança nas idéias básicas sobre a realidade. Um exemplo célebre foi a revolução do polonês Nicolau Copérnico, no século XVI, que derrubou o conceito segundo o qual a Terra estava imóvel no centro do Universo, afirmando em vez disso que nosso planeta gira em torno do Sol. Depois, o inglês Isaac Newton suplantou o conceito de espaço absoluto e dois séculos mais tarde o alemão Albert Einstein aposentou também a idéia do tempo absoluto. Embora importantes, nenhuma dessas grandes revoluções na ciência pode rivalizar com o impacto da revolução quântica. A partir dela, os físicos foram forçados a abandonar não apenas os conceitos do homem sobre a realidade - mas a própria realidade. Não admira que a Física Quântica tenha adquirido a reputação de algo bizarro ou místico. Tanto que o dinamarquês Niels Bohr, um dos criadores da nova ciência, chegou a afirmar certa vez que só não se escandalizou com a Física Quântica quem não a entendeu.

O ponto de partida para chegar às idéias quânticas é o átomo, já conhecido dos filósofos gregos, na Antigüidade. Eles acreditavam que toda matéria era constituída por minúsculos fragmentos indestrutíveis. Ora, o domínio da
Física Quântica é formado justamente pelos fragmentos desses fragmentos. Desde 1909, de fato, o inglês Ernest Rutherford estabeleceu que os átomos, aparentemente indivisíveis, são compostos por um núcleo ao redor do qual giram outras partículas, os elétrons. Segundo esse modelo, o núcleo podia ser comparado ao Sol, enquanto os elétrons seriam os planetas orbitando a sua volta. E importante salientar a idéia de que os elétrons seguiam trajetórias bem definidas, de tal modo que a qualquer momento seria possível determinar a sua posição e a sua velocidade.

O problema é que, ao contrário dos planetas, os elétrons não seguem um trajeto claro e inequívoco quando se movem. Seus caminhos caprichosos só seriam revelados anos depois do modelo atômico proposto por Rutherford. O primeiro sinal de que a visão "planetária"não funcionava surgiu em 1911, quando Bohr escreveu uma nova fórmula sobre a emissão de energia pelos átomos. Para surpresa geral, a fórmula mostrava que havia lugares proibidos para o átomo - regiões inteiras, em torno do núcleo atômico, onde os elétrons não podiam girar. Podiam saltar de uma órbita mais distante a outra mais próxima, mas não podiam ocupar diversas órbitas intermediárias. E, nesse caso, emitiam um pacote inteiro de energia - nunca menos de certa quantidade bem definida, desde então chamada quantum de energia.

Era estranho, já que os planetas podiam girar a qualquer distância do Sol e mudar de órbita alterando o seu nível energético em qualquer quantidade, sem limite. Apesar disso, a fórmula de Bohr explicava com precisão os fatos conhecidos sobre a emissão de luz pelos átomos, de modo que a nova
Física do quantum acabou se impondo com firmeza. Dez anos mais tarde, o enigma das órbitas proibidas foi resolvido de uma maneira que afastou ainda mais do átomo a idéia de um sistema solar em miniatura. Desde a década de 20, com efeito, as órbitas dos elétrons passaram a ser vistas como algo semelhante às ondas sonoras que compõem as notas de um instrumento musical: portanto. uma imagem muito distante dos corpos sólidos girando em torno do Sol.

O primeiro passo na direção das ondas eletrônicas surgiu em experiências nas quais um feixe de elétrons atravessava um cristal e se espalhava mais ou menos como a luz ao formar um arco-íris. O físico francês Louis de Broglie mostrou que o comprimento dessas inesperadas ondas podia ser relacionado com a velocidade dos elétrons. Segundo De Broglie, elétrons em alta velocidade se comportam como ondas curtas e elétrons em baixa velocidade, como ondas longas. Assim, tornou-se possível transformar uma característica dos movimentos mecânicos - a velocidade - em um traço típico dos fenômenos ondulatórios, o comprimento de onda.

Essa foi a deixa que o alemão Erwin Schrodinger aproveitou para criar a imagem musical do átomo mostrando que ela desvelava o enigma das órbitas proibidas. Basta ver que, ao vibrar, uma corda de violão produz uma nota fundamental, como o mi por exemplo, e diversas outras notas geralmente inaudíveis, que enriquecem o som mais forte.
São os chamados harmônicos, cujas vibrações são sempre múltiplos inteiros da vibração principal: pelo menos duas vezes mais rápidas do que esta, mas nunca 2,5 vezes, ou 3.5 vezes. O mesmo ocorre no átomo, imaginou Schrodinger: nesse caso, o elétron só gira onde o tamanho da órbita lhe permite formar ondas inteiras, excluindo as órbitas que, para serem completadas, exigiriam uma fração de onda.

O resultado confirmava a fórmula intuitiva de Bohr. dando início a uma nova
teoria física, daí para a frente chamada Mecânica Quântica. Sua grande marca foi a introdução do conceito de onda de maneira tão fundamental quanto a noção de partícula. Coube ao alemão Max Born, outro dos grandes pioneiros do século, explicar como um elétron podia ser ao mesmo tempo onda e partícula. Para ele, a onda não era nenhum tipo de substância material, mas um meio de avaliar certas medidas, como a velocidade ou a posição de uma partícula, "Onda eletrônica", na verdade, seria uma expressão com o mesmo sentido que se atribui à expressão "onda de criminalidade". Assim, quando há uma onda de crimes numa cidade, há grande probabilidade de um crime ocorrer nessa cidade, a qualquer momento.

A onda descreve um padrão estatístico, dizendo em que período de tempo, ou em que locais, os crimes são mais prováveis. Da mesma maneira, a onda associada a um elétron descreve a distribuição estatística dessa partícula, determinando onde é mais provável que ela esteja. A ondulação nada tem a ver com a substância do elétron, mas em cada ponto do espaço diz qual a probabilidade de que ele se encontre ali. Essa interpretação de Max Born poderia parecer frustrante para quem esperasse ver as ondas ligadas a algum segredo sobre a natureza da matéria, mas é uma dramática mudança na própria ciência. Até então, havia grande convicção de que o Universo fosse estritamente determinístico e de que, portanto, sempre se poderia conhecer com precisão a posição de um corpo. Para a Mecânica Quântica, porém, o Universo é inerentemente não-determinístico, uma idéia que Albert Einstein nunca aceitou. "Deus não joga dados com o Universo", respondia ele aos que argumentavam em favor da probabilidade quântica. Mas existe um método poderoso para tentar adivinhar os lances dos dados divinos: trata-se do célebre Princípio da Incerteza, enunciado pelo físico Wemer Heisenberg, em 1927.

Sua base é uma fórmula para medir pares de valores, como por exemplo velocidade e posição. O princípio diz que, se a posição for medida com grande precisão, é possível ter uma certa idéia do valor da velocidade. Se, em vez disso, se medir a velocidade com precisão, a posição pode ser avaliada dentro de certos limites. A regra vale para outros pares de valores, como tempo e energia. Muitas vezes, o princípio tem sido explicado como uma interferência do medidor sobre o objeto medido: para saber a posição de um elétron é preciso agir sobre ele, por meio de um raio de luz, por exemplo. O raio incide sobre o alvo e, dependendo do desvio que sofra permite avaliar a posição do alvo.

É o mesmo procedimento que se usa para ver um objeto grande, como um carro, e determinar onde está. É claro que o levíssimo impacto de um ponto de luz não tem nenhum efeito mensurável sobre o movimento do carro, enquanto no caso do elétron o choque é devastador, perturbando a medição. Em conseqüência, haveria uma incerteza inerente a toda medição em escala microscópica. Na realidade, segundo a concepção moderna, não há sentido dizer que um elétron tem ao mesmo tempo posição e velocidade bem definidas. A incerteza seria inseparável da própria natureza dos corpos quânticos.

É mais fácil imaginar que um elétron tem duas caras - como um ator desempenhando dois papéis em um filme. Ao medir sua posição, se estará observando O “elétron-em-posição", um dos papéis do ator. O “elétron-em-velocidade " entra em cena quando se faz uma medida de velocidade. No primeiro caso, o elétron se assemelha mais a uma partícula, já que a imagem que temos é a de um corpo bem localizado no espaço. Quando a medida mais precisa é a da velocidade e o corpo não tem uma posição definida - há diversos lugares com igual probabilidade -, então surge com mais força a sua característica de onda.

A experiência que melhor ressalta a dupla face dos elétrons é a das fendas de interferência, inicialmente realizada com luz pelo inglês Thomas Young, no início do século XIX. A comparação com a luz é importante. Um raio luminoso é dirigido para uma tela com uma estreita fenda de modo a projetar uma imagem difusa em uma segunda tela colocada atrás da primeira. Se a primeira tela tiver duas fendas em vez de uma, surgirão duas imagens difusas, mais ou menos circulares, que se sobreporão parcialmente. Mas as imagens sobrepostas não se tornam uma simples soma de luzes: em vez disso, aparecem diversas faixas intercaladas de luz e sombra. São as chamadas franjas de interferência.

O mesmo efeito é obtido se, em lugar de luz, se usar um feixe de elétrons. A franja eletrônica, desenhada em uma tela de TV, é uma demonstração da natureza ondulatória do elétron. As faixas "claras", nesse caso, representam as posições onde é mais provável encontrar os elétrons. É impossível explicar a interferência de elétrons por meio da noção tradicional de partícula mecânica. E claro que um elétron não pode passar pelas duas fendas ao mesmo tempo, pelo menos enquanto se mantiver apenas como uma partícula, à maneira antiga. Mas a interferência é uma combinação daquilo que acontece nas duas fendas ao mesmo tempo. Então, se o elétron passa por uma única fenda, como será que a existência da outra fenda, por si só, pode criar as franjas claras e escuras?

A resposta é que a partícula está se comportando como uma onda. Mesmo quando só um elétron é atirado contra as fendas, o padrão de interferência surge na tela, interferindo, por assim dizer, consigo mesmo. Segundo o princípio da incerteza é possível fazer uma medida precisa da posição do elétron e decidir em qual das duas fendas ele está, mas o preço a pagar é uma perda de precisão sobre o rumo que ele tomará em seguida. De modo que se terá apenas uma vaga idéia de seu movimento entre uma placa e outra: a maior probabilidade é de que na segunda placa se formará uma imagem difusa e aproximadamente circular.

Não é possível avaliar a precisa distribuição de claros e escuros das franjas de interferência. Caso se queira medir diretamente esse padrão, será preciso abandonar qualquer pretensão de saber por qual fenda o elétron passou: é igualmente provável que tenha passado por qualquer uma delas, o que significa uma incerteza sobre sua posição. Um meio de entender tudo isso é imaginar que existam dois mundos, de tal forma que em um deles o elétron passe pela primeira fenda e no outro, pela segunda. Os dois mundos coexistem, misturando suas realidades, até o momento em que se faça uma medida direta da posição do elétron. Nesse caso, as franjas de interferência - formarão uma realidade bem definida apenas enquanto não se medir a posição do elétron em uma ou outra fenda.

O fato é que os pesquisadores podem escolher o que querem ver – uma outra face do elétron - e por isso se costuma dizer que a natureza do elétron depende do homem. Nem todos os físicos levam a sério a idéia de duas realidades existindo uma ao lado da outra, mas é possível puxar pela imaginação e penetrar ainda mais profundamente nos seus paradoxos. No caso do experimento com as franjas de interferência, o que aconteceria se o feixe de elétrons dirigido para as fendas alcançasse a segunda tela, sem que ninguém observasse o resultado? A tela poderia ser fotografada e a foto, arquivada, para que não fosse vista. Assim, algo teria acontecido, mas, como não foi observado, não poderia existir como realidade concreta - até que alguém finalmente se decidisse a lançar um olhar criador para o fantasma perpetuado no filme.

Trata-se de um célebre quebra-cabeça criado por Erwin Schrodinger e desde então apelidado "paradoxo do gato".
Esse experimento mental, como dizia o físico, funciona da seguinte forma: um gato é aprisionado numa caixa junto com uma garrafa selada contendo gás venenoso. Sobre a garrafa pende um martelo pronto para quebrá-la. O gatilho dessa armadilha é uma substância radioativa que emite partículas a alta velocidade. Em 1 minuto, há uma chance de 50% de que a substância emita radiação e solte o martelo. fazendo quebrar a garrafa e liberar o gás venenoso. Assim, ao cabo de 1 minuto, coexistem dois mundos possíveis. Num deles, o gatilho foi acionado e o gato está morto; no outro, não houve emissão de radiação e o gato está vivo. Enquanto não se abrir a caixa, nenhuma das duas possibilidades poderá ser considerada real e o gato não será muito diferente dos mortos-vivos das histórias de terror. Ele permanece numa fantasmagórica superposição de realidades, entre a vida e a morte.

O físico inglês Anthony Leggett imagina que os enigmas quânticos não valem para os gatos - eles são complexos demais, do ponto de vista físico, para ficarem suspensos entre dois mundos-fantasmas. A mecânica probabilística está definitivamente confinada ao universo das partículas fundamentais, as formas mais simples da matéria. Leggett. dessa maneira, propõe que existem duas Físicas diferentes regendo o mundo, uma delas com leis para as partículas, individualmente, outra com leis para os vastos conjuntos de átomos que compõem os seres vivos e os objetos macroscópicos.

O físico americano Eugene Wigner, por sua vez, criou uma especulação radical segundo a qual é a mente do físico que cria toda a realidade. Seria a consciência do homem que filtra a confusão quântica do Universo e gera uma realidade bem definida. Roger Penrose é outro cientista a imaginar um entrelaçamento entre a mente e a realidade. Ele pensa que os mecanismos mentais do raciocínio estão submetidos às flutuações quânticas, dando origem, por exemplo, às inexplicáveis explosões criativas dos músicos ou dos matemáticos. Muitos pensadores, como Fritjof Capra, supõem além disso um paralelo entre a realidade quântica e as concepções místicas das religiões orientais.

Todas essas especulações indicam como são profundos os paradoxos que, há sessenta anos, entraram para os livros de
Física por meio da Mecânica Quântica. O fato de continuarem sendo debatidos por tanto tempo pode não impressionar aqueles cientistas para os quais as teorias servem apenas como instrumento de trabalho. Mas poucos adotariam a opinião radicalmente cética de Einstein que, nas suas próprias palavras, enterrou a cabeça na areia "de medo do temível quantum".

Este é o primeiro de dois artigos sobre o assunto.

Para saber mais

Á procura do gato de Shrodinger,
John gribbin, Editorial Presença, Lisboa, 1986
Pensando a
Física, Mário Schenberg, Editora Brasiliense, São Paulo, 1984.


O sim, o não e o talvez

O uso da probabilidade nos cálculo da
Física deu excelente resultado, levando a uma formidável ampliação dos horizontes do conhecimento e a inventos como a TV e o raio laser. Mas a probabilidade também tem as suas limitações e, quando aplicada a uma teoria fundamental, como é o caso da Mecânica Quântica, provoca certa inquietação. Uma coisa, por exemplo, é alguém olhar um carro e dizer: "A velocidade daquele carro é de 100 quilômetros por hora". Outra, bem diferente, é dizer: "Aquele carro não tem velocidade definida; é provável que seja 100 quilômetros por hora, mas também pode ser 80 ou 120".

Nas duas situações, existem informações básicas sobre o carro - calcular a velocidade é um dado absolutamente fundamental para qualquer
teoria física. Mas, na primeira, a informação é inequívoca: um único número. Em lugar disso, a resposta probabilística fornece um conjunto de números, como se o carro pudesse desenvolver diversas velocidades ao mesmo tempo. Do ponto de vista científico, as respostas múltiplas da Mecânica Quântica significam apenas isso: a teoria, em certos casos, oferece um conjunto de resultados mais ou menos prováveis para determinado cálculo. Qualquer interpretação além disso é simples exercício de imaginação. Um problema é que, no caso de um corpo como o carro, aFísica sempre dá uma resposta única e taxativa - a probabilidade só afeta os corpos microscópicos.

Esse fato força uma divisão do mundo físico em duas partes, numa das quais valem leis probabilísticas e deterministas, e no outro, apenas leis probabilísticas. Atualmente, a grande maioria dos cientistas aceita, sem preconceito e sem versões mirabolantes, as equações probabilísticas. O que nem todos aceitam é o casamento da nova
Física com a religião. "Na minha opinião, não tem cabimento associar o misticismo à Mecânica Quântica", pondera o professor Henrique Fleming, físico teórico da Universidade de São Paulo. Isso causa uma certa confusão entre o que é ciência e o que está mais próximo da religião ou da Filosofia, acabando por não esclarecer nem uma coisa nem outra.

Flávio Dieguez




Postagens mais visitadas