Translate this Page

ONLINE
2

Partilhe esta Página

 


 



 



 



 


 




 












 


  




 



 


 



S.I.

Sistema internacional

de unidades.



   


 



 



 


 


 





 


 


 


FÍSICA MODERNA
FÍSICA MODERNA

 

bn

 

 ARTIGO 01

 

Como era a Física do século XIX?

As áreas da Física que chamamos "Física Clássica" e que compreendem a mecânica, a óptica, a termodinâmica e o eletromagnetismo já haviam alcançado um grande aperfeiçoamento no século XIX. Quase tudo aquilo que se ensina sobre Física no segundo grau já havia sido descoberto naquela época - e, é claro, em um nível mais elevado do que aquilo que se ensina nos colégios.

O desenvolvimento da mecânica clássica tinha atingido uma grande precisão, permitindo o cálculo tão exato dos movimentos dos planetas, que qualquer pequena diferença entre a teoria e as observações precisava ser considerada seriamente. Foi investigando diferenças minúsculas desse tipo que a astronomia do século XIX descobriu a existência do planeta Netuno: sua existência foi prevista matematicamente por Urbain Le Verrier, e depois ele foi observado (em 1846) por Johann Gottfried Galle.

A mecânica do século XIX conseguia explicar movimentos complexos, como os dos piões e giroscópios; estudou os movimentos de líquidos e gases; e desenvolveu técnicas matemáticas muito sofisticadas com a chamada "mecânica analítica", que utiliza um formalismo diferente do que existia na época de Newton.

Sob o ponto de vista da tecnologia, esses conhecimentos foram aplicados no desenvolvimento de novos meios de transporte - grandes navios, submarinos, balões dirigíveis e até os precursores da asa-delta.

A física ondulatória (abrangendo a óptica e a acústica) também parecia ter atingido uma grande perfeição durante o século XIX. Até o século XVIII, a opinião predominante era a de que a luz era constituída por pequenas partículas muito rápidas que saíam dos corpos luminosos. No entanto, no início do século XIX foram estudados fenômenos de difração e interferência, que só podiam ser explicados supondo-se que a luz fosse constituída por ondas. Graças principalmente aos estudos de Augustin Fresnel e Thomas Young, os físicos foram se convencendo de que era necessário abandonar a teoria corpuscular da luz, e o modelo ondulatório se tornou uma unanimidade. Para o estudo dos fenômenos ondulatórios da luz, foram desenvolvidos métodos matemáticos bastante complicados.

Foi também durante o século XIX que foram estudadas as radiações infravermelha e ultravioleta, duas radiações semelhantes à luz, porém invisíveis. Assim, a óptica se ampliou, passando a abranger não apenas aquilo que vemos, mas também certos tipos de "luz invisível".

Além dos estudos puramente científicos, o estudo da luz levou a importantes inventos, durante o século XIX. Primeiramente, a invenção da fotografia por Niepce e Daguerre, permitindo a fixação de imagens através de meios químicos. As primeiras fotografias exigiam tempos de exposição enormes (alguns minutos), mas depois, com o gradual aperfeiçoamento técnico, foi possível produzir fotos "instantâneas", e por fim fazer seqüências de fotografias de objetos em movimento. Daí surgiu o cinema, na última década do século XIX.

Antes do final do século já existiam métodos de produzir fotografias coloridas. Um físico francês, Gabriel Lippmann, utilizou o princípio de interferência luminosa em películas finas e conseguiu produzir fotografias em cores que eram, na verdade, precursoras dos atuais hologramas de luz branca.

O estudo do calor e de suas aplicações teve também um enorme desenvolvimento nessa época. Já no século anterior haviam começado a se difundir as máquinas a vapor, mas foi durante o século XIX que esses tipos de máquinas foram aperfeiçoadas e utilizadas em grande escala, produzindo a chamada "revolução industrial". Além de seu uso em indústrias, as máquinas a vapor foram aplicadas ao transporte (navios, trens, e até automóveis a vapor).

Os cientistas estudaram a conversão do trabalho em calor e do calor em trabalho, propuseram a lei da conservação da energia, determinaram as leis que regem o rendimento de máquinas térmicas e estabeleceram o conceito de entropia e a segunda lei da termodinâmica.

A eletricidade e o magnetismo, que antes de 1800 eram apenas fenômenos curiosos sem grande importância, também sofreram um importante avanço durante o século XIX. A invenção da pilha elétrica por Alessandro Volta permitiu pela primeira vez a produção de correntes elétricas duradouras e de grande intensidade, abrindo o caminho para estudos completamente novos - como a descoberta da eletrólise. Nas primeiras décadas do século XIX, Oersted e Faraday descobriram a possibilidade de produzir efeitos magnéticos utilizando a eletricidade, e vice-versa, nascendo assim o eletromagnetismo. Houve um intenso estudo experimental dessa nova área, seguido por desenvolvimentos teóricos que culminaram com a teoria eletromagnética de Maxwell.

Embora inicialmente fosse apenas um assunto para pesquisa científica, o eletromagnetismo logo levou a resultados práticos importantes. Foram construídos dínamos que produziam eletricidade a partir do movimento, e nas duas últimas décadas do século XIX foram construídas grande usinas termoelétricas para geração de eletricidade. Dessa forma, o uso doméstico e industrial da eletricidade começou a se tornar possível. As lâmpadas elétricas substituíram gradualmente os lampiões e a iluminação a gás. Os motores elétricos começaram a ser utilizados para várias finalidades, como por exemplo nos primeiros elevadores. A eletricidade também revolucionou as comunicações, primeiramente através do telégrafo (que já permitia a troca de mensagens de um continente para outro) e depois pelo telefone. Antes de 1900 já era possível fazer ligações interurbanas entre muitas cidades na Europa e nos Estados Unidos.

As grandes sínteses

Se compararmos a Física do final do século XIX com a de cem ou duzentos anos antes, poderemos considerar que o avanço científico havia sido espantoso. Os maiores sucessos não foram a descoberta de novos fenômenos, mas sim resultados teóricos que revolucionaram a visão sobre os principais fenômenos físicos. O eletromagnetismo conseguiu inicialmente unir duas áreas de estudo que eram totalmente separadas antes - a eletricidade e o magnetismo. Essa síntese foi apenas um primeiro passo, pois o estudo dos fenômenos eletromagnéticos levou, na segunda metade do século XIX, à previsão de ondas eletromagnéticas com a mesma velocidade da luz. Essas ondas foram depois criadas experimentalmente por Hertz, e confirmou-se que elas tinham propriedades muito semelhantes à das ondas luminosas. Concluiu-se então que a luz era um tipo especial de ondas eletromagnéticas, de alta frequência, e assim a óptica passou a ser uma parte do eletromagnetismo.

O desenvolvimento da termodinâmica também levou a outra síntese. Embora os fenômenos térmicos possam ser estudados sob o ponto de vista puramente macroscópico (daquilo que se observa e mede), os físicos começaram a imaginar modelos microscópicos para explicar os fenômenos gasosos e assim nasceu a teoria cinética dos gases. Nessa teoria, a temperatura passa a ser uma indicação da energia cinética média das moléculas do gás e é possível relacionar o calor específico dos gases à sua composição molecular. No final do século XIX foi também desenvolvida a mecânica estatística, que aplicou leis probabilísticas ao estudo dos movimentos das partículas da matéria, permitindo explicar a segunda lei da termodinâmica a partir de um modelo mecânico. Conseguiu-se, assim, uma síntese entre a mecânica e a termologia.

Portanto, ao final do século XIX, os físicos podiam perceber grandes avanços e importantes sucessos. Novos fenômenos haviam sido descobertos, novas leis haviam sido estabelecidas, e havia resultados teóricos novos muito gerais. A eletricidade e o magnetismo haviam se unido, depois o eletromagnetismo e a óptica haviam se fundido, e a mecânica e a termodinâmica também estavam produzindo uma síntese teórica.

O fim da Física?

Diante dos grandes sucessos científicos que haviam ocorrido, em 1900 alguns físicos pensavam que a Física estava praticamente completa. Lord Kelvin - um dos cientistas que havia ajudado a transformar essa área - recomendou que os jovens não se dedicassem à Física, pois faltavam apenas alguns detalhes pouco interessantes a serem desenvolvidos, como o refinamento de medidas e a solução de problemas secundários. Kelvin mencionou, no entanto, que existiam "duas pequenas nuvens" no horizonte da física: os resultados negativos do experimento de Michelson e Morley (que haviam tentado medir a velocidade da Terra através do éter) e a dificuldade em explicar a distribuição de energia na radiação de um corpo aquecido.

Foram essas duas "pequenas nuvens", no entanto, que desencadearam o surgimento das duas teorias que revolucionaram a Física no século XX: a teoria da relatividade e a teoria quântica.

A visão otimista de Lord Kelvin, compartilhada por muitos físicos da época, não levava em conta que existiam, na verdade, muitos problemas na física do final do século XIX. No entanto, a maior parte dos cientistas pensava apenas nos sucessos, e não nessas dificuldades. Não percebiam a existência de grande número de fenômenos inexplicados e de problemas teóricos e conceituais pendentes.

As descobertas experimentais do final do século

Nas últimas décadas do século XIX foram estudadas descargas elétricas em gases rarefeitos. Estudando os fenômenos que ocorriam a pressões muito baixas, William Crookes descobriu os raios catódicos. Em 1895, investigando os raios catódicos, Röntgen descobriu os raios X. Foi uma descoberta inesperada, pois nenhuma teoria previa a existência de radiações invisíveis penetrantes como aquelas. Os raios X logo foram empregados na medicina e se mostraram muito úteis, mas não se sabia exatamente o que eles eram. Alguns pensavam que se tratava de uma radiação semelhante ao ultravioleta, outros imaginavam que eram ondas eletromagnéticas longitudinais, outros pensavam que eram partículas de alta velocidade. O que eram os raios X, afinal? Durante mais de 10 anos, eles permaneceram como uma radiação misteriosa.

O estudo dos raios catódicos levou a uma outra descoberta importante. J. J. Thomson mostrou que eles eram constituídos por partículas com carga elétrica negativa (os elétrons), e que eles pareciam sempre iguais, qualquer que fosse o gás utilizado nos tubos de raios catódicos. Mas que relação essas partículas tinham com os átomos da matéria? Até essa época, ninguém havia suspeitado que pudessem existir coisas menores do que os átomos que os químicos estudavam. Os elétrons constituíam um problema no estudo da constituição da matéria.

Também no final do século XIX os estudos de Henri Becquerel e do casal Curie levaram à descoberta da radioatividade e de estranhos elementos que emitiam energia de origem desconhecida. Ninguém sabia o que produzia esses fenômenos, e apenas vários anos depois é que se começou a desvendar a natureza da radioatividade. O que eram as radiações emitidas pelos corpos radioativos? De onde saia sua energia, que parecia inesgotável?

O estudo da luz e das novas radiações havia levado a muitos sucessos, mas também trouxe grandes problemas. O espectro da luz do Sol, quando analisado com um espectrógrafo, mostra linhas escuras (descobertas por Fraunhofer). Depois se compreendeu que cada elemento químico em estado gasoso é capaz de emitir ou absorver luz com um espectro descontínuo de raias, e que o espectro do Sol é produzido pelos gases que o cercam. A espectroscopia se tornou um importante método de identificação dos elementos, e passou a ser um instrumento fundamental na química. Mas qual era a causa física dessas raias? De acordo com a teoria ondulatória da luz, cada linha do espectro deveria estar relacionada a algum fenômeno de oscilação regular, de uma frequência exata, capaz de emitir ou absorver aquela radiação. O que existia, nos átomos, que pudesse produzir isso?

Durante a última década do século descobriu-se que os raios X e a radiação ultravioleta podiam descarregar eletroscópios. Em alguns casos, a luz visível também podia produzir esse "efeito fotoelétrico", mas o fenômeno dependia da frequência da luz e do tipo de metal utilizado. Não se compreendia como isso ocorria, nem por que motivo alguns tipos de luz não conseguem produzir o efeito fotoelétrico. Compreendeu-se que, no efeito fotoelétrico, a radiação arranca elétrons dos metais. Esse efeito deveria depender da intensidade da luz (energia), e não da cor ou frequência. Mas não era isso o que acontecia.

Problemas teóricos

A teoria cinética dos gases havia sido um grande sucesso. No entanto, no final do século XIX, não se compreendia ainda muita coisa sobre a estrutura da matéria. O único estado da matéria para o qual havia uma boa teoria era o gasoso. Era incompreensível como os átomos podiam formar corpos sólidos, pois sabia-se (pelo eletromagnetismo) que era impossível produzir um sistema estável de partículas em repouso que se mantivesse apenas por forças eletromagnéticas. Existiriam outras forças desconhecidas agindo dentro da matéria?

A própria produção de moléculas era um mistério. Os átomos imaginados pelos químicos eram simples "bolinhas" sem estrutura. Como eles se unem? E por que motivo alguns átomos se unem entre si, mas não se unem com outros? Que tipos de forças são essas, que escolhem os parceiros? A Física não tinha resposta para essas perguntas.

Um dos grandes problemas teóricos no final do século XIX era compreender a interação entre matéria e radiação. Como funcionam os materiais luminescentes? Por que os sólidos emitem um espectro luminoso contínuo, e os gases emitem espectros descontínuos? Se a luz é uma onda eletromagnética, existem cargas elétricas vibrando dentro dos gases, para produzir a luz emitida? Por que essas vibrações possuem apenas certas frequências, diferentes de um elemento químico para outro?

Outro problema teórico provinha da mecânica estatística. Nos gases, a energia cinética média das moléculas depende apenas da temperatura. Numa mistura de gases, a energia se distribui por todos os tipos de moléculas, e as moléculas de menor massa (como hidrogênio) têm maior velocidade média do que as de maior massa. A teoria previa, assim, uma "equipartição de energia" por todos os tipos de partículas e de movimentos possíveis. Ela previa bem o calor específico dos gases, supondo que as moléculas eram simples "bolinhas". Mas se os gases são capazes de emitir espectros luminosos descontínuos, essas moléculas devem ser sistemas complexos. Por que, então, a teoria funcionava?

Além disso, dentro de um recipiente com gás aquecido também existe radiação eletromagnética (térmica), e a energia deveria se distribuir entre as moléculas e as ondas luminosas. A teoria parecia indicar que iriam sendo criadas ondas luminosas, e que elas ficariam com toda a energia. No entanto, isso não acontecia. Por que?

Uma cavidade quente ("corpo negro") emite radiação com um espectro contínuo. A teoria previa que ela deveria emitir mais radiação de pequenos comprimento de onda (grande freqüência) do que de grande comprimento de onda. Mas não era isso o que se observava. Até Lord Kelvin havia notado que havia algum problema nisso.

Havia, na verdade, um enorme número de nuvens no horizonte da Física, uma verdadeira tempestade que ameaçava derrubar tudo. Era o otimismo, ou talvez o orgulho de saber muito, que impedia a maioria dos físicos de perceber como a situação era grave.

As tentativas de unificação

No final do século XIX, o estudo de alguns desses problemas e as tentativas de continuar a unificar a física levaram a problemas teóricos complicados, desencadeando a criação da teoria da relatividade e da teoria quântica. As dificuldades surgiram basicamente quando se procurou unificar a mecânica com o eletromagnetismo (daí surgiu a teoria da relatividade) e a termodinâmica com o eletromagnetismo (daí se originou a teoria quântica).

A teoria quântica surgiu da tentativa de compreender os problemas de interação da radiação com a matéria e solucionar alguns desses problemas. Procurando fundir a teoria eletromagnética da luz com a termodinâmica e a mecânica estatística, logo surgiram dificuldades que pareciam insuperáveis. O primeiro passo no desenvolvimento da teoria quântica foi dado por Max Planck, há mais de cem anos - mais exatamente, em 1900. Nos primeiros anos do século XX, a teoria quântica começou a resolver diversos problemas: a radiação do corpo negro foi explicada por Planck; Einstein utilizou a teoria quântica para explicar o efeito fotoelétrico e o calor específico dos sólidos; e Bohr desenvolveu um modelo atômico quântico que explicou o espectro descontínuo emitido pelos átomos. Mas esses primeiros passos eram apenas um início. Apenas na década de  teoria quântica se transformou na Mecânica Quântica, com uma compreensão mais profunda da dualidade onda-partícula, graças a De Broglie, Schrödinger, Heisemberg, Bohr e outros. A teoria quântica nos permitiu compreender muitos fenômenos importantes, como a estrutura de átomos e moléculas (que forma a base de toda a química), a estrutura de sólidos e suas propriedades, a emissão e absorção de radiações. Apenas através da teoria quântica podemos compreender alguns dos mais importantes fenômenos da Física.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  ARTIGO 02

Consciência Quântica ou Consciência Crítica?

 

O advento da Física Quântica causou e tem causado enormes transformações na vida de todos nós. Nem sempre e nem todos estamos conscientes dos modos pelos quais uma revolução científica iniciada há cem anos pode nos afetar ainda hoje, mas provavelmente já ouvimos falar de seu impacto na evolução da própria Física e de toda controvérsia gerada pelas dificuldades conceituais de interpretação dos fenômenos quânticos.

 Seus efeitos, porém, se estenderam para além da Física, com desdobramentos importantes na Química, com a teoria de orbitais quânticos e suas implicações para as ligações químicas, e na Biologia, com a descoberta da estrutura do DNA e a inauguração da genética molecular, apenas para citar dois exemplos.

 

Mesmo conscientes disso tudo, estaríamos preparados para mais essa: para a possibilidade de que a própria consciência possa operar com base em princípios ou efeitos quânticos?

Pois é o que andam conjecturando algumas das mentes mais brilhantes de nosso tempo... e alguns franco-atiradores também. A descoberta do mundo quântico, que tanto impacto teve nas ciências e tecnologias, ameaça agora envolver o "etéreo" universo da psique.

 

É preciso dizer desde logo que, na verdade, essa história não é assim tão nova. Desde o início de sua formulação, a Física Quântica apresentou uma dificuldade essencial: a necessidade de se atribuir um papel fundamental para a figura do observador (aquele que está realizando um experimento quântico).

Isso decorre do fato da teoria quântica ser de caráter não determinístico, ou seja, trata-se de uma teoria para a qual a fixação do estado inicial de um sistema quântico (um átomo, por exemplo) não é suficiente para determinar com certeza qual será o resultado de uma medida efetuada posteriormente sobre esse mesmo sistema.

Pode-se, contudo, determinar a probabilidade de que tal ou qual resultado venha a ocorrer. Mas, quem define o que estará sendo medido e tomará ciência de qual resultado se obtém-se com uma determinada medida é o observador. Com isso, nas palavras de E. P. Wigner, "foi necessária a consciência para completar a mecânica quântica".

 

A introdução de elementos subjetivos na Física Quântica, embora tenha sido defendida por físicos notáveis como von Neumann, além do próprio Wigner, é considerada altamente indesejável, tendo sido tentadas diferentes formulações para contornar esse problema que, aliás, é objeto de debate ainda hoje.

Contudo, não é tanto esse problema de caráter epistemológico que se quer focalizar aqui, mas sim a possibilidade de que certos efeitos quânticos possam fazer parte do funcionamento do cérebro e estejam envolvidos na manifestação da consciência. Porém, antes de ir direto ao ponto, convém apontar alguns aspectos da dinâmica cerebral mais aceitos atualmente.

 

De forma resumida, pode-se dizer que as descrições mais convencionais apontam a consciência como sendo uma propriedade emergente das atividades computacionais realizadas pelas redes de neurônios que constituem o cérebro.

O cérebro é visto essencialmente como um "computador" para o qual as excitações neurais (correspondentes à atividade sináptica) seriam os estados de informação fundamentais (equivalentes aos bits).

A partir dessa visão, certos padrões de atividades neurais teriam estados mentais correlatos, sendo que oscilações sincronizadas no tálamo e no córtex cerebral produziriam uma conexão temporária dessas informações e a consciência surgiria como uma propriedade nova e singular, emergente da complexidade computacional das redes neurais atuando em sincronia.

 

Em geral, os enfoques quânticos não excluem o funcionamento do cérebro através de redes neurais (seria negar o óbvio), mas consideram que complexidade somente não explica tudo e situam efeitos quânticos como centrais para a descrição da emergência ou geração do eu consciente.

Aliás, alguns desses modelos negam que consciência seja uma propriedade emergente de redes neurais operando além de um certo nível crítico de complexidade, mas consideram que a dinâmica cerebral, na verdade, organiza e faz aflorar algo que já é uma propriedade intrínseca da natureza.

 

Há vários desses modelos e os mecanismos dos quais lançam mão são os mais diversos (...e os mais "viajados"). Infelizmente o espaço aqui disponível não é suficiente senão para salientar alguns aspectos mais importantes. Para que o leitor possa ter pelo menos um "aperitivo" do que propõem esses modelos, vamos destacar aqui três deles.

 

Modelo de Fröhlich-Marshall-Zohar - Herbert Fröhlich, físico especialista em supercondutividade a altas temperaturas, propôs, há bastante tempo, que seria possível ocorrerem estados quânticos coletivos em sistemas biológicos.

Existiriam efeitos vibracionais dentro das células correspondentes a radiação eletromagnética na faixa de microondas, resultantes de um fenômeno de coerência quântica biológica que teria origem em grandes quantidades de energia disponibilizadas por atividades metabólicas. Com isso, ele sugeriu a possibilidade de que estados de coerência quântica de grande alcance, semelhantes aos observados em supercondutividade e em lasers, chamados de condensados de Bose-Einstein, poderiam existir mesmo a temperaturas tão altas como as características de sistemas biológicos.

 

Marshal (psiquiatra) e D. Zohar (físico), tendo como preocupação básica o caráter unitário da consciência, encontraram na proposta de Fröhlich as propriedades necessárias de extensão espacial (não localidade) e capacidade para muitos estados se fundirem num todo único, não analisável, aspectos característicos dos fenômenos mentais.

Marshal se valeu, então, do sistema de fônons* bombeados de Fröhlich para propor que certas proteínas neurais poderiam formar condensados de Bose-Einstein, dando origem aos fenômenos conscientes.

*Um fônon ou fonão, na física da matéria condensada, é uma quase partícula que designa um quantum de vibração em um retículo cristalino rígido. O nome fônon deriva do grego phone (φονη), que significa som, voz.

Modelo de Eccles e Beck - Sir John Eccles, ganhador do prêmio Nobel de Fisiologia e Medicina de 1963 e autor, com Karl Popper, do livro The Self and It’s Brain, propôs um modelo, posteriormente aperfeiçoado em parceria com Frederick Beck, físico teórico, pelo qual efeitos quânticos ocorreriam nos terminais sinápticos dos neurônios e seriam moduladores das funções cerebrais. O mecanismo central estaria relacionado à exocitose, processo pelo qual as moléculas neurotransmissoras contidas em minúsculas vesículas são expelidas através da passagem sináptica entre neurônios.

 

Por esse modelo, a chegada de um impulso nervoso ao terminal de um axônio (prolongamento tubular através do qual os neurônios se comunicam) não induziria invariavelmente as vesículas a expelirem seus neurotransmissores através da sinapse, como se pensava. Isso seria controlado por uma espécie de "gatilho quântico", associado a transferências de elétrons através de um fenômeno denominado tunelamento, que promoveria alterações conformacionais nas membranas controladoras do mecanismo de deliberação de neurotransmissores.

Com isso, efeitos quânticos seriam os controladores efetivos de toda a dinâmica cerebral, embora não fique claro como é que tal mecanismo implicaria na emergência da consciência.

 

Modelo de Hameroff-Penrose - Dois dos principais propositores da Consciência Quântica são Stuart Hameroff, médico, e Roger Penrose, físico-matemático de Oxford que atua na área de Cosmologia e Gravitação e foi ganhador do prêmio Wolf juntamente com Stephen Hawking.

Ao final da década de 80, Penrose lançou um livro muito instigante, A Mente Nova do Imperador, que causou sensação e foi o responsável por muito da discussão a respeito de consciência e efeitos quânticos que se seguiu. Nesse livro, ele elabora extensas discussões a respeito dos seguintes pontos:

 

  1. a.     O pensamento humano não é algorítmico (é não-computacional);
  2. b.     Os únicos processos não-algorítmicos no Universo são os processos quânticos;
  3. c.      Não existe atualmente uma Física Quântica completa, mas está faltando uma Teoria Quântica da Gravitação;
  4. d.     O advento dessa nova teoria seria o passaporte para se formular um modelo quântico para a consciência.

Anos mais tarde, Penrose, em parceria com Hameroff, formulou um modelo um pouco mais específico, procurando localizar as estruturas cerebrais onde ocorreriam os tais efeitos quânticos. Nesse modelo, eles principiam por correlacionar certas características da psique com atributos de sistemas quânticos. Por exemplo:

 

  1. a.     A sensação de um self unitário (the binding problem) - isso é atribuido a coerência quântica e não-localidade;
  2. b.     Livre arbítrio - decorrência de um processo randômico, não-determinístico; teria a ver com indeterminação quântica;
  3. c.      Intuição - processamento não-algorítmico, computação via superposição quântica;
  4. d.     Diferença e transição entre estados não-conscientes e consciência - colapso da função de onda.  

A idéia deles é que a consciência poderia "emergir" como um estado quântico macroscópico a partir de um certo nível crítico de coerência de eventos acontecendo em certas estruturas subneurais, denominadas microtubulos, que compõem o esqueleto neuronal. Os ingredientes essenciais do modelo são os seguintes:

 

  1. 1.     Coerência quântica e auto-colapso da função de onda são essenciais para a emergência de consciência e isto acontece nos microtubulos;
  2. 2.     Tubulinas, subunidades dos microtubulos, são acopladas por eventos quânticos internos e interagem cooperativamente entre si;
  3. 3.     Deve ocorrer coerência quântica entre tubulinas através de um bombeamento de energia térmica e bioquímica, provavelmente a la Fröhlich;
  4. 4.     Durante o processamento pré-consciente, ocorre um processo de computação/superposição quântica nos microtubulos, até que um auto-colapso acontece em função de efeitos relacionados à Gravitação Quântica;
  5. 5.     O auto-colapso resulta em "estados clássicos" de tubulinas que então implementam uma determinada função neurofisiológica;
  6. 6.     Conexões via MAPs (microtubule-associated proteins) sintonizam e "orquestram" essas oscilações quânticas.

Consciência Quântica ou Consciência Crítica? - Pelo seu caráter altamente especulativo, modelos como os aqui delineados acabam provocando fortemente o senso crítico de físicos e neurocientistas.

Recentemente, Max Tegmark, de Princeton, publicou um trabalho em que ele mostra que os tempos de decoerência quântica em situações como as aqui aventadas são extremamente pequenos, entre 10-13 a 10-20 segundos, quando os tempos característicos para processos neurais são da ordem de 10-3 a 10-1 segundos. Hameroff e colaboradores contra-atacaram, afirmando que as estimativas de Tegmark não levaram em conta efeitos importantes que elevariam tais tempos de decoerência para valores neurofisiologicamente relevantes.

 

Apesar de se tratarem de ideias bastante controversas, atualmente se procura estabelecer arranjos experimentais em condições de testar modelos como os aqui apresentados. Os leitores interessados poderão obter maiores informações no website http://www.consciousness.arizona.edu/. Aqueles, porém, que se encontram por demais perplexos com o que acabam de ler, talvez prefiram a sugestão abaixo: 

"What´s mind? No matter.

What´s matter? Never mind"

 


 

ARTIGO 03

O Salto Quântico da Física

A afirmação de Heisenberg, responsável, em 1927, pela introdução na Física do princípio de indeterminação, de que "o único objeto da Física Teórica é o de calcular resultados que possam ser comparados com a experimentação, sendo completamente inútil fazer uma descrição satisfatória de todo o desenvolvimento do fenômeno” (Principles of Quantum Mechanics, 1930, p.7), dá bem a medida das profundas transformações que essa ciência conheceu nas primeiras décadas do século XX e que resultaram no que, de um modo geral, passou a ser conhecido como Física Moderna, ou mais especificamente, neste caso, como Física Quântica.

Como o objeto da Física é o estudo da natureza, seus métodos, fundamentos teóricos e objetivos epistemológicos estão em relação direta com as concepções que se têm de seu objeto, isto é, da natureza. O que equivale a dizer que, ao menos do ponto de vista histórico, como acontece com qualquer área do conhecimento, há um certo relativismo teórico que permite reconhecer, em diferentes épocas, diferentes modos de conceber a ciência.

Nesse sentido, pode-se falar que a Física que nasce com Aristóteles no século IV a. C., ocupa-se da "substância que tem em si mesma a causa de seu movimento", conforme escreve o filósofo grego em sua Metafísica, VI, 1, 1025 b 18, isto é, a Física é uma teoria do movimento.

Essa concepção mantêm-se viva até as origens da ciência moderna, no Renascimento, quando se dá uma grande transformação no conceito de natureza e de suas relações com o homem, através do conhecimento.

De ordem objetiva, esse conceito nos apresenta a natureza escrita em caracteres matemáticos, destituída de finalidade, absolutamente necessária em termos lógicos e epistemológicos, quer dizer, objetivamente verdadeira e tangível através dos experimentos científicos.

Abandona-se, assim, definitivamente, a idéia de que a Física devesse se ocupar da causalidade do movimento pela tarefa teórica, amadurecida com a obra de Newton, no século XVII, de descrever a ordem natural, "com experiências seguras [...], com o auxílio da geometria" procurando, como escreveu Kant no século XVIII, "estabelecer as regras segundo as quais ocorrem certos fenômenos na natureza".

A razão e o racionalismo conduzem a ciência na busca da previsibilidade dos fenômenos naturais pelo estabelecimento das regras capazes dessa previsão e que permitam, ao mesmo tempo, como condição de seu entendimento, a descrição visual do desenvolvimento dos fenômenos, representando-lhes a estrutura através de partículas em movimento.

Como escreveu Comte, filósofo do Positivismo, no século XIX, "o caráter fundamental da Física Positiva é considerar todos os fenômenos como submetidos a leis naturais invariáveis, cuja descoberta exata e cuja redução ao mínimo número possível constituem os objetivos de todos os nossos esforços, considerando-se absolutamente inacessível e sem sentido a busca daquilo a que se dá o nome de causas, sejam elas primárias ou causais".

Desse modo, a descrição substitui a explicação como tarefa da Física e a formulação de suas leis segue rigorosamente o paradigma racionalista do reducionismo lógico: há objetivamente uma ordem natural das coisas e a Física, ciência da natureza, deve representá-la consistentemente, formulando-lhe as regras fundamentais de sua descrição.

À busca da causalidade do movimento de que são dotadas as substâncias, na Física aristotélica, segue-se, pois, no mecanicismo da Física iluminista, a procura de uma nova forma de causalidade, a chamada causalidade necessária que subjaz à noção de ordem natural das coisas e cujas leis, como se disse, é tarefa da Física estabelecer, pelo estabelecimento das relações entre os fenômenos que dão concretude à ordem natural e pela demonstração empírica, através de experimentos, dessas relações.

Tinha-se nesse momento a sensação de que a Física havia concluído sua tarefa e que, excetuando-se alguns aspectos que era preciso ainda costurar, a ciência chegara às portas da grande Resposta.

Mas aí, e nesse momento se tem o marco da terceira fase da evolução da Física, Max Planck, em 14 de dezembro de 1900, anuncia, na Sociedade Berlinense de Física, que a energia não é emitida e tampouco absorvida continuamente, mas sim na forma de pequeninas porções discretas chamadas quanta, ou fótons, cuja grandeza é proporcional à freqüência da radiação.

Nascia a Física Quântica e consolidavam-se as mudanças de concepção que já vinham sendo anunciadas desde os fins do século XIX.

Em 1894, no livro Princípios de Mecânica, Henrich Hertz, físico alemão que em 1897 havia descoberto as ondas eletromagnéticas, já escrevia que "o mais imediato e, em certo sentido, o mais importante problema que o nosso conhecimento da natureza deve capacitar-nos a resolver é a previsão dos acontecimentos futuros, graças à qual poderemos organizar nossas atividades no presente".

Em 1927, Niels Bohr, com seu princípio de complementaridade, segundo o qual "não é possível realizar simultaneamente a descrição rigorosa do espaço-tempo e a conexão causal rigorosa dos processos individuais", anunciando que "uma ou outra deve ser sacrificada", sela a trajetória da Física como descrição total da ordem da natureza e a pretensão de que pudesse realizar-se, efetivamente, como teoria da necessidade dessa ordem natural.

Einsten e Infeld em The Evolution of Physics (A evolução da Física), anotando que fora necessária "uma corajosa imaginação científica para reconhecer que o fundamental para a ordenação e a compreensão dos acontecimentos podia não ser o comportamento dos corpos; mas o comportamento de alguma coisa que se interpõe entre eles, isto é, o campo -", indicam de forma clara os problemas que a Física Relativista trazia para a pretensão da Física Clássica de realizar a descrição do curso dos fenômenos através da representação visual das partículas em movimento.

Já não se trata mais nem de descrever, pela ambição da totalidade das representações, nem de explicar, pelo finalismo causal do movimento, a arquitetura da natureza, mas sim de prever os eventos observáveis consubstanciando-se a Tarefa da Física Moderna, que nasce com a Mecânica Quântica, na famosa observação de Heisenberg, quando escreve, em 1955, que a Física contemporânea não busca mais oferecer "uma imagem da natureza, mas uma imagem das nossas relações com a natureza".

A introdução do observador como elemento integrante, integrado e integrador da observação e do fenômeno observado relativiza o racionalismo objetivista e desenvolve, de um lado, uma dualidade na ciência que a manterá em contínua tensão com a busca obsessiva de sua unificação e da construção da teoria unificada capaz de fornecer ao homem a Resposta definitiva sobre a origem de tudo.

Físicos importantes, como Sheldom Glashow, prêmio Nobel, juntamente com Steven Weinberg e Abdus Salam, referem-se, em tom de desilusão a esse objeto de desejo da ciência como um Santo Graal da Física teórica, do mesmo modo que biólogos se referiram às perspectivas abertas pelos estudos do DNA recombinante e, depois, da Genômica, usando a mesma metáfora andante dos cavaleiros de Cristo.

O fato é que o desenvolvimento da Física Moderna impulsionado pela criação da Mecânica Quântica e pela Teoria da Relatividade, de Einsten, não se libertou dessa tensão e, ao contrário, levou-a aos limites da demonstrabilidade empírica e da testabilidade experimental.

Não se pode negar a efetividade tecnológica decorrente do desenvolvimento da Mecânica Quântica nos mais diversos campos, entre eles os da microeletrônica e transistores, dos novos materiais, dos raios laser, da informática, dos supercondutores, e tantas outras apropriações que transformaram e se cotidianizaram no mundo contemporâneo, a ponto de se constituírem em fatores fundamentais do modelo econômico da globalização.

E isso pelos padrões de caracterização dessa terceira fase da evolução da Física, constitui uma medida indispensável para a aferição de suas verdades, o que dá ao conhecimento científico um pragmatismo que, se antes não lhe era estranho, não lhe era, contudo, constitutivo.

Mas no afã de encontrar a Resposta, pela construção de uma teoria unificada da Física, muitos cavaleiros dessa demanda laico-sagrada ultrapassaram as fronteiras da ciência e (re)ingressaram na fecunda criatividade do mito, da literatura e do misticismo religioso, como é o caso de Hoyle, de Capra, de Bohm, de Hawking e de muitos outros.

Não espanta, então, o fato de ter havido e continuar a haver tantas apropriações não físicas da Física Quântica, em especial as esotéricas e as que carregam no subjetivismo relativista de uma enorme quantidade de bobagens pseudo-científicas.

Mas é preciso lembrar que Einsten passou os últimos anos de sua vida buscando encontrar uma teoria que unificasse a Mecânica Quântica com a sua Teoria da Relatividade Geral. Muitos deram prosseguimento a essas andanças, viajando por universos paralelos, universos-bebês, universos inflacionados, buracos de minhocas, supercordas e outras metáforas engenhosas e imaginativas, mas absolutamente imensuráveis.

Da indeterminação à incerteza e desta à formulação epistemológica da filosofia de Popper foram passos conseqüentes que levaram à formulação de uma visão probabilística e não mais racionalista da verdade.

Desse modo, a ciência aproxima-se da verdade, mas não chega a ela jamais: a revelação é impossível. A refutabilidade da teoria como método dinâmico para a superação contínua do conhecimento pelo conhecimento traz implícito um conceito logicamente negativo da verdade: prova-se o que não é, mas não o que é verdadeiro e, assim, evita-se o pavor do encontro definitivo com a Resposta que, se enunciada, nos condenaria a todos a um estado beatífico de inutilidade existencial. Mas a refutabilidade de Popper, seria ela mesma refutável? E se sim, a engenhosidade cética do método crítico, conseguindo evitar o paraíso do conhecimento absoluto para preservar a fé e a esperança do homem na ciência, não impediria, entretanto, que a sua progressividade se precipitasse no inferno teórico da regressão infinita, o mesmo inferno aberto pela possibilidade de não haver nenhum fundamento básico para o mundo físico, mas apenas partículas cada vez menores que se sucedem, encaixadas umas nas outras, como bonecas russas ou caixinhas chinesas, infinitamente.

Ao concluir o comentário que faz sobre John Wheeler, "um dos intérpretes mais influentes e inventivos da Mecânica Quântica, bem como da Física Moderna", aluno de Bohr, autor da expressão buraco negro e it do bit, com que chamou definitivamente atenção para as relações entre a Física e a Teoria da Informação, nome-chave para a idéia de que o universo, sendo um fenômeno participativo, requer o ato de observação e, logo, a consciência, além de ter se envolvido na construção da primeira bomba atômica e da primeira bomba de hidrogênio, John Horgan, autor do livro O Fim da Ciência escreve:

"[...] ele nos dá corajosamente um paradoxo adorável e desalentador: no coração de toda realidade existe uma pergunta, e não uma resposta. Quando examinamos os recessos mais profundos da matéria ou a fronteira mais remota do universo, vemos, finalmente, o nosso próprio rosto perplexo nos devolvendo o olhar."

Aqui, se não há encontro com a Resposta, há confronto harmônico com a poesia, como esta, da prosa realisticamente perturbadora de Jorge Luiz Borges:

"Um homem propõe-se a tarefa de desenhar o mundo. Ao longo dos anos povoa um espaço com imagens de províncias, de reinos, de montanhas, de baías, de naves, de ilhas, de peixes, de habitação, de instrumentos, de astros, de cavalos e de pessoas. Pouco antes de morrer, descobre que esse paciente labirinto de linhas traça a imagem de seu rosto."

  

 

topo