sábado, 25 de setembro de 2010

Relatividade de Einstein é testada em escala humana

Baseado em artigo de Laura Ost - 24/09/2010
A diferença na passagem do tempo para objetos que se deslocam em velocidades diferentes é um dos aspectos mais discutidos e menos compreendidos da Teoria da Relatividade de Einstein.
Dadas as "dimensões sobre-humanas" envolvidas, envolvendo foguetes e gêmeos que viajam em naves espaciais, é difícil explicar o fenômeno e seus efeitos, e gerações de alunos de física têm saído da escola sem serem capazes de explicá-los de forma correta.
E isso apesar desses efeitos fazerem parte do nosso dia-a-dia. Por exemplo, a mudança na velocidade do tempo entre a superfície do planeta e o espaço exige correções constantes para os satélites artificiais da constelação GPS.
Relatividade do tempo
Agora, cientistas do laboratório NIST, nos Estados Unidos, conseguiram pela primeira vez medir o fenômeno em uma escala bem humana, de meros 33 centímetros, eventualmente abrindo caminho para que os estudantes finalmente possam compreendê-lo com mais facilidade.
Com isto, será possível, por exemplo, provar que alguém envelhece mais rapidamente se estiver alguns degraus mais alto na escada - ainda que o efeito seja pequeno demais para ser percebido diretamente por um ser humano.
Mesmo mudar-se para o alto de uma montanha não produziria efeito suficiente para aumentar a expectativa de vida de alguém de maneira significativa - na escala usada pelos cientistas, de 33 centímetros, o efeito da mudança na passagem do tempo acrescentaria cerca de 25 bilionésimos de segundo a alguém que vivesse 80 anos.
O experimento também permitiu que os pesquisadores checassem outro aspecto da relatividade - que o tempo passa mais lentamente quando você se move mais a uma velocidade maior.
Trazido às dimensões humanas, o aparato dispensou as naves espaciais e permitiu a verificação do efeito usando um carro rodando a uma velocidade de 32 quilômetros por hora.
Relógios lógicos quânticos
Relógios atômicos testam teoria da relatividade em escala humana
O detalhe mostra a "armadilha" onde fica aprisionado o íon de alumínio, enquanto James Chin-Wen Chou mostra o aparato necessário para que relógio atômico funcione. [Imagem: NIST]
Os cientistas observaram o fenômeno da dilatação do tempo previsto pela Teoria da Relatividade usando dois dos mais precisos relógios atômicos já construídos.
Os dois relógios são quase idênticos e dão seus "tiques" acompanhando as vibrações de um único íon de alumínio - um átomo de alumínio eletricamente carregado. O íon vibra entre dois estados de energia mais de um quatrilhão de vezes por segundo.
Com essa precisão, um dos relógios serve com base, mantendo a marcação do tempo com possibilidade de atrasar um segundo em cerca de 3,7 bilhões de anos. Ele é conectado ao outro por meio de um cabo de fibra óptica. Este segundo relógio é então movimentado para fazer os experimentos.
Esses relógios são também chamados de "relógios lógicos quânticos" porque usam técnicas de tomada de decisão lógica empregadas pelos experimentos de computação quântica. Eles são precisos e estáveis o suficiente para revelar diferenças na medição do tempo que não podiam ser monitoradas até agora.
Os relógios lógicos quânticos funcionam disparando a luz de um laser sobre o íon de alumínio em frequências ópticas, que são maiores do que as frequências de micro-ondas usadas atualmente nos relógios atômicos que estabelecem o padrão de tempo, baseados em átomos de césio.
Teoria da Relatividade em escala humana
Os experimentos focaram dois cenários previstos pela Teoria da Relatividade de Einstein.
No primeiro, quando dois relógios estão sujeitos a forças gravitacionais diferentes, por estarem em diferentes elevações acima da superfície da Terra, o relógio que estiver mais alto experimenta uma força gravitacional menor e, por isto, seus tiques ocorrem a uma velocidade ligeiramente maior - o que equivale a uma passagem mais rápida do tempo em relação ao relógio em posição inferior.
No segundo cenário, quando um observador está se movendo, o tique de um relógio estacionário parecerá durar mais do ponto de vista daquele observador, o que fará com que ele marque o tempo mais lentamente. Ou o oposto, o tique do relógio do observador baterá a uma velocidade ligeiramente menor, fazendo com que o tempo para ele passe mais lentamente em relação ao relógio fixo.
Os cientistas chamam isso de "paradoxo dos gêmeos", porque um gêmeo que viaje em uma nave espacial, ao voltar para casa, estará mais novo do que seu irmão. O fator crucial nesse fenômeno é a aceleração (o aumento e a redução na velocidade) que o gêmeo-astronauta experimenta em sua viagem.
Os cientistas observaram estes fenômenos fazendo alterações específicas em um dos dois relógios atômicos de alumínio e medindo as diferenças resultantes em relação ao outro relógio usado como parâmetro.
Relógios atômicos testam teoria da relatividade em escala humana
Os cientistas colocaram um dos relógios atômicos cerca de trinta centímetros mais alto do que o outro, o suficiente para comprovar os efeitos da teoria da relatividade. [Imagem: Loel Barr/NIST]
No primeiro experimento, os cientistas colocaram um dos relógios cerca de trinta centímetros mais alto do que o outro. As medições mostraram exatamente os resultados previstos pela teoria.
Como um relógio atômico é grande e sensível demais para ser colocado no porta-malas de um carro, para fazer o segundo experimento os cientistas fizeram o íon de alumínio - que fica praticamente parado no interior do relógio atômico - se movimentasse para frente para trás, resultando em velocidades equivalentes a um movimento de alguns metros por segundo. De novo, o resultado foi exatamente o previsto pela relatividade.
Relógios atômicos de alumínio
Essas comparações entre relógios superprecisos eventualmente poderão ser úteis em geodésia, a ciência que mede a Terra e seu campo gravitacional, com aplicações em hidrologia e geofísica e, eventualmente, em testes das teorias fundamentais da física usando observatórios espaciais.
Os relógios atômicos de alumínio conseguem detectar os pequenos efeitos da relatividade devido à sua extrema precisão e a um elevado fator "Q", uma quantidade que reflete de forma confiável como o íon absorve e retém a energia óptica ao passar de um nível de energia para outro.
"Nós observamos o maior fator Q já visto em física atômica", disse James Chin-Wen Chou, que coordenou os experimentos. "Você pode pensar nisso como o tempo que um diapasão vibra antes de perder a energia armazenada em sua estrutura ressonante. Nós colocamos o íon oscilando em sincronia com a frequência do laser por cerca de 400 trilhões de ciclos."
Os cientistas esperam que, no futuro, os relógios atômicos ópticos permitam a criação de padrões de medição do tempo 100 vezes mais precisos do que os atuais - veja também Batido recorde mundial do menor tempo já medido.
Bibliografia:
Optical Clocks and Relativity
C. W. Chou, D. B. Hume, T. Rosenband, D. J. Wineland
Science
24 September 2010
Vol.: 329 pp. 1630-1633
DOI: 10.1126/science.1192720

Descoberta antimatéria que cria nova tabela periódica


Para além da tabela periódica
Grupo internacional, com participação brasileira, consegue pela primeira vez produzir núcleos atômicos de antimatéria "estranha" por meio da colisão de íons de ouro em feixes de alta energia. Estudo foi publicado na Science (Foto: Cooperação Star)

Especiais

Para além da tabela periódica

5/3/2010
Por Fábio de Castro
Agência FAPESP – Um grupo internacional de cientistas, com participação brasileira, conseguiu a primeira evidência experimental de que núcleos atômicos compostos de antimatéria "estranha" podem ser produzidos pela colisão de íons de ouro em alta energia.
A capacidade para formar em abundância essas partículas exóticas, segundo os autores, poderá ser fundamental para por à prova aspectos fundamentais da física nuclear, da astrofísica e da cosmologia.
O experimento, realizado pela Colaboração Star  – que reúne 584 cientistas de 54 instituições em 12 países diferentes – foi produzido no Colisor Relativístico de Íons Pesados (RHIC, na sigla em inglês), localizado nos Estados Unidos. Os resultados foram publicados nesta sexta-feira (5/3) no site da revista Science.
Os coautores brasileiros são Alejandro Szanto Toledo, Alexandre Suaide e Marcelo Munhoz – todos eles professores do Departamento de Física Nuclear do Instituto de Física (IF) da Universidade de São Paulo (USP) –, Jun Takahashi, professor do Instituto de Física Gleb Wataghin (IFGW) da Universidade Estadual de Campinas (Unicamp) e seus orientandos de doutorado Rafael Derradi de Souza e Geraldo Vasconcelos.
De acordo com Toledo, que é diretor do IF-USP desde 2006, a participação dos cientistas paulistas na colaboração contou com diversos auxílios da FAPESP. Toledo coordena atualmente o Projeto Temático “Reações nucleares nos regimes relativístico e astrofísico”, apoiado pela Fundação. Takahashi, atualmente na Unicamp, foi seu orientando de pós-doutorado na USP, com Bolsa da FAPESP.
Segundo Toledo, o artigo descreveu a primeira observação da formação de um anti-hipernúcleo. De acordo com ele, uma colisão de íons pesados em alta energia, como a que foi produzida no RHIC, gera uma grande quantidade de partículas. Em tese, quando a energia é superior a duas vezes a massa de determinado hádron, antipartículas desse hádron podem ser geradas, o que ocorre quando a transição de fase é atingida
“Essas antipartículas são submetidas à coalescência – um processo análogo à condensação – e algumas delas podem agregar, por exemplo, dois antinêutrons e um antipróton, formando um antitrítio – isto é, um núcleo de antimatéria correspondente ao do átomo de trítio – o isótopo do hidrogênio que possui dois nêutrons e um próton”, disse Toledo à Agência FAPESP.
O experimento, segundo o professor, formou hádrons – partículas formadas por quarks, como os prótons e nêutrons – que possuem um chamado quark estranho, formando o chamado hipernúcleo. No modelo padrão da física de partículas, o quark estranho é aquele que possui o novo número quântico conhecido como “estranheza”.
“Esse hipernúcleo formado, que é um antiestranho, é feito de antimatéria. Essa é a primeira vez em que se conseguiu uma evidência experimental de um anti-hipernúcleo. Ou seja, obtivemos um núcleo que está fora do espaço biparamétrico da tabela periódica. Trata-se, portanto, de antimatéria estranha”, explicou Toledo.
Segundo ele, já se havia obtido antiprótons e antielétrons – ou pósitrons. Mas é a primeira vez que se obtém um anti-hipernúcleo, que é algo bem mais complexo e mais raro. “Estamos felizes por termos um grupo de São Paulo participando do trabalho, porque trata-se de fato de uma descoberta”, destacou.
Toledo explicou que a reação foi produzida nos mais altos níveis de energia atingidos pelo RHIC. Essa região de alta densidade de energia foi formada pela colisão de dois núcleos de ouro a 200 gigaelétron-volts (GeV).
“Como se trata de um anel de colisão, a energia no centro de massa é de 200 GeV: uma quantidade de energia suficientemente grande para derreter a matéria nuclear e provocar uma transição de fase. Com isso, conseguimos passar da matéria hadrônica para a matéria conhecida como quark-glúon plasma”, explicou.
Eixo da estranheza
Esse novo estado da matéria nuclear originado da transição de fase, de acordo com Toledo, também foi observado pela primeira vez de forma conclusiva no RHIC. É esse estado que possibilitou a formação da coalescência, produzindo os anti-hipernúcleos.
“Para se ter uma ideia da eficiência do processo, basta dizer que, em 100 milhões de colisões, 70 foram observadas. Para reconhecer essas 70 colisões, foi preciso fazer um trabalho de identificação dessas partículas e de seus descendentes em um meio superpovoado com todas as partículas criadas pela colisão. Algo como encontrar uma agulha em um palheiro. O filtro necessário para detectar essas partículas teve que ser desenhado com extrema precisão”, disse.
A partir desses resultados, segundo Toledo, um dos caminhos possíveis consiste em prosseguir com os experimentos até a construção de uma nova tabela periódica. A próxima meta planejada, de acordo com ele, é a criação de um anti-hélio: uma partícula alfa de antimatéria.
“Quanto mais complexo é o antinúcleo, menor a probabilidade de coalescência. O anti-trítio é composto de três partículas. Mas se quisermos um anti-hélio, vamos precisar de quatro partículas na mesma região do espaço: dois antiprótons e dois antinêutrons. Não será fácil, mas a Colaboração Star irá enveredar por essa direção”, afirmou.
Outro caminho para as investigações, segundo Toledo, consiste em colocar à prova as leis fundamentais da física de partículas. “Por exemplo, sabemos que a tabela periódica até recentemente possuía dois eixos: o número de prótons e o número de nêutrons. Se estendermos a tabela, podemos encontrar também o número de antiprótons e de antinêutrons no mesmo plano. Com isso, poderíamos criar um terceiro eixo na tabela, que nunca foi observado e é perpendicular aos outros dois: o eixo da estranheza”
O artigo Observation of an Antimatter Hypernucleus (DOI: 10.112

Filtro de água nanoeletrificado


Filtro de água nanoeletrificado
Grupo da Universidade Stanford desenvolve filtro que utiliza nanotubos, nanofios e corrente de baixa voltagem para matar bactérias. Solução de baixo custo foi pensada para países em desenvolvimento (divulgação)

Divulgação Científica

Agência FAPESP – Cientistas da Universidade Stanford, nos Estados Unidos, desenvolveram um novo tipo de filtro de água, que funciona muito rapidamente e tem baixo custo. O objetivo é poder aplicar a tecnologia em países em desenvolvimento.
O funcionamento do filtro se baseia na nanotecnologia. Ele é formado por fios de prata e tubos com medidas na casa da bilionésima parte do metro. Em vez de reter as bactérias para limpar a água, como fazem outros filtros, o novo modelo mata os microrganismos.
As bactérias são mortas ao passar pelo campo elétrico existente na superfície altamente condutora do filtro. Nos testes realizados foram mortas 98% das bactérias Escherichia coli, expostas a 20 volts de eletricidade por vários segundos.
O filtro é formado por várias camadas de tecido de algodão, reunidas em um “sanduíche” de 6 centímetros de espessura.
“Esse é um novo método de tratamento para eliminar patógenos da água, que pode ser facilmente utilizado em áreas remotas nas quais as pessoas não têm acesso a tratamentos químicos como os que utilizam cloro”, disse Yi Cui, professor associado de ciência de materiais e engenharia de Stanford e um dos autores da pesquisa.
Cólera, tifo e hepatite são algumas das doenças ligadas ao consumo de água contaminada com microrganismos, um sério problema nos países mais pobres. Segundo Cui, a nova tecnologia poderá ser empregada em sistemas de purificação de pequenas vilas ou mesmo de cidades.
Filtros que prendem as bactérias devem ter poros suficientemente pequenos para segurar os patógenos, evitando que atinjam a água. Mas isso limita a velocidade de funcionamento do aparelho, isto é, o fluxo de água limpa.
Como o modelo desenvolvido agora mata as bactérias, mas não as prendem, a água é limpa muito mais rapidamente. “Nosso filtro é cerca de 80 mil vezes mais rápido do que os outros que retêm bactérias”, disse Cui. Os resultados foram publicados no periódico Nano Letters, da Sociedade de Química Norte-Americana.
Os poros maiores do novo filtro, para reter resíduos sólidos e outras impurezas, também fazem com que o equipamento entupa menos do que os demais, resultando em uma manutenção mais fácil.
O filtro emprega nanotubos de carbonos, que são bons condutores de eletricidade, e prata em minúsculas quantidades, de modo que o custo final seja baixo. A base do filtro é feita de tecido de algodão.
O tecido foi mergulhado em uma solução de nanotubos, seco e, depois, mergulhado novamente, mas dessa vez em uma solução de nanofios de prata. Os nanotubos usados tinham cerca de 1 nanômetro de espessura, e os fios, entre 40 e 100 nanômetros.
O resultado foi a produção de uma estrutura regular pelos fios de algodão. “Com uma estrutura contínua pela espessura do filtro, podemos mover os elétrons muito eficientemente e fazer com que o equipamento seja altamente condutor. Isso implica que ele precisa de uma quantidade mínima de eletricidade”, disse Cui.
A corrente que mata as bactérias tem apenas alguns miliamperes e pode ser fornecida facilmente por uma bateria de automóvel. A corrente também pode ser produzida por um dispositivo a manivela.
Na próxima etapa da pesquisa, os cientistas vão analisar a eficiência do filtro com outros tipos de microrganismos e experimentar filtros sucessivos.
“Com um filtro, matamos 98% das Escherichia coli. Mas, para água de beber, não queremos nenhuma bactéria. Para isso, vamos experimentar a filtragem em vários estágios”, disse Cui.

O artigo High Speed Water Sterilization Using One-Dimensional Nanostructures (doi: 10.1021/nl101944e), de Yi Cui e outros, pode ser lido por assinantes da Nano Letters em http://pubs.acs.org/doi/full/10.1021/nl101944e
 

Fenômeno físico desconhecido detectado no LHC

LHC detecta fenômeno físico potencialmente desconhecido

Redação do Site Inovação Tecnológica - 22/09/2010
LHC detecta interligações inéditas entre partículas
Imagem de uma colisão próton-próton captada pelo experimento CMS, que produziu mais de 100 partículas carregadas.[Imagem: Cern]
Interligação entre partículas
Depois de quase seis meses de operação, as experiências no LHC estão começando a ver "sinais de efeitos potencialmente novos e interessantes".
Nos resultados divulgados pelos cientistas do experimento CMS, um dos quatro grandes detectores do LHC, foram observadas correlações até agora desconhecidas entre as partículas, que foram geradas durante colisões próton-próton realizadas a uma energia de 7 TeV.
Uma centena ou mais de partículas podem ser produzidas durante as colisões próton-próton. Os cientistas do CMS, aí incluído um grupo de brasileiros, estudam essas colisões medindo as correlações angulares entre as partículas conforme elas se espalham a partir do ponto de impacto - a foto mostra um "mapa" de um desses espalhamentos.
As análises revelaram que algumas das partículas se espalham seguindo o mesmo ângulo, o que pode demonstrar que elas estão intimamente interligadas, de uma forma nunca antes vista em colisões de prótons.
Em busca das explicações
O efeito é sutil e muitos cruzamentos e checagens tiveram que ser feitas para confirmar que ele é real.
Segundo os cientistas, o efeito, para o qual eles ainda não têm uma explicação, se parece com aqueles observados nas colisões de núcleos no laboratório RHIC, localizado no Laboratório Nacional Brookhaven, nos Estados Unidos - vejaDescoberta antimatéria que cria nova tabela periódica e Descoberta partícula de antimatéria mais estranha já vista.
No entanto, durante uma apresentação feita pelos cientistas do CMS aos demais pesquisadores do CERN, eles destacaram que há várias explicações possíveis a serem consideradas.
A apresentação centrou-se em mostrar os resultados experimentais com o objetivo de promover uma discussão mais ampla sobre o assunto e, só então, apresentar explicações para essa "conexão" entre as partículas.
O LHC continuará acelerando e colidindo prótons até o final de outubro, acumulando mais dados que poderão ajudar a entender o fenômeno. No restante de 2010, o LHC irá colidir núcleos de chumbo.
Do que são feitos os quarks
Nessa nova etapa, será a vez do detector ALICE, otimizado para estudar colisões de núcleos. O principal objetivo do ALICE é estudar a matéria no estado quente e denso que teria existido apenas pequenas frações de segundo após o Big Bang.
Nesses experimentos, os cientistas esperam compreender como a matéria evoluiu para a matéria nuclear ordinária que compõe o Universo, sem sinais da antimatéria correspondente - presume-se que o Big Bang tenha criado quantidades iguais de matéria e de antimatéria.
Outro detector do colisor de partículas, chamado LHCb, recentemente detectou quarks excitados. Até agora acreditava-se que os quarks fossem os componentes mais básicos que formam todas as partículas conhecidas. Mas a presença de quarks excitados pode indicar que "subpartículas" estejam se rearranjando para alterar o estado de energia desses quarks.
O LHC, que é o maior laboratório científico do mundo, acelera partículas ao longo de seu anel de 27 km, arremessando-as umas contras as outras em busca de inúmeras respostas, mas de uma especificamente que parece desafiar o bom senso: de onde surge a massa das partículas - ou, dito de outro modo, o que faz com que a matéria seja matéria.
Nessa busca, contudo, ainda não foram encontrados nem mesmo "sinais potencialmente novos e interessantes". Por outro lado, em seu primeiro artigo científico, o LHC confirmou uma teoria do físico brasileiro Constatino Tsallis.
Bibliografia:
Observation of Long-Range Near-Side Angular Correlations in Proton-Proton Collisions at the LHC
CMS Collaboration
arXiv
21 Sep 2010
http://arxiv.org/abs/1009.4122

Fonte:  Site Inovação Tecnológica- www.inovacaotecnologica.com.brURL: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=lhc-interligacao-entre-particulas

sexta-feira, 17 de setembro de 2010

A química no tratamento do câncer


Química submersa
Letícia Veras Costa-Lotufo, da UFC, estuda a aplicação de compostos marinhos no combate ao câncer (foto: Samuel Iavelberg)

Especiais

Química submersa

13/9/2010
Por Fábio Reynol
Agência FAPESP – Ambiente de alta diversidade e propício à produção de compostos naturais, o mar tem sido fonte de novas substâncias e microrganismos antitumorais descobertos pela equipe da professora Letícia Veras Costa-Lotufo, do Departamento de Fisiologia e Farmacologia da Universidade Federal do Ceará (UFC), em Fortaleza.
A pesquisadora apresentou as potencialidades das espécies oceânicas no combate ao câncer durante Workshop sobre biodiversidade marinha: avanços recentes em bioprospecção, biogeografia e filogeografia, realizado pelo Programa Biota-FAPESP nos dias 9 e 10 de setembro.
“No ambiente marinho, há pressões ecológicas que favorecem a defesa por meio da produção de substâncias”, disse Letícia, explicando que essas moléculas são produzidas pelo chamado metabolismo secundário de animais e vegetais marinhos.
O grande número de predadores e a acirrada competição por espaço são algumas ameaças presentes no mundo marinho. Tais adversidades fazem com que esses seres desenvolvam um metabolismo secundário muito eficiente, o que os torna capazes de se defender quimicamente, segundo Letícia.
Como resultado, as espécies marinhas formam uma grande fábrica de moléculas complexas e que apresentam mecanismos de ação inéditos e de interesse científico.
Letícia ressalta que essa complexidade adiou as descobertas de substâncias marinhas, sendo que as pesquisas na área se intensificaram somente a partir da década de 1950, quando surgiram as primeiras técnicas de estudo.
“Nossa fronteira mais recente são os microrganismos marinhos. Um grama de sedimento marinho chega a conter 1 bilhão de bactérias, um número bastante alto”, disse. Esses microrganismos são encontrados em invertebrados, sedimentos e até na água do mar e a sua fermentação em laboratório também resulta em substâncias bastante complexas.
De uma espécie de ascídia endêmica no litoral do Nordeste, por exemplo, o grupo da UFC isolou duas moléculas estauroporinas que apresentaram atividades anticâncer. Agora, os pesquisadores estão isolando microrganismos da ascídia na tentativa de encontrar entre eles os produtores dessas moléculas. A partir dessa identificação será possível produzir os compostos por meio da fermentação.
A ação antitumoral foi testada com sucesso em animais e também in vitro. Para os testes em células, os cientistas contam com um banco de 50 linhagens de células tumorais mantido pelo Laboratório Nacional de Oncologia Experimental da UFC. “Os testes mostraram que os compostos atacam preferencialmente as células tumorais”, disse Letícia.
Atenuante para quimioterapia
Da alga marinha parda Sargassum vulgare, a equipe cearense isolou uma substância capaz de atenuar os efeitos colaterais da quimioterapia, além de potencializar a atividade antitumoral do agente quimioterápico.
“Os quimioterápicos atacam o sistema imunológico, diminuindo as defesas do organismo. Nós conseguimos reverter esse efeito mantendo ou até melhorando a atividade antitumoral”, disse Letícia, ressaltando que até agora só foram realizados testes em animais.
A leucopenia, queda do número de glóbulos brancos provocada pela quimioterapia, foi completamente revertida nesses ensaios e a atividade antitumoral chegou a aumentar cerca de 30%.
Os resultados abrem perspectivas para que a substância seja aplicada como um coajudvante no tratamento quimioterápico. Já está em andamento o processo de depósito de uma patente para esse produto antitumoral e imunoestimulante, resultado de parceria entre a UFC e uma empresa privada.
Além da patente, a parceria visa também a desenvolver um processo de produção da Sargassum vulgare. Segundo Letícia, um fator facilitador é que a substância é um polissacarídeo já presente na alga, ou seja, é uma molécula estrutural.
“Muitas vezes, a substância de interesse deriva de um processo natural que deve ser reproduzido, como uma situação de estresse, por exemplo, que desencadeia a produção de um determinado composto”, explicou.
Uma bactéria marinha associada ao sedimento demonstrou seletividade para células que superexpressam os receptores dos fatores de crescimento, característica de células tumorais. “Apesar de estar ainda em fase inicial, a pesquisa apresenta perspectivas para se descobrir mecanismos voltados a encontrar e atingir somente células de tumores”, disse Letícia. 

FONTE:

 

sexta-feira, 10 de setembro de 2010

Issac Newton (um pouco de sua biografia)

Físico, matemático e astrônomo inglês

Isaac Newton

25/12/1642, Wolsthorpe, Inglaterra
20/03/1727, Kensington, Inglaterra
Da Página 3- Pedagogia & Comunicação
Reprodução
Em Princípios Matemáticos da Filosofia Natural, Newton lançou as bases da ciência moderna
Quando criança, Newton não foi um aluno brilhante, mas gostava de inventar e construir objetos. Graças a um tio, estudou em Cambridge, onde desenvolveu um recurso matemático, o binômio de Newton. Na época de sua formatura, foi obrigado a se refugiar na fazenda da mãe, devido à peste que assolava a Inglaterra. Permaneceu lá por cerca de dois anos (1665-1667). 

As reflexões dessa época o levaram a formular importantes teorias. Ao observar uma maçã caindo de uma árvore, Newton começou a pensar que a força que havia puxado a fruta para a terra seria a mesma que impedia a Lua de escapar de sua órbita. Descobriu a lei da gravitação universal. Foi a primeira vez que uma lei física foi aplicada tanto a objetos terrestres quanto a corpos celestes. Ao firmar esse princípio, Newton eliminou a dependência da ação divina e influenciou profundamente o pensamento filosófico do século 18, dando início à ciência moderna.

Quando retornou a Cambridge, redigiu o princípio que trata da atração dos corpos, mas só o retomou em 1682. Nos anos iniciais de sua carreira, desenvolveu o cálculo infinitesimal e descobriu a aceleração circular uniforme (embora não tenha conseguido a comprovação dessa teoria, que exigia conhecer a medida do raio terrestre).

Em 1669 o cientista formulou sua teoria das cores, sobre a refração da luz. Quando um raio de sol atravessa um prisma de vidro, sai do outro lado como um feixe de luzes de diferentes cores, como um arco-íris. Newton fez o feixe colorido passar por um segundo prisma, onde as cores voltaram a se juntar em outro feixe, de luz branca, igual ao inicial.

Com essa descoberta, percebeu que o fenômeno da refração luminosa limitava a eficiência dos telescópios da época. Inventou, então, um telescópio refletor, em que a concentração da luz era feita por um espelho parabólico e não por uma lente.

Em 1671, o cientista assumiu o cargo de professor catedrático de Matemática da Universidade de Cambridge e, no ano seguinte foi eleito para a Royal Society. Nos anos posteriores, tratou das propriedades da luz, explicou a produção das cores por lâminas delgadas e formulou a teoria corpuscular da luz. 

Newton recebeu, em 1684, a visita do astrônomo Edmond Halley, que queria interrogá-lo sobre o movimento dos planetas, observado pelos astrônomos. Newton retomou, então, suas reflexões sobre a mecânica celeste. O resultado foi sua obra "Princípios Matemáticos da Filosofia Natural", que propõe três princípios básicos: o da inércia, o da dinâmica e o da ação e reação.

Este trabalho obteve grande repercussão internacional. Newton foi eleito para o Parlamento em 1687, e nomeado para a Superintendência da Casa da Moeda em 1696, quando se mudou para Londres. Tornou-se presidente da Royal Society em 1703 e, dois anos depois, sagrado cavaleiro, passou a ser chamado de Sir Isaac Newton.

FONTE:

Carbono sem fim



Carbono sem fim
Artigos na Science destacam que com as tecnologias atuais de geração de energia e o estado atual de desenvolvimento de fontes renováveis, o mundo não conseguirá evitar o aquecimento de 2º C até 2050 (foto: Wikimedia)

Divulgação Científica

10/9/2010
Agência FAPESP – As tecnologias atuais de geração de energia não são suficientes para reduzir as emissões de carbono aos níveis considerados necessários para evitar os riscos ao planeta promovidos pelo aquecimento global.
A afirmação é de um artigo publicado por cientistas dos Estados Unidos e do Canadá na edição desta sexta-feira (10/9) da revista Science. Estima-se que, para evitar os riscos das mudanças climáticas globais, seria preciso evitar que a temperatura média do mundo chegasse a 2º C acima dos níveis anteriores à Revolução Industrial.
Modelos climáticos atuais indicam que, para atingir esse objetivo, será preciso limitar as concentrações de dióxido de carbono na atmosfera em menos de 450 partes por milhão (ppm).
O problema é que permanecer abaixo desse nível implica diminuir substancialmente as emissões de combustíveis fósseis, algo que os países industrializados não estão conseguindo fazer. O nível atual é de aproximadamente 385 pp. Antes da Revolução Industrial, estava abaixo de 280 ppm.
Steven Davis, da Instituição Carnegie, de Washington, e colegas avaliaram o que ocorreria com o planeta se nenhum outro dispositivo emissor de CO2 fosse fabricado.
Nessa situação hipotética sem uma única fábrica ou automóvel novo, a infraestrutura energética atual do mundo emitiria cerca de 496 bilhões de toneladas de CO2 nos próximos 50 anos. Isso seria suficiente para estabilizar os níveis do gás na atmosfera em 430 ppm e deixaria a temperatura média em 1,3º C acima dos níveis pré-industriais.
Os riscos do aquecimento global teriam sido vencidos, mas, segundo os cientistas, o cenário hipotético ilustra bem a situação atual vivida pelo planeta. Somente de veículos automotivos, o mundo ganha a cada dia não um, mas cerca de 170 mil novos – isso segundo dados da International Organization of Motor Vehicle Manufacturers de 2009, que representaram, em meio à crise econômica mundial, queda de 13,5% em relação à produção do ano anterior.
“Até agora, os esforços feitos para diminuir as emissões por meio de regulações e de acordos internacionais não funcionaram. As emissões estão aumentando mais do que nunca e os programas para desenvolver fontes de energia ‘neutras em carbono’ estão, nos melhores casos, ainda muito incipientes”, disse Martin Hoffert, professor emérito do Departamento de Física da Universidade de Nova York, em artigo comentando o estudo de Davis e colegas na mesma edição da Science.
Mas a pior notícia é que a situação tende a se agravar ainda mais. Segundo os pesquisadores, as fontes das emissões mais ameaçadoras ao planeta ainda não foram construídas. Isso porque o mundo e suas economias simplesmente continuarão a crescer. Um exemplo é o carvão.
“À medida que o pico na produção de petróleo e de gás natural se aproxima, a produção de carvão aumenta, com novas usinas movidas a carvão sendo construídas na China, Índia e nos Estados Unidos”, disse Hoffert.
“Investimentos maciços serão cruciais para permitir que a pesquisa básica encontre e desenvolva tecnologias possíveis de serem aplicadas comercialmente e em massa. Mas a introdução de tecnologias neutras em carbono também exige, no mínimo, que sejam revertidos incentivos perversos, como os atualmente existentes para subsidiar a produção de combustíveis fósseis e que se estima serem 12 vezes maiores do que os aplicados para a energia renovável”, afirmou.
Os artigos Future CO2 Emissions and Climate Change from Existing Energy Infrastructure(doi:10.1126/science.1188566), de Steven Davis e outros, e Farewell to Fossil Fuels? (doi: 10.1126/science.1195449), de Martin Hoffert, podem ser lidos por assinantes da Science em www.sciencemag.org

domingo, 5 de setembro de 2010

Como são formadas as imagens 3D


O segredo dos nossos olhos

As imagens em 3D são o novo trunfo da indústria cultural. Aproveite o recurso para discutir como funciona a visão e como o cérebro cria a noção de profundidade
A visão em 3D só é possível graças à projeção de duas imagens, da mesma cena, com pontos de observação diferentes. Fotomontagem: Roberto Weigand e Olga Vlahou
Tanto os filósofos pré-socráticos quanto Descartes, entre outros, já diziam que nossos sentidos nos enganam. Os mágicos (ou ilusionistas) vêm utilizando-se desse conhecimento para iludir as plateias em diversos espetáculos, desde tempos remotos. Essa ideia passou a ser explorada pela indústria cultural com a criação de diversos universos virtuais em jogos, redes sociais, cinemas e televisão. Um dos recursos mais utilizados nessas aplicações é o das imagens tridimensionais – as chamadas imagens 3D – que ganharam destaque com o lançamento do filme Avatar, de James Cameron. Entretanto, a ideia de imagens tridimensionais é bem mais antiga. Durante o Renascimento, a humanidade viu florescer as pinturas em perspectiva, uma tentativa bem-sucedida de representar o espaço tridimensional em duas dimensões, criando a ilusão da profundidade, a partir da utilização de um ponto de fuga. Atualmente é usada a estereoscopia, base do próprio mecanismo da visão que cria a percepção tridimensional do espaço, para produzir esse efeito.
Como enxergamos
Para que ocorra a visão é necessário que exista uma fonte de luz. Esta pode ser primária (quando emite luz própria, como uma lâmpada acesa)  ou secundária (se apenas refletir a luz emitida por uma fonte primária, como uma revista ou um observador).
De forma simplificada, nosso olho funciona como uma câmara escura: a luz entra pela pupila e atravessa o cristalino (nossa lente convergente), o qual projeta uma imagem real invertida e menor na retina. Esta funciona como um conjunto de células fotoelétricas, que recebem a energia luminosa e a transformam na energia elétrica levada pelos nervos ópticos até o córtex visual (parte do cérebro responsável pela visão).
Podemos imaginar que os olhos “digitalizam” a imagem e a transmite ao cérebro. Mas, se a imagem projetada na retina é plana (ou seja, bidimensional), como construímos a noção de profundidade em três dimensões?
Estereoscopia
A visão em 3D é apenas mais uma ilusão que só é possível graças à estereoscopia, ou seja, a projeção de duas imagens, da mesma cena, com pontos de observação ligeiramente diferentes. Quando observamos uma paisagem, cada olho recebe uma imagem ligeiramente diferente de cada objeto que a compõe e, portanto, manda mensagens diferentes para o cérebro.
Essas informações são processadas pelo cérebro, que determina os detalhes quanto à profundidade, distância, posição e tamanho dos objetos, gerando uma ilusão em 3D na nossa mente, de forma análoga ao funcionamento do Global Positioning System (GPS), que determina as coordenadas de um ponto por triangulação, a partir de duas informações distintas.
A audição funciona também de forma semelhante: cada ouvido recebe uma informação diferente sobre os sons do ambiente e isso permite identificar a direção do som e inferir a distância da fonte. É exatamente esse o princípio de funcionamento do cinema em 3D: duas imagens com visões distintas de um mesmo objeto são oferecidas, uma para cada olho, de modo a emular o que ocorre naturalmente com eles e criar a ilusão de terceira dimensão. Por isso, precisamos utilizar óculos especiais para assistir a filmes 3D: eles filtram as imagens refletidas pela tela do cinema, direcionando uma imagem para cada olho.
Separando as imagens
Uma maneira de enviar uma imagem para cada olho é produzir duas imagens ligeiramente defasadas do mesmo objeto com cores diferentes. Em muitos filmes 3D, uma das imagens é predominantemente azul e a outra é mais avermelhada. Os expectadores recebem óculos para “filtrar” as imagens que são projetadas com uma lente vermelha (em geral, usada no olho esquerdo) e a outra azul (no olho direito).
As lentes vermelhas absorvem a luz vermelha vinda da tela, anulando as imagens de tom avermelhado, enquanto as lentes azuis fazem o mesmo com as imagens azuis. Assim, o olho que observa pela lente vermelha somente verá as imagens azuis, enquanto o olho que utiliza o filtro azul verá somente as imagens vermelhas. Com isso, um olho passa a enxergar a imagem avermelhada e o outro, a azulada. Esse sistema tem como desvantagem a alteração das cores, a perda de luminosidade e o cansaço visual provocado após seu uso prolongado.
Outra maneira de criar a ilusão de imagens tridimensionais mais difundida recentemente, com a tecnologia 3D digital, é utilizar luzes com a mesma cor, porém com polaridades diferentes e óculos com lentes do tipo polaroide para filtrar as imagens.
A tela é projetada e construída de forma a manter a polarização correta quando a luz do projetor é refletida. Nos filmes que utilizam essa tecnologia, em vez de um amontoado de imagens bicolores (azuis e vermelhas), quando vistas sem os óculos, as imagens parecem apenas embaçadas. Essa tecnologia tem a vantagem de fazer a informação chegar ao nosso cérebro da mesma maneira como observamos a paisagem naturalmente, sem distorcer a coloração final da imagem formada em nossas mentes.
Para que tudo isso seja possível, a captação dessas imagens não pode ser feita de qualquer forma. Na filmagem, devem ser realizadas duas imagens concomitantes, sejam elas coloridas, sejam elas polarizadas. Para isso, na câmera estereoscópica cada lente é colocada a aproximadamente 6 centímetros uma da outra, já que essa é a distância média entre os olhos de uma pessoa adulta.
Durante a filmagem devem ser controlados zoom, foco, abertura, enquadramento e o ângulo relativo entre elas. As correções de enquadramento são feitas por programas de computador específicos, que minimizam as distorções nas imagens, deixando o filme mais realista. Um truque que poderia ser também utilizado pela indústria cinematográfica seria produzir um filme comum e depois utilizar um espelho para projetar uma imagem deslocada em uma segunda lente.
A imagem refletida é finalmente girada e invertida antes da edição final da película. Ou ainda, gerar um filme digital único e depois utilizar um software de tratamento de imagem, extraindo uma imagem vermelha e outra azul do mesmo e depois, finalmente, compondo todas elas num único documento.
Tecnologia ativa
Nessas duas formas de separar imagens, a tecnologia empregada pelos óculos é considerada passiva, já que a única tarefa das lentes é filtrar as imagens, seja pela cor, seja pela polaridade das mesmas.
Uma nova tecnologia que vem sendo desenvolvida atualmente é considerada ativa, pois com ela os óculos utilizados dispõem de um sistema computadorizado que determina, a cada instante, qual olho vai enxergar e o quê. A lente direita “apaga” quando a imagem para o olho esquerdo aparece na tela e vice-versa. Isso acontece tão rápido que o cérebro não é capaz de perceber as lentes piscando, como se fossem uma luz estroboscópica.
Polarização
A luz é uma onda eletromagnética e, como toda onda, pode vibrar em inúmeras direções no espaço. A luz de uma lâmpada comum, por exemplo, não é polarizada.  Os átomos aquecidos emitem ondas luminosas independentemente umas das outras, cada uma com um sentido de vibração. Com isso, temos uma onda eletromagnética com campos elétricos e magnéticos apontando em todas as direções, sempre perpendiculares à direção de propagação. Com o uso de filtros é possível “selecionar” as direções que nos interessam, permitindo obter luz polarizada, ou seja, luz com vibrações eletromagnéticas numa única direção. Os óculos 3D polaroides podem selecionar a imagem que chegará a cada olho, a partir da polarização da luz
FONTE:

sexta-feira, 3 de setembro de 2010

Físicos explicam gol de Roberto Carlos



Físicos explicam gol de Roberto Carlos
Em artigo no New Journal of Physics, cientistas afirmam que gol de falta contra a França, em 1997, quando a bola parecia ir para fora mas entrou na última hora, foi resultado de conjunto de fatores (reprodução)

Divulgação Científica

3/9/2010
Agência FAPESP – Muito antes da Jabulani, não se discutia a bola, mas sim quem a chutava, como os jogadores de futebol que encantaram torcidas com chutes de grande efeito e repercussão ainda maior. O Brasil tem uma notável tradição em gols feitos após curvas mirabolantes e improváveis – como o chamado “gol espírita”. Nelinho, Dicá, Zenon, Zico, Roberto Dinamite e o glorioso Didi, o criador da “folha seca”, são alguns dos mais lembrados nesse quesito.
Entre os atletas brasileiros ainda em atividade, um dos destaques é Roberto Carlos, que ficou conhecido por seus gols feitos com fortes chutes de longa distância e efeitos imponderáveis. Como um dos mais famosos deles, no Torneio da França de 1997, no jogo entre as seleções brasileira e francesa, que terminou empatado.
O chute de bola parada, cobrança de falta, foi de muito longe, a 35 metros das traves, e o lateral tomou mais uns dez para correr até bater na bola. A curva foi tamanha que saiu do quadro da câmera de televisão que focalizava a cena de frente.
O goleiro francês nem se mexeu. A bola passou a mais de 1 metro à direita do último homem da barreira. Parecia que ia para fora – muito fora –, quando mudou completamente de trajetória e entrou com violência no canto do gol, para perplexidade de Fabien Barthez, o arqueiro francês.
Um novo estudo acaba de concluir que o gol não foi um golpe de sorte ou obra do acaso, mas sim resultado de uma sequência de fatores. O trabalho, publicado no New Journal of Physics, foi feito, curiosamente, por cientistas franceses, da École Polytechnique in Palaiseau.
Segundo os pesquisadores, Barthez não pulou para tentar alcançar a bola por achar que ela iria para fora, uma vez que a trajetória o fez induzir que passaria longe do gol. Atrás da linha de fundo, um gandula abaixou com medo de ser atingido pela bola, que julgou estar na sua direção.
Usando pequenas bolas de plástico e estilingues, os cientistas variaram a velocidade e o giro de bolas se deslocando pela água de modo a poder traçar diferentes respostas e trajetórias.
Os resultados confirmaram o efeito Magnus, que dá a uma bola girando enquanto se desloca no ar uma trajetória curva e indicam que, além da força, a distância foi importante para o gol brasileiro.
A fricção exercida na bola pela atmosfera em seu entorno diminuiu a velocidade o suficiente para que o giro assumisse um papel maior na trajetória. Foi o que resultou na mudança brusca de direção no último momento, quando todos imaginaram que a bola iria para a linha de fundo.
Segundo os cientistas, o movimento resultante pode ser chamado de “espiral de uma bola girando” e é bem diferente dos efeitos resultantes de chutes de distâncias menores (entre 20 e 25 metros), como as cobranças de falta de jogadores como Michel Platini e David Beckham.
“Quando chutada de uma distância longa o bastante e com uma força suficiente para mantê-la em uma determinada trajetória à medida que se aproxima do gol, a bola pode assumir um comportamento inesperado”, disse Christophe Clanet, um dos autores do estudo.
“O chute de Roberto Carlos começou com uma trajetória circular clássica que subitamente dobrou de forma espetacular, levando a bola para dentro do gol, embora um instante antes tenha parecido que iria para fora. As pessoas frequentemente destacam que a falta foi batida de muito longe. Em nosso artigo, mostramos que isso não foi coincidência, mas uma condição necessária para gerar uma trajetória em espiral”, disse. Outro ponto fundamental, claro, foi a grande habilidade do lateral em cobrar faltas.
O gol de Roberto Carlos pode ser visto em: www.youtube.com/watch?v=30Vy5Fesy_E
O artigo The spinning ball spiral (doi: 10.1088/1367-2630/12/9/093004), de Christophe Clanet e outros, pode ser lido por assinantes do New Journal of Physics em http://iopscience.iop.org/1367-2630/12/9/093004

quinta-feira, 2 de setembro de 2010

Vapor de água detectado em estrela



Vapor de água estelar
Cientistas descobrem presença de vapor de água com temperatura de cerca de 700º C em região próxima a uma estrela gigante (ilust.: Nasa)

Divulgação Científica

Vapor de água estelar

2/9/2010
Agência FAPESP – Vapor de água a uma temperatura de cerca de 700º C foi detectado no espectro de uma estrela rica em carbono. Essa descoberta surpreendente indica a presença de água próxima a uma estrela, na região quente de seu envelope gasoso (entorno).
A descoberta, segundo seus autores, reforça que o conhecimento sobre a química das estrelas mais evoluídas “ainda é rudimentar”. Vapor de água no envelope da estrela gigante em questão, conhecida como IRC+10216, havia sido identificado em 2001, mas os astrônomos achavam que seria originário de corpos com gelo, como cometas.
A presença de vapor em temperatura tão elevada altera o conhecimento atual sobre química estelar, uma vez que em um ambiente com muita presença de carbono, em equilíbrio termodinâmico, não se esperava que moléculas cheias de oxigênio (com exceção de monóxido de carbono) estivessem próximas.
A descoberta também contradiz a ideia de que vapor de água não poderia originar dos entornos de uma estrela, mas apenas a partir de regiões mais frias e distantes.
Leen Decin, da Universidade Católica de Leuven, na Belgica, e colegas, por meio do observatório espacial Herschel, lançado em maio de 2009 pela Agência Espacial Europeia (ESA), identificaram dezenas de linhas de vapor no espectro da IRC+10216 (também chamada de CW Leonis).
Segundo descrevem os cientistas, em artigo publicado na edição desta quinta-feira (2/9) da revista Nature, algumas das linhas são produzidas por transições de estados altamente excitados que, ao serem analisados, indicaram uma temperatura de cerca de 700º C.
Isso significa que a água não deriva da vaporização de gelo de outros corpos, mas que deve estar presente no envelope interno da estrela que está a 650 anos-luz da Terra.
Os cientistas sugerem que uma explicação possível para a presença de vapor é a produção fotoquímica de água por meio da ação de fótons ultravioleta, caso o envelope da estrela tenha uma estrutura que permita a penetração da luz até as regiões mais próximas em seu entorno.
Esses fótons ultravioleta teriam origem na estrela ou, mais provavelmente, no espaço interestelar, dizem os autores do estudo.
O artigo Warm water vapour in the sooty outflow from a luminous carbon star (doi:10.1038/nature09344), de Leen Decin e outros, pode ser lido por assinantes da Nature em www.nature.com

obrigado pela visita

Related Posts with Thumbnails