quarta-feira, 30 de janeiro de 2013

Adeus JPEG: sensor comprime imagem durante a captura


Redação do Site Inovação Tecnológica - 21/01/2013

Adeus JPEG: sensor comprime imagem durante a captura
Na parte inferior, a linha de "antenas" que compõem o sensor. No detalhe, o sensor completo, formado por várias linhas. [Imagem: John Hunt/Duke ECE]
Compressão por hardware
Poucas tecnologias fizeram tanto sucesso e duraram tanto quanto a compressão de imagens JPEG, que ainda continua em seus melhores dias.
Mas que tal dispensar totalmente a necessidade de compressão das imagens sem lotar rapidamente seus cartões de memória e seus HDs?
John Hunt e seus colegas da Universidade de Duke, nos Estados Unidos, fizeram bem mais do que isso.
Eles criaram um mecanismo que permite que a imagem seja comprimida enquanto está sendo captada, ou seja, não se trata de comprimir o arquivo, mas algo mais parecido com "comprimir a cena" que o sensor está captando.
Tudo é feito com um tipo especial de lente, um dispositivo que não apenas dispensa a lente tradicional da câmera, mas dispensa também mecanismos mecânicos, como o obturador da máquina, e até mesmo o CCD, o sensor de imagem das câmeras digitais.
Sensor de antenas
Hunt fez essa aparente mágica usando os mesmos metamateriais usados nosmantos de invisibilidade.
Os metamateriais são materiais artificiais projetados para terem propriedades não encontradas em materiais naturais - mais especificamente, propriedades especiais na forma como eles lidam com a luz.
A metalente em si é um fino laminado com linhas formadas por pequenos quadrados de cobre, que funcionam como antenas, cada uma ajustada para um diferente comprimento de onda da luz.
Cada antena capta uma faixa de frequência, o que significa que o sensor obtém uma imagem muito mais detalhada da cena - sem precisar de lentes comuns, posicionadores mecânicos, sistemas de armazenamento ou mesmo programas para comprimir os arquivos.
Isto porque, ao contrário dos sistemas atuais, o novo sistema não se preocupa em manter a dimensão da imagem (o número de pixels), mas trabalho para preservar o conteúdo de informação encontrado na cena, evitando capturar pontos adjacentes que não acrescentam informação sobre cada objeto em particular.
O resultado é uma compressão de imagem no próprio hardware, mais especificamente, no próprio sensor.
Como coleta a informação das cenas de forma mais eficiente do que os sensores de imagens tradicionais, os pesquisadores afirmam que o sensor de metamaterial permitirá que câmeras, sensores de raios X e outras tecnologias de imageamento capturem as imagens de forma mais rápida e usando equipamentos mais simples.
Adeus JPEG: sensor comprime imagem durante a captura
Diferença de funcionamento dos CCDs tradicionais (a), de um sistema de pixel único (B) e do novo sensor baseado em metamaterial, que faz amostragens da cena de forma similar a um holograma. [Imagem: John Hunt/Duke ECE]
Das micro-ondas para a luz visível
O protótipo de demonstração mostrou que o metassensor é capaz de capturar as imagens e reconstruí-las no computador com uma velocidade suficiente para mostrar filmes em tempo real, sem qualquer necessidade de pós-compressão.
Segundo os pesquisadores, o material é flexível e durável o bastante para ser grudado sobre uma parede, envolto em torno de cantos ou mesmo posto no chão como um tapete, o que o torna uma alternativa barata para uma grande variedade de aplicações de sensoriamento, como sistemas de segurança em aeroportos.
Claro que, como conceito inovador, o protótipo ainda não está pronto para substituir sua câmera digital: ele faz imagens bidimensionais e funciona apenas na faixa das micro-ondas.
O próximo passo é miniaturizar o sensor, construindo antenas com dimensões nanométricas, para que o sensor possa captar a luz visível.
Bibliografia:

Metamaterial Apertures for Computational Imaging
John Hunt, Tom Driscoll, Alex Mrozack, Guy Lipworth, Matthew Reynolds, David Brady, David R. Smith
Science
Vol.: 339 - pags. 310-313
DOI: 10.1126/science.1230054

Fonte: Inovação Tecnológica

NASA envia Mona Lisa para Lua para testar comunicação a laser


Redação do Site Inovação Tecnológica - 20/01/2013

NASA envia Mona Lisa para Lua para testar comunicação a laser
Cada pixel foi transmitido por um pulso de laser, cada pulso sendo disparado em um de 4.096 intervalos de tempo possíveis. [Imagem: NASA]
Comunicação a laser
A NASA fez a primeira demonstração prática de comunicação a laser com a Lua.
Para isso, um laser localizado no Centro Espacial Goddard transmitiu uma imagem do quadro Mona Lisa, de Leonardo da Vinci, para a sonda espacial LRO, que está orbitando a Lua desde 2009.
A sonda LRO (Lunar Reconnaissance Orbiter) ficou conhecida por fazer asprimeiras fotos dos locais de pouso dos astronautas da Lua, mas foi ela também que traçou o mapa mais preciso já feito do nosso satélite.
Cumpridas as etapas científicas principais da missão, os controladores puderam começar a testar outros equipamentos de demonstração tecnológica que a sonda levava a bordo.
O principal deles é um sistema móvel de laser que permite a troca de dados com a Terra.
Mona Laser
A imagem digitalizada da Mona Lisa teve seus bits transmitidos em pulsos de laser, em uma espécie de código Morse espacial.
A imagem foi convertida em uma matriz de 152 por 200 pixels. Cada pixel foi convertido em tons de cinza, representados por um número entre zero e 4.095.
Cada pixel foi transmitido por um pulso de laser, cada pulso sendo disparado em um de 4.096 intervalos de tempo possíveis, durante uma janela de tempo determinada.
Os erros de transmissão, gerados por flutuações no sinal induzidos pela atmosfera terrestre, foram corrigidos com os mesmos algoritmos usados pelos aparelhos de CD e DVD.
"Esta é a primeira vez que se consegue realizar uma comunicação a laser unidirecional a distâncias planetárias," disse David Smith, do MIT, responsável pelo equipamento a bordo da sonda, chamado LOLA (Lunar Orbiter Laser Altimeter).
NASA envia Mona Lisa para Lua para testar comunicação a laser
Os erros de transmissão, gerados por flutuações no sinal induzidos pela atmosfera terrestre, foram corrigidos com os mesmos algoritmos usados pelos aparelhos de CD e DVD. [Imagem: Xiaoli Sun/NASA Goddard]
Comunicação espacial de alta velocidade
O projeto LCRD (Laser Communications Relay Demonstration) também pretende lançar as bases para o estabelecimento de uma "presença virtual" no espaço, em outro planeta ou em um outro corpo do Sistema Solar, inicialmente para o controle de robôs espaciais.
"No futuro próximo esse tipo simples de comunicação a laser poderá servir como backup para a comunicação por rádio que os satélites usam. No futuro mais distante, ele poderá permitir a comunicação a velocidades mais altas do que os links de rádio atuais podem oferecer," explicou Smith.
Para comparação, a sonda MRO (Mars Reconnaissance Orbiter) leva 90 minutos para transmitir uma única foto de Marte em alta resolução. Com um sistema a laser, com capacidade de 500 Mbps, essa mesma foto chegaria à Terra em cerca de 1 minuto.
A imagem completa da Mona Lisa, usando o sistema experimental, foi transmitida a uma taxa de dados de cerca de 300 bits por segundo.
O próximo teste de comunicação a laser no espaço será feito com a sonda espacial LADEE (Lunar Atmosphere and Dust Environment Explorer), que deverá ser lançada até o final deste ano, levando a bordo um sistema capaz de trocar dados em alta velocidade, a até 622 Mbps.

Fonte: Inovação Tecnológica

Aquecimento global pode ser mais suave do que se temia


Redação do Site Inovação Tecnológica - 30/01/2013

Aquecimento global pode ser mais suave do que se temia
"Estes resultados são verdadeiramente sensacionais", comemora a Dra. Caroline Leck, da Universidade de Estocolmo. [Imagem: RCN/Shutterstock]
Resultados sensacionais
Segundo pesquisadores noruegueses, a possibilidade de que o aquecimento global se mantenha abaixo dos 2°C até o fim do século é muito mais factível do que se imaginava.
E o alerta não vem dos chamados "céticos", que não aderiram ao consenso do aquecimento global, mas de um pesquisador que figura como um dos principais autores do relatório do IPCC de 2007.
A equipe apresentou ainda elementos que levam a crer que a participação do homem no aquecimento global é menor do que se imaginava.
"Estes resultados são verdadeiramente sensacionais", comemora a Dra. Caroline Leck, da Universidade de Estocolmo. "Se forem confirmados por outros estudos, estes resultados deverão ter impactos de grande alcance sobre os esforços para atingir as metas políticas para o clima."
Aumento da temperatura está se estabilizando
Depois de subir acentuadamente na década de 1990, a temperatura média da superfície da Terra se estabilizou quase completamente no nível registrado no ano 2000.
E isso apesar do fato de que as emissões de CO2 e outros fatores antropogênicos que se acredita contribuírem para o aquecimento global ainda estejam em ascensão.
É essa tendência pós-2000 que fez com que os cálculos dos pesquisadores noruegueses para o aquecimento global destoassem tanto dos números divulgados pelo IPCC (Painel Intergovernamental sobre Mudanças Climáticas), que deve publicar sua própria análise sobre esses novos dados no decorrer deste ano.
Sensibilidade climática
A sensibilidade climática é uma medida de quanto a temperatura média global deve aumentar se continuarmos aumentando as nossas emissões de gases de efeito estufa para a atmosfera.
O CO2 é o principal gás de efeito estufa emitido pela atividade humana, ainda que não seja o mais forte individualmente.
Uma maneira simples de medir a sensibilidade climática é calcular quanto a temperatura média do ar vai aumentar se dobrarmos o nível de emissões globais de CO2 em comparação com o nível do mundo pré-industrializado, por volta do ano 1750.
Se o ritmo atual de emissão de CO2 se mantiver, essa duplicação do nível de CO2 na atmosfera será atingida por volta de 2050.
Aquecimento global pode ser mais suave do que se temia
O aquecimento a longo prazo é muito claro. O que os pesquisadores argumentam é que o nivelamento da tendência de aquecimento verificada depois de 2000 (no destaque), altera todas as previsões do aquecimento global futuro. A década de 1940 apresentou comportamento semelhante. [Imagem: NASA]
Mecanismos de feedback
São vários os fatores que afetam o clima. A complexidade do sistema climático é ainda agravada por um fenômeno conhecido como mecanismo de feedback, ou seja, como fatores como nuvens, evaporação, neve e gelo afetam mutuamente um ao outro.
As incertezas sobre as consequências globais dos mecanismos de feedback tornam muito difícil prever o quanto do aumento na temperatura média da superfície da Terra deve-se às emissões feitas pelo homem.
Segundo o IPCC, a sensibilidade climática para níveis de CO2 atmosférico duplicados em relação à era pré-industrial fica entre 2°C e 4,5°C, com a maior probabilidade ficando em 3°C de aquecimento.
No estudo norueguês, no entanto, os pesquisadores chegaram a uma estimativa de 1,9°C como o nível mais provável do aquecimento se os níveis atuais de emissão se mantiverem.
Laboratório gigante
"Nós usamos um método que nos permite visualizar a Terra como um 'laboratório gigante', onde a humanidade tem realizado um experimento coletivo por meio de nossas emissões de gases de efeito estufa e de particulados, desmatamento e outras atividades que afetam o clima," explicou o professor Terje Berntsen, coordenador do projeto e um dos autores principais do relatório do IPCC de 2007.
Em sua análise, o professor Berntsen e seus colegas incluíram todos os fatores conhecidos que contribuem para as mudanças climáticas induzidas pelo homem desde 1750.
Além disso, eles incluíram flutuações climáticas causadas por fatores naturais, como erupções vulcânicas e atividades solares. Eles também incluíram medições de temperaturas coletadas no ar, no solo e nos oceanos.
Os pesquisadores usaram um modelo climático único, cujos cálculos foram repetidos milhões de vezes, a fim de formar uma base para a análise estatística.
Comparação com os dados do IPCC
Quando os pesquisadores aplicaram seu modelo para analisar os dados para o período que terminou em 2000, eles descobriram que a sensibilidade do clima a uma duplicação da concentração de CO2 atmosférico seria mais provavelmente de 3,7°C, que é um pouco mais do que o prognóstico feito pelo IPCC com base nos mesmos dados.
Mas a surpresa veio quando eles incluíram os dados da década 2000-2010: a sensibilidade climática foi muito menor, chegando, segundo eles, "a um mero 1,9°C".
O professor Berntsen salienta que este aumento provável de temperatura só seria sentido bastante tempo depois que fosse atingido o dobro de concentração de CO2 (comparado a 1750) e que esse nível fosse mantido por um longo período, uma vez que os oceanos atrasam o efeito por várias décadas.
Mudanças naturais
O dado de 1,9°C como previsão do aquecimento global a partir de uma duplicação da concentração de CO2 na atmosfera é uma média, assim como o dado do IPCC.
Quando os pesquisadores calcularam um intervalo de probabilidades do que pode ocorrer, incluindo observações e dados até 2010, eles determinaram com 90% de probabilidade que o aquecimento global a partir de uma duplicação da concentração de CO2 ficará entre 1,2°C e 2,9°C.
Mas mesmo o máximo de 2,9°C para o aquecimento global é substancialmente mais baixo do que as estimativas anteriores, que chegavam a 4,5°C.
"A temperatura média da Terra aumentou acentuadamente durante a década de 1990. Isso pode ter-nos levado a superestimar a sensibilidade climática," disse o professor Berntsen.
"Estamos mais provavelmente testemunhando flutuações naturais no sistema climático - alterações que podem ocorrer ao longo de várias décadas - e que estão no topo de um aquecimento de longo prazo. As mudanças naturais resultaram em um rápido aumento da temperatura global nos anos 1990, enquanto que as variações naturais entre 2000 e 2010 podem ter resultado no nivelamento que estamos observando agora," analisa o pesquisador.

Fonte: Inovação Tecnológica

terça-feira, 29 de janeiro de 2013

Não há biblioteca em 72,5% das escolas brasileiras


Lei 12.444 determina que até 2020 todos os colégios terão que ter acervo de livros

Publicado em 23/01/2013, às 08h03

Da Agência Estado

O Brasil precisa construir 130 mil bibliotecas até 2020 para cumprir a Lei 12.244, que estabelece a existência de um acervo de pelo menos um livro por aluno em cada instituição de ensino do País, tanto de redes públicas como privadas. Hoje, na rede pública, apenas 27,5% das escolas têm biblioteca.

Para equipar todas as 113.269 escolas públicas sem biblioteca, seria necessária a construção de 34 unidades por dia, segundo um levantamento realizado pelo movimento Todos Pela Educação com base no Censo Escolar 2011. O estudo também faz uma comparação com números do Censo 2008 e mostra que, mesmo as escolas construídas nos três anos seguintes (foram 7.284 novas unidades) não contemplam o espaço: apenas 19,4% dessas novas instituições têm biblioteca.

Os Estados mais carentes são os das Regiões Norte e Nordeste, que tradicionalmente têm infraestrutura escolar precária, com escolas que chegam a funcionar em construções sem energia elétrica e saneamento básico. Na rede municipal do Maranhão, por exemplo, só 6% das escolas têm biblioteca.

O que destoa da lista, no entanto, é o aparecimento do Estado de São Paulo com um dos piores resultados do ranking, com 85% das unidades de sua rede pública (escolas estaduais e municipais) sem biblioteca. São 15.084 unidades sem o equipamento. Um enorme prejuízo, se considerado os resultados da edição 2012 da pesquisa Retratos do Brasil, que mostrou que, entre os 5 e 17 anos, as bibliotecas escolares estão à frente de qualquer outra forma de acesso ao livro (64%). “Isso mostra que só a legislação não é suficiente, porque tem lei que realmente não pega”, afirma Priscila Cruz, diretora do Todos pela Educação.

Quando se analisa o déficit por nível de ensino, vê-se, ainda, que as instituições de ensino infantil são as mais prejudicadas: enquanto 82% das escolas de ensino profissional e 52% das de ensino médio construídas após 2008 possuem biblioteca, apenas 10% das de ensino infantil têm o espaço.

Uma opção que é um contrassenso, argumentam os educadores, já que é na faixa etária dos 5 anos que a criança está descobrindo a língua escrita e tem de ser estimulada à descoberta e ao gosto pela leitura. No ensino médio, o estudante já teria acesso a outros ambientes de leitura.

Fonte: UOL

Sondas europeias vão revelar em 2013 segredos do Big Bang, de Marte e do clima, promete ESA


Sondas europeias voltarão à Terra este ano com um tesouro de dados sobre o Big Bang, a água em Marte e as mudanças climáticas, afirmou Jean-Jacques Dordain, diretor da Agência Espacial Europeia (ESA,na sigla em inglês). O orçamento da ESA para 2013 é de US$ 5,6 bilhões (cerca de R$ 11,37 bilhões), uma alta de 6% com relação ao ano passado, disse o executivo.
"O ano de 2013 renderá frutos extraordinários" de conhecimento sobre o espaço, antecipou Dordain em coletiva por ocasião do início do ano. 
Em 22 de fevereiro, os cientistas trarão de volta a missão Umidade dos Solos e Salinidade dos Oceanos (SMOS), em que um satélite lançado em 2009 mapeia a superfície e os oceanos da Terra em busca de alterações vinculadas às mudanças climáticas.
Em 21 de março, astrofísicos divulgarão o primeiro mapa completo do céu do Fundo Cósmico de Microondas (CMB), corrente de radiação antiga que data da criação do universo, 14 bilhões de anos atrás. O mapa foi gerado pela sonda Planck, lançada em maio de 2009.
Em junho, especialistas da ESA divulgarão um "mapa mineralógico" completo de Marte, montado a partir de dados de sensoreamento remoto, fornecidos pela sonda Mars Express, que este ano marca seu 10º aniversário de operações, afirmou Dordain.
Com indícios de existência de água no passado, o mapa ajudará a selecionar os locais para uma ambiciosa missão científica russo-europeia, a ExoMars, que compreende um orbitador que será lançado em 2016 e um veículo-robô em 2018.
Em 29 de dezembro, a Mars Express fará seu sobrevoo mais próximo da lua marciana de Fobos, passando a menos de 50 quilômetros de sua superfície.

Veja mais imagens e notícias sobre o espaço

Foto 41 de 41 - Cientistas do Irã exibem macaco que foi enviado a 120 quilômetros de altitude a bordo de uma cápsula e recuperado com vida após o pouso. O diretor do programa espacial iraniano, Hamid Fazeli, afirmou que o lançamento teve como objetivo estudar "a presença humana no espaço", já que o país pretende colocar um homem em órbita entre os próximos cinco e oito anos Mais AP Video
Mapa da Via Láctea
Ainda este ano, o observatório europeu Herschel, lançado em 2009, fornecerá um mapa completo da superfície da Via Láctea, possibilitando a astrônomos apontar onde as estrelas estão surgindo na nossa galáxia.
No segundo semestre de 2013 está previsto o lançamento de Gaia, um telescópio de "astrometria espacial" que examinará um bilhão de estrelas para produzir o maior mapa tridimensional da Via Láctea.
A ESA também anunciou que prosseguirá com o lançamento previsto dos primeiros satélites operacionais do programa Galileu, concorrente europeu do norte-americano Sistema de Posicionamento Global (GPS) de navegação por satélite.
Quatro satélites serão lançados em pares por dois foguetes Soyuz, da base da ESA em Kourou, na Guiana francesa, na segunda metade do ano. Quatro satélites de teste já estão em órbita. Finalmente, o sistema Galileu terá 27 satélites e três reservas.

Fonte: UOL

quinta-feira, 17 de janeiro de 2013

Sonda acha possível rio extinto em Marte


A ESA (Agência Espacial Europeia) divulgou hoje mais fotos e informações da Mars Express, sua sonda em Marte. O material é um indicativo ainda mais contundente do passado "molhado" do planeta vermelho.
Em imagens da área chamada Reull Vallis, os cientistas identificaram algo que muito provavelmente foi um rio. Acredita-se que ele se formou em um distante passado em que água corrente fluía em Marte.
Divulgação
Foto mostra provável rio extinto em Marte
Foto mostra provável rio extinto em Marte
Pelas imagens, feitas em 2012, os pesquisadores acreditam que o rio tinha cerca de 7 quilômetros de largura e 300 metros de profundidade.
As fotos mostram também que os lados essa região têm as bordas particularmente nítidas e íngremes.
Os cientistas propõem que um fluxo de gelo e detritos colaborou para que essa área tivesse suas características atuais. Isso aconteceu no chamado período geológico Amazoniano --o mais recente de Marte, que continua até hoje.
A formação do rio com a água líquida, no entanto, é bastante anterior, do período Hesperiano, ocorrido entre 3,5 bilhões e 1,8 bilhões de anos atrás.
Divulgação
Foto mostra provável rio extinto em Marte. Possível rio tinha cerca de 7 km de largura e 300 m de profundidade.
Foto mostra provável rio extinto em Marte. Possível rio tinha cerca de 7 km de largura e 300 m de profundidade.


Fonte: Folha de São Paulo

terça-feira, 15 de janeiro de 2013

Vagalumes ajudam a tornar LEDs mais brilhantes


Redação do Site Inovação Tecnológica - 15/01/2013

Vagalumes ajudam a tornar LEDs mais brilhantes
Ao coletar 50% mais fótons, a camada inspirada nos vagalumes permitiu aumentar a eficiência do LED em 1,5 vez. [Imagem: Nicolas Andr]
Estrutura óptica natural
O piscar suave dos vagalumes inspirou cientistas a inserir modificações em um LED que o tornaram uma vez e meia mais eficiente.
A equipe da Bélgica, França e Canadá estudou a estrutura interna das "lanternas" dos vagalumes, os órgãos do animal repletos de células bioluminescentes, que piscam durante os rituais de acasalamento.
Os cientistas identificaram um padrão inesperado de escamas irregulares que melhora o brilho das lanternas.
Eles então aplicaram esse conhecimento ao design de um LED, criando uma camada externa para o diodo emissor de luz que imita a estrutura natural identificada no vagalume.
Essa sobrecamada, que aumenta a extração de luz pelo LED em até 55%, poderá ser facilmente aplicada aos LEDs atualmente em fabricação.
Reflexão interna
Os vagalumes emitem luz através de uma reação química que ocorre em células especializadas, chamadas fotócitos. A luz vai para o exterior passando através de uma parte do exoesqueleto do inseto chamada cutícula.
A luz viaja através da cutícula mais lentamente do que se desloca através do ar, e esse descasamento faz com que uma parte da luz seja refletida de volta na lanterna, diminuindo o brilho.
Os LEDs apresentam essa mesma deficiência de reflexão interna, o que diminui seu brilho e sua eficiência.
Vagalumes ajudam a tornar LEDs mais brilhantes
Os cientistas criaram um revestimento que imita as escamas naturais do interior do exoesqueleto dos vagalumes. [Imagem: Bay et al./Optics Express]
Revestimento para brilhar mais
O que os pesquisadores descobriram é que a geometria da superfície das cutículas de alguns vagalumes ajuda a minimizar as reflexões internas, ou seja, mais luz escapa para chegar aos olhos dos potenciais parceiros.
Quando eles usaram simulações de computador para modelar como as estruturas afetam a transmissão da luz, descobriram que as bordas afiadas das escamas deixam passar mais luz.
Tudo foi confirmado experimentalmente com a criação de uma camada contendo saliências de cinco micrômetros de altura, posta sobre um LED de nitreto de gálio.
"O que é legal na nossa técnica é que é um processo fácil e não temos que desenvolver um novo LED. Com uns poucos passos adicionais podemos recobrir os diodos emissores de luz atuais," disse Annick Bay, descobridora do fenômeno.


Fonte: Inovação Tecnológica

quarta-feira, 9 de janeiro de 2013

Alcançada temperatura abaixo do zero absoluto


Redação do Site Inovação Tecnológica - 07/01/2013

Físicos alcançam temperatura abaixo do zero absoluto
Devido à forma como a temperatura é definida, não há uma transição suave entre as temperaturas absolutas positivas e negativas - tão logo a distribuição de energia é invertida, atinge-se um calor descomunal.[Imagem: LMU/MPG Munich]
Além da escala Kelvin
A escala de temperaturas absolutas - conhecida como escala Kelvin - é um dos conceitos centrais da física.
Por definição, nada pode ser mais frio do que o zero absoluto, estabelecido em 0 Kelvin, ou -273,15 °C.
Contudo, há muito os físicos sabem que, abaixo do zero absoluto, há todo um reino de temperaturas absolutas negativas.
Em 2011, um grupo de físicos teóricos alemães demonstrou que, se não é possível passar suavemente pelo zero absoluto, como acontece na escala Celsius, é possível saltar pelo 0 K e ir diretamente para esse reino ainda inexplorado.
Agora, uma outra equipe alemã fez os experimentos e demonstrou na prática como ir abaixo do zero absoluto.
E a realidade mostrou-se impressionante: abaixo do quase inatingível frio absoluto estão algumas das temperaturas mais quentes já observadas no Universo.
O resultado terá largas implicações em várias áreas científicas, da física básica à cosmologia.
Calor absoluto
Simon Braun e seus colegas da Universidade Ludwig Maximilian de Munique obtiveram a temperatura absoluta negativa movendo átomos em um gás ultrafrio.
Na escala Kelvin normal - das temperaturas absolutas positivas - a temperatura é proporcional à energia cinética média das partículas.
Mas nem todas as partículas têm a mesma energia - há na verdade uma distribuição de energia, sendo os estados de baixa energia mais ocupados do que os estados de alta energia - isto é conhecido como distribuição de Boltzmann.
No caso das temperaturas Kelvin negativas, a distribuição é invertida, e os estados de alta energia são mais ocupados do que os estados de baixa energia.
O resultado é um calor que se aproxima do estado mais quente que se pode obter quanto mais próximo a temperatura absoluta negativa está do zero absoluto.
A inversão drástica dos estados de energia - uma distribuição de Boltzmann invertida - faz com que a temperatura sub-Kelvin não seja mais fria, mas incrivelmente quente.
"Ela é ainda mais quente do que qualquer temperatura positiva - a escala de temperaturas simplesmente não vai ao infinito, ela salta para valores negativos," disse Ulrich Schneider, coordenador da equipe.
Segundo o pesquisador, essa contradição é apenas aparente, e nasce da forma como a temperatura absoluta tem sido definida ao longo da história - o experimento abre a possibilidade de uma nova definição da temperatura, o que pode fazer com que a contradição desapareça.
Motor com eficiência maior que 100%
A matéria em temperaturas negativas absolutas pode ter consequências científicas e tecnológicas sem precedentes.
Com um sistema robusto o suficiente poderá ser possível criar motores a combustão com uma eficiência energética que supere os 100%.
E isso não significa uma violação da lei de conservação de energia - esse motor hipotético poderia não apenas absorver energia do meio quente, executando um trabalho como os motores normais, mas também extrair energia do meio mais frio, executando trabalho adicional.
Sob temperaturas absolutamente positivas, o meio mais frio inevitavelmente se aquece, absorvendo uma parte da energia do meio mais quente, o que impõe um limite à eficiência do motor.
Contudo, se o meio quente tiver uma temperatura absoluta negativa, é possível absorver energia dos dois meios simultaneamente.
O trabalho realizado pelo motor será, portanto, maior do que a energia retirada apenas do meio quente - sua eficiência será superior a 100%.
Físicos alcançam temperatura abaixo do zero absoluto
O experimento pode ser comparado a esferas em uma superfície ondulada. Nas temperaturas positivas (esquerda) a maioria das esferas fica nos vales, em seu estado de energia mínimo, quase imóveis - uma distribuição de Boltzmann normal. Em uma temperatura infinita (centro), as esferas se distribuem uniformemente nos dois estados. Na temperatura absoluta negativa (direita), entretanto, a maioria das esferas vai para os picos, no limite superior de energia potencial (e cinética). Os estados com energia total mais elevada ocorrem mais frequentemente - uma distribuição de Boltzmann invertida. [Imagem: LMU/MPG Munich]
Desafiando a gravidade
O experimento tem também um impacto direto para o campo da cosmologia, mais especificamente, sobre a energia escura, uma força ainda desconhecida que os cientistas usam para explicar a aceleração da expansão do Universo.
Com base apenas nas forças conhecidas, o Universo deveria estar se contraindo devido à atração gravitacional entre todas as massas que o compõem.
O experimento da temperatura absoluta negativa revelou um fenômeno que desafia a gravidade, agindo no sentido contrário, exatamente como se propõe que a energia escura faça.
O experimento se baseia no fato de que os átomos no gás não se repelem uns aos outros, como nos gases normais.
Na verdade, eles interagem de forma atrativa, ou seja, os átomos exercem uma pressão negativa.
A nuvem de átomos tenderia naturalmente a se contrair, devendo colapsar, exatamente como em um Universo onde apenas a gravidade estivesse atuando.
Isso, contudo, não acontece justamente por causa da temperatura absoluta negativa, extremamente quente - e o gás não colapsa, exatamente como o nosso Universo.
Temperatura absoluta negativa
A inversão dos estados de energia das partículas em um sistema ultrafrio não pode ser realizada em um sistema natural - como a água, por exemplo - porque o material teria que absorver uma quantidade infinita de energia.
Mas a coisa é bem diferente quando se trabalha com um sistema no qual as partículas - ou átomos - tenham um limite superior de energia.
Simon Braun trabalhou com um sistema artificial, composto por cerca de 100 mil átomos em uma câmara de vácuo, o que os torna perfeitamente isolados do ambiente externo.
Os átomos foram resfriados a uma temperatura de alguns bilionésimos de um Kelvin, uma das temperaturas mais frias que se consegue obter em laboratório.
Os átomos no gás ultrafrio foram então capturados por armadilhas ópticas, feitas por feixes de raios laser, e dispostos em uma matriz perfeitamente ordenada.
Cada átomo pode mover-se do seu local na matriz óptica para o local vizinho por tunelamento, mas sem perder algo que é fundamental para o experimento: ao contrário dos sistemas naturais, as partículas da matriz óptica possuem um limite superior de energia.
Assim, a temperatura do sistema não depende apenas da energia cinética, mas da energia total das partículas, o que inclui as energias potencial e de interação, ambas igualmente com um limite superior impostas pelo experimento.
Em condições normais, os átomos tenderiam a escapar da rede óptica, colapsando e aglomerando-se novamente em uma nuvem disforme, sugada para baixo pela gravidade. Mas os cientistas ajustaram a rede óptica para que fosse energeticamente mais favorável aos átomos permanecerem em suas posições ordenadas.
Os cientistas então levaram os átomos até seu nível superior de energia total, materializando uma temperatura absoluta negativa, de alguns bilionésimos -K, em um sistema que se manteve estável.
Bibliografia:

Negative Absolute Temperature for Motional Degrees of Freedom
S. Braun, J. P. Ronzheimer, M. Schreiber, S. S. Hodgman, T. Rom, I. Bloch, U. Schneider
Science
Vol.: 339 - 52-55
DOI: 10.1126/science.1227831

Negative Temperatures?
Lincoln D. Carr
Science
Vol.: 339 - 42-43
DOI: 10.1126/science.1232558

Fonte: Inovação Tecnológica

17 bilhões de Terras derrotam conservadorismo científico


Redação do Site Inovação Tecnológica - 09/01/2013
Via Láctea pode ter 17 bilhões de Terras
A Via Láctea pode abrigar pelo menos 17 bilhões de planetas do tamanho da Terra, com condições para manter água em estado líquido em sua superfície.[Imagem: PHL/UPR Arecibo]
Conservadorismo científico
Há alguns meses, a renomada revista Nature Geoscience causou desconforto na comunidade científica ao defender uma posição ultraconservadora.
Em um editorial intitulado One and only Earth - Uma, e uma única Terra, em tradução livre - a revista usou dados do telescópio espacial Kepler, que pesquisa planetas fora do Sistema Solar, para defender uma posição tipicamente geocêntrica, vencida séculos atrás pela própria ciência.
"Relatórios da missão Kepler aumentaram as esperanças de encontrar um planeta como a Terra. No entanto, a nossa Terra é provavelmente única - não apenas por causa de sua distância do Sol, mas também porque tem coevoluído com as formas de vida que tem hospedado," diz a revista.
Muitos afirmaram que a posição da revista era a defesa do conservadorismo científico contra a chamada Hipótese de Gaia, proposta por James Lovelock.
De qualquer forma, menos de um ano depois do controverso editorial, a própria equipe do telescópio espacial Kepler anunciou resultados que, se fosse necessário, varreriam de vez para debaixo do tapete quaisquer saudosistas geocêntricos.
Segundo os dados mais recentes, até uma em cada seis estrelas pode ter em sua órbita um planeta do tamanho da Terra.
Com base nesse dado, os astrônomos fizeram uma extrapolação e chegaram a uma estimativa de que podem existir nada menos do que 17 bilhões de planetas parecidos com a Terra apenas na nossa própria galáxia, a Via Láctea.
A chance de que a Terra seja um planeta absolutamente único dentre 17 bilhões, como defende a Nature Geoscience, é de 0,0000001%.
Para comparação, os físicos aceitaram o bóson tipo Higgs como uma descoberta científica genuína com uma chance de 0,0001% de estarem errados, o que é uma chance de erro três ordens de grandeza maior.
É fato que o número 17 bilhões está repleto de incertezas, e deverá ser recalculado muitas vezes antes que possamos ter qualquer coisa mais próxima do que se poderia chamar de um censo planetário galáctico. Mas o que importa aqui é a tendência apresentada pelos dados, uma tendência que foge do "um", ou do "único", e caminha tranquilamente, sem medo, entre o "muitos", para a diversidade e para a multiplicidade.
Ou seja, os próprios dados mostram uma vez mais, e sempre mostrarão, que o conservadorismo - a tentativa de "conservar" tudo como está, sobretudo o conhecimento - é incompatível com a ciência, e que, mais dia, menos dia, cai por terra, ou se dilui pelo espaço.
Via Láctea pode ter 17 bilhões de Terras
Os dados mostraram mais uma vez que o conservadorismo - a tentativa de "conservar" tudo como está, sobretudo o conhecimento - é incompatível com a ciência, e cai por terra mais dia, menos dia. [Imagem: C. Pulliam/D. Aguilar (CfA)]
Planetas em trânsito
A estimativa do número de planetas parecidos com a Terra foi anunciada durante o mesmo evento que apresentou a descoberta de vários novos planetas na zona habitável.
O astrônomo François Fressin, do Centro Harvard-Smithsonian para Astrofísica, queria descobrir não somente quais candidatos detectados pelo Kepler podem não ser planetas, mas também quantos planetas podem não ser visíveis pelo Kepler.
"Temos que corrigir duas coisas. Primeiro, a lista de candidatos do Kepler é incompleta", disse ele em uma entrevista à BBC.
"Nós somente vemos os planetas que estão em trânsito pelas suas estrelas hospedeiras, estrelas que por acaso têm um planeta que está bem alinhado para que nós o vejamos. Para cada um deles, há dezenas que não estão nessas condições", explica.
"A segunda grande correção é na lista de candidatos - há alguns que não são planetas verdadeiros transitando sua estrela hospedeira, são outras configurações astrofísicas", diz.
Isso pode incluir, por exemplo, estrelas binárias, nas quais uma estrela orbita outra, bloqueando parte da luz conforme as estrelas "transitam" umas à frente das outras.
"Nós simulamos todas as possíveis configurações em que podíamos pensar - e descobrimos que elas poderiam representar apenas 9,5% dos planetas Kepler, e que todo o resto são planetas genuínos", explicou Fressin.
Um mundo de Terras
Os resultados sugerem que 17% das estrelas hospedam um planeta com tamanho até 25% superior ao da Terra, com órbitas fechadas que duram apenas 85 dias ou menos - semelhante ao do planeta Mercúrio.
Isso significa que a galáxia abrigaria pelo menos 17 bilhões de planetas do tamanho da Terra.
William Borucki, um dos líderes da missão do Kepler, se disse "encantado" com os novos resultados - apenas os resultados concretos anunciados no mesmo evento, e não as estimativas.
"A coisa mais importante é a estatística - não encontramos somente uma Terra, mas cem Terras, que é o que veremos com o passar dos anos com a missão Kepler - porque ele foi desenvolvido para encontrar várias Terras", disse.

Fonte: Inovação tecnológica