terça-feira, 27 de dezembro de 2016

Descoberto novo planeta anão no Sistema Solar

Redação do Site Inovação Tecnológica -  

Descoberto novo planeta anão no Sistema Solar
supercâmera DECam foi projetada para procurar indícios da energia escura, mas está tendo mais sucesso localizando "matéria comum pouco brilhante".[Imagem: Reidar Hahn/DES]
Anão Distante
Acaba de ser descoberto um novo planeta anão, localizado 92 vezes mais longe do Sol do que a Terra - isto é mais do que o dobro da distância de Plutão.
A equipe vinha chamando o corpo celeste recém-descoberto de DD (sigla para Distant Dwarf, ou "anão distante"), mas agora ele passa a ser conhecido como 2014 UZ224.
O UZ224 leva mais de 1.100 anos para completar uma órbita em torno do Sol, sua luz leva 12 horas e meia para chegar até nós e é atualmente o segundo objeto mais distante conhecido no Sistema Solar.
Os astrônomos estimam que o planeta anão é redondo porque ele tem um diâmetro estimado em 560 quilômetros, o que significa que ele provavelmente tem massa suficiente - e, portanto, força gravitacional suficiente - para ser esférico. Dados adicionais, que estão sendo coletados por radiotelescópios, deverão ajudar a determinar o tamanho do novo planeta anão com maior precisão.
O UZ224 é um dos muitos pequenos mundos gelados que se encontram além do planeta mais distante do Sistema Solar, Netuno. Esses corpos celestes são chamados de Objetos TransNetunianos, ou TNOs - o mais famoso deles é o planeta anão Plutão.
Corpos escuros
O que mais chamou a atenção, contudo, foi o instrumento que os alunos do professor David Gerdes, da Universidade de Michigan, nos EUA, usaram para detectar o novo planeta anão: a supercâmera DECam, usada pelo projeto DES (Dark Energy Survey) para procurar indícios da Energia Escura.
A colaboração DES usa esta câmera, montada em um telescópio no Chile, para mapear galáxias distantes em busca de supernovas e para procurar padrões na estrutura cósmica. O objetivo é encontrar alguma explicação para a hipotética substância misteriosa que estaria acelerando a expansão do Universo.
Os objetos transnetunianos não estão entre os principais interesses científicos da DES, uma vez que eles não nos dizem nada sobre a expansão do Universo. Mas, como não dá para dizer à câmera para não registrar outros corpos celestes em seu campo de visão, ela acabou se transformando em um instrumento importante também para a astronomia.
"Até agora, descobrimos mais de 50 novos TNOs em nossos dados. O DD é o maior e o mais distante," disse Gerdes.
Planeta 9
A descoberta do DD coloca a DECam definitivamente no páreo em busca do Planeta 9.
O Planeta 9 é um ainda hipotético nono planeta na borda do Sistema Solar, com 10 vezes a massa da Terra, que seria a causa dos padrões inexplicáveis nas órbitas de vários TNOs.
Fonte: Inovação Tecnológica

Por que os dias na Terra estão ficando mais longos?

Por que os dias na Terra estão ficando mais longos?
Os astrônomos se basearam na observação de eclipses lunares e solares por babilônios, gregos, chineses e árabes.[Imagem: F. R. Stephenson et al. - 10.1098/rspa.2016.0404]


Com informações da BBC -  

Duração dos dias
Cientistas acreditam que os dias na Terra estão ficando mais longos.
Não é muito, apenas 1,8 milissegundo por século. Então não daria para comemorar um dia mais longo com uma bela caminhada em um parque ou em uma praia - para ganhar um minuto a mais, será necessário esperar 3,3 milhões de anos.
A conclusão é de astrônomos que determinaram que os dias na antiga Babilônia eram mais curtos. Leslie Morrison, do Observatório Real de Greenwich, no Reino Unido, analisou com sua equipe as teorias gravitacionais sobre o movimento da Terra ao redor do Sol e da Lua ao redor da Terra.
Eles perceberam que, no passado, babilônios, gregos, chineses, árabes e até os europeus medievais observaram eclipses lunares e solares em momentos e lugares que não coincidem com os do presente.
Astronomia babilônica
O evento mais antigo catalogado foi o eclipse solar que ocorreu no ano 720 A.C. Ele foi observado por astrônomos em um local na Babilônia, onde hoje é o Iraque. Para descobrir como a rotação do nosso planeta variou no período de 2.735 anos, os estudiosos compararam os registros históricos com um modelo criado em computador que calculava onde e quando as pessoas teriam visto estes eclipses do passado se a rotação da Terra tivesse se mantido constante.
Eles chegaram à conclusão de que o eclipse solar de 720 A.C. não poderia ter sido observado onde hoje é o Iraque, e sim em algum lugar na região oeste do oceano Atlântico.
"Mesmo com as observações (de eclipses no passado) sendo rudimentares, podemos ver uma discrepância consistente entre os cálculos e onde e quando os eclipses realmente foram vistos. Isto significa que a Terra está variando em seu movimento de rotação", disse Morrison ao jornal britânico The Guardian.
Formação da Lua
De acordo com astrônomos, a Terra já teria passado por uma mudança em sua rotação há 4,5 bilhões de anos, quando um corpo celeste do tamanho de Marte se chocou contra nosso planeta e ejetou o material que que formou a Lua.
Neste hipotético evento de proporções cataclísmicas - chamado de teoria do grande impacto -, um dia na Terra pode ter pulado de seis para as atuais 24 horas.
O planeta segue desde então desacelerando e o principal efeito de frenagem vem da gravidade da própria Lua. Mas a interação entre as marés dos oceanos e os continentes da Terra é também um importante fator, segundo Morrison.
Frenagem da Terra
Quando os continentes são atingidos pela força do mar, o planeta perde o ímpeto. Mas os modelos e teorias que levam em conta apenas este fenômeno sugerem que a rotação da Terra deveria estar desacelerando mais do que previsto pela análise dos dados de eclipses - cerca de 2,3 milissegundos por dia a cada século.
Então, os pesquisadores acreditam que outros fatores também devem estar influenciando. E suspeitam que a mais recente era do gelo na Terra, há 13 mil anos, alterou a forma do planeta e influenciou a velocidade de rotação.
Mudanças nos níveis dos mares e nas forças eletromagnéticas entre o centro da Terra e sua crosta rochosa também podem ter tido efeito na rotação do planeta.
Devido a estas variações, os relógios atômicos, de alta precisão, precisam ser ajustados periodicamente para se manter em sintonia com a rotação do planeta. Por isso, na passagem de Ano Novo, o ajuste fará com que o dia 31 de dezembro tenha um segundo a mais.

Bibliografia:

Measurement of the Earth's rotation: 720 BC to AD 2015
F. R. Stephenson, L. V. Morrison, C. Y. Hohenkerk
Proceedings of the Royal Society A
Vol.: 472, issue 2196
DOI: 10.1098/rspa.2016.0404
Fonte : Inovação Tecnológica

domingo, 11 de dezembro de 2016

Nova versão do chip brasileiro que fará parte do LHC

Com informações da USP -  

Nova versão do chip brasileiro que fará parte do LHC
O chip brasileiro está sendo testado em institutos parceiro do LHC na Noruega, Suécia, EUA, Rússia e França.[Imagem: Marcos Santos/USP Imagens]
Sopa de partículas
Engenheiros da USP estão finalizando a versão de testes do chip Sampa.
O pequeno circuito integrado - que mede 9,6 milímetros (mm) x 9 mm - será utilizado no LHC (Grande Colisor de Hádrons), o maior colisor de partículas do mundo.
O Sampa será utilizado em um dos grandes detectores do LHC, o Alice, que mede as colisões de íons de chumbo para estudar o plasma de quarks e glúons, que corresponde a um estado diferenciado da matéria, composto dos elementos mais básicos, "abaixo" dos átomos.
No plasma de quarks e glúons - uma espécie de "sopa de partículas" - os quarks não ficam confinados aos hádrons, como os prótons ou os nêutrons. "A ideia é reproduzir em laboratório um novo estado da matéria que teria existido poucos microssegundos após a grande explosão ou big-bang," explicou o professor Marcelo Gameiro Munhoz.
E é justamente nesta estrutura que o chip Sampa será fundamental para compor os equipamentos que irão "fotografar" com precisão o momento exato das colisões.
Detector
Dentro do Alice, o chip brasileiro deverá instrumentalizar o detector TPC (Time Projection Chamber), o principal sistema de reconstituição das trajetórias das partículas após o choque entre os íons.
O TPC possui uma câmara com gás com 5 metros (m) de diâmetro por 5 m de comprimento. Ao ser atravessado por uma partícula, o gás é ionizado. "Um sensor, situado na extremidade dos detectores, multiplica o número de elétrons arrancados do gás e gera um pulso de carga que é captado por um conjunto de chips, que processa e retransmite os sinais para serem analisados," conta o pesquisador.
Esta é a terceira versão do chip, tendo sido grandemente aperfeiçoada em relação à segunda versão, concluída em 2014. Por exemplo, em vez dos três canais de leitura da versão anterior, o Sampa agora conta com 32 canais, aumentando muito a capacidade de leitura e transmissão de dados.
"Mesmo sendo mais completo, o chip atual poderá passar ainda por mais algumas transformações. O equipamento ainda será testado até a sua conclusão e certamente serão necessários pequenos ajustes," alertou o pesquisador.

Os testes estão sendo realizados nos laboratórios da USP, da Unicamp e da Faculdade de Engenharia Industrial de São Bernardo do Campo, para testes de tolerância à radiação. Desde a primeira versão, o chip vem sendo testado também em institutos parceiros do LHC na Noruega, Suécia, EUA, Rússia e França.

Fonte: Inovação Tecnológica

quarta-feira, 7 de dezembro de 2016

Testes confirmam que máquina de fusão nuclear alemã funciona

Ao contrário das usinas nucleares tradicionais, o equipamento promete 

gerar energia por bilhões de anos usando o mesmo mecanismo do Sol

Energia nuclear pode dar arrepios quando pensamos em Chernobyl e Fukushima. Mas existe uma forma de gerar energia limpa, sem radiação e quase ilimitada.


Duvida? É só olhar o céu do meio dia. O Sol produz quantidades imensas de energia por meio da fusão nuclear – um processo muito diferente da fissão nuclear, usados nas usinas.
Agora, um reator na Alemanha promete imitar as reações solares – e os primeiros testes têm apresentado resultados promissores.
O Wendelstein 7-X é um grande donut de 16 metros de extensão, um reator de fusão chamado de “stellerator”, porque tenta imitar as condições das estrelas para fundir átomos e produzir energia.
Esse tipo de aparelho começou a ser pensado nos anos 1950, mas a versão alemã saiu do papel em 2015.
Os primeiros resultados de seu funcionamento saíram agora e revelam que o equipamento superou um dos maiores desafios da fusão nuclear: manter o plasma sobre controle.
Isso porque, para fundir átomos de gás, é necessário construir um grande forno, um mini-sol. O calor forçaria átomos a se aproximarem – apesar da rejeição que eles apresentam naturalmente, por terem carga elétrica do mesmo sinal.
A mistura resultante é o plasma, um estado da matéria nem sólido nem líquido.
O problema é que as condições para produzir esse plasma são tão absurdamente quentes que nenhum “donut metálico” aguenta a pressão sozinho.
A solução, pensada décadas atrás, seria manter o gás e, depois, o plasma, contidos por campos magnéticos, a uma distância segura das superfícies metálicas dos stellerators.
O que o W-7X conseguiu comprovar é que seus campos magnéticos de aprisionamento do plasma estão funcionando bem.
Os testes, publicados na revista Nature, mostram que a máquina está gerando campos magnéticos muito fortes e seguindo com uma precisão impressionante as expectativas dos engenheiros da parafernália. A taxa de erro, segundo o artigo, é menor que 0,001%.
O W-7X é diferente de outros reatores de fusão já inventados porque gera campo magnético em três dimensões, em vez de duas, como faz o modelo inventado na União Soviética, chamado tokamak.
Com os campos em 3D, o W-7X não precisa de corrente elétrica, é mais estável que outros modelos e já provou controlar tanto o plasma de hélio quanto o de hidrogênio.
Os testes foram feitos pelo Departamento de Energia dos Estados Unidos, junto com o Instituto Max Planck de Física do Plasma, na Alemanha.
Eles usaram um elétron para percorrer o campo e delinearam seu trajeto com luz fluorescente, mostrando o formato de “jaula” do campo magnético do reator alemão.
É o primeiro passo, mas ainda não chegamos ao ponto de ter o primeiro reator de fusão realmente funcional. Isso só deve começar em 2019, quando o W-7X vai começar a usar deutério, um isótopo do hidrogênio, muito abundante nos oceanos terrestres. No início, porém, só vai gerar energia suficiente para se manter funcionando.
Aumentar a eficiência energética dos reatores é o próximo desafio, assim que eles estiverem fazendo fusão nuclear de forma satisfatória.
Se der certo, podemos ter conseguido a solução energética para a Terra por todo o futuro previsível. Afinal, juntar átomos de hidrogênio é o que o Sol faz há 4 bilhões de anos – e deve continuar fazendo pelos próximos 4 bilhões.
Fonte: http://exame.abril.com.br/ciencia/testes-confirmam-que-maquina-de-fusao-nuclear-alema-funciona/

Doodle do Google homenageia Ole Romer, que calculou a velocidade da luz

Pois é, o astrônomo dinamarquês foi o primeiro a medir a luz

Google.com.br/Reprodução


Se você acessou a busca do Google nesta quarta, dia 7 de dezembro, com certeza viu a animação do Doodle em homenagem a Ole Romer. Para quem não sabe, esse astrônomo dinamarquês, nascido em Copenhague, em 1644, foi responsável, há 340 anos (em 1676), pelo cálculo original da velocidade da luz.
Porém, essa não foi a primeira vez que um cientistas tenta chegar a esse valor. Anteriormente, o italiano Galileu Galilei, responsável por importantes descobertas da Física, especialmente na área da mecânica, já havia criado um método para se tentar medir a velocidade da luz. O problema é que o italiano não prosseguiu até a realização de um cálculo.

Ole Romer, por sua vez, conseguiu chegar ao valor de 299.792.458 m/s (ou cerca de 300 mil km/s) para a velocidade da luz, graças à observação dos intervalos de tempo entre os eclipses das luas de Júpiter. Ele percebeu que esse intervalo reduzia conforme a Terra se aproximava do maior planeta do Sistema Solar. O inverso acontecia quando nos distanciávamos de Júpiter. Com isso, Romer concluiu que a diferença entre os intervalos de tempo dos eclipses estava relacionado justamente com a velocidade da luz.

Disponível em:http://www.revistaencontro.com.br/app/noticia/encontro-indica/2016/12/07/noticia_encontro_indica,158142/doodle-do-google-homenageia-ole-romer-que-calculou-a-velocidade-da-lu.shtml

sábado, 3 de dezembro de 2016

Teoria que contesta física de Einstein poderá ser testada

Hayley Dunning - Imperial College -  

Teoria que contesta física de Einstein poderá ser testada
A medição mais precisa feita até hoje da radiação cósmica de fundo foi realizada pelo telescópio espacial Planck e chegou a um número muito próximo à previsão da nova teoria.[Imagem: ESA/Planck Collaboration]
Velocidade variável da luz
Uma hipótese de que a velocidade da luz seria variável - e não constante, como Einstein sugeriu - tem circulado entre os físicos e cosmologistas há alguns anos, mas sem força para chegar ao centro das atenções.
Agora, os autores dessa hipótese aprimoraram seus cálculos e conseguiram fazer uma previsão que pode ser testada de forma observacional, o que foi suficiente para que todo o mundo acadêmico se voltasse para a nova teoria.
O pressuposto de que a velocidade da luz é constante, e sempre tem sido, sustenta muitas teorias da física - em particular, ele desempenha um papel nos modelos do que teria acontecido logo no início do Universo, segundos após o Big Bang.
Mas alguns físicos sugeriram que a velocidade da luz poderia ter sido muito maior nesse Universo inicial.
Agora, um dos autores da teoria, o professor João Magueijo (Imperial College de Londres), trabalhando com Niayesh Afshordi (Instituto Perimeter do Canadá), fez uma previsão que pode ser usada para testar a validade da teoria.
Índice espectral
Todas as estruturas no Universo - galáxias, por exemplo - teriam se formado por flutuações no Universo primitivo, pequenas diferenças de densidade em certas regiões. Um registro dessas flutuações primordiais está impresso na Radiação de Micro-ondas Cósmicas de Fundo - um mapa da luz mais antiga do Universo - na forma de um "índice espectral".
Usando sua teoria para ver como essas flutuações seriam influenciadas por uma velocidade variável da luz no início do Universo, Magueijo e Afshordi usaram agora um modelo para colocar um valor exato nesse índice espectral.
Os telescópios estão obtendo leituras cada vez mais precisas deste dado, de modo que a previsão poderia ser testada em breve, confirmando ou descartando o modelo do Universo primordial usado pela dupla - e a variabilidade da velocidade da luz.
Seu dado é muito preciso: 0,96478. Isto está próximo da estimativa atual das leituras do fundo de micro-ondas cósmico, que está em torno de 0,968, com alguma margem de erro. É muito próximo, mas, para ter certeza, é preciso aprimorar os dados observacionais.
"A teoria, que propusemos pela primeira vez no final da década de 1990, atingiu agora um ponto de maturidade - ela produziu uma previsão testável. Se as observações no futuro próximo revelarem que este número é correto, isso levará a uma modificação da teoria da gravidade de Einstein," disse o professor Magueijo.
Teoria que contesta física de Einstein poderá ser testada
A teoria da inflação cósmica primordial é largamente um arranjo teórico - ninguém tem ideia de por que ela teria começado ou por que teria parado, por exemplo. Isto tem dado força a teorias cosmológicas sem o Big Bang, algumas baseadas na ideia de que o tempo tem um lugar primordial na criação do Universo. [Imagem: Cortesia TU Vienna]
Inflação cósmica
A testabilidade da teoria da velocidade variável da luz coloca-a adiante da teoria rival mais dominante: a inflação. A inflação diz que o Universo primitivo passou por uma fase de expansão extremamente rápida, muito mais rápida do que a atual taxa de expansão do Universo.
Esse é um arranjo necessário para superar o que os físicos chamam de "problema do horizonte". O Universo como vemos hoje parece ser amplamente igual por toda parte - por exemplo, ele tem uma densidade relativamente homogênea.
Isso só poderia ser verdade se todas as regiões do Universo fossem capazes de influenciar umas às outras. No entanto, se a velocidade da luz sempre foi a mesma, então não passou tempo suficiente para a luz ter viajado até a borda do Universo, e "equalizar" a energia.
Como uma analogia, para aquecer um quarto uniformemente, o ar quente dos aquecedores em cada extremidade tem que viajar através da sala e se misturar completamente. O problema para o Universo é que a "sala" - o tamanho do Universo observável - parece ser grande demais para que isso tenha acontecido no tempo desde que ele foi formado.
Mudanças na velocidade da luz
A teoria da velocidade variável da luz sugere que a velocidade da luz era muito maior no início do Universo, permitindo que as bordas distantes fossem conectadas à medida que o Universo se expandia. A velocidade da luz teria então caído de uma forma previsível à medida que a densidade do Universo mudava. Esta variabilidade levou a dupla à previsão do índice espectral que eles acabam de publicar.
O passo seguinte é aguardar que os equipamentos de observação da radiação cósmica de fundo tornem-se precisos o suficiente para diminuir a margem de erro de sua leitura e verificar se o dado previsto está correto. Se estiver, os efeitos irão bem além de derrubar a ideia da inflação primordial, alterando inúmeros outros fundamentos da física.

Bibliografia:

Critical geometry of a thermal big bang
Niayesh Afshordi, João Magueijo
Physical Review D
Vol.: 94, 101301
DOI: 10.1103/PhysRevD.94.101301
https://arxiv.org/abs/1603.03312
Fonte: Inovação Tecnológica

segunda-feira, 28 de novembro de 2016

Novo mapa-múndi mostra Pegada Humana na Terra

Com informações da ESA -  

Mapa-múndi mostra Pegada Humana na Terra
O mapa não é bonito, mas traz informações inéditas.[Imagem: DLR]
Pegada Humana Global
A ESA (Agência Espacial Europeia) está disponibilizando um mapa-múndi inédito que mostra a pegada humana sobre a Terra.
Embora serviços como o Google Earth e imagens fornecidas por inúmeros satélites de observação mostrem cada centímetro quadrado da Terra, o mapa "Pegada Urbana Global" (ou GUF: Global Urban Footprint) é diferente.
Trata-se de um mapa em preto e branco, onde o branco é solo e cada ponto escuro representa a presença humana - das grandes aglomerações nas metrópoles mundiais a pequenas aldeias, chegando até a casas isoladas no meio rural - qualquer construção humana com mais de 12 metros aparece no mapa como um ponto característico da presença humana.
A partir deste mês, o conjunto de dados está disponível online, gratuitamente, através da Plataforma de Exploração Temática Urbana (U-TEP) da ESA, com resolução espacial total de 12 metros para uso científico, além de uma versão com resolução de 84 metros, mais fácil de lidar, para qualquer uso sem fins lucrativos.
"Anteriormente não estávamos captando todas as aldeias em áreas rurais," contou Thomas Esch, do Centro Aeroespacial Alemão (DLR). "Mas elas podem ser cruciais para entender a distribuição populacional ou vetores de doenças, por exemplo, ou avaliar as pressões sobre a biodiversidade. Essas colonizações rurais são ainda, atualmente, lar de quase metade da população global - cerca de 3 bilhões de pessoas."
Mapa-múndi mostra Pegada Humana na Terra
Sinais da pegada humana na região de Delhi, na Índia [Imagem: DLR]
Radar detecta construções humanas
Mesmo os astronautas em órbita acham difícil detectar os sinais de habitação humana fora das grandes cidades - até ao anoitecer, quando se ligam as luzes artificiais. Por isso o mapa foi elaborado utilizando principalmente a visão radar, que pode detectar estruturas verticais típicas de ambientes construídos mesmo com observações feitas nas mais diversas condições climáticas.
Os satélites de radar alemães TerraSAR-X e TanDEM-X capturaram, ao longo de dois anos, mais de 180.000 imagens de alta resolução cobrindo toda a superfície da Terra. As imagens têm resolução quase 100 vezes mais detalhada do que os dados ópticos fornecidos pelo Landsat dos EUA, geralmente usados para mapear as áreas urbanas.
Os dados do radar foram combinados com dados adicionais, como modelos digitais do terreno. Ao todo, a equipe processou mais de 20 milhões de conjuntos de dados, com um volume de entrada de mais de 320 terabytes, incluindo uma verificação de garantia de qualidade automatizada - visando garantir a máxima precisão, como um parâmetro de padrões de urbanização.
Pegada Humana Mais
A equipe já está trabalhando em uma nova versão do mapa, quando os dados em preto e branco serão sobrepostos a uma nova camada de fotografias da Terra - usando mais de 400.000 imagens multiespectrais do Landsat e do satélite europeu Sentinel-1 - o que dará uma visão realística da paisagem, além da dimensão informacional inédita da pegada humana em cada região.

Esta nova camada servirá de base para o "Pegada Urbana Global +", inicialmente com uma resolução espacial de 30 metros.

Fonte: Inovação Tecnológica

sábado, 26 de novembro de 2016

A última coisa que o satélite perdido de buracos negros viu antes de morrer

hitomi ultima observacao (3)

ESPAÇO

Este ano, o Japão lançou um satélite inovador para monitorar buracos negros, mas o perdeu muito rapidamente em circunstâncias estranhas. Agora, finalmente sabemos o que o Hitomi viu antes de morrer.
Quando a JAXA lançou o Hitomi em fevereiro, cientistas ficaram animados com as possibilidades do que o satélite poderia nos dizer sobre os mistérios do universo. Ele orbitou a Terra por cerca de um mês, quando algo deu errado.
Uma série de eventos infelizes, causados por erros humanos e falhas de software, fez o satélite girar fora de controle. Apesar das tentativas de recuperar o Hitomi, ele continuou a jogar detritos para o espaço. No fim, a JAXA declarou que o satélite de US$ 273 milhões estava perdido de vez.
No entanto, quando o Hitomi morreu, pesquisadores também anunciaram que conseguiram obter alguns dados dele, e que iriam detalhá-los em estudos futuros. Alguns desses dados estão em um novo artigo na revista Nature, mostrando a observação final do satélite – e ela traz algumas implicações fascinantes sobre o papel dos buracos negros na formação de galáxias.

O papel dos buracos negros

As últimas observações do Hitomi foram do Aglomerado de Perseu, um conjunto de galáxias a 240 milhões de anos-luz de distância, com um buraco negro supermassivo em seu centro. O satélite foi capaz de obter este ponto de vista da galáxia, assim como medir sua atividade de raios-x:
hitomi ultima observacao (2)
Pesquisadores esperavam ver bastante atividade no centro do aglomerado, mas as observações de raios-x do Hitomi mostraram o oposto.
“O gás dentro de aglomerados é mais silencioso do que o esperado”, diz o coautor Andrew Fabian, da Universidade de Cambridge, ao Gizmodo. “Esperávamos que o nível fosse mais elevado, baseado na atividade central da galáxia.”
Mas a descoberta não é apenas um calmo oásis surpreendente em uma galáxia turbulenta. Ela também nos dá uma visão sobre o papel que buracos negros exercem em como as galáxias se formam (ou deixam de se formar).
“A surpresa é que a energia bombeada para fora do buraco negro está sendo absorvida de forma muito eficiente”, diz o coautor Brian McNamara, da Universidade de Waterloo, ao Gizmodo. “Este gás quente que nós observamos com o Hitomi é o material do futuro, é o gás a partir do qual as galáxias se formam. Há muito mais desse gás quente do que há estrelas na galáxia, ou seja, há mais coisas que não viraram galáxias do que coisas que viraram galáxias.”
Isso significa que os buracos negros próximos desempenham um grande papel no tamanho futuro de uma galáxia. “Ele mostra que os buracos negros controlam muito eficazmente a taxa de crescimento de galáxias”, diz McNamara.

Uma perda lamentável

Sim, a descoberta ressalta como ainda sabemos pouco sobre o papel dos buracos negros na formação de galáxias. Ela também nos dá um vislumbre de como o satélite era promissor, antes de se perder.
A perda é ainda maior porque, com o Hitomi, os pesquisadores esperavam que acabasse uma longa luta para enfim levar ao espaço um microcalorímetro de raios-x – um dispositivo usado para fazer medições extremamente precisas de energia em raios-x. Os resultados do estudo foram baseados em apenas uma amostra muito pequena obtida do microcalorímetro do Hitomi.
“As medições do Aglomerado de Perseu mostram o potencial do microcalorímetro de raios-x do Hitomi em transformar a nossa compreensão das velocidades de gás quente em todo o Universo”, diz Fabian.
 Fonte: UOL

sexta-feira, 28 de outubro de 2016

Novembro terá a maior superlua em 100 anos

Última vez em que o satélite natural ficou tão próximo da Terra foi em 1948. A maior lua do século XXI, contudo, será no ano de 2052.


O fenômeno natural faz com que a lua pareça 14% maior e 30% mais brilhante do que de costume (Foto: Tatiana Fortes / O POVO)
No próximo dia 14 de novembro acontece o fenômeno “superlua”, que é quando o satélite natural fica mais próximo da Terra do que o habitual. Essa será considerada a maior superlua do século XXI até o ano de 2052, que é quando a lua ficará a uma menor distância do nosso planeta. A última vez que o satélite esteve tão perto de nós foi em 26 de janeiro de 1948.
Quando está na menor distância da Terra, o fenômeno faz com que a lua pareça 14% maior e 30% mais brilhante do que de costume. A próxima vez que o fenômeno deverá ser tão intenso ocorrerá apenas em dia 25 de novembro de 2034.
A explicação se deve ao movimento elíptico do satélite natural e as fases da lua. Enquanto se move ao redor da Terra, a sua distância muda bastante entre seu ponto mais próximo (perigeu) e o mais distante (apogeu) em relação ao planeta. A superlua acontece quando o perigeu coincide com a lua cheia.
Em 2016, a previsão é que aconteçam três superluas. A primeira aconteceu no último dia 16 e as próximas estão previstas para os dias 14 de novembro e dezembro.
Fonte: O POVO

Novo recorde de velocidade da corrente elétrica

Redação do Site Inovação Tecnológica -  

Corrente elétrica bate recorde de velocidade
A corrente elétrica recordista oscilou a cerca de 8 petahertz - um milhão de vezes mais rápido do que a eletricidade fluindo por um processador de computador. [Imagem: MPI of Quantum Optics/ Attoelectronics]
Recorde da eletricidade
No campo da eletrônica, quanto menor, melhor. Alguns componentes usados na construção dos computadores ou dos telefones celulares, no entanto, tornaram-se tão pequenos que são formados por alguns poucos átomos. Assim, dificilmente será possível reduzi-los ainda mais.
Felizmente, há outro fator determinante para o desempenho dos aparelhos eletrônicos: a velocidade com que as correntes elétricas oscilam.
Foi aí que os físicos do Instituto Max Planck de Óptica Quântica, na Alemanha, inovaram: eles produziram correntes elétricas dentro de materiais sólidos - como os usados na construção de componentes eletrônicos - que ultrapassam a frequência da luz visível em mais de 10 vezes.
Eles fizeram os elétrons no dióxido de silício oscilarem disparando pulsos de laser ultrarrápidos. A condutividade do material - que é tipicamente usado como um isolante - foi aumentada em mais de 19 ordens de grandeza.
As correntes elétricas detectadas atingem 8 petahertz, aproximadamente um milhão de vezes mais rápidas do que as correntes que circulam nos processadores de computador mais modernos - isto é, a abordagem pode abrir o caminho para a criação de chips eletrônicos que sejam um milhão de vezes mais rápidos do que os atuais.
Velocidade da corrente elétrica
As técnicas eletrônicas convencionais não conseguem gerar e nem capturar essas correntes elétricas rápidas porque, nos circuitos convencionais, os elétrons são empurrados pelo campo elétrico das fontes elétricas que os alimentam - como as baterias - para oscilarem e saírem disparados pelos condutores e semicondutores.
Contudo, ainda que todos os elétrons inicialmente acompanhem a força dos campos da bateria, eles eventualmente colidem com outras partículas mais lentas - átomos ou íons -, o que faz com que percam a sincronia uns com os outros, diminuindo a velocidade da corrente elétrica como um todo.
Já os campos de luz muito fortes podem empurrar os elétrons a uma velocidade muito mais rápida porque o laser os faz oscilarem muito rapidamente, criando correntes antes que qualquer outra partícula no sólido tenha a oportunidade de se mover.
Unificação da fotônica com a eletrônica
A possibilidade de substituir por luz as fontes convencionais de energia elétrica, a fim de gerar correntes elétricas dentro dos materiais sólidos - sejam fios ou transistores -, tem capturado a imaginação dos físicos há mais de um século, mas só recentemente as tecnologias necessárias para isso ganharam momento.
"Conforme os elétrons se movem de forma coerente, eles também geram luz, que é o elemento-chave da fotônica. Por este motivo, poderemos em breve unificar duas importantes áreas da ciência e da tecnologia modernas: a eletrônica e a fotônica," prevê o professor Eleftherios Goulielmakis, líder da equipe.

Bibliografia:

Multi-petahertz electronic metrology
M. Garg, M. Zhan, T. T. Luu, H. Lakhotia, T. Klostermann, A. Guggenmos, E. Goulielmakis
Nature
Vol.: 538, 359-363
DOI: 10.1038/nature19821
Fonte: Inovação Tecnógica

quarta-feira, 26 de outubro de 2016

Máquina de Ising: Nasce um novo tipo de computador

Redação do Site Inovação Tecnológica -  

Máquina de Ising: Novo tipo de computador soluciona problemas intratáveis
Peter McMahon e Alireza Marandi examinam o protótipo do seu computador a laser - eles fazem parte das duas equipes, japonesa e norte-americana. [Imagem: L.A. Cicero]
Computação de problemas intratáveis
Combinando a tecnologia óptica com a eletrônica, uma equipe dos EUA e outra do Japão, trabalhando de forma colaborativa, construíram dois protótipos de um novo tipo de computador que consegue resolver problemas intratáveis para os computadores tradicionais, incluindo os supercomputadores.
As equipes afirmam que, quando conseguirem criar versões maiores e mais flexíveis desse tipo inteiramente novo de computador, essa forma não-convencional de computação poderá ajudar a encontrar soluções mais próximas do ideal para problemas que têm um número extremamente elevado de soluções possíveis.
"Há muitas, muitas questões que este desenvolvimento levanta e esperamos que, ao longo dos próximos anos, vários grupos investiguem esta classe de máquina e estudem como esta abordagem irá se desenvolver," disse Peter McMahon, da Universidade de Stanford.
A equipe japonesa, que construiu uma máquina idêntica, foi liderada por Takahiro Inagaki, da empresa NTT, em colaboração com pesquisadores da Universidade de Tóquio.
Máquina de Ising
As duas equipes construíram o que se conhece como uma "máquina de Ising", em homenagem ao físico alemão Ernst Ising (1900-1998), que idealizou o modelo matemático do magnetismo. A máquina funciona como uma rede reprogramável de ímãs artificiais, na qual cada ímã aponta apenas para cima ou para baixo, ou norte e sul, como um sistema magnético de verdade.
A teoria é que, se as conexões entre a rede de magnetos puder ser programada para representar o problema em questão, a solução pode ser derivada do estado final da máquina, conforme seus componentes se encaminham naturalmente para o estado de mais baixa energia.
As duas equipes trabalharam com o conhecido problema do caixeiro-viajante, que busca encontrar a melhor rota para um vendedor que precise visitar uma série de cidades. Tipicamente intratável pelos computadores tradicionais, esse tipo de problema é importante porque trata não apenas de encontrar as melhores rotas para vendedores ou entregadores, mas também para descobrir como rotear os pacotes de dados pelas redes de computadores de maneira mais eficiente ou como as proteínas se dobram.
Máquina de Ising: Novo tipo de computador soluciona problemas intratáveis
Esquema conceitual da Máquina de Ising. [Imagem: Peter L. McMahon et al. - 10.1126/science.aah5178]
Computador de laser
Em vez de usar ímãs em uma grade, os pesquisadores usaram um tipo especial de sistema de laser conhecido como "oscilador paramétrico óptico degenerado". Quando ligado, esse sistema representa os estados para cima ou para baixo dos ímãs, enquanto cada pulso de laser representa a posição de uma cidade no caminho que o vendedor poderia tomar.
Por enquanto, a máquina Ising está bem aquém do poder de processamento dos computadores eletrônicos tradicionais quando se trata de otimização combinatória, mas estes primeiros resultados são promissores.
"Eu acredito que é uma rota entusiasmante de exploração para encontrar computadores alternativos. Ela pode nos levar mais perto de formas mais eficientes de lidar com alguns dos problemas computacionais mais difíceis que temos," disse Alireza Marandi, que faz parte das duas equipes. "Até agora, nós construímos um computador baseado em laser que pode resolver alguns desses problemas, e nós já mostramos alguns resultados promissores."
Barato e fácil de ampliar
Outro aspecto promissor da pesquisa é que praticamente todos os materiais e equipamentos utilizados para construir os dois computadores optoeletrônicos podem ser comprados no comércio porque já são utilizados em telecomunicações.
Em combinação com a simplicidade de programação, isto torna a máquina fácil de escalonar, para resolver problemas mais complexos. As versões atuais são capazes de resolver problemas de 100 variáveis com qualquer conjunto arbitrário de conexões entre as variáveis.

Bibliografia:

A fully-programmable 100-spin coherent Ising machine with all-to-all connections
Peter L. McMahon, Alireza Marandi, Yoshitaka Haribara, Ryan Hamerly, Carsten Langrock, Shuhei Tamate, Takahiro Inagaki, Hiroki Takesue, Shoko Utsunomiya, Kazuyuki Aihara, Robert L. Byer, M. M. Fejer, Hideo Mabuchi, Yoshihisa Yamamoto
Science
DOI: 10.1126/science.aah5178

A coherent Ising machine for 2000-node optimization problems
Takahiro Inagaki, Yoshitaka Haribara, Koji Igarashi, Tomohiro Sonobe, Shuhei Tamate, Toshimori Honjo, Alireza Marandi, Peter L. McMahon, Takeshi Umeki, Koji Enbutsu, Osamu Tadanaga, Hirokazu Takenouchi, Kazuyuki Aihara, Ken-ichi Kawarabayashi, Kyo Inoue, Shoko Utsunomiya, Hiroki Takesue
Science
DOI: 10.1126/science.aah4243~
Fonte: Inovação tecnológica