1 2 3
Seja bem-vindo ao Vivaldiagem! Um blog onde encontrará textos, resenhas, artigos e muito mais!

07/04/2013

Zyklon B


O assassino em massa da 2° guerra

Por Richard J. Green
O dados do artigo a seguir pode ser encontrados no livro de John C. Zimmerman entitulado como "Holocaust Denial: Demographics, Testimonies and Ideologies"

De acordo com Green o agente causador da morte nos campos de concentração de Auschwitz e Birkenau, foi um tal de "Zyklon B" que é um agente extremamente tóxico composto de HCN(ácido cianidrico), Cl(Cloro) e N(nitrogênio)
Em 1994 um estudo no Instituto de Pesquisa Forense de Cracóvia,publicado no jornal Z Zagadnien Sqdowych z. XXX, 1994, 17-27,comprova a presença de HCN nas paredes dos campos de concentração de Auschwitz e Birkenau.


"Numa campanha muito difundida para negar a existência de campos de extermínio com câmaras de gás os "revisionistas" recentemente começaram a usar os resultados de exames de fragmentos de ruínas dos ex-crematórios. Esses resultados (Leuchter, Rudolf) alegadamente provam que materiais sob examinação não tinha estado em contato com cianeto, diferentemente de fragmentos da parede dos locais de despiolhamento nos quais os revisionistas descobriram consideráveis porções de compostos de cianeto. Pesquisa sistemática, envolvendo os melhores métodos analíticos sensíveis, empreendido pelo Instituto confirmaram a presença dos compostos de cianeto em todos os tipos de ruínas de câmaras de gás, até mesmo no porão do Bloco 11 em Auschwitz, onde primeiramente, gaseamentos experimentais de vítimas por meios de Zyklon-B teriam sido realizados. A análise de controle de amostra, tiradas de outros lugares (especialmente de alojamentos) renderam de modo inequívoco resultados negativos. Por causa da interpretação vários experimentos em laboratório foram feitos."
Trecho retirado do site: (HOLOCAUSTO-DOC.BLOGSPOT.COM)

Como o zyklon B foi criado?
por Nizkor Project

Duas firmas alemãs, Tesch/Stabenow e Degesch, produziram o gás Zyklon B depois de elas terem adquirido a patente da Farben. Tesch fornecia duas toneladas por mês, e
Degesch três quartos de uma tonelada. As firmas que produziam o gás já tinham experiência extensiva em fumigação.
"Em suma, esta indústria usava gases muito potentes para exterminar roedores e insetos em espaços fechados; que ela agor devesse ter se envolvido em uma operação
para matar os judeus às centenas de milhares não é um mero acidente." (Hilberg, Commandant, 567)

Como ele funciona no nosso organismo?


O zyklon 8 é um gás extremamente venenoso que interfere nas  nossas células pulmonares,o cianeto impede que as células produzam ATP,porque ele de certa forma ''cega'' umas das proteínas envolvidas no processo de transporte de elétrons,o Citocromo C  Oxidase.





Holocausto e Santa Maria: mesmo gás, situações diferentes

Infelizmente, no dia 27 de janeiro 2013, lembranças já há muito amortecidas, vieram a queimar novamente. No último domingo do mês, 241 jovens morreram de maneira brutal como já havia acontecido nas câmaras de extermínio comandadas por Adolf Hitler.
 
  • Como funcionavam as câmaras de gás na 2ª Guerra Mundial?




A forma mais eficaz que Adolf Hitler encontrou de executar milhões de pessoas foram as câmaras de gás. Elas funcionavam da seguinte forma: alguns oficiais da SS (“polícia militar” de Hitler) chamavam os prisioneiros para tomar um banho e colocar roupas limpas. Junto com o banho era liberado pela ventilação, o gás mortal – Gás cianídrico (conhecido na época como Zyklon B.). A morte era “lenta” e dolorosa, demorava alguns minutos e antes do óbito por asfixia celular, ocorriam crises convulsivas, sangramento e perda das funções fisiológicas. Após trinta minutos, com todos na câmara, já mortos, os oficiais sugavam o gás para a retirada dos corpos, que no começo eram enterrados, mas depois para evitar acusações de crimes de guerra, os corpos começaram a ser queimados.
Porém, as câmaras de gás não foram as primeiras formas utilizadas para realizar o extermínio. Anteriormente a elas, os prisioneiros eram trancados em caçambas de caminhões e o monóxido de carbono eliminado pelo escapamento era jogado dentro dela. Mas, conforme a quantidade de prisioneiros aumentava as caçambas ficaram pequenas. Logo a técnica foi passada para salas trancadas que comportavam em média 800 pessoas, e dali não demorou muito para o monóxido de carbono ser substituído por gás cianídrico, mais barato e eficiente. A primeira utilização do gás cianídrico foi em 1941 em prisioneiros russos.
 
  • O que ocorreu em Santa Maria?
 
 Por volta das 2h da manhã do dia 27 de janeiro de 2013 após o lançamento de um sinalizador por parte do vocalista da banda Gurizada Fandangueiro, iniciou-se um incêndio que rapidamente se espalhou graças ao material altamente inflamável e de má qualidade utilizado no revestimento acústico da boate Kiss. Essa espuma ao entrar em contato com o fogo liberou HCN e CO o que causou asfixia celular naqueles que não conseguiram sair pela única porta existente no local. A espuma foi encontrada em aproximadamente um terço da boate, mais do que suficiente para transformar a pequena casa noturna em uma grande câmara de gás de forma não intencional. Existem materiais resistentes ao fogo para esse tipo de revestimento, porém seu valor é muito mais elevado do que o utilizado para revestir a boate.
 
  • Como acontece a morte pelo gás cianeto?

  Tanto os jovens quanto os prisioneiros morreram por asfixia celular, uma característica marcante da morte por cianeto.
            O cianeto rigorosamente puro é estável, diferentemente dos comercializados. A espuma de poliuretana utilizada como isolante sonoro na boate Kiss, é composta por uma estrutura de isocianato. Esta quando é aquecida libera cianeto, que em contato com o vapor de água transforma-se em ácido cianídrico. Foi exatamente isso que ocorreu a boate em Santa Maria, através de um incêndio ocasionado pela utilização de um sinalizador para efeitos pirotécnicos.

    A intoxicação por gás cianeto pode ocorrer tanto pela inalação e ingestão, como via cutânea (pela pele). Além de ele ser inodoro e incolor, fazendo com que seja ainda mais perigoso. Sua alta toxicidade se deve ao fato dele se ligar as moléculas de ferro presentes nas hemoglobinas, bloqueando então a cadeia de transporte de oxigênio e gerando uma parada de respiração interna: “É como se as células estivessem com falta de ar. Existe o oxigênio, mas elas não conseguem usar”, explica o farmacologista Daniel Junqueira Dorta, professor do departamento de química da USP de Ribeirão Preto e vice-presidente da Sociedade Brasileira de Toxicologia. Portanto, ao invés de transportar oxigênio para o tecido, as hemácias passam a transportar o ácido cianídrico, desta forma matando as pessoas expostas por sufocamento.



  • E por CO?

O nosso organismo após inalar a fumaça tóxica de monóxido de carbono (gás gerado na queima de substâncias orgânicas) tenta combater a fumaça que neste momento já esta dentro do pulmão, ao fazer isso, ela acaba por romper o tecido pulmonar, fazendo com que onde deveria entrar o ar, tenha sangue. “Nesses casos, as pessoas ficam com as extremidades arroxeadas por causa da falta de oxigenação” afirma Dorta. Podemos simplificar sua ação desta forma:



Na tragédia da boate Kiss os dois aconteceram ao mesmo tempo, fazendo com que as pessoas que não saíram em aproximadamente 4 minutos, não tivessem chances de sobreviver. Já na segunda guerra mundial nos campos de concentração, as vítimas do extermínio morreram de forma mais lenta, e não tiveram a possibilidade de lutar pela sua vida.
Relacionando essas duas tragédias, podemos citar o fato de que, no holocausto, as vítimas morriam de forma premeditada e muito bem elaborada, já na boate Kiss, graças a pouca infraestrutura e uma série de pequenos falhas e descuidos, levaram de maneira não intencional ao mesmo fim que milhões de pessoas tiveram nas câmaras de gás.

 
Bibliografia


06/04/2013

Polarização

Na resenha de hoje falaremos sobre o artigo de Marshall brain, que é o fundador do HowStuffWorks (EUA) e Bacharel em Engenharia Elétrica pelo Rensselaer Polytechnic Institute e mestre em Ciência da Computação pela Universidade da Carolina do Norte,sobre tipos de fita e polarização de gravação.
Abaixo temos a imgem de um controle de um toca-fitas moderno para diferentes tipos de polarização e gravação. E essa imagem foi utilizada pelo autor, que mesmo com as palavras em inglês conseguimos entender com o decorrer do artigo.

No segundo parágrafo o autor escreve sobre os tipos de formato das fitas e aqui são eles:
tipo 0 - esta é a fita original de óxido férrico. É muito raro vê-la nos dias de hoje;
tipo 1 - esta é uma fita padrão de óxido férrico, também chamada de "polarização normal de gravação";
tipo 2 - esta é uma fita de "cromo" ou CrO2. As partículas de óxido férrico são misturadas com dióxido de cromo;
tipo 4 - esta é uma fita de "metal". Partículas metálicas em vez de partículas de óxido férrico são usadas nesta fita.
No terceiro parágrafo o artigo se torna mais escrito, sem muitas definições rápidas, e nele, o autor explica que a qualidade sonora é melhor de acordo com a mudança de tipo, sendo o de metal com a melhor qualidade mas lembra que um toca-fitas precisa de uma configuração especial para fitas de metal.
Logo após o autor volta a falar sobre o controle de um toca-fitas, explicando ao leitor que o toca-fitas pode ser adaptado para que tenha uma melhor qualidade de som.
O autor começa a falar sobre o segundo tema,polarização de gravação, dando primeiro a definição: é um sinal especial que é aplicado durante a gravação. Após isso começa a explicar parte a parte sobre o que é a polarização, ele diz que os primeiros gravadores simplesmente aplicavam o sinal de áudio no eletroímã o cabeçote, lembrando que isso apesar de funcionar, causava distorções em sons de baixa frequência. Ele fala sobre os primeiros gravadores e volta a definição de polarização e assim conclui o texto, dizendo que essa polarização 'move' o sinal gravado na "porção linear" da curva de magnetização da fita e que esse movimento significa que a fita reproduz o som gravado de forma mais fiel.


O autor americano utilizou um modelo rápido e fácil para que o leitor entenda o assunto rapidamente, porém não podemos dizer se ele utilizou palavras fáceis pois este é um artigo traduzido. Porém sabemos da qualidade do artigo devido às graduações do autor.


De Marshall, Brain. Polarização, disponivel em <http://eletronicos.hsw.uol.com.br/cassete3.htm>.

Eletricidade e a Química.



                                                       Eletricidade e a Química.


O artigo desenvolvido por Maria da Conceição destaca a importância da energia elétrica no desenvolvimento das sociedades humanas e nas suas relações. De modo resumido, é apresentada a trajetória que levou à compreensão da eletricidade e à sua utilização na descoberta de novos elementos químicos, bem como a contribuição dos estudos do fenômeno elétrico para uma maior aproximação entre a química e a física.



Energia é definida como a capacidade que os objetos ou sistemas têm de realizar trabalho ou o que se deve fornecer/retirar de um sistema material para transformá-lo ou deslocá-lo. A manifestação da energia pode ocorrer em diversos fenômenos levando-a a assumir variados significados como: calor, luz, trabalho, movimento etc.

Das mais variadas formas apresentadas, calor e eletricidade foram de grande importância para o desenvolvimento técnico - cientifico ao longo dos tempos.

A sociedade moderna só existe a partir da eletricidade, que é responsável pela iluminação, aquecimento, comunicação etc.

No século 17, impulsionados pela construção de aparelhos que ficaram conhecidos como máquinas ou geradores eletrostáticos, as quais foram utilizadas para gerar cargas elétricas na forma de centelhas, permitindo a utilização deste tipo de eletricidade em diversos experimentos.



Em 1729, Stephen Gray descobriu o importante fenômeno da condução elétrica e distinguiu os corpos condutores de eletricidade e os não-condutores ou isolantes.


No mesmo século surgiu a proposta do físico francês Charles François de divisão da eletricidade em dois tipos: resinosa e vítrea. Objetos contendo eletricidade resinosa eram atraídos por objetos com eletricidade vítrea e vice versa.  E objetos com mesmo tipo elétrico eram repelidos.

Em meados do século 18 As centelhas elétricas passaram a ser usadas para produzir reações químicas. Este recurso foi utilizado, por exemplo, na síntese da água realizada pelo químico inglês Henry Cavendish; através da combinação dos gases hidrogênio e oxigênio após a passagem da centelha na mistura de reação



Muitas tentativas passaram a ser feitas para justificar a formação de compostos químicos,incluindo a interação entre cargas positivas e negativas, e elas seriam responsáveis pelas combinações químicas e foram chamadas de forças de afinidade.


O químico Jöns Jacob Berzelius propôs uma teoria elétrica para as reações químicas de acordo com os átomos de cada elemento que possui uma carga elétrica e polaridade definida, e classificou os elementos de acordo com sua polaridade e ordem crescente de carga. Segundo Berzelius, a combinação química consistia na atração das cargas opostas e na neutralização da eletricidade com a liberação de calor entre os polos opostos.

Átomos com um mesmo tipo de carga elétrica não podiam se combinar e, portanto, não seria possível a existência de moléculas diatômicas homonucleares (H2, O2, N2, Cl2), no século 19 esta teoria eletroquímica constituiu a base teórica do sistema dualístico proposto por Berzelius, e influenciou a produção científica da química.



As pesquisas propostas por Berzelius para produzir transformações químicas ajudaram o químico e Faraday a encontrar relações de proporcionalidade entre a quantidade de matéria decomposta e a quantidade de eletricidade utilizada, colaborando a diversos estudos envolvendo a eletricidade.



Faraday estabeleceu uma nova nomenclatura para os pólos opostos presentes no sistema eletrolítico (anodo e catodo) e propôs o grau de afinidade química de dois elementos (Ben-saude-Vincent e Stengers). Estes estudos se constituíram de grande importância para o desenvolvimento da eletroquímica, colaborando com a ideia de que as reações químicas eram resultantes de fenômenos elétricos.







No século 19, a investigação da natureza intima da matéria se intensificou cada vez

mais, contribuindo para estabilização da teoria atômica e a descoberta das partículas subatômicas.

A eletricidade e o magnetismo foram de grande valorização para o desenvolvimento da física, estabelecendo uma maior aproximação com a química e o grande avanço da ciência. 



BIBLIOGRAFIA:

http://qnesc.sbq.org.br/online/qnesc12/v12a08.pdf

ARON, J.I.

The development of mod-
ern chemistry
. Nova Iorque: Dover, 1984.
p. 131.
BENSAUDE-VINCENT, B. e STENGERS,
I.
História da química
. Trad. de R. Gouveia.
Lisboa: Instituto Piaget, 1992. p. 158.
DEBEIR, J.C.; DÉLAGE, J.P
. e HÉMERY,
D.
Uma história da energia
. Trad. de S.S.
Brito. Brasília: Editora da UnB, 1993. p. 16.
KUHN, T.S.
A estrutura das revoluções
científicas
, Trad. de B.V. Boeira e N. Boeira.
São Paulo: Editora Perspectiva, 1996. p.
34-35, 88.
LAIDLER, K.J.
The world of physical
chemistry
. Nova Iorque: Oxford University
Press, 1993. p. 195.
LAIDLER, K.J.
To light such a candle
. Nova
Iorque: Oxford Univ. Press, 1998. p. 117, 119.
LEICESTER, H.M.
The historical back-
ground of chemistry
. Nova Iorque: Dover,
1971. p. 165.
RHEINBOLDT, H.
História da balança e a
vida de J.J. Berzelius
. São Paulo: Ed. Nova
Stella / Edusp, 1995. p. 103.
ROSMORDUC, J.
Uma história da física
e da química - De Tales a Einstein.
Trad. de
L.V.C. Faria e N.V.C. Faria. Rio de Janeiro:
Jorge Zahar Editor, 1988. p. 88

 TOLENTINO, M. e ROCHA-FILHO, R.C.

O bicentenário da invenção da pilha
elétrica.
Química Nova na Escola
, n. 11, p.
35-39, 2000

Resenha: a principal estrutura galáctica




O lado escuro da Via Láctea

Leo Blitz

                   O artigo publicado por Leo Blitz, atual professor da University of California, trata das estruturas galácticas, em especial a matéria-escura, o qual é o material dominante na constituição do Universo. O autor inicia seu texto fazendo comentários a respeito da sua pós-graduação na University of California, em 1978, cujo estudo baseou-se na medição das velocidades rotacionais das nuvens moleculares (compostas majoritariamente por hidrogênio, são sítios de formação estelar na parte exterior do disco da Via Láctea), desenvolvendo o método mais acurado para determiná-las, e juntamente com dois outros especialistas em Via Láctea, Frank Shu e Ivan King, Leo Blitz chegou à conclusão de que a matéria escura existe em abundancia na Via Láctea, especialmente na sua parte mais externa. Infelizmente, a dúvida do autor permaneceu: do que seria feita a matéria-escura? Segundo o autor, todas as suas ideias, as quais ele não cita no texto, para responder essa questão se mostraram erradas.


Andrômeda é um exemplo de galáxia espiral. A curva de rotação (acima) mostra como o valor da velocidade cresce até um máximo, e depois diminui. Contrariando as expectativas, procedendo em direção à margem externa, a velocidade se estabiliza sobre um valor constante. O fenômeno pode ser explicado pela suposição de existência de matéria não-luminosa.
                A ideia de uma “matéria faltante” (o que corresponde a matéria-escura) iniciou-se em 1930, quando o suíço Fritz Zwicky inferiu a massa total de um aglomerado de galáxias a partir do movimento das galáxias que o compõem. O valor não batia com as estimativas feitas a partir do número de galáxias e de seu brilho. Zwicky concluiu que devia haver alguma forma invisível de matéria para manter o aglomerado coeso. Porém, essa ideia só ganhou força, a partir dos anos 1970, quando se constatou que todas as estrelas das galáxias em forma de espiral giravam em velocidade constante ao redor de seu centro. Se não houvesse qualquer outro tipo de matéria presente, seria de se esperar que as estrelas na parte externa da galáxia girassem em velocidade inferior, ao contrário do que indicavam as observações. Portanto a importância do artigo está justamente no fato de tentar entender um pouco mais sobre essa matéria invisível que dá conta de cinco vezes mais massa que a matéria comum, pois ao conseguir identificar e detectar a partícula que a compõem muitos mistérios sobre a origem do Universo estarão resolvido, e até mesmo, como diz o autor, leis de grandes gênios da ciência poderão estar erradas, como a lei gravitacional de Newton, e a relatividade geral de Einstein. Apesar de não ser de fácil entendimento, e necessitar de alguns conceitos prévios de física e astronomia, o artigo nos ajuda a entender um pouco melhor o Sistema em que vivemos e que não sabemos como surgiu e nem quanto tempo mais permanecerá do jeito de que está.

                Já que a ideia da matéria-escura só ganhou força a partir da década de 70, e a pós-graduação de Leo Blitz ocorreu em 1978, o próprio autor o considera um dos estudos que forçaram os astrônomos a concluir que a matéria-escura é uma substância misteriosa que não absorve, nem emite luz e que se revela pela sua influência gravitacional sobre as matérias visíveis como estrelas e gases. Esse efeito infere nas velocidades de rotação da matéria visível, sugerindo onde a matéria escura está localizada, conforme é tratado no artigo: ela “está distribuída mais ou menos esfericamente e se estende muito além do halo estrelar (nuvem esférica de estrelas ao redor da galáxia e outras galáxias espirais) com uma densidade mais alta no centro que vai diminuindo na proporção do quadrado da distância ao centro. Essa distribuição seria o resultado natural do que os astrônomos chamam de aglomeração hierárquica: a proposição de que, no universo inicial, galáxias menores se juntavam para formar maiores, incluindo a Via Láctea.”.
                É a evidência de que esse material não é homogeneamente distribuído e que há uma disparidade que, segundo Leo Blitz, permite explicar a existência e o tamanho da deformação galáctica (distorção específica na periferia do disco o qual consiste quase que inteiramente de gás de hidrogênio). Nos anos 50 acreditavam que a distorção do disco era resultado das forças gravitacionais exercidas pelas Nuvens de Magalhães, as duas galáxias satélites mais massivas em órbita da Via Láctea. Porém, cálculos do autor, os quais ele não expõe no artigo, fizeram-no acreditar que as forças exercidas por essas galáxias-satélites são fracas demais para explicar o efeito da deformação, mas seriam responsáveis pela criação de um rastro na matéria escura, gerando irregularidades na sua distribuição. Portanto, para ele, a deformação está diretamente relacionada à matéria-escura, e a partir disso, ele segue duas principais explicações: a primeira é de que a Via Láctea é esférica, mas não concêntrica ao seu halo de matéria escura, ou o halo de matéria escura é em si um pouco assimétrico. Porém essas duas hipóteses colocam em dúvida a teoria de que o halo e a Via Láctea se formaram juntos a partir da condensação de uma única nuvem gigantesca de material, pois se isso acontecesse, a matéria escura estaria concentrada num mesmo ponto que a matéria comum. O autor acredita que essa assimetria é mais uma evidência de que a galáxia “formou-se a partir da fusão de unidades menores, ou cresceu pela fusão contínua ou agregação de gás intergaláctico”. De forma um tanto quanto confusa, na parte do seu texto denominada “Galáxias perdidas”, para pessoas leigas no assunto, Blitz apresenta uma maneira, que segundo ele, serviria para confirmar essa teoria utilizando o estudo de galáxias anãs esferoidais, devido sua composição simples. Nesse trecho, ele trata que a formação das galáxias ocorre por um processo de aglomeração de matéria escura que acrescem gás e estrelas para formar sua parte visível. Esse processo não produz apenas galáxias de grande porte, mas também galáxias anãs. Essas são galáxias-satélite da nossa própria Via Láctea, que possuem grandes quantidades de matéria-escura e, em alguns casos, apenas centenas de estrelas, por isso dizem que sua composição é mais básica. Outra hipótese levantada por Blitz, é que a Via Láctea seja orbitada por galáxias mais fracas do que as anãs ultrafracas, as galáxias escuras, tão escuras que nem teriam estrelas, ou até mesmo gases. Se isso for verdade, essas galáxias revelariam sua presença apenas pela força gravitacional exercida pela matéria escura sobre a matéria convencional.
Esta galáxia anã esferoidal encontra-se na constelação da Fornalha, é satélite da Via Láctea e é uma das 10 usadas na pesquisa de matéria escura do Fermi. Os movimentos das estrelas da galáxia indicam que está embebida numa halo massivo de matéria que não pode ser vista.
                O autor cita em seu texto que Erik Tollerud e seus colaboradores da University of California predizem que por volta de 500 galáxias ainda não descobertas orbitam a Via Láctea a distâncias de até um milhão de anos-luz do centro. Os cientistas serão capazes de detectar essa suposição através de um novo instrumento, o Large Synoptic Survey Telescope que começou a ser construído em março de 2011. Além disso, um outro telescópio, o Spitzer Space Telescope tem sido utilizado para detectar as galáxias escuras de até, aproximadamente, 300 mil anos-luz do centro galáctico. Porém, segundo Blitz, essas galáxias escuras colocam em dúvida os astrônomos em relação a quantidade de material que elas contêm. Geralmente, a massa de uma galáxia é dada pela razão entre massa/luminosidade, no caso do Sol, sua razão é igual a 01, ou seja, é muito baixa devido a sua grande luminosidade. No texto, são citados Josh Simon e Marla Geha, professores da Carnegie Institution of Washington e Yale University, respectivamente, os quais mediram a razão massa-luminosidade de oito anãs ultrafracas, as quais, em alguns casos, apresentaram esse valor superior a 1000, devido à baixa presença de luz graças à elevada quantidade de matéria-escura, que por definição anterior, não emitem, nem absorvem luz.
                Leo conclui seu artigo falando que a matéria escura continua sendo um enigma, que está desafiando físicos a identificar sua composição, mas ao mesmo tempo, que está promovendo uma vasta gama de respostas a fenômenos astronômicos. No dia 03 de Março de 2013, informações do jornal O Estado de S. Paulo traz a possibilidade de cientistas do Centro Europeu de Pesquisas Nucleares (Cern) e da Nasa terem descobertos pistas da existência da matéria-escura, após 18 anos de pesquisas. Essa possível descoberta está no fato de que houve uma constatação de uma ampliação de pósitrons (um tipo de antimatéria), que teriam sido produzidos pelo choque entre partículas da matéria escura. Porém, ainda não há certeza da descoberta. 


 

Bibliografia:

MOURÃO, Ronaldo Rogério de Freitas. A beleza acessível das Nuvens de Magalhães. Disponível em:<http://super.abril.com.br/universo/beleza-acessivel-nuvens-magalhaes-440137.shtml> Acessado em: 03/04/2013.

ORTIZ, Roberto. Seminário: Formação estelar massiva em nuvens moleculares do hemisfério sul. Disponível em:<http://www.iag.usp.br/evento/semin%C3%A1rio-forma%C3%A7%C3%A3o-estelar-massiva-em-nuvens-moleculares-do-hemisf%C3%A9rio-sul> Acessado em: 03/04/2013.


ESTEVES, Bernardo. O futuro da matéria escura. Disponível em:<http://cienciahoje.uol.com.br/noticias/astronomia-e-exploracao-espacial/o-futuro-da-materia-escura/?searchterm=matéria escura> Acessado em: 03/04/2013.


Observações de galáxias anãs pelo FERMI providenciam novas informações sobre matéria escura. Disponível em:<http://www.ccvalg.pt/astronomia/noticias/2012/04/3_fermi_materia_escura.htm> Acessado em: 03/04/2013.


BLITZ, Leo. O lado escuro da Via Láctea. Disponível em:<http://www2.uol.com.br/sciam/reportagens/o_lado_escuro_da_via_lactea_imprimir.html> Acessado em: 03/04/2013.


Achados indícios do que pode ser a matéria escura. Disponível em:<http://noticias.uol.com.br/ultimas-noticias/agencia-estado/2013/04/04/achados-indicios-do-que-pode-ser-materia-escura.htm> Acessado em: 04/04/2013.
 


 

Código base por Thays Bueno, modificado por Emily Caroline. Tecnologia do Blogger.