domingo, 1 de junho de 2014

Matéria Exótica

Em Física, matéria exótica é um termo que se refere à matéria que, de alguma forma, se desvia da norma, apresentando propriedades "exóticas". O termo pode ser aplicado para se referir a diferentes conceitos.

Partículas hipotéticas que teriam propriedades físicas "exóticas"que violariam as leis físicas, como uma partícula que teria massa negativa.

Partículas hipotéticas ainda não encontradas, como os bariões exóticos, cujas propriedades estariam no domínio da do paradigma físico atual caso tivessem sido descobertos. Tem-se especulado que pelo fim do século XXI poderia ser possível, utilizando femtotecnologia produzir elementos químicos compostos de bariões exóticos que poderiam,eventualmente, constituir uma nova tabela periódica em que os elementos químicos teriam propriedades completamente diferentes das dos elementos conhecidos.

Estados da matéria que não é comum encontrar, como o Condensado de Bose-Einstein ou plasma de quarks e gluões, mas cujas propriedades inserem-se perfeitamente no domínio do atual paradigma físico.

Estados da matéria cujas propriedades são atualmente deficientemente compreendidas pela ciência, como as da matéria escura.

Massa negativa

A massa negativa teria algumas propriedades particularmente estranhas, como a desacelerar na direção oposta à da força aplicada. Por exemplo, um objeto com massa inercial negativa e carga elétrica positiva afastar-se-ia de objetos com carga negativa, e aproximar-se-ia de objetos com cargas positivas, ou seja, o oposto da regra clássica segundo a qual cargas do mesmo sinal repelem-se e cargas de sinal oposto atraem-se. Este comportamento tem resultados que nos parecem bizarros: por exemplo, um gás que contenha uma mistura de partículas de matéria positiva e negativa levaria a que a porção de matéria positiva aumentasse ilimitadamente de temperatura. Por seu lado, a porção de matéria negativa ganharia temperaturas negativas à mesma velocidade, mantendo o equilíbrio.


Ainda que totalmente inconsistente com o senso comum e o comportamento expectável da matéria dita "normal", a massa negativa é plenamente consistente do ponto de vista matemático e não implica qualquer violação da conservação do momentum ou da energia. O conceito é utilizado em certas teorias especulativas, como as que se referem à construção de buracos de minhoca. No domínio da realidade conhecida, o que mais se aproxima de tais características exóticas é a região de pseudo-densidade de pressão negativa resultante do efeito Casimir.

Massa Imaginária

Uma partícula com massa de repouso imaginário superaria sempre a velocidade da luz. Estas possíveis partículas, cuja existência jamais foi confirmada, designam-se de taquiões.

E = \frac{mc^2}{\sqrt{1 - v^2/c^2}}

Se a massa de repouso é imaginária, então o denominador deverá ser imaginário já que o total da energia tem de ser um número real. Portanto, a quantidade sob a raiz quadrada tem de ser negativa, o que só pode acontecer se v (a velocidade) for mais elevada que a velocidade da luz, c. Como foi notado por Gregory Benford, entre outros, a relatividade especial implica que os taquiões, supondo que existam, pudessem ser utilizados para comunicar com o passado (antitelefone taquiónico).

Na Teoria quântica de campos, a massa imaginária poderia induzir a condensação de taquiões.



Fonte: http://pt.wikipedia.org/wiki/Mat%C3%A9ria_ex%C3%B3tica

terça-feira, 27 de maio de 2014

Radioatividade

A radioatividade  é um fenômeno natural ou artificial, pelo qual algumas substâncias ou elementos químicos, chamados radioativos, são capazes de emitir radiações, as quais têm a propriedade de impressionar placas fotográficas, ionizar gases, produzir fluorescência, atravessar corpos opacos à luz ordinária, etc. As radiações emitidas pelas substâncias radioativas são principalmente partículas alfa, partículas beta e raios gama. A radioatividade é uma forma de energia nuclear, usada em medicina (radioterapia), e consiste no fato de alguns átomos como os do urânio, rádio e tório serem “instáveis”, perdendo constantemente partículas alfa, beta e gama (raios-X). O urânio, por exemplo, tem 92 prótons, porém através dos séculos vai perdendo-os na forma de radiações, até terminar em chumbo, com 82 prótons estáveis. Foi observada pela primeira vez pelo francês Henri Becquerel em 1896 enquanto trabalhava em materiais fosforescentes.

A radioatividade pode ser:

Radioatividade natural ou espontânea: É a que se manifesta nos elementos radioativos e nos isótopos que se encontram na natureza e poluem o meio ambiente.

Radioatividade artificial ou induzida: É aquela que é provocada por transformações nucleares artificiais.


A descoberta da radioatividade

Em 1895, W. C. Rontgen (1845-1923) um alemão descobriu que quando raios catódicos são projetados para paredes de vidro de um tubo, surgiam raios ainda desconhecidos, que Rontgen mais tarde batizaria de raios X por possuirem propriedades ainda desconhecidas. Hoje com o conhecimento adquirido sabemos que os raios X são constituídos de fótons de comprimento de onda muito pequeno (milhares de vezes menor do que o da luz visível) que são emitidos quando elétrons dos níveis mais altos da camada atômica voltam para órbitas mais internas para substituir os elétrons que foram "expulsos" pela colisão com os raios catódicos.

A descoberta dos raios X foi o primeiro tipo de radiação a ser descoberta.
Em 1896, Henri Becquerel (1852-1908) estudava, na École Polytechnique, a possibilidade de que o sol poderia provocar a emissão de raios X pelos cristais. O método por ele utilizado era de que o colocava-se cristais perto de placas fotográficas envoltas em um papel escuro, tendo uma tela composta de fios de cobre entre os dois.

Os raios de sol causando a emissão dos raios X nos cristias , os mesmos deveriam penetrar no papel escuro, mas não penetrando nos fios de cobre da tela e assim o cientista poderia ver a fotografia da tela na placa. Em seguida Becquerel colocou a tela em uma gaveta e deixou o cristal sem nenhuma proteção sobre uma mesa. Retornou , dias depois, e viu que nela havia uma impressão da tela de cobre. Sua conclusão foi a de que a radiação emitida pelo cristal (no caso de urânio) não havia sido provocada pelo Sol , e sim por alguma propriedade do mesmo cristal. Mais tarde Becquerel repetiu a experiência colocando o cristal e a placa fotográfica dentro de uma caixa blindada e obteve o mesmo resultado.

Em 1898, Marie (1867-1934) e Pierre Curie (1859-1906) descobriram elementos que produzem os raios catódicos, por exemplo, o rádio. Observando que a radiação deste elemento era maior que a do urânio. Logo a seguir batizou este fenômeno de radioatividade.

Logo após, Ernest Rutherford achou dois tipos de raios, os quais ele batizou de alfa e beta. O raio beta tendo uma característica de alto poder de penetração e o raio alfa, ao contrário, pequeno poder de penetração. Os raios beta são elétrons e os raios alfa são núcleos de hélio. Logo em seguida descobriu-se que os raios beta, ao serem defletidos em campos elétricos, mostravam ter carga negativa e tinham uma velocidade muito maior do que a dos raios catódicos - os raios beta são elétrons que vêm de dentro do núcleo e com muito mais energia. Rutherford, por outro lado, mostrou que a relação carga-massa do raio alfa era parecida com a do hidrogênio e que sua carga era duas vezes maior do que a do hidrogênio. Descobriu, portanto, o primeiro núcleo mais pesado que o hidrogênio - o hélio.


Radioatividade artificial

Produz-se a radioatividade induzida quando se bombardeiam certos núcleos com partículas apropriadas. Se a energia destas partículas tem um valor adequado, elas penetram no núcleo bombardeado formando um novo núcleo que, no caso de ser instável, se desintegra posteriormente. Foi realizada pela primeira vez pelo físico neozelandês Ernest Rutherford, ao bombardear átomos de nitrogênio, com partículas alfas, obtendo oxigênio. Sendo estudada pelo casal “Joliot-Curie” (Frédéric Joliot e Irène Joliot-Curie), bombardeando núcleos de boro e alumínio com partículas alfa, eles observaram que as substâncias bombardeadas emitiam radiações após retirar o corpo radioativo emissor das partículas alfa. O estudo da radioatividade permitiu um maior conhecimento da estrutura dos núcleos atômicos e das partículas subatômicas. Abriu-se a possibilidade da transmutação dos elementos, ou seja, a transformação de elementos em elementos diferentes. Inclusive o sonho dos alquimistas de transformar outros elementos em ouro se tornou realidade, mesmo que o processo economicamente não seja rentável.


Emissão de radiação

O processo de emissão de radiação é chamado de decaimento radioativo. Quando ocorre a emissão de partículas pelo núcleo, pode ocorrer uma mudança no número de prótons do átomo, que se transforma em outro elemento químico. Essa transformação de um elemento em outro é chamada transmutação.


Fusão nuclear

Fusão nuclear é o processo no qual dois ou mais núcleos atômicos se juntam e formam um outro núcleo de maior número atômico. A fusão nuclear requer muita energia para acontecer, e geralmente liberta muito mais energia que consome. Quando ocorre com elementos mais leves que o ferro e o níquel (que possuem as maiores forças de coesão nuclear de todos os átomos, sendo portanto mais estáveis) ela geralmente liberta energia, e com elementos mais pesados ela consome. Até hoje, início do século XXI, ainda não foi encontrada uma forma de controlar a fusão nuclear como acontece com a fissão.


O principal tipo de fusão que ocorre no interior das estrelas é o de Hidrogênio em Hélio, onde dois prótons se fundem em uma partícula alfa (um núcleo de hélio), liberando dois pósitrons, dois neutrinos e energia. Mas dentro desse processo ocorrem várias reações individuais, que variam de acordo com a massa da estrela. Para estrelas do tamanho do nosso Sol ou menores, a cadeia próton-próton é a reação dominante. Em estrelas mais pesadas, predomina o ciclo CNO.


Fissão nuclear

Na física nuclear o processo de fissão nuclear é a quebra do núcleo de um átomo instável em dois átomos menores pelo bombardeamento de partículas como nêutrons. Os isótopos formados pela divisão têm massa parecida, no entanto geralmente seguem a proporção de massa de 3 para 2. O processo de fissão é uma reação exotérmica onde há liberação violenta de energia, por isso pode ser comumente observado em usinas nucleares e/ou bombas atômicas. A fissão é considerada uma forma de transmutação nuclear pois os fragmentos gerados não são do mesmo elemento do que o isótopo gerador.


Meia-vida

A meia-vida é a quantidade de tempo característica de um decaimento radioativo. Se a quantidade que decai possui um valor no início do processo, na meia-vida a quantidade terá metade deste valor.

Nos processos radioativos meia-vida ou período de semi desintegração de um radioisótopo é o tempo necessário para desintegrar a metade da massa deste isótopo, que pode ocorrer em segundos ou em bilhões de anos, dependendo do grau de instabilidade do radioisótopo. Ou seja, se tivermos 100 kg de um material, cuja meia-vida é de 100 anos; depois desses 100 anos, teremos 50 kg deste material. Mais 100 anos e teremos 25 kg e assim sucessivamente.


Na foto, Pierre e Marie Curie.




Fonte: http://cienciasmbb.blogspot.com.br/2014/01/radioatividade.html


segunda-feira, 26 de maio de 2014

Raio

O fenômeno é causado por uma descarga elétrica entre duas nuvens (o que é mais comum) ou entre uma nuvem e o solo. Essas nuvens são normalmente do tipo cúmulo-nimbo - verticalmente mais extensas, com a face inferior lisa. Elas se formam a cerca de 2 quilômetros de altura do solo e se estendem por até 18 quilômetros acima. O choque entre as partículas de gelo dentro da nuvem causa uma separação de cargas elétricas positivas e negativas. Quando a diferença de cargas é muito grande, uma carga elétrica, geralmente negativa, chamada condutor, fraca e invisível, deixa a nuvem e ziguezagueia para baixo, entre 30 e 50 metros de altitude. Devido à intensidade do campo elétrico formado, as cargas positivas do solo mais próximas do raio condutor, chamadas de conectantes, saltam até encontrá-lo, fechando assim o circuito elétrico entre a nuvem e o solo. Só quando as duas correntes se encontram é que tudo se ilumina e o raio pode ser observado.

Em outro tipo de raio, chamado de positivo, a posição das cargas é invertida, ocorrendo uma descarga negativa do solo e outra positiva da nuvem. Nos raios positivos, a descarga se origina da parte alta da nuvem, enquanto nos negativos sua origem é no lado inferior. "A maioria dos relâmpagos que atingem o chão é oriunda das nuvens. Menos de 1% se origina no solo e sobe para a nuvem. Para a formação dos dois tipos concorrem descargas tanto do solo quanto da nuvem, mas a mais comum é de cima para baixo", diz o geofísico espacial Osmar Pinto Junior.

Eletricidade cósmica

Nuvens carregadas formam campo elétrico que, ao se descarregar, risca o céu de luz

1. Uma nuvem negra está repleta de gotículas de água congelada, que se mexem por causa dos ventos.

2. Nessa confusão, os granizos se chocam. A cada esbarrada, os átomos de água perdem ou ganham elétrons

3. Criam-se, assim, duas forças elétricas: uma positiva e outra negativa

4. Uma carga elétrica, geralmente negativa, deixa a nuvem e se dirige ao solo

5. Quando a eletricidade chega ao chão, este lança uma descarga positiva, que se encontra com a da nuvem. Nesse instante, ocorre o clarão.




Fonte:
http://mundoestranho.abril.com.br/materia/como-ocorre-o-raio?utm_source=redesabril_jovem&utm_medium=facebook&utm_campaign=redesabril_mundoestranho

sábado, 24 de maio de 2014

Múltiplos universos

A ideia de múltiplos universos existindo simultaneamente e em dimensões paralelas está muito presente no imaginário popular. Diversos filmes, livros e programas de TV abordam o assunto de maneira intrigante. Mas para quem ainda não sabe o que é um universo paralelo, vale a pena um pouco de exercício mental.

O nosso planeta é apenas um dos mundos que existem dentro do nosso sistema solar. Da mesma forma, o sistema solar em que nos encontramos é apenas um dos muitos da nossa galáxia, a Via Láctea. E de maneira análoga, essa é também apenas uma das bilhares de galáxias que já fomos capazes de fotografar.

Todo esse “zoológico espacial” ― que ainda possui “bichos” que nem citamos, como buracos negros, nebulosas etc ― fica dentro do nosso universo. E a parte boa é que somos capazes de estudar o nosso próprio universo. Porém, de tão grande sua extensão, a visão que temos dele é muito limitada. Para ter uma ideia dessa distância, imagine que não conseguimos observar parte dele, já que a luz emitida daqueles confins ainda não foi capaz de chegar até nós.

Existe um “clone” seu em outra dimensão.

Por si só, isso já é muito intrigante e chega a dar um nó na cabeça de algumas pessoas. Mas a situação fica ainda mais louca se levarmos em conta a hipótese de multiversos, ou seja, de que além do nosso universo existem muitos outros por aí, cada um em uma dimensão diferente ― o que nos impossibilita de entrar em contato com eles.

As teorias em cima dessa ideia são as mais alucinantes possíveis. Um delas, por exemplo, diz que são tantos os universos paralelos que, em algum deles, existe outro você, vivendo em mundo que pode ser igual ou diferente da Terra. E pode também existir um planeta igual ao nosso, mas com curso diferente da história, uma em que as torres do WTC não caíram e, quem sabe, até uma onde o Brasil seja a grande potência mundial.

Mas o que leva cientistas a encarar essa ideia com seriedade? De onde vem a base para acreditarem em múltiplos mundos? Para entender melhor isso, teremos que pensar um pouco sobre o Big Bang e alguns conceitos de física quântica. Mas com um pouco de calma e munidos das palavras publicadas pelo astrofísico teórico Ethan Siegel, conseguiremos entender isso. Aliás, em outro universo, você já entendeu!




No início, houve uma explosão. Pelo menos é o que diz a teoria do Big Bang, que descreve a ideia de que o nosso universo estava condensado em um ponto muito quente e denso no passado e, de repente, passou a se expandir rapidamente, tornando-se isso que tentamos entender até o momento. De acordo com estimativas, acredita-se que esse evento aconteceu cerca de 13,3 bilhões de anos atrás.

Entre as evidências que levam a ciência a crer no Big Bang estão o fato de que as galáxias têm se afastado umas das outras, a presença de elementos leves como o hidrogênio e hélio em diversos pontos do universo (o que indica uma origem em comum) e a presença da radiação cósmica de fundo, que preenche todo o espaço. Assim, sabemos que o universo continua a se expandir e a esfriar até hoje, o que reforça a ideia de que, no passado, ele era quente e denso.

Com base nisso, profissionais da ciência começaram a especular sobre as causas dessa expansão e a forma como ela ocorreu, criando modelos matemáticos e teorias científicas que nos ajudaram a descobrir um pouco mais sobre o Big Bang.

Para começar, cientistas chegaram ao dado de que, em um passado relativamente recente (e para a cosmologia, “recente” são alguns bilhões de anos), o universo recém-criado era dominado pela matéria ― tanto a normal quanto a escura ― e se expandia a uma taxa rápida, mas que foi decrescendo ao longo do tempo.


Inflação cósmica e suas particularidades




No período descrito acima, estrelas, planetas e outros objetos celestes estavam se formando. Mas se voltarmos ainda mais no tempo, o universo era tão quente e tão denso que era impossível a existência de átomos neutros, ou seja, com o mesmo número de prótons e elétrons. Além disso, já que o espaço era quente demais, havia uma radiação muito forte.

E se continuarmos a “voltar no tempo”, a radiação passa a ser mais energética e a dominar o universo, fazendo com que ele se expanda mais lentamente se comparado com a expansão da matéria.


Mas e antes disso? Podemos retroceder um pouco mais, até o ponto conhecido como inflação cósmica, em que o universo era dominado por uma força constante e expandia exponencialmente, por meio da energia do vácuo, uma espécie de força gravitacional repulsiva. Em um curto período de tempo, o universo se expandiu de maneira absurdamente rápida: googols de vezes maior do que o universo observável de hoje, que é de dezenas de bilhões de anos-luz.


Com base nesses modelos de expansão, cientistas tentaram calcular como seria a singularidade, ou seja, o exato momento em que tudo estava condensado em um ponto único e, de repente, passou a se expandir. Mas então, eles descobriram algo fantástico: isso não existe. Ou melhor, existe parcialmente.

O fato é que há um ponto em comum para o surgimento da radiação e da matéria, mas isso não acontece com a inflação cósmica, já que ela é infinita e nunca chega a zero. Logo, não há um ponto único de onde surgiu o universo inteiro. A inflação cósmica já existia antes disso e é impossível encontrar a sua origem.

Porém, possuir energia do vácuo em excesso é uma situação instável e, por isso, o universo tende a se estabilizar, diminuindo essa energia. Mas quando essa estabilidade acontece, ela dá origem à matéria, anti-matéria e radiação, criando o tal do Big Bang.

Aspectos quânticos do universo


Achou tudo isso muito estranho? Pois não se preocupe: ficará pior adiante. Em seu nível fundamental, o universo é capaz de todas as esquisitices que a mecânica quântica permite. Quando estudamos um elétron, por exemplo, sabemos que ele pode possuir dois ou mais valores simultaneamente para uma determinada característica que esteja sendo observada. É o caso do Gato de Schrödinger: o bichano está vivo e morto ao mesmo tempo, até o momento em que você abre a caixa para conferir.

Pois o universo também tem essa característica, ou seja, o resultado da inflação cósmica acaba sendo todas as possibilidades existentes: ele cria novos universos à medida que continua sendo uma inflação cósmica, que, por sua vez, cria novos universos e novas inflações cósmicas e assim por diante, infinitamente.


Em outras palavras, há regiões do universo que foram inflacionadas no passado e que criaram matéria e radiação, mas ainda existem regiões que estão inflacionando e que devem gerar, em algum momento, mais matéria e radiação, criando novos universos. E é esse “mar” de universos que chamamos de multiverso.


Fonte:

http://www.tecmundo.com.br/fisica/19527-universos-paralelos-afinal-que-piracao-e-essa-.htm

terça-feira, 20 de maio de 2014

Deep Web

É possível encontrar qualquer tipo de conteúdo na internet. Você já deve ter se dado conta disso ao pesquisar termos e assuntos que pareciam irrelevantes, mas que geram dezenas de páginas como resultado de busca.

Entretanto, o que talvez você não saiba é que existe uma internet invisível, com milhares de sites e páginas de conteúdo, mas que você talvez nunca conseguirá acessar. Calma, não se trata de nenhuma teoria da conspiração ou de conteúdo secreto mantido pela CIA ou pela KGB e o seu funcionamento é bem mais simples do que parece.

O que é?

A Deep Web nada mais é do que o inferno da internet (ou paraíso para alguns), é isso mesmo, existe coisa pior que o 4chan! A Deep Web é comparada com a Desciclopédia, "de livre conteúdo", a grande diferença é que lá o conteúdo é realmente livre, e sem qualquer restrição legal.

O termo “deep web” é atribuído a Michael K. Bergman, CEO e cofundador da Structured Dynamics LLC. Ele se refere a todo aquele conteúdo que não pode ser indexado pelos sites de busca e, dessa forma, não está disponível diretamente para quem navega na internet.

Ao criar um site ou blog, o editor do conteúdo pode definir nas configurações se deseja ou não que o site seja indexado nos mecanismos de busca, habilitando as funções “follow” e “nofollow”. Caso opte pela segunda, quando os robôs dos mecanismos de busca vasculham a web em busca de conteúdo, ao passar pelo seu site eles encontrarão a mensagem para que o buscador “não siga” as páginas disponíveis.

O resultado disso são milhares de sites que nunca ganharam as páginas dos buscadores, um conteúdo secreto e invisível que sempre esteve ali, mas que dificilmente um dia será visualizado por você. Esse verdadeiro mundo de informações talvez nunca seja lido por quem realmente poderia aproveitar a informação.

Quantidade e qualidade

Você deve ter ficado curioso e está se perguntando: afinal, que tipo de informação existe na internet invisível? A resposta é: de todo tipo. Entre os sites não indexados você pode encontrar desde blogs pessoais – os mais comuns, diga-se de passagem – até assuntos polêmicos em que os autores preferem não se identificar de forma alguma.

Pense na infinidade de contos, poesias, desenhos e até mesmo obras inteiras inéditas que você poderia ler caso conseguisse acessar essas páginas ocultas. Embora seja possível afirmar que exista muito conteúdo de qualidade, há também um grande perigo, uma vez que a navegação anônima em sites ocultos pode liberar conteúdos ilegais bastante maléficos.

De acordo com estudos da Universidade de Berkeley realizados em 2001, o tamanho da web profunda é estimada em cerca de 7500 Terabytes. Com certeza hoje já deve ter dezenas de vezes mais.

O lado obscuro da rede

Infelizmente, não é apenas conteúdo inédito ou de qualidade que pode ser encontrado na internet invisível. Em meio a conteúdos ocultos, é possível encontrar também uma série de páginas que podem ser acessadas somente de forma anônima, sob o risco de o internauta cometer uma série de crimes e contravenções.

Há páginas com informações sobre compra e venda de drogas, uso de entorpecentes, venda de produtos roubados e contrabandeados e fotos eróticas proibidas, entre outras coisas que certamente você não vai ter interesse em ver. Um dos aplicativos mais utilizados por quem quer navegar dessa forma na rede é o Tor.

O Tor oferece uma plataforma, chamada de Onion, na qual os desenvolvedores podem construir novos aplicativos baseados no anonimato, segurança e privacidade. Sem poderem ser facilmente identificados ou localizar quem acessa as informações, a rede se torna um prato-cheio também para hackers, crackers e grupos mal-intencionados.

Desde 2001, a deep web recebe atenção especial por parte de órgãos investigadores em busca de pistas de crimes virtuais. Assim como a grande rede aberta, o lado oculto da internet também revela segredos nocivos que, se mal-utilizados, podem trazer sérios problemas para todos os envolvidos.



Nem pense em se aventurar nesses mares. Eles estão cheios de crackers (hackers com intenções criminais), que adoram “fisgar” usuários descuidados. Como não há filtros de segurança, eles facilmente conseguem, por exemplo, “zumbificar” o computador de um internauta (controlando-o a distância sem que o dono note) e roubar dados.

Nunca utilize seu navegador comum sem um plugin que garanta o seu anonimato, a não ser que queira a polícia batendo na sua porta...

Atenção: acessar conteúdo disponível na deep web, em alguns casos, pode ser uma experiência perigosa e bastante desagradável. Informações que rapidamente seriam banidas na rede aberta circulam livremente na deep web, como mercado negro de produtos roubados e contrabandeados, conteúdo erótico ilegal e tráfico de drogas. 

A intenção dessa postagem não é ensinar a usar a Deep Web, apenas informar o seu significado.


Fontes:

http://mundoestranho.abril.com.br/materia/o-que-e-a-deep-web
http://pt.wikipedia.org/wiki/Deep_web
http://desciclopedia.org/wiki/Deep_Web (sim, e foi bem útil)
http://ahduvido.com.br/voce-sabe-o-que-e-deep-web
http://www.estimulanet.com/2011/10/deep-web-internet-secreta.html


segunda-feira, 19 de maio de 2014

Átomo

O estudo do átomo se iniciou na Grécia antiga com o filósofo Leucipo e seu discípulo Demócrito: para eles, o átomo era o menor componente de toda a matéria existente. Sendo, então, impossível dividí-lo em partes menores.

Ao desenrolar da história, diversos cientistas e estudiosos tentaram definir o átomo quanto a sua forma, dando origem a diversas teorias sobre sua constituição física. Surgiram, então, os modelos atômicos.

Modelo de Dalton (bola de bilhar) - 1803

Para John Dalton, a teoria de Leucipo e Demócrito era bastante coerente. Segundo este modelo, os átomos eram as menores partículas possíveis, assumiam formas esféricas e possuíam massa semelhante caso fossem correspondentes ao mesmo elemento químico.

Modelo de Thomson (pudim de passas) – 1897

Através da descoberta do elétron (partícula constituinte do átomo com carga elétrica  negativa), o modelo de Dalton ficou defasado. Assim, com os estudos de Thomson, um novo modelo foi idealizado.

De acordo com este novo modelo, o átomo era uma esfera maciça de carga elétrica positiva incrustada com elétrons. Tornando-se assim eletricamente neutro.

Modelo de Rutherford-Bohr (sistema planetário) – 1908/1910

Rutherford ao bombardear partículas alfa sobre uma lâmina de ouro percebeu que a maioria atravessava a lâmina. Enquanto que uma menor parte sofria pequeno desvio, e uma parte ínfima sofria grande desvio contrário à trajetória.

A partir desse experimento, foi possível perceber que os átomos não eram maciços como se pensava, mas dotados de grande espaço vazio. Assim como, que eram constituídos por um núcleo carregado positivamente e uma nuvem eletrônica carregada negativamente. Essa nuvem eletrônica era composta por elétrons que giravam em órbitas elípticas ao redor do núcleo (assim como os planetas ao redor do sol).

Também constatou-se que a maior parte da massa de um átomo se concentra no núcleo (que rebatia as partículas alfa no sentido contrário do bombardeio).

Mas ainda havia um enigma: De acordo com a teoria das ondas eletromagnéticas, os elétrons ao girarem em torno do núcleo perderiam gradualmente energia, começariam a descrever um movimento helicoidal, e simplesmente cairiam no núcleo. Mas, como isso pode acontecer se os átomos são estruturas estáveis?

Dois anos após Rutherford ter exposto o seu modelo atômico, Niels Bohr o aperfeiçoou. A teoria de Bohr pode ser fundamentada em três postulados:

1) Os elétrons descrevem, ao redor do núcleo, órbitas circulares com energia fixa e determinada. Sendo denominadas órbitas estacionárias;

2) Durante o movimento nas órbitas estacionárias, os elétrons não emitem energia espontaneamente;

3) Quando um elétron recebe energia suficiente do meio externo, realiza um salto quântico: migra entre dois orbitais. E, como tende a voltar ao orbital inicial, a energia recebida é emitida na mesma quantidade para o meio. Sendo essa energia (recebida e emitida) a diferença energética entre os dois orbitais.

Apesar de bastante difundida no ensino médio, o modelo atômico de Rutherford-Bohr é, em parte, ineficiente. Pois:

1- Os elétrons, na prática, não realizam trajetórias circulares ou elípticas ao redor do núcleo;
2- Não deixa claro o porquê de os elétrons não perderem energia durante seu movimento;
3- Não explica a eletrosfera de átomos que possuem muitos elétrons.
Assim, o modelo atômico ideal está sendo obtido a cada dia em que se descobrem mais informações acerca da estrutura íntima da matéria.


Estrutura de um Átomo

Os átomos são compostos de, pelo menos, um próton e um elétron. Podendo apresentar nêutrons (na verdade, apenas o átomo de hidrogênio não possui nêutron: é apenas um elétron girando em torno de um próton).

Elétrons – Os elétrons são partículas de massa muito pequena (cerca de 1840 vezes menor que a massa do próton. Ou aproximadamente 9,1.10^-28g) dotados de carga elétrica negativa). Movem-se muito rapidamente ao redor do núcleo atômico, gerando campos eletromagnéticos.

Prótons  – Os prótons são partículas que, junto aos nêutrons, formam o núcleo atômico. Possuem carga positiva de mesmo valor absoluto que a carga dos elétrons; assim, um próton e um elétron tendem a se atrair eletricamente.

Nêutrons – Os nêutrons, junto aos prótons, formam o núcleo atômico. E, como possuem massa bastante parecida, perfazem 99,9% de toda a massa do átomo. Possuem carga elétrica nula (resultante das sub-partículas que os compõem), e são dispostos estrategicamente no núcleo de modo a estabilizá-lo: uma vez que dois prótons repelem-se mutuamente, a adição de um nêutron (princípio da fissão nuclear) causa instabilidade elétrica e o átomo se rompe.

Os elétrons estão dispostos em 8 camadas que constituem a eletrosfera. Para cada camada, determinado número de subníveis (orbitais) são preenchidos. A mais externa é chamada camada de valência, sendo também a mais energética.





Fonte:

http://www.infoescola.com/quimica/atomo/


sábado, 10 de maio de 2014

Buracos de minhoca

Um buraco de minhoca é uma passagem teórica através do espaço-tempo que pode criar atalhos para viagens longas em todo o universo. Buracos de minhoca são previstas pela teoria da relatividade geral. Mas com a ressalva que, buracos trazem com eles os perigos do colapso repentino, alta radiação e contato perigoso com a matéria exótica.

Teoria

Em 1935, os físicos Albert Einstein e Nathan Rosen usaram a teoria da relatividade geral de propor a existência de “pontes”, através do espaço-tempo. Esses caminhos, chamado de Pontes de Einstein-Rosen  ou buracos de minhoca, ligam dois pontos diferentes no espaço-tempo, teoricamente, criando um atalho que poderia reduzir o tempo de viagem e distância.

O conceito básico de uma fenda intra-universo é que, em uma região do espaço-tempo compacta, cujo limite é topologicamente trivial, mas cujo interior não é simplesmente ligado. Formalizar esta idéia leva à definições tais como a seguinte, extraídas da ideia de buracos de minhoca lorentzianos de Matt Visser.

Buracos de Minhoca possuem duas bocas, com uma garganta de ligação entre elas. As bocas do buraco de minhoca provavelmente seriam esferoidais ou seja como um tubo. A garganta pode ser uma extensão reta, mas também pode enrolar em volta, tendo um caminho mais longo do que um percurso mais convencional pode exigir.

Teoria geral da relatividade de Einstein prediz matematicamente a existência de buracos de minhoca, mas nenhum foi descoberto até o momento. Um buraco negro de massa negativo pode ser visto pela forma como sua gravidade afeta a luz que passa.

Certas soluções da relatividade geral permitem a existência de buracos onde a boca de cada um é um buraco negro. No entanto, um buraco negro que ocorre naturalmente, formado pelo colapso e supernova de uma estrela, não é por si só suficiente para criar um buraco de minhoca.

Através do buraco de minhoca

A ficção científica está repleta de contos de viajar através de buracos de minhoca. Mas a realidade de uma viagem como essa é mais complicada, e não apenas porque ainda temos de identificar um.
O primeiro problema é o tamanho. Buracos negros primordiais são previstos para existir em níveis microscópicos, cerca de 10-33 centímetros. No entanto, como o universo se expande, é possível que alguns podem ter sidos esticado para tamanhos maiores.

Outro problema vem da estabilidade. A previsão do buraco de minhoca de Einstein-Rosen seria inútil para o curso porque eles entrariam em colapso rapidamente. Mas a pesquisa mais recente descobriu que um buraco de minhoca contendo matéria “exótica” poderia permanecer aberto e imutável por longos períodos de tempo.
Matéria exótica, que não deve ser confundida com a matéria escura ou antimatéria, e contém densidade de energia negativa e uma grande pressão negativa. Tal matéria só foi visto no comportamento de certos estados de vácuo como parte da teoria quântica de campos.

Se uma fenda contida de matéria exótica suficiente, quer ocorrendo naturalmente ou artificialmente, pode, teoricamente, ser utilizada como um método de envio de informação ou os viajantes através do espaço.
Buracos de minhoca não só podem conectar duas regiões distintas dentro do universo, eles também poderiam conectar dois universos diferentes. Da mesma forma, alguns cientistas especulam que, se uma boca de um buraco de minhoca é movida de uma forma específica, que poderia permitir a viagem no tempo. No entanto, o cosmólogo britânico Stephen Hawking afirmou que tal uso não é possível.

Embora a adição de matéria exótica a uma fenda que pode estabilizar a tal ponto que os passageiros humanos possam viajar em segurança através dela, há ainda a possibilidade de que a adição de matéria “normal” pode ser suficiente para desestabilizar o portal.

A tecnologia de hoje é insuficiente para aumentar ou estabilizar um buraco de minhoca, mesmo que eles pudessem ser encontrados. No entanto, os cientistas continuam a explorar o conceito como um método de viagens espaciais, com a esperança de que a tecnologia acabará por ser capaz de utilizá-los.

Na imagem, uma representação teórica de um buraco de minhoca.



Fonte:

http://cienciasetecnologia.com/buraco-de-minhoca/

Nebulosas

Originalmente, a palavra "nebulosa" se referia a praticamente qualquer objeto astronômico extenso (além de planetas e cometas). A palavra "nebulosa" vem da palavra grega para "nuvem". Antes que os astrônomos soubessem que galáxias eram coleções distantes de estrelas, galáxias eram chamadas nebulosas por causa da sua aparência indistinta. Hoje, a palavra nebulosa é reservada para objetos extensos consistindo na maior parte de gás e poeira.

Nebulosas são objetos de muitas formas e tamanhos e são formadas de muitas maneiras. Em algumas nebulosas, estrelas se formam a partir de nuvens de gás e poeira; uma vez que algumas estrelas tenham se formado dentro da nuvem, a luz delas ilumina a nuvem, tornando-a visível para nós.

Nebulosas de emissão são nuvens de gás com temperatura alta. Os átomos na nuvem são energizados por luz ultravioleta de uma estrela próxima e emitem radiação quando decaem para estados de energia mais baixos (luzes de néon brilham praticamente da mesma maneira). Nebulosas de emissão são geralmente vermelhas, por causa do hidrogênio, o gás mais comum do Universo e que comumente emite luz vermelha. Nebulosas de reflexão são nuvens de poeira que simplesmente refletem a luz de uma estrela ou estrelas próximas. Nebulosas de reflexão são geralmente azuis porque a luz azul é espalhada mais facilmente. Nebulosas de emissão e de reflexão são geralmente vistas juntas e são às vezes chamadas de nebulosas difusas. Em algumas nebulosas, as regiões de formação estelar são tão densas e espessas que a luz não consegue transpassá-las. Não é surpresa, então, que sejam chamadas de nebulosas escuras.

Outro tipo de nebulosa, chamada nebulosa planetária, é resultado da morte de uma estrela. Quando uma estrela já queimou tanto material que não pode mais sustentar suas próprias reações de fusão, a gravidade da estrela provoca o seu colapso. Quando a estrela colapsa, seu interior se aquece. O aquecimento do interior produz um vento estelar que dura por poucos milhares de anos e que leva para fora as camadas mais externas da estrela. Quando as camadas mais externas são levadas para fora, o núcleo remanescente esquenta os gases, que estão agora longe da estrela, causando o brilho deles. O resultado é uma "nebulosa planetária" (assim chamada porque se parece com planetas gigantes gasosos pelo telescópio), formada por camadas de gás brilhante que circundam um pequeno núcleo. Astrônomos estimam que nossa galáxia contém aproximadamente 10 mil nebulosas planetárias. Nebulosas planetárias se constituem em um período comum no ciclo normal de vida de uma estrela, mas eles têm vida curta, durando apenas algo em torno de 25 mil anos.

A vida de uma estrela cuja massa é maior do que 1,4 vezes a massa do Sol termina mais violentamente e deixa para trás um tipo diferente de nebulosa chamada resto de supernova. Quando tal estrela esgota seu combustível e colapsa, uma enorme onda de choque se arrasta pela estrela em alta velocidade, fazendo voar para fora várias camadas e deixando para trás um núcleo chamado de estrela de nêutron e uma camada de matéria em expansão conhecida como resto de supernova. Uma onda de choque de supernova é muito mais violenta do que o vento estelar que marca o fim de uma estrela de baixa massa. Perto do núcleo do resto de supernova, elétrons emitem radiação chamada de "radiação síncroton" enquanto eles espiralam-se em direção ao núcleo a velocidades próximas a da luz. A parte ultravioleta dessa radiação pode remover elétrons dos filamentos mais externos da nebulosa (ionizá-los), fazendo com que brilhem. Além disso, a matéria ejetada varre o gás e poeira circundantes enquanto se expande, produzindo uma onda de choque que excita e ioniza o gás na nebulosa resto de supernova, a qual possui baixa densidade mas é extremamente quente (até 1 milhão de graus!). O mais famoso resto de supernova é a Nebulosa do Caranguejo em Touro (M1), mostrado na figura acima. A luz do núcleo interno vem da radiação síncroton, enquanto que as regiões mais externas brilham em muitas cores provenientes da emissão de diferentes gases, incluindo vermelho do hidrogênio.


 Nebulosa NGC 6960, também chamada de Nebulosa Vassoura de Bruxa



 Nebulosa NGC 1952, também chamada de Nebulosa do Caranguejo



 Nebulosa NGC 7293, também chamada de Nebulosa de Hélix



Fonte:

http://cas.sdss.org/dr6/pt/astro/stars/stars.asp

Buracos negros

De forma simplificada, buraco negro é uma região do espaço que possui uma quantidade tão grande de massa concentrada que nada consegue escapar da atração de sua força de gravidade, nem mesmo a luz, e é por isso que são chamados de “buracos negros”.

Até hoje a melhor teoria para explicar este tipo de fenômeno é a Teoria Geral da Relatividade, formulada por Albert Einstein. Mas, para entender melhor do que se trata um buraco negro é preciso entender alguns conceitos.

Segundo a teoria de Einstein, a força da gravidade seria uma manifestação da deformação no espaço-tempo causada pela massa dos corpos celestes, como os planetas ou estrelas. Essa deformação seria maior ou menor de acordo com a massa ou a densidade do corpo. Portanto, quanto maior a massa do corpo, maior a deformação e, por sua vez, maior a força de gravidade dele. Consequentemente, maior é a velocidade de escape, força mínima que deve ser empregada, para que um objeto possa vencer a gravidade deste corpo. Por exemplo, para que um foguete saia da atmosfera terrestre para o espaço ele precisa de uma força de escape de 40.320 km/h. Em Júpiter, essa força teria de ser 214.200 km/h. Essa diferença muito grande, é porque sua massa é muito maior que a da Terra.

É isso que acontece nos buracos negros. Há uma concentração de massa tão grande em um ponto tão infinitamente pequeno que a densidade é suficiente para causar tal deformação no espaço-tempo que a velocidade de escape neste local é maior que a da luz. Por isso que nem mesmo a luz consegue escapar de um buraco negro. E, já que nada consegue se mover mais rápido que a velocidade da luz, nada pode escapar de um buraco negro.

Esses tais buracos negros seriam estrelas em seu último estágio de evolução, quando, depois de consumir todo seu combustível, a estrela com massa maior que 3 massas solares, se transformam em uma supernova com um “caroço” no centro. Se a massa deste caroço, que pode ou não se formar, for maior que 2 massas solares ele cai sobre si mesmo, transformando-se em um buraco negro.

Às vezes acontece da estrela evoluir no que chamamos de “sistema binário fechado” quando duas estrelas ficam muito próximas e há transferência de matéria de uma para outra, podendo fazer com que uma delas acumule matéria em excesso provocando sua explosão em uma supernova. Nestes casos, o mais provável é que ela evolua para uma estrela de nêutrons, quando elétrons e prótons se fundem em nêutrons. Mas, acontece que em alguns sistemas a concentração de massa é muito grande e ocorre a formação de um buraco negro que continua “sugando” a massa daquela outra estrela maior.


Na imagem, uma concepção artística de um buraco negro.



Fonte:

http://www.infoescola.com/astronomia/buraco-negro/


sexta-feira, 9 de maio de 2014

Fusão e Fissão Nuclear



FUSÃO NUCLEAR

Fusão nuclear é a união dos prótons e nêutrons de dois átomos para formar um único núcleo atômico, de peso superior àqueles que lhe deram origem. Nesse processo, é liberada uma quantidade de energia equivalente à diferença entre a energia de ligação do novo átomo e a soma das energias dos átomos iniciais. São as reações de fusão nuclear que fornecem a energia irradiada pelo Sol, pela fusão de quatro átomos de hidrogênio para formar um átomo de hélio. Dados espectroscópicos indicam que esse astro é constituído de 73% de átomos de hidrogênio e 26% de átomos de hélio, sendo o restante fornecido pela contribuição de vários elementos.

Para que ocorra o processo de fusão, é necessário superar a força de repulsão elétrica entre os dois núcleos, que cresce na razão direta da distância entre eles. Como isso só se consegue mediante  temperaturas extremamente elevadas, essas reações também se denominam reações termonucleares. Durante muito tempo, a única reação de fusão nuclear realizada na Terra era a utilizada na bomba de hidrogênio, em que a explosão atômica fornece a temperatura necessária (cerca de quarenta milhões de graus Celsius) para que a fusão tenha início.

A fusão nuclear controlada proporcionaria uma fonte de energia alternativa relativamente barata para a produção de eletricidade e contribuiria para  poupar as reservas de combustíveis fósseis como o petróleo, o gás natural e o carvão, que decrescem rapidamente. As reações controladas podem ser obtidas com o aquecimento de plasma (gás rarefeito com elétrons e íons positivos livres), mas se torna difícil conter os plasmas nos altos níveis de temperatura requeridos para as reações de fusão auto-sustentadas, pois os gases aquecidos tendem a expandir-se e escapar da estrutura circundante.  Experiências com reator de fusão já foram empreendidas em vários países.

A fusão nuclear é um tipo de reação que produz imensas quantidades de energia. Ela ocorre naturalmente no interior do Sol, gerando a energia térmica que necessitamos para sobreviver na Terra. A temperaturas de 14.000.000 ºC (quatorze milhões de graus Celsius), os núcleos de dois átomos de hidrogênio se fundem ou unem. No processo, um pouco de massa é perdida e convertida em energia.

No sol, onde a fusão nuclear ocorre naturalmente, os núcleos de tipos de gás hidrogênio se fundem formando o gás hélio e mais uma partícula atômica chamada nêutron. Nesse processo se perde uma pequena quantidade de massa que se converte em enorme quantidade de energia. As temperaturas extremamente altas que existem no Sol, fazem com que este processo se repita continuamente.





FISSÃO NUCLEAR

Na fissão nuclear, a energia é liberada pela divisão do núcleo normalmente em dois pedaços menores e de massas comparáveis – para núcleos pesados, existe a fissão em mais de dois pedaços, mas é muito rara, uma em 1 milhão para urânio. Pela lei de conservação de energia, a soma das energias dos novos núcleos mais a energia liberada para o ambiente em forma de energia cinética dos produtos de fissão e dos nêutrons liberados deve ser igual à energia total do núcleo original.

A fissão do núcleo raramente ocorre de forma espontânea na natureza, mas pode ser induzida se bombardearmos núcleos pesados com um nêutron, que, ao ser absorvido, torna o núcleo instável.

O 235U, por exemplo, ao ser bombardeado com um nêutron, fissiona em dois pedaços menores, emitindo normalmente dois ou três nêutrons. Se houver outros núcleos de 235U próximos, eles têm uma certa chance de ser atingidos pelos nêutrons produzidos na fissão. Se houver um grande número disponível de núcleos de urânio-235, a probabilidade de ocorrerem novas fissões será alta, gerando novos nêutrons, que irão gerar novas fissões.



Esse processo sucessivo é chamado reação em cadeia. Controlando-se o número de nêutrons produzidos e a quantidade de 235U, pode-se controlar a taxa de fissão ao longo do tempo. Essa reação em cadeia, denominada controlada, é o processo utilizado em um reator nuclear. Já em uma bomba atômica, as fissões ocorrem todas em um intervalo de tempo muito curto, gerando uma enorme quantidade de energia e provocando a explosão.



O que torna o urânio conveniente para uso como combustível é a grande quantidade de energia liberada por esse elemento ao se fissionar.


Fontes:

http://www.coladaweb.com/fisica/fisica-nuclear/fusao-nuclear
http://www.biodieselbr.com/energia/nuclear/fissao-nuclear.htm



Brincado de fusão nuclear

Você provavelmente conhece o jogo 2048 em que se somam os números iguais até chegar ao 2048. Mas recentemente foi criado um jogo baseado no original, que ao invés de números, são elementos. Nele você colide os "quadrados" dos elementos para fundir eles e gerar um com um número atômico maior até chegar no Ferro de nº de massa 56. O nome do jogo é Fe [26].


O jogo se encontra no site: http://dimit.me/Fe26/





Bom jogo!

domingo, 4 de maio de 2014

O Einstein Brasileiro

Mário Schenberg (Recife, 2 de julho de 1914 — São Paulo, 10 de novembro de 1990) foi um físico, político e crítico de arte brasileiro, de origem judaica.



Considerado o maior físico teórico do Brasil, Schenberg publicou trabalhos nas áreas de termodinâmica, mecânica quântica, mecânica estatística, relatividade geral, astrofísica e matemática. Trabalhou com José Leite Lopes e César Lattes, e foi assistente do físico ucraniano naturalizado italiano Gleb Wataghin. Colaborou com inúmeros físicos de prestígio internacional, como o russo naturalizado americano George Gamow e o astrofísico indiano Subrahmanyan Chandrasekhar. Foi presidente da Sociedade Brasileira de Física de 1979 a 1981 e diretor do Departamento de Física da Universidade de São Paulo de 1953 a 1961, onde também foi professor catedrático.

Schenberg teve ativa participação política, sendo eleito duas vezes deputado estadual de São Paulo. Em função de suas ligações com o Partido Comunista Brasileiro (PCB), foi cassado e preso mais de uma vez pela ditadura militar brasileira. Mario Schenberg também mantinha grande interesse por artes plásticas, tendo convivido com artistas brasileiros como Di Cavalcanti, Lasar Segall, José Pancetti, Mário Gruber e Cândido Portinari, e também estrangeiros, como Bruno Giorgi, Marc Chagall e Pablo Picasso. Atuou também como crítico de arte, escrevendo diversos artigos sobre artistas contemporâneos brasileiros como Alfredo Volpi, Lygia Clark e Hélio Oiticica.

Vida

Mário Schenberg nasceu em Recife, Pernambuco, em 1914. A diversificação de seus interesses data de sua infância e foi influenciada pelas viagens feitas com seus pais à Europa, onde esteve em contato com a arquitetura gótica e começou a se interessar pela história. Desde cedo mostrou também notável capacidade para a matemática, encantando-se com a geometria, que teve forte influência em seus trabalhos. Conta-se ter comprado diversos livros de matemática superior com o dinheiro que ganhou no jogo do bicho. O interesse de Schenberg pela política, e particularmente o marxismo, começou também na sua adolescência.

Mario Schenberg foi casado com Julieta Bárbara Guerrini, ex-mulher do poeta Oswald de Andrade, e com a artista plástica Lourdes Cedran. Teve uma única filha, a geneticista Ana Clara Guerrini Schenberg.

Carreira acadêmica

Schenberg fez os cursos primário e secundário em Recife. Em razão das limitações financeiras de sua família, não pôde estudar na Europa. Ingressou, então, na Faculdade de Engenharia do Recife em 1931, onde esteve em contato com o professor Luiz Freire, notável instigador de talentos, que influenciou outros cientistas pernambucanos, como José Leite Lopes e Leopoldo Nachbin. No terceiro ano, sob a influência de Luiz Freire, transferiu-se para a São Paulo, onde se formou em engenharia elétrica na Escola Politécnica em 1935 e em matemática na recém fundada Faculdade de Filosofia, Ciências e Letras em 1936.

Durante a graduação, Mario Schenberg esteve em contato com os professores formadores da Faculdade de Filosofia, Ciências e Letras (FFCL), como Giuseppe Occhialini, Gleb Wataghin e Luigi Fantappiè. Luigi Fantappiè e Giacomo Albanese influenciaram fortemente sua formação matemática. Convidado pelo prof. Gleb Wataghin, em 1936, Schenberg desempenhou a função de preparador de física geral e experimental na Escola Politécnica. Deixou esse cargo, em 1937, para se tornar unicamente assistente de física teórica da FFCL.

Em 1939, partiu para a Europa, tendo trabalhado no Instituto de Física da Universidade de Roma com o físico italiano Enrico Fermi. Com a aproximação da guerra, partiu para Zurique onde trabalhou com Wolfgang Pauli. A seguir, transferiu-se para Paris onde trabalhou com Frédéric Joliot-Curie no Collège de France.

Em 1940, já de volta ao Brasil, obteve uma bolsa da Fundação Guggenheim para passar uma curta temporada nos Estados Unidos. Trabalhou, então, com o físico americano George Gamow na Universidade de Washington, realizando investigações em astrofísica. Depois, foi membro do Instituto de Estudos Avançados de Princeton. Trabalhou ainda no Observatório Yerkes, em 1941, com o futuro prêmio Nobel Subrahmanyan Chandrasekhar em alguns problemas de astrofísica, retornando ao Brasil somente em 1942.

Em 1944, Schenberg tornou-se professor catedrático de Mecânica Racional e Celeste na USP, defendendo em concurso público a tese nomeada “Princípios da Mecânica”. Mario permaneceu na Universidade de São Paulo até 1948, quando partiu para trabalhar no grupo de raios cósmicos da Universidade de Bruxelas, por 5 anos. Neste período trabalhou também com o químico, físico e matemático belga Ilya Prigogine e colaborou com o grupo de Giuseppe Occhialini.

Entre 1953 e 1961, foi diretor do Departamento de Física da USP, onde fundou o Laboratório de Física do Estado Sólido e participou da aquisição do primeiro computador da Universidade de São Paulo, mostrando notável capacidade de predição dos rumos da ciência e tecnologia. Ainda nas décadas de 50 e 60, Schenberg foi membro do Centro Brasileiro de Pesquisas Físicas no Rio de Janeiro, onde colaborou com a formação de jovens pesquisadores como Jorge André Swieca.

Em 1969 Schenberg foi aposentado compulsoriamente pelo AI-5 e impedido de frequentar a universidades, abalando de forma remarcável sua pesquisa. Schenberg retornou à Universidade de São Paulo somente em 1979 com a abertura política. Após a reintegração, ministrou alguns cursos de pós-graduação e a disciplina de "Evolução dos Conceitos da Física", cujas transcrições deram origem ao livro "Pensando a Física".

Carreira política

Em paralelo com sua atuação acadêmica, Schenberg sempre participou ativamente da discussão dos problemas político-econômicos do Brasil. Iniciou em São Paulo a campanha O Petróleo é Nosso, lutou pela defesa dos minérios nucleares do país e esteve envolvido nos debates sobre as centrais nucleares, mostrando-se contra o acordo Brasil-Alemanha de cooperação nuclear.

Foi eleito suplente de deputado estadual para a Assembléia Constituinte do Estado de São Paulo, pelo Partido Comunista Brasileiro (PCB) em 1946. Revelou-se, nessa época, um orador respeitável, que chegou diversas vezes a inverter a posição dominante da bancada. Em 1947, sob a liderança do economista e empresário Caio Prado Júnior, a bancada aprovou o Artigo 123 da Constitução do Estado de São Paulo, instituindo os fundos de amparo à pesquisa no estado para impulsionar o seu desenvolvimento científico e tecnológico. Esse projeto levou mais tarde à concepção da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). Em 1948, foi cassado e vítima de perseguições na universidade, como os outros membros da bancada comunista, liderada por Caio Prado Júnior.

Em 1962 foi novamente eleito deputado estadual pelo Partido Trabalhista Brasileiro (PTB), mas teve seu diploma impedido após ser acusado de pertencer ao Partido Comunista.

Em 1964 foi preso pela ditadura militar, 7 dias após o golpe militar, permanecendo confinado no Departamento de Ordem Política e Social (DOPS) por dois meses. No ano seguinte, sob acusações de atuação política na universidade foi perseguido e preso. Seu mandato de prisão somente foi revogado devido à pressão da comunidade científica internacional.


Com a declaração do AI-5, em 1969, foi aposentado compulsoriamente e proibido de entrar no campus universitário. Na década de 70 sofreu inúmeras perseguições e ameaças de entidades do governo, que ameaçavam por vezes sua integridade física. Essa situação somente foi revertida com a abertura política, dez anos mais tarde.

Trabalhos Científicos

Processo Urca

Mário Schenberg teve importantes contribuições em astrofísica, particularmente na teoria de processos nucleares na formação de estrelas supernovas. Em 1940, trabalhando com George Gamow, batizou o conhecido processo Urca: o ciclo de reações nucleares no qual o núcleo perde energia por absorver um elétron e re-emitir uma partícula beta e um par neutrino-antineutrino, o que leva à perda de pressão interna e como consequência à ocorrência de um colapso e explosão na forma de uma supernova. A contribuição de Schenberg corresponde à proposição da presença dos recém descobertos neutrinos, que drenam parte considerável da energia da estrela.


Urca é o nome de um cassino no Rio de Janeiro, e fora utilizado para nomear o processo por George Gamow (1904-1968), pois Schenberg uma vez brincou dizendo a ele que "a energia desaparece no núcleo de uma supernova tão rápido quanto o dinheiro no jogo de roletas" durante uma visita ao cassino da Urca.

Limite Schenberg-Chandrasekhar

Junto ao físico indiano Subrahmanyan Chandrasekhar, Schenberg descobriu e publicou em 1942 o limite de Schönberg–Chandrasekhar, o qual consiste na massa máxima que o núcleo de uma estrela pode suportar sobre as camadas de sobreposição contra um colapso gravitacional, uma vez que o centro de hidrogênio é exaurido.

Mecânica Quântica e Geometria Algébrica

Schenberg também é citado em uma série de publicações de 1953 e 1954 em geometria algébrica, em conexão com a mecânica quântica e a teoria quântica de campos. Ele observou que essas álgebras podem ser descritas em termos de álgebras de Grassmann comutativas e anti-comutativas, com a mesma estrutura de álgebras bosônicas e fermiônicas de operadores de criação e aniquilação. Essas álgebras estão relacionadas à algebras simpléticas e álgebras de Clifford, respectivamente. Em um trabalho publicado em 1958, Schenberg sugeriu a adição de um novo operador idempotente à álgebra de Heisenberg 17 e essa sugestão foi retomada e desenvolvida nos anos 80 por Basil Hiley e seus colaboradores em trabalhos sobre a formulação algébrica da mecânica quântica na Universidade de Londres (Birkbeck), onde Bohm veio a se tornar professor de física. As ideias de Schenberg também foram citadas em conexão com métodos algébricos para descrever espaços de fase relativísticos.


Os trabalhos de Schenberg, assim como os de Marcel Riesz, foram citados em um worshop realizado na França, em 1989, dada sua importância em física-matemática.

Obra científica

Seus trabalhos científicos produzidos entre 1936 e 1946 foram reunidos no primeiro volume do livro Obra científica de Mário Schönberg, publicado pela Editora da Universidade de São Paulo, sob a organização de Amélia Hamburger. Esse livro foi agraciado com o Prêmio Jabuti em 2010 na categoria de Ciências Exatas, Tecnologia e Informática.

Publicações

M. Schönberg: Quantum kinematics and geometry, Il Nuovo Cimento (1955-1965), vol. 6, Supplement 1, pp. 356-380, 1957, DOI: 10.1007/BF02724793

M. Schönberg, S. Chandrasekhar: On the Evolution of the Main-Sequence Stars, Astrophysical Journal, vol. 96, no. p.161 ff., 1942




Fonte:

http://pt.wikipedia.org/wiki/M%C3%A1rio_Schenberg

Cor do céu

Por que vemos o céu azul?

Pois há um efeito provocado pela dispersão da luz solar através da camada de gases que envolve o nosso planeta. Mas, para entender como isso funciona, é preciso primeiro lembrar de duas características da luz.
A primeira é que a luz se movimenta em ondas – minúsculas, é bem verdade, imperceptíveis aos nossos olhos. A segunda é que a luz solar, por ser branca, é na verdade uma mistura de várias outras cores, as visíveis, que podemos observar quando se forma um arco-íris, e as que ficam nas faixas do infravermelho e do ultravioleta, que estão além da nossa capacidade visual. Cada uma dessas cores corresponde a uma onda com um determinado comprimento. A azul tem um dos menores comprimentos de onda dentro do espectro visível. A vermelha é a que possui o maior deles.

Pois bem: quando a luz do Sol chega à Terra, ela esbarra na atmosfera e nos milhares de minúsculas partículas de ar presentes ali. Grosso modo, o que vemos é uma espécie de reflexo da luz ao cruzar com essas partículas. Quando o alvo onde a luz bate tem uma dimensão compatível com seu comprimento de onda, parte da energia da luz é absorvida, fazendo suas cargas vibrar e emitir de novo a radiação.
Como os tons de azul têm os menores comprimentos de onda, eles são os únicos compatíveis com essas pequenas partículas, que então absorvem essa luz e a rebatem, espalhando o azul para todos os lugares. Por isso o céu é azulado durante o dia.

Já ao entardecer, como o Sol passa a iluminar a Terra com um ângulo mais oblíquo, a luz tem de atravessar a atmosfera por uma distância maior. Isso faz com que a fração de azul seja diluída de tal modo que não conseguimos vê-la mais, abrindo espaço para enxergarmos apenas os tons mais vermelhos que, por terem um comprimento de onda maior, se espalham menos. Outro fator que influencia a cor do céu é comum nas grandes cidades do mundo: a poluição do ar. Quanto mais houver partículas em suspensão na atmosfera – além das que naturalmente fazem parte dela –, mais a luz azul é espalhada, aumentando a vermelhidão no pôr-do-sol, como se pode notar na comparação entre um entardecer em São Paulo e outro no interior.
Marte provavelmente tem um céu de coloração alaranjada ou avermelhada, por causa de sua atmosfera fina e das partículas de poeira presentes nela.



Fonte:

http://super.abril.com.br/ciencia/ceu-azul-447582.shtml

Teoria das Cordas

A Teoria da Relatividade e a Mecânica Quântica foram as duas mais importantes teorias produzidas no século passado, mas há um grave problema: elas são totalmente incompatíveis. A Teoria da Relatividade explica muito bem como funciona as grandes coisas, ou melhor, tudo que é maior que um átomo. Por sua vez, a mecânica quântica explica o bizarro mundo do interior das partículas subatômicas. Mas quando é preciso combinar as duas teorias para explicar por exemplo a singularidade (energia e densidade infinitas presente no interior dos buracos negros e no Big Bang), os pesquisadores simplesmente não conseguem combinar as duas teorias.

Einstein passou grande parte de sua vida tentando concluir sua Teoria do Campo Unificado, que seria um modelo capaz de explicar simultaneamente as quatro forças fundamentais (eletromagnetismo, gravidade, força nuclear forte e força nuclear fraca). Vários outros físicos, sobretudo Michio Kaku, deram continuidade ao trabalho de Einstein e o resultado foi a Teoria das Cordas.

A Teoria das Cordas é uma tentativa de unificar a Teoria da Relatividade com a Mecânica Quântica, além das 4 forças fundamentais. É a mais complexa teoria já desenvolvida, e envolve cálculos matemáticos que para a maioria das pessoas são totalmente incompreensíveis. Já passou por várias reformulações e provavelmente passará por novas no futuro. É vista pelos físicos como a principal teoria que possa explicar o universo inteiro, até em seu nível mais fundamental, desde o surgimento do Big Bang até o possível final do universo (Big Crunch ou Big Freeze).

Uma das mais famosas premissas da Teoria das Cordas é a existência de nada menos que 11 dimensões, contando com as 4 que conhecemos (3 espaciais e 1 temporal).

No século passado, os cientistas descobriram que um átomo não é indivisível, pois é composto por partículas muito pequenas denominadas elétrons, prótons e nêutrons (as outras dimensões ocultas fazem parte desse nível subatômico). Mas a Teoria das Cordas afirma que essas partículas subatômicas ainda podem ser divididas, e que se o fizéssemos, enxergaríamos pequenos filamentos, denominados cordas. O universo inteiro seria formado por pequenas cordas, que conforme seu comprimento e vibração, criam e definem a característica de uma partícula subatômica, explicando porque há uma diversidade tão grande de partículas no universo.

Além do mais, outra previsão da teoria das cordas é a existência de outros universos, paralelos ao nosso. Nosso universo seria um bolha que existe lado a lado com demais universos, e que esses podem entrar em contato com o nosso, através da gravidade.

Mas infelizmente não há sinais de que a Teoria das Cordas possa ser testada em laboratórios, já que a tecnologia atual é incapaz de enxergar dimensões ocultas ou as próprias cordas. Ainda não há um consenso se está correta ou não. Caso esteja, representaria um grande avanço na ciência.




Fonte:

http://misteriosdomundo.com/

O Gato de Schrodinger

Quando falamos sobre o "gato de Schrödinger" estamos nos referindo a um paradoxo que aparece a partir de um célebre experimento imaginário proposto por Erwin Schrödinger em 1937, para ilustrar as diferenças entre interação e medida no campo da mecânica quântica.

O experimento mental consiste em imaginar um gato aprisionado dentro de uma caixa que contém um curioso e perigoso dispositivo. Esse dispositivo se constitui de uma ampola de frágil vidro (que contém um veneno muito volátil) e um martelo suspenso sobre essa ampola de forma que, ao cair, essa se rompe, liberando o gás venenoso com o qual o gato morrerá. O martelo esta conectado a um mecanismo detetor de partículas alfa, que funciona assim: se nesse sensor chegar uma partícula alfa que seja, ele é ativado, o martelo é liberado, a ampola se parte, o gás escapa e o gato morre; pelo contrário, se nenhuma partícula chegar, nada ocorrerá e o gato continuará vivo.

Quando todo o dispositivo estiver preparado, iniciamos o experimento. Ao lado do detetor colocamos um átomo radioativo que apresente a seguinte característica: ele tem 50% de probabilidade de emitir uma partícula alfa a cada hora. Evidentemente, ao cabo de uma hora só terá ocorrido um dos dois casos possíveis: o átomo emitiu uma partícula alfa ou não a emitiu (a probabilidade que ocorra um ou outro evento é a mesma). Como resultado da interação, no interior da caixa o gato estará vivo ou estará morto. Porém, isso não poderemos saber --- a menos que se abra a caixa para comprovar as hipóteses.

Se tentarmos descrever o que ocorreu no interior da caixa, servindo-nos das leis da mecânica quântica, chegaremos a uma conclusão muito estranha. O gato viria descrito por uma função de onda extremamente complexa resultado da superposição de dois estados, combinando 50% de "gato vivo" e 50% de "gato morto". Ou seja, aplicando-se o formalismo quântico, o gato estaria por sua vez 'vivo' e 'morto'; correspondente a dois estados indistinguíveis!

A única forma de averiguar o que 'realmente' aconteceu com o gato será realizar uma medida: abrir a caixa e olhar dentro. Em alguns casos encontraremos o gato vivo e em outros um gato morto.

Por que isso?

Ao realizar a medida, o observador interage com o sistema e o altera, rompendo a superposição dos dois estados, com o que o sistema decanta em um dos dois estados possíveis.

O senso comum nos predispõe que o gato não pode estar vivo e morto. Mas a mecânica quântica afirma que, se ninguém olhar o interior da caixa, o gato se encontrará numa superposição dos dois estados possíveis: vivo e morto.

Essa superposição de estados é uma conseqüência da natureza ondulatória da matéria, e sua aplicação à descrição mecânico-quântica dos sistemas físicos é que permite explicar o comportamento das partículas elementares e dos átomos. A aplicação disso aos sistemas macroscópicos como o gato ou, inclusive, se assim o preferir, a qualquer professor de física quântica, nos levaria ao paradoxo proposto por Schrödinger.

Curiosamente, alguns livros de física, para colaborar com a 'lei dos direitos dos animais', substitui nesse dispositivo experimental (hipotético) a ampola com veneno por uma garrafa de leite que ao romper-se, permite ao gato alimentar-se. Os dois estados possíveis agora são: "gato bem alimentado" ou "gato esfomeado". O que, também, tem sua parcela de crueldade.





Fonte:

http://www.feiradeciencias.com.br/sala23/23_MA14.asp

Ditadura Militar (BR)

A ditadura militar no Brasil (1964 - 1985)

Uma pesquisa coordenada pela Igreja Católica com documentos produzidos pelos próprios militares identificou mais de cem torturas usadas nos "anos de chumbo" (1964-1985). Esse baú de crueldades, que incluía choques elétricos, afogamentos e muita pancadaria, foi aberto de vez em 1968, o início do período mais duro do regime militar. A partir dessa época, a tortura passou a ser amplamente empregada, especialmente para obter informações de pessoas envolvidas com a luta armada. Contando com a "assessoria técnica" de militares americanos que ensinavam a torturar, grupos policiais e militares começavam a agredir no momento da prisão, invadindo casas ou locais de trabalho. A coisa piorava nas delegacias de polícia e em quartéis, onde muitas vezes havia salas de interrogatório revestidas com material isolante para evitar que os gritos dos presos fossem ouvidos. "Os relatos indicam que os suplícios eram duradouros. Prolongavam-se por horas, eram praticados por diversas pessoas e se repetiam por dias", afirma a juíza Kenarik Boujikain Felippe, da Associação Juízes para a Democracia, em São Paulo. O pau comeu solto até 1974, quando o presidente Ernesto Geisel tomou medidas para diminuir a tortura, afastando vários militares da "linha dura" do Exército. Durante o governo militar, mais de 280 pessoas foram mortas - muitas sob tortura. Mais de cem desapareceram, segundo números reconhecidos oficialmente. Mas ninguém acusado de torturar presos políticos durante a ditadura militar chegou a ser punido. Em 1979, o Congresso aprovou a Lei da Anistia, que determinou que todos os envolvidos em crimes políticos - incluindo os torturadores - fossem perdoados pela Justiça.




Torturas usadas na Ditadura Militar Brasileira

Cadeira do dragão

Nessa espécie de cadeira elétrica, os presos sentavam pelados numa cadeira revestida de zinco ligada a terminais elétricos. Quando o aparelho era ligado na eletricidade, o zinco transmitia choques a todo o corpo. Muitas vezes, os torturadores enfiavam na cabeça da vítima um balde de metal, onde também eram aplicados choques.

Pau-de-arara

É uma das mais antigas formas de tortura usadas no Brasil - já existia nos tempos da escravidão. Com uma barra de ferro atravessada entre os punhos e os joelhos, o preso ficava pelado, amarrado e pendurado a cerca de 20 centímetros do chão. Nessa posição que causa dores atrozes no corpo, o preso sofria com choques, pancadas e queimaduras com cigarros.

Choques elétricos

As máquinas usadas nessa tortura eram chamadas de "pimentinha" ou "maricota". Elas geravam choques que aumentavam quando a manivela era girada rapidamente pelo torturador. A descarga elétrica causava queimaduras e convulsões - muitas vezes, seu efeito fazia o preso morder violentamente a própria língua.

Espancamentos

Vários tipos de agressões físicas eram combinados às outras formas de tortura. Um dos mais cruéis era o popular "telefone". Com as duas mãos em forma de concha, o torturador dava tapas ao mesmo tempo contra os dois ouvidos do preso. A técnica era tão brutal que podia romper os tímpanos do acusado e provocar surdez permanente.

Soro da verdade

O tal soro é o pentotal sódico, uma droga injetável que provoca na vítima um estado de sonolência e reduz as barreiras inibitórias. Sob seu efeito, a pessoa poderia falar coisas que normalmente não contaria - daí o nome "soro da verdade" e seu uso na busca de informações dos presos. Mas seu efeito é pouco confiável e a droga pode até matar.

Afogamentos

Os torturadores fechavam as narinas do preso e colocavam uma mangueira ou um tubo de borracha dentro da boca do acusado para obrigá-lo a engolir água. Outro método era mergulhar a cabeça do torturado num balde, tanque ou tambor cheio de água, forçando sua nuca para baixo até o limite do afogamento.

Geladeira

Os presos ficavam pelados numa cela baixa e pequena, que os impedia de ficar de pé. Depois, os torturadores alternavam um sistema de refrigeração superfrio e um sistema de aquecimento que produzia calor insuportável, enquanto alto-falantes emitiam sons irritantes. Os presos ficavam na "geladeira" por vários dias, sem água ou comida.


Na foto, uma pessoa no pau de arara.



Fonte:

http://mundoestranho.abril.com.br/materia/quais-foram-as-torturas-utilizadas-na-epoca-da-ditadura-militar-no-brasil

sábado, 3 de maio de 2014

Clube dos 27

O Clube dos 27 , também às vezes conhecido como o Para Sempre Clube 27 ou Clube 27 , é um grupo de músicos do Rock ou blues influentes que morreram aos 27 anos de idade, Os 27 anos são, no mínimo, míticos dentro do universo musical. Alguns dos grandes artistas que o mundo já conheceu coincidentemente vieram a falecer com esta idade. Além do talento inquestionável e da época da vida em que morreram, um outro fator é comum a estas estrelas: a personalidade polêmica.

Respectivamente, estão o nome, a fama, data de morte e causa oficial da morte.


1- Brian Jones

Músico multi-instrumentista, membro fundador dos Rolling Stones.

3 Julho de 1969

Afogado em uma piscina. A certidão de óbito dizia que a morte foi acidental.


2- Jimi Hendrix

Guitarrista, compositor e líder das bandas The Jimi Hendrix Experience e Band of Gypsys.

18 setembro de 1970

A autópsia mostrou que ele foi asfixiado pelo seu próprio vomito depois de uma combinação de vinho com pílulas para dormir.


3- Janis Joplin

Vocalista principal e compositora das bandas Big Brother and the Holding Company, The Kozmic Blues Band e Full Tilt Boogie Band.

4 outubro de 1970

Provável overdose de heroína.


4- Jim Morrison

Vocalista e principal compositor da banda The Doors.

3 Julho de 1971

Causa da morte foi listados como "insuficiência cardíaca", no entanto, a autópsia não foi realizada.


5- Kurt Cobain

Membro fundador, vocalista, guitarrista e compositor da banda Nirvana.

5 abril de 1994

Cometeu suicídio com um tiro na boca


6- Amy Winehouse

Cantora e compositora britânica

23 julho de 2011

Intoxicação Alcoólica


Na foto, o guitarrista Jimi Hendrix, considerado o melhor guitarrista de todos os tempos pela revista Rolling Stone.



Outros músicos que morreram aos 27 anos:

Alexandre Levy
Louis Chauvin
Robert Johnson
Nat Jaffe
Jesse Belvin
Rudy Lewis
Malcolm Hale
Dickie Pride
Alan "Blind Owl" Wilson
Arlester "Dyke" Christian
Linda Jones
Les Harvey
Ron "Pigpen" McKernan
Roger Lee Durham
Wallace Yohn
Dave Alexander
Pete Ham
Gary Thain
Cecilia
Helmut Köllen
Chris Bell
Jacob Miller
D. Boon
Alexander Bashlachev
Jean-Michel Basquiat
André Fredrik Pretorius
Pete de Freitas
Mia Zapata
Kristen Pfaff
Richey James Edwards
Stretch
Fat Pat
Freaky Tah
Sean Patrick McCabe
Rodrigo Bueno
Maria Serrano Serrano
Bryan Ottoson
Valentín Elizalde
Orish Grinstead
Lily Tembo
Johnny Ganza


Fonte: 

http://pt.wikipedia.org/wiki/Clube_dos_27