Facebook do Portal São Francisco
Google+
+ circle
Home  Entropia  Voltar

Entropia

O que é Entropia?

A palavra entropia é muitas vezes confundida com a energia. Embora sejam quantidades relacionadas, são distintas.

A entropia, por outro lado, é uma medida da "desordem" de um sistema. Que "desordem refere-se é realmente o número de diferentes estados microscópicos um sistema pode ser, uma vez que o sistema possui uma composição fixa em particular, o volume, energia, pressão e temperatura. por "estados microscópico", que significa que os estados exatas de todas as moléculas que constituem o sistema.

A idéia aqui é que apenas conhecer a composição, volume, energia, pressão e temperatura não lhe diz muito sobre o estado exato de cada molécula que compõe o sistema. Por, mesmo um pequeno pedaço de material, pode haver biliões de diferentes estados microscópicos, os quais correspondem aos da amostra com a mesma composição, o volume, a energia, a pressão e temperatura. Mas você é ignorante exatamente qual o sistema está em um determinado momento - e isso acaba por ser importante.

Por que deveria ser importante, afinal, se você conhece as propriedades a granel. Não é que tudo se costuma precisa? Acontece que há, de fato, se você quiser, por exemplo, a energia exata de dizer vapor e convertê-lo para um trabalho útil, esses detalhes acabam por ser crucial! .

Para aqueles que são tecnicamente inclinados, a definição exata é:

Entropia = (a constante de Boltzmann k) x logaritmo de número de estados possíveis K = log (N)

Uma vez que o logaritmo de um número sempre aumenta à medida que o número aumenta, vemos que os mais estados possíveis que o sistema pode estar em (dado que tem um determinado volume, a energia, a pressão e temperatura), então quanto maior for a entropia.

Mais uma vez, porque não podemos ver que determinado estado microscópico de um sistema é, muitas vezes as pessoas gostam de dizer que a entropia é a medida quantitativa de como se incerto ou é ignorante sobre o exato, detalhado estado, microscópico de um sistema. Ou, de outra forma popular de dizer isto é que a entropia mede a desordem de um sistema de microscópio.

Como um exemplo simples, suponha que você colocar uma bola de gude em uma grande caixa, e balançou a caixa de volta, e você não olhar para dentro depois.

Em seguida, o mármore pode ser em qualquer parte da caixa. Como a caixa é grande, há muitos lugares possíveis dentro da caixa que o mármore pode ser, portanto, o mármore na caixa tem uma alta entropia. Agora, suponha que você colocar a bolinha em uma pequena caixa e sacudiu a caixa. Agora, mesmo que você balançou a caixa, você sabe muito bem onde o mármore é, porque a caixa é pequena. Neste caso, dizemos que o mármore na caixa tem baixa entropia.

A mesma idéia se aplica ao regime de átomos de um gás em um frasco à temperatura ambiente. Quanto menor for o frasco, a parte inferior da entropia. Mas tenha em mente que nós também temos que considerar as velocidades das partículas de gás para ter pleno conhecimento de seus estados. Quanto maior for a temperatura do gás, mais rapidamente que as partículas de gás estão movendo-se, em média, de modo que o mais amplo intervalo de velocidades possíveis para as partículas do gás, e, por conseguinte, a mais incerteza que têm aproximadamente a velocidade de qualquer partícula particular. Assim, a temperatura mais elevada, assim como um maior volume significa maior entropia.

Cientistas dizer que a entropia, como a energia, o volume, temperatura e pressão, é outra variável de estado termodinâmico de um sistema. Acontece que, para um sistema simples, se você conhece alguma destas duas variáveis de estado, em seguida, os outros são todos determinados. Embora a palavra entropia pode parecer um conceito misterioso, não é realmente. Lembre-se que é realmente apenas uma medida do número de estados que um sistema pode ser, dadas as limitações do sistema.

O que é bom para a entropia?

Sabendo que a entropia de um sistema pode nos dizer muitas coisas sobre o que pode e não pode acontecer.

Em particular, a sua base para a segunda lei da termodinâmica: o Universo evolui de tal forma que a sua entropia total sempre permanece a mesma ou aumenta (A primeira lei da termodinâmica é a conservação de energia).

Por que isso acontece?

Na verdade, a idéia básica da entropia é simples de entender. Suponha que você está flutuando no espaço e você tem um frasco contendo um gás particular, dizer argônio. Quando você abre o frasco por um momento, o argônio quase certamente irá escapar para o espaço. Após o árgon escapou, a entropia é grandemente aumentada (e continua a aumentar à medida que o gás se expande).

Como eu sei que a entropia aumentou?

Isto ocorre porque o número de estados que o gás árgon, pode ser em quando ocupa um volume muito maior é muito maior do que quando o seu confinada ao frasco. Assim, a entropia do gás aumenta quando o argônio escapa.

Mas por que a fuga de argônio?

Bem, na verdade, antes de abrir o frasco, se você organizou os estados microscópicos das moléculas de argônio da maneira certa, você poderia abrir o frasco por um momento e não tem o escape de argônio. O ponto é que é altamente improvável que o argônio é em um desses estados não escapando especiais quando você abre o frasco - a maioria dos estados levar ao gás escapar. Este é realmente o conteúdo da segunda lei - que, se você começar a não saber o estado microscópico de um sistema, então o sistema é mais do que provável a evoluir para o estado onde você está ainda mais ignorante do seu estado microscópico exata. Basta saber as variáveis de estado termodinâmico de um sistema, tais como a sua temperatura e pressão, significa que você está de fato ignorante sobre o estado exato inicial microscópico - tudo o que você pode saber a partir de variáveis de estado é o número de possíveis estados microscópicos que pode ser, ou seja, a entropia.

Assim, para a maioria das situações que encontramos, as chances são de que a entropia aumenta com o tempo.

É muito interessante comparar o comportamento da entropia comparada com a energia. Ao contrário de energia, a entropia pode ser criado (mas não geralmente destruído). Na verdade, o seu corpo está criando alguns agora como ele gera calor. Uma das razões que a temperatura do corpo tem de ser maior do que o ar circundante, ou que você tem que suar a água, se não é, é que você tem que se livrar da entropia adicional (caso contrário, você iria se tornar desorganizado e eventualmente, morrer). A energia que os irradia corpo quente leva embora a entropia extra. Ele faz isso porque perder essa energia diminui o número de estados microscópicos que os átomos e moléculas de seu corpo pode estar dentro.

Um outro exemplo prático de entropia é o seguinte. Suponha que nós queremos usar uma fonte de calor, por exemplo, a partir de vapor gerado por aquecimento de água, para conduzir algum tipo de turbina. Em seguida, verifica-se, considerando a entropia, que a máxima eficiência de nosso processo será inferior a 100%.

A razão por que isto é assim porque, quando o calor é trazido para a turbina, leva com ele alguns entropia. Não podemos manter esta entropia na turbina, porque a turbina seria microscopicamente desordenado e, eventualmente, quebrar. Então, um pouco de energia de calor tem de ser liberado para o mundo exterior para se livrar dessa entropia para proteger a turbina. O calor libertado por esta finalidade, por conseguinte, não pode ser convertida em trabalho (de outro modo não estariam disponíveis mais para libertar a forma de calor). Nós se livrar da entropia indesejada, rejeitando esse calor para o mundo exterior a uma temperatura menor do que nós trouxemos o calor em pelo. A razão para a temperatura mais baixa é que o calor libertado em um ambiente de baixa temperatura exerce mais entropia da turbina que a entropia esta mesma quantidade de calor transporta para a turbina a uma elevada temperatura. Isso porque o calor atrapalha um sistema de frio mais do que um quente, porque o quente já é mais desordenada. Assim, só deve sacrificar um pouco do calor levada para a turbina para se livrar da entropia importados para a turbina por que o calor em primeiro lugar. Pode-se ver a partir desta discussão, no entanto, por que as usinas precisam de um ambiente de temperatura fria para despejar seu calor.

Agora, tudo isso pode parecer um pouco abstrato demais.

Aqui está outra maneira de olhar para ele: A energia cinética das moléculas de vapor é grande (porque o vapor é quente), mas as direções das moléculas são desordenadas. De alguma forma, para converter toda a energia do vapor em trabalho útil, você tem que alinhar-los todos na mesma direção (pelo menos, digamos, um de cada vez ou em grupos).

Mas você é ignorante da configuração exata em qualquer instante, certo? E mesmo se não fosse, como é que você vai chegar lá e realmente fazê-lo para cada molécula?

Claramente, a desordem é uma barreira microscópica. Isso mostra por que ser ignorante desses detalhes pode parecer pouco intuitivo, mas na verdade tem consequências reais para as coisas reais que você gostaria de fazer!

Este exemplo anterior demonstra como a energia do calor, uma vez que não pode ser totalmente convertido em energia mecânica na turbina, é, de certo modo, de menor qualidade que a energia mecânica. As pessoas têm, de fato, classificaram a qualidade de energia neste sentido para muitas fontes diferentes. Energia elétrica solar captada por células fotovoltaicas, em particular, é uma energia de muito alta "qualidade". Virtualmente todo ele pode ser convertida em energia mecânica.

Entropia também pode ser aplicada a muitas outras situações. Por exemplo, ele pode ser utilizado para prever o sentido de que uma reação química irá proceder.

Fonte: www.nmsea.org

Entropia

É um fato observado que, através do Universo, a energia tende a ser dissipada de tal modo que a energia total utilizável se torna cada vez mais desordenada e mais difícil de captar e utilizar.

Quando conduzimos uma carro a energia armazenada na gasolina é convertida em calor por combustão e, depois, em energia mecânica, no motor. A energia mecânica, ordenada, assim produzida, dá origem ao movimento controlado e ordenado do carro. Mas parte dessa energia foi irrevogavelmente dissipada sob a forma de calor, na estrada, como resultado do atrito dos pneus, no aquecimento do ar por meio da exaustão de gases e para vencer a resistência do vento.

Perdemos essa energia para sempre.

Entropia

Entropia

A extensão do estado de desordem em que esta energia se encontra é medida por uma quantidade conhecida por entropia. Quanto maior é o estado de desorganização, tanto maior é a entropia, quanto menos extensa for a desorganização, menor é a entropia. De fato, como estabelece a termodinâmica, à temperatura de zero absoluto quando todas as vibrações atômicas e movimento param, a entropia é nula, porque não há movimento desordenado.

Outro exemplo: Suponha que temos água vermelha, com tinta, e água branca, sem tinta, em um tanque, com uma separação. Removendo delicadamente a separação, a água começa dividida, vermelha de um lado e branca do outro. Com o passar do tempo, a água vai gradativamente misturando-se, e no final temos água avermelhada, com a tinta uniformemente distribuída. Agora, mesmo que observemos a mistura por um longo período de tempo, ela não vai separar-se espontaneamente.

A energia total do Universo tende a se tornar cada vez mais desordenada e, por consequência, podemos afirmar que a entropia do Universo cresce continuamente.

Estado de Equilíbrio Termodinâmico

Um certo corpo desliza sobre uma superfície plana. Devido ao atrito, a energia cinética do corpo diminui e, simultaneamente, a sua energia interna e a da superfície aumentam. A energia interna do corpo (e da superfície) é a soma das energias cinéticas do movimento desordenado (microscópico) de cada átomo que constitui esse corpo (ou essa superfície) e das energias potenciais devido às interações mútuas entre esses mesmos átomos. Cada átomo pode ficar, em princípio, com qualquer parcela da energia cinética inicial do corpo, desde que a energia total do sistema corpo + superfície permaneça constante. E como é imensamente grande o número de átomos de qualquer corpo macroscópico, a parte da energia cinética inicial do corpo em questão que fica com ele na forma de energia interna pode ser distribuída de um imenso número de modos entre seus átomos. Assim, qualquer estado do corpo em questão pode ser realizado de um número de modos microscópicos imensamente maior do que qualquer estado anterior, no qual os movimentos dos átomos são ordenados em maior grau, já que o corpo se desloca como um todo com velocidade decrescente.

A passagem espontânea, para o corpo em questão, de um estado a outro significa, com uma probabilidade extremamente grande, a passagem de um estado que pode ser realizado de um certo número de modos microscópicos a um estado que pode ser realizado de um número muito maior de modos microscópicos. E o estado mais provável é aquele que pode se realizar do maior número possível desses modos. Este é o estado de equilíbrio termodinâmico de tal corpo.

Irreversibilidade Termodinâmica

Segundo as leis de Newton, para cada movimento possível de um corpo, existe, sempre, outro movimento, inverso. Em outras palavras, se um corpo pode se deslocar no espaço segundo um movimento direto, digamos, do ponto A ao ponto B, ele também pode se deslocar do ponto B ao ponto A, passando pelos mesmos pontos do espaço e tendo, em cada ponto, a mesma velocidade que no movimento direto, só que em sentido oposto. Como exemplo, seja um projétil lançado do ponto A da superfície da Terra com uma velocidade de módulo v e fazendo um ângulo q com a horizontal. Se a resistência do ar pode ser desprezada, esse projétil atinge o ponto B da superfície da Terra com uma velocidade de módulo v e fazendo um ângulo p - q com a horizontal. Então, se o mesmo projétil é lançado do ponto B com uma velocidade de módulo v e fazendo um ângulo p - q com a horizontal, ele percorre a mesm a trajetória, só que em sentido inverso, e cai no ponto A com uma velocidade de módulo v e fazendo um ângulo q com a horizontal.

Os fenômenos termodinâmicos, por outro lado, são irreversíveis. Se um sistema termodinâmico isolado é abandonado em um certo estado de não equilíbrio, o seu novo estado, no instante seguinte, será, muito provavelmente, um estado que pode ser realizado por um número maior de modos microscópicos e a tendência do sistema é a de se aproximar cada vez mais do estado de equilíbrio termodinâmico. E, uma vez atingido tal estado de equilíbrio, é muito pouco provável que o corpo saia desse estado. A irreversibilidade dos processos termodinâmicos tem um caráter probabilístico, isto é, a passagem espontânea do sistema de um estado de equilíbrio a um estado de não equilíbrio, estritamente falando, não é impossível, mas é tanto mais improvável quanto maior o número de partículas que constituem o sistema.

Para discutir essa última afirmação, seja um recipiente dividido em duas partes iguais contendo numa delas uma certa quantidade de gás e na outra, vácuo. Ao se abrir uma passagem na parede de separação, a metade antes evacuada é preenchida com gás. O processo inverso, a saída espontânea de todo gás de uma das metades do recipiente para a outra, nunca se realiza se o número de partículas é grande. Como cada molécula do gás permanece, em média, o mesmo tempo em cada uma das duas metades do recipiente, a probabilidade de encontrar qualquer molécula numa delas é 1/2. Se o gás em questão pode ser considerado ideal, cada molécula se move independentemente das demais e a probabilidade de encontrar duas moléculas dadas na mesma metade do recipiente (1/2)2, a probabilidade de encontrar três moléculas dadas na mesma metade do recipiente é (1/2)3, etc., de modo que a probabilidade de encontrar todas as N moléculas do gás na mesma metade do recipiente é (1/2)N. Assim, se existem 100 moléculas, por exemplo, a probabilidade de encontrá-las todas na mesma metade do recipiente é (1/2)100 7,9 x 10-31. E se fosse possível medir a posição dessas 100 moléculas uma vez a cada segundo, existe uma chance a cada (1/2)-100 segundos de encontrar todas elas numa metade do recipiente, ou seja, uma chance a cada 1,27 x 1030 segundos ou uma chance a cada 4,03 x 1022 anos.

Qualquer sistema macroscópico está constituído de um número de partículas da ordem do número de Avogadro, cerca de 6 x 1023 moléculas. Portanto, a afirmativa de que não é impossível a passagem espontânea do sistema de um estado de equilíbrio a um estado de não equilíbrio, embora verdadeira, é apenas formal.

Entropia

O número de modos microscópicos com que um estado termodinâmico de um sistema pode ser realizado, e que representaremos por W, define a tendência desse sistema passar a outros estados termodinâmicos. O sistema, abandonado a si mesmo, tende a passar de um estado a outro onde W é maior.

A grandeza definida por:

S = k ln W

onde k 1,38 x 10-23 JK-1 é a constante de Boltzmann, é o que se chama de entropia do sistema. O número de modos microscópicos com que se pode realizar o estado de um sistema composto de dois subsistemas, por exemplo, é W = W1 W2, onde W1 e W2 são os números de modos microscópicos com que se pode realizar os estados dos dois subsistemas em questão.

Então:

S = k ln W = k ln [ W1 W2 ] = k ln W1 + k ln W2 = S1 + S2

Assim, a entropia de um sistema composto é a soma das entropias de suas partes. Para que esta propriedade termodinâmica da entropia seja realizada é que entra o logaritmo na definição de entropia.

Considerando uma variação infinitesimal no estado de um sistema, a correspondente variação infinitesimal de entropia (DS) se relaciona à quantidade infinitesimal de energia absorvida ou perdida na forma de calor (Q) e à temperatura absoluta (T) pela relação termodinâmica:

DS Q / T

onde a igualdade vale se a variação no estado do sistema é reversível e a desigualdade, se a variação é irreversível.

Fisicamente, essa relação se justifica do seguinte modo.

Como a energia absorvida por um sistema na forma de calor aparece como energia interna desse sistema, ou seja, aparece nos movimentos microscópicos associados aos átomos e/ou moléculas desse sistema, e isso aumenta o número de modos microscópicos com que o novo estado do sistema pode ser realizado, a variação na entropia do sistema deve ser proporcional à quantidade de energia absorvida na forma de calor: DS Q. Além disso, dada uma certa quantidade de energia Q absorvida na forma de calor, a variação da entropia do sistema deve ser tanto menor quanto maior a energia interna do sistema, e como a energia interna do corpo é medida pela sua temperatura absoluta, a variação na entropia do sistema deve ser inversamente proporcional a essa temperatura: DS T-1.

Segunda Lei da Termodinâmica

A segunda lei da Termodinâmica determina o sentido da evolução dos processos termodinâmicos. Essa lei pode ser formulada em termos da entropia.

A entropia de um sistema isolado nunca decresce: não se altera nos processos reversíveis e aumenta nos processos irreversíveis que ocorrem dentro do sistema.

O estado de equilíbrio termodinâmico do sistema é o estado de máxima entropia.

O aumento da entropia em processos irreversíveis é muito importante para dar sentido ao próprio conceito de entropia. A energia e a entropia de um sistema isolado não variam se o sistema evolui reversivelmente. Por definição, em qualquer estágio de um processo reversível, o sistema deve estar em um estado de equilíbrio termodinâmico. E como leva um certo tempo para que o sistema, uma vez perturbado, atinja um novo estado de equilíbrio termodinâmico, um processo só pode ser completamente reversível se se desenvolver muito lentamente. Isso, obviamente, nunca acontece. Por outro lado, a energia se conserva e a entropia sempre aumenta nos processos irreversíveis que ocorrem num sistema isolado. A propriedade de conservação da energia, sendo inerente a um sistema isolado, quaisquer que sejam os processos, reversíveis ou não, pelos quais passa o sistema, mostra que a energia não pode indicar o sentido da evolução de tais processos.

Mas, o aumento da entropia nos processos irreversíveis, aumento esse também inerente a um sistema isolado, mostra que a entropia pode indicar, sim, o sentido da evolução de tais processos: o estado inicial pode ser diferenciado do estado final porque este tem, necessariamente, maior entropia.

Fonte: br.geocities.com

Entropia

Entropia é a medida da "quantidade de desordem" de um sistema. Muita desordem implica uma entropia elevada ao passo que a ordem implica uma baixa entropia. Não é difícil compreender o motivo desta associação já que a entropia de uma sustância no estado gasoso é superior à entropia da mesma substância no estado líquido, que é maior que no estado sólido... E as moléculas estão mais ordenadas no estado sólido e mais dispersas e caóticas no estado gasoso, sendo o estado líquido um estado intermédio.

Do mesmo modo, numa divisão onde haja objetos espalhados desordenadamente pelo chão, a entropia é superior à da mesma divisão onde esses objetos estão arrumadinhos em locais devidamente adequados. Assim se percebe a associação entropia/desordem... Uma boa desculpa para quem se desleixa na arrumação do seu quarto! De acordo com o Segundo Princípio da Termodinâmica, a diminuição da entropia num espaço, equivale ao aumento da mesma na pessoa que gasta energia a arrumar!!!

Segundo Princípio da Termodinâmica

O Segundo Princípio da Termodinâmica diz precisamente que um sistema isolado tende a evoluir no sentido de aumentar a entropia. Aqui está a explicação para o fato de as coisas acontecerem assim e não ao contrário... É que a entropia do universo aumenta sempre e os acontecimentos inversos implicariam a diminuição de entropia!

Mas o que dizer?

Se a entropia nunca diminui como é possível a formação de gelo?

A entropia da água diminui quando ela passa ao estado sólido!!!

Será esta uma incompatibilidade da teoria?

A chave aqui é a palavra "universo". A entropia pode diminuir em algumas coisas se aumentar noutras. Assim se explica a formação de gelo! Se colocares água a 20ºC no congelador a –5ºC, o calor flui da água para o congelador, aumentando a entropia do sistema e diminuindo a entropia da água. Na verdade, a entropia total do universo aumenta.

Se a formação do gelo fosse um processo natural, o Segundo Princípio da Termodinâmica seria violado. Mas isso não acontece... O teu congelador não funciona se não lhe forneceres energia para que o motor funcione, acabando por produzir calor que se dispersa pela tua cozinha, aumentando a entropia total do universo...

O Princípio está salvo!

Quando usas uma pequena bomba manual para encher o pneu da tua bicicleta ou a tua bola de volei, estás a deslocar o ar de uma região onde está relativamente "espalhado" para um local onde é muito mais denso.

Isto representa uma diminuição de entropia, mas, tal como no frigorífico, este processo não acontece sozinho: implica um trabalho da tua parte, trabalho esse que exige energia. O produto total desse processo é o calor que acaba por aumentar a entropia do universo.

O Segundo Princípio da Termodinâmica não defende que a entropia não possa diminuir num determinado local, ela tem é de aumentar noutro lado!

Entropia vs. Energia

Um dos fatos mais curiosos do aumento da entropia do universo, atrás referido, é a consequente "degradação" da energia!

Como vimos anteriormente, sempre que ocorre uma transformação irreversível dá-se um aumento da entropia do universo, mas por outro lado perdemos a oportunidade de obter energia sob forma utilizável.... ou seja, a energia que foi convertida em trabalho para que o processo se desenrolasse, embora não tenha sido "destruída", encontra-se "degradada", não podendo mais ser utilizada para obtermos trabalho útil! Daí que quando falamos de poupança de energia estejamos a falar em poupança de energia utilizável, porque que a energia se conserva já sabemos há bastante tempo!!

Confuso?!!!??? Vamos ver um exemplo para aclarar ideias!

O "Café com Leite" (o meu exemplo favorito) vai ajudar-nos...

Se adicionarmos o café quente ao leite frio teremos um sistema irreversível que irá evoluir de forma a obter uma temperatura uniforme. Hummm... temos um "café com leite" óptimo... e não só:

Ocorreu um aumento da entropia do universo!

No entanto, existe um "mas"..... e se tivéssemos utilizado as duas frações (quente e fria) da nossa bebida para obter trabalho a partir de uma qualquer máquina térmica? Pois, afinal entropia é inversamente proporcional à energia disponível!

Sadi Carnot mostrou acreditar piamente no calórico, um fluido que passaria dos corpos "mais quentes" para os "mais frios". Carnot observou também que as máquinas térmicas eram cíclicas, voltando repetidamente ao estado inicial, e que para funcionarem precisavam não só de uma fonte quente de onde extraíam calor (caldeira), como de uma fonte fria para onde o enviavam (condensador). Assim, de acordo com o Segundo Princípio da Termodinâmica, não existe nenhuma máquina térmica que se limite a produzir trabalho.

Mas voltemos à questão do café com leite: o que aconteceu realmente na bebida?

Após a bebida estar preparada a sua temperatura tornou-se uniforme, perdemos a fonte quente (café) e a fonte fria (leite), e perdemos assim a hipótese de transformar calor em trabalho. No sistema a energia total mantêm-se de acordo com a Lei da Conservação da Energia (Primeiro Princípio da Termodinâmica) mas a entropia aumenta dado ser um sistema irreversível!!!!!!!

Voltemos agora ao universo!

Pelo que observamos do princípio do aumento da entropia, concluímos que o nosso universo, em virtude dos processos naturais, tende para um estado de desordem maior e uniformidade geral!

E que significa isso?

À medida que ocorrem esses processos a energia disponível para efetuar trabalho útil ira diminuir! Todos os processos físicos, químicos e biológicos cessarão, atingindo uma situação limite a que geralmente se dá o nome de "Morte Térmica" do universo.

Estas são as conclusões que podemos prever, a partir dos nossos conhecimentos atuais acerca da termodinâmica... no entanto não te assustes, pois uma situação extrema a ocorrer estará num futuro bem distante!!!

Fonte: www.ajc.pt

Entropia

Entropia vem do grego em (em) + trope (transformação), e, espontaneamente, a Entropia final é maior que a inicial, tendo uma variação sempre positiva. A variação positiva da Entropia indica o sentido natural para que qual quer evento ocorra.

A Entropia pode ser chamada de uma energia incapaz de realizar trabalho, e está presente em todos os processos, no sentido do aumento global da Entropia.

A perda de energia em cada processo da sua transformação, está relacionada com o aumento da Entropia. A energia é perdida, dissipada, e não temos como reaproveitá-la.

De modo geral a Entropia aumenta com a elevação da temperatura, pois de acordo com a Energia Livre de Gibbs, a energia livre é dada pela diferença da energia total e os fatores entropicos:

G=H-TS

Onde,

G = Energia Livre

H = Entalpia

T = Temperatura

S = Entropia

Segundo Erwin Schrödinger, energia é necessária para repor não apenas a energia mecânica de nossos esforços corporais, mas também o calor que liberamos continuamente no ambiente. E que liberamos calor não é acidental, mas essencial, pois é precisamente esta a maneira através da qual nos livramos do excedente de Entropia que produzimos continuamente em nosso processo de vida física.

A Termodinâmica Quântica utiliza os métodos da Mecânica Estatística para calcular os parâmetros termodinâmicos dos componentes de um sistema. Dentre esses parâmetros, estão aqueles que nos permitem relacionar a Entropia de um sistema com sua Organização e conteúdo da Informação.

Uma variação negativa, da Entropia, espontânea, implicaria no retrocesso de um evento, o evento estaria voltando no tempo, o que é improvável.

Em termodinâmica, a entropia é uma propriedade de um sistema que mede a desordem das estruturas macroscópicas. Num sistema isolado, a entropia aumenta com o tempo. Num sistema fechado, a entropia pode aumentar se entrar energia para o sistema.

Entropia (S) onde:

dS = dSt+dSp

onde:

dSt = integral(Q/dT)

Em Administração, a entropia é o excesso de eficiência das partes de um conjunto, ocorre a morte do sistema por este excesso de eficiência e pela introspecção do sistema.

Fonte: www.ifba.edu.br

Entropia

A entropia, um conceito tão rico quanto misterioso, explica, por exemplo, como a energia contida em um pedaço de carvão pode mover uma locomotiva, ou por que, para resfriar a água, a geladeira esquenta por fora. Proposta em meados da década de 1980 como caminho para generalizar a mecânica estatística usual, uma nova fórmula generaliza com sucesso a aplicação da entropia a fenômenos tão díspares quanto ciclones e moléculas gigantes.

A energia é um dos conceitos da física com aplicação mais visível no dia-a-dia. Para mover um carro, por exemplo, é necessário obter energia através da queima do combustível. Para os eletrodomésticos funcionarem, depende-se da energia elétrica. Mas nem toda a energia gerada está disponível para ser transformada em trabalho útil.

Para saber o quanto dessa energia pode ser considerada ‘livre’ – disponível para consumo –, é necessário conhecer um outro conceito: o de entropia.

A entropia está relacionada à ordem e desordem em um sistema. É ela que caracteriza o grau de organização (ou desorganização) de um sistema físico qualquer. Quanto mais desordenado o sistema, maior será sua entropia.

A imagem de uma caixa que contenha bolas nos fornece uma boa analogia para entender o conceito de entropia. Se as bolas estiverem ordenadas em um canto, a entropia será baixa, pois o grau de desorganização desse sistema é também baixo. E para se manter assim será necessário que o nosso sistema imaginário (caixa mais bolas) permaneça isolado do meio externo. Mas é muito difícil evitar que algum tipo de interação com o ambiente ocorra.

Assim, depois de uma interação qualquer com o exterior – por exemplo, uma trepidação ao ser mudada de lugar –, é bem provável que as bolas se desorganizem, pois há muito mais formas de deixar as bolas espalhadas do que de colocá- las arrumadas em um canto.

Em outras palavras: o grau de desorganização (ou entropia) de um sistema físico que interage com o exterior tende a aumentar com o passar do tempo.

UNIVERSO DESORDENADO

Algo semelhante se passa entre as bolas de nossa caixa e os sistemas físicos do universo: ambos, com o passar do tempo, tendem a se tornar cada vez mais desorganizados – e isso, conseqüentemente, representa aumento da entropia.

Há situações específicas em que a entropia pode diminuir em um sistema físico. No entanto, qualquer redução é imediatamente compensada por seu aumento proporcional – ou até maior – em outra parte do sistema. Em uma geladeira, por exemplo, o resfriamento no interior faz com que entropia desse sistema diminua, pois o calor faz com que os átomos e moléculas fiquem mais agitados, em maior desordem. Porém, esse fato é amplamente compensado pelo aquecimento do eletrodoméstico por fora, o que representa um aumento de entropia em outra região do mesmo sistema.

FÓRMULA CLÁSSICA SURGIU NO SÉCULO 19

O conceito de entropia surgiu na época da máquina a vapor, proposto pelo prussiano Rudolf Emmanuel Clausius (1822-1888) para explicar o máximo de energia que poderia ser transformada em trabalho útil. Mais tarde, a entropia foi relacionada à ordem e desordem de um sistema, idéia aproveitada pelo físico austríaco Ludwig Boltzmann (1844-1906) na elaboração da primeira expressão a descre ver microscopicamente o conceito.

Mesmo sem ter certeza da existência de átomos e moléculas – cuja existência só viria a ser confirmada experimentalmente na primeira década do século 20, principalmente pelos trabalhos do físico francês Jean Perrin (1870-1942) –, Boltzmann propôs a fórmula baseando-se nas evidências da existência desses elementos. No entanto, sua equação não encontrou apoio imediato. Transtornado pela resistência de alguns colegas em aceitá-la ou mesmo em reconhecer a teoria atômica, Boltzmann suicidou-se em 1906 – a fórmula foi gravada no seu túmulo.

A equação de Boltzmann havia sido retomada pelo professor de física matemática americano Josiah Gibbs (1839- 1903), da Universidade de Yale (Estados Unidos). Ele propôs uma nova fórmula, mais abrangente, que inclui certos tipos de interações entre as moléculas.

A chamada fórmula de Boltzmann- Gibbs tem sido usada pelos físicos por cerca de 120 anos. Desde 1988, no entanto, uma nova equação, desenvolvida no CBPF, tem se mostrado ex tremamente eficiente como uma generalização das idéias dos cientistas pioneiros nessa área.

Fonte: portal.cbpf.br

Entropia

Do grego entrope. O mesmo que energia degradada ou que desordem molecular.

A medida para se determinar a variação, dispersão e diversidade. Em termodinâmica, a grandeza que permite avaliar a degradação da energia de um sistema.

Nestes termos, a energia está no seu máximo quando, por exemplo, as moléculas de um gás têm todas o mesmo nível de energia. A lei da entropia foi descoberta por Rudolf Clausius nos finais do século XIX, traduzindo a existência de uma nova grandeza variável da energia... a quantidade de energia que, sendo gasta numa mudança, é irrecuperável pelo sistema e fica para sempre na zona do desperdício no balanço da energia do Universo.

Para Teilhard de Chardin, a entropia é o nome dado pela física a esta queda, aparentemente inevitável, em consequência da qual os conjuntos corpusculares (sedes de todos os fenómenos fisico-químicos) passam, em virtude de leis estatísticas de probabilidade, para um estádio médio de agitação difusa, estado em que cessa toda a troca de energia útil, na escala da nossa experiência.

Segundo CLAUDE CUÉNOT, Aventura e Visão de Teilhard de Chardin, trad. port., de Camilo Martins de Oliveira, Lisboa, Moraes, 1966,  para Teilhard, num sistema termicamente isolado, todas as mudanças espontâneas se fazem num sentido irreversível. Há, pois, aumento da entropia, isto é, da involução do sistema (princípio da degradação da energia). Mais simplesmente, este princípio exprime a tendência, que todo o sistema tem, para evoluir para estados de maior probabilidade.

Para Georges Balandier, trata-se da morte de um grupo, quando este é sufocado pela ação de forças internas de destruição ou por contato com uma sociedade exterior mais forte.

Fonte: www.iscsp.utl.pt

Entropia

A noção de entropia é extremamente importante em física; seu uso nas teorias da informação e da comunicação tem levado a intensas polêmicas. Vejamos primeiro seu sentido físico, e depois seu sentido informacional.

A entropia está fisicamente associada ao processo termodinâmico da transformação do calor em trabalho. O processo inverso, estudado por Benjamin Thompson, Conde Rumford na Baviera (1798) e por James Prescott Joule (1840 e 1849), levou ao "princípio de Mayer" (1842), que se tornou na Primeira Lei da Termodinâmica, e que postula a conservação da energia no universo. Reduzido a dimensões práticas, o princípio de Mayer afirma que podemos transformar trabalho em calor com uma eficiência (teórica) de 100%; no entanto, sabe-se que a transformação inversa, do calor em trabalho, apresenta eficiências muito inferiores a esta eficiência total. Fazendo investigações a respeito, em 1824 Sadi-Carnot concebeu uma máquina (ideal) que, sem nenhuma perda por atrito, era capaz de transformar calor em trabalho mecânico.

Esta máquina funcionava num ciclo de Carnot:

1) o gás (ou vapor) retirava calor de alguma fonte quente, e se expandia sem que a sua temperatura interna se modificasse

2) em seguida, o gás se expandia mais ainda, não perdendo calor, mas sofrendo uma queda na sua temperatura (para equivaler ao trabalho mecânico de expansão realizado).

3) Resfriando-se, o gás era novamente mantido a uma temperatura constante, cedendo calor, e

4) novamente se impedindo a transmissão de calor, o gás era recomprimido até a temperatura e volume iniciais do ciclo.

A eficiência teórica desta máquina nunca chega a 100% (seus valeres máximos teóricos habituais estão na ordem de 40%; os valores reais são ainda bem inferiores, por volta de uns 20 a 25%). Num ciclo de Carnot, mostra-se como (Q2/T2) — (Q1/T1) = 0, onde Q2 é o calor cedido ao gás na etapa (1), estando o gás à temperatura T2, e Q1 é o calor cedido pelo gás na etapa (3), sendo sua temperatura igual a T1. À grandeza (Q/T) chamamos entropia, e, para um sistema a uma dada temperatura (absoluta) T, a variação da entropia, dS, é dada pela relação dS = dQ/T, onde dQ é a quantidade infinitesimal de calor aceitada ou rejeitada pelo sistema. Foi Clausius (1850) quem definiu a função S; para qualquer processo termodinâmico, Clausius mostrou que dS^, 0.

Esta expressão sintetiza a Segunda Lei da Termodinâmica: a entropia de um sistema não decresce espontaneamente, e a variação da entropia do sistema, mais a variação da entropia do universo, é sempre igual ou maior que zero.

Como compreender o que seja a entropia?

Ela está intimamente ligada à noção de tempo. Fisicamente, o tempo é tratado ou como uma "dimensão" espacial a mais ou como o parâmetro conveniente para caracterizar os diferentes estados de um sistema. No entanto, uma análise mais cuidadosa mostra que o tempo objetivo, o tempo das ciências naturais, só pode ser estruturado se lhe associamos (1) uma unidade de medida e (2) uma direção preferencial.

O tempo intuitivo parece "fluir", mas como nos é possível objetificar, manipular este fluxo?

A "medida" do tempo é dada através de processos cíclicos, isto é, através de processos que se repitam "em diferentes momentos" de nossa experiência intuitiva: o dia, o ano, as estações são os primeiros processos deste tipo que encontramos. E o "sentido" do tempo é dado pelos processos evolutivos, pelo crescimento das plantas, animais e pessoas. Num nível muito mais formal, a entropia, tendendo a aumentar, nos fornece o sentido preferencial necessário à objetificação do tempo. Uma boa discussão em torno destas questões está em. Tentando compreender o motivo desta "tendência" da entropia, Ludwig Boltzmann mostrou em 1896 que (baseando-se numa teoria atômica dos gases), S2 — S1 = k log (p2/p1), onde S2 e S1 são entropias do gás nos estados 2 e 1, respectivamente, e p2 e p1 são "probabilidades" associadas àqueles estados. A interpretação de Boltzmann — que se funda na hipótese do "caos molecular" — leva a crer que num sistema físico, a tendência seja passar-se de um estado de "menor desordem" (já que são estes os estados de menor probabilidade) para um estado de "maior desordem". Decorrem desta interpretação as considerações (perigosamente pouco fundadas) no sentido de que o universo caminharia para a "morte térmica", para um estado final de homogênea máxima desordem. O teorema de Boltzmann foi contestado (num debate clássico) por Poincaré, que mostrou como — para sistemas iguais aos considerados por Boltzmannt~e sem a restrição da hipótese do "caos molecular" — há uma tendência, no fim de um tempo calculável, a que configurações pelas quais o sistema já passou se repitam. O debate em torno do resultado de Boltzmann é, aparentemente, insolúvel dentro da teoria da termodinâmica. Um dos muitos paradoxos levantados em torno da relação de Boltzmann é o paradoxo do "demônio de Maxwell". O demônio de Maxwell seria uma criatura tão pequena quanto uma molécula, e capaz de "organizar" as partículas constituintes de um gás, deste modo violando a segunda lei da Termodinâmica. Em 1929 Leo Szilard "resolveu" este paradoxo, propondo que a diminuição de entropia do sistema poderia ser contrabalançada pelo aumento da entropia do demônio, que deveria se informar — através de alguma troca de energia com as partículas — a respeito dos estados do sistema gasoso. Na década de quarenta, quando foi desenvolvida a relação de Wiener-Shannon como uma medida da "quantidade de informação" associada a uma mensagem transmitida por um sistema de comunicação, percebeu-se a estreita analogia formal entre esta relação e aquela de Boltzmann. Uma série de teóricos, entre os quais o próprio Norbert Wiener, a partir desta analogia formal, tentou identificar a "entropia" termodinâmica à "quantidade de informação" estatística. Esta identificação — que é corrente em todas as obras de divulgação a respeito da teoria da informação — e que é proposta inclusive em trabalhos muito sérios, foi violentamente contestada, em nome de certo realismo filosófico, por Rudolf Carnap e Yehoshua Bar-Hillel, entre outros. O debate está em aberto.

A vulgarização que se fêz da noção de entropia como uma medida da "desordem" de um sistema levou inclusive à tentativa de se caracterizar a obra-de-arte como algo de maior "carga informativa" que outras formas de produção análogas: um discurso convencional não é "obra-de-arte" porque sua taxa informacional é baixa (ou porque sua entropia é alta). Assim, Caetano Veloso é "melhor" que Chico Buarque de Hollanda porque suas canções tem "maior quantidade de informações" que aquelas de Chico Buarque. Há, evidentemente, alguma coisa de grotesco em tal análise. Em primeiro lugar, quantidades de informações só são comparáveis se os constituintes elementares das diferentes mensagens forem idênticos. Ora, ninguém até hoje realizou uma "atomização" livre de críticas de uma obra de arte.

Mais ainda: uma simples análise de algumas obras de arte pode mostrar como há algo de fundamentalmente ambíguo, de essencialmente orgânico até naquilo que chamaríamos de "elemento característico" de um artista.

Por exemplo: uma cadência muito comum nas obras de Carl-Maria von Weber se transformou no tema do Venusberg do Tannhäuser de Wagner, e foi herdado por Richard Strauss nas passagens "características" das cordas em seus poemas sinfônicos (e em especial no Don Juan e no Vida de Herói).

Quer dizer: uma transição inter-temática em Weber passa a ser, com Wagner, um motivo, e em Richard Strauss é o elemento comum (o elemento que fornece a unidade de estilo) a diversos temas. Da mesma maneira, os primeiros compassos do prelúdio do Tristão e Isolda (o tema que Lavignac chama "A Confissão") levaram aos temas que abrem os adágios das duas últimas sinfonias de Bruckner, e que conduzem à desintegração tonal do quarto movimento da Nona Sinfonia de Mahler e do primeiro movimento da Décima; a história deste motivo termina, talvez, nas escalas iniciais do Concerto para Violino de Alban Berg. Uma análise cuidadosa desta evolução "orgânica" de uma figuração musical nos leva a crer como uma análise "atomística" da obra-de-arte — conforme a realizada pela teoria da informação empregada na estética — não é satisfatória a uma tentativa de compreensão do fenômeno estético.

Quer dizer: entropia não tem grande coisa a ver com arte.

Fonte: filoinfo.hyperlogos.info

Entropia

A entropia é uma grandeza termodinâmica associada ao grau de desordem de um sistema macroscópico.

Equivalentemente, mede a parte da energia que não pode ser transformada em trabalho . É uma função de estado cujo valor cresce durante um processo natural em um sistema fechado. A ideia surgiu no seguimento de uma função criada por Clausius a partir de um processo cíclico reversível.

Em todo processo reversível a integral de curva de Entropia só depende dos estados inicial e final, independente do caminho seguido.

Portanto deve existir uma função de estado do sistema, S = f (P, V, T), chamada de entropia, cuja variação em um processo reversível entre os estados inicial e final é:

Entropia

A entropia física, em sua forma clássica é dada por:

Entropia

ou, quando o processo é isotérmico:

Entropia

onde S é a entropia, Entropia a quantidade de calor trocado e T a temperatura em Kelvin.

O significado desta equação pode ser descrito, em linguagem corrente, da seguinte forma:

Quando um sistema termodinâmico passa do estado 1 ao estado 2, a variação em sua entropia é igual à variação da quantidade de calor dividido pela temperatura.

Esta grandeza permite definir a Segunda Lei da Termodinâmica. Assim, um processo tende a dar-se de forma espontânea em único sentido. Por esses motivos, a entropia também é chamada de flecha do tempo. A unidade de entropia no SI é designada por J/K'.

A Segunda Lei da Termodinâmica, uma importante lei física determina que a entropia total de um sistema termodinâmico isolado tende a aumentar com o tempo, aproximando-se de um valor máximo. Duas importantes consequências disso são que o calor não pode passar naturalmente de um corpofrio a um corpo quente, e que um moto-contínuo, ou seja, um motor que produza trabalho infinitamente, sem perdas por calor, seja impossível.

Fonte: www.aridesa.com.br

Sobre o Portal | Política de Privacidade | Fale Conosco | Anuncie | Indique o Portal