Facebook do Portal São Francisco Google+
+ circle
Home  Entropia  Voltar

Entropia

 

Entropia - O que é

A palavra entropia é muitas vezes confundida com a energia. Embora sejam quantidades relacionadas, são distintas.

A entropia, por outro lado, é uma medida da "desordem" de um sistema. Que "desordem refere-se é realmente o número de diferentes estados microscópicos um sistema pode ser, uma vez que o sistema possui uma composição fixa em particular, o volume, energia, pressão e temperatura. por "estados microscópico", que significa que os estados exatas de todas as moléculas que constituem o sistema.

A idéia aqui é que apenas conhecer a composição, volume, energia, pressão e temperatura não lhe diz muito sobre o estado exato de cada molécula que compõe o sistema. Por, mesmo um pequeno pedaço de material, pode haver biliões de diferentes estados microscópicos, os quais correspondem aos da amostra com a mesma composição, o volume, a energia, a pressão e temperatura. Mas você é ignorante exatamente qual o sistema está em um determinado momento - e isso acaba por ser importante.

Por que deveria ser importante, afinal, se você conhece as propriedades a granel. Não é que tudo se costuma precisa? Acontece que há, de fato, se você quiser, por exemplo, a energia exata de dizer vapor e convertê-lo para um trabalho útil, esses detalhes acabam por ser crucial! .

Para aqueles que são tecnicamente inclinados, a definição exata é:

Entropia = (a constante de Boltzmann k) x logaritmo de número de estados possíveis K = log (N)

Uma vez que o logaritmo de um número sempre aumenta à medida que o número aumenta, vemos que os mais estados possíveis que o sistema pode estar em (dado que tem um determinado volume, a energia, a pressão e temperatura), então quanto maior for a entropia.

Mais uma vez, porque não podemos ver que determinado estado microscópico de um sistema é, muitas vezes as pessoas gostam de dizer que a entropia é a medida quantitativa de como se incerto ou é ignorante sobre o exato, detalhado estado, microscópico de um sistema. Ou, de outra forma popular de dizer isto é que a entropia mede a desordem de um sistema de microscópio.

Como um exemplo simples, suponha que você colocar uma bola de gude em uma grande caixa, e balançou a caixa de volta, e você não olhar para dentro depois.

Em seguida, o mármore pode ser em qualquer parte da caixa. Como a caixa é grande, há muitos lugares possíveis dentro da caixa que o mármore pode ser, portanto, o mármore na caixa tem uma alta entropia. Agora, suponha que você colocar a bolinha em uma pequena caixa e sacudiu a caixa. Agora, mesmo que você balançou a caixa, você sabe muito bem onde o mármore é, porque a caixa é pequena. Neste caso, dizemos que o mármore na caixa tem baixa entropia.

A mesma idéia se aplica ao regime de átomos de um gás em um frasco à temperatura ambiente. Quanto menor for o frasco, a parte inferior da entropia. Mas tenha em mente que nós também temos que considerar as velocidades das partículas de gás para ter pleno conhecimento de seus estados. Quanto maior for a temperatura do gás, mais rapidamente que as partículas de gás estão movendo-se, em média, de modo que o mais amplo intervalo de velocidades possíveis para as partículas do gás, e, por conseguinte, a mais incerteza que têm aproximadamente a velocidade de qualquer partícula particular. Assim, a temperatura mais elevada, assim como um maior volume significa maior entropia.

Cientistas dizer que a entropia, como a energia, o volume, temperatura e pressão, é outra variável de estado termodinâmico de um sistema. Acontece que, para um sistema simples, se você conhece alguma destas duas variáveis de estado, em seguida, os outros são todos determinados. Embora a palavra entropia pode parecer um conceito misterioso, não é realmente. Lembre-se que é realmente apenas uma medida do número de estados que um sistema pode ser, dadas as limitações do sistema.

O que é bom para a entropia?

Sabendo que a entropia de um sistema pode nos dizer muitas coisas sobre o que pode e não pode acontecer.

Em particular, a sua base para a segunda lei da termodinâmica: o Universo evolui de tal forma que a sua entropia total sempre permanece a mesma ou aumenta (A primeira lei da termodinâmica é a conservação de energia).

Por que isso acontece?

Na verdade, a idéia básica da entropia é simples de entender. Suponha que você está flutuando no espaço e você tem um frasco contendo um gás particular, dizer argônio. Quando você abre o frasco por um momento, o argônio quase certamente irá escapar para o espaço. Após o árgon escapou, a entropia é grandemente aumentada (e continua a aumentar à medida que o gás se expande).

Como eu sei que a entropia aumentou?

Isto ocorre porque o número de estados que o gás árgon, pode ser em quando ocupa um volume muito maior é muito maior do que quando o seu confinada ao frasco. Assim, a entropia do gás aumenta quando o argônio escapa.

Mas por que a fuga de argônio?

Bem, na verdade, antes de abrir o frasco, se você organizou os estados microscópicos das moléculas de argônio da maneira certa, você poderia abrir o frasco por um momento e não tem o escape de argônio. O ponto é que é altamente improvável que o argônio é em um desses estados não escapando especiais quando você abre o frasco - a maioria dos estados levar ao gás escapar. Este é realmente o conteúdo da segunda lei - que, se você começar a não saber o estado microscópico de um sistema, então o sistema é mais do que provável a evoluir para o estado onde você está ainda mais ignorante do seu estado microscópico exata. Basta saber as variáveis de estado termodinâmico de um sistema, tais como a sua temperatura e pressão, significa que você está de fato ignorante sobre o estado exato inicial microscópico - tudo o que você pode saber a partir de variáveis de estado é o número de possíveis estados microscópicos que pode ser, ou seja, a entropia.

Assim, para a maioria das situações que encontramos, as chances são de que a entropia aumenta com o tempo.

É muito interessante comparar o comportamento da entropia comparada com a energia. Ao contrário de energia, a entropia pode ser criado (mas não geralmente destruído). Na verdade, o seu corpo está criando alguns agora como ele gera calor. Uma das razões que a temperatura do corpo tem de ser maior do que o ar circundante, ou que você tem que suar a água, se não é, é que você tem que se livrar da entropia adicional (caso contrário, você iria se tornar desorganizado e eventualmente, morrer). A energia que os irradia corpo quente leva embora a entropia extra. Ele faz isso porque perder essa energia diminui o número de estados microscópicos que os átomos e moléculas de seu corpo pode estar dentro.

Um outro exemplo prático de entropia é o seguinte. Suponha que nós queremos usar uma fonte de calor, por exemplo, a partir de vapor gerado por aquecimento de água, para conduzir algum tipo de turbina. Em seguida, verifica-se, considerando a entropia, que a máxima eficiência de nosso processo será inferior a 100%.

A razão por que isto é assim porque, quando o calor é trazido para a turbina, leva com ele alguns entropia. Não podemos manter esta entropia na turbina, porque a turbina seria microscopicamente desordenado e, eventualmente, quebrar. Então, um pouco de energia de calor tem de ser liberado para o mundo exterior para se livrar dessa entropia para proteger a turbina. O calor libertado por esta finalidade, por conseguinte, não pode ser convertida em trabalho (de outro modo não estariam disponíveis mais para libertar a forma de calor). Nós se livrar da entropia indesejada, rejeitando esse calor para o mundo exterior a uma temperatura menor do que nós trouxemos o calor em pelo. A razão para a temperatura mais baixa é que o calor libertado em um ambiente de baixa temperatura exerce mais entropia da turbina que a entropia esta mesma quantidade de calor transporta para a turbina a uma elevada temperatura. Isso porque o calor atrapalha um sistema de frio mais do que um quente, porque o quente já é mais desordenada. Assim, só deve sacrificar um pouco do calor levada para a turbina para se livrar da entropia importados para a turbina por que o calor em primeiro lugar. Pode-se ver a partir desta discussão, no entanto, por que as usinas precisam de um ambiente de temperatura fria para despejar seu calor.

Agora, tudo isso pode parecer um pouco abstrato demais.

Aqui está outra maneira de olhar para ele: A energia cinética das moléculas de vapor é grande (porque o vapor é quente), mas as direções das moléculas são desordenadas. De alguma forma, para converter toda a energia do vapor em trabalho útil, você tem que alinhar-los todos na mesma direção (pelo menos, digamos, um de cada vez ou em grupos).

Mas você é ignorante da configuração exata em qualquer instante, certo? E mesmo se não fosse, como é que você vai chegar lá e realmente fazê-lo para cada molécula?

Claramente, a desordem é uma barreira microscópica. Isso mostra por que ser ignorante desses detalhes pode parecer pouco intuitivo, mas na verdade tem consequências reais para as coisas reais que você gostaria de fazer!

Este exemplo anterior demonstra como a energia do calor, uma vez que não pode ser totalmente convertido em energia mecânica na turbina, é, de certo modo, de menor qualidade que a energia mecânica. As pessoas têm, de fato, classificaram a qualidade de energia neste sentido para muitas fontes diferentes. Energia elétrica solar captada por células fotovoltaicas, em particular, é uma energia de muito alta "qualidade". Virtualmente todo ele pode ser convertida em energia mecânica.

Entropia também pode ser aplicada a muitas outras situações. Por exemplo, ele pode ser utilizado para prever o sentido de que uma reação química irá proceder.

Entropia - Sistema

Uma das ideias envolvidas no conceito de entropia é que a natureza tende da ordem à desordem em sistemas isolados.

É um fato observado que, através do Universo, a energia tende a ser dissipada de tal modo que a energia total utilizável se torna cada vez mais desordenada e mais difícil de captar e utilizar.

Quando conduzimos uma carro a energia armazenada na gasolina é convertida em calor por combustão e, depois, em energia mecânica, no motor. A energia mecânica, ordenada, assim produzida, dá origem ao movimento controlado e ordenado do carro. Mas parte dessa energia foi irrevogavelmente dissipada sob a forma de calor, na estrada, como resultado do atrito dos pneus, no aquecimento do ar por meio da exaustão de gases e para vencer a resistência do vento.

Perdemos essa energia para sempre.

Entropia

A extensão do estado de desordem em que esta energia se encontra é medida por uma quantidade conhecida por entropia. Quanto maior é o estado de desorganização, tanto maior é a entropia, quanto menos extensa for a desorganização, menor é a entropia. De fato, como estabelece a termodinâmica, à temperatura de zero absoluto quando todas as vibrações atômicas e movimento param, a entropia é nula, porque não há movimento desordenado.

Outro exemplo: Suponha que temos água vermelha, com tinta, e água branca, sem tinta, em um tanque, com uma separação. Removendo delicadamente a separação, a água começa dividida, vermelha de um lado e branca do outro. Com o passar do tempo, a água vai gradativamente misturando-se, e no final temos água avermelhada, com a tinta uniformemente distribuída. Agora, mesmo que observemos a mistura por um longo período de tempo, ela não vai separar-se espontaneamente.

A energia total do Universo tende a se tornar cada vez mais desordenada e, por consequência, podemos afirmar que a entropia do Universo cresce continuamente.

Estado de Equilíbrio Termodinâmico

Um certo corpo desliza sobre uma superfície plana. Devido ao atrito, a energia cinética do corpo diminui e, simultaneamente, a sua energia interna e a da superfície aumentam. A energia interna do corpo (e da superfície) é a soma das energias cinéticas do movimento desordenado (microscópico) de cada átomo que constitui esse corpo (ou essa superfície) e das energias potenciais devido às interações mútuas entre esses mesmos átomos. Cada átomo pode ficar, em princípio, com qualquer parcela da energia cinética inicial do corpo, desde que a energia total do sistema corpo + superfície permaneça constante. E como é imensamente grande o número de átomos de qualquer corpo macroscópico, a parte da energia cinética inicial do corpo em questão que fica com ele na forma de energia interna pode ser distribuída de um imenso número de modos entre seus átomos. Assim, qualquer estado do corpo em questão pode ser realizado de um número de modos microscópicos imensamente maior do que qualquer estado anterior, no qual os movimentos dos átomos são ordenados em maior grau, já que o corpo se desloca como um todo com velocidade decrescente.

A passagem espontânea, para o corpo em questão, de um estado a outro significa, com uma probabilidade extremamente grande, a passagem de um estado que pode ser realizado de um certo número de modos microscópicos a um estado que pode ser realizado de um número muito maior de modos microscópicos. E o estado mais provável é aquele que pode se realizar do maior número possível desses modos. Este é o estado de equilíbrio termodinâmico de tal corpo.

Irreversibilidade Termodinâmica

Segundo as leis de Newton, para cada movimento possível de um corpo, existe, sempre, outro movimento, inverso. Em outras palavras, se um corpo pode se deslocar no espaço segundo um movimento direto, digamos, do ponto A ao ponto B, ele também pode se deslocar do ponto B ao ponto A, passando pelos mesmos pontos do espaço e tendo, em cada ponto, a mesma velocidade que no movimento direto, só que em sentido oposto. Como exemplo, seja um projétil lançado do ponto A da superfície da Terra com uma velocidade de módulo v e fazendo um ângulo q com a horizontal. Se a resistência do ar pode ser desprezada, esse projétil atinge o ponto B da superfície da Terra com uma velocidade de módulo v e fazendo um ângulo p - q com a horizontal. Então, se o mesmo projétil é lançado do ponto B com uma velocidade de módulo v e fazendo um ângulo p - q com a horizontal, ele percorre a mesm a trajetória, só que em sentido inverso, e cai no ponto A com uma velocidade de módulo v e fazendo um ângulo q com a horizontal.

Os fenômenos termodinâmicos, por outro lado, são irreversíveis. Se um sistema termodinâmico isolado é abandonado em um certo estado de não equilíbrio, o seu novo estado, no instante seguinte, será, muito provavelmente, um estado que pode ser realizado por um número maior de modos microscópicos e a tendência do sistema é a de se aproximar cada vez mais do estado de equilíbrio termodinâmico. E, uma vez atingido tal estado de equilíbrio, é muito pouco provável que o corpo saia desse estado. A irreversibilidade dos processos termodinâmicos tem um caráter probabilístico, isto é, a passagem espontânea do sistema de um estado de equilíbrio a um estado de não equilíbrio, estritamente falando, não é impossível, mas é tanto mais improvável quanto maior o número de partículas que constituem o sistema.

Para discutir essa última afirmação, seja um recipiente dividido em duas partes iguais contendo numa delas uma certa quantidade de gás e na outra, vácuo. Ao se abrir uma passagem na parede de separação, a metade antes evacuada é preenchida com gás. O processo inverso, a saída espontânea de todo gás de uma das metades do recipiente para a outra, nunca se realiza se o número de partículas é grande. Como cada molécula do gás permanece, em média, o mesmo tempo em cada uma das duas metades do recipiente, a probabilidade de encontrar qualquer molécula numa delas é 1/2. Se o gás em questão pode ser considerado ideal, cada molécula se move independentemente das demais e a probabilidade de encontrar duas moléculas dadas na mesma metade do recipiente (1/2)2, a probabilidade de encontrar três moléculas dadas na mesma metade do recipiente é (1/2)3, etc., de modo que a probabilidade de encontrar todas as N moléculas do gás na mesma metade do recipiente é (1/2)N. Assim, se existem 100 moléculas, por exemplo, a probabilidade de encontrá-las todas na mesma metade do recipiente é (1/2)100 7,9 x 10-31. E se fosse possível medir a posição dessas 100 moléculas uma vez a cada segundo, existe uma chance a cada (1/2)-100 segundos de encontrar todas elas numa metade do recipiente, ou seja, uma chance a cada 1,27 x 1030 segundos ou uma chance a cada 4,03 x 1022 anos.

Qualquer sistema macroscópico está constituído de um número de partículas da ordem do número de Avogadro, cerca de 6 x 1023 moléculas. Portanto, a afirmativa de que não é impossível a passagem espontânea do sistema de um estado de equilíbrio a um estado de não equilíbrio, embora verdadeira, é apenas formal.

Entropia

O número de modos microscópicos com que um estado termodinâmico de um sistema pode ser realizado, e que representaremos por W, define a tendência desse sistema passar a outros estados termodinâmicos. O sistema, abandonado a si mesmo, tende a passar de um estado a outro onde W é maior.

A grandeza definida por:

S = k ln W

onde k 1,38 x 10-23 JK-1 é a constante de Boltzmann, é o que se chama de entropia do sistema. O número de modos microscópicos com que se pode realizar o estado de um sistema composto de dois subsistemas, por exemplo, é W = W1 W2, onde W1 e W2 são os números de modos microscópicos com que se pode realizar os estados dos dois subsistemas em questão.

Então:

S = k ln W = k ln [ W1 W2 ] = k ln W1 + k ln W2 = S1 + S2

Assim, a entropia de um sistema composto é a soma das entropias de suas partes. Para que esta propriedade termodinâmica da entropia seja realizada é que entra o logaritmo na definição de entropia.

Considerando uma variação infinitesimal no estado de um sistema, a correspondente variação infinitesimal de entropia (DS) se relaciona à quantidade infinitesimal de energia absorvida ou perdida na forma de calor (Q) e à temperatura absoluta (T) pela relação termodinâmica:

DS Q / T

onde a igualdade vale se a variação no estado do sistema é reversível e a desigualdade, se a variação é irreversível.

Fisicamente, essa relação se justifica do seguinte modo.

Como a energia absorvida por um sistema na forma de calor aparece como energia interna desse sistema, ou seja, aparece nos movimentos microscópicos associados aos átomos e/ou moléculas desse sistema, e isso aumenta o número de modos microscópicos com que o novo estado do sistema pode ser realizado, a variação na entropia do sistema deve ser proporcional à quantidade de energia absorvida na forma de calor: DS Q.

Além disso, dada uma certa quantidade de energia Q absorvida na forma de calor, a variação da entropia do sistema deve ser tanto menor quanto maior a energia interna do sistema, e como a energia interna do corpo é medida pela sua temperatura absoluta, a variação na entropia do sistema deve ser inversamente proporcional a essa temperatura: DS T-1.

Segunda Lei da Termodinâmica

A segunda lei da Termodinâmica determina o sentido da evolução dos processos termodinâmicos. Essa lei pode ser formulada em termos da entropia.

A entropia de um sistema isolado nunca decresce: não se altera nos processos reversíveis e aumenta nos processos irreversíveis que ocorrem dentro do sistema.

O estado de equilíbrio termodinâmico do sistema é o estado de máxima entropia.

O aumento da entropia em processos irreversíveis é muito importante para dar sentido ao próprio conceito de entropia. A energia e a entropia de um sistema isolado não variam se o sistema evolui reversivelmente. Por definição, em qualquer estágio de um processo reversível, o sistema deve estar em um estado de equilíbrio termodinâmico. E como leva um certo tempo para que o sistema, uma vez perturbado, atinja um novo estado de equilíbrio termodinâmico, um processo só pode ser completamente reversível se se desenvolver muito lentamente. Isso, obviamente, nunca acontece. Por outro lado, a energia se conserva e a entropia sempre aumenta nos processos irreversíveis que ocorrem num sistema isolado. A propriedade de conservação da energia, sendo inerente a um sistema isolado, quaisquer que sejam os processos, reversíveis ou não, pelos quais passa o sistema, mostra que a energia não pode indicar o sentido da evolução de tais processos.

Mas, o aumento da entropia nos processos irreversíveis, aumento esse também inerente a um sistema isolado, mostra que a entropia pode indicar, sim, o sentido da evolução de tais processos: o estado inicial pode ser diferenciado do estado final porque este tem, necessariamente, maior entropia.

Entropia - Conceito

A entropia, um conceito tão rico quanto misterioso, explica, por exemplo, como a energia contida em um pedaço de carvão pode mover uma locomotiva, ou por que, para resfriar a água, a geladeira esquenta por fora. Proposta em meados da década de 1980 como caminho para generalizar a mecânica estatística usual, uma nova fórmula generaliza com sucesso a aplicação da entropia a fenômenos tão díspares quanto ciclones e moléculas gigantes.

A energia é um dos conceitos da física com aplicação mais visível no dia-a-dia. Para mover um carro, por exemplo, é necessário obter energia através da queima do combustível. Para os eletrodomésticos funcionarem, depende-se da energia elétrica. Mas nem toda a energia gerada está disponível para ser transformada em trabalho útil.

Para saber o quanto dessa energia pode ser considerada ‘livre’ – disponível para consumo –, é necessário conhecer um outro conceito: o de entropia.

A entropia está relacionada à ordem e desordem em um sistema. É ela que caracteriza o grau de organização (ou desorganização) de um sistema físico qualquer.

Quanto mais desordenado o sistema, maior será sua entropia.

A imagem de uma caixa que contenha bolas nos fornece uma boa analogia para entender o conceito de entropia. Se as bolas estiverem ordenadas em um canto, a entropia será baixa, pois o grau de desorganização desse sistema é também baixo. E para se manter assim será necessário que o nosso sistema imaginário (caixa mais bolas) permaneça isolado do meio externo. Mas é muito difícil evitar que algum tipo de interação com o ambiente ocorra.

Assim, depois de uma interação qualquer com o exterior – por exemplo, uma trepidação ao ser mudada de lugar –, é bem provável que as bolas se desorganizem, pois há muito mais formas de deixar as bolas espalhadas do que de colocá- las arrumadas em um canto.

Em outras palavras: o grau de desorganização (ou entropia) de um sistema físico que interage com o exterior tende a aumentar com o passar do tempo.

UNIVERSO DESORDENADO

Algo semelhante se passa entre as bolas de nossa caixa e os sistemas físicos do universo: ambos, com o passar do tempo, tendem a se tornar cada vez mais desorganizados – e isso, conseqüentemente, representa aumento da entropia.

Há situações específicas em que a entropia pode diminuir em um sistema físico. No entanto, qualquer redução é imediatamente compensada por seu aumento proporcional – ou até maior – em outra parte do sistema. Em uma geladeira, por exemplo, o resfriamento no interior faz com que entropia desse sistema diminua, pois o calor faz com que os átomos e moléculas fiquem mais agitados, em maior desordem. Porém, esse fato é amplamente compensado pelo aquecimento do eletrodoméstico por fora, o que representa um aumento de entropia em outra região do mesmo sistema.

FÓRMULA CLÁSSICA SURGIU NO SÉCULO 19

O conceito de entropia surgiu na época da máquina a vapor, proposto pelo prussiano Rudolf Emmanuel Clausius (1822-1888) para explicar o máximo de energia que poderia ser transformada em trabalho útil. Mais tarde, a entropia foi relacionada à ordem e desordem de um sistema, idéia aproveitada pelo físico austríaco Ludwig Boltzmann (1844-1906) na elaboração da primeira expressão a descre ver microscopicamente o conceito.

Mesmo sem ter certeza da existência de átomos e moléculas – cuja existência só viria a ser confirmada experimentalmente na primeira década do século 20, principalmente pelos trabalhos do físico francês Jean Perrin (1870-1942) –, Boltzmann propôs a fórmula baseando-se nas evidências da existência desses elementos. No entanto, sua equação não encontrou apoio imediato. Transtornado pela resistência de alguns colegas em aceitá-la ou mesmo em reconhecer a teoria atômica, Boltzmann suicidou-se em 1906 – a fórmula foi gravada no seu túmulo.

A equação de Boltzmann havia sido retomada pelo professor de física matemática americano Josiah Gibbs (1839- 1903), da Universidade de Yale (Estados Unidos). Ele propôs uma nova fórmula, mais abrangente, que inclui certos tipos de interações entre as moléculas.

Entropia - Lei da Termodinâmica

A noção de entropia é extremamente importante em física; seu uso nas teorias da informação e da comunicação tem levado a intensas polêmicas. Vejamos primeiro seu sentido físico, e depois seu sentido informacional.

A entropia está fisicamente associada ao processo termodinâmico da transformação do calor em trabalho. O processo inverso, estudado por Benjamin Thompson, Conde Rumford na Baviera (1798) e por James Prescott Joule (1840 e 1849), levou ao "princípio de Mayer" (1842), que se tornou na Primeira Lei da Termodinâmica, e que postula a conservação da energia no universo. Reduzido a dimensões práticas, o princípio de Mayer afirma que podemos transformar trabalho em calor com uma eficiência (teórica) de 100%; no entanto, sabe-se que a transformação inversa, do calor em trabalho, apresenta eficiências muito inferiores a esta eficiência total. Fazendo investigações a respeito, em 1824 Sadi-Carnot concebeu uma máquina (ideal) que, sem nenhuma perda por atrito, era capaz de transformar calor em trabalho mecânico.

Esta máquina funcionava num ciclo de Carnot:

1) o gás (ou vapor) retirava calor de alguma fonte quente, e se expandia sem que a sua temperatura interna se modificasse
2)
em seguida, o gás se expandia mais ainda, não perdendo calor, mas sofrendo uma queda na sua temperatura (para equivaler ao trabalho mecânico de expansão realizado).
3)
Resfriando-se, o gás era novamente mantido a uma temperatura constante, cedendo calor, e
4)
novamente se impedindo a transmissão de calor, o gás era recomprimido até a temperatura e volume iniciais do ciclo.

A eficiência teórica desta máquina nunca chega a 100% (seus valeres máximos teóricos habituais estão na ordem de 40%; os valores reais são ainda bem inferiores, por volta de uns 20 a 25%). Num ciclo de Carnot, mostra-se como (Q2/T2) — (Q1/T1) = 0, onde Q2 é o calor cedido ao gás na etapa (1), estando o gás à temperatura T2, e Q1 é o calor cedido pelo gás na etapa (3), sendo sua temperatura igual a T1. À grandeza (Q/T) chamamos entropia, e, para um sistema a uma dada temperatura (absoluta) T, a variação da entropia, dS, é dada pela relação dS = dQ/T, onde dQ é a quantidade infinitesimal de calor aceitada ou rejeitada pelo sistema. Foi Clausius (1850) quem definiu a função S; para qualquer processo termodinâmico, Clausius mostrou que dS^, 0.

Esta expressão sintetiza a Segunda Lei da Termodinâmica: a entropia de um sistema não decresce espontaneamente, e a variação da entropia do sistema, mais a variação da entropia do universo, é sempre igual ou maior que zero.

Como compreender o que seja a entropia?

Ela está intimamente ligada à noção de tempo. Fisicamente, o tempo é tratado ou como uma "dimensão" espacial a mais ou como o parâmetro conveniente para caracterizar os diferentes estados de um sistema. No entanto, uma análise mais cuidadosa mostra que o tempo objetivo, o tempo das ciências naturais, só pode ser estruturado se lhe associamos (1) uma unidade de medida e (2) uma direção preferencial.

O tempo intuitivo parece "fluir", mas como nos é possível objetificar, manipular este fluxo?

A "medida" do tempo é dada através de processos cíclicos, isto é, através de processos que se repitam "em diferentes momentos" de nossa experiência intuitiva: o dia, o ano, as estações são os primeiros processos deste tipo que encontramos.

E o "sentido" do tempo é dado pelos processos evolutivos, pelo crescimento das plantas, animais e pessoas. Num nível muito mais formal, a entropia, tendendo a aumentar, nos fornece o sentido preferencial necessário à objetificação do tempo. Uma boa discussão em torno destas questões está em.

Tentando compreender o motivo desta "tendência" da entropia, Ludwig Boltzmann mostrou em 1896 que (baseando-se numa teoria atômica dos gases), S2 — S1 = k log (p2/p1), onde S2 e S1 são entropias do gás nos estados 2 e 1, respectivamente, e p2 e p1 são "probabilidades" associadas àqueles estados.

A interpretação de Boltzmann — que se funda na hipótese do "caos molecular" — leva a crer que num sistema físico, a tendência seja passar-se de um estado de "menor desordem" (já que são estes os estados de menor probabilidade) para um estado de "maior desordem".

Decorrem desta interpretação as considerações (perigosamente pouco fundadas) no sentido de que o universo caminharia para a "morte térmica", para um estado final de homogênea máxima desordem. O teorema de Boltzmann foi contestado (num debate clássico) por Poincaré, que mostrou como — para sistemas iguais aos considerados por Boltzmannt~e sem a restrição da hipótese do "caos molecular" — há uma tendência, no fim de um tempo calculável, a que configurações pelas quais o sistema já passou se repitam.

O debate em torno do resultado de Boltzmann é, aparentemente, insolúvel dentro da teoria da termodinâmica. Um dos muitos paradoxos levantados em torno da relação de Boltzmann é o paradoxo do "demônio de Maxwell".

O demônio de Maxwell seria uma criatura tão pequena quanto uma molécula, e capaz de "organizar" as partículas constituintes de um gás, deste modo violando a segunda lei da Termodinâmica. Em 1929 Leo Szilard "resolveu" este paradoxo, propondo que a diminuição de entropia do sistema poderia ser contrabalançada pelo aumento da entropia do demônio, que deveria se informar — através de alguma troca de energia com as partículas — a respeito dos estados do sistema gasoso.

Na década de quarenta, quando foi desenvolvida a relação de Wiener-Shannon como uma medida da "quantidade de informação" associada a uma mensagem transmitida por um sistema de comunicação, percebeu-se a estreita analogia formal entre esta relação e aquela de Boltzmann.

Uma série de teóricos, entre os quais o próprio Norbert Wiener, a partir desta analogia formal, tentou identificar a "entropia" termodinâmica à "quantidade de informação" estatística. Esta identificação — que é corrente em todas as obras de divulgação a respeito da teoria da informação — e que é proposta inclusive em trabalhos muito sérios, foi violentamente contestada, em nome de certo realismo filosófico, por Rudolf Carnap e Yehoshua Bar-Hillel, entre outros. O debate está em aberto.

A vulgarização que se fêz da noção de entropia como uma medida da "desordem" de um sistema levou inclusive à tentativa de se caracterizar a obra-de-arte como algo de maior "carga informativa" que outras formas de produção análogas: um discurso convencional não é "obra-de-arte" porque sua taxa informacional é baixa (ou porque sua entropia é alta). Assim, Caetano Veloso é "melhor" que Chico Buarque de Hollanda porque suas canções tem "maior quantidade de informações" que aquelas de Chico Buarque. Há, evidentemente, alguma coisa de grotesco em tal análise. Em primeiro lugar, quantidades de informações só são comparáveis se os constituintes elementares das diferentes mensagens forem idênticos. Ora, ninguém até hoje realizou uma "atomização" livre de críticas de uma obra de arte.

Mais ainda: uma simples análise de algumas obras de arte pode mostrar como há algo de fundamentalmente ambíguo, de essencialmente orgânico até naquilo que chamaríamos de "elemento característico" de um artista.

Por exemplo: uma cadência muito comum nas obras de Carl-Maria von Weber se transformou no tema do Venusberg do Tannhäuser de Wagner, e foi herdado por Richard Strauss nas passagens "características" das cordas em seus poemas sinfônicos (e em especial no Don Juan e no Vida de Herói).

Quer dizer: uma transição inter-temática em Weber passa a ser, com Wagner, um motivo, e em Richard Strauss é o elemento comum (o elemento que fornece a unidade de estilo) a diversos temas. Da mesma maneira, os primeiros compassos do prelúdio do Tristão e Isolda (o tema que Lavignac chama "A Confissão") levaram aos temas que abrem os adágios das duas últimas sinfonias de Bruckner, e que conduzem à desintegração tonal do quarto movimento da Nona Sinfonia de Mahler e do primeiro movimento da Décima; a história deste motivo termina, talvez, nas escalas iniciais do Concerto para Violino de Alban Berg. Uma análise cuidadosa desta evolução "orgânica" de uma figuração musical nos leva a crer como uma análise "atomística" da obra-de-arte — conforme a realizada pela teoria da informação empregada na estética — não é satisfatória a uma tentativa de compreensão do fenômeno estético.

Quer dizer: entropia não tem grande coisa a ver com arte.

Fonte: www.nmsea.org/br.geocities.com/filoinfo.hyperlogos.info

Sobre o Portal | Política de Privacidade | Fale Conosco | Anuncie | Indique o Portal