Entropia

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Disambiguazione– Se stai cercando altri significati, vediEntropia (disambigua).

Inmeccanica statisticae intermodinamica,l'entropia(dalgreco anticoἐν?,en,"dentro" eτροπή,tropè,"trasformazione" ) è unagrandezzache viene interpretata come una misura del disordine presente in unsistema fisico.Viene generalmente rappresentata dalla letterae nelSistema Internazionalesi misura injoulefrattokelvin(J/K).

Latermodinamicaè il primo campo in cui l'entropia fu introdotta nel XIX secolo, a partire dagli studi della relazione fracaloreelavorodiWilliam RankineeRudolf Clausius.[1]L'entropia è unafunzione di statodi un sistema inequilibrio termodinamico,che, quantificando l'indisponibilità di un sistema a produrrelavoro,si introduce insieme con ilsecondo principio della termodinamica[2].In base a questa definizione si può sostenere, in forma non rigorosa ma esplicativa, che quando un sistema passa da unostato di equilibrioordinatoa unodisordinatola sua entropia aumenta; questo fatto fornisce l'indicazione sulla direzione in cui evolve spontaneamente un sistema, quindi anche lafreccia del tempo(come già affermato daArthur Eddington[3]).

È tuttavia bene notare che esiste una classe di fenomeni, dettifenomeni non lineari(ad esempio i fenomenicaotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale.[senza fonte]

L'approccio molecolare dellameccanica statisticageneralizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema[4].

Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come lescienze sociali,lateoria dei segnali,lateoria dell'informazione,acquisendo una vasta popolarità.

Il concetto di entropia fu introdotto agli inizi delXIX secolo,nell'ambito della termodinamica, per descrivere una caratteristica (la cui generalità fu osservata per la prima volta daSadi Carnotnel 1824) di tutti i sistemi allora conosciuti, nei quali si osservava che le trasformazioni avvenivano spontaneamente in una sola direzione, quella verso il maggior disordine.

In particolare, il termine "entropia" fu introdotto daRudolf Clausiusnel suoAbhandlungen über die mechanische Wärmetheorie(Trattato sulla teoria meccanica del calore), pubblicato nel 1864. IntedescoEntropiederiva dalgrecoἐνen,"dentro", e da τροπήtropé,"cambiamento", "punto di svolta", "rivolgimento" (sul modello diEnergie,"energia"): per Clausius indicava dove va a finire l'energia fornita a un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione delsecolo dei Lumi,che in qualche modo il calore dovesse riferirsi al movimento meccanico di particelle interne al corpo. Egli infatti la definì come il rapporto tra la somma dei piccoli incrementi (infinitesimi) dicalore,divisa per latemperatura assolutadurante il cambiamento di stato.

Il concetto di entropia ha conosciuto grandissima popolarità nell'Ottocento e nel Novecento, grazie alla grande quantità di fenomeni che aiuta a descrivere, fino a uscire dall'ambito prettamente fisico ed essere adottato dalle scienze sociali, nellateoria dei segnali,nell'informatica teoricae nell'economia.

Descrizione intuitiva

[modifica|modifica wikitesto]
La fusione delghiaccioavviene con aumento dell'entropia.

Il concetto di entropia è piuttosto complesso e, per comprendere appieno il suo significato, è necessaria almeno una conoscenza di base dellatermodinamicae dellameccanica statistica;esistono infatti almeno due definizioni dell'entropia: una definizione macroscopica, fornita dalla termodinamica, e una definizione microscopica, fornita dalla meccanica quantistica.

È possibile comunque introdurre il concetto, seppur in maniera estremamente semplificata, attraverso alcuni esempi tratti dall'esperienza comune:

  • Se facciamo cadere una goccia d'inchiostro in un bicchiere d'acqua,possiamo osservare che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che era quindi uno stato completamente ordinato), l'inchiostro comincia adiffonderee, in un certo tempo, determina una miscela uniforme (stato completamente disordinato). È esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso, ovvero separare l'acqua e l'inchiostro, richiede energia esterna.
  • Immaginiamo un profumo contenuto in una boccetta colma come un insieme dimolecolepuntiformi dotate di una certavelocitàderivante dallatemperaturadel profumo. Fino a quando la boccetta è tappata, ossia chiusa (non vi è scambio di materia) con il resto dell'universo, le molecole sono recluse all'interno e, non avendo spazio perché la boccetta è colma, esse rimangono abbastanza ordinate (stato liquido); ma nel momento in cui si stappa la boccetta, le molecole della superficie del liquido cominciano a staccarsi dalle altre e, urtando casualmente tra di loro e contro le pareti della boccetta, escono da questa disperdendosi all'esterno (evaporazione). Dopo un certo tempo, tutte le molecole saranno uscite e si saranno disperse. A quel punto, anche se casualmente qualche molecola fosse rientrata nella boccetta, il sistema complessivo è ormai disordinato e l'energia termicache ha messo in moto il fenomeno è dispersa e quindi non più recuperabile (si ha unequilibrio dinamico).

Analogia al disordine

[modifica|modifica wikitesto]

Un'altra interpretazione semplificata, ma molto popolare, dell'entropia è quella del "grado di disordine" di unsistema:un aumento del "disordine" di un sistema è associato a un aumento di entropia, mentre una diminuzione del "disordine" di un sistema è associata a una diminuzione di entropia. È necessario però chiarire che il disordine è relativo e, per questo, la spiegazione semplificata non è equivalente a quella esatta; ciò però serve a rappresentare il concetto.

Per maggiore chiarezza, nella figura seguente sono mostrate tre configurazioni dello stesso sistema, costituito da 24 oggetti, in cui si ha un aumento di disordine (cioè un aumento di entropia) andando da sinistra a destra e una diminuzione di disordine (cioè una diminuzione di entropia) andando da destra a sinistra.

Rappresentazione del grado di disordine di un sistema: sistema ordinato (a), con basso grado di disordine (b) e disordinato (c).

Nella figura seguente è rappresentato un esempio pratico in termodinamica, in cui si assiste a un aumento di disordine (cioè un aumento di entropia). In questo caso gli "oggetti" sono delle molecole di due gas (ogni gas è contraddistinto da un colore diverso); ad esempio, si supponga che le sferette blu siano molecole di ossigeno e le sferette rosse siano molecole di azoto.

Rappresentazione di un sistema (costituito da due gas differenti) in cui si ha aumento di entropia.

Inizialmente i gas sono situati in due compartimenti stagni; per cui in ciascun compartimento sono presenti solo molecole dello stesso tipo di gas. Se i due compartimenti sono messi in comunicazione (ad esempio aprendo unavalvola), i due gas si mescolano tra di loro e si ha un aumento di disordine, ovvero un aumento di entropia (che in tal caso viene detta "variazione di entropia di miscelamento" ).

Nell'esempio precedente si è assistito ad un aumento di entropia "spontaneo" (è bastato infatti mettere in comunicazione i due compartimenti). Tale aumento di entropia spontaneo avviene sempre in natura, mentre non avviene una diminuzione di entropia spontanea. Tale constatazione empirica si traduce nel fatto che le configurazioni "disordinate" sono le più probabili e corrisponde al cosiddetto "Secondo principio della termodinamica".

Altri sistemi che possono assumere diversi gradi di disordine sono imaterialimetallici.Essi infatti possono assumere le seguenti strutture:

  • struttura cristallina (ordinata): gli atomi sono disposti in maniera ordinata; una struttura cristallina è formata da diverse "celle" tutte uguali tra loro, che si ripetono nello spazio; si parla in questo caso di "ordine a lungo raggio";
  • struttura policristallina (parzialmente ordinata): si riscontrano più "cristalli" (strutture ordinate) all'interno del materiale; si parla in questo caso di "ordine a corto raggio";
  • struttura amorfa (disordinata): gli atomi sono disposti in maniera completamente disordinata; non si ha né ordine a corto raggio né ordine a lungo raggio.
Possibili strutture di un materiale metallico: struttura cristallina (a sinistra), struttura policristallina (al centro) e struttura amorfa (a destra).

Il disordine delle strutture dei materiali metallici aumenta anche in presenza dei cosiddetti "difetti cristallini"(tra cui l'inclusione di atomi di altro tipo o la mancanza di un atomo in una posizione del reticolo), la cui presenza determina un aumento del contenuto entropico del materiale.

Descrizione rigorosa

[modifica|modifica wikitesto]

Energia ed entropia

[modifica|modifica wikitesto]

Assumendo che l'intero universo sia unsistema isolato- ovvero un sistema per il quale è impossibile scambiare materia ed energia con l'esterno - ilprimoe ilsecondo principio della termodinamicapossono essere riassunti come segue:

l'energiatotale dell'universo è costante e l'entropia totale è in continuo aumento, fino a raggiungere un equilibrio

affermazione valida per qualsiasi sistema isolato.

Ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si può completamente trasformare da una forma in un'altra senza che una parte venga dissipata sotto forma di calore. Ovvero l'energia utilizzata si trasforma in energia sempre meno utilizzabile.

Se per esempio si brucia un pezzo dicarbone,la sua energia si conserva e si converte in energia contenuta nell'anidride carbonica,nell'anidride solforosae negli altri residui di combustione, oltre che in forma di calore. Sebbene nel processo non si sia perduta energia, non possiamo invertire il processo dicombustionee ricreare dai suoi scarti il pezzo di carbone originale.

Ilsecondo principio della termodinamicapuò quindi essere così ridefinito: «È impossibile realizzare unatrasformazioneil cui unico risultato sia la conversione inlavorodi tutto ilcaloreassorbito da una sorgente omogenea» (formulazione di Kelvin-Planck).

Lo stato in cui l'entropia raggiunge il massimo valore e non c'è piùenergia liberadisponibile per compiere lavoro è detto stato di equilibrio. Per l'intero universo, concepito come sistema isolato, ciò significa che la progressiva conversione di lavoro in calore (per il principio di aumento dell'entropia totale), a fronte di una massa dell'universo finita, porterà infine a uno stato in cui l'intero universo si troverà in condizioni di temperatura uniforme; la cosiddettamorte termica dell'Universo.

L'entropia caratterizzail verso( da bassa entropia ad alta entropia) di qualunque trasformazione reale come trasformazione irreversibile: infatti anche tornando da uno stato finale a uno identico allo stato iniziale per temperatura, volume, pressione o altri parametri, come continuamente avviene nei cicli di una macchina termica, almeno una variabile fisica differirebbe dal punto da cui si è partiti: l'entropia (che inevitabilmente è aumentata).

Ogni trasformazione reale è una trasformazione irreversibile perché l'entropia aumenta; viceversa l'ipotesi di idealità equivale all'ipotesi di una variazione d'entropia nulla.

Postulato dell'entropia

[modifica|modifica wikitesto]

Una proprietà fondamentale afferma che in un sistema isolato l'entropiadi sistema non diminuisce mai e, durante un ordinario processo irreversibile, aumenta. La dimostrazione si basa sulsecondo principio della termodinamica.Si consideri un sistema isolato sia meccanicamente sia termicamente che, a causa di una perturbazione interna, si porta da uno statoa uno stato.Essendo l'entropia una funzione di stato (per definizione la variazione della stessa non dipende dal percorso seguito, ma solo dallo stato iniziale e finale) è possibile concepire unprocesso reversibileche ci riporti daa.Per ladisuguaglianza di Clausiussi ha:

Ma questa circuitazione può essere spezzata nella somma dei due integrali, dallo statoale viceversa:

Il primo integrale è nullo poiché il processo èadiabatico,ovvero essendo il sistema isolato durante la perturbazione interna che lo porta dallo stato 1 a quello 2, allora non subisce trasferimenti di calore con l'esterno. Il secondo integrale si può scrivere nella forma:

Allora:

Ovvero:

Definizione termodinamica

[modifica|modifica wikitesto]

La variazione della funzione di stato entropiavenne introdotta nel 1864 daRudolf Clausiusnell'ambito dellatermodinamicacome:[5]

doveè la quantità dicaloreassorbita o ceduta in manierareversibileeisotermadal sistema atemperatura.

In forma differenziale, la legge si presenta così:[6]

Anche senon è undifferenziale esatto,dividerlo per la temperaturalo rende tale:è dunque ilfattore d'integrazione.Inoltre,è un differenziale esatto se e solo se è valido ilsecondo principio della termodinamica.

In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in unsistema isolatol'entropia può solo aumentare, o al limite rimanere costante per cicli termodinamici reversibili.

Trasformazione reversibile isoterma

[modifica|modifica wikitesto]

Essendo per ungas idealel'energia internafunzione della sola temperatura, in condizioni isoterme,quindi applicando ilprimo principio della termodinamicaabbiamo l'eguaglianza del calore e del lavoro scambiati, ovvero:

ne segue che per una trasformazione tra gli statiein assenza dilavoroisocoro,abbiamo:

[7]

per una mole di gas ideale, dallaequazione di stato dei gas perfetti:

ovvero:

quindi:

Possiamo riscrivere l'equazione sopra in funzione della pressione, se consideriamo che in questo particolare caso (trasformazione isoterma reversibile di un gas ideale) [8].

ovvero:

quindi:

Trasformazione reversibile isocora

[modifica|modifica wikitesto]

Dalla definizione di entropia:

in cuiè ilcalore specificomolare a volume costante (funzione della temperatura) eè la sua media tra le temperaturee.

Per cui, per una mole di gas perfetto:

Trasformazione reversibile isobara

[modifica|modifica wikitesto]

Seguendo la stessa procedura, possiamo scrivere:

in cuiè il calore specifico molare a pressione costante (funzione della temperatura) eè la sua media tra le temperaturee.

Per cui, per una mole di gas perfetto:

Trasformazione reversibile

[modifica|modifica wikitesto]

Essendo l'entropia unafunzione di stato,considerando una qualsiasi trasformazione reversibile da uno statoa uno,con definitepressione,temperaturaevolumeoccupato, è possibile calcolare la variazione di entropia eseguendo l'integrale diClausius

su un qualsiasi camminoreversibile,ad esempio sulla composizione di unaisocorareversibile con unaisotermareversibile. Si ottiene pernmoli (dipendentemente solo dagli statie):

da cui, applicando la nozione difunzione di statosi ottiene una formulazione analitica per l'entropia in funzione delle variabili di stato, a meno di una costante additiva:

Essa è equivalente, tramite l'equazione di stato dei gas perfetti,alle altre due forme, talvolta utili, definite sempre a meno di una costante additiva:

In cuiè ilcoefficiente della politropica. Si nota così che nelletrasformazioni adiabatichereversibili l'entropia rimane costante (sono per questo anche dette isoentropiche).

Sistemi materiali

[modifica|modifica wikitesto]

Per calcolare l'entropia associata a sistemi materiali è possibile effettuare unaintegrazioneche tenga conto anche dei contributi dovuti ai passaggi di stato. Per una sostanza gassosa ad una temperatura,l'entropia molare si può ricavare da

dove,,sono rispettivamente icalori specificidella sostanza allo stato solido, liquido e gassoso mentre,sono rispettivamente ilcalore latentedifusionee il calore latente diebollizione.

Definizione quantistica

[modifica|modifica wikitesto]

Mentre nella visione termodinamica l'entropia è sempre espressa in termini di variazione, e mai in termini assoluti, inmeccanica quantisticaè possibile definire l'entropia in termini assoluti, ad esempio attraverso l'entanglement.

Si considerino due sistemie,ognuno con associato unospazio di Hilbert,.Lo stato del sistema composito è allora:

In generale, non è possibile associare unostato puroal componente.Tuttavia è comunque possibile associarvi unamatrice di densità.Sia definito l'operatore proiezione

.

Lo stato diè latraccia parzialedisulle basi del sistema:

.

Ad esempio, per lo statoentangled"classico" die,ognuno composto da due stati puri "0" e "1"

la matrice densità è

e la matrice densità dello stato puro diè

ossia semplicemente l'operatore proiezione di.Da notare che la matrice densità del sistema composto,,ha la stessa forma. Ciò non sorprende, in quanto lo stato entangled classico è uno stato puro.

Data una matrice di densità qualsiasi,,possiamo calcolare la quantità

doveè lacostante di Boltzmann,e la traccia è presa sullo spazioin cui è definita.Risulta cheè esattamente l'entropia del sistema corrispondente a.

L'entropia di ogni stato puro è zero, in quanto non vi è indeterminazione sullo stato del sistema. L'entropia di ciascuno dei due sottosistemieentangled è semplicemente,il massimo ammissibile per un sistema a due stati.

Se il sistema nel suo complesso è puro, l'entropia di ogni sottosistema può essere usata per misurarne il grado di "entanglement" con gli altri sottosistemi.

Si può anche mostrare come glioperatori unitariche agiscono su uno stato, come ad esempio l'operatore di evoluzione temporale ottenuto dall'equazione di Schrödinger,lasciano invariata l'entropia. Si associa dunque la reversibilità di un processo alla sua variazione di entropia, confermando dunque la teoria termodinamica e, contemporaneamente, l'entropia di un segnale secondo lateoria dell'informazione.

Definizione statistica

[modifica|modifica wikitesto]

Inmeccanica statisticalo studio sull'entropia è un tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che a una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema, definito da precisi valori di grandezze come pressione e temperatura) corrispondano diverse configurazioni microscopiche (stati dinamici o microstati, definiti solo se si conoscono posizione e velocità di tutte le molecole del sistema).

Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con.Allora possiamo definire l'entropia secondo il principio di Boltzmann come:[5][9]

doveè lacostante di Boltzmann.

Possiamo definirecome la misura dell'insieme di tutte le possibili disposizioni (o probabilità a livello macroscopico) dei livelli molecolari:rappresenta quindi il numero di stati totali accessibili al sistema alla temperatura.Questa misura tiene conto dell'indistinguibilità tra le particelle introducendo il fattore correttivo di Gibbs.

Per capire il significato fisico diprendiamo in esempio un caso dientropia per miscelamentoriferendoci a un cristallo di atomi.Supponiamo di inserire atomi(simili in dimensione e dal punto di vista elettronico) nei siti diper semplice sostituzione: in questo modo abbiamo un numero di atomie un numero di atomiche si distribuiscono nei sitidel cristallo. Man mano che introduciamo gli atominei siti diaumenta il numero delle configurazioni possibili tra gli atomie,cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazionicorrisponde al numero di modi possibili di distribuire a casoeoggetti susiti e vale:

In generale, se nel cristallo di A vengono introdotti diversi tipi di atomisimili(,,ecc.), il numero massimo di configurazioni possibili vale:

A temperature ordinarie, nei gas, queste disposizioni seguono ladistribuzione di Maxwell-Boltzmann,ma l'approccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige l'indistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allozero assoluto,le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella diFermi-Diraco diBose-Einstein(a seconda del fatto che ricadano o meno sotto ilprincipio di esclusione di Pauli).

La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del 1896, si è dimostrata l'espressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per l'entropia in termodinamica classica.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica e in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale a una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) diagitazione molecolare.

Dall'equazione,con alcune considerazioni combinatorie sue dalladistribuzione di Boltzmanndegli stati possibili, si giunge alla:

doveè latemperatura,energia termica,costante dei gas,lafunzione di partizione,elacostante di Avogadro.
La formula torna utile per il calcolo dinei gas.

Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto a una delle sue variabili naturali,e(energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sull'ipotesi ergodicache postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sull'ensemble -Gibbs- ).

Entropia di Gibbs

[modifica|modifica wikitesto]

Lo stato macroscopico di un sistema è descrivibile dalla distribuzione di una serie dimicrostati.L'entropia di questo sistema è calcolata con la formula diWillard Gibbs.
Per un sistema dellafisica classica(es. una collezione di particelle) avente un numerodiscretodi microstati, se indichiamo conl'energia dell'i-esimo microstato, e conla relativa probabilità che si verifichi durante le fluttuazioni del sistema, allora l'entropia di tale sistema è data da:

,

dove:
la quantitàè la costante di Boltzmann, che, come l'entropia, è misurata in unità dicapacità termica,mentre illogaritmoè un numero adimensionale.
Questa entropia è chiamata indifferentemente ancheentropia statistica,oppureentropia termodinamica.Tale formula è la versionediscretadell'Entropia di Shannon.L'entropia di von Neumann è a sua volta unaestensionedell'Entropia di Gibbs al fenomenoquanto-meccanico.
È stato dimostrato[10]che l'Entropia di Gibbs è del tutto equivalente alla definizione classica di entropia:

Equazione di bilancio

[modifica|modifica wikitesto]

In unsistema isolato,ilsecondo principio della termodinamicaasserisce che l'entropia può solo aumentare. In unsistema aperto,in cui quantità come calore, energia e massa possono fluire verso e dall'esterno, l'entropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere unaequazione di bilancio.

Un sistema aperto è generalmente definito da unvolume di controllo,ovvero una porzione dello spazio che determina il sistema in esame. Tutto ciò che non è contenuto in questo volume è esterno al sistema. L'entropia del sistemavaria nel tempo, e la suaderivataè determinata da un'equazione di bilancio del tipo

dove,denotano rispettivamente la corrente di entropia netta e quella generata all'interno del sistema. Tutte queste quantità sono derivate temporali. In una equazione di bilancio normalmente il secondo termine può essere negativo, qui invece no conformemente alsecondo principio della termodinamica.

I termini di bilancio possono essere esplicitati nel modo seguente:

In questa espressione ciascuna delle correnti di entropiaè spezzata in due addendi:

  • iltermine conduttivotiene conto dello scambio di calorecon una sorgente termica esterna a temperatura.
  • iltermine convettivotiene conto della variazione di entropia dovuta a masse entranti o uscenti dal sistema; il termineindica la variazione di massa el'entropia per unità di massa;

In unsistema chiusoil termine convettivo è nullo, per cui la relazione diventa:

In unsistema isolatosi annullano anche i termini entropici legati al flusso termico, per cui:

Il concetto di entropia in altri campi

[modifica|modifica wikitesto]

Teoria dell'informazione

[modifica|modifica wikitesto]
Lo stesso argomento in dettaglio:Entropia (teoria dell'informazione).

Si deve aClaude Shannonlo studio dell'entropia nella teoria dell'informazione, il suo primo lavoro sull'argomento si trova nell'articoloUna teoria matematica della comunicazionedel 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media.

Nellateoria dell'informazione- e in rapporto allateoria dei segnali- l'entropia misura dunque la quantità di incertezza o informazione presente in un segnale aleatorio, che può essere interpretata anche come la minima complessità descrittiva di unavariabile aleatoria,ovvero il limite inferiore della compressione dei dati. La connessione con l'entropia termodinamica sta allora nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi l'aumento della compressione. L'entropia dell'informazione raggiunge un minimo, che in generale è diverso da zero, al contrario dell'entropia termodinamica (vediterzo principio della termodinamica).

Tale risultato era implicito nella definizionestatisticadell'entropia diJohn von Neumann,anche se lo stesso Von Neumann, interrogato al riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione. Come ricordò Shannon più tardi a proposito del risultato da lui trovato:

«La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarlainformazione,ma la parola era fin troppo usata, così decisi di chiamarlaincertezza.Quando discussi della cosa con John Von Neumann, lui ebbe un'idea migliore. Mi disse che avrei dovuto chiamarlaentropia,per due motivi: "Innanzitutto, la tua funzione d'incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l'entropia,così in una discussione sarai sempre in vantaggio "»

Lo stesso argomento in dettaglio:Entropia (economia).

Georgescu-Roegenapplicando il secondo principio della termodinamica all'economia,e in particolare all'economia della produzione, ha introdotto una teoria economica che discute i fondamentali delladecrescita:ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) l'entropia del sistema-Terra:tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato sull'ambiente[11].

Un'altra formulazione dell'entropia nei sistemi economici si ritrova nel moto di propagazione e diffusione dell'informazione nel mercato finanziario. Quest'ultimo, grazie alla sua funzione di formazione dei prezzi, facilita la quantificazione del processo di scambio, il quale è inestricabilmente legato all'informazione disponibile. L'informazione nel mercato si diffonde su base probabilistica, esattamente come in termodinamica, ovvero è infinitamente più probabile che la particella di informazione venga "sfruttata" per lo scambio, e dunque trasmessa al mercato e agli altri agenti, piuttosto che essa rimanga concentrata o in forma statica[12],e il motivo risiede nella natura dell'informazione. Per informazione si intende in sostanza ogni evento del mondo capace di persuadere un movimento nel prezzo di un indice azionario, evento che è portato ad esprimersi in termini di prezzo grazie alla mediazione interpretativa degli investitori. Vista la natura del sistema, in cui l'interesse economico vige, e l'informazione è ciò che permette agli agenti di prendere decisioni, allora chiunque riceverà nuova informazione sarà motivato ad iniettarla nel mercato offrendo un prezzo, affinché il suo vantaggio informativo si converta in rendimento. Questo si traduce in una maggiore probabilità che l'informazione nuova venga sfruttata dagli investitori, e dunque incorporata nei prezzi correnti dei titoli. L'entropia è dunque utilizzata come descrizione del meccanismo per cui l'informazione tende sempre alla diffusione e poi ad omogeneizzarsi, esattamente come una goccia d'inchiostro in un bicchiere d'acqua. L'equilibrio terminale di un tale processo risiede nell'efficienzainformativa, cioè quando tale informazione non potrà più essere sfruttata per ottenere extra-rendimenti. L'entropia nel mercato è un fenomenoemergenteche aumenta di precisione e velocità in funzione del numero di agenti.

Ad elevata entropia è associato un maggior grado di efficienza del mercato, sia in termini di rapidità con cui lo stesso integra l'informazione, sia in termini di imprevedibilità. Questo perché se il numero di agenti "interpretativi" è maggiore, presupposto necessario per l'entropia, allora aumenterà la variabile "rumore" data dalla differenza netta di interpretazione di tale informazione. Se ogni agente possiede diverse caratteristiche in termini di avversione al rischio, dotazione di capitali, conoscenze pregresse, orizzonte temporale, ecc., allora anche il suo modo di interpretare l'informazione sarà diverso. Questa diversità si trasmette al mercato offrendo prezzi diversi anche in virtù di una stessa informazione, generando rumore,casualitànei movimenti azionari e dunque imprevedibilità. Per questo motivo l'entropia è essenziale per un mercato efficiente che sia perciò imprevedibile e informato[12].

Le particolari implicazioni dell'entropia che pare rallentare sugli organismi viventi sono discusse da molti autori come dal celebre saggioCos'è la vitadiErwin Schrodinger,daIlya Prigoginenei sistemi non lineari, daLudwig Boltzmann,daLéon Brillouincol concetto dineghentropia,daMael Montevil[13],daFrancis Bailly[14],da Giuseppe Longo[15],daLuigi Fantappiécon laTeoria unitaria del mondo fisico e biologico.

  1. ^(DE) Rudolf Clausius,Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen,inAnnalen der Physik,vol. 155, n. 3, 1850, pp. 368–397,Bibcode:1850AnP...155..368C,DOI:10.1002/andp.18501550306.
  2. ^https://www.garzantilinguistica.it/ricerca/?q=entropia
  3. ^Arthur Eddington,The Nature of the Physical World,Cambridge University Press, 1927
  4. ^Gordon M. Barrow,Physical Chemistry,WCB, McGraw-Hill, 1979
  5. ^ab(EN)IUPAC Gold Book, "entropy"
  6. ^(EN) J. M. Smith, H.C.Van Ness; M. M. Abbot,Introduction to Chemical Engineering Thermodynamics,4ª ed., McGraw-Hill, 1987, p. 150.ISBN 0-07-100303-7
  7. ^indica il volume molare, pari al volume rapportato al numero di moli, ovvero:
  8. ^Infatti, dalla definizione dell'entalpia:;e in termini differenziali:.Ma dU e dH sono nulli essendo la trasformazione a temperatura costante, quindi,ovvero
  9. ^(EN) J. M. Smith, H.C.Van Ness; M. M. Abbot,Introduction to Chemical Engineering Thermodynamics,4ª ed., McGraw-Hill, 1987, pp. 159-163.ISBN 0-07-100303-7
  10. ^E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965
  11. ^Nicholas Georgescu-Roegen,Bioeconomia. Verso un'altra economia ecologicamente e socialmente sostenibile,cap.IILa legge di entropia e il problema economico,Torino, Bollati Boringhieri, 2003,ISBN 978 88 339 1467 1
  12. ^abValerio Ferraro,Efficienza dei Mercati e Analisi dell Informazione, entropia, irrazionalità e caso,inTesi di Laurea Triennale,1º gennaio 2023.URL consultato il 1º aprile 2024.
  13. ^https://scholar.google.com/citations?view_op=view_citation&hl=en&user=5eOo9hQAAAAJ&cstart=20&pagesize=80&citation_for_view=5eOo9hQAAAAJ:dshw04ExmUIC
  14. ^https://www.worldscientific.com/doi/abs/10.1142/S0218339009002715
  15. ^https://scholar.google.it/scholar?q=Longo,+Perspectives+on+organisms+biological+time&hl=it&as_sdt=0&as_vis=1&oi=scholart

Collegamenti esterni

[modifica|modifica wikitesto]
Controllo di autoritàThesaurus BNCF19353·LCCN(EN)sh85044150·GND(DE)4014894-4·BNE(ES)XX528989(data)·BNF(FR)cb12099111d(data)·J9U(EN,HE)987007550784605171·NDL(EN,JA)00562019