L'entropia è un concetto importante in fisica e chimica, inoltre può essere applicato ad altre discipline, tra cui la cosmologia e l'economia. In fisica fa parte della termodinamica. In chimica, è un concetto chiave in chimica fisica.
L'entropia è la misura del disordine di un sistema. È una proprietà estesa di un sistema termodinamico, il che significa che il suo valore cambia a seconda della quantità di materia presente. Nelle equazioni, l'entropia è solitamente indicata con la lettera S e ha unità di joule per kelvin (J⋅K-1) o kg⋅m2⋅s-2⋅K-1. Un sistema altamente ordinato ha una bassa entropia.
Esistono diversi modi per calcolare l'entropia, ma le due equazioni più comuni sono per processi termodinamici reversibili e processi isotermici (temperatura costante).
Entropia di un processo reversibile
Nel calcolo dell'entropia di un processo reversibile vengono fatte alcune ipotesi. Probabilmente il presupposto più importante è che ogni configurazione all'interno del processo sia ugualmente probabile (cosa che potrebbe non esserlo). Data l'eguale probabilità di esiti, l'entropia è uguale alla costante di Boltzmann (kB) moltiplicato per il logaritmo naturale del numero di stati possibili (W):
S = kB ln
La costante di Boltzmann è 1.38065 × 10−23 J / K.
Entropia di un processo isotermico
Il calcolo può essere usato per trovare l'integrale di dQ/T dallo stato iniziale allo stato finale, dove Q è caldo e T è la temperatura assoluta (Kelvin) di un sistema.
Un altro modo per affermarlo è che il cambiamento nell'entropia (ΔS) è uguale alla variazione di calore (AQ) diviso per la temperatura assoluta (T):
ΔS = AQ / T
Entropia ed energia interna
In chimica fisica e termodinamica, una delle equazioni più utili mette in relazione l'entropia con l'energia interna (U) di un sistema:
dU = T dS - p dV
Qui, il cambiamento di energia interna dU è uguale alla temperatura assoluta T moltiplicato per il cambiamento di entropia meno la pressione esterna p e la variazione di volume V.