L'entropia è definita come la misura quantitativa del disordine o della casualità in un sistema. Il concetto nasce dalla termodinamica, che si occupa del trasferimento di energia termica all'interno di un sistema. Invece di parlare di una qualche forma di "entropia assoluta", i fisici generalmente discutono del cambiamento di entropia che avviene in uno specifico processo termodinamico.
In un processo isotermico, il cambiamento di entropia (delta-S) è il cambiamento di calore (Q) diviso per la temperatura assoluta (T):
delta-S = Q/T
In qualsiasi processo termodinamico reversibile, può essere rappresentato nel calcolo come integrale dallo stato iniziale di un processo al suo stato finale di dQ/T. In senso più generale, l'entropia è una misura della probabilità e del disordine molecolare di un sistema macroscopico. In un sistema che può essere descritto da variabili, tali variabili possono assumere un certo numero di configurazioni. Se ogni configurazione è ugualmente probabile, l'entropia è il logaritmo naturale del numero di configurazioni, moltiplicato per la costante di Boltzmann:
S = kB ln
dove S è entropia, kB è la costante di Boltzmann, ln è il logaritmo naturale e W rappresenta il numero di stati possibili. La costante di Boltzmann è pari a 1.38065 × 10-23 J / K.
L'entropia è considerata una vasta proprietà della materia che si esprime in termini di energia divisa per temperatura. Le unità SI di entropia sono J / K (joule / gradi Kelvin).
Un modo per affermare la seconda legge della termodinamica è il seguente: in qualsiasi sistema chiuso, l'entropia del sistema rimarrà costante o aumenterà.
Puoi vederlo come segue: l'aggiunta di calore a un sistema provoca l'accelerazione delle molecole e degli atomi. Potrebbe essere possibile (anche se complicato) invertire il processo in un sistema chiuso senza assorbire energia o rilasciare energia altrove per raggiungere lo stato iniziale. Non è mai possibile ottenere l'intero sistema "meno energico" rispetto a quando è stato avviato. L'energia non ha nessun posto dove andare. Per i processi irreversibili, l'entropia combinata del sistema e del suo ambiente aumenta sempre.
Questa visione della seconda legge della termodinamica è molto popolare ed è stata utilizzata in modo improprio. Alcuni sostengono che la seconda legge della termodinamica significa che un sistema non può mai diventare più ordinato. Questo non è vero. Significa solo che per diventare più ordinato (affinché l'entropia diminuisca), è necessario trasferire energia da qualche parte all'esterno del sistema, come quando una donna incinta attinge energia dal cibo per far sì che l'ovulo fecondato si formi in un bambino. Ciò è completamente in linea con le disposizioni della seconda legge.
L'entropia è anche conosciuta come disordine, caos e casualità, sebbene tutti e tre i sinonimi siano imprecisi.
Un termine correlato è "entropia assoluta", che è indicato da S piuttosto che ΔS. L'entropia assoluta è definita secondo la terza legge della termodinamica. Qui viene applicata una costante che lo rende in modo che l'entropia a zero assoluto sia definita come zero.