Cos'è l'entropia e come calcolarla

L'entropia è definita come la misura quantitativa del disordine o della casualità in un sistema. Il concetto nasce dalla termodinamica, che si occupa del trasferimento di energia termica all'interno di un sistema. Invece di parlare di una qualche forma di "entropia assoluta", i fisici generalmente discutono del cambiamento di entropia che avviene in uno specifico processo termodinamico.

Key Takeaways: calcolo dell'entropia

  • L'entropia è una misura della probabilità e del disordine molecolare di un sistema macroscopico.
  • Se ogni configurazione è ugualmente probabile, l'entropia è il logaritmo naturale del numero di configurazioni, moltiplicato per la costante di Boltzmann: S = kB ln
  • Affinché l'entropia diminuisca, è necessario trasferire energia da qualche parte all'esterno del sistema.

Come calcolare l'entropia

In un processo isotermico, il cambiamento di entropia (delta-S) è il cambiamento di calore (Q) diviso per la temperatura assoluta (T):

delta-S = Q/T

In qualsiasi processo termodinamico reversibile, può essere rappresentato nel calcolo come integrale dallo stato iniziale di un processo al suo stato finale di dQ/T. In senso più generale, l'entropia è una misura della probabilità e del disordine molecolare di un sistema macroscopico. In un sistema che può essere descritto da variabili, tali variabili possono assumere un certo numero di configurazioni. Se ogni configurazione è ugualmente probabile, l'entropia è il logaritmo naturale del numero di configurazioni, moltiplicato per la costante di Boltzmann:

S = kB ln

dove S è entropia, kB è la costante di Boltzmann, ln è il logaritmo naturale e W rappresenta il numero di stati possibili. La costante di Boltzmann è pari a 1.38065 × 10-23 J / K.

Unità di entropia

L'entropia è considerata una vasta proprietà della materia che si esprime in termini di energia divisa per temperatura. Le unità SI di entropia sono J / K (joule / gradi Kelvin).

Entropia e la seconda legge della termodinamica

Un modo per affermare la seconda legge della termodinamica è il seguente: in qualsiasi sistema chiuso, l'entropia del sistema rimarrà costante o aumenterà.

Puoi vederlo come segue: l'aggiunta di calore a un sistema provoca l'accelerazione delle molecole e degli atomi. Potrebbe essere possibile (anche se complicato) invertire il processo in un sistema chiuso senza assorbire energia o rilasciare energia altrove per raggiungere lo stato iniziale. Non è mai possibile ottenere l'intero sistema "meno energico" rispetto a quando è stato avviato. L'energia non ha nessun posto dove andare. Per i processi irreversibili, l'entropia combinata del sistema e del suo ambiente aumenta sempre.

Idee sbagliate sull'entropia

Questa visione della seconda legge della termodinamica è molto popolare ed è stata utilizzata in modo improprio. Alcuni sostengono che la seconda legge della termodinamica significa che un sistema non può mai diventare più ordinato. Questo non è vero. Significa solo che per diventare più ordinato (affinché l'entropia diminuisca), è necessario trasferire energia da qualche parte all'esterno del sistema, come quando una donna incinta attinge energia dal cibo per far sì che l'ovulo fecondato si formi in un bambino. Ciò è completamente in linea con le disposizioni della seconda legge.

L'entropia è anche conosciuta come disordine, caos e casualità, sebbene tutti e tre i sinonimi siano imprecisi.

Entropia assoluta

Un termine correlato è "entropia assoluta", che è indicato da S piuttosto che ΔS. L'entropia assoluta è definita secondo la terza legge della termodinamica. Qui viene applicata una costante che lo rende in modo che l'entropia a zero assoluto sia definita come zero.