L’Energia di Boltzmann

R
ita
distribuzione
Author

FR

Published

October 5, 2025

Forse gli unici conoscitori della statistica migliori degli statistici sono i fisici. Dico questo perché molti dei progressi maggiori, specialmente in materia di statistica bayesiana, hanno trovato origine in soluzioni a problemi posti dai fisici.

Il caso più eclatante è forse la distribuzione dell’energia di Boltzmann. Questa distribuzione rappresenta il fondamento del potente algoritmo di ottimizzazione del Simulated Annealing (SANN) proposto negli anni 80 da Hinton e Hopfield, che di fatto rappresenta un’applicazione dell’algoritmo Metropolis-Hastings sulla distribuzione di Boltzmann.

Attenzione: io la chiamo Distribuzione di Boltzmann, ma la sua definizione è praticamente equivalente a quella della cosidetta Misura di Gibbs o Distribuzione di Gibbs. Non va invce confusa con la distribuzione di Maxwell-Boltzmann, alla quale è ispirata, ma che invece tratta direttamente la distribuzione congiunta di velocità e massa delle particelle di gas.

Che cosa rappresenta questa distribuzione? Prima di definire la distribuzione di Boltzmann, è bene definire l’oggetto di questa distribuzione: l’energia.

L’energia può essere vista come una misura di instabilità, o di disordine (come l’entropia) o di perdita (come l’errore). La distribuzione di Boltzmann consente di passare da una qualsiasi funzione di energia definita positiva a una funzione di verosimiglianza (strumento molto potente che da accesso a molti strumenti statistici, tra cui i metodi Markov-Chain Monte Carlo come Metropolis-Hastings).

La distribuzione di Boltzmann è definita su una funzione di energia con supporto positivo.

Ma considera anche un secondo parametro: la temperatura. Mentre l’energia può essere vista come l’instabilità di un sistema, la temperatura rappresenta la tensione tra il sistema e l’ambiente circostante. Pensiamo a una batteria messa dentro un forno. La batteria potrebbe essere instabile a causa del suo stato di decomposizione interno, ma la temperatura causata dal forno potrebbe aggiungere un livello di instabilità ulteriore. Maggiore è l’instabilità, minore è la verosimiglianza sotto la distribuzione di Boltzmann.

In generale, è utile considerare questi 4 concetti:

Il quinto e ultimo concetto è la verosimiglianza sotto la distribuzione di Boltzmann: è una funzione che dipende dall’energia (e attraverso di essa dallo stato) e dalla temperatura (e attraverso di essa dell’ambiente) del sistema. La verosimiglianza di Bolztmann approssima l’uniforme per un livello di temperatura che tende a infinito.

La pdf di Boltzmann ha questa funzione:

\[P(X=x) = \frac{1}{Z} \exp\left(-\frac{E(x)}{T}\right) \]

con \(Z\) funzione di partizione o costante di normalizzazione

\[Z = \sum_x \exp\left(-\frac{E(x)}{T}\right)\]

I valori si interpretano come segue:

Di seguito la pdf della distribuzione. Colori caldi rappresentano una più alta temperatura.

Code
x = seq(0,100,0.1)
col = colorRampPalette(c("blue", 'yellow', 'orange', 'red'))(100)
T = 5;d = exp(-x/T); d=d/sum(d);plot(x,d, type='l', xlim=c(0,100), ylim=c(0,0.005), col='white', xlab='energy', ylab='pdf', main='Boltzmann Distribution - PDF')
for (t in 1:length(col)){T = t*2;d = exp(-x/T);d=d/sum(d); lines(x,d, type='l', col=col[t])}

Code
x = seq(0,100,0.1)
col = colorRampPalette(c("blue", 'yellow', 'orange', 'red'))(100)
T = 5;d = exp(-x/T); d=d/sum(d);plot(x,d, type='l', xlim=c(0,100), ylim=c(0,1), col='white', xlab='energy', ylab='cdf', main='Boltzmann Distribution - CDF')
for (t in 1:length(col)){T = t*2;d = exp(-x/T);d=d/sum(d);d = cumsum(d); lines(x,d, type='l', col=col[t])}

Code
x = seq(0,100,0.1)
col = colorRampPalette(c("blue", 'yellow', 'orange', 'red'))(100)
T = 5;d = exp(-x/T); d=d/sum(d);plot(x,d, type='l', xlim=c(0,100), ylim=c(0,1), col='white', xlab='energy', ylab='unnormalized likelihood', main='Boltzmann Distribution - unnorm PDF')
for (t in 1:length(col)){T = t*2;d = exp(-x/T); lines(x,d, type='l', col=col[t])}

La distribuzione di Boltzmann è stata fondamentale per la definizione di molti modelli probabilistici, in particolare per tutti i processi stocastici basati sulle Reti di Markov. Si tratta di grafi indiretti e ciclici di variabili aleatorie, che rappresentano un’alternativa potente al framework delle Reti Bayesiane.