Minimiser l'énergie gratuite

Nov 20 2020

$\DeclareMathOperator{\tr}{tr}$ Laisser $H$être une matrice auto-adjointe et définir l' énergie libre comme$$ F(\Gamma)=\tr(H\Gamma+\Gamma \log \Gamma +(1-\Gamma) \log(1-\Gamma)) $$$\Gamma$ satisfait $0\le \Gamma \le 1$. J'ai vu des articles de physique suggérer que$F(\Gamma)$ est minimisé si nous prenons $$ \Gamma =\frac{1}{e^H +1} $$ mais je ne peux pas penser à une preuve rigoureuse.

MODIFIER . La méthode non rigoureuse "habituelle" de preuve consisterait à utiliser la méthode variationnelle, c'est-à-dire\begin{align} \delta F &=\tr\left(H\delta\Gamma+\log\left(\frac{\Gamma}{1-\Gamma}\right)\delta\Gamma \right)\\ 0&=H+\log\left(\frac{\Gamma}{1-\Gamma}\right)\\ \Gamma &= \frac{1}{e^H+1} \end{align} Comment rendre cet argument rigoureux?

MODIFIER 2 . Je viens de réaliser que$F(\Gamma)$est convexe, donc je pense que le calcul ci-dessus est presque rigoureux, sauf que$\delta\Gamma$ ne peut pas faire la navette avec $\Gamma$, comme l'a souligné @Sangchul Lee.

MODIFIER 3 . Merci @Sangchul Lee pour la preuve. Je pense avoir également trouvé une autre preuve, qui peut être un peu plus simple.

Laisser $\Gamma_0=1/(e^H+1)$ et laissez $0\le \Gamma_1 \le 1$. Laisser$\Gamma(t)=(1-t)\Gamma_0 +t\Gamma_1 =\Gamma_0 +t\Delta$$\Delta = \Gamma_1-\Gamma_0$. Laisser$f(x)=x \log x +(1-x) \log (1-x)$. Par conséquent,$$ F(\Gamma)-F(\Gamma_0) = \tr(tH\Delta)+\tr (f(\Gamma)-f(\Gamma_0)) $$ Depuis $f$est convexe, nous pouvons appliquer l'inégalité de Klein et voir que$$ F(\Gamma)-F(\Gamma_0) \ge \tr(t\Delta (H+\log\Gamma_0 -\log (1-\Gamma_0))=0 $$ Aussi depuis $f$ est strictement convexe, on voit que $\Gamma_0$ est l'unique min global.

En passant , je ne sais pas pourquoi cette question a été votée pour fermer. Veuillez voter pour rouvrir si vous pensez le contraire.

MODIFIER 4 . Après avoir examiné plus en détail la preuve de l'inégalité de Klein, il y a un "problème" subtil de prendre la dérivée d'une fonction de trace (qui n'est pas complètement expliqué dans l'article de wikipedia). @Sangchul Lee traite cela explicitement pour ce cas particulier, mais j'aimerais penser que cela devrait pouvoir être fait de manière plus générale. Par conséquent, j'ai posté une autre question ici .

Réponses

2 SangchulLee Nov 21 2020 at 01:22

Dans cette réponse, nous écrirons

$$ D^+_{B}F(A) := \lim_{\epsilon \to 0^+} \frac{F(A+\epsilon B) - F(A)}{\epsilon} $$

chaque fois que la limite existe. Ensuite, le lemme suivant sera utile:

Lemme. Nous avons$$ D^+_{B}\exp(A) = \int_{0}^{1} e^{sA}Be^{(1-s)A} \, \mathrm{d}s. $$

Preuve. Nous avons

$$ D^+_{B}\exp(A) = \sum_{n=1}^{\infty} \frac{1}{n!} D^+_{B}(A^n) = \sum_{n=1}^{\infty} \frac{1}{n!} \sum_{k=0}^{n-1} A^k B A^{n-1-k} = \sum_{k,l\geq 0} \frac{A^k B A^l}{(k+l+1)!}. $$

Ensuite, la revendication découle de l'intégrale bêta $\int_{0}^{1} u^k(1-u)^l \, \mathrm{d}s = \frac{k!l!}{(k+l+1)!} $. $\square$

Maintenant, laisse $\Gamma_0$ et $\Gamma_1$ être des matrices auto-adjointe telles que $0 \leq \Gamma_k \leq 1$ pour $k = 0, 1$. Interpoler$\Gamma_0$ et $\Gamma_1$ en laissant

$$ \Gamma_t = (1-t)\Gamma_0 + t\Gamma_1, \quad 0 \leq t \leq 1. $$

Nous écrivons aussi $\Delta = \frac{\mathrm{d}}{\mathrm{d}t} \Gamma_t = \Gamma_1 - \Gamma_0$puisque cela apparaîtra fréquemment. Puis par l'intégrale de Frullani et le calcul fonctionnel,

\begin{align*} \frac{\mathrm{d}}{\mathrm{d}t} \log \Gamma_{t} &= \frac{\mathrm{d}}{\mathrm{d}t} \int_{0}^{\infty} \frac{e^{-x} - e^{-x\Gamma_t}}{x} \, \mathrm{d}x \\ &= \int_{0}^{\infty} (D^+_{\Delta}\exp)(-x\Gamma_t) \, \mathrm{d}x \\ &= \int_{0}^{\infty} \int_{0}^{1} e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x. \end{align*}

De là, nous obtenons

\begin{align*} \operatorname{Tr}\left( \Gamma_t \frac{\mathrm{d}}{\mathrm{d}t} \log\Gamma_t \right) &= \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Gamma_t e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x \right) \\ &= \int_{0}^{\infty} \int_{0}^{1} \operatorname{Tr}\left( \Gamma_t e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \right) \, \mathrm{d}s \mathrm{d}x \\ &= \int_{0}^{\infty} \int_{0}^{1} \operatorname{Tr}\left( \Gamma_t e^{-x\Gamma_t}\Delta \right) \, \mathrm{d}s \mathrm{d}x \\ &= \operatorname{Tr}(\Delta), \end{align*}

et de même

$$ \operatorname{Tr}\left( (1-\Gamma_t) \frac{\mathrm{d}}{\mathrm{d}t} \log(1-\Gamma_t) \right) = -\operatorname{Tr}(\Delta). $$

Alors on obtient

$$ \frac{\mathrm{d}}{\mathrm{d}t} F(\Gamma_t) = \operatorname{Tr}\left( H\Delta + \Delta\log(\Gamma_t) - \Delta\log(1-\Gamma_t) \right) \tag{1} $$

Différencier les deux côtés par rapport à $t$ encore,

\begin{align*} \frac{\mathrm{d}^2}{\mathrm{d}t^2} F(\Gamma_t) &= \operatorname{Tr}\left(\Delta \frac{\mathrm{d}}{\mathrm{d}t}\log(\Gamma_t) - \Delta \frac{\mathrm{d}}{\mathrm{d}t}\log(1-\Gamma_t) \right) \\ &= \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Delta e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x \right) \\ &\qquad + \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Delta e^{-sx(1-\Gamma_t)}\Delta e^{-(1-s)x(1-\Gamma_t)} \, \mathrm{d}s \mathrm{d}x \right) \\ &= \int_{0}^{\infty} \int_{0}^{1} \left\| e^{-\frac{1}{2}sx\Gamma_t}\Delta e^{-\frac{1}{2}(1-s)x\Gamma_t} \right\|^2 \, \mathrm{d}s \mathrm{d}x \\ &\qquad + \int_{0}^{\infty} \int_{0}^{1} \left\| e^{-\frac{1}{2}sx(1-\Gamma_t)}\Delta e^{-\frac{1}{2}(1-s)x(1-\Gamma_t)} \right\|^2 \, \mathrm{d}s \mathrm{d}x \tag{2} \end{align*}

$\| X \|^2 = \operatorname{Tr}(X^* X)$ est toujours un nombre réel non négatif.

Nous sommes maintenant prêts à prouver la réclamation.

  • De $\text{(2)}$, nous savons que $\frac{\mathrm{d}^2}{\mathrm{d}t^2} F(\Gamma_t) \geq 0$, ce qui implique à son tour que $F$ est convexe.

  • $\text{(1)}$ peut être utilisé pour montrer que $\Gamma_{\text{m}} = \frac{1}{e^H + 1}$ est un extremum local de $F$. Puis par la convexité, c'est un minimum local de$F$.

Par conséquent $\Gamma_{\text{m}}$ minimise $F$.