Minimiser l'énergie gratuite
$\DeclareMathOperator{\tr}{tr}$ Laisser $H$être une matrice auto-adjointe et définir l' énergie libre comme$$ F(\Gamma)=\tr(H\Gamma+\Gamma \log \Gamma +(1-\Gamma) \log(1-\Gamma)) $$ où $\Gamma$ satisfait $0\le \Gamma \le 1$. J'ai vu des articles de physique suggérer que$F(\Gamma)$ est minimisé si nous prenons $$ \Gamma =\frac{1}{e^H +1} $$ mais je ne peux pas penser à une preuve rigoureuse.
MODIFIER . La méthode non rigoureuse "habituelle" de preuve consisterait à utiliser la méthode variationnelle, c'est-à-dire\begin{align} \delta F &=\tr\left(H\delta\Gamma+\log\left(\frac{\Gamma}{1-\Gamma}\right)\delta\Gamma \right)\\ 0&=H+\log\left(\frac{\Gamma}{1-\Gamma}\right)\\ \Gamma &= \frac{1}{e^H+1} \end{align} Comment rendre cet argument rigoureux?
MODIFIER 2 . Je viens de réaliser que$F(\Gamma)$est convexe, donc je pense que le calcul ci-dessus est presque rigoureux, sauf que$\delta\Gamma$ ne peut pas faire la navette avec $\Gamma$, comme l'a souligné @Sangchul Lee.
MODIFIER 3 . Merci @Sangchul Lee pour la preuve. Je pense avoir également trouvé une autre preuve, qui peut être un peu plus simple.
Laisser $\Gamma_0=1/(e^H+1)$ et laissez $0\le \Gamma_1 \le 1$. Laisser$\Gamma(t)=(1-t)\Gamma_0 +t\Gamma_1 =\Gamma_0 +t\Delta$ où $\Delta = \Gamma_1-\Gamma_0$. Laisser$f(x)=x \log x +(1-x) \log (1-x)$. Par conséquent,$$ F(\Gamma)-F(\Gamma_0) = \tr(tH\Delta)+\tr (f(\Gamma)-f(\Gamma_0)) $$ Depuis $f$est convexe, nous pouvons appliquer l'inégalité de Klein et voir que$$ F(\Gamma)-F(\Gamma_0) \ge \tr(t\Delta (H+\log\Gamma_0 -\log (1-\Gamma_0))=0 $$ Aussi depuis $f$ est strictement convexe, on voit que $\Gamma_0$ est l'unique min global.
En passant , je ne sais pas pourquoi cette question a été votée pour fermer. Veuillez voter pour rouvrir si vous pensez le contraire.
MODIFIER 4 . Après avoir examiné plus en détail la preuve de l'inégalité de Klein, il y a un "problème" subtil de prendre la dérivée d'une fonction de trace (qui n'est pas complètement expliqué dans l'article de wikipedia). @Sangchul Lee traite cela explicitement pour ce cas particulier, mais j'aimerais penser que cela devrait pouvoir être fait de manière plus générale. Par conséquent, j'ai posté une autre question ici .
Réponses
Dans cette réponse, nous écrirons
$$ D^+_{B}F(A) := \lim_{\epsilon \to 0^+} \frac{F(A+\epsilon B) - F(A)}{\epsilon} $$
chaque fois que la limite existe. Ensuite, le lemme suivant sera utile:
Lemme. Nous avons$$ D^+_{B}\exp(A) = \int_{0}^{1} e^{sA}Be^{(1-s)A} \, \mathrm{d}s. $$
Preuve. Nous avons
$$ D^+_{B}\exp(A) = \sum_{n=1}^{\infty} \frac{1}{n!} D^+_{B}(A^n) = \sum_{n=1}^{\infty} \frac{1}{n!} \sum_{k=0}^{n-1} A^k B A^{n-1-k} = \sum_{k,l\geq 0} \frac{A^k B A^l}{(k+l+1)!}. $$
Ensuite, la revendication découle de l'intégrale bêta $\int_{0}^{1} u^k(1-u)^l \, \mathrm{d}s = \frac{k!l!}{(k+l+1)!} $. $\square$
Maintenant, laisse $\Gamma_0$ et $\Gamma_1$ être des matrices auto-adjointe telles que $0 \leq \Gamma_k \leq 1$ pour $k = 0, 1$. Interpoler$\Gamma_0$ et $\Gamma_1$ en laissant
$$ \Gamma_t = (1-t)\Gamma_0 + t\Gamma_1, \quad 0 \leq t \leq 1. $$
Nous écrivons aussi $\Delta = \frac{\mathrm{d}}{\mathrm{d}t} \Gamma_t = \Gamma_1 - \Gamma_0$puisque cela apparaîtra fréquemment. Puis par l'intégrale de Frullani et le calcul fonctionnel,
\begin{align*} \frac{\mathrm{d}}{\mathrm{d}t} \log \Gamma_{t} &= \frac{\mathrm{d}}{\mathrm{d}t} \int_{0}^{\infty} \frac{e^{-x} - e^{-x\Gamma_t}}{x} \, \mathrm{d}x \\ &= \int_{0}^{\infty} (D^+_{\Delta}\exp)(-x\Gamma_t) \, \mathrm{d}x \\ &= \int_{0}^{\infty} \int_{0}^{1} e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x. \end{align*}
De là, nous obtenons
\begin{align*} \operatorname{Tr}\left( \Gamma_t \frac{\mathrm{d}}{\mathrm{d}t} \log\Gamma_t \right) &= \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Gamma_t e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x \right) \\ &= \int_{0}^{\infty} \int_{0}^{1} \operatorname{Tr}\left( \Gamma_t e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \right) \, \mathrm{d}s \mathrm{d}x \\ &= \int_{0}^{\infty} \int_{0}^{1} \operatorname{Tr}\left( \Gamma_t e^{-x\Gamma_t}\Delta \right) \, \mathrm{d}s \mathrm{d}x \\ &= \operatorname{Tr}(\Delta), \end{align*}
et de même
$$ \operatorname{Tr}\left( (1-\Gamma_t) \frac{\mathrm{d}}{\mathrm{d}t} \log(1-\Gamma_t) \right) = -\operatorname{Tr}(\Delta). $$
Alors on obtient
$$ \frac{\mathrm{d}}{\mathrm{d}t} F(\Gamma_t) = \operatorname{Tr}\left( H\Delta + \Delta\log(\Gamma_t) - \Delta\log(1-\Gamma_t) \right) \tag{1} $$
Différencier les deux côtés par rapport à $t$ encore,
\begin{align*} \frac{\mathrm{d}^2}{\mathrm{d}t^2} F(\Gamma_t) &= \operatorname{Tr}\left(\Delta \frac{\mathrm{d}}{\mathrm{d}t}\log(\Gamma_t) - \Delta \frac{\mathrm{d}}{\mathrm{d}t}\log(1-\Gamma_t) \right) \\ &= \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Delta e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x \right) \\ &\qquad + \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Delta e^{-sx(1-\Gamma_t)}\Delta e^{-(1-s)x(1-\Gamma_t)} \, \mathrm{d}s \mathrm{d}x \right) \\ &= \int_{0}^{\infty} \int_{0}^{1} \left\| e^{-\frac{1}{2}sx\Gamma_t}\Delta e^{-\frac{1}{2}(1-s)x\Gamma_t} \right\|^2 \, \mathrm{d}s \mathrm{d}x \\ &\qquad + \int_{0}^{\infty} \int_{0}^{1} \left\| e^{-\frac{1}{2}sx(1-\Gamma_t)}\Delta e^{-\frac{1}{2}(1-s)x(1-\Gamma_t)} \right\|^2 \, \mathrm{d}s \mathrm{d}x \tag{2} \end{align*}
où $\| X \|^2 = \operatorname{Tr}(X^* X)$ est toujours un nombre réel non négatif.
Nous sommes maintenant prêts à prouver la réclamation.
De $\text{(2)}$, nous savons que $\frac{\mathrm{d}^2}{\mathrm{d}t^2} F(\Gamma_t) \geq 0$, ce qui implique à son tour que $F$ est convexe.
$\text{(1)}$ peut être utilisé pour montrer que $\Gamma_{\text{m}} = \frac{1}{e^H + 1}$ est un extremum local de $F$. Puis par la convexité, c'est un minimum local de$F$.
Par conséquent $\Gamma_{\text{m}}$ minimise $F$.