Minimierung der freien Energie

Nov 20 2020

$\DeclareMathOperator{\tr}{tr}$ Lassen $H$sei eine selbstadjunkte Matrix und definiere die freie Energie als$$ F(\Gamma)=\tr(H\Gamma+\Gamma \log \Gamma +(1-\Gamma) \log(1-\Gamma)) $$ wo $\Gamma$ befriedigt $0\le \Gamma \le 1$. Ich habe Physikpapiere gesehen, die darauf hindeuten$F(\Gamma)$ wird minimiert, wenn wir nehmen $$ \Gamma =\frac{1}{e^H +1} $$ aber ich kann mir keinen strengen Beweis vorstellen.

BEARBEITEN . Die "übliche" nicht strenge Beweismethode wäre die Verwendung der Variationsmethode, dh\begin{align} \delta F &=\tr\left(H\delta\Gamma+\log\left(\frac{\Gamma}{1-\Gamma}\right)\delta\Gamma \right)\\ 0&=H+\log\left(\frac{\Gamma}{1-\Gamma}\right)\\ \Gamma &= \frac{1}{e^H+1} \end{align} Wie würde man dieses Argument rigoros machen?

BEARBEITEN 2 . Das habe ich gerade gemerkt$F(\Gamma)$ist konvex, daher denke ich, dass die obige Berechnung fast streng ist, außer dass$\delta\Gamma$ darf nicht mit pendeln $\Gamma$, wie von @Sangchul Lee hervorgehoben.

BEARBEITEN 3 . Vielen Dank an Sangchul Lee für den Beweis. Ich denke, ich habe auch einen anderen Beweis gefunden, der vielleicht etwas einfacher ist.

Lassen $\Gamma_0=1/(e^H+1)$ und lass $0\le \Gamma_1 \le 1$. Lassen$\Gamma(t)=(1-t)\Gamma_0 +t\Gamma_1 =\Gamma_0 +t\Delta$ wo $\Delta = \Gamma_1-\Gamma_0$. Lassen$f(x)=x \log x +(1-x) \log (1-x)$. Daher,$$ F(\Gamma)-F(\Gamma_0) = \tr(tH\Delta)+\tr (f(\Gamma)-f(\Gamma_0)) $$ Schon seit $f$ist konvex, können wir Kleins Ungleichung anwenden und das sehen$$ F(\Gamma)-F(\Gamma_0) \ge \tr(t\Delta (H+\log\Gamma_0 -\log (1-\Gamma_0))=0 $$ Auch seit $f$ ist streng konvex, das sehen wir $\Gamma_0$ ist die einzigartige globale min.

Übrigens nicht sicher, warum diese Frage zum Abschluss gewählt wurde. Bitte stimmen Sie ab, um erneut zu öffnen, wenn Sie etwas anderes denken.

BEARBEITEN 4 . Nach eingehender Untersuchung des Beweises von Kleins Ungleichung gibt es ein subtiles "Problem" bei der Ableitung einer Trace-Funktion (das im Wikipedia-Artikel nicht vollständig erklärt wird). @ Sangchul Lee befasst sich explizit mit diesem speziellen Fall, aber ich würde gerne denken, dass dies allgemeiner möglich sein sollte. Daher gab ich eine andere Frage hier .

Antworten

2 SangchulLee Nov 21 2020 at 01:22

In dieser Antwort werden wir schreiben

$$ D^+_{B}F(A) := \lim_{\epsilon \to 0^+} \frac{F(A+\epsilon B) - F(A)}{\epsilon} $$

wann immer das Limit existiert. Dann ist das folgende Lemma nützlich:

Lemma. Wir haben$$ D^+_{B}\exp(A) = \int_{0}^{1} e^{sA}Be^{(1-s)A} \, \mathrm{d}s. $$

Beweis. Wir haben

$$ D^+_{B}\exp(A) = \sum_{n=1}^{\infty} \frac{1}{n!} D^+_{B}(A^n) = \sum_{n=1}^{\infty} \frac{1}{n!} \sum_{k=0}^{n-1} A^k B A^{n-1-k} = \sum_{k,l\geq 0} \frac{A^k B A^l}{(k+l+1)!}. $$

Dann folgt die Behauptung aus dem Beta-Integral $\int_{0}^{1} u^k(1-u)^l \, \mathrm{d}s = \frac{k!l!}{(k+l+1)!} $. $\square$

Nun lass $\Gamma_0$ und $\Gamma_1$ selbstadjunkte Matrizen sein, so dass $0 \leq \Gamma_k \leq 1$ zum $k = 0, 1$. Interpolieren$\Gamma_0$ und $\Gamma_1$ indem man

$$ \Gamma_t = (1-t)\Gamma_0 + t\Gamma_1, \quad 0 \leq t \leq 1. $$

Wir schreiben auch $\Delta = \frac{\mathrm{d}}{\mathrm{d}t} \Gamma_t = \Gamma_1 - \Gamma_0$da dies häufig auftreten wird. Dann durch das Frullani-Integral und die Funktionsrechnung,

\begin{align*} \frac{\mathrm{d}}{\mathrm{d}t} \log \Gamma_{t} &= \frac{\mathrm{d}}{\mathrm{d}t} \int_{0}^{\infty} \frac{e^{-x} - e^{-x\Gamma_t}}{x} \, \mathrm{d}x \\ &= \int_{0}^{\infty} (D^+_{\Delta}\exp)(-x\Gamma_t) \, \mathrm{d}x \\ &= \int_{0}^{\infty} \int_{0}^{1} e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x. \end{align*}

Daraus erhalten wir

\begin{align*} \operatorname{Tr}\left( \Gamma_t \frac{\mathrm{d}}{\mathrm{d}t} \log\Gamma_t \right) &= \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Gamma_t e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x \right) \\ &= \int_{0}^{\infty} \int_{0}^{1} \operatorname{Tr}\left( \Gamma_t e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \right) \, \mathrm{d}s \mathrm{d}x \\ &= \int_{0}^{\infty} \int_{0}^{1} \operatorname{Tr}\left( \Gamma_t e^{-x\Gamma_t}\Delta \right) \, \mathrm{d}s \mathrm{d}x \\ &= \operatorname{Tr}(\Delta), \end{align*}

und ähnlich

$$ \operatorname{Tr}\left( (1-\Gamma_t) \frac{\mathrm{d}}{\mathrm{d}t} \log(1-\Gamma_t) \right) = -\operatorname{Tr}(\Delta). $$

So erhalten wir

$$ \frac{\mathrm{d}}{\mathrm{d}t} F(\Gamma_t) = \operatorname{Tr}\left( H\Delta + \Delta\log(\Gamma_t) - \Delta\log(1-\Gamma_t) \right) \tag{1} $$

Unterscheidung beider Seiten in Bezug auf $t$ nochmal,

\begin{align*} \frac{\mathrm{d}^2}{\mathrm{d}t^2} F(\Gamma_t) &= \operatorname{Tr}\left(\Delta \frac{\mathrm{d}}{\mathrm{d}t}\log(\Gamma_t) - \Delta \frac{\mathrm{d}}{\mathrm{d}t}\log(1-\Gamma_t) \right) \\ &= \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Delta e^{-sx\Gamma_t}\Delta e^{-(1-s)x\Gamma_t} \, \mathrm{d}s \mathrm{d}x \right) \\ &\qquad + \operatorname{Tr}\left( \int_{0}^{\infty} \int_{0}^{1} \Delta e^{-sx(1-\Gamma_t)}\Delta e^{-(1-s)x(1-\Gamma_t)} \, \mathrm{d}s \mathrm{d}x \right) \\ &= \int_{0}^{\infty} \int_{0}^{1} \left\| e^{-\frac{1}{2}sx\Gamma_t}\Delta e^{-\frac{1}{2}(1-s)x\Gamma_t} \right\|^2 \, \mathrm{d}s \mathrm{d}x \\ &\qquad + \int_{0}^{\infty} \int_{0}^{1} \left\| e^{-\frac{1}{2}sx(1-\Gamma_t)}\Delta e^{-\frac{1}{2}(1-s)x(1-\Gamma_t)} \right\|^2 \, \mathrm{d}s \mathrm{d}x \tag{2} \end{align*}

wo $\| X \|^2 = \operatorname{Tr}(X^* X)$ ist immer eine nicht negative reelle Zahl.

Jetzt sind wir bereit, die Behauptung zu beweisen.

  • Von $\text{(2)}$, Wir wissen das $\frac{\mathrm{d}^2}{\mathrm{d}t^2} F(\Gamma_t) \geq 0$, was wiederum impliziert, dass $F$ ist konvex.

  • $\text{(1)}$ kann verwendet werden, um das zu zeigen $\Gamma_{\text{m}} = \frac{1}{e^H + 1}$ ist ein lokales Extremum von $F$. Dann ist dies durch die Konvexität ein lokales Minimum von$F$.

Deshalb $\Gamma_{\text{m}}$ minimiert $F$.