Répartition des sommes des colonnes de la matrice orthogonale?
Supposons que j'ai une matrice orthogonale réelle carrée $A \in \mathbb{R}^D$, et je calcule la somme élément par élément des $i$e colonne comme $a_i := \sum_{d=1}^D A_{di}$. Comment puis-je décrire la répartition des$a_i$ valeurs pour les colonnes D?
Je sais que la valeur maximale $a_i$ peut prendre est $\sqrt{D}$ et la valeur minimale est $-\sqrt{D}$. Je me demande comment en réparer un$a_i$ affecte le reste $a_j$ pour $j \neq i$.
Edit 1: Je serais peut-être plus intéressé par la façon dont le $a_i$ les valeurs décroissent si vous les commandez de telle sorte que $a_1 \geq a_2 \geq ... \geq a_D$. Par exemple, si$a_1 = \sqrt{D}$, quel est le plus grand $a_2$ peut être?
Réponses
Les vecteurs possibles $(a_i)_{1\leq i \leq D}$ sont exactement les vecteurs de $\mathbb{R}^n$ avec norme $\sqrt{D}$. Autrement dit, nous avons toujours
$$ \sum_{i=1}^D a_i^2 = D $$
Donc, pour répondre à une question, si $a_1$ a la valeur extrême $a_1 = \pm \sqrt{D}$, puis tous les autres $a_i$sont exactement nuls. Cela a du sens car la première colonne de$A$ doit être $\pm D^{-1/2} [1, \ldots, 1]$, et prendre le produit scalaire avec n'importe quelle autre colonne doit donner zéro, ce qui signifie que la somme des éléments de cette autre colonne est zéro.
Pour prouver la réclamation plus généralement, notez que l'appel de la base unitaire $\{e_i\}$, nous avons $A_{ij} = e_i^T A\, e_j$, alors
$$ a_i = \sum_{d=1}^D A_{di} = \sum_{d=1}^D (e_d^T A\, e_i) = \left[\sum_{d=1}^D e_d^T \right] A e_i $$
Le vecteur de la ligne de gauche est un vecteur avec tous les éléments $1$. Donc dénotant$u = [1,\ldots,1]$, ça donne
$$ a_i = u^T A \, e_i = (A^T u)^T e_i $$
Autrement dit, les chiffres $a_i$ sont les coordonnées du vecteur $A^T u$. Depuis$A$ est orthonormé, tout comme $A^T$, et donc
$$\big| (a_i)_{1 \leq i \leq D} \big| = |A^T u| = |u| = \sqrt{\sum_{d=1}^D 1^2} = \sqrt{D} $$
Une façon de voir cela est que chaque valeur $(a_i / \sqrt{D})$ est le cosinus de l'angle entre $A e_i$ (l'image d'un vecteur de base original) et le vecteur constant $u$.
Pour l'inverse, supposons qu'on nous donne des valeurs $\alpha_i$ tel que $\sum \alpha_i^2 = D$. Choisissez une base orthonormée$\{x_i\}$ de $\mathbb{R}^D$ avec $x_1 = D^{-1/2} (\alpha_i)_{1 \leq i \leq D}$, et choisissez une autre base orthonormée $\{y_i\}$ de $\mathbb{R}^D$ avec $y_1 = D^{-1/2} u$, par exemple par l'algorithme de Gram-Schmidt. Si matrice$X$ a $\{x_i\}$ comme colonnes et matrice $Y$ a $\{y_i\}$ sous forme de colonnes, puis la matrice $A = Y X^T$ est un exemple de matrice avec les valeurs $a_i = \alpha_i$ comme la somme de sa colonne, puisque
$$ a_i = u^T A e_i = \sqrt{D} \cdot y_1^T Y X^T e_i = \sqrt{D} \cdot e_1^T X^T e_i = \sqrt{D} \cdot x_1^T e_i = \alpha_i $$
Donc pour une distribution de probabilité sur les vecteurs $(a_i)$, nous pourrions certainement utiliser la distribution habituelle pour la sphère $S^{D-1}$. Je m'attendrais à ce que ce soit la même distribution que nous obtiendrions d'une distribution de probabilité sensible sur des matrices orthonormées$A$ (quelle que soit la définition), juste comme principe de symétrie.