Quelle est la bonne façon d'écrire une multiplication entre scalaire et vectoriel?

Dec 30 2020

La règle de multiplication matricielle stipule que le nombre de colonnes de l'opérande gauche est égal au nombre de lignes de l'opérande droit.

$M*N$ si M a $n$ colonnes et N devrait avoir $n$ Lignes.

Suivant cette convention, la manière naturelle d'écrire une multiplication entre un vecteur et un scalaire est de placer le vecteur sur le côté gauche - en prenant le scalaire comme une matrice 1 par 1.

cependant, j'ai trouvé que, très souvent, les gens ne suivent pas la règle ci-dessus: en utilisant la décomposition propre comme exemple:

wiki de décomposition propre

$A\upsilon=\lambda\upsilon$

Existe-t-il une règle empirique pour nous guider quand nous devrions mettre le scalaire sur le côté gauche?

Réponses

2 StanislavBashkyrtsev Dec 30 2020 at 16:55

La multiplication scalaire et la multiplication matricielle sont 2 opérations distinctes. Même s'ils ont le même mot «multiplication» en eux - ils sont complètement différents.

La multiplication matricielle n'est pas commutative - vous devez donc mettre la bonne matrice du côté droit, ce n'est pas une question de conventions. Les scalaires sont commutatifs et vous pouvez les mettre de chaque côté.

Je ne pense pas qu'il y ait une convention écrite en soi - les gens se sont simplement habitués à mettre les coefficients avant les autres termes. Si vous mettez un scalaire à droite, en fonction du domaine dans lequel vous travaillez, certaines personnes lisant vos expressions peuvent s'arrêter et penser "hugh, attendez, travaillons-nous avec l'algèbre non commutative?" pour un moment. Certaines personnes peuvent aussi penser "hugh, est-ce un scalaire ou est-ce que je manque quelque chose?". Cela peut prendre quelques cycles cérébraux supplémentaires pour un lecteur, donc je garderais les scalaires sur la gauche, mais ce ne sera probablement pas une tragédie si vous les mettez de l'autre côté.

Bien qu'il soit possible d' imiter la multiplication scalaire en utilisant$1\times n$ ou $n \times 1$matrices - ce n'est pas ce qu'il est dans son essence. Encore une fois, ce sont des opérations différentes et une seule d'entre elles est commutative.

1 PaulFrost Dec 30 2020 at 16:58

C'est juste une question de conventions de notation. Habituellement, les axiomes d'un espace vectoriel sont formulés en écrivant la multiplication scalaire sous la forme$$\lambda \cdot v$$$v \in V$ et $\lambda$ appartient au domaine terrestre $K$. La raison en est que nous comprenons généralement que dans le produit$\mu \cdot \lambda$ d'éléments de $K$nous avons un premier facteur$\mu$et un deuxième facteur$\lambda$. Dans un champ (dont la multiplication est commutative), l'ordre des facteurs ne semble pas pertinent (car$\mu \cdot \lambda = \lambda \cdot \mu$), mais dans un ring $R$(dont la multiplication est en général non commutative) l'ordre est essentiel. Cela s'applique par exemple à l'anneau de$n\times n$-matrices sur un champ. L'un des axiomes d'un espace vectoriel est$$(\mu \cdot \lambda) \cdot v = \mu \cdot (\lambda \cdot v)$$ ce qui est plus facile du point de vue mnémonique que la même formule écrite par multiplication scalaire à partir de la droite $$v \cdot (\mu \cdot \lambda) = (v \cdot \lambda) \cdot \mu .$$ D'accord, pour un champ cela ne fait pas beaucoup de différence puisqu'il dit la même chose que $$v \cdot (\lambda \cdot \mu) = (v \cdot \lambda) \cdot \mu .$$Mais notez que le concept d'espace vectoriel peut être généralisé à celui d'un module sur un anneau$R$et ici la commande fait la différence. En fait, on distingue la gauche et la droite$R$-modules. Pour gauche$R$-muodules on écrit généralement la multiplication scalaire comme $\lambda \cdot v$, pour le droit $R$-modules comme $v \cdot \lambda$. Regardez ici .

Passons maintenant au cœur de votre question. Le produit matriciel$A \bullet B$ est généralement défini pour un $m\times n$ matrice $A$ Et un $n\times p$ matrice $B$, c'est-à-dire que nous exigeons que le nombre de colonnes de $A$ est égal au nombre de lignes de $B$. Comme tu le dis, un scalaire$\lambda$ peut être considéré comme le $1 \times 1$ matrice $(\lambda)$. Ainsi, les deux expressions suivantes sont définies:$$(\lambda) \bullet A \text{ for } 1 \times n \text{ matrices } A \tag{1} $$ $$A \bullet (\lambda) \text{ for } n \times 1 \text{ matrices } A \tag{2} $$ Dans $(1)$ $A$s'appelle un vecteur ligne , dans$(2)$un vecteur de colonne .

Cela dépend donc de votre notation préférée: si vous considérez des éléments de $K^n$ comme vecteurs de ligne, vous devez utiliser $(1)$, si vous les considérez comme des vecteurs de colonnes, vous devez écrire $(2)$.

Quoi qu'il en soit, cela n'est pertinent que si vous insistez par tous les moyens pour comprendre le produit scalaire de$\lambda$ et $A$en tant que produit matriciel. Habituellement pour$A = (a_{ij})$ on définit simplement $$ \lambda \cdot (a_{ij}) = (\lambda \cdot a_{ij}) .$$ Cela n'a pas d'importance si vous considérez des éléments de $K^n$ comme vecteurs de ligne ou comme vecteurs de colonne.