Algèbre et Projections en Rn, Produit Vectoriel dans {\mathbb{R}^3}
Résumé :Cette série est la continuation directe de la série sur l’Espace Euclidien de n dimensions. Nous examinerons ici certains concepts d’algèbre linéaire qui aident à mieux comprendre l’espace euclidien n-dimensionnel, nous réviserons les concepts de projections d’un vecteur sur un autre, nous démontrerons le théorème de Pythagore et nous conclurons par un examen du produit vectoriel dans \mathbb{R}^3 et de sa relation avec les autres produits de l’espace euclidien tridimensionnel.
INDEX
Indépendance Linéaire, Orthogonalité et Projections
Le Théorème de Pythagore et la Projection sur un Sous-espace
Le Produit Scalaire et Vectoriel dans \mathbb{R}^3
Indépendance Linéaire, Orthogonale et Projections
Combinaison linéaire et indépendance linéaire
Un vecteur non nul \vec{z} peut être construit comme une combinaison linéaire par rapport à d’autres vecteurs non nuls \vec{x} et \vec{y} s’il existe une paire de nombres réels \alpha et \beta, pas tous deux nuls simultanément, tels que :
\vec{z} = \alpha \vec{x} + \beta\vec{y}
C’est-à-dire, le vecteur \vec{z} peut être construit comme une somme pondérée des vecteurs \vec{x} et \vec{y}.
De manière analogue, on dit que les vecteurs \vec{x} et \vec{y} sont linéairement indépendants si
(\alpha \vec{x} + \beta\vec{y} = \vec{0} ) \longleftrightarrow (\alpha=0 \wedge \beta=0 )
L’indépendance linéaire entre les vecteurs \vec{x} et \vec{y} nous indique que \vec{y} ne peut pas être obtenu comme un multiple scalaire (non nul) de \vec{x} ni vice versa.
Le concept d’indépendance linéaire que nous venons de revoir peut être étendu à des ensembles plus grands de vecteurs. L’ensemble de vecteurs non nuls \{\vec{x}_1, \cdots, \vec{x}_n\} est dit linéairement indépendant lorsque
\displaystyle \left[\left(\sum_{i=1}^n \alpha_i \vec{x}_i \right) = \vec{0} \right] \longleftrightarrow \left[\bigwedge_{i=1}^n (\alpha_i = 0) \right]
L’angle formé par deux vecteurs et l’orthogonalité
Si nous rappelons l’inégalité de Cauchy-Schwarz, celle-ci nous dit que (\forall \vec{x},\vec{y}\in\mathbb{R}^n)(|\vec{x}\cdot\vec{y}| \leq \|\vec{x}\| \|\vec{y}\|). En tenant compte de cela, il est facile de constater que pour toute paire de vecteurs \vec{x},\vec{y}\in\mathbb{R}^n\setminus\{\vec{0}\} la relation suivante est satisfaite :
\displaystyle -1 \leq \frac{\vec{x}\cdot\vec{y}}{\|\vec{x}\|\|\vec{y}\|}\leq 1
Nous pouvons maintenant pressentir une relation entre le produit scalaire et l’angle que forment les vecteurs \vec{x} et \vec{y}, car ceux-ci génèrent un plan isométrique à \mathbb{R}^2. Pour cette raison, sans perte de généralité, nous pouvons les imaginer comme étant des éléments de \mathbb{R}^2 avec des angles par rapport à l’axe \hat{x} de \theta_x et \theta_y, respectivement, de sorte que les vecteurs s’écrivent en forme polaire comme :
\begin{array}{rl} \vec{x} &= \|\vec{x}\|(\cos(\theta_x) , \sin(\theta_x)) \\ \\ \vec{y} &= \|\vec{y}\|(\cos(\theta_y) , \sin(\theta_y)) \end{array}
Ainsi, nous pouvons supposer (sans perte de généralité, encore une fois) que \theta_x \lt \theta_y, pour ensuite calculer le produit scalaire \vec{x}\cdot\vec{y}. En procédant ainsi, nous obtiendrons le résultat suivant :
\begin{array}{rl}\vec{x}\cdot \vec{y} &= \|\vec{x}\| \|\vec{y}\| (\cos(\theta_x)\cos(\theta_y) + \sin(\theta_x)\sin(\theta_y)) \\ \\ &= \|\vec{x}\| \|\vec{y}\| \cos(\theta_y-\theta_x) \end{array}
Maintenant, en prenant la différence entre la position angulaire la plus grande et la plus petite, nous obtenons l’angle compris entre les vecteurs, \angle(\vec{x},\vec{y})=\theta_y - \theta_x. Et avec cela, nous pouvons écrire :
\displaystyle \cos\left(\angle(\vec{x},\vec{y}) \right) = \frac{\vec{x} \cdot \vec{y}}{\|\vec{x}\|\|\vec{y}\|}
Ici, nous devons souligner que \angle(\vec{x},\vec{y})\in [0, \pi]
À partir de cela, nous pouvons relier l’inégalité de Cauchy-Schwarz avec la géométrie des angles, et cela nous permet également d’obtenir une notion rigoureuse d’orthogonalité. Deux vecteurs sont dits Orthogonaux lorsqu’ils forment entre eux un angle de \pi/2 radians, dans le sens expliqué au paragraphe précédent. Cela équivaut à dire que \cos\left(\angle(\vec{x},\vec{y})\right) = 0, ce qui revient à dire que \vec{x}\cdot\vec{y} = 0. Pour cette raison, on dit qu’affirmer l’orthogonalité des vecteurs \vec{x} et \vec{y} est équivalent à dire que \vec{x}\cdot\vec{y}=0.
Si deux vecteurs non nuls sont orthogonaux, alors ils sont linéairement indépendants
C’est une propriété quelque peu intuitive des vecteurs de \mathbb{R}^n dont la démonstration formelle n’est pas si directe, et c’est aussi une propriété qui peut parfois prêter à confusion : l’orthogonalité de deux vecteurs implique leur indépendance linéaire, mais l’indépendance linéaire de deux vecteurs n’implique pas nécessairement leur orthogonalité. Pour voir ce dernier point, un simple contre-exemple suffit :
Si nous prenons les vecteurs \vec{A}=(1,0) et \vec{B}=(1,1), qui ne sont clairement pas orthogonaux puisque \vec{A}\cdot\vec{B}=1, nous verrons qu’en faisant
\alpha\vec{A} + \beta\vec{B} = \vec{0}
Alors nous avons
\begin{array}{rl} \alpha + \beta &= 0 \\ \beta &= 0 \end{array}
et par conséquent : \alpha = 0 \wedge \beta=0. Et avec cela, on conclut que :
\alpha\vec{A} + \beta\vec{B} = \vec{0} \longleftrightarrow \alpha = 0 \wedge \beta=0
Ce qui est équivalent à dire que \vec{A} et \vec{B} sont linéairement indépendants. Cela rend très explicite qu’il n’est pas vrai que l’indépendance linéaire implique l’orthogonalité. Cependant, l’orthogonalité implique bien l’indépendance linéaire et c’est ce que je démontrerai formellement ci-dessous, et pour cela considérons l’ensemble de prémisses suivant :
\mathcal{H}= \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0, \alpha\vec{x}+\beta\vec{y} = \vec{0}\}
À partir de cela, nous pouvons produire le raisonnement suivant :
\begin{array}{rll} (1) &\mathcal{H}\vdash \vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\} &{;\;Prémisse}\\ \\ (2) &\mathcal{H}\vdash \vec{x}\cdot\vec{y}=0 &{\;Prémisse} \\ \\ (3) &\mathcal{H}\vdash \alpha\vec{x} + \beta\vec{y} = \vec{0} &{\;Prémisse} \\ \\ (4) &\mathcal{H}\vdash (\alpha\vec{x} + \beta\vec{y})\cdot\vec{x} = \alpha\|\vec{x}\|^2 + \beta(\vec{x}\cdot\vec{y}) &{;\; Bilinéarité} \\ \\ (5) &\mathcal{H}\vdash \alpha\|\vec{x}\|^2 = 0 & {;\; De(2,3,4)} \\ \\ (6) &\mathcal{H}\vdash \alpha = 0 & {;\; De(1,5)} \\ \\ (7) &\mathcal{H}\vdash (\alpha\vec{x} + \beta\vec{y})\cdot\vec{y} = \alpha(\vec{x}\cdot\vec{y}) + \beta\|\vec{y}\|^2 & {;\;Bilinéarité} \\ \\ (8) &\mathcal{H}\vdash \beta\|\vec{y}\|^2 = 0 &{;\;De(2,3,7)} \\ \\ (9) &\mathcal{H}\vdash \beta = 0 &{;\;De(1,8)} \\ \\ (10) &\mathcal{H}\vdash \alpha= 0 \wedge \beta = 0 &{;\;\wedge-int(6,9)} \end{array}
Ainsi, nous concluons que
\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0, \alpha\vec{x}+\beta\vec{y} = \vec{0}\} \vdash \alpha= 0 \wedge \beta = 0
Finalement, en appliquant le théorème de déduction à cette dernière expression, on obtient :
\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0\} \vdash (\alpha\vec{x}+\beta\vec{y} = \vec{0}) \rightarrow (\alpha= 0 \wedge \beta = 0)
La preuve permettant d’obtenir la flèche dans la direction opposée est triviale.
C’est-à-dire : si \vec{x} et \vec{y} sont des vecteurs non nuls et orthogonaux, alors ils sont linéairement indépendants.
La projection d’un vecteur sur un autre
Supposons que nous ayons deux vecteurs non nuls \vec{x} et \vec{y} qui forment entre eux un angle \angle(\vec{x},\vec{y}) et que nous nous demandons : « En quelle quantité le vecteur \vec{x} se trouve-t-il sur le vecteur \vec{y} ? » ou « Quelle est la taille de l’ombre du vecteur \vec{x} lorsqu’il est projeté sur la direction du vecteur \vec{y} ? ». Nous pouvons résoudre cette question par la trigonométrie, et ainsi définir la projection d’un vecteur \vec{x} sur un autre \vec{y}, Proy_{\vec{y}}(\vec{x}), à travers l’expression :
Proy_{\vec{y}}(\vec{x}) = \| \vec{x}\| \cos(\angle(\vec{x},\vec{y})) \hat{y}
Si nous combinons cela avec ce qui a été vu dans les paragraphes précédents, nous pouvons écrire :
\displaystyle Proy_{\vec{y}}(\vec{x}) = {\| \vec{x}\|} \left(\frac{\vec{x}\cdot\vec{y}}{{\|\vec{x}\|} \|\vec{y}\|}\right)\color{red}{\hat{y}} = \left(\frac{\vec{x}\cdot\vec{y}}{\|\vec{y}\|} \right)\color{red}{\frac{\vec{y}}{\|\vec{y}\|}} = \left(\frac{\vec{x}\cdot\vec{y}}{\|\vec{y}\|^2}\right)\vec{y} = \left(\frac{\vec{x}\cdot\vec{y}}{\vec{y}\cdot\vec{y}}\right)\vec{y}
car, rappelons-le
\displaystyle \cos(\angle(\vec{x},\vec{y})) = \frac{\vec{x}\cdot\vec{y}}{\|\vec{x}\| \|\vec{y}\|}
Les projections sont importantes car elles nous permettent d’exprimer les vecteurs en termes de n’importe quelle base comme la somme de leurs projections :
\vec{x} = \displaystyle \sum_{i=1}^n \alpha_i \hat{u}_i
Où \{\vec{u}_i\}_{i=1,\cdots, n} est une base de vecteurs linéairement indépendants de \mathbb{R}^n et les coefficients \alpha_i = (\vec{x}\cdot\vec{u}_i)/\|\vec{u}_i\| sont précisément les projections sur chaque élément de la base et constituent les coordonnées de \vec{x} par rapport à la base \{\hat{u}_i\}_{i=1,\cdots, n} de \mathbb{R}^n.
Le Théorème de Pythagore et la Projection sur un Sous-espace
Le théorème de Pythagore est un résultat connu de tous et qui possède un grand nombre de démonstrations. Une démonstration possible de ce théorème émerge précisément des matières que nous avons développées pour l’espace euclidien, avec l’avantage d’être valable pour n’importe quel nombre de dimensions.
Démonstration du Théorème de Pythagore
Si nous avons un triangle rectangle avec pour côtés adjacents a et b, et pour hypoténuse c, le théorème de Pythagore nous dit que a^2+b^2=c^2. Compris ainsi, nous pouvons représenter chaque côté adjacent par une paire de vecteurs orthogonaux \vec{x} et \vec{y} et écrire le théorème de Pythagore de la manière suivante :
\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \leftrightarrow (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2)
Où l’expression \vec{x}\bot\vec{y} indique que les deux vecteurs sont orthogonaux, c’est-à-dire : non nuls et tels que \vec{x}\cdot\vec{y}=0. De cette manière, on établit une relation de biconditionalité entre l’orthogonalité et la somme des magnitudes au carré de deux vecteurs.
Cette forme vectorielle de représenter le théorème de Pythagore peut être démontrée à travers les deux raisonnements suivants :
D’abord dans un sens :
\begin{array}{rll} (1) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \vec{x}\bot\vec{y} & {;\;Prémisse} \\ \\ (2) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \vec{x}\cdot\vec{y}= 0 & {;\;De(1)} \\ \\ (3) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \|\vec{x} + \vec{y}\|^2 = (\vec{x} + \vec{y})\cdot(\vec{x} + \vec{y}) = \|\vec{x}\|^2 + 2(\vec{x}\cdot\vec{y}) + \|\vec{y}\|^2 & \\ &;\; Propriété\;de\;la\;norme\;euclidienne\;et\;du\;produit\;scalaire & \\ \\ (4) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2 & {;\;De(2,3)} \\ \\ (5) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \rightarrow ( \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2) & {;\;TD(4)} \end{array}
Et maintenant dans l’autre sens :
\begin{array}{rll} (1) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2 & {;\;Prémisse} \\ \\ (2) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 +2(\vec{x}\cdot\vec{y}) + \|\vec{y}\|^2 & \\ &;\; Propriété\;de\;la\;norme\;euclidienne\;et\;du\;produit\;scalaire &\\ \\ (3) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \vec{x}\cdot\vec{y}=0 & {;\;De(1,2)} \\ \\ (4) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \vec{x}\bot\vec{y} & {;\;De(3)} \\ \\ (5) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2) \rightarrow \vec{x}\bot\vec{y} & {;\;TD(4)} \end{array}
Et enfin, en réunissant les deux raisonnements, on obtient ce que l’on voulait démontrer :
\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \leftrightarrow (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2)
La Projection d’un vecteur sur un Sous-espace de \mathbb{R}^n
Considérons un sous-espace H de \mathbb{R}^n formé par une base de vecteurs unitaires \{\hat{v}_1, \cdots, \hat{v}_k\}. Si nous prenons un vecteur \vec{x}\in\mathbb{R}^n\setminus\{\vec{0}\}, la projection du vecteur \vec{x} sur l’espace H est définie par l’expression :
Proy_{H}(\vec{x}) = \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j
Qu’un ensemble soit orthonormal signifie que tous ses éléments sont orthogonaux entre eux et que chacun a une norme égale à l’unité.
C’est, pour ainsi dire, l’ombre qu’un vecteur projette sur chacune des composantes du sous-espace H de \mathbb{R}^n
Distance entre un Point ou un Vecteur de \mathbb{R}^n et un Sous-espace de \mathbb{R}^n
À partir de la projection d’un vecteur \vec{x}\in\mathbb{R}^n\setminus\{\vec{0}\} sur un sous-espace H de \mathbb{R}^n, on peut construire un vecteur de la forme
\vec{x} - Proy_{H}(\vec{x})
Le vecteur formé de cette manière sera un vecteur qui relie un point du sous-espace H au point de coordonnées \vec{x}, et qui sort orthogonalement du sous-espace H. Cela n’est pas difficile à prouver : si l’on prend un vecteur quelconque \vec{z}\in H et que l’on calcule le produit scalaire (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z}, il suffit de voir que le résultat de cette opération est nul. Faisons le calcul pour vérifier que c’est bien le cas :
Si \vec{z}\in H, alors il sera de la forme
\vec{z}=\displaystyle \sum_{j=1}^k \beta_j\hat{v}_j
Où \{\hat{v}_j\}_{j=1}^k est une base orthonormale de H et \beta_j \in\mathbb{R} sont les coefficients de \vec{z} dans H. En tenant compte de cela, le calcul du produit scalaire (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z}, donnera :
\begin{array}{rl} (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} &= \left(\vec{x} - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \right) \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \vec{x} \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j \end{array}
Mais comme \vec{x} est un vecteur de \mathbb{R}^n dont H est un sous-espace, il est possible de trouver un ensemble de n-k vecteurs orthonormaux entre eux et en même temps orthogonaux à tous les vecteurs de H, disons \{\hat{v}_{k+1}, \cdots, \hat{v}_n\}, de telle sorte qu’avec la base de H ils forment une base de \mathbb{R}^n et que l’on puisse écrire
\vec{x} = \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j + \sum_{j=k+1}^n \alpha_j \hat{v}_j
De sorte que le développement ci-dessus se poursuit de la manière suivante :
\begin{array}{rl} (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} &= \displaystyle \left( \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j + \sum_{j=k+1}^n \alpha_j \hat{v}_j\right) \cdot \sum_{j=1}^k \beta_j\hat{v}_j - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j + \underbrace{\color{red}{\sum_{j=k+1}^n \alpha_j \hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j}}_{(*)} - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= 0 \end{array}
(*) Somme nulle car \{v_j\}_{j=1}^n est une base orthonormale de \mathbb{R}^n.
À partir de cela, nous pouvons démontrer que la distance entre le sous-espace H et le vecteur \vec{x} est donnée par :
\|\vec{x} - Proy_{H}(\vec{x})\|
Démonstration
Pour démontrer ce résultat, on montrera que pour tout \vec{z}\in H il sera toujours vérifié que \|\vec{x} - Proy_{H}(\vec{x})\| \leq \|\vec{x} - \vec{z}\|, pour cela nous utiliserons le théorème de Pythagore de la manière suivante :
\begin{array}{rl} \|\vec{x} - \vec{z}\|^2 &= \| \left(\vec{x} -Proy_{H}(\vec{x}) \right) + \left(Proy_{H}(\vec{x}) - \vec{z}\right)\|^2 \\ \\ &= \| \vec{x} -Proy_{H}(\vec{x}) \|^2 + \|Proy_{H}(\vec{x}) - \vec{z}\|^2 \\ \\ \end{array}
Cette dernière égalité s’obtient parce que les vecteurs \vec{x} -Proy_{H}(\vec{x}) et Proy_{H}(\vec{x}) - \vec{z} sont orthogonaux. Et par conséquent :
\|\vec{x} - Proy_{H}(\vec{x})\|^2 \leq \|\vec{x} - \vec{z}\|^2
ce qui est ce que l’on voulait démontrer.
Avec ce résultat en main, nous pouvons dire que la distance entre un point \vec{x}\in\mathbb{R}^n et un sous-espace H de \mathbb{R}^n engendré par les vecteurs orthonormaux \{\hat{v}_1, \cdots, \hat{v}_k\} est donnée par :
dist(\vec{x},H) =\left\|\vec{x} - Proy_{H}(\vec{x})\right\|= \left\|\vec{x} - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j\right\|
Le Produit Scalaire et Vectoriel dans \mathbb{R}^3
Nous allons maintenant changer un peu notre approche pour nous concentrer sur les vecteurs de \mathbb{R}^3. Ici, en plus des opérations que nous avons déjà examinées en général pour \mathbb{R}^n, il est également possible de définir le produit vectoriel qui, à partir du produit de deux vecteurs, donne un autre vecteur. C’est un produit exclusif de \mathbb{R}^3 (et possiblement de \mathbb{R}^7, cas que nous n’analyserons pas ici). Généralement, les vecteurs de la base canonique de \mathbb{R}^3 sont représentés par les lettres \hat{x}, \hat{y}, \hat{z} ou comme \hat{\imath}, \hat{\jmath}, \hat{k}. La préférence de l’un ou de l’autre est personnelle.
\begin{array}{rl} \hat{\imath} = \hat{x}&=(1,0,0)\\ \hat{\jmath} =\hat{y}&=(0,1,0)\\ \hat{k} =\hat{z}&=(0,0,1)\\ \end{array}
Ainsi, si nous avons un vecteur de la forme (a,b,c), il peut être écrit sous forme algébrique de la manière suivante :
(a,b,c) = a\hat{x} + b\hat{y} + c\hat{z}
Le produit vectoriel dans \mathbb{R}^3
Soient \vec{x}=(x_1,x_2,x_3) et \vec{y}=(y_1,y_2,y_3) des vecteurs de \mathbb{R}^3. On définit le produit vectoriel de \vec{x} avec \vec{y}, \vec{x}\times\vec{y} par :
\begin{array}{rl} \vec{x}\times\vec{y} &= \left|\begin{array}{ccc} \hat{x} & \hat{y} & \hat{z} \\ x_1 & x_2 & x_3 \\ y_1 & y_2 & y_3 \end{array}\right| \\ \\ &=\hat{x}x_2y_3 + \hat{y}x_3y_1 + \hat{z} x_1y_2 - \left( \hat{z} x_2 y_1 + \hat{y} x_1 y_3 + \hat{x}x_3y_2\right) \\ \\ &=\hat{x}(x_2y_3 - x_3y_2) + \hat{y}(x_3y_1 - x_1y_3) + \hat{z}(x_1y_2 - x_2y_1) \end{array}
L’Identité de Lagrange
Pour le cas des vecteurs de \mathbb{R}^3 nous pouvons reconnaître trois types de « produits » : le scalaire \vec{x}\cdot\vec{y}, le vectoriel \vec{x}\times\vec{y}, et celui des normes \|\vec{x}\|\|\vec{y}\|. Ces trois produits sont liés entre eux par l’identité de Lagrange
\|\vec{x}\times\vec{y}\|^2 = \|\vec{x}\|^2\|\vec{y}\|^2- (\vec{x}\cdot\vec{y})^2
Démonstration de l’identité de Lagrange
Soient \vec{x}=(x_1,x_2,x_3) et \vec{y}=(y_1,y_2,y_3) des vecteurs de \mathbb{R}^3, alors on a :
\begin{array}{rl} \vec{x}\times\vec{y} &=(x_2y_3 - x_3y_2) \hat{x} + (x_3y_1 - x_1y_3)\hat{y} + (x_1y_2 - x_2y_1)\hat{z} \end{array}
De sorte que :
\begin{array}{rl} \|\vec{x}\times\vec{y}\|^2 &=(x_2y_3 - x_3y_2)^2 + (x_3y_1 - x_1y_3)^2 + (x_1y_2 - x_2y_1)^2 \\ \\ &= \color{green}{x_2^2y_3^2 - 2x_2x_3y_3y_2 + x_3^2y_2^2} + \cdots\\ \\ &\cdots + \color{blue}{x_3^2y_1^2 - 2x_3x_1y_1y_3 + x_1^2y_3^2} + \cdots \\ \\ &\cdots + \color{red}{x_1^2y_2^2 - 2x_1x_2y_2y_1 + x_2^2y_1^2} \end{array}
D’un autre côté :
\begin{array}{rl} \|\vec{x}\|^2 \|\vec{y}\|^2 - (\vec{x}\cdot\vec{y})^2 &= (x_1^2 + x_2^2 + x_3^2)(y_1^2+y_2^2 + y_3^2) - (x_1y_1 + x_2y_2 + x_3 y_3)^2 \\ \\ \\ &= {x_1^2y_1^2} + \color{red}{x_1^2y_2^2} + \color{blue}{x_1^2y_3^2} + \cdots \\ \\ &\cdots + \color{red}{x_2^2y_1^2} + {x_2^2y_2^2} + \color{green}{x_2^2y_3^2} + \cdots \\ \\ &\cdots + \color{blue}{x_3^2y_1^2} + \color{green}{x_3^2y_2^2} + {x_3^2y_3^2} + \cdots \\ \\ &\cdots - \left[ {x_1^2y_1^2} + {x_2^2y_2^2} + {x_3^2y_3^2} + \right. \cdots \\ \\ &\cdots + 2\left(\color{red}{x_1x_2y_1y_2} + \color{blue}{x_1x_3y_1y_3} + \color{green}{x_2x_3y_2y_3} \right)\left.\right] \\ \\ \\ &= \color{red}{x_1^2y_2^2 - 2x_1x_2y_2y_1 + x_2^2y_1^2} + \cdots \\ \\ & \cdots + \color{blue}{x_1^2y_3^2 - 2x_1x_3y_3y_1 + x_3^2y_1^2} + \cdots \\ \\ & \cdots + \color{green}{x_2^2y_3^2 - 2x_2x_3y_3y_2 + x_3^2y_2^2} \end{array}
Finalement, en comparant les expressions en couleur, on obtient ce que l’on voulait démontrer.
Le Produit Vectoriel et l’angle entre vecteurs
Nous avons vu précédemment qu’il existe une relation étroite entre l’angle formé par deux vecteurs et le résultat du produit scalaire, cela est donné par la relation \vec{x}\cdot\vec{y} = \|\vec{x}\|\|\vec{y}\|\cos(\angle(\vec{x},\vec{y})). Il s’avère qu’une chose similaire se produit avec le produit vectoriel et est donnée par la relation suivante :
\|\vec{x}\times\vec{y}\| = \|\vec{x}\|\|\vec{y}\| \sin(\angle(\vec{x},\vec{y}))
Cette expression est un résultat direct de l’identité de Lagrange démontrée plus haut, la démonstration est à peu près la suivante :
\begin{array}{rl} \|\vec{x}\times\vec{y}\|^2 &= \|\vec{x}\|^2\|\vec{y}\|^2 - (\vec{x}\cdot\vec{y})^2 \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 - (\|\vec{x}\|\|\vec{y}\|\cos(\angle(\vec{x},\vec{y})))^2 \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 - \|\vec{x}\|^2\|\vec{y}\|^2\cos^2(\angle(\vec{x},\vec{y})) \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 (1 - \cos^2(\angle(\vec{x},\vec{y}))) \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 \sin^2(\angle(\vec{x},\vec{y})) \end{array}
Finalement, en prenant les racines, nous arrivons à :
\|\vec{x}\times\vec{y}\| = \|\vec{x}\|\|\vec{y}\|\; |\sin(\angle(\vec{x},\vec{y}))|
Mais rappelons que \angle(\vec{x},\vec{y})\in[0,\pi], et dans cet intervalle la fonction sinus est toujours non négative, de sorte que nous pouvons enlever la valeur absolue et obtenir ce que l’on voulait démontrer.
À partir de cette expression, nous pouvons déduire que le résultat de l’opération \|\vec{x}\times\vec{y}\| nous donne l’aire générée par les vecteurs \vec{x} et \vec{y}.
