Algebra und Projektionen in Rn, Vektorprodukt in R3

Algebra und Projektionen in Rn, Vektorprodukt in R3

Algebra und Projektionen in Rn, Vektorprodukt in {\mathbb{R}^3}

Zusammenfassung:
Diese Serie ist die direkte Fortsetzung der Serie über den euklidischen Raum von n Dimensionen. Hier werden wir einige Konzepte der linearen Algebra überprüfen, die helfen, den n-dimensionalen euklidischen Raum besser zu verstehen. Wir werden die Konzepte der Projektionen eines Vektors auf einen anderen überprüfen, den Satz des Pythagoras demonstrieren und mit einer Überprüfung des Vektorprodukts in \mathbb{R}^3 und seiner Beziehung zu den anderen Produkten des 3-dimensionalen euklidischen Raums abschließen.

INHALT
Lineare Unabhängigkeit, Orthogonalität und Projektionen
Der Satz des Pythagoras und die Projektion auf einen Unterraum
Das Skalar- und Vektorprodukt in \mathbb{R}^3


Lineare Unabhängigkeit, Orthogonalität und Projektionen

Linearkombination und lineare Unabhängigkeit

Ein von null verschiedener Vektor \vec{z} kann als eine Linearkombination in Bezug auf andere von null verschiedene Vektoren \vec{x} und \vec{y} konstruiert werden, wenn es ein Paar reeller Zahlen \alpha und \beta gibt, die nicht beide gleichzeitig null sind, so dass gilt:

\vec{z} = \alpha \vec{x} + \beta\vec{y}

Das heißt, der Vektor \vec{z} kann als eine gewichtete Summe der Vektoren \vec{x} und \vec{y} konstruiert werden.

Analog dazu sagt man, dass die Vektoren \vec{x} und \vec{y} linear unabhängig sind, wenn

(\alpha \vec{x} + \beta\vec{y} = \vec{0} ) \longleftrightarrow (\alpha=0 \wedge \beta=0 )

Die lineare Unabhängigkeit der Vektoren \vec{x} und \vec{y} besagt, dass \vec{y} nicht als ein (von null verschiedener) skalarer Vielfaches von \vec{x} dargestellt werden kann, und umgekehrt.

Das Konzept der linearen Unabhängigkeit, das wir gerade überprüft haben, kann auf größere Mengen von Vektoren erweitert werden. Die Menge der von null verschiedenen Vektoren \{\vec{x}_1, \cdots, \vec{x}_n\} heißt linear unabhängig, wenn

\displaystyle \left[\left(\sum_{i=1}^n \alpha_i \vec{x}_i \right) = \vec{0} \right] \longleftrightarrow \left[\bigwedge_{i=1}^n (\alpha_i = 0) \right]

Der Winkel zwischen zwei Vektoren und die Orthogonalität

Wenn wir uns an die Cauchy-Schwarz-Ungleichung erinnern, so besagt diese, dass (\forall \vec{x},\vec{y}\in\mathbb{R}^n)(|\vec{x}\cdot\vec{y}| \leq \|\vec{x}\| \|\vec{y}\|). Unter Berücksichtigung dessen ist es leicht festzustellen, dass für jedes Paar von Vektoren \vec{x},\vec{y}\in\mathbb{R}^n\setminus\{\vec{0}\} die folgende Beziehung gilt:

\displaystyle -1 \leq \frac{\vec{x}\cdot\vec{y}}{\|\vec{x}\|\|\vec{y}\|}\leq 1

Nun können wir eine Beziehung zwischen dem Skalarprodukt und dem Winkel, den die Vektoren \vec{x} und \vec{y} bilden, erahnen, da diese eine Ebene erzeugen, die isometrisch zu \mathbb{R}^2 ist. Daher können wir uns ohne Beschränkung der Allgemeinheit vorstellen, dass sie Elemente von \mathbb{R}^2 mit Winkeln bezüglich der \hat{x}-Achse von \theta_x und \theta_y sind, sodass die Vektoren in Polardarstellung wie folgt geschrieben werden:

\begin{array}{rl} \vec{x} &= \|\vec{x}\|(\cos(\theta_x) , \sin(\theta_x)) \\ \\ \vec{y} &= \|\vec{y}\|(\cos(\theta_y) , \sin(\theta_y)) \end{array}

Daher können wir (wiederum ohne Beschränkung der Allgemeinheit) annehmen, dass \theta_x \lt \theta_y, um dann das Skalarprodukt \vec{x}\cdot\vec{y} zu berechnen. Wenn wir dies tun, erhalten wir folgendes Ergebnis:

\begin{array}{rl}\vec{x}\cdot \vec{y} &= \|\vec{x}\| \|\vec{y}\| (\cos(\theta_x)\cos(\theta_y) + \sin(\theta_x)\sin(\theta_y)) \\ \\ &= \|\vec{x}\| \|\vec{y}\| \cos(\theta_y-\theta_x) \end{array}

Nun, indem wir die Differenz zwischen der größeren und der kleineren Winkelposition nehmen, erhalten wir den zwischen den Vektoren eingeschlossenen Winkel, \angle(\vec{x},\vec{y})=\theta_y - \theta_x. Und damit können wir nun schreiben:

\displaystyle \cos\left(\angle(\vec{x},\vec{y}) \right) = \frac{\vec{x} \cdot \vec{y}}{\|\vec{x}\|\|\vec{y}\|}

Hier müssen wir betonen, dass \angle(\vec{x},\vec{y})\in [0, \pi]

Ausgehend davon können wir die Cauchy-Schwarz-Ungleichung mit der Geometrie der Winkel verbinden, und zudem ermöglicht es uns, eine strenge Vorstellung von Orthogonalität zu gewinnen. Zwei Vektoren heißen orthogonal, wenn sie einen Winkel von \pi/2 Radianten einschließen, im Sinne der im vorigen Absatz erläuterten Erklärung. Dies ist gleichbedeutend damit zu sagen, dass \cos\left(\angle(\vec{x},\vec{y})\right) = 0, was wiederum gleichbedeutend damit ist, dass \vec{x}\cdot\vec{y} = 0. Aus diesem Grund sagt man, dass die Behauptung der Orthogonalität der Vektoren \vec{x} und \vec{y} gleichbedeutend damit ist, dass \vec{x}\cdot\vec{y}=0.

Wenn zwei von null verschiedene Vektoren orthogonal sind, dann sind sie linear unabhängig

Dies ist eine etwas intuitive Eigenschaft der Vektoren von \mathbb{R}^n, deren formaler Beweis nicht so direkt ist, und es ist auch eine Eigenschaft, die gelegentlich etwas Verwirrung stiften kann: Die Orthogonalität zweier Vektoren impliziert ihre lineare Unabhängigkeit, aber die lineare Unabhängigkeit zweier Vektoren impliziert nicht notwendigerweise ihre Orthogonalität. Um Letzteres zu sehen, genügt ein einfaches Gegenbeispiel:

Wenn wir die Vektoren \vec{A}=(1,0) und \vec{B}=(1,1) nehmen, die offensichtlich nicht orthogonal sind, da \vec{A}\cdot\vec{B}=1, sehen wir, dass wenn wir

\alpha\vec{A} + \beta\vec{B} = \vec{0}

berechnen, dann gilt

\begin{array}{rl} \alpha + \beta &= 0 \\ \beta &= 0 \end{array}

und daher: \alpha = 0 \wedge \beta=0. Und damit folgt:

\alpha\vec{A} + \beta\vec{B} = \vec{0} \longleftrightarrow \alpha = 0 \wedge \beta=0

Dies ist gleichbedeutend damit zu sagen, dass \vec{A} und \vec{B} linear unabhängig sind. Damit wird sehr deutlich, dass es nicht zutrifft, dass lineare Unabhängigkeit Orthogonalität impliziert. Orthogonalität impliziert jedoch lineare Unabhängigkeit, und dies werde ich im Folgenden formal beweisen. Dafür betrachten wir die folgende Menge von Prämissen:

\mathcal{H}= \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0, \alpha\vec{x}+\beta\vec{y} = \vec{0}\}

Daraus können wir die folgende Argumentation ableiten:

\begin{array}{rll} (1) &\mathcal{H}\vdash \vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\} &{;\;Annahme}\\ \\ (2) &\mathcal{H}\vdash \vec{x}\cdot\vec{y}=0 &{\;Annahme} \\ \\ (3) &\mathcal{H}\vdash \alpha\vec{x} + \beta\vec{y} = \vec{0} &{\;Annahme} \\ \\ (4) &\mathcal{H}\vdash (\alpha\vec{x} + \beta\vec{y})\cdot\vec{x} = \alpha\|\vec{x}\|^2 + \beta(\vec{x}\cdot\vec{y}) &{;\; Bilinearität} \\ \\ (5) &\mathcal{H}\vdash \alpha\|\vec{x}\|^2 = 0 & {;\; Aus(2,3,4)} \\ \\ (6) &\mathcal{H}\vdash \alpha = 0 & {;\; Aus(1,5)} \\ \\ (7) &\mathcal{H}\vdash (\alpha\vec{x} + \beta\vec{y})\cdot\vec{y} = \alpha(\vec{x}\cdot\vec{y}) + \beta\|\vec{y}\|^2 & {;\;Bilinearität} \\ \\ (8) &\mathcal{H}\vdash \beta\|\vec{y}\|^2 = 0 &{;\;Aus(2,3,7)} \\ \\ (9) &\mathcal{H}\vdash \beta = 0 &{;\;Aus(1,8)} \\ \\ (10) &\mathcal{H}\vdash \alpha= 0 \wedge \beta = 0 &{;\;\wedge-int(6,9)} \end{array}

Daraus schließen wir:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0, \alpha\vec{x}+\beta\vec{y} = \vec{0}\} \vdash \alpha= 0 \wedge \beta = 0

Schließlich erhält man, wenn man den Deduktionssatz auf diesen letzten Ausdruck anwendet:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0\} \vdash (\alpha\vec{x}+\beta\vec{y} = \vec{0}) \rightarrow (\alpha= 0 \wedge \beta = 0)

Der Beweis für den umgekehrten Pfeil ist trivial.

Das heißt: Wenn \vec{x} und \vec{y} von null verschiedene und orthogonale Vektoren sind, dann sind sie linear unabhängig.

Die Projektion eines Vektors auf einen anderen

Nehmen wir an, wir haben zwei von null verschiedene Vektoren \vec{x} und \vec{y}, die einen Winkel \angle(\vec{x},\vec{y}) einschließen, und wir fragen uns: „In welchem Ausmaß liegt der Vektor \vec{x} auf dem Vektor \vec{y}?“ oder „Wie groß ist der Schatten des Vektors \vec{x}, wenn er auf die Richtung des Vektors \vec{y} projiziert wird?“. Diese Frage können wir mithilfe der Trigonometrie lösen und damit die Projektion eines Vektors \vec{x} auf einen anderen \vec{y}, Proy_{\vec{y}}(\vec{x}), durch den folgenden Ausdruck definieren:

Proy_{\vec{y}}(\vec{x}) = \| \vec{x}\| \cos(\angle(\vec{x},\vec{y})) \hat{y}

Wenn wir dies mit dem in den vorherigen Absätzen Gesehenen kombinieren, können wir schreiben:

\displaystyle Proy_{\vec{y}}(\vec{x}) = {\| \vec{x}\|} \left(\frac{\vec{x}\cdot\vec{y}}{{\|\vec{x}\|} \|\vec{y}\|}\right)\color{red}{\hat{y}} = \left(\frac{\vec{x}\cdot\vec{y}}{\|\vec{y}\|} \right)\color{red}{\frac{\vec{y}}{\|\vec{y}\|}} = \left(\frac{\vec{x}\cdot\vec{y}}{\|\vec{y}\|^2}\right)\vec{y} = \left(\frac{\vec{x}\cdot\vec{y}}{\vec{y}\cdot\vec{y}}\right)\vec{y}

da wir uns erinnern:

\displaystyle \cos(\angle(\vec{x},\vec{y})) = \frac{\vec{x}\cdot\vec{y}}{\|\vec{x}\| \|\vec{y}\|}

Projektionen sind wichtig, weil sie es uns ermöglichen, die Vektoren in Bezug auf jede Basis als Summe ihrer Projektionen auszudrücken:

\vec{x} = \displaystyle \sum_{i=1}^n \alpha_i \hat{u}_i

Wobei \{\vec{u}_i\}_{i=1,\cdots, n} eine Basis linear unabhängiger Vektoren von \mathbb{R}^n ist und die Koeffizienten \alpha_i = (\vec{x}\cdot\vec{u}_i)/\|\vec{u}_i\| genau die Projektionen auf jedes Element der Basis sind, die die Koordinaten von \vec{x} bezüglich der Basis \{\hat{u}_i\}_{i=1,\cdots, n} von \mathbb{R}^n darstellen.


Der Satz des Pythagoras und die Projektion auf einen Unterraum

Der Satz des Pythagoras ist ein bekanntes Resultat, das über unzählige Beweise verfügt. Ein möglicher Beweis dieses Satzes ergibt sich genau aus den Themen, die wir für den euklidischen Raum entwickelt haben, mit dem Zusatz, dass er für jede Anzahl von Dimensionen gültig ist.

Beweis des Satzes von Pythagoras

Wenn wir ein rechtwinkliges Dreieck mit Katheten a und b und Hypotenuse c haben, dann sagt uns der Satz des Pythagoras, dass a^2+b^2=c^2. Unter dieser Annahme können wir jede Kathete durch ein Paar orthogonaler Vektoren \vec{x} und \vec{y} darstellen und den Satz des Pythagoras folgendermaßen schreiben:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \leftrightarrow (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2)

Wobei der Ausdruck \vec{x}\bot\vec{y} angibt, dass beide Vektoren orthogonal sind, das heißt: von null verschieden und so, dass \vec{x}\cdot\vec{y}=0. Auf diese Weise wird eine bikonditionale Beziehung zwischen der Orthogonalität und der Summe der Quadrate der Beträge zweier Vektoren hergestellt.

Diese vektorielle Form zur Darstellung des Satzes von Pythagoras kann durch die folgenden zwei Argumentationen bewiesen werden:

Zuerst die Hinrichtung:

\begin{array}{rll} (1) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \vec{x}\bot\vec{y} & {;\;Annahme} \\ \\ (2) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \vec{x}\cdot\vec{y}= 0 & {;\;Aus(1)} \\ \\ (3) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \|\vec{x} + \vec{y}\|^2 = (\vec{x} + \vec{y})\cdot(\vec{x} + \vec{y}) = \|\vec{x}\|^2 + 2(\vec{x}\cdot\vec{y}) + \|\vec{y}\|^2 & \\ &;\; Eigenschaft\;der\;euklidischen\;Norm\;und\;des\;Skalarprodukts & \\ \\ (4) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2 & {;\;Aus(2,3)} \\ \\ (5) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \rightarrow ( \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2) & {;\;DS(4)} \end{array}

Und nun die Rückrichtung:

\begin{array}{rll} (1) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2 & {;\;Annahme} \\ \\ (2) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 +2(\vec{x}\cdot\vec{y}) + \|\vec{y}\|^2 & \\ &;\; Eigenschaft\;der\;euklidischen\;Norm\;und\;des\;Skalarprodukts &\\ \\ (3) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \vec{x}\cdot\vec{y}=0 & {;\;Aus(1,2)} \\ \\ (4) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \vec{x}\bot\vec{y} & {;\;Aus(3)} \\ \\ (5) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2) \rightarrow \vec{x}\bot\vec{y} & {;\;DS(4)} \end{array}

Und schließlich, wenn man beide Argumentationen zusammenführt, erhält man das, was man zeigen wollte:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \leftrightarrow (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2)

Die Projektion eines Vektors auf einen Unterraum von \mathbb{R}^n

Betrachten wir einen Unterraum H von \mathbb{R}^n, der durch eine Basis von Einheitsvektoren \{\hat{v}_1, \cdots, \hat{v}_k\} gebildet wird. Wenn wir einen Vektor \vec{x}\in\mathbb{R}^n\setminus\{\vec{0}\} nehmen, wird die Projektion des Vektors \vec{x} auf den Raum H durch den folgenden Ausdruck definiert:

Proy_{H}(\vec{x}) = \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j

Dass eine Menge orthonormal ist, bedeutet, dass alle ihre Elemente zueinander orthogonal sind und jeder von ihnen Norm gleich eins hat.

Das ist sozusagen der Schatten, den ein Vektor auf jede der Komponenten des Unterraums H von \mathbb{R}^n wirft.

Abstand zwischen einem Punkt oder Vektor von \mathbb{R}^n und einem Unterraum von \mathbb{R}^n

Ausgehend von der Projektion eines Vektors \vec{x}\in\mathbb{R}^n\setminus\{\vec{0}\} auf einen Unterraum H von \mathbb{R}^n kann man einen Vektor der Form

\vec{x} - Proy_{H}(\vec{x})

konstruieren. Der auf diese Weise gebildete Vektor ist ein Vektor, der einen Punkt des Unterraums H mit dem Punkt der Koordinaten \vec{x} verbindet und der orthogonal zum Unterraum H verläuft. Dies ist nicht schwer zu beweisen: Wenn wir einen beliebigen Vektor \vec{z}\in H nehmen und das Skalarprodukt (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} berechnen, genügt es zu sehen, dass das Ergebnis dieser Operation null ist. Machen wir die Rechnung, um zu prüfen, ob dies tatsächlich der Fall ist:

Wenn \vec{z}\in H, dann ist er von der Form

\vec{z}=\displaystyle \sum_{j=1}^k \beta_j\hat{v}_j

wobei \{\hat{v}_j\}_{j=1}^k eine Orthonormalbasis von H ist und \beta_j \in\mathbb{R} die Koeffizienten von \vec{z} in H sind. Unter dieser Annahme ergibt die Berechnung des Skalarprodukts (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z}:

\begin{array}{rl} (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} &= \left(\vec{x} - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \right) \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \vec{x} \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j \end{array}

Da \vec{x} ein Vektor von \mathbb{R}^n ist, von dem H ein Unterraum ist, ist es möglich, eine Menge von n-k Vektoren zu finden, die untereinander orthonormal und gleichzeitig zu allen Vektoren von H orthonormal sind, sagen wir \{\hat{v}_{k+1}, \cdots, \hat{v}_n\}, sodass sie zusammen mit der Basis von H eine Basis für \mathbb{R}^n bilden und man schreiben kann:

\vec{x} = \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j + \sum_{j=k+1}^n \alpha_j \hat{v}_j

Sodass sich die obige Entwicklung folgendermaßen fortsetzt:

\begin{array}{rl} (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} &= \displaystyle \left( \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j + \sum_{j=k+1}^n \alpha_j \hat{v}_j\right) \cdot \sum_{j=1}^k \beta_j\hat{v}_j - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j + \underbrace{\color{red}{\sum_{j=k+1}^n \alpha_j \hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j}}_{(*)} - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= 0 \end{array}

(*) Nullsumme, weil \{v_j\}_{j=1}^n eine Orthonormalbasis von \mathbb{R}^n ist.

Daraus können wir folgern, dass der Abstand zwischen dem Unterraum H und dem Vektor \vec{x} gegeben ist durch:

\|\vec{x} - Proy_{H}(\vec{x})\|

Beweis

Um dieses Resultat zu beweisen, wird gezeigt, dass für jedes \vec{z}\in H stets gilt, dass \|\vec{x} - Proy_{H}(\vec{x})\| \leq \|\vec{x} - \vec{z}\|. Dafür verwenden wir den Satz des Pythagoras in folgender Weise:

\begin{array}{rl} \|\vec{x} - \vec{z}\|^2 &= \| \left(\vec{x} -Proy_{H}(\vec{x}) \right) + \left(Proy_{H}(\vec{x}) - \vec{z}\right)\|^2 \\ \\ &= \| \vec{x} -Proy_{H}(\vec{x}) \|^2 + \|Proy_{H}(\vec{x}) - \vec{z}\|^2 \\ \\ \end{array}

Diese letzte Gleichung ergibt sich daraus, dass die Vektoren \vec{x} -Proy_{H}(\vec{x}) und Proy_{H}(\vec{x}) - \vec{z} orthogonal sind. Und daher gilt:

\|\vec{x} - Proy_{H}(\vec{x})\|^2 \leq \|\vec{x} - \vec{z}\|^2

was zu zeigen war.

Mit diesem Ergebnis in der Hand können wir sagen, dass der Abstand zwischen einem Punkt \vec{x}\in\mathbb{R}^n und einem Unterraum H von \mathbb{R}^n, der durch die orthonormalen Vektoren \{\hat{v}_1, \cdots, \hat{v}_k\} erzeugt wird, gegeben ist durch:

dist(\vec{x},H) =\left\|\vec{x} - Proy_{H}(\vec{x})\right\|= \left\|\vec{x} - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j\right\|


Das Skalar- und Vektorprodukt in \mathbb{R}^3

Nun werden wir unseren Fokus ein wenig ändern, um uns auf die Vektoren von \mathbb{R}^3 zu konzentrieren. Hier ist es, zusätzlich zu den Operationen, die wir bereits allgemein für \mathbb{R}^n betrachtet haben, auch möglich, das Vektorprodukt zu definieren, das aus dem Produkt zweier Vektoren einen weiteren Vektor ergibt. Dies ist ein exklusives Produkt von \mathbb{R}^3 (und möglicherweise von \mathbb{R}^7, dessen Fall wir hier nicht analysieren werden). Im Allgemeinen werden die Vektoren der kanonischen Basis von \mathbb{R}^3 durch die Buchstaben \hat{x}, \hat{y}, \hat{z} oder als \hat{\imath}, \hat{\jmath}, \hat{k} dargestellt. Die Präferenz für das eine oder andere ist persönlich.

\begin{array}{rl} \hat{\imath} = \hat{x}&=(1,0,0)\\ \hat{\jmath} =\hat{y}&=(0,1,0)\\ \hat{k} =\hat{z}&=(0,0,1)\\ \end{array}

Wenn wir also einen Vektor der Form (a,b,c) haben, kann er in algebraischer Form wie folgt geschrieben werden:

(a,b,c) = a\hat{x} + b\hat{y} + c\hat{z}

Das Vektorprodukt in \mathbb{R}^3

Seien \vec{x}=(x_1,x_2,x_3) und \vec{y}=(y_1,y_2,y_3) Vektoren von \mathbb{R}^3. Das Vektorprodukt von \vec{x} mit \vec{y}, \vec{x}\times\vec{y}, wird definiert durch:

\begin{array}{rl} \vec{x}\times\vec{y} &= \left|\begin{array}{ccc} \hat{x} & \hat{y} & \hat{z} \\ x_1 & x_2 & x_3 \\ y_1 & y_2 & y_3 \end{array}\right| \\ \\ &=\hat{x}x_2y_3 + \hat{y}x_3y_1 + \hat{z} x_1y_2 - \left( \hat{z} x_2 y_1 + \hat{y} x_1 y_3 + \hat{x}x_3y_2\right) \\ \\ &=\hat{x}(x_2y_3 - x_3y_2) + \hat{y}(x_3y_1 - x_1y_3) + \hat{z}(x_1y_2 - x_2y_1) \end{array}

Die Lagrange-Identität

Für den Fall der Vektoren in \mathbb{R}^3 können wir drei Arten von „Produkten“ erkennen: Das Skalarprodukt \vec{x}\cdot\vec{y}, das Vektorprodukt \vec{x}\times\vec{y} und das Produkt der Normen \|\vec{x}\|\|\vec{y}\|. Diese drei Produkte stehen durch die Lagrange-Identität miteinander in Beziehung:

\|\vec{x}\times\vec{y}\|^2 = \|\vec{x}\|^2\|\vec{y}\|^2- (\vec{x}\cdot\vec{y})^2

Beweis der Lagrange-Identität

Seien \vec{x}=(x_1,x_2,x_3) und \vec{y}=(y_1,y_2,y_3) Vektoren von \mathbb{R}^3, dann gilt:

\begin{array}{rl} \vec{x}\times\vec{y} &=(x_2y_3 - x_3y_2) \hat{x} + (x_3y_1 - x_1y_3)\hat{y} + (x_1y_2 - x_2y_1)\hat{z} \end{array}

Sodass:

\begin{array}{rl} \|\vec{x}\times\vec{y}\|^2 &=(x_2y_3 - x_3y_2)^2 + (x_3y_1 - x_1y_3)^2 + (x_1y_2 - x_2y_1)^2 \\ \\ &= \color{green}{x_2^2y_3^2 - 2x_2x_3y_3y_2 + x_3^2y_2^2} + \cdots\\ \\ &\cdots + \color{blue}{x_3^2y_1^2 - 2x_3x_1y_1y_3 + x_1^2y_3^2} + \cdots \\ \\ &\cdots + \color{red}{x_1^2y_2^2 - 2x_1x_2y_2y_1 + x_2^2y_1^2} \end{array}

Andererseits:

\begin{array}{rl} \|\vec{x}\|^2 \|\vec{y}\|^2 - (\vec{x}\cdot\vec{y})^2 &= (x_1^2 + x_2^2 + x_3^2)(y_1^2+y_2^2 + y_3^2) - (x_1y_1 + x_2y_2 + x_3 y_3)^2 \\ \\ \\ &= {x_1^2y_1^2} + \color{red}{x_1^2y_2^2} + \color{blue}{x_1^2y_3^2} + \cdots \\ \\ &\cdots + \color{red}{x_2^2y_1^2} + {x_2^2y_2^2} + \color{green}{x_2^2y_3^2} + \cdots \\ \\ &\cdots + \color{blue}{x_3^2y_1^2} + \color{green}{x_3^2y_2^2} + {x_3^2y_3^2} + \cdots \\ \\ &\cdots - \left[ {x_1^2y_1^2} + {x_2^2y_2^2} + {x_3^2y_3^2} + \right. \cdots \\ \\ &\cdots + 2\left(\color{red}{x_1x_2y_1y_2} + \color{blue}{x_1x_3y_1y_3} + \color{green}{x_2x_3y_2y_3} \right)\left.\right] \\ \\ \\ &= \color{red}{x_1^2y_2^2 - 2x_1x_2y_2y_1 + x_2^2y_1^2} + \cdots \\ \\ & \cdots + \color{blue}{x_1^2y_3^2 - 2x_1x_3y_3y_1 + x_3^2y_1^2} + \cdots \\ \\ & \cdots + \color{green}{x_2^2y_3^2 - 2x_2x_3y_3y_2 + x_3^2y_2^2} \end{array}

Schließlich erhält man durch den Vergleich der farbigen Ausdrücke das, was man zeigen wollte.

Das Kreuzprodukt und der Winkel zwischen Vektoren

Wir haben zuvor gesehen, dass eine enge Beziehung zwischen dem von zwei Vektoren eingeschlossenen Winkel und dem Ergebnis des Skalarprodukts besteht. Dies wird durch die Beziehung \vec{x}\cdot\vec{y} = \|\vec{x}\|\|\vec{y}\|\cos(\angle(\vec{x},\vec{y})). ausgedrückt. Es stellt sich heraus, dass etwas Ähnliches für das Vektorprodukt gilt, was durch die folgende Beziehung gegeben ist:

\|\vec{x}\times\vec{y}\| = \|\vec{x}\|\|\vec{y}\| \sin(\angle(\vec{x},\vec{y}))

Dieser Ausdruck ist ein direktes Resultat der oben bewiesenen Lagrange-Identität. Der Beweis gestaltet sich ungefähr folgendermaßen:

\begin{array}{rl} \|\vec{x}\times\vec{y}\|^2 &= \|\vec{x}\|^2\|\vec{y}\|^2 - (\vec{x}\cdot\vec{y})^2 \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 - (\|\vec{x}\|\|\vec{y}\|\cos(\angle(\vec{x},\vec{y})))^2 \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 - \|\vec{x}\|^2\|\vec{y}\|^2\cos^2(\angle(\vec{x},\vec{y})) \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 (1 - \cos^2(\angle(\vec{x},\vec{y}))) \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 \sin^2(\angle(\vec{x},\vec{y})) \end{array}

Schließlich erhalten wir durch Ziehen der Wurzel:

\|\vec{x}\times\vec{y}\| = \|\vec{x}\|\|\vec{y}\|\; |\sin(\angle(\vec{x},\vec{y}))|

Aber erinnern wir uns daran, dass \angle(\vec{x},\vec{y})\in[0,\pi], und in diesem Wertebereich ist die Sinusfunktion stets nicht-negativ, sodass wir den Absolutwert weglassen können und zu dem gelangen, was gezeigt werden sollte.

Aus diesem Ausdruck können wir intuitiv erkennen, dass das Ergebnis der Operation \|\vec{x}\times\vec{y}\| uns die von den Vektoren \vec{x} und \vec{y} aufgespannte Fläche liefert.

Views: 0

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert