Rn中的代数与投影,R3中的向量积

Rn中的代数与投影,R3中的向量积

Rn中的代数与投影,{\mathbb{R}^3}中的向量积

摘要:
本系列是n维欧几里得空间系列的直接延续。在这里,我们将回顾一些线性代数的概念,以帮助更好地理解n维欧几里得空间;我们将回顾一个向量在另一个向量上的投影概念,证明勾股定理,并最后回顾\mathbb{R}^3中的向量积及其与三维欧几里得空间中其他积的关系。

目录
线性无关、正交与投影
勾股定理与子空间上的投影
\mathbb{R}^3中的点积与叉积


线性无关、正交与投影

线性组合与线性无关

一个非零向量 \vec{z} 可以相对于其他非零向量 \vec{x}\vec{y} 构造为一个线性组合,如果存在一对实数 \alpha\beta,且不同时为零,使得:

\vec{z} = \alpha \vec{x} + \beta\vec{y}

也就是说,向量 \vec{z} 可以构造为向量 \vec{x}\vec{y} 的加权和。

类似地,我们说 向量 \vec{x}\vec{y}线性无关的,如果

(\alpha \vec{x} + \beta\vec{y} = \vec{0} ) \longleftrightarrow (\alpha=0 \wedge \beta=0 )

向量 \vec{x}\vec{y} 的线性无关性告诉我们,\vec{y} 不能表示为 \vec{x} 的非零标量倍数,反之亦然。

我们刚刚回顾的线性无关概念可以扩展到更大的向量集合。非零向量集合 \{\vec{x}_1, \cdots, \vec{x}_n\} 被称为线性无关,当且仅当

\displaystyle \left[\left(\sum_{i=1}^n \alpha_i \vec{x}_i \right) = \vec{0} \right] \longleftrightarrow \left[\bigwedge_{i=1}^n (\alpha_i = 0) \right]

两个向量所成的角与正交性

如果我们回忆柯西-施瓦茨不等式, 它告诉我们 (\forall \vec{x},\vec{y}\in\mathbb{R}^n)(|\vec{x}\cdot\vec{y}| \leq \|\vec{x}\| \|\vec{y}\|). 考虑到这一点,很容易验证,对于任意一对向量 \vec{x},\vec{y}\in\mathbb{R}^n\setminus\{\vec{0}\},都有以下关系成立:

\displaystyle -1 \leq \frac{\vec{x}\cdot\vec{y}}{\|\vec{x}\|\|\vec{y}\|}\leq 1

现在我们可以直观地看到点积与向量 \vec{x}\vec{y} 所成角之间的关系,因为它们生成了一个与 \mathbb{R}^2 等距的平面。因此,不失一般性,我们可以将它们看作是 \mathbb{R}^2 中的元素,相对于 \hat{x} 轴的角度分别为 \theta_x\theta_y, 这样向量可以用极坐标形式表示为:

\begin{array}{rl} \vec{x} &= \|\vec{x}\|(\cos(\theta_x) , \sin(\theta_x)) \\ \\ \vec{y} &= \|\vec{y}\|(\cos(\theta_y) , \sin(\theta_y)) \end{array}

因此我们可以假设(再次不失一般性)\theta_x \lt \theta_y, 然后计算点积 \vec{x}\cdot\vec{y}. 这样我们得到以下结果:

\begin{array}{rl}\vec{x}\cdot \vec{y} &= \|\vec{x}\| \|\vec{y}\| (\cos(\theta_x)\cos(\theta_y) + \sin(\theta_x)\sin(\theta_y)) \\ \\ &= \|\vec{x}\| \|\vec{y}\| \cos(\theta_y-\theta_x) \end{array}

现在,取较大角度位置与较小角度位置的差,我们得到向量之间的夹角,\angle(\vec{x},\vec{y})=\theta_y - \theta_x. 由此我们可以写为:

\displaystyle \cos\left(\angle(\vec{x},\vec{y}) \right) = \frac{\vec{x} \cdot \vec{y}}{\|\vec{x}\|\|\vec{y}\|}

这里需要强调的是 \angle(\vec{x},\vec{y})\in [0, \pi]

由此我们可以将柯西-施瓦茨不等式与角度几何联系起来,并且这还使我们能够得到一个严格的正交性概念。当两个向量之间的夹角为 \pi/2 弧度时,称它们正交,如前一段所解释的那样。这等价于说 \cos\left(\angle(\vec{x},\vec{y})\right) = 0, 又等价于说 \vec{x}\cdot\vec{y} = 0. 因此,声称向量 \vec{x}\vec{y} 正交等价于说 \vec{x}\cdot\vec{y}=0.

如果两个非零向量正交,则它们线性无关

这是\mathbb{R}^n中向量的一个相当直观的性质,其形式化证明并不那么直接,同时这一性质有时也会引起一些混淆:两个向量的正交性蕴含它们的线性无关性,但两个向量的线性无关性不一定蕴含它们的正交性。要看后者,只需一个简单的反例:

如果我们取向量 \vec{A}=(1,0)\vec{B}=(1,1), 它们显然不是正交的,因为 \vec{A}\cdot\vec{B}=1, 我们会发现,如果进行如下操作:

\alpha\vec{A} + \beta\vec{B} = \vec{0}

那么我们有

\begin{array}{rl} \alpha + \beta &= 0 \\ \beta &= 0 \end{array}

因此: \alpha = 0 \wedge \beta=0. 由此我们得出结论:

\alpha\vec{A} + \beta\vec{B} = \vec{0} \longleftrightarrow \alpha = 0 \wedge \beta=0

这等价于说 \vec{A}\vec{B} 是线性无关的。由此非常清楚地表明,线性无关并不意味着正交。然而,正交确实意味着线性无关,这正是我将在下面正式证明的。为此我们考虑以下前提集合:

\mathcal{H}= \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0, \alpha\vec{x}+\beta\vec{y} = \vec{0}\}

基于此我们可以进行以下推理:

\begin{array}{rll} (1) &\mathcal{H}\vdash \vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\} &{;\;假设}\\ \\ (2) &\mathcal{H}\vdash \vec{x}\cdot\vec{y}=0 &{\;假设} \\ \\ (3) &\mathcal{H}\vdash \alpha\vec{x} + \beta\vec{y} = \vec{0} &{\;假设} \\ \\ (4) &\mathcal{H}\vdash (\alpha\vec{x} + \beta\vec{y})\cdot\vec{x} = \alpha\|\vec{x}\|^2 + \beta(\vec{x}\cdot\vec{y}) &{;\; 双线性性} \\ \\ (5) &\mathcal{H}\vdash \alpha\|\vec{x}\|^2 = 0 & {;\; 由(2,3,4)} \\ \\ (6) &\mathcal{H}\vdash \alpha = 0 & {;\; 由(1,5)} \\ \\ (7) &\mathcal{H}\vdash (\alpha\vec{x} + \beta\vec{y})\cdot\vec{y} = \alpha(\vec{x}\cdot\vec{y}) + \beta\|\vec{y}\|^2 & {;\;双线性性} \\ \\ (8) &\mathcal{H}\vdash \beta\|\vec{y}\|^2 = 0 &{;\;由(2,3,7)} \\ \\ (9) &\mathcal{H}\vdash \beta = 0 &{;\;由(1,8)} \\ \\ (10) &\mathcal{H}\vdash \alpha= 0 \wedge \beta = 0 &{;\;\wedge-引入(6,9)} \end{array}

由此我们得出结论:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0, \alpha\vec{x}+\beta\vec{y} = \vec{0}\} \vdash \alpha= 0 \wedge \beta = 0

最后,对上述表达式应用推理定理可得:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\cdot\vec{y}=0\} \vdash (\alpha\vec{x}+\beta\vec{y} = \vec{0}) \rightarrow (\alpha= 0 \wedge \beta = 0)

得到反方向箭头的证明是平凡的。

也就是说:如果 \vec{x}\vec{y} 是非零且正交的向量,那么它们就是线性无关的。

一个向量在另一个向量上的投影

假设我们有两个非零向量 \vec{x}\vec{y},它们之间夹角为 \angle(\vec{x},\vec{y}),我们问:“向量 \vec{x} 在向量 \vec{y} 上有多少分量?” 或者 “当向量 \vec{x} 投影到向量 \vec{y} 的方向上时,它的影子有多大?” 这个问题我们可以通过三角学来解决,并由此定义向量 \vec{x} 在另一个向量 \vec{y} 上的投影 Proy_{\vec{y}}(\vec{x}),表达式为:

Proy_{\vec{y}}(\vec{x}) = \| \vec{x}\| \cos(\angle(\vec{x},\vec{y})) \hat{y}

如果我们将其与前面段落中的结果结合,可以写为:

\displaystyle Proy_{\vec{y}}(\vec{x}) = {\| \vec{x}\|} \left(\frac{\vec{x}\cdot\vec{y}}{{\|\vec{x}\|} \|\vec{y}\|}\right)\color{red}{\hat{y}} = \left(\frac{\vec{x}\cdot\vec{y}}{\|\vec{y}\|} \right)\color{red}{\frac{\vec{y}}{\|\vec{y}\|}} = \left(\frac{\vec{x}\cdot\vec{y}}{\|\vec{y}\|^2}\right)\vec{y} = \left(\frac{\vec{x}\cdot\vec{y}}{\vec{y}\cdot\vec{y}}\right)\vec{y}

因为我们要记住:

\displaystyle \cos(\angle(\vec{x},\vec{y})) = \frac{\vec{x}\cdot\vec{y}}{\|\vec{x}\| \|\vec{y}\|}

投影之所以重要,是因为它们允许我们将向量表示为在任意基下的投影之和:

\vec{x} = \displaystyle \sum_{i=1}^n \alpha_i \hat{u}_i

其中 \{\vec{u}_i\}_{i=1,\cdots, n}\mathbb{R}^n 中线性无关向量的一组基,而系数 \alpha_i = (\vec{x}\cdot\vec{u}_i)/\|\vec{u}_i\| 正好是向量在该基的每个元素上的投影,并构成了向量 \vec{x} 相对于基 \{\hat{u}_i\}_{i=1,\cdots, n} 的坐标。


勾股定理与子空间上的投影

勾股定理是一个众所周知的结果,并且有无数种证明方法。该定理的一种可能证明恰好源自我们为欧几里得空间所发展的内容,并且额外具有对任意维数都成立的特点。

证明勾股定理

如果我们有一个直角三角形,两条直角边为 ab, 斜边为 c, 勾股定理告诉我们 a^2+b^2=c^2. 在理解这一点之后,我们可以用一对正交向量 \vec{x}\vec{y} 来表示每条直角边,并将勾股定理写为:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \leftrightarrow (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2)

其中表达式 \vec{x}\bot\vec{y} 表示两个向量是正交的,即非零且满足 \vec{x}\cdot\vec{y}=0. 这样,就建立了向量正交性与两个向量模平方和之间的双条件关系。

这种以向量形式表示的勾股定理可以通过以下两种推理来证明:

首先正向推理:

\begin{array}{rll} (1) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \vec{x}\bot\vec{y} & {;\;假设} \\ \\ (2) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \vec{x}\cdot\vec{y}= 0 & {;\;由(1)} \\ \\ (3) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \|\vec{x} + \vec{y}\|^2 = (\vec{x} + \vec{y})\cdot(\vec{x} + \vec{y}) = \|\vec{x}\|^2 + 2(\vec{x}\cdot\vec{y}) + \|\vec{y}\|^2 & \\ &;\; 欧几里得范数与点积的性质 & \\ \\ (4) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \vec{x}\bot\vec{y}\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2 & {;\;由(2,3)} \\ \\ (5) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \rightarrow ( \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2) & {;\;推理定理(4)} \end{array}

现在反向推理:

\begin{array}{rll} (1) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2 & {;\;假设} \\ \\ (2) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 +2(\vec{x}\cdot\vec{y}) + \|\vec{y}\|^2 & \\ &;\; 欧几里得范数与点积的性质 &\\ \\ (3) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \vec{x}\cdot\vec{y}=0 & {;\;由(1,2)} \\ \\ (4) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}, \|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2\} \vdash \vec{x}\bot\vec{y} & {;\;由(3)} \\ \\ (5) & \{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2) \rightarrow \vec{x}\bot\vec{y} & {;\;推理定理(4)} \end{array}

最后,将两个推理结合起来,就得到了想要证明的结论:

\{\vec{x},\vec{y}\in \mathbb{R}^n\setminus\{\vec{0}\}\} \vdash \vec{x}\bot\vec{y} \leftrightarrow (\|\vec{x} + \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2)

\mathbb{R}^n中一个向量在子空间上的投影

考虑一个子空间 H,它由\mathbb{R}^n中的一组单位向量基 \{\hat{v}_1, \cdots, \hat{v}_k\} 构成。如果我们取一个向量 \vec{x}\in\mathbb{R}^n\setminus\{\vec{0}\}, 那么该向量在子空间 H 上的投影定义为:

Proy_{H}(\vec{x}) = \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j

一个集合是正交规范的,意味着其所有元素彼此正交,并且每个元素的范数等于1。

也就是说,可以把它理解为向量在\mathbb{R}^n子空间 H 的各个分量上的“影子”。

\mathbb{R}^n中一点或向量与\mathbb{R}^n中子空间的距离

从一个向量的投影出发 \vec{x}\in\mathbb{R}^n\setminus\{\vec{0}\}\mathbb{R}^n 的一个子空间 H 上,我们可以构造一个如下形式的向量:

\vec{x} - Proy_{H}(\vec{x})

这样形成的向量是连接子空间 H 中一点与坐标为 \vec{x} 的点的向量,并且它垂直于子空间 H. 这并不难证明,如果我们取任意一个 \vec{z}\in H 并计算点积 (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z}, 只需看到此运算的结果为零即可。我们来计算以验证这一点:

如果 \vec{z}\in H, 那么它可以表示为:

\vec{z}=\displaystyle \sum_{j=1}^k \beta_j\hat{v}_j

其中 \{\hat{v}_j\}_{j=1}^kH 的一组正交规范基,且 \beta_j \in\mathbb{R}\vec{z}H 中的系数。考虑到这一点,点积 (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} 的计算将是:

\begin{array}{rl} (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} &= \left(\vec{x} - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \right) \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \vec{x} \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \displaystyle \sum_{j=1}^k \beta_j\hat{v}_j \end{array}

但是由于 \vec{x}\mathbb{R}^n 中的向量,而 H 是其子空间,因此可以找到 n-k 个彼此正交规范且与 H 中所有向量都正交规范的向量,记作 \{\hat{v}_{k+1}, \cdots, \hat{v}_n\}, 这样它们与 H 的基一起构成 \mathbb{R}^n 的一组基,从而可以写为:

\vec{x} = \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j + \sum_{j=k+1}^n \alpha_j \hat{v}_j

因此,上面的推导可以继续如下:

\begin{array}{rl} (\vec{x}-Proy_{H}(\vec{x}))\cdot \vec{z} &= \displaystyle \left( \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j + \sum_{j=k+1}^n \alpha_j \hat{v}_j\right) \cdot \sum_{j=1}^k \beta_j\hat{v}_j - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j + \underbrace{\color{red}{\sum_{j=k+1}^n \alpha_j \hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j}}_{(*)} - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= \displaystyle \sum_{j=1}^k (\vec{x}\cdot\hat{v}_j )\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j - \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j \cdot \sum_{j=1}^k \beta_j\hat{v}_j \\ \\ &= 0 \end{array}

(*) 为零和,因为 \{v_j\}_{j=1}^n\mathbb{R}^n 的一组正交规范基。

由此我们可以证明子空间 H 与向量 \vec{x} 之间的距离为:

\|\vec{x} - Proy_{H}(\vec{x})\|

证明

为了证明这个结果,将展示 对所有 \vec{z}\in H 总是有 \|\vec{x} - Proy_{H}(\vec{x})\| \leq \|\vec{x} - \vec{z}\|, 为此我们将以下面的方式使用勾股定理:

\begin{array}{rl} \|\vec{x} - \vec{z}\|^2 &= \| \left(\vec{x} -Proy_{H}(\vec{x}) \right) + \left(Proy_{H}(\vec{x}) - \vec{z}\right)\|^2 \\ \\ &= \| \vec{x} -Proy_{H}(\vec{x}) \|^2 + \|Proy_{H}(\vec{x}) - \vec{z}\|^2 \\ \\ \end{array}

这个最后的等式成立,是因为向量 \vec{x} -Proy_{H}(\vec{x})Proy_{H}(\vec{x}) - \vec{z} 是正交的。因此:

\|\vec{x} - Proy_{H}(\vec{x})\|^2 \leq \|\vec{x} - \vec{z}\|^2

这正是我们想要证明的。

有了这个结果,我们可以说,\vec{x}\in\mathbb{R}^n 的一点与由正交规范向量 \{\hat{v}_1, \cdots, \hat{v}_k\} 生成的 \mathbb{R}^n 子空间 H 之间的距离由下式给出:

dist(\vec{x},H) =\left\|\vec{x} - Proy_{H}(\vec{x})\right\|= \left\|\vec{x} - \displaystyle \sum_{j=1}^k (\vec{x} \cdot \hat{v}_j)\hat{v}_j\right\|


\mathbb{R}^3中的点积与叉积

现在我们稍微改变一下关注点,集中于 \mathbb{R}^3 中的向量。在这里,除了我们已经针对 \mathbb{R}^n 回顾过的运算外,还存在向量积,它由两个向量的乘积产生另一个向量。这是 \mathbb{R}^3 独有的运算(也可能存在于 \mathbb{R}^7,但此处不作分析)。通常,\mathbb{R}^3 的标准基向量表示为 \hat{x}, \hat{y}, \hat{z},或者 \hat{\imath}, \hat{\jmath}, \hat{k}。选择哪种表示是个人偏好。

\begin{array}{rl} \hat{\imath} = \hat{x}&=(1,0,0)\\ \hat{\jmath} =\hat{y}&=(0,1,0)\\ \hat{k} =\hat{z}&=(0,0,1)\\ \end{array}

因此,如果我们有一个形如 (a,b,c) 的向量,它可以用代数形式写成:

(a,b,c) = a\hat{x} + b\hat{y} + c\hat{z}

\mathbb{R}^3中的叉积

\vec{x}=(x_1,x_2,x_3)\vec{y}=(y_1,y_2,y_3)\mathbb{R}^3 中的向量。 定义 \vec{x}\vec{y} 的叉积 \vec{x}\times\vec{y} 为:

\begin{array}{rl} \vec{x}\times\vec{y} &= \left|\begin{array}{ccc} \hat{x} & \hat{y} & \hat{z} \\ x_1 & x_2 & x_3 \\ y_1 & y_2 & y_3 \end{array}\right| \\ \\ &=\hat{x}x_2y_3 + \hat{y}x_3y_1 + \hat{z} x_1y_2 - \left( \hat{z} x_2 y_1 + \hat{y} x_1 y_3 + \hat{x}x_3y_2\right) \\ \\ &=\hat{x}(x_2y_3 - x_3y_2) + \hat{y}(x_3y_1 - x_1y_3) + \hat{z}(x_1y_2 - x_2y_1) \end{array}

拉格朗日恒等式

对于\mathbb{R}^3中的向量,我们可以识别出三类“积”:点积 \vec{x}\cdot\vec{y}, 叉积 \vec{x}\times\vec{y}, 以及范数的乘积 \|\vec{x}\|\|\vec{y}\|. 这三种积通过拉格朗日恒等式彼此联系:

\|\vec{x}\times\vec{y}\|^2 = \|\vec{x}\|^2\|\vec{y}\|^2- (\vec{x}\cdot\vec{y})^2

拉格朗日恒等式的证明

\vec{x}=(x_1,x_2,x_3)\vec{y}=(y_1,y_2,y_3)\mathbb{R}^3 中的向量,则有:

\begin{array}{rl} \vec{x}\times\vec{y} &=(x_2y_3 - x_3y_2) \hat{x} + (x_3y_1 - x_1y_3)\hat{y} + (x_1y_2 - x_2y_1)\hat{z} \end{array}

因此:

\begin{array}{rl} \|\vec{x}\times\vec{y}\|^2 &=(x_2y_3 - x_3y_2)^2 + (x_3y_1 - x_1y_3)^2 + (x_1y_2 - x_2y_1)^2 \\ \\ &= \color{green}{x_2^2y_3^2 - 2x_2x_3y_3y_2 + x_3^2y_2^2} + \cdots\\ \\ &\cdots + \color{blue}{x_3^2y_1^2 - 2x_3x_1y_1y_3 + x_1^2y_3^2} + \cdots \\ \\ &\cdots + \color{red}{x_1^2y_2^2 - 2x_1x_2y_2y_1 + x_2^2y_1^2} \end{array}

另一方面:

\begin{array}{rl} \|\vec{x}\|^2 \|\vec{y}\|^2 - (\vec{x}\cdot\vec{y})^2 &= (x_1^2 + x_2^2 + x_3^2)(y_1^2+y_2^2 + y_3^2) - (x_1y_1 + x_2y_2 + x_3 y_3)^2 \\ \\ \\ &= {x_1^2y_1^2} + \color{red}{x_1^2y_2^2} + \color{blue}{x_1^2y_3^2} + \cdots \\ \\ &\cdots + \color{red}{x_2^2y_1^2} + {x_2^2y_2^2} + \color{green}{x_2^2y_3^2} + \cdots \\ \\ &\cdots + \color{blue}{x_3^2y_1^2} + \color{green}{x_3^2y_2^2} + {x_3^2y_3^2} + \cdots \\ \\ &\cdots - \left[ {x_1^2y_1^2} + {x_2^2y_2^2} + {x_3^2y_3^2} + \right. \cdots \\ \\ &\cdots + 2\left(\color{red}{x_1x_2y_1y_2} + \color{blue}{x_1x_3y_1y_3} + \color{green}{x_2x_3y_2y_3} \right)\left.\right] \\ \\ \\ &= \color{red}{x_1^2y_2^2 - 2x_1x_2y_2y_1 + x_2^2y_1^2} + \cdots \\ \\ & \cdots + \color{blue}{x_1^2y_3^2 - 2x_1x_3y_3y_1 + x_3^2y_1^2} + \cdots \\ \\ & \cdots + \color{green}{x_2^2y_3^2 - 2x_2x_3y_3y_2 + x_3^2y_2^2} \end{array}

最后,通过比较带颜色的表达式,就得到了想要证明的结论。

叉积与向量之间的角度

之前我们看到存在一个紧密关系,即两个向量所成的角与点积的结果之间的关系,它由公式 \vec{x}\cdot\vec{y} = \|\vec{x}\|\|\vec{y}\|\cos(\angle(\vec{x},\vec{y})). 给出。事实证明,对于叉积也存在类似的关系,公式为:

\|\vec{x}\times\vec{y}\| = \|\vec{x}\|\|\vec{y}\| \sin(\angle(\vec{x},\vec{y}))

这个表达式是上面证明过的拉格朗日恒等式的直接结果,证明过程大致如下:

\begin{array}{rl} \|\vec{x}\times\vec{y}\|^2 &= \|\vec{x}\|^2\|\vec{y}\|^2 - (\vec{x}\cdot\vec{y})^2 \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 - (\|\vec{x}\|\|\vec{y}\|\cos(\angle(\vec{x},\vec{y})))^2 \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 - \|\vec{x}\|^2\|\vec{y}\|^2\cos^2(\angle(\vec{x},\vec{y})) \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 (1 - \cos^2(\angle(\vec{x},\vec{y}))) \\ \\ &= \|\vec{x}\|^2\|\vec{y}\|^2 \sin^2(\angle(\vec{x},\vec{y})) \end{array}

最后,取平方根得到:

\|\vec{x}\times\vec{y}\| = \|\vec{x}\|\|\vec{y}\|\; |\sin(\angle(\vec{x},\vec{y}))|

但请记住 \angle(\vec{x},\vec{y})\in[0,\pi], 在该区间内正弦函数始终非负,因此可以去掉绝对值符号,从而得到想要证明的结论。

由这个表达式我们可以直观地看出,运算 \|\vec{x}\times\vec{y}\| 的结果就是由向量 \vec{x}\vec{y} 所生成的面积。

Views: 1

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注