Orthogonal
Definition 1. Let (V,⟨⋅,⋅⟩)(V,⟨⋅,⋅⟩) be an inner product space. Let x,y∈Vx,y∈V, and let S⊆VS⊆V. Then
(a) xx and yy are orthogonal (or perpendicular) if ⟨x,y⟩=0⟨x,y⟩=0.
(b) SS is orthogonal if any two distinct vector in SS are orthogonal.
고등학교 시절 내적을 배웠다면, 내적의 정의를 x⋅y=|x||y|cosθx⋅y=|x||y|cosθ로 기억하고 있을 것이다. 이 경우 θ=90∘θ=90∘일 때 두 벡터가 직교하고, 내적은 0이 된다. 그러나 이는 R3R3와 같이 두 벡터 사이의 각 θθ를 직관적으로 측정할 수 있는 경우에만 가능하고, 더 추상적인 공간을 다루게 되면 더 이상 두 벡터 사이의 각을 측정함으로 내적을 구할 수 없다. 따라서 어떻게 내적이 정의되어 있든 그 값이 0이라면 두 벡터는 수직, 혹은 직교한다고 말하고, 서로 수직인 벡터들을 모아놓으면 그 벡터들의 집합을 직교집합이라고 부른다.
자연스럽게 벡터 공간의 기저가 직교집합이 되는 경우를 생각해 볼 수 있고, 아래와 같이 정의한다.
Orthonormal Basis
Definition 2. Let (V,⟨⋅,⋅⟩)(V,⟨⋅,⋅⟩) be an inner product space, and let β⊆Vβ⊆V. Then
(a) ββ is orthonormal if ββ is orthogonal and consists entirely of unit vectors.
(b) ββ is an orthonormal basis for VV if ββ is an ordered basis that is orthonormal.
Remark
Remark. Let (V,⟨⋅,⋅⟩)(V,⟨⋅,⋅⟩) be an inner product space, and let x∈Vx∈V.
(a) If S={v1,v2,...}S={v1,v2,...}, then SS is orthonormal ⟺⟺ ⟨vi,vj⟩=δij⟨vi,vj⟩=δij.
(b) We call xx an unit vector if ||x||=1||x||=1. If x≠0x≠0, then x||x||x||x|| is a unit vector. The process of multiplying a nonzero vector by the reciprocal of its length is called normalizing.
Theorem 1
Theorem 1. Let (V,⟨⋅,⋅⟩)(V,⟨⋅,⋅⟩) be an inner product space and S={v1,...,vk}S={v1,...,vk} be an orthogonal subset of VV consisting of nonzero vectors. If y∈⟨S⟩y∈⟨S⟩, then y=k∑i=1⟨y,vi⟩||vi||2vi.y=k∑i=1⟨y,vi⟩||vi||2vi.
Proof. Let denote y=∑ki=1aiviy=∑ki=1aivi. Since ⟨y,vi⟩⟨y,vi⟩ = ai||vi||2ai||vi||2, we have ai=⟨y,vi⟩||vi||2ai=⟨y,vi⟩||vi||2 for each ii. Thus y=∑ki=1⟨y,vi⟩||vi||2viy=∑ki=1⟨y,vi⟩||vi||2vi. ◼■
직관적으로 말하면 yy를 orthgonal subset의 벡터들의 정사영들의 합으로 나타낼 수 있다는 것이다. 단순하게 ⟨x,y⟩=||x||||y||cosθ⟨x,y⟩=||x||||y||cosθ로 생각하자. 그러면 ⟨y,vi⟩⟨y,vi⟩는 (yy의 vivi 방향으로의 크기) * (vivi의 크기) 이고, ||vi||||vi||로 나눠줌으로써 vivi의 크기를 상쇄시켜준다. 그리고 vivi 방향으로 만들어 주면 되므로 단위벡터 vi||vi||vi||vi||를 곱한다. 이를 모든 ii에 대해서 적용한 뒤 더해주면 yy를 표현할 수 있다.
Corollary 1
Corollary 1. Let (V,⟨⋅,⋅⟩)(V,⟨⋅,⋅⟩) be an inner product space, and let SS be an orthogonal subset of VV consisting of nonzero vectors. Then SS is linearly independent.
Proof. Suppose that for v1,...,vk∈Sv1,...,vk∈S, ∑ki=1aivi=0∑ki=1aivi=0. By Theorem 1, we have that ai=⟨0,vi⟩||vi||2=0ai=⟨0,vi⟩||vi||2=0 for each ii. Thus SS is linearly independent. ◼■
Theorem 2
Theorem 2. Let (V,⟨⋅,⋅⟩)(V,⟨⋅,⋅⟩) be an inner product space and S={w1,...,wn}S={w1,...,wn} be a linearly independent subset of VV. Define S′={v1,...,vn}S′={v1,...,vn} where v1=w1v1=w1 and vk=wk−k−1∑j=1⟨wk,vj⟩||vj||2vj for 2≤k≤n.vk=wk−k−1∑j=1⟨wk,vj⟩||vj||2vj for 2≤k≤n. Then S′S′ is an orthogonal set of nonzero vectros such that ⟨S′⟩=⟨S⟩.
Proof. The proof is by mathematical induction on n. Denote Sk={w1,...,wk} for k=1,...,n.
If n=1, then S=S′. Thus the theorem is proved because v1=w1≠0.
Assume that the theorem is true for n−1 where n−1≥1.
If vn=0, then wn∈⟨S′n−1⟩=⟨Sn−1⟩. So Sn−1∪{wn}=Sn is linearly independent. ⨂ Thus vn≠0.
For any i(1≤i≤n−1), we have ⟨vn,vi⟩=⟨wn−n−1∑j=1⟨wn,vj⟩||vj||2vj,vi⟩=⟨wn,vi⟩−n−1∑j=1⟨wn,vj⟩||vj||2⟨vj,vi⟩=⟨wn,vi⟩−⟨wn,vi⟩||vi||2⟨vi,vi⟩=0 because ⟨vj,vi⟩=δji. Thus S′n is an orthogonal set of nonzero vectors. Note that ⟨S′n⟩⊆⟨Sn⟩. By Corollary, S′n is linearly independent. Thus dim(⟨S′n⟩)=dim(⟨Sn⟩)=n⟹⟨S′n⟩=⟨Sn⟩. ◼

Theorem 3
Theorem 3. Let (V,⟨⋅,⋅⟩) be a nonzero finite-dimensional inner product space. Then V has an orthonormal basis β. Furthermore, if β={v1,...,vn} and x∈V, then x=n∑i=1⟨x,vi⟩vi.
정리하면, Theorem 2를 통해 linearly independent set으로부터 동일한 벡터공간을 생성하는 직교집합을 만들 수 있고, 각 벡터들을 그 크기로 나눠줌으로써, 즉 normalization함으로써 orthonormal set을 얻을 수 있다. 따라서 이러한 과정을 벡터공간의 기저에 적용하면 항상 정규직교기저를 얻을 수 있다. 이 과정을 Gram-Schmidt Process라고 부른다.
Corollary 2
Corollary 2. Let V and W be finite-dimensional inner product space with inner products ⟨⋅,⋅⟩1 and ⟨⋅,⋅⟩2, respectively. Let β={v1,...,vn} and γ={w1,...,wm} be orthonormal bases for V and W, respectively. Let T∈L(V,W), and let A=[T]γβ. Then for any i,j, Aij=⟨T(vj),wi⟩2.
Proof. Note that ⟨T(vj),wi⟩2=⟨n∑i=1Aijwi,wi⟩2=Aij.◼