The Dimension Theorem

2023. 9. 3. 20:08·Mathematics/Linear Algebra

    이 포스트에서 $V, W$는 모두 $F$-벡터공간으로 취급한다.

The nullity and rank

Definition 2. Let $T \in \mathcal{L}(V, W)$. If $N(T)$ and $R(T)$ are finite-dimensional, then we define
(1) the nullity of $T$, denoted nullity($T$) := dim($N(T)$),
(2) the rank of $T$, denoted rank($T$) := dim($R(T)$).

    $N(I_V) = \{\mathbf{0}\}, R(I_V) = V$, 그리고 $N(T_0) = V, R(T_0) = \{\mathbf{0}\}$ 임을 생각해 볼 때, 직관적으로 nullity가 클수록 rank는 작아지고, 역으로 nullity가 작을수록 rank는 커진다는 것을 눈치챌 수 있다. 이러한 nullity와 rank의 관계는 다음의 정리에서 깔끔하게 정리된다.

Theorem 1 (Dimension Theorem)

Theorem 1. (Dimension Theorem) Let $T \in \mathcal{L}(V, W)$. If $V$ is fintie-dimensional, then nullity($T$) + rank($T$) = dim($V$).
Proof. Let $\beta = \{v_1, ..., v_n\}$ and $\alpha = \{v_1, ..., v_k\}$ be bases for $V$ and $N(T)$, respectively. By Theorem 2, $R(T) = \langle \{T(v_1), ..., T(v_n)\} \rangle$. We claim that $S = \{T(v_{k+1}), ..., T(v_n)\}$ is a basis for $R(T)$. 
Note that $T(v_i) = \mathbf{0} (i = 1, ..., k)$. Thus $R(T) = \langle \{T(v_1), ..., T(v_n)\} \rangle = \langle \{T(v_{k+1}), ..., T(v_n)\} \rangle = S$. So $S$ generates $R(T)$.
Suppose that $\sum_{i=k+1}^n a_iT(v_i) = \mathbf{0}$. Then we have $T(\sum_{i=k+1}^n a_iv_i) = \mathbf{0} \Longrightarrow \sum_{i=k+1}^n a_iv_i \in N(T) \Longrightarrow \sum_{i=k+1}^n a_iv_i = \sum_{j=1}^k b_jv_j \\ \Longrightarrow \sum_{j=1}^k b_jv_j + \sum_{i=k+1}^n (-a_i)v_i = \mathbf{0}.$ Since $\beta$ is linearly independent, $a_i = 0 (i = k+1, ..., n)$. Thus $S$ is a basis for $R(T)$. 
Hence we have nullity($T$) + rank($T$) = $k + (n - k) = n$ = dim($V$). $\blacksquare$

Theorem 2

Theorem 2. Let $T \in \mathcal{L}(V, W)$. Then $T$ is injective $\Longleftrightarrow$ $N(T) = \{\mathbf{0}\}.$
Proof. Let $x, y \in N(T)$. Then $T(x) = T(y) = \mathbf{0} = T(\mathbf{0}) \Longrightarrow x = y = \mathbf{0}.$ 
Suppose that $T(x) = T(y)$ for $x, y \in V$. Then $T(x) - T(y) = T(x - y) = \mathbf{0} \Longrightarrow x - y = \mathbf{0} \Longrightarrow x = y$. Thus $T$ is injective. $\blacksquare$

Theorem 3

Theorem 3. Let $V$ and $W$ have equal (finite) dimension, and let $T \in \mathcal{L}(V, W)$. Then the following are equivalent:
(a) $T$ is injective.
(b) $T$ is surjective.
(c) rank($T$) = dim($V$).
Proof. Assume that $T$ is injective $\Longleftrightarrow N(T) = \{\mathbf{0}\} \Longleftrightarrow $ nullity($T$) = 0 $\Longleftrightarrow$ rank($T$) = dim($V$) = dim($W$) $\Longleftrightarrow$ $R(T) = W \Longleftrightarrow$ $T$ is surjective. $\blacksquare$

    주의할 것은 두 vector space가 동일한 finite dimension을 가지지 않는다면 위 명제들은 일반적으로 동치가 아니다. Injective라는 말은 원소들끼리 유일하게 대응된다는 말인데, 이는 $\mathbb{0}$ 또한 마찬가지이므로 null space의 원소는 딱 하나, 바로 그 자신이다. 그런데 이 말은 nullity가 0이라는 뜻이고, dimension theorem에 의해 rank와 $V$의 차원은 같을 수 밖에 없다. 그런데 $V$와 $W$는 같은 차원이므로 rank와 $W$의 차원이 같고, 둘은 부분공간의 관계에 있으므로 $R(T) = W$, 즉 surjective라는 말로 귀결된다. 

Theorem 4

Theorem 4. Suppose that $\{v_1, ..., v_n\}$ is a basis for $V$. For $w_i (i = 1, ..., n) \in W$, $! \exists \, T \in \mathcal{L}(V, W)$ such that $T(v_i) = w_i (i = 1, ..., n)$.
Proof. Define $T : V \rightarrow W$ by $T(x) = \sum_{i=1}^{n} a_iw_i \forall x \in V$ where $x = \sum_{i=1}^{n} a_iv_i$.
Let $u, v \in V$ and $c \in F$. Then $u = \sum_{i=1}^{n} b_iv_i$ and $v = \sum_{i=1}^{n} c_iv_i.$ Hence $$T(cu + v) = T(\sum_{i=1}^{n} (cb_i + c_i)v_i) = \sum_{i=1}^{n} (cb_i + c_i)w_i \\ = c \sum_{i=1}^{n} b_iw_i + \sum_{i=1}^{n} c_iw_i = cT(u) + T(v).$$ So $T$ is linear, and clearly $T(v_i) = w_i (i = 1, ..., n).$

Let $U \in \mathcal{L}(V, W)$ such that $U(v_i) = w_i (i = 1, ..., n)$. $\forall x \in V, U(x) = U(\sum_{i=1}^{n} a_iv_i) = \sum_{i=1}^{n} a_iU(v_i) = \sum_{i=1}^{n} a_iw_i = T(x).$ Hence $U = T$. $\blacksquare$

    이 정리로부터 finite-dimensional에 한해서 두 개의 linear transformation을 비교할 때 basis만 체크하면 된다는 결론을 얻는다. 왜냐하면 사실상 선형 변환을 결정하는 요소는 정의역인 벡터 공간의 기저를 대입했을 때의 함숫값들, 즉 $T(\beta)$라고 위 정리는 말하고 있기 때문이다. 

Corollary

Corollary. Suppose that $\{v_1, ..., v_n\}$ is a basis for $V$. If $U, T \in \mathcal{L}(V, W)$ such that $U(v_i) = T(v_i) (i = 1, ..., n)$, then $U = T$.
저작자표시 (새창열림)
'Mathematics/Linear Algebra' 카테고리의 다른 글
  • Matrix Multiplication
  • The Matrix Representation of Linear Transformation
  • The Null Space and Range
  • Linear Transformation
Erdos
Erdos
수학과, 물리학과 학부생들이 운영하는 팀블로그입니다.
  • Erdos
    SAMICO
    Erdos
  • 전체
    오늘
    어제
    • 분류 전체보기 (273) N
      • Mathematics (183)
        • Real analysis (30)
        • Linear Algebra (64)
        • Number Thoery (11)
        • Calculus (55)
        • Probability (6)
        • Set Theory (13)
        • Writing (2)
        • Problems (1)
        • Abstract Algebra (1)
      • Physics (71) N
        • 일반물리 (2)
        • 상대성이론과 양자역학 입문 (35)
        • 열물리 (15) N
        • 수리물리 (13)
        • 고전역학 (6)
      • Computer (7)
      • 독서 (12)
        • 과학 (5)
        • 문학 (2)
        • 자기계발서 (4)
  • 공지사항

    • 참고서적
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.2
Erdos
The Dimension Theorem
상단으로

티스토리툴바