이 포스트에서 $V, W$는 모두 유한차원 $F$-벡터공간으로 취급한다.
Ordered basis
Definition 1. An ordered basis for $V$ is a basis for $V$ endowed with a specific order.
기저에 순서를 부여한 것을 ordered basis, 순서기저라고 부른다. 즉 순서기저로 생각하면 $\{e_1, e_2, e_3\} \neq \{e_2, e_1, e_3\}$이다.
Coordinate vector
Definition 2. Let $\beta = \{v_1, ..., v_n\}$ be an ordered basis for V.
We define the coordinate vector of $x$ relative to $\beta$, denoted $[x]_{\beta}$, by $[x]_{\beta} = \begin{pmatrix}
a_1\\
\vdots \\
a_n
\end{pmatrix}$, where $x = \sum_{i=1}^n a_iv_i$.
The standard representation of $V$ with respect to $\beta$ is the function $\phi: V \rightarrow F^n$ defined by $\phi_{\beta}(x) = [x]_{\beta}, \forall x \in V$.
$x$와 $x$의 linear combination의 계수들로 만든 열벡터를 대응시켜 함수를 정의할 수 있고, 이러한 열벡터를 $x$의 좌표벡터라고 부른다. 이때 자명하게 함수 $\phi_{\beta}$는 linear combination임을 알 수 있고, $\phi(v_i) = e_i (i = 1, ..., n)$이 성립한다. 이때 $e_i$는 $F^n$의 standard basis이다.
Matrix representation of linear transformation
Definition 3. Let $T \in \mathcal{L}(V, W)$ and $\beta = \{v_1, ..., v_n\}$ and $\gamma = \{w_1, ..., w_n\}$ be ordered bases for $V$ and $W$, respectively. We define the matrix representation of $T$ in the ordered bases $\beta$ and $\gamma$, denoted $[T]_{\beta}^{\gamma}$, by $([T]_{\beta}^{\gamma})_{ij} = a_{ij}$, where $T(v_j) = \sum_{i=1}^{m} a_{ij}w_i$.
그러니까 적당히 기저가 주어지면 linear transformation $T$는 하나의 행렬로 나타낼 수 있고, 이를 $T$의 행렬 표현이라고 한다. 어떤 선형 변환의 행렬 표현은 그 변환의 모든 정보를 담고 있다고 볼 수 있으며, 때문에 사실상 선형 변환을 행렬처럼 다루어도 문제가 없다는 것이 보장된다. Theorem 4을 미루어 보았을 때, 사실상 선형 변환을 결정하는 것은 정의역인 벡터 공간의 기저를 대입했을 때의 함숫값들, 즉 $T(\beta)$인 것을 알 수 있다. 즉 $T(\beta)$가 어떻게 생겨먹었는지가 선형 변환 $T$를 결정하는 것인데, 이때 기저로 표현하면 유니크하게 계수를 결정할 수 있기 때문에 그 계수들을 가지고 행렬을 만드는 것이다.
정의에 의해 $[T]_{\beta}^{\gamma}$의 $j$th column은 $[T(v_j)]_{\gamma}$임을 알 수 있다.
Theorem 1
Theorem 1. Let $T, U \in \mathcal{L}(V, W)$, and let $\beta, \gamma$ be ordered bases for $V, W$, respectively. Then the followings hold:
(a) If $[T]_{\beta}^{\gamma} = [U]_{\beta}^{\gamma}$, then $U = T$.
(b) $[T + U]_{\beta}^{\gamma} = [T]_{\beta}^{\gamma} + [U]_{\beta}^{\gamma}$.
(c) $[aT]_{\beta}^{\gamma} = a[T]_{\beta}^{\gamma}, \forall a \in F$.
Theorem 2
Theorem 2. Let $A \in M_{m \times n}(F), B \in M_{n \times p}(F)$. Then for each $j (1 \leq j \leq p)$,
(a) $[AB]^j = A[B]^j$,
(b) $[B]^j = B[I_p]^j$.
Proof.
(a) $[AB]^j = \begin{pmatrix} \sum A_{1k}B_{kj} \\ \vdots \\ \sum A_{mk}B_{kj} \end{pmatrix} = \sum \begin{pmatrix} A_{1k}B_{kj} \\ \vdots \\ A_{mk}B_{kj} \end{pmatrix} = \sum [A]^k([B]^j)_k = A[B]^j$.
(b) By (a), it is clear. $\blacksquare$
Theorem 3
Theorem 3. Let $T \in \mathcal{L}(V, W)$, and let $\beta, \gamma$ be ordered bases for $V, W$, respectively. Then $\forall u \in V$, $[T(u)]_{\gamma} = [T]_{\beta}^{\gamma}[u]_{\beta}.$
Proof.
- Sol 1)
Define $A := [T]_{\beta}^{\gamma}$. Let denote $\beta = \{v_1, ..., n\}$ and $\gamma = \{w_1, ..., w_m\}$. For $u \in V$, $u = \sum a_iv_i$ for some $a_i \in F$. Then we have $[T(u)]_{\gamma} = [\sum a_iT(v_i)]_{\gamma} = \sum a_i[T(v_i)]_{\gamma} = \sum a_i[A]^i = A[u]_{\beta} = [T]_{\beta}^{\gamma}[u]_{\beta}$.
- Sol 2)
Fix $u \in V$. Define $f \in \mathcal{L}(F, V)$ by $f(a) = au, \forall a \in F$ and $g \in \mathcal{L}(F, W)$ by $g(a) = aT(u), \forall a \in F$. Let $\alpha = \{1\}$ be the standard ordered basis for $F$. Note that $g = Tf$. Then we have $[T(u)]_{\gamma} = [g(1)]_{\gamma} = [g]_{\alpha}^{\gamma} = [Tf]_{\alpha}^{\gamma} = [T]_{\beta}^{\gamma}[f]_{\alpha}^{\beta} = [T]_{\beta}^{\gamma}[u]_{\beta}$.
$\blacksquare$
Reference is here: https://product.kyobobook.co.kr/detail/S000003155051