Tensor
A tensor of rank $n$ in a $d$-dimensional space란 1부터 $d$까지의 값을 가지는 $n$개의 인덱스로 주어지는 component들을 가지는 object다. 예를 들어 rank 2의 3차원 텐서 $A$는 인덱스가 $2$개이고, 각 인덱스는 1부터 3까지의 값을 갖는다. 따라서 $A_{ij} (1 \leq i, j \leq 3)$과 같이 표현될 수 있고, 이는 3 by 3 matrix의 개념과 동일하다. 이와 같이 기존의 object들을 텐서라는 개념으로 일반화시킬 수 있고, 예컨대 스칼라는 rank 0 텐서, 벡터는 rank 1 텐서, 행렬은 rank 2 텐서이다. Levi-Civita symbol 같은 경우 rank 3 텐서다.
Contravariant, Covariant Vectors
그리고, 텐서는 좌표 변환시 특정한 규칙에 의해 변환된다. 예를 들어보자. 3차원 Cartesian coordinate에서 임의의 벡터 $\mathbf{A}$는 $$\mathbf{A} = A_1 \mathbf{\hat{e_1}} + A_2 \mathbf{\hat{e_2}} + A_3 \mathbf{\hat{e_3}}$$로 표현된다. 이 벡터를 회전변환하여 얻어진 벡터 $\mathbf{A'}$는 다음과 같이 표현될 수 있었다. $$\mathbf{A'} = SA \\ \Longrightarrow \begin{pmatrix} A'_1 \\ A'_2 \\ A'_3 \end{pmatrix} = \begin{pmatrix}
\frac{\partial x'_1}{\partial x_1} & \frac{\partial x'_1}{\partial x_2} & \frac{\partial x'_1}{\partial x_3} \\
\frac{\partial x'_2}{\partial x_1} & \frac{\partial x'_2}{\partial x_2} & \frac{\partial x'_2}{\partial x_3} \\
\frac{\partial x'_3}{\partial x_1} & \frac{\partial x'_3}{\partial x_2} & \frac{\partial x'_3}{\partial x_3}
\end{pmatrix} \begin{pmatrix} A_1 \\ A_2 \\ A_3\end{pmatrix} \\ \Longrightarrow A'_i = \sum_j \frac{\partial x'_i}{\partial x_j} A_j$$ 한편 chain rule을 고려했을 때, scalar function $\varphi$의 gradient를 회전변환하여 얻은 벡터는 다음과 같다. $$(\nabla \varphi)_j = \frac{\partial \varphi}{\partial x_j} \\ \Longrightarrow (\nabla \varphi)'_i \equiv \frac{\partial \varphi}{\partial x'_i} = \sum_j \frac{\partial x_j}{\partial x'_i}\frac{\partial \varphi}{\partial x_j}$$ 이는 3차원 Cartesian coordinate에서 임의의 벡터가 회전변환됐을 때 나타나는 표현과는 다르다. (gradient는 오직 한 가지 방법으로만 서술될 수 있다.) 즉 어떤 벡터는 $$\frac{\partial x_j}{\partial x'_i}$$에 의해 변환되느냐, $$\frac{\partial x'_i}{\partial x_j}$$에 의해 변환되느냐에 따라 두 가지 방법으로 나타내질 수 있다. 물론 Cartesian coordiante에서는 특별하게 이 두 가지 방법이 동일한 결과를 가져다준다. 그러나 다른 좌표계에서도 그러리라는 보장은 없다. 따라서 우리는 이 두 가지 방법에 의해 변하는 벡터 각각에 이름을 붙여줄 것이고, 이들을 contravariant vector, covariant vector라고 부른다. $$(A')^i = \sum_j \frac{\partial (x')^i}{\partial x^j} A^j \quad \mathbf{A},\ \text{a contravariant vector,}
\\[5pt]
A'_i = \sum_j \frac{\partial x^j}{\partial (x')^i} A_j \quad \mathbf{A},\ \text{a covariant vector.}
$$ 두 벡터를 구분하기 위해 contravariant vector는 superscripts로, covariant vector는 subscripts로 표기한다.
그런데 앞서 정의한 텐서의 관점에서 보면 벡터는 rank 1 텐서라고 했었다. Rank 1 텐서의 경우 하나의 인덱스만 필요하지만 rank 2의 경우 두 개의 인덱스가 필요하고, 이런 경우 둘 다 위에 있거나, 둘 다 아래에 있거나, 위아래에 하나씩 있거나, 하는 세 가지 경우의 수가 생긴다. 이때 둘 다 위에 있는 경우 contravariant tensor of rank 2, 둘 다 아래에 있는 경우 covariant tensor of rank 2라고 정의하고, 위아래에 하나씩 있는 경우 mixed tensor of rank 2라고 정의한다. $$(A')^{ij} = \sum_{kl} \frac{\partial (x')^i}{\partial x^k} \frac{\partial (x')^j}{\partial x^l} A^{kl}, \\[5pt]
(B')^i_{\ j} = \sum_{kl} \frac{\partial (x')^i}{\partial x^k} \frac{\partial x^l}{\partial (x')^j} B^k_{\ l}, \\[5pt]
(C')_{ij} = \sum_{kl} \frac{\partial x^k}{\partial (x')^i} \frac{\partial x^l}{\partial (x')^j} C_{kl}.
$$ 더 높은 rank의 tenser도 이와 동일한 방법으로 정의해줄 수 있다. 그리고 만약 Cartesian coordinate라면 위 세 표현식은 모두 동일한 값을 준다.
그런데 지금까지 스칼라니, 벡터니, 행렬이니 잘만 정의해서 써먹어 놓고는 왜 갑자기 텐서라는 뜬금없는 오브젝트를 정의하는 걸까? 텐서의 강력함은 위에서 살펴본 각 텐서의 변환식이 좌표계의 선택과 무관하게 항상 동일하다는 데에 있다. 따라서 텐서를 사용하면 좌표계에 상관없이 항상 동일한 물리량을 얻을 수 있다.
Addition and Subtraction of Tensors
동일한 종류와 rank의 텐서 $A, B$가 있을 때 두 텐서의 합은 componentwise하게 $$A^{ij} + B^{ij} = C^{ij}$$로 정의된다. 편의상 contravariant rank 2 tensor로 표기했다.
Symmetry
모든 $m, n$에 대해서 $$A^{mn} = A^{nm}$$이 성립하면 $A$는 symmetric, $$A^{mn} = - A^{nm}$$이 성립하면 antisymmetric이라고 부른다. 행렬에서 살펴보았듯이 임의의 텐서는 항상 $$A^{mn} = \frac{1}{2}(A^{mn} + A{nm}) + \frac{1}{2}(A^{mn} - A^{nm})$$과 같이 symmetric한 항과 antisymmetric한 항으로 분리될 수 있다.
Isotropic Tensors
크로네커 델타 $\delta_{kl}$은 rank 2 텐서이며, 더욱이 mixed rank 2 tensor다. 이를 확인하면 다음과 같다. 아인슈타인 컨벤션을 사용했다. $$\frac{\partial (x')^i}{\partial x^k} \frac{\partial x^l}{\partial (x')^j} \delta^k_{\ l}
= \frac{\partial (x')^i}{\partial x^k} \frac{\partial x^k}{\partial (x')^j} \\ = \frac{\partial (x')^i}{\partial (x')^j} = (\delta')^i_{\ j}$$ 따라서 $\delta^i_{\ j}$는 위에서 살펴본 mixed rank 2 tensor의 정의를 만족한다. 한편 크로네커 델타는 기존에 주어진 좌표계를 회전시켜도 같은 component 값을 가지는데, 이러한 텐서를 isotropic이라고 부른다.