テンソルの基本アイデア

テンソル積

Def.
K : Field
X_1, ..., X_n, V : Linear space on K
k \in L(X_1, \cdots, X_n; V)
(k,V) is called a tensor product of X_1, ..., X_n when below holds
1. \mathrm{Span} k(X_1, \cdots, X_n) = V
2. for any linear space W on K
   ^\forall \Phi \in L(X_1, \cdots, X_n; W) \quad ^\exists T \in L(V,W)
   s.t. \Phi = T \circ k
慣例により、次のように書く。
X_1 \otimes \cdots \otimes X_n := V
x_1 \otimes \cdots \otimes x_n := k(x_1, \cdots, x_n)
この記法は、テンソル積の同型を除いて一意である。
Ex.
V = K^{M \times N}
x \in K^N, \ y \in K^M
k(x,y) := x y^\mathrm{T} = \begin{pmatrix} x_1 y_1 & \cdots & x_1 y_ M \\ \vdots & \ddots & \vdots \\ x_N y_1 & \cdots & x_N y_M \end{pmatrix}

実際、K^NとK^Mの標準基底によって
x = \sum_j x_j e_j, \ y = \sum_k y_k f_k
と書くと、
k(x,y) = \sum_j \sum_k x_j y_k e_j f_k^\mathrm{T} 
従って、kの正体は
e_{jk} := e_j f_k^\mathrm{T}
を基底ベクトルとする単結合であるから、定義の1を満たす。

さらに、任意の線型空間Wに値をとる2重線型写像Φ(x,y)を一つとる。
T \in L(V;W)
として、
T(e_{jk}) := \Phi(e_j, f_k)
となるものをとると、
T(k(x,y)) = T \left( \sum_{j,k} x_j y_k e_{jk} \right) = \sum_{j,k} x_j y_k T(e_{jk}) = \sum_{j,k} x_j y_k \Phi(e_j, f_k) = \Phi \left( \sum_j x_j e_j, \sum_k y_k f_k \right) = \Phi(x,y)
となって、所望のTが得られる。Tの作り方はΦの取り方に依らないから、これで定義の2が満たされた。

n重線型写像との付き合い方

通常の線型写像の場合
V, W : Linear space on K
dim V = N, dim W = M
\Phi \in L(V;W)
V の基底 e_i として、Im Φ は次のようにして調べるのが手っ取り早い。
 \Span \ \{ \Phi( e_1 ), \cdots, \Phi( e_N ) \} = \mathrm{Im} \Phi \subset W
つまり、基底の行き先さえ調べてしまえば、あとは線形性から決まってしまうのである。
n重線型写像でも同じ
X_1, ..., X_n, W : Linear space on K
dim X_i =: d_i
\Phi \in L(X_1, \cdots, X_n; W)
X_i の基底を \{ e_j^{(i)} \}_{j=1}^{d_i} として、
 \phi_{j_1 j_2 \cdots j_n} := \Phi( e_{j_1}^{(1)}, \cdots, e_{j_n}^{(n)} ) \in W
とおけば、これらが基底ベクトルの行き先であり、
 \mathrm{Span} \{ \phi_{11 \cdots 1}, \cdots, \phi_{d_1 \cdots d_n} \} = \mathrm{Im} \Phi \subset W
抽象的なn重線型写像が、Vの基底群からWの部分空間の生成系への橋渡しをしているということ。
最終更新:2010年11月01日 14:15
ツールボックス

下から選んでください:

新しいページを作成する
ヘルプ / FAQ もご覧ください。