集合$T=\{ 0,1,2, \cdots, i , \cdots, n \}$は 次の半順序構造を持つとしよう. \begin{align*} 0 < i \qquad(i=1,2, \cdots, n) \end{align*} 同じ意味で,木構造 $(T, \tau: T \setminus \{0\} \to T )$ において,写像$\tau: T \setminus \{0\} \to T$が次を満たす: \begin{align} \tau(i)=0 \qquad (\forall i =1,2, \cdots, n) \tag{15.36} \end{align} と考えてもよい.



各 $i \in T$に対して, 局所コンパクト空間 $\Omega_i$を次のように定める. \begin{align} & \Omega_{0}={\mathbb R}^{m+1} = \Big\{ \beta =\begin{bmatrix} \beta_0 \\ \beta_1 \\ \vdots \\ \beta_m \end{bmatrix} \;:\; \beta_0, \beta_1, \cdots, \beta_m \in {\mathbb R} \Big\} \quad \tag{15.37} \\ & \Omega_{i}={\mathbb R} = \Big\{ \mu_i \;:\; \mu_i \in {\mathbb R} \Big\} \quad(i=1,2, \cdots, n ) \tag{15.38} \end{align} 二重数列 $\{ a_{ij} \}_{i=1, \cdots, n, \; j=1,\cdots, m}$を固定する. すなわち, \begin{align} a_{ij} \in {\mathbb R} \qquad (i=1,2, \cdots, n, \;\;j=1,2, \cdots, m, (m+1 \le n) ) \tag{15.39} \end{align} \begin{align} a_i \in {\mathbb R} \qquad (i=1,2, \cdots, n ), \nonumber%\tag{15.39} \end{align} 各$\{a_{ij} \}_{j=1, \cdots, m}$(これは通常の統計学では 「説明変数」 と呼ばれる)に対して,決定因果写像 $\psi_{a_{i \tiny{\bullet}}}: \Omega_0(={\mathbb R}^{m+1}) \to \Omega_{i} (={\mathbb R})$ を以下のように定める. \begin{align} & \Omega_0={\mathbb R}^{m+1} \ni \beta =(\beta_0, \beta_1, \cdots, \beta_m ) \mapsto \psi_{a_{i \tiny{\bullet}}} ( \beta_0, \beta_1, \cdots, \beta_m ) = \beta_0 + \sum_{j=1}^m \beta_j a_{ij}= \mu_i \in \Omega_i ={\mathbb R} \tag{15.40} \\ & \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad (i=1,2, \cdots, n) \nonumber \end{align} これをまとめて書くと, \begin{align} \beta= \begin{bmatrix} \beta_0 \\ \beta_1 \\ \beta_2 \\ \vdots \\ \beta_m \end{bmatrix} \mapsto \begin{bmatrix} \psi_{a_{1 \tiny{\bullet}}} ( \beta_0, \beta_1, \cdots, \beta_m) \\ \psi_{a_{2 \tiny{\bullet}}} ( \beta_0, \beta_1, \cdots, \beta_m) \\ \psi_{a_{3 \tiny{\bullet}}} ( \beta_0, \beta_1, \cdots, \beta_m) \\ \vdots \\ \psi_{a_{n \tiny{\bullet}}} ( \beta_0, \beta_1, \cdots, \beta_m) \end{bmatrix} = \begin{bmatrix} 1 & a_{1{1}} & a_{12} & \cdots & a_{1m} \\ 1 & a_{2{1}} & a_{22} & \cdots & a_{2m} \\ 1 & a_{3{1}} & a_{32} & \cdots & a_{3m} \\ 1 & a_{4{1}} & a_{42} & \cdots & a_{4m} \\ \vdots & \vdots & \vdots & \vdots & \vdots \\ 1 & a_{n{1}} & a_{n2} & \cdots & a_{nm} \end{bmatrix} \cdot \begin{bmatrix} \beta_0 \\ \beta_1 \\ \beta_2 \\ \vdots \\ \beta_m \end{bmatrix} \tag{15.41} \end{align} となる. また,これは次の決定マルコフ 作用素 $\Psi_{a_{i \tiny{\bullet} }}: L^\infty(\Omega_{i}) \to L^\infty(\Omega_0)$ と同値である. \begin{align} [{\Psi_{a_{i \tiny{\bullet} }}}(f_i)](\omega_0) = f_i( \psi_{a_{i \tiny{\bullet} }} (\omega_0)) \quad (\forall f_i \in L^\infty(\Omega_{i}), \;\; \forall \omega_0 \in \Omega_0, \forall i \in 1,2, \cdots, n) \tag{15.42} \end{align} したがって,同一視:$\{a_{ij} \}_{j=1, \cdots, m} \Leftrightarrow \Psi_{a_{i \tiny{\bullet}}}$の下で, "説明変数"は因果関係を表すと考える.





したがって, 次の観測量 ${\mathsf O}_{0}^{a_{i \tiny{\bullet} }} {{\equiv}} ({\mathbb R}, {\cal B}_{{\mathbb R}}, \Psi_{a_{i \tiny{\bullet} }}G_{\sigma_{}})$ ( in $L^\infty (\Omega_{0}(\equiv {\mathbb R}^{m+1}))$ )を得る. \begin{align} & [\Psi_{a_{i \tiny{\bullet} }}(G_{\sigma_{}}(\Xi))] (\beta ) = [(G_{\sigma_{}}(\Xi))] (\psi_{a_{i \tiny{\bullet} }}(\beta )) = \frac{1}{(\sqrt{2 \pi \sigma_{}^2})} \underset{\Xi}{\int} \exp \Big[{- \frac{ (x - (\beta_0 + \sum_{j=1}^m a_{i{j}} \beta_j ))^2}{2 \sigma_{}^2}} \Big] dx \\ & \qquad \qquad (\forall \Xi \in {\cal B}_{{\mathbb R}}, \forall \beta =(\beta_0, \beta_1, \cdots, \beta_m )\in \Omega_{0} (\equiv {\mathbb R}^{m+1} )) \tag{15.43} \end{align}



よって, これらの同時観測量 ${\mathop{\mbox{ $\times$}}}_{i=1}^n{\mathsf O}_{0}^{a_{i \tiny{\bullet} }} {{\equiv}} ({\mathbb R}^n, {\cal B}_{{\mathbb R}^n}, {\mathop{\mbox{ $\times$}}}_{i=1}^n \Psi_{a_{i \tiny{\bullet} }}G_{\sigma_{}})$ (in $L^\infty (\Omega_{0}(\equiv {\mathbb R}^{m+1}))$) が次のように定まる. \begin{align} & [({\mathop{\mbox{ $\times$}}}_{i=1}^n \Psi_{a_{i \tiny{\bullet} }}G_{\sigma_{}}) ({\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i)](\beta) = {\mathop{\mbox{ $\times$}}}_{i=1}^n \Big( [\Psi_{a_{i \tiny{\bullet} }}G_{\sigma_{}}) (\Xi_i)](\beta)\Big) \nonumber \\ = & \frac{1}{(\sqrt{2 \pi \sigma_{}^2})^n} \underset{{\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i}{\int \cdots \int} \exp \Big[{- \frac{ \sum_{i=1}^n (x_i - (\beta_0 + \sum_{j=1}^ma_{i{j}} \beta_j ))^2}{2 \sigma_{}^2}} \Big] dx_1 \cdots dx_n \tag{15.44} \\ & \qquad \qquad (\forall {\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i \in {\cal B}_{{\mathbb R}^n}, \forall \beta =(\beta_0, \beta_1, \cdots, \beta_m ) \in \Omega_{0} (\equiv {\mathbb R}^{m+1} )) \nonumber \end{align} ここで,$\sigma$をパラメータ変数と見て,次の観測量 ${\mathsf O}= \Big({\mathbb R}^n(=X) , {\mathcal B}_{{\mathbb R}^n}(={\mathcal F}), F \Big)$ (in $L^\infty ( \Omega_0 \times {\mathbb R}_+ )$) を得る. \begin{align} & \small{ [F({\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i )](\beta, \sigma_{}) = [({\mathop{\mbox{ $\times$}}}_{i=1}^n \Psi_{a_{i \tiny{\bullet} }}G_{\sigma_{}}) ({\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i)](\beta) \quad (\forall {\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i \in {\cal B}_{{\mathbb R}^n}, \forall (\beta , \sigma_{} ) \in {\mathbb R}^{m+1} (\equiv \Omega_0) \times {\mathbb R}_+ ) } \\ & \tag{15.45} \end{align}


よって,次の問題を得る.

問題15.8:[一般化線形モデルの(量子言語による)定式化] 状態 $ (\beta_0, \beta_1,\cdots, \beta_n, \sigma_{}^2 )$ は未知として, 測定 ${\mathsf M}_{L^\infty (\Omega_{0} \times {\mathbb R}_+)}( {\mathsf O} \equiv (X, {\cal F}, F) , S_{[(\beta_0, \beta_1,\cdots, \beta_n, \sigma_{}^2 )]} {} )$によって, 測定値 $x=\begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} ( \in X={\mathbb R}^n )$ が得られたとしよう(この測定値のことを、 目的変数 という).  このとき,状態 $ (\beta_0, \beta_1,\cdots, \beta_n, \sigma_{}^2 )$ を測定値$ x=( x_1, x_2, \ldots, x_n ) (\in {\mathbb R}^{n})$から推定せよ.



我々の目的は,一般線形化モデルを問題15.8 として,定式化することである. したがって,解答は他書をみよ.



注意15.9 回帰分析の一般化として,我々は一般線形化モデルにたどり着いた. 回帰分析の拡張として「測定誤差モデル(measurement error model, cf. 文献S. Ishikawa, Mathematical Foundations of Measurement Theory, Keio University Press Inc. 2006. の5.5節(117ページ))」も有力である。 すなわち \begin{align} \underset{\mbox{}}{\fbox{回帰分析}} \xrightarrow[\mbox{一般化}]{} \begin{cases} @: \underset{\mbox{}}{\fbox{一般線形化モデル}} \\ A:\underset{\mbox{}}{\fbox{測定誤差モデル}} \end{cases} \label{eq15.46} \end{align} である。 しかし、 一般線形化モデルが本筋である.