回帰分析のソースを表示
←
回帰分析
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、以下のグループに属する利用者のみが実行できます:
登録利用者
。
このページは編集や他の操作ができないように保護されています。
このページのソースの閲覧やコピーができます。
'''【かいきぶんせき (regression analysis)】''' === 概要 === 目的変数といわれる1つの変数と説明変数といわれる変数の間の関数関係を求める方法. 説明変数が1つである場合を単回帰分析, 複数である場合を重回帰分析といい, 説明変数の関数を回帰式という. その評価としては, 目的変数の値と関数の値の差の二乗和を用いることが多いが, 差の絶対値を用いることもある. 推測統計では, 回帰式を求めることは, 目的変数の期待値の推定に当たる. === 詳説 === 分析の対象に対して, 複数の間隔尺度変数についての値(長さ, 時間などのいわゆる計量値)が得られているとする. 変数は, 一つの目的変数といくつかの説明変数に分かれていて, 目的変数とできるだけ近い値をとる説明変数の関数を求めるのを回帰分析という. 説明変数が一つである場合を単回帰分析, 二つ以上である場合を重回帰分析という. [回帰式] 説明変数の関数を回帰式という. 説明変数を<math>x_i(i=1, 2, \cdots, m)\, </math>,目的変数を<math>y\, </math>とする. 回帰式には, 通常, 次のような線形式が用いられる. <center> <math> y = b_0 + b_1 x_1 + b_2 x_2 + \cdots + b_m x_m \, </math> </center> <math>b_i(i=0, 1, 2, \cdots, m)\, </math>を回帰係数といい, これを求めるのが目的である. なお, ここでの線形式は, 値を求める係数<math>b_i\, </math>に関して線形であることを示している. したがって, 説明変数の間には, たとえば, <math>x_2=x_1^2\, </math>のように, 線形以外の関係があってもよい. 非線形回帰式 [4] が用いられることもあるが, ここでは, 線形回帰式に限ることにする. [残差] 分析の対象の数を<math>n\, </math>とし, <math>k\, </math>番目 (<math>k=1, 2, \cdots, n\, </math>) の対象の<math>x_i\, </math>, <math>y\, </math>の値, いわゆるデータを<math>x_{ik}\, </math>, <math>y_k\, </math>とする. 変数<math>x_i\, </math>に<math>k\, </math>番目の対象の値<math>x_{ik}\, </math>を代入したときの回帰式の値を<math>\eta_k\, </math>, すなわち, <center> <math> \eta_k=b_0+b_1x_{1k}+b_2x_{2k}+\cdots+b_mx_{mk} \, </math> </center> とすると, <center> <math> e_k=y_k-\eta_k \, </math> </center> を残差または回帰からの偏差という. [最適な回帰式] 回帰式の評価は, 残差の関数を用いて行われる. 代表的な評価関数を以下に挙げる. (1) 残差平方和(偏差平方和) <center> <math> \mbox{SSD} = \sum_{k=1}^{n}\eta_k^2 \, </math> </center> (2) 絶対偏差の和 <center> <math> \mbox{SAD}=\sum_{k=1}^{n}|\eta_k| \, </math> </center> (3) 絶対偏差の最大値 <center> <math> \mbox{MAD}=\max\{|\eta_1|, |\eta_2|, \cdots, |\eta_n|\} \, </math> </center> いずれの評価関数も, 小さい方がよいので, 最小にする回帰式を最適とする. [最適な回帰式の求め方] SSDを最小にする回帰式(回帰係数)を求めるのを最小二乗法という. SSDは, <math>b_i(i=0, 1, 2, \cdots, m)\, </math>に関する 凸二次関数であるから, これらで偏微分した式を0とおいて得られる連立一次方程式を解けばよい. この連立一次方程式を正規方程式という. 線形式の絶対値の和を最小にすることも, 線形式の絶対値の最大値を最小にする ことも, 線形計画問題に変形できることにより, SADを最小にする回帰式も, MAD を最小にする回帰式も, 線形計画問題を解くことによって得られる [2]. とくに, 一対比較の結果によるデータである場合は, ネットワーク計画問題に変形できる[3]. [推測統計における回帰分析] 回帰分析は, 狭い意味では, 推測統計における解析法である. 説明変数<math>y\, </math>が確率変数<math>Y\, </math>の実現値であって, <math>Y\, </math>の期待値<math>E[Y]\, </math>が次のように説明変数の関数で表されるとする. <center> <math> E[Y]=\beta_0+\beta_1 x_1+\beta_2 x_2+\cdots+\beta_m x_m \, </math> </center> このとき, 回帰係数を求めることは, 未知定数<math>\beta_i(i=0, 1, 2,\cdots, m)\, </math>を推定することに当たる. <math>y_k\, </math>に対応する確率変数を<math>Y_k\, </math>とする, すなわち, <math>y_k\, </math>が確率変数<math>Y_k\, </math>の実現値と考えられるとき, <math>Y_k\, </math>の分布について, 分散が一定などの前提条件をおくと, 最小二乗法は, 望ましい推定法であることが証明されている [1]. ---- '''参考文献''' [1] C. R. Rao, ''Linear Statistical Inference and Its Applications'', John Wiley & Sons, 1973. [2] T. S. Arthanari and Y. Dodge, ''Mathematical Programming in Statistics'', John Wiley & Sons, 1981. [3] 古林隆, 佐藤俊之, 鈴木政志, 「一対比較データのネットワーク計画法的解析」, 『日本オペレーションズ・リサーチ学会1991年度春季研究発表会アブストラクト集』, 112-113, 1991. [4] N. R. Draper and H. Smith, ''Applied Regression Analysis'', John Wiley & Sons, 1966. [[category:統計|かいきぶんせき]]
回帰分析
に戻る。
案内メニュー
個人用ツール
ログイン
名前空間
ページ
議論
変種
表示
閲覧
ソースを表示
履歴表示
その他
検索
案内
メインページ
コミュニティ・ポータル
最近の出来事
最近の更新
おまかせ表示
ヘルプ
ORWikiへのお問い合わせ
OR学会HP
OR学会アーカイブ集
ツール
リンク元
関連ページの更新状況
特別ページ
ページ情報