【げんしせいさく (primitive policy)】
有限 N {\displaystyle N\,} 段逐次決定過程において, 過去の状態と決定の履歴に依存して定まる政策. すなわち, 時刻 n {\displaystyle n\,} の決定を, 状態空間 X {\displaystyle X\,} と決定空間 U {\displaystyle U\,} からなる ( 2 n − 1 ) {\displaystyle (2n-1)\,} 個の直積 H n := X × U × X × U × ⋯ X × U × X {\displaystyle H_{n}:=X\times U\times X\times U\times \cdots X\times U\times X\,} から決定空間 U {\displaystyle U\,} への関数 μ n : H n → U {\displaystyle \mu _{n}:H_{n}\to U\,} で定めるとき, これらの決定関数の列 μ = { μ 1 , μ 2 , … , μ N } {\displaystyle \mu =\{\mu _{1},\mu _{2},\ldots ,\mu _{N}\}\,} を原始政策という. 情報量は一般政策より要するが, 非加法型期待値最適化問題では原始政策は一般政策と同じ期待値を与える.