固有ベクトルの観点から線形変換を掌握する
線形代数において、固有値と固有ベクトルの話題は花形である。これらは理論的に美しいだけでなく、応用上様々な場面に登場し、重宝されている。中でも固有値が力を発揮するのは、やはり行列の対角化を行う時であろう。すなわち、n次正方行列がある条件を満たすと、ある変換行列が存在してが対角行列になるのである。
では、対角化が可能となるための「ある条件」とは一体なんだろう?それは、固有値の (固有方程式の解としての) 重複度と、その固有値に対応する固有空間の次元が全ての固有値に対して等しいことである。これは対角化可能であるための必要十分条件となっている。
そう、固有値というのは実に厄介で、例えば固有方程式を解いた結果、が重解として得られたとしても、に対応する固有空間は必ずしも2次元になるとは限らないのである。
以上の事実から、行列は固有値の数と重複度、および固有ベクトルの次元によって、いくつかの種類に分類出来そうな気がしてくる。そのように分類された行列のクラスは、それぞれ何か特徴的な性質を持つのだろうか?
本稿ではこのぼんやりとした疑問の答えに迫るべく、前半は対角化について調べ、後半は具体例を頼りに固有値・固有空間が反映する行列の性質について調べてみようと思う。
対角化とは何か?
まずは対角化について考えてみよう。対角化と言えばという変換の仕方が特徴的である。これの意味するところを考えることによって、対角化について理解を深めていこう。
線形変換の表現
行列は線形変換と密接な関係にある。すなわち、任意の線形変換は行列によって表現することができる。の意味を理解する上では、Aをある線形変換の表現行列と捉えるのがよい。
まず、線形変換の定義を[1]より引用する。
の次元をnとする。の1つの基底をとすると、の任意の元は以下のように基底の線型結合で表すことができる。
ここで、をの線形変換で写したものはやはりの元となる。よって以下のように同じ基底で表すことができる。
すると、変換前後の係数の間には以下のような関係が成立する。
上の行列が線形変換の表現行列である。両辺のベクトルの右下にeと書いたのは、これが基底によるベクトルであることを示している。表現行列を簡潔にと表した式は以下のようになる。
基底の取り替え
次に、線形変換をの別の基底で表現するとどうなるか考えてみよう。そのような基底をとする。すると、先ほどと同じように変換前後のベクトルは以下のように表される。
基底の取り替えにおいて重要な考え方は、元の基底に対する表現行列をできる限り活かすことである。そのために、ではなく入力として与えるベクトルの方を変換することを考える。これを実現するためには、以下のような行列を利用する。
このような行列を基底の取り替え行列と呼ぶ。これより、は以下のように表現できる。
異世界を旅して帰還する
基底の変換後の式の両辺にをかけると以下のようになる。
が基底を用いた場合のの表現行列となる。
普通はここで話はおしまいである。基底を変換した後の表現行列が求められたのだから、めでたしめでたしというわけだ。しかし、という形の変換は線形代数に限らずいろんな数学の分野でよく見かける形であり、もう一段抽象的なレベルでの意味がある。これを少し掘り下げて考えてみよう。
まず、行列は基底の世界で表現されるベクトルに対して適用可能な行列である。これを別の世界のベクトル、すなわち、基底で表現されるベクトルに適用したいと思ったら、一度の世界からの世界に移動する必要がある。すると、移動後のベクトルにはを適用することができる。最後に、を適用して得られたベクトルを元の世界に戻してやれば、結局の世界のベクトルにを適用出来たことになる。以下に図を示す。
このようにで変換を挟み込むことは、その変換が適用可能な世界へと移動し、変換が終わったら元の世界に戻してやるような効果がある。これが線形変換の表現行列を別の基底で表したベクトルに適用できるからくりである。
対角化は座標変換
ここまで座標変換の話ばかりしてきた訳だが、座標変換と対角化の関係について述べておく。ずばり対角化とは、線形変換の基底を固有ベクトルから成る基底に変換する操作のことである。そして、対角化可能であるとは、基底となるような固有ベクトルの組が存在することを意味している。
逆に、もし固有値の重複度より固有ベクトルの次元が小さいものが存在すると、対象となる線形空間の次元に対して固有ベクトルの本数が足りなくなってしまい、基底を作れなくなる。この場合は対角化不可能となる。
基底の取り替え行列としては、のn個の列固有ベクトルを並べた行列を取れば対角化できる。計算の過程を以下に示す。
固有値・固有ベクトルは何に紐づくものか?
ここで注意点を1つ。世の中ではよく「行列の固有値」とか「行列の固有ベクトル」という言い方をする。これは別に間違っていない。実は、線形変換に対しても固有値・固有ベクトルという概念が存在する。
まず固有値についてだが、行列の固有値はのサンドイッチ変換に対して不変となる。そのため、線形変換の固有値とは「任意の基底に対する表現行列の固有値である」と定義しておけば、それは一意に定まる。
多様体や微分幾何学なんかが代表的であるが、座標系に依存しない量や概念というのは、その数学的対象の本質的な性質を表していると考えられるため、一般にとても重要である。
一方、固有ベクトルは座標系の取り方によって変わる。このように、固有値と固有ベクトルでは不変となる範囲が異なるので注意が必要である。
固有値・固有空間に着目した線形変換の分類
ここまでで固有値・固有ベクトルとかなりお友達になれたはずなので、本題に入ろう。線形変換が固有値の数や重複度、また固有空間の次元とどのような関係にあるのかを調べてみよう。簡単のために、話を上2次の正方行列に絞る。
上2次の正方行列は以下のように分類できる。
以下では分類された各項目の線形変換がどのような振る舞いをするのか、例を用いながら調べてみる。
異なる2つの実固有値を持つ場合
例として以下の行列を考える。
sage: A = matrix(QQ, [[1, -1/4], [-1/2, 5/4]]) sage: for var in A.eigenvectors_right(): ....: print var ....: (3/2, [ # 固有値1つ目 (1, -2) # 固有ベクトル ], 1) # 重複度 (3/4, [ # 固有値2つ目 (1, 1) # 固有ベクトル ], 1) # 重複度
この線形変換を可視化したものを以下に示す。
ここで、黒の矢印は基底、グレーの点線矢印は基底にを作用させて得られるベクトルである。赤の矢印は固有ベクトル、オレンジの点線矢印は固有ベクトルにを作用させて得られるベクトルである。また、水色の矢印は、矢印の根元の位置ベクトルが、によって矢印の先端に写ることを意味している。
これを見ると、Aの作用によって空間が2つの固有ベクトルの方向に伸び縮みしているのが分かる。これより、このタイプの線形変換は固有ベクトル方向の拡大・縮小を表すと考えられる。ただし、伸びるのか縮むのか、またその程度がどれくらいであるかは固有値によって決まる。
1つの実固有値を持ち、固有空間の次元が2の場合
例として以下の行列を考える。
sage: A = matrix(QQ, [[2, 0], [0, 2]]) sage: for var in A.eigenvectors_right(): ....: print var ....: (2, [ # 固有値 (1, 0), # 固有ベクトル1つ目 (0, 1) # 固有ベクトル2つ目 ], 2) # 重複度
この線形変換を可視化したものを以下に示す。
これを見ると、Aの作用によって空間が原点を中心に拡大されているのが分かる。これより、このタイプの線形変換は拡大・縮小を行うものと考えられる。
一点補足だが、このケースの線形変換の表現行列は単位行列の定数倍しかあり得ない。のただ1つの固有値をとすると、を対角化した行列はとなる。対角化のための変換行列をとすると、結局以下のようになる。
1つの実固有値を持ち、固有空間の次元が1の場合
例として以下の行列を考える。
sage: A = matrix(QQ, [[11/6, -1/3], [1/3, 7/6]]) sage: for var in A.eigenvectors_right(): ....: print var ....: (3/2, [ # 固有値 (1, 1) # 固有ベクトル ], 2) # 重複度
この線形変換を可視化したものを以下に示す。
これを見ると、原点を通る固有ベクトルによって引かれる直線より下側では右向きの、上側では左向きの流れがあるように見える。これより、このタイプの線形変換は固有ベクトルと平行な方向に歪みを与える働きがあると考えられる。
実固有値を持たない場合
例として以下の行列を考える。
sage: A = matrix(QQ, [[1, -1/2], [1/2, 1]]) sage: for var in A.eigenvectors_right(): ....: print var ....: (1 - 0.50000000000000000?*I, [(1, 1*I)], 1) # 固有値が虚数 (1 + 0.50000000000000000?*I, [(1, -1*I)], 1)
この線形変換を可視化したものを以下に示す。
これを見ると、螺旋のような渦巻きが現れている。これより、このタイプの線形変換は回転と拡大・縮小の組み合わせになっていると考えられる。
区間推定の理論と実践
統計学における推定の考え方は仮説検定と双璧を成す重要な理論であり、初学者がまず目指すべき最高到達点である。推定は強力な手法であるが故に、恐らく大抵の教科書では記載があるだろうし、ググればいくらでもWebページがヒットする。
そんな状況下ではあるが、推定の中でも特に区間推定は個人的に興味をそそられる内容であり、ぜひともブログを書き起こしてみたくなった。そこで、本稿ではできるだけ二番煎じにならないよう、私が得た区間推定に対する理解について説明してみたいと思う。
本稿では正規母集団から抽出した標本データを用いた母平均の区間推定のみをターゲットとする。また、適当なサンプルデータを用いて実際に区間推定を行うことで、区間推定の理論に対して確かな実感を得てみたいと思う。
なお、本稿を執筆するに辺り、全体的に[1][2]を参考にした。
母平均の区間推定
母分散が既知の場合
正規母集団に従う独立な確率変数の標本平均を考える。このとき、自体も確率変数となっており、これが従う確率分布はとなる。また、これを標準化した確率変数は、当然だが標準正規分布に従う。
今、母分散は分かっているが、母平均の値が不明な状況を考える。もちろん、実際にはこんなことはまずあり得ないのだが、このケースを考えることは後々の議論において意味がある。
この時、という関係が成り立つので、標本平均をそのまま母分散だと考えてもあながち間違いではない。しかし、当然だがの値にはぶれがあり、どんなサンプルを抽出するかによって値が変わってしまう。しかも、極端なケースでははとんでもなく大きくなったり小さくなったりすることがあり得る。そのため、の値だけをみても、母平均について何も確実なことは言えない。
では、何か確率的な議論はできないだろうか?例えば「95%の確率ではAからBの間に入ります」というようなことが言えないだろうか?
結論から言うとこれは可能である。標準正規分布において、それより大きい値を取る確率がとなるような点 (パーセント点) をと表すと、先ほど導入した確率変数Zは確率で以下の不等式を満たす。
2点注意事項がある。まず、これは正規分布が左右対称だから言えることである。さもなければ、の部分はそれより小さい値を取る確率がとなるような点を別途求めて、それと置き換えてやる必要がある。
次に、を2で割っている理由だが、これは上側のと下側のを両方排除し、残りがとなるようにするためである。
この不等式を変形すれば、以下のようにが確率で取る値の範囲が分かる。
母分散が未知の場合
先ほども述べた通り、母平均は未知なのに母分散は分かっているということは普通はあり得ない。実際に得られるのは不偏分散だけというケースがほとんどである。不偏分散の定義式を以下に示す。
不偏分散に対してはという関係式が成り立つので、これを母分散の代わりに用いることはそれほど不自然ではない。しかし、やはりサンプル数が少ない場合には母分散とかけ離れた値を取ることがあり得る。そのため、先ほど考えた確率変数Zの式に対して単にを代入すると、これはもはや正規分布には従わない。
では、これはどのような分布になるのだろうか?それを調べるために、Zの式にを代入した式を以下のように変形してみよう。
ここで、分母にという式が現れた。この式自体も確率変数であり、これは標準正規分布に従う確率変数の二乗和を表す。このような確率変数が従う確率分布は自由度n-1の分布と呼ばれる。
まとめると、標準正規分布に従う確率変数Zと自由度n-1の分布に従う確率変数Wによって、元々の確率変数tは以下のように表される。
このような確率変数tが従う確率分布は自由度n-1のt分布と呼ばれる。結論として、母分散未知のケースにおける母平均の推定にはt分布を使用する必要があることが分かった。
自由度n-1のt分布をと書くと、母分散既知のケースと同様の計算を行うことで、は確率で以下の不等式を満たすことが分かる。
ただし、は自由度n-1のt分布のパーセント点を表す。ここでもt分布が左右対称であることを利用している。
区間推定の実践
ここまでに述べたことを実践してみよう。統計処理をするにはpythonかRが簡単そうであるが、Android上で環境を構築できたのでpythonを使うことにする[3]。また、データセットとしてIrisは見飽きたので、ここではAbarone (アワビ) を使用している[4]。
Abaroneデータセットには、1列目に性別、3列目に直径の情報が入っている。今回はオスのアワビの直径データについて、母平均の区間推定を行ってみた。サンプル数は敢えて少なめに10とし、t分布を使った場合と正規分布を使った場合で比較を行った。もちろん、正しいのはt分布を使う方である。
以下に今回作成したソースコードを示す。作成の際には[5]を参考にさせて頂いた。日本語コメントは本稿のために後から付したものであり、このままでは実行できないので注意されたい。
import pandas as pd from scipy import stats import math # 全部の列に名前を付けるのは諦めた... abalone = pd.read_csv('file:///storage/emulated/0/Download/abalone.data', header=None, names=['sex', 'length', 'diameter', 'height', 'a', 'b', 'c', 'd', 'e']) # オスの情報だけ抽出 male = abalone[abalone['sex'] == 'M'] n = 10 # 自由度n-1のt分布の95%信頼区間を取得 tleft, tright = stats.t.interval(alpha=0.95, df=n-1) # 正規分布の95%信頼区間を取得 nleft, nright = stats.norm.interval(alpha=0.95) mean = male.iloc[:n]['diameter'].mean() # デフォルトで不偏分散の平方根が計算される stddev = male.iloc[:n]['diameter'].std() # 本文中の式と若干符号が異なるので注意 tleft = mean + tleft*stddev/math.sqrt(n) tright = mean + tright*stddev/math.sqrt(n) nleft = mean + nleft*stddev/math.sqrt(n) nright = mean + nright*stddev/math.sqrt(n) print("mean = {:.3f}, stddev = {:.3f}".format(mean, stddev)) print("t-dist: left = {:.3f}, right = {:.3f}".format(tleft, tright)) print("n-dist: left = {:.3f}, right = {:.3f}".format(nleft, nright))
実行結果を以下に示す。
mean = 0.339, stddev = 0.046 t-dist: left = 0.306, right = 0.372 n-dist: left = 0.310, right = 0.368
実行結果から分かるように、正規分布を使った場合は区間が狭めに出力されてしまう。そのため、正規分布での結果を元に考察を行うと判断を誤る恐れがある。
最後に特大の注意事項がある。今回はオスのアワビの直径データが正規分布に従うと仮定して分析を行ったが、本来であればこの仮定の妥当性は良く確かめる必要がある。誤った仮定を元に一生懸命計算したとしても、その結果には何の意味もないどころか、誤った帰結へと導かれる危険性がある。
データが正規分布に良く当てはまっているかどうかを判断する方法について私には知見がない。軽くググってみたらいろいろと情報がありそうだったので、興味のある方は調べてみると面白いかもしれない。
その他の話題
本稿では正規母集団から抽出したサンプルから母平均の区間推定を行った。この他にも、例えば母分散の区間推定を行う方法などは有名である[1]。また、実用上のタスクとしては正規母集団以外の母集団を考えることもあるだろう。しかし、どんな場合であれ、基本的な区間推定の考え方は本稿に述べたものと大きく異なることはないであろう。
参考
[1]
- 作者: 東京大学教養学部統計学教室
- 出版社/メーカー: 東京大学出版会
- 発売日: 1991/07/09
- メディア: 単行本
- 購入: 158人 クリック: 3,604回
- この商品を含むブログ (79件) を見る
[3] https://play.google.com/store/apps/details?id=ru.iiec.pydroid3&hl=ja&referrer=utm_source%3Dgoogle%26utm_medium%3Dorganic%26utm_term%3Dpydroid+3&pcampaignid=APPU_1_4VFeW8v9NovS8wXKsq_4Cw
[4] UCI Machine Learning Repository: Abalone Data Set
[5] Python: SciPyを使った統計的推定 - け日記
確率分布族の再生性まとめ
確率分布はたくさんある
統計学を勉強していると、世の中には本当にたくさんの確率分布が存在する事に気付く。現実世界の現象に統計学を応用しようと考えるとき、その現象にはどのような確率分布が良く当てはまるのかを考えたくなる時がある。そのためには、数ある確率分布がそれぞれどういう現象をうまく表現できるかということを知っておく必要がある。
そこで、本稿では基本的な確率分布の特徴についてまとめてみ・・・ようと思ったのだが、途中までやりかかったところですでに素晴らしいまとめ[1]が存在することに気づいた。
劣化コピーを作っても意味がないので、ここでは[1]に記載が少ない再生性に関する事項についてのみまとめてみる。ただし、さすがに[1]に記載されている全ての分布について調べるのはしんどいので、ここでは私が個人的に興味を持った分布についてのみ紹介する。詳細は[2][3][4][5][6]等を参照のこと。
離散型
名称 | 再生性 | ||
---|---|---|---|
二項分布 | 有り | ||
ポアソン分布 | 有り |
まとめ
調べてみると、意外と多くの確率分布族が再生性を持つことが分かった。世の中うまくできているものだ。
今回は[1]を見つけたことでブログを書くモチベーションが下がってしまったが、こういうまとめが存在すること自体は大変ありがたい。困ったときに活用させてもらおう。
中心極限定理と確率分布族の再生性
確率・統計の分野における定理と言えばいろいろあるが、中でも中心極限定理は有名だろう。ざっくり言えば、中心極限定理とはある確率分布に従う独立な確率変数をたくさん取り出すと、それらの和が従う確率分布は正規分布に近づいていくというものである。
一方で、確率分布の中には再生性と呼ばれる性質を持つものがある。これは、ある確率分布族に属する2つの確率分布に対して、それぞれに従う2つの独立な確率変数の和を取ると、その和が従う確率分布は再び元の確率分布族に属するというものである。
これらは一見すると矛盾しているようにも思える。なぜなら、一方は和の確率分布が正規分布になると言い、もう一方は和の確率分布は元の分布と同じ分布族に属すると主張しているからである。
そこで本稿では両者の間にどのような関係があり、どうすれば両者を矛盾なく解釈できるかについて考えてみる。
中心極限定理
とおくと、
つまり、i.i.d. r.v. 列の和を標準化すると、期待値 0, 分散 1 の正規分布 N(0, 1) に分布収束する。
記事[1]の英語版には記載があるのだが、定理成立のためには分散が有限の値を取ることも必要なので注意されたい。
確率分布族の再生性
最初の疑問への答え
ここで、冒頭で掲げた疑問の答えについて考えてみよう。を再生性を持つ分布族とする。また、確率分布の確率密度関数をfとする。Fに従う独立な確率変数の列の総和が従う確率分布の密度関数は (fをn個畳み込み) となる。念のため述べておくが、畳み込み演算は結合法則が成り立つので、演算順序を括弧で明示せずとも結果は一意に定まる[3]。
の再生性によりが表す確率分布はに属する。一方、中心極限定理によりのときその累積分布関数は正規分布に近づいていく。つまり、最初の疑問への答えとしては「確率変数の和の累積分布関数はでもあくまで分布族に従うが、同時に正規分布の累積分布関数に限りなく近づいていく」ということである。つまり、再生性と中心極限定理の主張は (当たり前だが) どちらも同時に正しいのである。
なぜ累積分布関数?
ここまでの議論では何かと結論を累積分布関数に結びつけてきた。確率・統計素人の私からすると確率密度関数で考えた方が簡単そうに思えるわけだが、なぜ執拗に累積分布関数に言及する必要があったのか?その理由は先ほど引用した中心極限定理のstatementをよく見ると分かる。重要な部分を抜き出してみる。
i.i.d. r.v. 列の和を標準化すると、期待値 0, 分散 1 の正規分布 N(0, 1) に分布収束する。
先ほどはさらりと流したが、ここに登場する「分布収束」という概念が肝である。Wikipedia[5]より定義を引用する。
が、Fが連続であるような全ての数に対して成立することを言う。ここで、 およびFはそれぞれ確率変数およびXの累積分布関数である。
この定義を見ると分かるように、中心極限定理において正規分布に近づいていくのは累積分布関数であり、確率密度関数ではない。つまり、中心極限定理は確率密度関数については何も教えてくれないので、累積分布関数についてしか議論できないのである。
累積分布関数を微分してはダメか?
しかし、累積分布関数は確率密度関数を不定積分したものなのだから、一見するとどちらで議論しても大差ないような気がしてしまう。つまり、累積分布関数が正規分布のそれに近づくのならば、微分してやれば確率密度関数が得られるので、確率密度関数も正規分布に近づいていくのではないのか?
もしそうだとすると、分散が有限値を取る任意の確率分布の密度関数を無限に畳み込んでやると、それは正規分布の密度関数に近づいていくと言えそうだ。私は先日この事実に思い至り、これはすごいことに気が付いたと喜んだ。
しかし、残念ながらこれは常に正しいとは言えない。Wikipedia[1]の英語版を見ると以下のような記述がある。
Thus the central limit theorem can be interpreted as a statement about the properties of density functions under convolution: the convolution of a number of density functions tends to the normal density as the number of density functions increases without bound. These theorems require stronger hypotheses than the forms of the central limit theorem given above.
つまり、確率密度関数をたくさん畳み込んで正規分布の密度関数に近づくためには、中心極限定理よりも強い仮定が必要だと書かれている。一体なぜそんなことになってしまうのだろうか?
残念ながら、現状ではこの疑問の答えを真に理解するまでには至っていない。この問題にはlocal limit theorem[6]なるものが関係していることまでは分かったが、一朝一夕では理解できなさそうな沼が広がっていることに気付いたので、今回はここで諦めることにした。
ただし、[6]によると密度関数の収束列の中に有界な項が存在する場合は密度関数も正規分布に収束するというような記載がある。そのため、応用上よく扱うような密度関数であれば正規分布に近づいていくと思って差し支えないのだろう。
まとめ
以上、中心極限定理と確率分布族の再生性の関係性について述べた。結論としては、再生性を持つ分布族に属する確率分布に従う確率変数をたくさん足してやると、それはあくまで元の分布族に属する確率分布に従う。そうでありながら、それは同時に正規分布に近づいていくということであった。
また、確率密度関数と累積分布関数に関する微妙な問題について調べた。詳細な理解にまでは至らなかったが、両者の区別を曖昧にしたまま議論を進めると痛い目にあうということが分かった。
今回はネットで調べた情報を中心に記事を書いてみたが、やはり専門書が手元にないとしんどいし、確率論は奥が深くて難しい。いずれ何か本を手にとってじっくりと勉強したい。
参考
[1] 中心極限定理 - Wikipedia
[2] 再生性 - Wikipedia
[3] 畳み込み - Wikipedia
[4]
- 作者: 東京大学教養学部統計学教室
- 出版社/メーカー: 東京大学出版会
- 発売日: 1991/07/09
- メディア: 単行本
- 購入: 158人 クリック: 3,604回
- この商品を含むブログ (79件) を見る
[6] Local limit theorems - Encyclopedia of Mathematics
モーメント母関数とTaylor展開の項別微分
最近、統計学を勉強している。統計学における重要な概念の1つとしてモーメント母関数がある。モーメント母関数とは簡単な計算を施すことで次々と重要な統計量が取得できる便利関数であるが、これは指数関数のTaylor展開と関係がある。本稿ではこれについて疑問に思ったことと、その回答について書いてみる。
なお、あらかじめ述べておくが、本稿は統計学の話と見せかけて、内容はほとんど解析学の話である。
モーメント母関数
定義
まず、モーメントの定義を以下に示す[1]。
を, Xの (原点のまわりの) r次のモーメント moment, または積率といい,
(ただし、)
を, Xの期待値 (平均) のまわりのr次のモーメンという.
本[1]は記法が少々分かりづらいが、Xの期待値のまわりのモーメントの式は恐らくを意図しているものと思われる。
続いてモーメント母関数の定義を以下に示す[1]。
Taylor展開と項別微分
先程の説明の中で、さらりと項別微分を行っていたことにお気づきだろうか?よく知られているように、無限級数はいつでも気軽に項別微分出来るものではなく、常にそれが可能かどうかチェックする必要がある。
ここで私が疑問に思ったのは、Taylor展開によって得られた無限級数はいつでも項別微分可能か?ということである。以下でこれについて調べていこう。
冪級数
Taylor展開によって得られる無限級数は、いわゆる冪級数の形をしている。冪級数とは以下のような形をした級数である[2]。
ただし、にxを代入してもこの後の議論はほとんど変わらないので、ここでは以下のような冪級数のみを考える。
項別微分可能条件
Taylor展開によって得られる冪級数の場合、xが収束半径内に収まってさえいれば収束は保証される。また、各項は微分可能であり、各項の導関数も当然連続である。そのため、項別微分可能であるかどうかを知るためには、以下の2点について調べれば良い。
以下でそれぞれについて調べてみよう。
冪級数の一様収束条件
冪級数の一様収束性を考える上では、次のAbelの定理が有効である。
ここでちょっとした疑問が生じる。収束半径rに対して、xが収束する区間はよくというように開区間として与えられる。一方、上の定理では閉区間での一様収束性を述べており、この定理をどのように適用すれば良いか分かりづらい。この点について少し説明してみる。
の収束半径をrとする。また、をrより十分小さい正の数であるとする。一様収束とは、ざっくり言えばある区間において関数値があらゆるxに対して同じように収束していく様子を表す。そのため、ある1つの点において一様収束を考える意味はなく、必ず区間について考える必要がある。
一様収束を考える区間として、ここではに着目してみよう。収束半径はrなので、の点においては収束する。よってAbelの定理によりに含まれる任意の閉区間においては一様収束する。特に、において一様収束する。の極限をを考えれば、結局は収束半径内において一様収束すると言える。
なお、の場合は若干証明が異なるが、考え方はほとんど一緒である。
まとめ
本稿ではモーメント母関数に端を発し、Taylor展開によって得られる無限級数の項別微分可能性について述べた。結論として、そのような級数は何回でも項別微分出来ることが分かった。
分かっている人からしてみれば実に当たり前のことかも知れないが、私にしてみればこういう疑問を抱けたこと自体を嬉しく思う。こういう初歩的な事実に対しても常に懐疑的に見る気持ちを忘れずに、これからも数学を学んでいけると良い。
参考
[1]
- 作者: 東京大学教養学部統計学教室
- 出版社/メーカー: 東京大学出版会
- 発売日: 1991/07/09
- メディア: 単行本
- 購入: 158人 クリック: 3,604回
- この商品を含むブログ (79件) を見る
- 作者: 高木貞治
- 出版社/メーカー: 岩波書店
- 発売日: 1983/09/27
- メディア: 単行本
- 購入: 2人 クリック: 138回
- この商品を含むブログ (42件) を見る
幾何平均の使いどころ
「平均」と言えば、算術平均 (=相加平均) の他に幾何平均 (=相乗平均) があるということをご存知の方は多いだろう。算術平均の方は意味が理解しやすく、使われる場面も多いと思われる。一方で、幾何平均はその意味するところが分かりづらく、一体どんな場面で使うべきものなのか、不勉強な私はこれまで知らなかった。せいぜい、高校数学で相加・相乗平均の関係を計算に使ったりする程度で、幾何平均ならではの使いどころというのは理解していなかった。
最近、統計学の本[1]を読み直して幾何平均の使いどころに気づいたので、本稿ではそれを紹介したいと思う。
定義
幾何平均の定義を[1]より引用する。
で定義され, (以下省略)
幾何平均の意味
幾何平均の定義式を少し変形してみよう。
この式の意味は、平均を計算するのに使用されたn個の数を全て掛け合わせたものは、幾何平均のn乗に等しいということである。つまり幾何平均とは、互いに掛け合わせることに意味があるようなデータに対して、平均的にはどのような数を掛け合わせることに相当するかを示す指標と言える。
例 : 前年度との売上比率
ここまでの話だけ聞くと何だか当たり前のことのような気がしてしまう訳だが、この事実を真に理解するために、1つ例を見て頂きたい。
ある会社の売上高が、2015年度から2016年度にかけて10%増加、2016年度から2017年度にかけて5%増加、2017年度から2018年度にかけて3%増加したとする。この時、2015年度から2018年度にかけて、平均で毎年どれくらい売上が伸びたと言えるだろうか?
ここで試しに算術平均を計算すると以下のようになる。
つまり、平均で毎年6%売上が伸びたと言えそうに見える。しかし、実はこれは正しくない。まず、2015年度の売上を1としたとき、2018年度の売上は以下のように計算される。
一方、毎年6%売上が伸びたとして計算すると以下のようになる。
このように、売上比率に対して算術平均を使ってしまうと、元のデータを用いた場合と計算が合わなくなってしまうのである。
この理由は、ある2つの年度の間の売上比率を計算するには、その間の各年度における前年度との売上比率を掛け合わせる必要があるからである。つまり、前年度との売上比率は掛け合わせることに意味があるデータだからである。
このようなケースこそ幾何平均の出番である。今回のデータに対して幾何平均を計算すると以下のようになる。
これを3乗すると、当然だが2015年度の売上を1としたときの2018年度の売上に一致する。すなわち、売上比率に対しては算術平均ではなく幾何平均を使うのが妥当であると言える。
まとめ
以上、幾何平均を使うべきケースについて例を交えて説明した。ポイントとしては、幾何平均は掛け合わせることに意味のあるデータに対して使用するということであった。これでもう、平均を計算する際にどちらを使うべきかで迷うことはないだろう。
参考
[1]
- 作者: 東京大学教養学部統計学教室
- 出版社/メーカー: 東京大学出版会
- 発売日: 1991/07/09
- メディア: 単行本
- 購入: 158人 クリック: 3,604回
- この商品を含むブログ (79件) を見る