スケール変換則(くりこみ群的な)
しばらく何も考えつかなかったので、更新できませんでした。
このブログは、厳密な数学の議論をするのではなく、一見関係なさそうな概念をくっつけて様々な角度から数学を観察してみよう・・・という趣旨です。
ですので、同じような話題が何度も出てきますが悪しからず。。
今日は、スケール変換について考えてみます。
ある関数がスケール変換により、のように変換されるものとします。
くりこみ群方程式の導出過程を参考にし、sについて微分してs=1と置くと、
eq(1)
となります。
以前の記事で、素数の密度をエントロピーをもとに導出しました。
そのときは、一様分布のエントロピーと、素数から導かれるエントロピーが完全に一致することを仮定しましたが、今回は拘束条件をゆるめて考察してみます。
確率変数は独立な確率変数を用いて、
のように記述されるものとします。
例えば、自然数であれば、は自然数であり、は素数と考えることができます。の統計量に対してあるスケール変換則が成り立つと仮定します。
ここでは、統計量としてエントロピーをとり、確率変数として自然数を考えます。
自然数は一様分布していると過程すると、Nまでの自然数のエントロピーは
よって、スケール変換則は、
となります。 eq(2)
で表される情報も等価と考えると、系全体のエントロピーも同様のスケール変換則に従うと期待されます。
と書くと、
系全体のエントロピーH(N)は、
と近似されます。
スケール変換則eq(2)から導かれる微分方程式eq(1)は、
となるので、
が導かれます。
以上の議論は、ガウス整数などにも拡張可能です。
また、整数論に限らず、一般的な統計量に対しても適用可能だと考えています。
また、くりこみ群の考え方は、ニューラルネットワークなどにも適用可能かもしれません。
各ニューロンごとにネットワークを繰り込んで、スケーリング則を導くことができるかも・・・。
他にも、信号や画像の確率分布に対しても何か言えるかもしれません。
例えばノイズ信号は、スケール変換をしても情報量は一定であると考えられます。
一方で、何か意味を持った信号や画像は、スケールを拡大することにより、情報量を一定の割合で失うと考えられます。
上のような考え方で、エントロピーに対するスケール変換則を与えることにより、基底関数(例えばフーリエ変換)に対する係数の確率分布を導出できるかもしれません。