趣味の研究

趣味の数学を公開しています。初めての方はaboutをご覧ください。

スケール変換則(くりこみ群的な)

しばらく何も考えつかなかったので、更新できませんでした。

このブログは、厳密な数学の議論をするのではなく、一見関係なさそうな概念をくっつけて様々な角度から数学を観察してみよう・・・という趣旨です。

ですので、同じような話題が何度も出てきますが悪しからず。。

 

今日は、スケール変換について考えてみます。

ある関数f(x)がスケール変換x\rightarrow sxにより、f(sx)=G(f(x),s)のように変換されるものとします。  

くりこみ群方程式の導出過程を参考にし、sについて微分してs=1と置くと、

x\frac{df}{dx}=\frac{\partial G(f(x),s)}{ds}|_{s=1}   eq(1)

となります。

 

以前の記事で、素数の密度をエントロピーをもとに導出しました。

そのときは、一様分布のエントロピーと、素数から導かれるエントロピーが完全に一致することを仮定しましたが、今回は拘束条件をゆるめて考察してみます。

 

確率変数Y_kは独立な確率変数X_lを用いて、

Y_k=g_l(X_1,X_2,\cdot,\cdot,)のように記述されるものとします。

 

例えば、自然数であれば、Y_k自然数Nであり、X_l素数と考えることができます。Y_kの統計量に対してあるスケール変換則が成り立つと仮定します。

ここでは、統計量としてエントロピーをとり、確率変数として自然数を考えます。

自然数は一様分布していると過程すると、Nまでの自然数エントロピー

H_Y(N)=\log(N)

よって、スケール変換則は、

H_Y(sN)=H_Y(N)+\log(s)となります。   eq(2)

\{X_l\}で表される情報も等価と考えると、系全体のエントロピーH(N)=\sum_k H_X(X_k)も同様のスケール変換則に従うと期待されます。

X_kとして素数p_kを考え、x~x+dxに含まれる素数の密度を

p_\pi(x)dxと書くと、

系全体のエントロピーH(N)は、H(N)=\sum_k H_X(X_k)\sim \int_{2}^N p_\pi(x) H_X(x) dx

と近似されます。

スケール変換則eq(2)から導かれる微分方程式eq(1)は、

x\frac{dH}{dx}=1となるので、

p_\pi(x)=\frac{1}{xH(x)}

 

素数p_kを因数に持つ確率は\frac{1}{p_k}なので、エントロピーH(x)=\frac{1}{x}\log(x)-(1-\frac{1}{x})\log(1-\frac{1}{x})となり、

p_\pi(x)\sim \frac{1}{\log(x)+1}

が導かれます。

 

以上の議論は、ガウス整数などにも拡張可能です。

また、整数論に限らず、一般的な統計量に対しても適用可能だと考えています。

また、くりこみ群の考え方は、ニューラルネットワークなどにも適用可能かもしれません。

ニューロンごとにネットワークを繰り込んで、スケーリング則を導くことができるかも・・・。

 

他にも、信号や画像の確率分布に対しても何か言えるかもしれません。

例えばノイズ信号は、スケール変換をしても情報量は一定であると考えられます。

一方で、何か意味を持った信号や画像は、スケールを拡大することにより、情報量を一定の割合で失うと考えられます。

上のような考え方で、エントロピーに対するスケール変換則を与えることにより、基底関数(例えばフーリエ変換)に対する係数の確率分布を導出できるかもしれません。