スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

大脳皮質ベイジアンネットモデルへのご質問

6月の関西での第4回全脳アーキテクチャ勉強会を企画してくださった理研 QBiC 高橋恒一さんから、
大脳皮質ベイジアンネットモデルの解説文書に対する質問・感想をいただきました。
せっかくですのでブログで何回かに分けて、お答えしたいと思います。

他の方からも、このようなご質問・コメントお待ちしてます。
過去の質問と重複していてもかまいません。
傍観者効果の打破にご協力ください。

なお、指摘されている疑問に完全に答えるには私1人の力ではとても無理です。
1人でも多くの大脳皮質ベイジアンネットモデルの研究者が増えることが望まれます。
(現状のように研究者がほとんどいない状況が続く限りは、
「脳を模倣した人工知能の実現」など全くの夢物語だと思います。)



以下、ご本人の許可を得てメールの一部を転載します。

>手初めに下記を読みました。
>
>「脳とベイジアンネットFAQ」
>「解説:大脳皮質とベイジアンネット」
>「脳は計算機科学者に解明されるのを待っている -機械学習器としての脳-」
>「ベイジアンネットとは」
>「確率伝播アルゴリズムとは」
>「belief revision アルゴリズムとは」
(略)
>で、上記資料を読んでみてなのですが、基本的にはすっきり入ってくる部分が
>ほとんどなのですが、一部まだ主張に「そうであったらよいな、同意したいな」の
>レベルから「腑に落ちて理解した」レベルに行きつけないものがあります。
>
>下記、初学者なので「思いました」「かもしれない」が多いですが、
>ご容赦下さい。
>
>
>まず、BESOMが大脳皮質のモデルとなっているという部分に
>同意出来るかという点は学習する側としてはかなり重要な点です。
>例えば「解説:大脳皮質とベイジアンネット」のコラム構造、6層構造の意味
>の章で、6層構造のほうは確率伝播(改訂)アルゴリズムとの対応がとれている
>というのは直接的な証拠ではないものの綺麗な対応関係なのですっきり
>入ってきます。
>
>しかしマクロコラムとノード、ミニコラムと確率変数の値が対応している
>という点については十分説明がないように思います。というかこの対応を
>実験的に示せればノーベル賞かもしれませんが。これに関してもっと詳しく
>述べられている資料はあるでしょうか?
>
>上記の点を除けば大脳皮質がBNである事には「類似点」
>として非対称接続や局所性、非負の出力などなど述べられている事も
>あり、読んでる方としても、少なくとも有力な仮説として納得出来るの
>ではないかと思います。
>
>次に、BNの学習が脳でもSOMとして実装されているかが気になりました。
>「一次視覚野のモデルを工学的に扱いやすくしたもの」「マクロコラムは
>SOMのようなものらしい」との記述があったためです。
>ある条件でBNの学習がうまく行けば何でも良く、たまたまSOMが一番
>適当なモデルだったという事なのかもしれませんし、あるいは脳との対応
>はKohonen 1995に当たれという事なのかもしれませんが、どちらにしても
>どうしてSOMなのかという事に関しては一言説明があると納得しやすいと
>思いました。
>
>
>確率伝播とbelief revisionについてですが、現在はbelief revisionであろうと
>考えているという事でよいでしょうか? 私だけかもしれないですが、
>MPEの考え方が非常にわかりやすかったので確率伝播よりもbelief revision
>のほうが我々自身の脳の中で起きていることとして圧倒的にすんなり
>腑に落ちました。今のところ確率伝播の資料を読んでからbelief revisionを
>読むようになっていますが、今後改訂される際にはbelief revisionから入った
>ほうがわかりやすいのではないかと思いました。
>
>アルゴリズム自体の大枠は難しくないのですが、メッセージのところが
>難しかったです(さっき読んだばかりなので今もちゃんと理解出来て
>いないです)。いきなり頭ごなしに「下記のように定義」という説明
>になっています。式的には理解できるのですが、直感的なイメージが。
>「メッセージの意味」で直感的な説明もしてくださって
>いるのですが、これも何度か読み直さないとよくわからなかったです。
>(なぜ隣接するノードからの情報だけを使った局所的な処理になっている
>所が利点なはずなのにm_xyの中に隣接しないノードの項があるのかとか)
>なにかうまいメタファーでもあるといいんですが。
>
>loopyな場合のiterativeな近似解法についてとアルゴリズムの一般形の部分
>も鍵となるアイディアかと思いますのでもっと詳しい解説があるとよいかと
>思いました(というか私が読みたいです)。

以上です。

コメント

No title

ちょっと追記です。

> マクロコラムとノード、ミニコラムと確率変数の値が対応している

かという点は、見かけ以上に重要に思えてきました。
これは山川さんが言っていた、「ディープラーニングで学習した構造は,
常にベイジアンネットワークにフィット」するのかという疑問
とも関連し、この疑問意識も(どう命題化するかはさておき)
簡単に右から左には流せないものであるように思えます。

WBAの中心仮説の前提の一つは、脳を構成する神経回路が発揮する
高次機能を損なうことなく、神経回路を抽象化した機械学習器で
置き換え可能であるという事です。これが成り立たなければ
ニューロン全てを表現する全脳シミュレーションが必要になって
しまいますが、これをショートカット出来るからこそのWBAです。

DLの場合は、内積演算素子として抽象化されたニューロンにより
構成される多層構造が初期視覚野が行っていると信じられているような
段階的な特徴抽出を自律的に行えた事で、このモデルの延長で大脳皮質
の他の領野の機能も実現出来るのではないかという期待を多数の人が
持っています。
しかし、抽象化の過程で削ぎ落とした詳細はニューロンのレベルから
領野の層構造まで様々にあり、最終的にWBAの大脳皮質に相当する
モジュールが発揮すべき高次機能全てを実現出来るかは自明ではありません。

BESOMのような多層BNでは確率変数や確率変数の値が主な構成要素
になっており、これは大脳皮質では何らかの局所的な神経回路により実装
されていると考えられます。であれば、これらの局所的な神経回路
構造は規則的で階層的な解剖学的構造に反映されている
はずであり、それがコラム構造であると想定するのは自然です。
本当にそうなのかは実験家に求めるべき最重要のテーマの一つであると
思います。いずれにせよこれはDLよりもかなり抽象度が高い
(モデルを過程したことにより削ぎ落とした詳細がより多いと想定
される)ものになっており、この抽象化によりWBAの大脳皮質モジュール
に求められる高次機能のいずれかを損なっていないかどうかは自明では
ありません。もちろん、神経科学的な知見が揃うのには時間が
かかりますので、
工学的にはとにかくまず作ってみるのが最も効率がよさそうだという
事には全く異論がありません。やってみるしかないです。
やってみるしかないのですが、それと同時に現時点で考えうる限りの
思考をしてみる事は意味のある事だと思います。

派生した疑問として、実際の神経回路に対して、DLをはじめとするANN
とBNは、同じ対象の全く違う抽象化なのか、それともBNとANNはある
レベルで等価になりうるのか(BNをANNで実装可能なのか)も重要な
命題かと思います。


色々書きましたが、BNが大脳皮質がやっている事であるかは、
私としては内観とも一致しますし最有望な仮説であるという事は
個人的に現時点でかなり説得されつつあります。

コメントの投稿

トラックバック


この記事にトラックバックする(FC2ブログユーザー)

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。