スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

定性的ベイジアンネットによる認知機能モデリング

先日も少し書きましたが、
小規模な定性的ベイジアンネットを使って、
視覚野、言語野、運動野、前頭前野、側頭葉などがつかさどる
さまざまな認知機能のモデルを1つ1つ動かし始めています。

例えば視覚野の背側経路の機能やオクルージョンの処理の機能、
言語野の単語列表現と深層格表現の間の相互変換の機能、
運動野の階層的な時系列の再生機能、
前頭前野や側頭葉による論理的推論の機能、
などです。

単に「ベイジアンネットを使う」というだけでは制約がゆるすぎて
なんでもできてしまうので、かなり強い制約を入れており、
その範囲でどこまで実現できるか試しています。
制限付きの定性的ベイジアンネットを記述するDSLを Java で作って、
それを使って個々の認知機能モデルを書いています。
学習機能はなく、条件付確率表(CPT)を手で与えます。
変数の値に意味のある文字列が使えるので可読性が高いという利点があります。
ふるまいは prolog と似たところがありますが、スタックとヒープがなく、
有限の状態数しか持たない固定したネットワークの上だけで動作します。

これが非常に面白い!
実際に動くようになると、パワーポイントで模式的に
書いてみただけでは気づかなかった問題が次々に出てきてます。
それを1つ1つ解決すると、
長年悩んでいた別の未解決問題が同時に解決されていきます。
効率の問題、万能性の問題、神経科学的妥当性の問題など
まったく無関係に見える問題が、です。
いよいよ大脳皮質が行っている情報処理を推定するパズルが
終盤に来たというかんじです。
ジグゾーパズルでもナンバープレースでも、
終盤に入ると急速に穴が埋まりますよね?
(汎用人工知能実現に向けてその先にやることは
まだたくさんありますけどね。)


制限付きベイジアンネットはCPTに制限をいれたベイジアンネットですが、
それに加えて、さらに以下の様々な制約を念頭に置いて
ネットワークを設計しています。

- 再下端のノードの値を生成する生成モデルになっている。
- 問題サイズに対しニューロン数・シナプス数が爆発しない。
- ニューロン発火・シナプスの重みはスパース。
- 親ノードは子ノードの値の組を抽象化した情報を表現する。
- 同一階層内にあるノードどうしは独立。
- ノード内のユニットは均等に使われる。
- ノード内の隣り合ったユニットは似た情報を表現する。

この中のいくつかの性質は、
CPTをBESOMを使って教師なし学習する際の
パラメタの事前分布になるものです。
大脳皮質のすべての領野に共通の「汎用事前分布」と言えるでしょう。
今後もいろいろな認知機能モデルを書いていくうちに
新たな汎用事前分布が見つかる可能性があります。

近い将来この研究に携わりたい方は、
論理回路の基礎、計算機アーキテクチャの基礎、
ラムダ計算や数理論理学の基礎あたりを軽く眺めておいていただけると
役に立つと思います。
スポンサーサイト
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。