質問への回答その2(SOM)

先日の大脳皮質ベイジアンネットモデルへのご質問への回答その2です。

>次に、BNの学習が脳でもSOMとして実装されているかが気になりました。
>「一次視覚野のモデルを工学的に扱いやすくしたもの」「マクロコラムは
>SOMのようなものらしい」との記述があったためです。
>ある条件でBNの学習がうまく行けば何でも良く、たまたまSOMが一番
>適当なモデルだったという事なのかもしれませんし、あるいは脳との対応
>はKohonen 1995に当たれという事なのかもしれませんが、どちらにしても
>どうしてSOMなのかという事に関しては一言説明があると納得しやすいと
>思いました。

学習則については、SOMの学習則そのものにこだわる必要はないと
思っています。
いまはオンラインEMアルゴリズムも使っています(近傍学習は未実装)。

「マクロコラムはSOMのようなもの」の意味は、

1.マクロコラム内の各ミニコラムは入力される情報に排他的に応答。
2.位置的に近いミニコラムは似た入力に応答。

という2つの性質のことを言っているにすぎません。

2番目の性質を再現する方法としては、
SOMで使われている近傍学習以外にもあり得ます。
TICA(Topographic ICA) は多層構造のネットワークのユニット間の
接続関係の制約で実現してるようです(?)。
BESOM に TICA の機構を入れてみる、というのも誰かがやるべき
研究テーマの1つです。

コメント

No title

丁寧な回答ありがとうございます。

>「マクロコラムはSOMのようなもの」の意味は、
>
>1.マクロコラム内の各ミニコラムは入力される情報に排他的に応答。
>2.位置的に近いミニコラムは似た入力に応答。
>
>という2つの性質のことを言っているにすぎません。

このように実験的な知見ベース
(再現したい特徴ベース?)で説明でいただくと多少すっきりしました。

コメントの投稿

トラックバック


この記事にトラックバックする(FC2ブログユーザー)