FC2ブログ

ヒトの知能は地球上の環境に特化した知能


「汎用人工知能なんてできっこない」LeCun教授 | AI新聞 | エクサコミュニティ

引用:
「なぜAGIが存在しないのかというと、人間にも汎用知能などないからだ。人間の脳は非常に特化されている。」
「同教授によると、人間の知能も、地球という人間の置かれた特殊環境にのみ特化して進化してきた知能で、汎用知能ではない、と主張する。」

そういう主張なら私も完全同意。
私が作ろうとしているのは「 LeCun の定義する汎用人工知能」ではなく「高々人間程度の知能」。
人間を超える知能も実現可能だとは思うが、その研究開発は人力でやる必要はなく、まず人間程度の人工知能を作ってから、それにやらせるべき。

記号AIの問題点とその解決策

前回のエントリ で記号AIの利点を書きましたが、記号AIの問題点とその解決策の案についても書いてみます。

- 知識獲得ボトルネックの問題。
古き良きAI(GOFAI)では知識は人間が手で書いて与える必要があり、膨大な初期コスト・保守コストがかかります。
また、手作業で書く知識にはどうしても間違いや不正確さが伴います。
私はこの問題を解決するため、強化学習と教師なし学習で自律的に知識獲得させる方法に現在取り組んでいます。

- 記号接地問題。
記号で書かれた知識と実世界とをどう結びつけるかという問題。
かつては解決が見込めない大問題だったかもしれませんが、深層学習の発展により解決の見込みは立ったと言ってよいと思います。
少し工夫すれば、 if, not, some, every, may, must のような単語を使った論理的な文の意味も実世界と結びつけることができるだろうと思っています。

- フレーム問題。
「エージェントアプローチ人工知能 第2版」p.334 によれば、表現フレーム問題は解決済みで、知識の書き方を工夫すればよいとのこと。
「制限条件記述問題」というものは完全な解は見つかっていないとのことですが、人間も解決しているわけではないので、人間程度の知能を作るのが目的であれば、特に問題はないでしょう。

- 論理式だけでは表現力が弱いという問題。
例えばアナログ量は離散化して近似表現できますし、表現力はなんとでもなるのではないでしょうか?表現力を高めた論理式は、人間が直接読み書きするには向かない表現になるかもしれませんが、知識を自律的に獲得する前提ならば問題になりません。知識と言語の間で相互変換をする際には問題になるでしょう。ヒトの場合も、持っている知識を完全には言葉に表現しきれないと思います。

- 推論の計算量の問題。
全探索で厳密解を求めようとすると指数関数的な時間がかかる問題が多いですが、生物はヒューリスティックスを使った近似解ですませているのでしょう。ヒトの場合、幅の広い探索を並列処理を使って短い時間で実行し、解にたどり着かなければタイムアウトしてあきらめる、というやり方だろうと思っています。

- 確率的推論と統合されてないという問題。
これもまさに今私が取り組んでいる研究テーマで、大規模化可能なベイジアンネットを使って記号推論を実現しようとしています。
(同じように論理と確率の統合を目指している研究分野として「確率論理プログラミング」がありますが、これは、いまのところ私の研究とは関係は薄そうです。)

- 暗黙知と統合されていないという問題。
記号推論がベイジアンネットを使って実現されれば、暗黙知の方もベイジアンネットで表現することで容易に結合できると思います。

- アーキテクチャが複雑になりすぎるという問題。
ヒトの知能の働きは非常に複雑で、1つ1つ素直に実装していくと全体がとてつもなく複雑になってしまいます。実際、認知アーキテクチャの Soar や OpenCog はかなり複雑なものになっています。
ところがヒトの脳はそこまで複雑ではなく、たった約50個の領野のネットワークといくつかの器官で構成されています。そしてこのネットワーク全体の動作は、強化学習とベイズ推論の単純な原理(報酬期待値最大化・事後確率最大化)で理解可能であろうことを、計算論的神経科学は示唆しています。
現在私は、言語野と前頭前野周辺の簡単なモデルを核として、脳全体のアーキテクチャのモデルを作ろうとしています。


他にも記号AIにはこういう問題がある、というコメントをお待ちしています。

記号AIの勉強中

古き良きAI(Good Old-Fashioned Artificial Intelligence, GOFAI)とも呼ばれる記号AIは、以下の利点を持っています。

- 知識の汎用性が高い。
(知識を組み合わせることで多様な推論が行える。)
- 知識の汎化能力が高い。
(1つの抽象的な知識で多くの具体的な状況に対応できる。)
- 知識のモジュラリティが高い。
(環境の変化に対応しやすい。)
- 知識と自然言語の間の相互変換が容易。
(他者との情報交換を前提とした知識の内部表現に適している。)

これらは、現在はやりの統計的機械学習とまさに正反対の性質です!
人間の脳は統計的機械学習と記号AIの両方をうまく統合しているように思います。

私は、以前から開発を続けている大脳皮質モデル BESOM と階層型強化学習 RGoal と言語野モデルをベースにして、統計的機械学習と記号AIを統合した脳全体のアーキテクチャを工学的に再現しようとしています。

脳全体のアーキテクチャについては、だいぶ全体像が具体化してきたのですが、全体をいきなり動かすのは無理です。

そこでまずは、プロダクションシステムにおけるプロダクションルールに相当するものを自律的に獲得する原理を小さなプログラムで実証しようとしています。
(試行錯誤の経験のみから知識を獲得するのは事実上無理なので、生得的な帰納バイアスの作り込みや言語を通じて得た事前分布の利用といった「ズル」をします。)


研究を進めるにあたって、記号AIについてあらためて勉強する気になったので、「エージェントアプローチ人工知能」の関連した章を読んだり、帰納論理プログラミングや対話システムや認知アーキテクチャ Soar などの勉強を始めています。記号AIの研究には、純粋に数学的・工学的なものもあれば、人間の知能の模倣を目指した研究もあり、非常に参考になります。

脳を模倣した汎用人工知能を作りたいという人は、グラフィカルモデルと強化学習に加えて、記号AIについてもぜひ勉強しておいて欲しいと思います。
何か手伝えることがあればお手伝いします。

全脳アーキテクチャ勉強会(7月19日)「確率的グラフィカルモデルと脳」

次回の全脳アーキテクチャ勉強会の予告です。
ぜひご参加ください。

第27回 全脳アーキテクチャ勉強会
テーマ:「確率的グラフィカルモデルと脳」
7月19日(金)東大 本郷 鉄門記念講堂

開催趣旨(仮)
脳は確率推論をする情報処理装置であり、予測符号化モデルのように一種の確率的グラフィカルモデルを用いた大脳皮質の計算論的モデルがいくつも提案されてきている。また、汎用人工知能の実現に向けた重要な課題の1つに確率推論と記号推論の統合があるが、確率的グラフィカルモデルはそのカギになり得る技術でもある。今回の勉強会ではボルツマンマシンやベイジアンネットの専門家をお呼びして、確率的グラフィカルモデルの高機能化・大規模化につながる様々な技術について理解を深めるとともに、今後解決すべき課題について議論する。

プログラム

産総研 一杉裕志
「開催趣旨説明:大規模グラフィカルモデルのブレークスルーを目指す(仮)」

IBM東京基礎研究所 恐神貴行 氏
「動的ボルツマンマシンと脳(仮)」

NTT コミュニケーション科学基礎研究所 石畠正和 氏
「ZDD による指数関数的な計算時間の高速化(仮)」

記号推論と強化学習を統合した脳型汎用人工知能アーキテクチャの構想

作ろうとしている脳型AGIアーキテクチャの全体像がだいぶ具体化してきたので概要をざっと書いておきます。

まず RGoal (2018年8月のAGI研究会論文) に Dyna-2 の機構を取り入れます。 Dyna-2 はモデルベース強化学習の元祖である Dyna アーキテクチャの拡張版で、行動価値関数を永続メモリと一時メモリに持つことを特徴とします。これに似たものを RGoal に取り入れます。RGoal の思考モードで学習した結果は一時メモリに入れて使い、一時メモリの内容を時間をかけて永続メモリに定着させることを考えています。

永続メモリに記憶を転送する際に状態行動対を圧縮・抽象化するのですが、それは2018年11月のAGI研究会論文で書いた方針で行います。そこでやろうとしていることは帰納論理プログラミングそのもののようです。帰納論理プログラミングとは、論理プログラミングを用いた機械学習手法です。
参考:
帰納論理プログラミングの基礎理論とその展開

私が作ろうとしているものは、結局、強化学習と帰納論理プログラミングを組み合わせたものになります。似たものとしては過去に Relational Reinforcement Learning というのものが提案されています。
http://www-ai.ijs.si/SasoDzeroski/oldPage/files/2001_DRD_RelationalReinforcementLearning.pdf
これは、帰納論理プログラミングの技術を用いることで、行動価値関数を圧縮表現する prolog のプログラムを生成するというものです。圧縮により汎化能力が上がります。生成される prolog のプログラムは「論理決定木」という特殊な回帰木で、チューリング完全なプログラムを生成するわけではありません。

私が作ろうとしているものは、 RGoal の行動価値関数のテーブル Q(s,g,a) を圧縮します。圧縮されたテーブルの要素1つが prolog の(body のない)ホーン節に相当します。テーブル全体は、有限オートマトンもしくはプッシュダウンオートマトン程度の表現力を持った、特殊な prolog プログラムと見なせます。大脳は外界の状態や海馬を外部メモリのように操作することができるので、それによりチューリング完全な能力を持つことになります。

しかし一般に、表現力の強いプログラムを入出力例のみから合成するのは容易ではありません。そこだけに真正面から取り組んでも、どうやら汎用人工知能ができる見込みはなさそうだという確信にいたりました。ヒトの脳は巧妙な方法で「ズル」をして、プログラム合成という解けない問題を現実的に解ける問題に落とし込んでいるのだと思います。その巧妙な方法を推定するためには、神経科学的知見やヒトの生態に関する知識がよいヒントになります。

いま注目しているのはカリキュラム学習です。機械学習において、学習のカリキュラムを適切に設定することによって、素朴な方法では学習できなかったものが学習できるようになる場合があります。RGoal はサブルーチンを持つことができる階層型強化学習アーキテクチャですが、適切な学習カリキュラムを組むことで、1つのサブルーチンを O(1) 程度で獲得できるようにすることを目論んでいます。そうすると時間 n で O(n) 個の知識を獲得できます。このような目標は従来の帰納論理プログラミングでは研究されていなかったかもしれません。

獲得するサブルーチンは抽象化されているため汎用性が高く、複数のサブルーチンを組み合わせて非常に多くの未知の状況にも対処できるようになります。ここが汎用人工知能実現の中核技術になります。エージェントは、目前の課題を手持ちの知識を組み合わせで解くための手順を探索します。この探索は RGoal の思考モードで行います。思考モードは、経験で獲得した Q(s,g,a) の値を公理と見なし、その公理を組み合わせることで経験したことのない Q(s,g,a) の値を演繹推論するしかけです。

知識獲得を現実的なものにするためにもう1つ必要となりそうな工夫は、教師とのインタラクティブなやり取りです。帰納論理プログラミングの分野でも、完全自動ではなく人間への質問を用いるシステムが多く研究されているようです。これについてはまだ調査中ですが、長い歴史を持つ分野なので、そこから多くのヒントが得られると思います。ヒトの発達過程における知識獲得においても、環境や親とのインタラクティブな相互作用が、解けない問題を解ける問題に落とし込むために重要な役割を果たしているのだと思います。

他にも能動的注意や言語を用いた記号推論の機構についてもいろいろ考察が進んでいます。

能動的注意は、実質的に無限次元の環境の状態を有限の次元に近似する働きをします。この原理は視覚刺激に対してだけでなく、記号推論の際にも使えそうです。

1つの文の意味はエージェントの脳の中では論理式のようなもので表現します(2018年3月のAGI研究会論文)。2層BESOM4は論理式から論理式への推論規則を表現できる(2016年12月のAGI研究会論文)ので、記号推論エンジンの重要な部品になります。これは RGoal の思考モードとは別の機構で、おそらく生物の中でもヒトだけが持っているものです。 Q(s,g,a) の s は大脳皮質の感覚連合野の発火のスナップショットです。文の意味も大脳皮質の発火で表現されるものですから、 s の一部に含まれることになります。

外界の状態や他者の心の状態などは、 Q(s,g,a) で表現されたホーン節の集合で表現することを考えています。外界も他者の心もプログラムと同じくらいの複雑さを持っていますが、ホーン節の集合であれば任意のプログラムが表現できます。また、この表現方法は、インクリメンタルな知識の追加・改良や、知識の断片と言語との間の相互変換も容易です。ヒトの脳では海馬や皮質がホーン節の集合を宣言的知識として蓄えているのだと解釈します。


以上のような構想です。

JSAIでは6月6日に RGoal について発表します。
2019年度 人工知能学会全国大会(第33回)/階層型強化学習 RGoal アーキテクチャへの再帰呼び出し用スタックの導入
こういう研究に関心のある方は声をかけてください。
コメントなどもいつでもお待ちしております。