FC2ブログ

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

汎用人工知能研究会にて階層型強化学習の話を発表予定

8月30日(木)の汎用人工知能研究会で、下記の内容で発表します。

前頭前野周辺の情報処理機構のモデルの構築に向けた最初の取り組みとして、
階層型強化学習の新しいアーキテクチャを設計しました。
忌憚ないご意見いただければと思います。よろしくお願いいたします。

タイトル:
RGoal Architecture: 再帰的にサブゴールを設定できる階層型強化学習アーキテクチャ

概要:
人間は何か目的を達成するために適切なサブゴールを設定できる。
さらに必要に応じてそのサブゴールを再帰的に設定することができ、その再帰の深さには制約がないように見える。
この振る舞いにヒントを得た階層型強化学習の新しいアーキテクチャとして、
RGoal アーキテクチャを提案する。
アルゴリズムは、拡張状態行動空間上の MDP を解く形で定式化される。行動価値関数は、価値関数分解により複数のタスク間で共有可能になり、マルチタスク環境での学習を効率化する。
「思考モード」における振る舞いは一種のモデルベース強化学習であり、
学習済みのタスクを組み合わせることで、
一度も経験したことのないタスクを少ない試行錯誤で、
場合によってはゼロショットで解くことができる。
アルゴリズムはスタックを用いず、フラットなテーブルとシンプルな操作の繰り返しで実現される。
今後このアーキテクチャを拡張し、脳の前頭前野周辺の情報処理機構のモデルを構築する。
スポンサーサイト

汎用人工知能の実現を目指す中高生のためのアドバイス

ときどき高校生の方から「将来汎用人工知能の研究をしたいが何をすればよいでしょうか」という質問をいただきます。

私としては「まずはプログラミングと数学をしっかり勉強してスキルを磨いてください」といつも答えています。
これがないと話になりません。

その他には、英語はできるだけできた方がよいですし、
生物学の最低限の基礎知識もあった方がよいです。

高校生向けの脳と人工知能の入門的な本としては、とりあえずこれをお勧めします。

単純な脳、複雑な「私」 (ブルーバックス)
池谷 裕二 (著)
出版社: 講談社 (2013/9/5)

あとは、興味のあるキーワードをネットで検索していろいろな解説を読み漁れば、少しづつ知識がついてくるでしょう。
かなり内容が古くなっていますが、下記ページもヒントになると思います。
脳を理解するための情報源メモ
全脳アーキテクチャ解明に向けて


当面の目標としては、まずはコンピューター関係の研究ができる一流大学への入学を目指しましょう。
大学の学部では汎用人工知能の研究はできないかもしれませんが、その場合でも、優秀であれば修士課程でそういう研究ができる研究室に移籍できる可能性はあると思います。

脳のような人工知能を作るのに、医学・生物系の学部に行くべきか、コンピュータ系の学部に行くべきか、という質問もよく受けますが、私はコンピュータ系を勧めています。
医学・生物系の最新の知見を理解するためには必ずしも生物実験の経験を持っている必要はありませんが、コンピュータ関係の最新技術を正しく理解するためにはプログラミングの経験が不可欠です。
また、卒業後研究者にならずに就職する可能性も考えると、コンピュータ系の方が無難かと思います。


脳を模倣した汎用人工知能の実現には、計算機科学や神経科学などの分野の多くの知識をつなぎ合わせ、さらに足りない技術は自力で開発する能力が必要です。
早いうちから、プログラミングのスキルを磨くと同時に、コツコツと関連分野の理解を深め、知識を増やしていくとよいと思います。

「ヒト型 AI は人類にどのような影響を与え得るか」

4年ほど前に人工知能学会誌に書かせていただいた文章が無料公開されています。

一杉裕志、「ヒト型 AI は人類にどのような影響を与え得るか」
人工知能:人工知能学会誌 29(5), 507-514, 2014.
http://id.nii.ac.jp/1004/00001627/

私の研究に対してよく聞かれる質問に対する私の考えをまとめたものです。

なお、AIの身近に迫った最大の脅威は「人間による弱いAIを使った専制政治」だと当時から考えているのですが、そのような認識があまり世の中に広まっておらず、大変心配です。

近況報告

近況報告です。

大脳皮質モデルBESOMの条件付確率表モデルを刷新してアルゴリズムを実装・評価していましたが、計算が重くてなかなかハイパパラメタ調整がはかどらず中断中。計算量のオーダーはパラメタ数に対して線形ですが、かなり遅い。ちょっと方針を変えて、 loopy belief propagation のメッセージ計算をニューラルネットで近似計算することを検討中。脳も結局はそうやっているはず。

それとは別に、言語野のモデルにも取り組んでいます。組み合わせ範疇文法の構文解析・意味解析を、神経科学的に妥当な「疑似ベイジアンネット」で実現しようとしています。意味表現を工夫することでラムダ計算を不要にし、単一化の機構だけで意味解析を行います。簡単な文法を処理するプロトタイプが prolog で動いています。

また、汎用人工知能実現のブレークスルーを目指すべく、ヒトの知識獲得と思考のモデルにも手を付け始めました。BDIアーキテクチャに似たものと Sutton and Barto の本にも出ている Dyna-Q アーキテクチャを融合したものを、前頭前野・海馬・前部帯状回等に関する神経科学的知見を踏まえて実現しようとしています。設計には展望記憶(Prospective memory) に関する知見もヒントになりそうです。ちゃんと動けば、遠くない将来の汎用人工知能の実現に疑問を抱く人はかなり減るはず・・・と思っているのですが。

こういった話に関心のある研究者の方は、どこかでお会いした時にぜひ議論しましょう

減速した1人あたりGDPの加速ペース

下記ブログで、21世紀は20世紀よりも進歩が加速しているとは言えないのではないか、と書かれています。
収穫加速の法則批判 「減速する加速」 - シンギュラリティ教徒への論駁の書

その主張には私も同意で、それを裏付けるもっと明確な証拠があります。

科学技術の進歩は労働生産性を向上させるので、
1人あたりのGDPが科学技術の水準の客観的な目安になると思います。
では、1人あたりのGDPはどのように増えてきたでしょうか。

例えば下記ページに、 1600-2003年の1人あたりGDPの推定値の推移のグラフがあります。("World Per Capita GDP" というグラフ。)

Charting Historical Global Per Capita GDP - Kruse Kronicle

1800年から1975年の間は、すさまじい勢いで加速しています。
ざっくりいって、 1800->1900->1950->1975 というふうに、値が倍になるまでの時間が半分になっていき、双曲線的な(あるいはそれ以上の)ペースで増えています。
もしその加速ペースが続けば 2000年ごろに値は無限大になります。

しかし実際には、 1975 ごろ以降は加速しなくなり、
だいたい直線のペースでしか増えなくなったようです。

1人あたりのGDPの両対数グラフは下記ページの下の方にあります。
こちらもご覧ください。現在から数十年前にグラフの傾きが大きく減っています。
Estimating World GDP


人口増加の減速と1人あたりGDPの減速があまりタイムラグなくほぼ同じころに起きたというのは、意外でした。
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。