スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

強い人工知能不可能論の根拠募集

サールは「中国語の部屋」の話を使って「機械は知能を持てない」と主張しますが、
多くの人工知能研究者はその主張は成り立たないと考えているらしい。
私もそう思います。
人工知能研究者の反論に対し、サールは有効な再反論を出せていないのが現状であると
私は理解しています。

そもそも、その主張は、知能を作る気のない人が
「知能は作れない」と言っているだけなので、別に実害がない。


それよりも、強い人工知能を作る潜在能力は持っているのに、
根拠をろくに検討せずに「簡単にできるわけがない」と決めつけて、
誰も手を出そうとしないという現状の方が深刻な問題だと思います・・・。

「いや、簡単にできないと思うのはこういう根拠があるからだ!」という反論、
お待ちしております。

追記:
私は別に1人で10年でできるとは言いませんが、
最近の神経科学と発展と機械学習理論の成熟を踏まえれば、
大勢で取り組めば100年かかる話では絶対ないと思います。
20年あればサルか3歳児程度の知能ができて、市場に出ていてもおかしくない。

そのようなことを目指していた優秀な研究者は多かったはずなのに、
最近の計算論的神経科学の進展を知らずにあきらめている現状は、
実は大変な頭脳の浪費だと思っています。

コメント

No title

ご返事ありがとうございます。
すると、学習機能をOnにしたロボットを出荷したら、少なくとも最初のうちは、一定期間で回収して、追加学習などのチューニングを行うとともに、回収時のパラメータを参照して、次のロットのロボットの事前分布や学習に反映させることで、より環境に対する適合性の高いロボットを作ることができそうですね。

No title

>ベイジアンネットを持った人工知能が人間同様にフレーム問題に対処できるのは、やはり事前確率分布を適当に設定するからでしょうか。

ううむ、人間の脳がフレーム問題を起こさずに現実世界の問題にうまく対処できるのは、脳が持つ機械学習アルゴリズムが高い汎化能力を持っているからであり、なぜ高い汎化能力を持っているのかといえば、外界に最適化されたモデルと事前分布を進化によって獲得したから、とは言えると思います。

ベイジアンネットと適切な事前分布だけあれば人間のような知能が作れる、とまでは話は簡単でないと思います。

フレーム問題

早速の御返事ありがとうございます。(あまりの速さに驚きました(笑))
帰りの電車の中で考えて、当面の結論に至りました。

人間と同じ原理で学習する機械であれば、フレーム問題から逃れられそうですね。(近似解に基いて行動するという意味で)

フレーム問題の2番目、3番目のロボットのように、「固まって」しまうことはないのでしょう。

1番目のロボットのように失敗する可能性はあるでしょうが(笑)。でも、これは人間も同じですね。

ベイジアンネットを持った人工知能が人間同様にフレーム問題に対処できるのは、やはり事前確率分布を適当に設定するからでしょうか。

No title

フレーム問題についてブログに書いたことはなかったと思います。

フレーム問題は、もちろん人間も厳密に解決しているわけでなく、近似的に解決しているにすぎません。
近似的な解決であれば機械にも可能です。

結局、現実世界で活動できる程度にフレーム問題を解決できるのかどうかが、問題になってきます。
よく言われるように人間は「直観」でフレーム問題に対処していると思います。
直観と似た機能を持つベイジアンネットを用いた人工知能は、その意味でも有望だと思います。

No title

ノイズに興味があり、「正則性」と「確率共鳴」でたどり着いた素人です。

とっくにどこかに書かれているのかも知れませんが、いわゆる「フレーム問題」
は解決されてしまったのでしょうか。

Re: 学習

>で、知識(data)の方は、どんどん増やしていくことが学習となると思います。
>問題はalgorithmも学習するのか?です。
>きっと、お答はYesなのでしょうね。 

ここでいう「algorithm」が
知識の使い方、思考の仕方、体の動かし方などのことでしたら、
(おもに強化学習を使って)学習すると思います。
(学習する前から作りこまれるものもあると思います。)


>しかしながらaigorithmを(ランダム要素の入った)学習してしまうと、知能の使い方が変わってしまう訳ですから、これ以後同じdataを学習しても「考え方」が変わってしまう訳ですから、「個性」が変わってしまいます。
>これでは、困ります。

学習済みのロボットを出荷するときに学習機能はオフにするならば、
出荷後はもう「個性」は変わらないと思います。

学習

おはようございます。 電車の中でいろいろ考えます(^.^)

> 知能は持っているが自我は持っていないと。

自我というより「個性」でしょうか。

おっしゃるとりですね。 「個性」が適切と思います。

ユーザにとっての利便性やメーカーにとっての品質保証のしやすさを考えると、
ロボットは個性を持ってない方がよいでしょうね。

>人工知能って(ある側面に注目すると)人間と全く違うものだと言えますね。

hashy さんが書かれていたように、
「ロボットが人の役に立つためには、人と同じではダメである。 」
ということですね。
人間に役に立つものを作ろうとすると、
必然的に人間とは違う点を持ったものができると思います。

はい。 besom1さんもそう思っていらしたのですか。。。そうじゃないと思ってました(^.^;)

> 与えるデータ、環境を管理すれば、まったく同じ機械になるってことなんですね。
>それなら、役に立ちそうな気がしてきました。
> ただし、このデータを与えればこうなるはずだと言うことが分かってないと困りますが。

学習環境が少しでも違えば学習結果も違ってきて予測不可能だと思いますが、
メーカーはいろいろ試行錯誤してみて、
もっともうまくいった学習結果のデータをコピーして出荷することに
なるでしょう。

以下コメントいただけると嬉しいです。
知能=知識+知識の使い方 とシンプル(すぎるか?)に思っています。
で、知識(data)の方は、どんどん増やしていくことが学習となると思います。
問題はalgorithmも学習するのか?です。
きっと、お答はYesなのでしょうね。 
で、algorithmを学習したとして、そのalgorithmに乱数や確率的なものが入っていたとします。
dataのみの学習なら、ある機械がAという答えを出し別の機会がBと言う答えを出しても「個性」を損なうことはなく同一です。
しかしながらaigorithmを(ランダム要素の入った)学習してしまうと、知能の使い方が変わってしまう訳ですから、これ以後同じdataを学習しても「考え方」が変わってしまう訳ですから、「個性」が変わってしまいます。
これでは、困ります。
algorithmを変化(進化)させないとダメでしょうし。。。。
ランダム要素の入ったalgorithmを採用しないというルールが必要だと思います。
どう思われますか?

Re: 学習

>何度もすみません。メールでやった方がいいのかな? ご判断願います。

そろそろ収束しそうですが、続ける場合はここでやりましょう。

> 知能は持っているが自我は持っていないと。

自我というより「個性」でしょうか。
ユーザにとっての利便性やメーカーにとっての品質保証のしやすさを考えると、
ロボットは個性を持ってない方がよいでしょうね。


>人工知能って(ある側面に注目すると)人間と全く違うものだと言えますね。

hashy さんが書かれていたように、
「ロボットが人の役に立つためには、人と同じではダメである。 」
ということですね。
人間に役に立つものを作ろうとすると、
必然的に人間とは違う点を持ったものができると思います。


> 与えるデータ、環境を管理すれば、まったく同じ機械になるってことなんですね。
>それなら、役に立ちそうな気がしてきました。
> ただし、このデータを与えればこうなるはずだと言うことが分かってないと困りますが。

学習環境が少しでも違えば学習結果も違ってきて予測不可能だと思いますが、
メーカーはいろいろ試行錯誤してみて、
もっともうまくいった学習結果のデータをコピーして出荷することに
なるでしょう。

学習

何度もすみません。メールでやった方がいいのかな? ご判断願います。

> 学習機能を持たせると開発者が学習してほしくない知識まで
> 学習してしまうという欠点があるのではないか、というご指摘でしょうか?

はい。まさに。

> ロボットの場合は、学習の際に与える情報を管理するとか
> 教育に成功した学習済みデータだけを複製して製品化するといった方法で
> 品質保証がされていくのだと思います。

同じ学習をしても人間は同じにならないです。
しかし人工知能であれば、同じになるんでしょうね。
知能を知識と知識の使い方と定義するなら、与える情報が同じであれば、どの機械も同じになるでしょうね。

知能は持っているが自我は持っていないと。
人工知能って(ある側面に注目すると)人間と全く違うものだと言えますね。

与えるデータ、環境を管理すれば、まったく同じ機械になるってことなんですね。
それなら、役に立ちそうな気がしてきました。
ただし、このデータを与えればこうなるはずだと言うことが分かってないと困りますが。


(ユーザに挙動が予測できないロボットは売れません。)

そうですよね。確かに。

Re: 学習

私自身の頭の整理になるので、どんな質問も大歓迎です。

>副作用のない自動学習ってあり得るのでしょうか?

学習機能を持たせると開発者が学習してほしくない知識まで
学習してしまうという欠点があるのではないか、というご指摘でしょうか?

それはその通りだと思います。
子どもも、覚えて欲しくないことをどこかで覚えてきちゃいますね。(^_^)

ロボットの場合は、学習の際に与える情報を管理するとか
教育に成功した学習済みデータだけを複製して製品化するといった方法で
品質保証がされていくのだと思います。
(ユーザに挙動が予測できないロボットは売れません。)

学習

たびたびすみません。
副作用のない自動学習ってあり得るのでしょうか? 私は無理だと思うのですが。。。

Re: 感想

>人間の役に立つために持つべき知能についてです(どんどん技術から離れてしまいますが)

こういう議論は、とても大事だと思います。

ロボットの使いやすさについてですが、
市場にまかせるのが一番だと思います。

技術者の独りよがりで作ったようなロボットを出す会社は
つぶれていくでしょう。

最初のうちは、出荷時にはあえて学習機能はオフにして
知能も腕力も必要最低限に抑えたものが製品化されると思います。
利便性、安全性、コストを考えて。

それでは学習機能を持つロボットの開発は無意味かと言うと
そんなことはなく、開発コストの低減という意味があります。
現状では開発者がすべての知識をロボットにプログラミングするので
膨大な開発コストがかかってしまいます。
自律学習機能を持たせることで、
そのコストを大幅に下げることをねらっています。

感想

コメントありがとうございます。 
人間の役に立つために持つべき知能についてです(どんどん技術から離れてしまいますが)

知識を獲得できる。これについては、まったく魅力的ですね。でも、思った様には育ってくれません。
自然言語での伝達。曖昧さを排除できず行き違いの意思疎通。日常茶飯事。
人に指示して思ったように動いてもらう、これほど難しいものはありません。
人に役に立つためには「道具止まり」がいいです。black box(人間)は使いずらくてかないません。ああ、、我が妻よ。
息子はぐれてしまいました。学習のやり方が良くなかったのでしょうか。。。

人の役に立つと言うのもそれぞれの人の価値観もありますから、極論すると自分と同じものを作りたい。と言い変えれるのではないでしょうか?
自分の意思の思い通りのロボットを作りたいと言う事ですよね。
そのためには、ロボットを使用者が定義すべきです。勝手に学習されては困ります。 
ある程度知的レベルがある道具の方が確かに便利です。しかし知的レベルの限度ですが、使う人に道具の正体を正しく抽象化されたモデルが見えるところで止めるべきと思います。
人に近づくためにはメタの機構が必要です。しかしそのrefrectionの記述内容の定義は自動ではなく使用者が行わないと使いやすい道具にならないと思います。

私の意見を(ラディカルに)まとめます。
ロボットが人の役に立つためには、人と同じではダメである。
これは、人型ロボットも同じです。人で出来ないことを道具でやる。
タスクによって手は8本ある方がいいでしょうし、足が2本である必要はないと思います。



Re: 超初心者

hashy さん、コメントありがとうございます。

錯視を説明する数理モデルは現在でもいろいろあると思います。

将来的に視覚野のモデルが本物の脳に近づくにつれて、
再現される錯視の種類はどんどん増えていくだろうと思います。

「強い人工知能」の定義についてですが、
人と同じような知能、ということでよいと思います。
ただ、何を持って「同じ」とするかが曖昧なままですが。

すべての錯覚を正確に再現させるべきとは私は思っていません。

私が目指しているのは、ロボットが人間の役に立つために
持つべき知能の実現です。
具体的には、
・赤ん坊のように自律的に知識を獲得できる。
・自然言語を通じて知識の伝達ができる。
・幅広い状況に知識を応用できる。
という要件を満たすものを目指しています。

超初心者

Deep learningに誘われてやってきました。以前の話題で申し訳ないですが。。
2本のマッチ棒に線をひいて長さが違うように見えます。錯視と言うのでしょうか。
機械(人工知能)も錯視は可能でしょうか?
人と同じってことが人工知能の定義なんですよね?

蛇足:
「ロ」が片仮名のロなのか、漢字の口なのか?四角なのか? 人も間違うし機械も間違います。
「不審な人物を発見する」何を持って不審とするか。。。 ですね。
その点将棋はゴール、ルールが定義されている。将来人は必ず負けると思います。

No title

dude さん、コメントありがとうございます!

>計算機のアルゴリズムでは作り出す事が不可能な事例としては完全な乱数の発生が知られています。
>単純に一意に書きおこせるアルゴリズムだけでは計算機で再現不可能な事例というのはまだまだありそうに思われます。

停止性問題など、計算機で解けない問題はあります。
NP完全問題も(P≠NP予想が正しければ)事実上、計算機では解けません。
ですがこれらの問題は人間にも解けません。


>たとえば人間や生物の「発見する」「創造する」という行為は

知識発見でしたら、データマイニングアルゴリズムが
すでにやってることです。
創造性に関しては、古典ですがチューリングが書いていることが
すごくおもしろいです。
私も同じような意見です。
「異本「計算する機械と知性について」」
http://mtlab.ecn.fpu.ac.jp/turing_ihon.html


>非常にヒューリスティックな帰納的な側面を持つ過程であることが指摘されており、アルゴリズム自体を評価するアルゴリズム、そしてそれを評価するアルゴリズムというようなメタな関係性を包摂しているように思われます。

ご指摘の内容は、自己意識とか自己モニタリングとか
言われている機能かもしれません。
そこはまさに、現在どのシステムも実現していない機能ですね。

ロボットが、自分自身が今何をやっているかを十分に認識するためには、
そのロボットの脳が高い抽象化能力を持つことが必要ですが、
現在の教師なし学習アルゴリズムにはそこまで高い抽象化能力がありません。

この性能を上げることが、高い知能の実現に向けて解決すべき
大きな課題だと思って、私は取り組んでいます。

もちろん、教師なし学習アルゴリズムだけではだめで、
他のモジュールと適切に組み合わせて、
全体がシステムとして正しく動作するようにする必要があるでしょう。

No title

計算機のアルゴリズムでは作り出す事が不可能な事例としては完全な乱数の発生が知られています。
単純に一意に書きおこせるアルゴリズムだけでは計算機で再現不可能な事例というのはまだまだありそうに思われます。
たとえば人間や生物の「発見する」「創造する」という行為は非常にヒューリスティックな帰納的な側面を持つ過程であることが指摘されており、アルゴリズム自体を評価するアルゴリズム、そしてそれを評価するアルゴリズムというようなメタな関係性を包摂しているように思われます

そうしたメタアルゴリズム的な包摂関係
、おそらく神経細胞自体も細かな単位から大きなモジュール構造に至るまでメタアルゴリズムを行なっている事が生物の認識の柔軟性やひいては人間の適応性創造性を実現しているのでないでしょうか。
そうしたメタアルゴリズム的な
、アルゴリズムを評価し常に組み替えるようなシステムが作れるかどうか鍵ではと思います。

Re: だめです

> 人口知能は生まれないとおもいます、生物の脳は脳内物質の快感により、根本の欲求がうまれているわけで、電子制御の脳では、考える欲求が生まれ無いのではないかとおもいます

「脳内物質の快感により欲求が生まれる」というのは、まったくその通りだと思います。
ただ、脳内物質の濃度はある種の信号の強さを表現しているにすぎない(と多くの神経科学者が考えていると思う)ので、その信号の強さをデジタル計算機上の数値で表現することで「欲求」は再現可能だと思います。

もう少し詳しく言うと、ドーパミンという快楽をもたらす神経伝達物質は、機械学習アルゴリズムの1つである強化学習の「予測誤差信号」を表していると考えられています。
(この話はかなり衝撃的な話で、もっと一般に知られるべきだと思っています。)

強化学習で動くロボットの延長線上に、「自分自身の欲求で動くロボット」があると思います。

だめです

人口知能は生まれないとおもいます、生物の脳は脳内物質の快感により、根本の欲求がうまれているわけで、電子制御の脳では、考える欲求が生まれ無いのではないかとおもいます

コメントの投稿

トラックバック


この記事にトラックバックする(FC2ブログユーザー)

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。