人間と人工知能の決定的な違いとは? 『スター・ウォーズ』R2D2以前に作られた“3つのロボット”の失敗物語

人間と人工知能の決定的な違いとは? 『スター・ウォーズ』R2D2以前に作られた“3つのロボット”の失敗物語

写真はイメージです ©iStock.com

「モンスターを見つけると勝手に攻撃し始めたり…」3Dゲームで仲間のAIキャラクターを信頼できない“本当の理由” から続く

 現在、私たちの生活や仕事では「人工知能(AI)」がさまざまな形で実用化されている。しかし、人工知能にも便利な面とリスクとがある。その点を十分に理解したうえで、どう付きあっていくべきなのかを考える必要があるだろう。

 ここでは、5人の識者が“AIと人類の現在地”に迫った『 私たちはAIを信頼できるか 』(文藝春秋)から一部を抜粋。社会学者の大澤真幸氏が、認知科学の観点から人間と人工知能の関係について述べたエッセイを紹介する。R2D2に先立って作られた「3つのロボットの失敗の物語」とは?(全2回の2回目/ 1回目から続く )

◆◆◆

■AIを理解すると、人間についての理解が深まる

 私の専門は、社会学である。とりわけ社会学的説明のベースとなる理論や哲学を研究している。人工知能AIは、私の専門ではない。が、私は、20代の頃より、AI研究の動向にも関心をもってきた。

 もちろん、AIに関心をもっている社会学者は多いだろう。その場合の学問的関心の焦点は、主として、AIの社会的影響にある。AIの導入と普及は、われわれの社会生活に大きな変化をもたらすと考えられる。

 私も、社会学者として、そうしたことにも興味がある。特に、AIが人間の脳にダイレクトに接続されるようになれば、「人間」という概念そのものにすら大きな転換が生じうる、と私は予想している。しかし、私が最初にAIに関心をもつようになった理由は、こうした主題にあったわけではない。

 私がAIの研究に注意を向けるようになった1980年代後半は、第2次AIブームの渦中であった。AI研究には、現在までに3回の流行の波があったとされている。第1次ブームがあったのは、第2次世界大戦が終わって間もない1950年頃から60年にかけての時期だが、この頃、日本は貧しく、このブームには参加できず、蚊帳の外であった。

 1980年代に、第2次AIブームが訪れ、このときは、日本の研究者や技術者も中心的なプレーヤーとなっていた。

 現在は、2010年頃から始まる第3次ブームの中にあるわけだが、私がAIに興味をもち、その基本的な動きを注視するようになったのは、その前の第2次AIブームのさなかであった。どうして、私は、AIに――そして関連する認知科学の研究に――、知的関心を向けたのか。その当時、流行っていたから……ではない。

 AIを見ると、人間だけを見ていたときにはとうてい発見することができない〈人間のこと〉がわかるのだ。AIについて勉強すると、AIについてよく分かる――のはあたり前だが、それだけではない。〈人間〉についての理解が深まる。しかも――ここが肝心なところだが――、もし人間だけを徹底的に(自己)観察していただけなら見出しえなかったことが、AIについての認知科学を媒介にすると見えてくるのだ。

■しかし、AIは人間のようには活動しない

 AIは、人間が、自らの〈知性〉や〈心〉について自ら理解していることを外化したものだ。人間は、何ごとかを知覚し、そして判断したり、推論したりしている。そうした認知活動や心の働きがどのようなものなのか、人間は、自分で反省し、自ら意識している。そのような自己反省を厳密化し、洗練させてきたものが、心理学や哲学となる。

 そのような自己反省にそって、AIが構想され、実際に機械として実現される。もちろん、実際に作られるAIは、しばしば――というより常に――人間の知性のある特定の局面だけを純粋化したり、誇張したり、強化したりしてはいる。が、いずれにせよ、人間が、自分自身の知的活動に関して「自分はこのようにしている」という自己反省にもとづいて、AIは構築される。だから、AIは、知性を有する主体としての人間の、その知性についての自己反省を外化し、対象化したものだ。

 すると、AIは、人間と類似の仕方で知的に動くはずだ。ところが、ときに、思いもよらぬところで、AIは躓く。設計者にとっては、「そんなはずがなかった」という仕方でAIは、失敗する。このときどこに問題があったのか。何が足りなかったのか。問題の源泉は、人間の自己理解である。

 人間は、自分はこんなふうに認知活動をしている、という自己理解にそってAIを構想する。しかし、AIは、人間のようには活動しない。何かが根本的に異なっている。人間の「実際の認知活動」と「認知活動についての自己理解」の間にギャップがあったのだ。人間の〈知性〉や〈心〉の現実と、その現実についての人間自身の自己理解の間には、根本的な落差があった、ということが、AIという外的対象を媒介にすることで見えてくる。

 人間は、自分自身が自覚し、思い描いているようなかたちで、認識したり、知的にふるまったりしていたわけではないのだ。AIなるものが構想可能なものになったおかげで、人間が自分自身について見えていなかったことが可視化されたのだ。

■「フレーム問題」とは何か?

 そのようにして可視化され、自覚されたことのひとつが「フレーム問題」である。もしAIなるものが実現可能なものとして描かれるようにならなかったら、人間は、フレーム問題なるものが存在していることに気づかなかっただろう。伝統的な哲学や心理学が、たとえば(哲学の一流派であるところの)現象学が、自分だけの力でフレーム問題を発見することはなかったに違いない。

 フレーム問題とは何か。そして何でないか。これを正しく理解することは、けっこう難しい。フレーム問題の核はどこにあるのかという点の説明として、ダニエル・デネットが1984年に著した論文「コグニティヴ・ホイール――人工知能におけるフレーム問題」にまさるものはない。この論文で、デネットは、『スター・ウォーズ』に登場するロボットR2D2を念頭において、フレーム問題が何であるかを巧みに描いてみせる。それは、R2D2に先立って作られた3つのロボットの失敗の物語である。

 最初のロボットはR1。あるとき、彼は、自分のエネルギー源である予備バッテリーをしまっている部屋に時限爆弾が仕掛けてある、という情報を得た。このロボットはすぐに、その部屋を発見し、部屋の中の1台のワゴンの上にバッテリーが乗っていることを確認した。R1は、ただちに「バッテリー救出作戦」を立て、それを実行した。つまりワゴンを部屋から引き出した。実際、時限爆弾が爆発する前に、ワゴンを部屋の外に出すことにR1は成功した。よかった、と思いたいところだが、結局、バッテリーは、爆発とともに破壊されてしまった。

■続けて開発したR1D1、R2D1も爆発……なぜなのか?

 どうしてこんなことになってしまったかというと、同じワゴンの上に爆弾も乗っていたからだ。R1は、そのことに気づかなかったのかといえば、そうではなかった。R1は、ワゴンの上に爆弾が乗っていることをしっかりと認知していた。R1が認識できなかったことは、ワゴンを引き出せば、同時に爆弾も持ち出したことになる、ということである。

 R1の問題は、自らの行動の直接の結果――意図された結果――しか推論できなかったことにある。行動には、さまざまな副次的な結果が伴う。そこで、行動を起こす前に、副次的な結果をも推論できるように、設計者たちはロボットのプログラムを書き換えた。そうしてできあがったのが、R1D1である。この新型ロボットは、R1と同じ問題に直面したとき、やはり、「ワゴンを部屋から引き出す」という行動を起こせばよい、ということにすぐに思い至った。

 その後、R1D1は、新しいプログラムにしたがって、副次的結果を演繹しはじめた。ワゴンを引き出せば、車輪が回転する、ワゴンを引き出せば、音が出る、ワゴンを引き出しても、部屋の壁の色は変わらない、等々と。そうこうしているうちに、時間切れになって、爆弾が爆発してしまった。

 再び設計者たちは考える。R1D1のどこに問題があったのか。設計者たちはこう結論する。「ロボットに、関係がある結果と関係がない結果の区別を教えてやり、ロボットが、課題に関係のない結果を無視するようにしなくてはならない」と。そこで、その時の目的と照合して、関係があるかないか、という区別を演繹するプログラムを開発した。

 そのプログラムを備えた第3のロボットがR2D1である。ところが、R2D1は、同じ状況に直面して、まったく行動を起こそうとしない。なぜか? このロボットは、無数の無関係な結果を演繹しては、それらをいちいち「無視する」のに忙しくて、行動に移ることができないのだ。ロボットが「無視する」のに忙殺されている間に、時限爆弾は爆発した。

 デネットの、以上の思考実験に登場する3つのロボットを挫折させている問題、それがフレーム問題である。どのロボットも、フレーム問題を克服できずにいる。フレーム問題は、次のように定義できる。ある行動を遂行する際に、関係がある(レリバントな)事項を無関係な(イレリバントな)事項から、十分に効率的に区別し選択することは、いかにして可能か。今やろうとしていることとの関係で、有意味なことと、まったくどうでもよい無関係なこととがある。前者だけを判別することができなければ、柔軟に、知的に行動することはできない。

 たとえば、今の例では、ワゴンを引き出すと、その上に乗っている爆弾も同時に引き出される、ということは「関係がある事項」である。しかし、ワゴンを引き出すと、ワゴンの車が回転するとか、ゴトゴトと音がするとか、壁の色に影響を与えないとか、ということは「関係がない事項」である。

■AIはフレーム問題を解決できないが、人間はフレーム問題を適当に解決している

 ここで重要なことは、区別が十分に「効率的に」なされなくてはならない、ということだ。つまり、手際よく能率的にできなくてはならない。いくらでも時間をかけてもよい、というわけにはいかないのだ。

 AIには、フレーム問題が解決できない。どうやったら解決できるのか、その方針すら立たない。

 しかし、人間は、おおむねフレーム問題を適当に解決している。少なくともそのように見える。人間も失敗をすることもあるが、しかし、生活のほとんどの局面において、そのとき必要なことだけを考え、適切に行動する。

 何か明確に定義されたひとつの領域に関することだけを実行するAIならば、作ることができる。たとえば将棋を指すだけのAIならば、簡単だ。そのようなAIには、そもそもフレーム問題は存在してはいない。

 はじめから、関係がある事項しか認知できないようになっているのだから、「関係があること/関係がないこと」を区別する必要がないのだ。

 人間が驚異的なのは、いろいろな(知的な)ことができるからだ。プロの棋士も、将棋だけを指しているわけではない。食事もするし、友達と雑談を楽しむこともあるし、歌うこともある。将棋をしているときには、将棋に集中しており、カレーライスの味のことは考えない。

 しかし、食事のときには、カレーライスと鮨のどちらが好ましいか、検討する。人間は、場面ごとに、必要なことだけを選択し、難なくフレーム問題を解決している。

 どうして人間には、それができるのか。人間自身が、その理由を理解できていない。人間は、自分がどのようにしてフレーム問題を克服しているのか、そのメカニズムを自分でも自覚できてはいない。

 そのため、当然、自分がやっていることを、AIとして、あるいはAIのプログラムとして外化することもできない。『スター・ウォーズ』では、R2D2が、人間なみの柔軟性でフレーム問題を解決しているようだが、いったい、どうやって、あんなロボットを作ることができたのか。

 映画はもちろん、そんなことを説明しない。それは、この映画の筋にとって、それこそどちらでもよいこと、イレリバントなことなのだから。

(大澤 真幸,川添 愛,三宅 陽一郎,山本 貴光,吉川 浩満/文藝出版局)

関連記事(外部サイト)

  • 記事にコメントを書いてみませんか?