“HAL9000”の出現ももうすぐ!? 手遅れになる前に“AI法”を導入せよと科学者が主張

“HAL9000”の出現ももうすぐ!? 手遅れになる前に“AI法”を導入せよと科学者が主張

「Science Alert」より

 世界三大SF作家の一人、アイザック・アシモフ氏はそのSF作品の中で“ロボット3原則”を提唱したとされているが、人工知能(AI)の急速な能力向上が進む中、“ロボット3原則”に代わる新たな基本原則を設定しなければならないという声が上がっている。


■科学者「AIにも従うべき法律が必要」

 昨年3月にトッププロ棋士、イ・セドル氏との5番勝負を4勝1敗で大勝した囲碁ソフトのアルファ碁(AlphaGo)。続いて先月には中国の最強棋士・柯潔(かけつ)九段との3番勝負に完全勝利を遂げた。アルファ碁はこの1年でもはや人間が敵う相手ではなくなるまでの成長を遂げたことになる。そしてアルファ碁のプロジェクトも今回をもって終了することがアナウンスされたのだ。

 留まるところを知らないAIの進化に、先ごろ3人の科学者がAIの開発と運用に基本原則を設けるべきであるとする研究論文を発表している。

 5月31日にロボット工学オンラインジャーナル「Science Robotics」に掲載された研究で、サンドラ・ワッチャー氏、レント・ミッテルスタッド氏、ルチアーノ・フロリディ氏の3人の科学者がAI開発と運用に厳格な基本ルールを定めることを提唱している。これは決してAIの技術開発を妨げるものではなく、人間が法律を遵守した行動を行なっているように、AIにも従うべき法律が必要だと主張している。

 研究によれば、AIの研究開発が多様化し、それぞれ透明性のないままで推移していくことには多くの問題が残っているという。

「(AIの)システムは、不公平で差別的な決定を下す可能性もあり、偏見を再生・発展させたり、非常にセンシティブな状況下では、予測不可能で予期しない動作をすることも考えられ、人間の利益と安全にリスクをもたらします」(研究論文より)

 自動運転車での走行が現実のものになりつつある昨今、交通事故が起きた場合の責任の所在が議論されているが、まさに透明性を持ったシムテムでないことには、過失の重さや損害の査定もクリアにならないだろう。

■“HAL9000”の出現の日はもうすぐ

 AIの判断と行動をどう規制するかという問題に加えて、AIに情報をインプットする人間側の行為にもガイドラインが必要になってくるという。それはもちろん人間によるインプットがAIの意思決定に影響を及ぼすからである。

 しかしながら各社が凌ぎを削って争っているAIの技術開発競争の中、システムを透明化することは多くの会社にとってあまり乗り気になれないものであることは想像に難くない。また、自律的に学習する能力を持つAIは学習を深めるほどに内実の把握が開発者にも難しくなるため、透明性を保つことは難しくなる。

「AIの不透明性と多様性は、あまりにも幅が広すぎたり狭すぎると、意図せずにイノベーションを妨げたり、意義ある権利保護のための法制化を複雑にします」(研究論文より)

 もちろん今回の研究論文が“AI規制”を求める最初の声ではなく、特に2018年に実施される予定のEU一般データ保護規則(GDPR)を前に、AIの開発と運用にもっと厳格なルールを設けるべきだとする専門家の声が大きくなっている。

「われわれは既に、意思決定に疑問を抱く権利を放棄するアルゴリズムに過度に依存している」と、オックスフォード大学のロンドン大学のルチアーノ・フロリディ氏は語る。

 たとえばAIやロボットが使用者にとって気に入らない意思決定や行動をしはじめた場合、最悪の場合、電源を抜いたりバッテリーを外したり、あるいはこういう時に備えて用意された“非常停止ボタン”を押せば良いということになるだろう。しかし自律的に学習を深めていくAIであれば、どこかの時点でこうした人間の行動に対する対策を練りはじめるかもしれない。

 こういった事態を招く前に、人間がAIを常にコントロールできるためのレギュレーションが求められているということになる。映画『2001年宇宙の旅』に登場する人工知能「HAL9000」の出現は、たしかにもうすぐそこなのかもしれない。 
(文/仲田しんじ)

【参考】
・Science Alert
http://www.sciencealert.com/scientists-want-to-set-some-ground-rules-to-stop-the-march-of-creepy-robots

関連記事(外部サイト)