AI(人工知能)の進歩はめざましい。2045年にシンギュラリティ(技術的特異点)が訪れ、AIが人間よりも正確で賢明な判断を下せるようになるという仮説がある。

では、「超知性体」となったAIがあやまちを犯し、自動運転車が暴走したり、監視カメラ等が集めたデータによって差別的な評価選別が行われたりしたとき、誰が責任をとるのか。

そもそも、AIが人間を凌駕するという予測は正しいのか。来るべきAI社会を倫理的側面から徹底的に論じた初めての書。〈はじめに〉をご紹介!

---〈はじめに〉---

テレビをつけるとAI(Artificial Intelligence/人工知能)の紹介番組をやっていた。近ごろこの類の番組やニュースはとても多く、ぼんやり観ているだけでもなかなか面白い。扱われるトピックスは自動運転である。

人間のドライバーのかわりに、クルマがひとりでにハンドルを回し、アクセルやブレーキを操作して運転してくれればまことに便利だ。老境にはいった私にとっても朗報である。安全性も高まり、交通事故もへるだろう。何しろ人間には眼が二つしかないけれど、自動運転車(self-driving car)には周囲環境を認知するセンサーが四方八方についている。気が散る心配もない。さらに、AIは膨大なデータを吸収して学習していくから、どんどん賢くなり、運転操作の精度を増すように進化していくだろう。過疎地の高齢者にとって、自動運転車の普及は死活問題である。公共交通機関が衰退していく地方で、自動運転が救いになることは間違いない。

さらに、自動運転にかんするさまざまな技術革新は、自動車メーカーにとって画期的なものだ。日本経済の基幹部分は自動車産業だから、経済成長の起動力にもなるだろう。

......テレビをながめていると、そんな楽観的な考えがつぎつぎに湧いてくる。これも深層強化学習というAIの新技術開発の成果らしい。とすればAIがひらく二一世紀の未来は明るいと、誰しも思うのではないか。

3e4ee2453889c11ca23ee165b6e3d39b_s.jpg

しかし一方、四〇年もAIの盛衰をながめてきた私から見ると、かならずしもそうとは言いきれないのである。

実用化の前に、自動運転AIは入念なチェックとトレーニングを重ねるだろうし、また学習の効果として操作の正確さが増していくのは事実だ。だがそれはあくまで周囲環境が安定している、という条件下においてである。たとえば突然、大型の台風や豪雪などで道路状況が激変したら、自動運転車が誤作動し暴走する恐れはないのだろうか。人間のドライバーなら何とか特殊状況に対応して退避行動をとることができるが、AIは未知の状況のもとでいかに作動するか予測不能である。積み重ねた学習がかえって固着した操作をもたらし、柔軟な対応が不可能になるかもしれない。巨大な重い金属の塊が人々をなぎ倒しながら疾走する、という悪夢が起きないと言いきれるだろうか。

仮にそういう悪夢が起きたとき、いったい誰が責任をとるのか。もはやドライバーはいない。責任を負うのは、自動運転車の使用者か、設計者か、あるいはメーカーの経営者か。この種の事故には多数の人物が関与するので、下手をすると誰一人責任をとらないだろう。

自動運転にかぎらず、AIを社会で実稼働させるときはまず、その作動の仕方をいかに規制すべきか、という倫理的かつ法的な問題を解決しなくてはならない。とかく経済効果やビジネスへの配慮が先行して倫理的考察は後回しにされがちだが、自然環境汚染をはじめ、技術進歩が途方もない悲劇をもたらした事例は数かぎりなくあるのだ。

さらにここで、AI特有の深遠な問題があらわれる。それは、人間でなく機械(AI)が、あたかも疑似的な人格をもったように倫理的判断を下せるのか、という問題である。

一般にAIは「自律型機械」だと思われている。海外には、AIロボットを「電子人間」として認めようという議論さえあるようだ。自動運転車で言えば、みずからの判断で次に起こる事態を予測し、事故を回避しつつ目的地までたどりつくと考える人も多い。

たとえば、前方に突如、子供が飛び出してきたとする。避けようとハンドルを切れば、対向車と正面衝突してしまう。このとき、人間のドライバーならその瞬間、咄嗟の判断で行動し、結果にたいして責任を負うだろう。一方、自動運転車の場合は、どんな事態にはどう対応するかが前もって決まっている。もし、AIが「自律型機械」であるとすれば、明示的な倫理基準の遵守がもとめられることになるため、自動運転車もあらかじめ、何らかの倫理基準にもとづいてどうするかを決定済みでなくてはならない。

とはいえ、である。AIといっても所詮は、設計者のプログラム通りに作動する機械にすぎない。いったい機械に倫理的判断などできるのだろうか。倫理的判断というのは、基本的に人間の共感によって支えられている。身体をもたないAIに共感能力などもとめるのは無理だ、というのが常識ではないのか。

だが問題はなかなか複雑なのだ。たとえば有名なシンギュラリティ(技術的特異点)仮説というものがある。二〇四五年ころに、AIの能力が人間をしのぎ、人間よりも正確で賢明な判断を下せるようになる、という大胆な仮説である。考えてみると、われわれ人間の思考判断も、一千億個ほどの脳細胞のネットワークにもとづいて実行されている。AIの深層学習モデルはこれを模擬しているのだが、ハード/ソフトの進歩発展は速い。やがてコンピュータの能力が人間の脳を凌駕し、論理だけでなく共感をふくむ情動さえも包含する、という主張もあながち否定できない。

バイオ科学が人間の脳の仕組みを分析し、AIがそれを模擬するなら、いずれAIが人間より賢明になるというSF(サイエンス・フィクション)的予言も説得性をもちはじめる。技術進歩とともに、人間のほうが、自らの判断よりAIのデータ分析を信頼するようになるかもしれない。すると、大部分の人々は無用者階級として機械の奴隷におちぶれる。そして彼らを、ごく一部のエリートが「神の人(ホモ・デウス)」として支配する、という地獄の未来が近々やってくるのだろうか......。

31107c26ea9539af87bef469d54a25a2_s.jpg

いや、諦めるのはまだ早い。問われているのは「そもそも人間の主体的判断とは何か」なのだ。まず、AIが「自律型機械」だというのは本当だろうか。軽々しくそういう宣伝文句を信じる前に、自律性とは何かを正面から深く洞察しなくてはならない。

自律性とは元来、生物だけに許される特質ではないのか。生物は時々刻々、自分で自分を創り変えながら生存している。ここがポイントだ。人間のつくったプログラム通りに作動するAIは所詮、他律型機械にすぎないから、自由意思とも責任とも無関係なはずなのである。それなのになぜ、AIは自律型機械のように見えるのか――ここに解くべき謎がある。

こういった問題を根本から考えないかぎり、AI時代の倫理などをきちんと語ることはできない。いま政府はAIに関する基本原則を議論しているようだが、具体的な諸方針を打ちだす前に、とりくむべき課題は多いのではないだろうか。

むろん、自動運転などAIの諸応用分野において、法制度の整備をはじめ実践的検討も大切である。だが、その基層をなす倫理や道徳といったテーマを避けていては、健全なAI社会を構築することなどできないだろう。例によって欧米の下した結論を鵜呑みにするだけでは、あまりにお粗末だ。

本書では、以上のような問題意識にもとづいて、AI倫理の基本的なとらえ方を分かりやすく整理してみた。倫理観のベースとなる社会的正義の理念から検討をおこなうが、哲学的な議論にとどまらず、自動運転/監視選別/AI創作といったトピックスについて、現実の動向をふまえて議論を展開した。なかなか困難な試みだったが、やりがいのある挑戦だったというのが正直な感想である。

西垣 通:1948年東京都生まれ。東京大学名誉教授。工学博士。東京大学工学部計数工学科卒業。日立製作所にてコンピュータ・ソフトの研究開発に携わる。その後、東京大学大学院情報学環教授、東京経済大学コミュニケーション学部教授などを歴任。専攻は文理にまたがる情報学・メディア論。著書に『ビッグデータと人工知能』『集合知とは何か』『ネット社会の「正義」とは何か』『AI原論』ほか多数。

河島茂生:青山学院女子短期大学現代教養学科准教授。理化学研究所革新知能統合研究センター客員研究員、青山学院大学シンギュラリティ研究所副所長などを務める。2010年東京大学大学院学際情報学府博士後期課程修了。博士(学際情報学)。専門は社会情報学、情報倫理。共編著に『情報倫理の挑戦』、編著に『デジタルの際』など。