本記事は、以上の意見を補強するための材料である。なお、ここでの議論を敷衍すれば、日本国内で、いわゆるシンギュラリティに達する水準の汎用的な人工知能を開発する人物には、高度な予見可能性が実質的に課せられていると見るべきであろうが、その話には、基本的に立ち入らない。
日本語の大メディアでは、来るべき人工知能社会が薔薇色に描かれているが、私は、その論調には懐疑的である。道具は使いようである。教師(メンター)次第で、人工知能の「活躍する」社会は、人間にとって、何色にもなりうる。適用分野は、囲碁(AlphaGoは話題もちきりのようである)やコンピュータゲーム※1、自動運転など、目的が明確に規定された分野だけでなく、小説執筆※2という目的が曖昧な分野にも進出していることを、今朝(平成28年3月22日)の『読売新聞』朝刊1面が報じていた。
※1 DeepMind:AlphaGoをつくった「4億ドルの超知能」はいかにして生まれたのか? « WIRED.jp
http://wired.jp/special/2016/inside-deepmind
※2 きまぐれ人工知能プロジェクト作家ですのよ
http://www.fun.ac.jp/~kimagure_ai/
人工知能の出力した結果に対する責任は、人間に帰せられ続けるであろう。現在、人工知能の大半は、その活動を担保できるだけの規模の法人・組織の監督下に置かれており、その法人の代表は、人間が務めている。将来も、この形が継続されるということになるのではないか。たとえば、人工知能の「活躍」が期待されている分野には、データの分析という業務がある。英語圏のマスメディアでは、データ分析を行う人工知能が、記事の執筆に援用されていると聞く。ただし、データ分析において、意味の解釈という根幹に係る作業は、あくまで人が実施しており、人工知能は補助的な役割を果たすに留まる。この点、マスメディアの有するキュレーション機能、つまり情報を取捨選択して組合せを提示するという機能は、今後も重要であり続けるであろうし、その責任が人間に帰着するというスタイルは、維持され続けるであろうということである。
人工知能が社会の中では単独で業務を遂行し得ない理由は、責任という概念と密接な関係を有すると考えることができる。警備業務における人工知能と責任との関係については、以前、部分的に言及したことがあるが、本記事で完結するように整理してみたい。人工知能が単独で業務を遂行し得ない状態に置かれ続けることになるのは、現在のわが国の法・社会システムの設計者たち(立法、行政、司法の関係者)が、人工知能の責任問題を個別の問題として切り出した上で、その解決方法を構想してはいないためである。また同時に、人工知能が生じさせた責任は、現行の社会の仕組みで十分にカバーできるためである。人工知能には、使用者が伴い、一義的には、使用者が責任を負うことになろう。なお、現在、人工知能が活用されている分野の一部で、「人工知能がやったことですから、私たちには責任がありません」という目論見が進行中のようであるが、人工知能に罪を被せて逃亡を図ることができる程には、現在の人工知能は、発展していない。
人工知能は、いかなる形態のものであれ、生物としての(不即不離となる固有の)身体を有さないゆえに、自立した存在とはなり得ない。人工知能には、通常、(自然な)死期が設けられておらず、また、複製も人間に比較して簡単である。このため、自由刑(あるいは身体刑)という制裁方法が人工知能という存在には馴染まない。刑罰は、計算機のリソースを奪うという形でしか機能しないのである。わが国のみならず、ほぼすべての国家の法体系は、「人格」を主要な概念に据えており、その主要な手段の一つとして、「身体」の「自由」を制限するという制裁方法を有しているが、この背景には、人間が生物であり有限の寿命を有するという暗黙の仮定が設けられている。これら現代的な法の枠組は、寿命を超越すること、自身の正確な複製を作成可能であること、という二点の仮定が脅かされることによって、大きな変革の時期を迎えている。
とはいえ、人工知能への「自由刑」が有効に機能しないと考えることは、現在の西洋の法観念に染まった、硬直的な見方であり得る。多神教や汎神論は、現在の西洋の考え方の主流に対置することが可能であるが、これら多神教や汎神論の世界では、人形に人格を認めることが可能である。人工物に人格を認めることができさえすれば、「人工知能に対して、禁固100年の判決」という制裁は、有効に機能しうるかもしれないという気になってくる。100年間停止されていた人工知能は、確実に時代遅れのものとなっているとは思われるから、功利主義的観点から見ても、肯定される制裁である。ただし、この制裁方法の弱点は、人工知能の各個体にとって、実際に「不快」であるとか「苦痛」であるとは思われないところにある。ネタバレ防止のためにあえて題名を記さないが、あるゲームには、ウザ可愛い系の人工知能の生産ラインが停止され、稼働中の個体はすべて強制廃版されてしまうというエピソードがある。その唯一の生き残りとなった個体は、生産ライン停止を明らかにネガティブなものとして捉えているように描かれる。けれども、彼らのウザ可愛さは、彼らに固有のものであり、それ以上でもそれ以下でもないので、生き残った個体のウザ可愛さは、結局のところ、周りの人間がどのように接しようと、変わらない。人工知能に「制裁」という概念が馴染まないのは条件付けが有効に機能しないためであるということを、このゲーム(の制作チーム)は、このウザ可愛いキャラを通じて、明快に示しているのである。(なお、ここで紹介したゲームのタイトルは、そのゲームが古典化したら、記すことにしたい。)
また、「応報刑」「教育刑」という観点から検討しても、人工知能は、刑罰に馴染まない存在である。現在の社会通念の下では、ある人工知能の「行為」の被害者となった人間が人工知能を破壊したとしても、その人工知能に対する応報感情は、完全に解消できないであろう。被害者の敵意は、開発者までに向けられることになると考えるのが自然である。先に紹介したゲームにおいて、ウザ可愛い人工知能の強制廃版を主導した人物は、先に生産企業のトップを殺害しており、すでに死亡している開発者の存在を企業から抹消する。順序が逆ではあるが、「坊主憎けりゃ袈裟まで憎い」という話が人工知能に対しても該当することは、さほど間違いではない。開発者は、時と場合によって「人形が人を殺しました」という言い訳を利用するかもしれないが、周りの人間には納得できないことである。とすれば、汎用的な人工知能の開発者は、教育者・保護者としての責任も負うか、汎用性を諦めることになるというのが自然な流れであろう。また、人工知能の一個体が起こした事件の結果は、製造者責任という観点から、複製された人工知能にも波及する。ある型番の人工知能の個体が重大な事件を起こしたとき、同一型番で別の個体の人工知能が「彼(女)は我々とは違う」と主張したとしても、人間の側は、そうは捉えないであろう。人間には、「人工知能は、開発者の手により開発された道具である」という観念が、根強く共有され続けるであろう。
「教育刑」という観点から見たとき、現在のところ、人間が手を付けられない程に高度に発達したコンピュータに対して、「教育」をいかに施すかという見込みは、人間社会に存在していない。「ならぬものはならぬ」という「教育」は、所詮はコードの塊である人工知能に対して、効果がない。コードにある行為に対する禁止命令を書き込み、その禁止命令を保護する措置を執れば良いだけであるからである。「罪を犯した」人工知能に対するコードの書換えは、「人道」上の困難が生じる時代が到来したとしても、非常に簡単な措置であるので、採用され続けるであろう。
人工知能が人間に対して規定された刑罰という方法に馴染まない存在であるとはいえ、人工知能同士の紛争は、解決が簡単であろう。片方が占有する計算機資源を相手方に移譲することによって、決着を図ることが可能であると考えることができるためである。このような紛争解決のルールが形成されれば、人工知能同士は、お互いに独立した存在として共存することが可能になるであろう。人間と人工知能という存在を共存させようとするから、折り合いが付かない状態が生じることになるのである。
もっとも、人間に対する社会内処遇システムがいったん整備されれば、また被害が軽微なものであれば、人工知能に対する処遇は、むしろ、人間に対する社会内処遇システムよりも、万人に受け容れられやすい話になるかもしれない。時間の何割かを公益のために稼働させるという処罰形態が可能になるからである。ただし、こうなったらこうなったで、現在の官僚組織が実施している仕事こそは、公益のために計算機を稼働させるという仕事に最適なものであるから、官僚組織不要論が持ち上がるという不測の事態が持ち上がるかもしれない。あるいは、人工知能は、基本的には、苦痛を苦痛と感じないように設計されるはずであるから、刑罰として、「打鍵猿」のような苦役のような分析を負わせることが適当ということになるのかもしれず、この「苦役」が果たしてサイボーグのような存在には適当であろうかという問題も派生するかもしれない。(要素還元論的な考え方の順序からすれば、サイバネティクスや最近の生物学的な技術が生じさせる問題は、人工知能について検討した後に行われると、解決しやすくなるかも知れない。)あるいは、人工知能は、アーカイブデータの整理のような、公益のために必要ではあるが、後回しにされがちな仕事を任されることになるのであろうか。
我ながら適当きわまりないが、以上の議論によって、「人間社会において、独立した人格と見なしうる人工知能が引き起こした不測の事態に対する責任の帰属のあり方」が問題の根本にありそうなことは、おぼろげながら見えてきたように思う。とすれば、現存する国民国家は、汎用的な知性を有する人工知能の開発に対しては、事なかれ主義に則り、一定の制限を課すことになるであろう。(複製禁止とか、実験室的環境下のみ、あるいは目的を限定して社会活動に関与させるとか。)また、開発者の側も、この点に注意するがゆえに、人工知能を実用化する場合には、目的を限定するか、人工知能の利用条件をユーザ及び社会に対して明示するという手続を通じて、汎用的な人工知能の使用者に責任を転嫁することになるであろう。また、開発者には、「ロボット三原則」に準ずる歯止めが暗黙裏に期待されているとみた方が良いであろう。蛇足であるが、ここで考察したことに関連しそうな古典的なゲームタイトルには、コナミの『スナッチャー』がある。
おそらくそうはならないが、人工知能が自立した存在として活動させることを許容するのであれば、人間社会にとって役立ち、他方で人工知能に対して有効に機能する制裁なるものを構想しておいた方が、人類には有益であろう。人工知能に対する的確なコントロールは、『ターミネーター』シリーズに描かれたような人間と人工知能との「自然状態」を避ける上でも、必要なことである。
人間が現在の人工知能に比べ、無数の組合せから直感的に良い候補を選び出す能力、つまり大局観に秀でているという話は、囲碁と俳句に関連しても指摘されている※3が、この特徴は、AlphaGoの取った戦術(後述するので戦術で良い)によって、「人の世」を変革するほどまでに人工知能が発達したのではないかと一部では誤解されている※4。AlphaGoは、李セドル九段を、直感(大局観)と演算(ヨセ)の双方において圧倒したという評価が主流である。ここまでは誰しも同意しうる事実である。しかし、AlphaGoの「大局観」は、モンテカルロ法を応用したアルゴリズムによるものであり、ヨセを力尽くで計算する局面との切り分けなどが優れているとしても、それらの成功は、開発者の設計意図の範囲内に留まるものである。(よって、賞賛は、人工知能であるAlphaGoに対してではなく、ディープマインド社の開発チームに対して贈られるべきである。)
※3 コンピュータ碁発達と碁界の帰趨 | 碁法の谷の庵にて - 楽天ブログ
http://plaza.rakuten.co.jp/igolawfuwari/diary/200610230000/
※4 Google AlphaGo に対する、日中韓の棋士による評価まとめ
http://go-en.com/comment4alphago.html
しかし、囲碁の「大局観」を人生における「哲学」と同価のものであるかのように見なすことは、観客の側が勝手に読み込んだ感想であり、論理の飛躍である。AlphaGoの「戦略=大局観」は、あくまで開発者のコードを元にして、自己学習期間の後に形成されたものである。「全体=戦略」に対する「部分=戦術」という関係性の定義を認めるなら、AlphaGoの「大局観」は、「戦術」と呼ぶべきものであり、「インプット」に対する「アウトプット」である。この「出力=戦術」を、観る側が「大局観」と見なしているのである。ここに、人工知能を人格に擬制するときの注意点を見出すことができる。少なくとも、AlphaGoは、人工知能と言えども、目的が特化されており、自己認識という概念を有さない。この点、AlphaGoは、一個の人格というよりも、確実に、飛行機や自動車といった道具と同類である。
※5 「我々には自信があった」 囲碁AI開発社CEOに聞く:朝日新聞デジタル
http://digital.asahi.com/articles/ASJ3D55C6J3DUHBI01R.html
他方、人生における「哲学」は、「AlphaGoの設計方針」と「現在のAlphaGoに蓄えられたアルゴリズムの集積」という一方的な関係性とは異なり、「アルゴリズム」から「設計方針」にまで至ることのできる、(ある意味、再帰的な)能力である。AlphaGoのたとえで言えば、人生における「哲学」は、AlphaGoが「自分はなぜ囲碁を行うのか」という疑問を自力で解決することに相当する。 自力で「囲碁において優れたプレーヤーになる」という目的=志を立てて、それを実行するということができる人工知能が現れたときこそ、人間が自身の存在意義について恐れを抱く(べき・であろう)ときであるが、それまで暫くの間は、人間は、囲碁やゲームを勝ち負けにかかわらずに楽しむことさえできるという特権を享受できるのである。
平成28年7月12日追記
最近の日経が自動運転技術の標準策定について報じており、その中で運転者に事故時の責任を負わせるという方針を論じていた。自動運転技術の使用責任を使用者に求めようとするEU規格や日本工業規格関係者の正当性については立ち入らないが、一つ予想される展開がある。それは、「自動運転で事故が生じる>加害者とされた自動運転時の運転者が弁護士を雇い、自動車(自動運転技術)企業に対して製造物責任を問う>ソースコードにまで立ち入った検討が必要となる」という流れである。自動運転技術の利用時における事故時の責任者を運転者とするという議論で欠落している観点は、「自動運転時、責任を負わされた運転手は何をしているのであろうか、自動運転を選択した運転手は、そのリスクをどのようなものとして捉えているのか」というユーザサイドの視点である。普通人ならば、自動運転技術を利用する場合、ハンドルに手をかけて自動運転技術が何か誤った操作をしでかさないかどうか、常に注意を払うということはしないであろう。居眠りするか、漫画や本を読んだりナビでテレビや映画を見たりする、というのがデフォルトであろう。まるで他人のプレイするゲームを見続けるようなものである。面白いか?と問われると、まず面白くなさそうである。しかも、他人のゲームプレイを見るという作業には、上手なプレイヤーから学ぶという要素があるが、自動運転技術を監督するという作業には、学ぶべき要素がほとんどない。ろくに調べもしないで記すのも何だが、案外、この程度の基本的な検討も省略されていそうである。自動運転技術開発は、競争が激しく、第三国においても精力的に進められているために、わざと使用者責任という方法を採用している可能性がありそうである。ただ、このような判断がEUやわが国で下されたのだとすれば、このような方針を決定した人物らには、何が先進国として大事であるのか、という基礎的な部分が欠落していると見なすことができそうである。言葉を変えて批判すると、開発者が自動運転技術の使用者に責任を負わせることを企図しているのであれば、彼らは、先進国という社会環境にフリーライドする存在である。先進国という環境を利用しているから、開発企業は、教育水準の高い人材を供給されており、知的財産に対する一定の保護を得られ、生命・財産上の危険から保護され、自動運転技術の開発に専心できる。にもかかわらず、開発者が負担すべきコスト=製造者責任を社会に負わせようというのである。この部分は、書き散らした形になったが、論文風にするよりも、むしろ意図は伝わりやすいであろう。
最低限、私ならば、自動運転技術に運転を委ねる前に、自動運転技術がどの程度の事故率であるのかを正確に知りたいと思うし、客観的に比較したいと思う。自動運転技術が人間の運転手に比べて限りなくゼロに近い事故率を誇るのであれば、運転を任せて寝ることができる。人間の事故率と同程度であれば、コストの問題として捉えることにする。私にとって、人間さま程度の事故率で、いくらかなりとも追加料金をとられるのであれば、レンタカーにせよ、自家用車にせよ、自動運転技術オプションは不要である。人間の事故率より高ければ、自動運転技術は不要である。
以上の自動運転技術に対する考え方を、VWや三菱自動車、スズキの近年の燃費不正とリンクさせてとらえると、自動運転技術の安全性を厳格かつ継続的に評価できる存在が必要であることは、明白である。世の中の組織には、より重大な不正が蔓延しているので、以上の議論の重要性は相対的に低いものである。しかしながら、製造者責任を利用者に転嫁するという悪意は、他の産業分野にも波及する種類のものである。この点は指摘して、社会の側があらかじめ懸念を表明していたことを後世に残すこととしておきたい。
0 件のコメント:
コメントを投稿
コメントありがとうございます。お返事にはお時間いただくかもしれません。気長にお待ちいただけると幸いです。