近ごろはどこに行くにもiPhoneのGoogle Mapを利用している。
行き先の住所や名称をインプットすれば自分の位置がマッピングされ、リアルタイムで行くべき方向を画面や音声で指示してくれる。大変便利だ。
そこで最近気づいたことは、Google Mapを利用するようになって、道順の記憶が薄くなった、という点。以前は一度歩いた道は二度目に迷うということはほぼなかったが、最近はよく忘れる。そして「ま、Google Mapを開くか」と、iPhoneの画面を開き、行き先を聞き、たどり着くことができる。これは実に素晴らしいことだ。
しかし、道順を簡単に忘れてしまうのはどうしてかと冷静に考えてみてわかったことは、目的地にたどり着くために私は自分の感性を働かせず、iPhoneとGoogle Mapというハードウェアとソフトウェアにすっかり任せきってしまっていた点。無意識のうちに自分の感性を外部の機械に完全に委譲していたのだった。
人間の五感を代替するコンピューティング
人間の記憶は五感を働かせれば働かせるほどより強く定着する。たとえば言葉や事象を身体に関連付けたり視覚や嗅覚、味覚、聴覚に変換するという記憶術もある。私が方向感覚や風景イメージなどの感性を働かせる代わりに、iPhoneに位置情報をセンシングさせ、その情報をGoogleの持つ地図情報にマッピングさせ、位置情報をGoogle Mapに表示させ、その情報を基に最短経路をGoogleのシステムに算出させたに過ぎない。いわば私が自分の脳内で働かせるべき五感を、iPhoneのGoogle Mapというデバイスとソフトウェアに「肩代わり」させたのである。
これはいたって単純なわかりやすい例であるが、AIによる処理や判断は、この「肩代わり」がブラックボックス化されるのである。そこが、私たちに恐怖感を与えている大きな要因である。
ブラックボックスがブラックボックスを無限に生むAI
AI(便宜上機械学習もディープラーニングによる処理もすべてAIとする)には「未学習」のものと「学習済み」のものがあり、人間同様、後者は学習の度合いにより賢さのレベルが変わる。そしてこれもまた人間同様で、賢さのレベルによりAIとしての商品価値が変わってくる。つまり賢いAIは商品価値が高く、そうでないAIはその逆だ。とはいえこれもまた人間同様で、商品価値の高低は絶対的でなく、サービスの内容や顧客の性質に応じ相対的なものである。それでもAIには精度というものが要求されるから、それなりの賢さのレベルが求められる。
そしてAIは、質の高いデータを与えれば(≒教育すれば)、より賢くなる。
たとえば、馬やロバ、ハマチ、ブリなどの画像データをAIに学ばせるとする。
同じ魚類でもハマチとブリを賢く見分けるためには人間同様、膨大な学習データを要する。それはデータ量だけではなく、質も問題になる。そのように育成されたAIを「モデル」という。
ここで人間がAIに与えるものは、学習データだけである。そして、どんなデータを与えればどんな判断をするAIに育つのかは、完全にトレースできない。それは、賢さのレベルが上がれば上がるほどそうなる。それが、「ブラックボックス」であるゆえんだ。
さらに、上記の過程で育ったAIモデルが読み込んだ学習データとアウトプットした判定データを他のAIが読み込み、処理が簡略化された新しいAIモデルを生成する。これを「蒸留モデル」と呼ぶ。処理が簡略化されるとはつまり、同じ処理内容でより高度なことができるようになる、ということでもある。そしてさらにブラックボックス化は進む。
どのような教育をAIに与えたらどのようなAIに育つかがわからないというブラックボックスと、AIがなにをどう判断するかがわからないというブラックボックスという、AIの内面的に、二つのブラックボックスが存在する。
同時に処理アルゴリズムの高度化や量子コンピュータなどによるハードウェアの高速化、クラウド技術による高度なネットワーク化などの、ITを取り巻く技術が同時並行的に高度化する。これにより2045年、AIは人間を超えシンギュラリティが起こる。そう、未来学者のレイ・カーツワイルは語っている。
宿命的なブラックボックス化
このように見てわかるように、AIとは宿命的にブラックボックス化する。
これはすでに20年以上前に起こっていた出来事だ。1997年5月、IBMが開発したチェス対戦システムであるディープブルーが世界チャンピオンのカスパロフを破った。その出来事はいまだ記憶に新しい。このとき私が聞いたIBMのエンジニアのコメントが衝撃的だった。それは、「ディープブルーがなぜこのような手を打ったのかわからない。判断分岐が複雑すぎてトレースできない」ということだ。「えっ、ログでトレースできないのか!」と、私はこのとき深い衝撃を受けた。さらに印象的なものとして、現状の技術ではチェスまでならできるが、敵の駒を流用する将棋や、複雑なルールを持つ碁は、人間に勝てるコンピュータシステムを開発することは無理、と断言されていたのも記憶に新しい。しかし直近の歴史をご覧の通り、それが二十年も経たないうちに実現されてしまった。この文脈で読み取れば、レイ・カーツワイルが語っていることもあながち嘘ではなかろう。
人間の選ぶべき道は感性を磨き、自信を持つことだ
ブラックボックス化したコンピュータが暴走し反乱を起こすというのは、古くからのSFにある定番で、そうしたストーリーに人間が支配されているのではないか、という気もしてならない。言い換えると、「人間が作ったモノはブラックボックス化してはいけない」という暗黙のルールがある。クローン人間を作らないことや、DNA操作の使用範囲など、技術的には可能だが倫理的にやらないという、可能性をどこまで実行に移すのかという人間の感性の問題が大きくかかわる。
人間もまた、そもそもブラックボックスである。子供は白紙とよく言うが、子供には可能性と未来があるという性善説に基づき、義務教育が施される。知識と教養の基礎を身につけた子供たちは進学し、社会に出るが、その子たちがどういう情報をインプットし、それをどう判断し、どうアウトプットするかはわからない。知識と教養の基礎を身につけながらも、社会に出て暴力や窃盗、詐欺など、反社会的なアウトプットをなしてしまう人間も少数ではあるがいる。これもまた人間のブラックボックスたるゆえんだ。そして負のブラックボックスが集団化・社会化すると、闘争や紛争、恐慌、戦争が起こる。
人間とはなにかが問われるAIの時代、人間は自分の感性を磨き、その感性に自信を持つことだ。それが、人間が人間たるゆえんを保つ基盤になる。脳内の記憶をたどらず、風景を見ず、空気を感じることなく、iPhoneの画面に一点集中し、Google Mapに頼りっきりで町に出ることは、感性を磨き感性に自信を持つという活動を怠った結果である。利便性の高さを利用することと、できることなのに怠ることは、紙一重である。老若男女、これは同じである。
今回読んだ『AIの法律と論点』(西村あさひ法律事務所 福岡真之介 編著、商事法務刊)は、法律家が書いた専門書であるが、現代のAIが抱える問題をテクノロジーから倫理まで俯瞰的に捉え、文章や構成も読みやすくまとまっている。読み物としてのコラムも面白く、示唆に富む内容である。ここで書いた「ブラックボックスのジレンマ」も、同書から洞察を得た結果だ。AIはコンピューティングだけではなく、法律やルールという大きな柱に支えられている。こうした本ぜひ、読んでいただきたい。明日になにが起こるのかという、未来に対する感性が磨かれていくはずだ。
なお、8月31日(金)、この書籍の著者陣を招き、「AI自動運転で書き換わる 業界のルールと法規制」と題した勉強会を都内で開催する。ぜひ参加いただき、AIが書き換えていく世の中のリアルを会場で共有できたらと思う。