2020-05-17

"グーグルに学ぶディープラーニング" 日経ビッグデータ 編

脳を模倣する計算機アルゴリズムの研究は、古くからある。1950年頃には、サイバネティックスという概念を提唱したノーバート・ウィーナーが「人間機械論」を書し、ノイマン型と呼ばれるコンピュータの基本原理を考案したフォン・ノイマンは「自己増殖オートマトンの理論」を提示した。「人工知能」や「ニューラルネットワーク」という用語も登場して久しい。そういえば、おいらの学生時代、ゼミの研究テーマに人工知能言語として Prolog を選択する学生がいた。もう三十年以上前かぁ...
ウィーナーやノイマンの後に訪れた AI ブームが第一次だとすれば、おいらの学生時代が第二次ブームで、「ディープラーニング」という用語が巷を騒がせている今が、第三次ブームということになろうか...
人間をこしらえたのが神かどうかは知らん。が、人間が人間を模倣するという夢は捨てきれないと見える。それは、人間が人間自身の正体を未だ知らないということであろう。その都度、挫折感に屈っしながらも、新たな概念が登場してはブームの火付け役となる。
そして再び、新たな用語の入門の入門書を手に取るのであった...

さて、ディープラーニングってなんだ?
こいつの仕組みをまともに説明できる人は、あまり見当たらない。日本語では「深層学習」と訳され、「機械学習」よりも賢そうか。おまけに、ブラックボックスとして振る舞い、結果に至る過程を一切見せてくれない。人間が見ても理解できんよ!と言わんばかりに...
与える餌は、入力データと出力結果という組み合わせだけ。この対パターンを大量に喰わせることによって、思考プロセスを勝手に組み立てる。なので、初期段階では、呆れるほど馬鹿な結果を示すが、喰えば喰うほど賢くなっていく。人間が思考プロセスを与えないということは、人間を超えた思考プロセスを形成する可能性があるってことか。ディープラーニングは、データハングリーな怪物か。
実際、囲碁や将棋などで人間を超えた思考能力を見せつける。過去の棋譜データを大量に喰わせ、勝敗の結果だけ教えてやれば、あとは未来志向でより有効なパターンを自動的に編みだす。この学習モデルは、教師あり、教師なし、といった状況を使い分ける人間の学び方に似ている。ただ、人間の方は、経験や知識に対して忘れっぽい上に、都合よく歪めて解釈する傾向にある。AI に解釈という概念はあるのだろうか... 解釈とは、自己存在を意識した時に発する心情であろうか... 主観と客観の境界面は、自己存在という意識との関係から生じるのであろうか...

では、ブラックボックスの中身はどうなってんだ?
本書は、人工知能、機械学習、ニューラルネットワークというキーワードから、ディープラーニングの像をおぼろげに映し出す。「人工知能」を知識の求められる処理をするコンピュータと定義するなら、「機械学習」の位置付けは、人間がプログラムするのではなく、コンピュータが自動的に判断する基準を作り上げていく学習モデルといったところ。
そして、「ディープラーニング」とは、機械学習の一つの手法で、ニューラルネットワークを多層に積み重ねた処理モデルのことを言うらしい。判断の数、すなわち、分岐点の数だけ人工的なニューロンを配置し、ブラックボックスの外から入力データと出力データのパターンを与えれば、あとは最適なニューロンの伝達経路を自動で探りにかかる。
例えば将棋であれば、ニューロンの数は勝敗が決まる手数以上は必要となろう。実際は最善手よりも悪手の方がはるかに多いので、手数の何百倍にも、何千倍にもなりそうだが、経験データの蓄積によって最適な経路を効率的に見つけ出すという寸法よ。また、入力データと出力結果の組み合わせを作りやすい分野に金融業界があり、ポートフォリオ戦略などで最適化モデルが実戦投入されていると聞く。

ところで、個々のニューロンの構造は、単純である。シナプスのような一方向の神経伝達系が、ニューロンとニューロンを結びつけるといったモデル。仮想的な分岐点であるニューロンを判断に必要なだけ多段に配置すれば、人工的な判断力モデルが形成できる。要するに判断とは、複雑な条件の積み重ねというわけである。人間が書くプログラムの原理にしても、条件付き分岐命令の羅列と多重化したデータ構造の組み合わせでだいたい説明がつく。ブラックボックスは、ニューロンの数を多く配置するほど賢くなる可能性があるというわけか。いや、ニューロンの数を自ら増殖させることだってできそうだ。それは、コンピュータの性能とリソースの豊富さにかかっている。
そして、あのテレビドラマのフレーズが頭をよぎる。
「人生は分岐点の連続である。」... 素敵な選TAXI
ドラマと違って過去には戻れそうにない...

本書は、タイトルで表明しているように、G さんの取り組みを紹介してくれる。会話をしながら人間をサポートする Google Assistant や、合成音声やピアノの曲も作成できる DeepMind の WaveNet など。
個人的には、G さん翻訳をよく利用していて、近年、そこそこ使えるようになってきたと感じている。ちなみに、Let it go! を翻訳機にかけると、現時点では「手放す!」という答えが返ってくるが、「アナと雪の女王」の主題歌 "Let it go!" の邦題が「ありのままに」と訳したデータが大量に出回れば、そうした柔らかい翻訳もできるようになるという。
また、ディープラーニングの成果を手軽に使える機械学習の API やライブラリも紹介してくれる。しかも、Python で書けば簡単に利用できるとか...

  Cloud Vision API: 画像認識や画像分析
  Cloud Speech API: 音声からテキストへ変換
  Natural Language API: 自然言語処理
  Translate API: 数千の言語ペアを動的に翻訳

しかしながら、ディープラーニングは万能ではない。得意な領域もあれば、不得手な領域もある。データが少なかったり単純なデータばかりだと、素直に丸覚えするだけ。見たことのないデータに出会えば不自然な結果を導く。
ツールの使い方ってやつは、人間がツールに合わせるか、ツールを人間に合わせるか、という問題がいつもつきまとう。いかに、概念的なものや構造的なものを理解した上で活用できるか... 元来、道具とはそうしたものだ。
例えば、AI の活況な実験現場として、自動運転システムがある。近年、トヨタが実証都市「Woven City」を立ち上げたことが話題になった。富士山の麓に、自動車社会の近未来都市を作るというものだが、閉じた社会ならば、住民の意識も浸透しやすく、成果はそれなりに期待できるだろう。しかし、このモデルをすべての都市に適応できるかは疑問である。都市の多様性は、想像以上に手ごわい。それは住民の意識格差として現れるだろう。近未来社会とは、ツールが人間どもを奴隷にする社会を言うのかもしれん...
ちなみに、自動運転技術では、Google から分社化した Waymo の実証実験もよく話題になる。Google ストリートビューの発明者が主導する会社だ。
いずれにせよ、AI の活用による人的犠牲は計り知れない。いや、人間がやっても同じことか。いやいや、同じ失敗を繰り返すかどうかの違いは大きい。完成までには、多少の失敗にも目をつぶる。少なくとも、完成までの期間は人間よりもはるかに上だし、統計的な犠牲者は、期間と相殺させるかもしれない。こうした分野では、失敗データの蓄積がものを言いそうである...

ん... 個々のニューロンの構造が単純でも、複雑な多重階層モデルとなると、やはり得体の知れない存在となる。ただ、得体が知れないから、惹かれるということがある。得体が知れないから、過剰な期待をかけるということがある。そして、分かった気分になれれば、幸せになれる。これも人間の性癖というものか...
人間は、人間を奴隷にするのが得意な動物である。いや、自ら望んで奴隷になる場合すらある。おいらは M だし。アリストテレスが唱えた生まれつき奴隷説もうなづける。
そして、AI によって人間を模倣し、AI を奴隷にしようったって、そうは問屋が卸さない。人間が奴隷制度に目くじらを立てる理由の一つに、人間の奴隷になることへの拒否反応がある。同じ種の奴隷になることへの。ならば、みんなで人間ではない存在の奴隷になるというのはどうであろう。これぞ実現可能な平等社会!ビッグデータの活用法で悩んでいる人間どもを尻目に、AI が自由気ままに人間どもを活用して問題を解決してくれる社会。AI に雇用をもっていかれて、なんの不都合があろう...

では、人間は何をする存在になるのだろう。過程を放棄した人間とは、いったいどんな存在なのだろう。人間は、退屈病を恐れる。入力情報から結果が得られる便利なブラックボックスを手に入れたがために、逆に、結果よりも過程の方に意義を求めるようになる。人生は結果ではない。生きている現実の連続である。人間を模倣しようとしたがために、ますます人間というものを考えさせられる。AI は、人間を哲学者にしようというのか。ブラックボックスの中身を理解できない限り、人間は永遠に人間というものを理解できそうにない...

0 コメント:

コメントを投稿