5-4.最新AI用語・アルゴリズム
・表現学習(feature learning):ディープラーニングのように、自動的に画像や音、自然言語などの特徴量を、抽出し学習すること。
・分散表現(distributed representation/ word embeddings):画像や時系列データの分野においては、特徴量を自動でベクトル化する表現方法。自然言語の分野においては、Word2Vecのように単語やフレーズを固定長のベクトルで表現する方法。機械学習のように、人手で定義した特徴量でベクトル化したものではない。
・DNC (Differentiable Neural Computers):2016年10月にDeepMind社が発表した、次世代のニューラルネットワーク。ニューラルネットワークは、特定の学習済みモデルを作成しても、別のモデルを作る場合にはネットワーク構造がリセットされるという「破滅的忘却」という問題があった。このDNCはこの欠点を解消し、複数の学習済みモデルを持つことができる。
・GAN(Generative Adversarial Net):2014年に提案された深層生成モデルの一種。Generatorというネットワークが訓練データと同じようなデータを生成しようとし、Discriminatorというネットワークはデータが訓練データから来たものか、それとも生成モデルから来たものかを識別。学習が進むとGeneratorは訓練データと同じようなデータを生成できるようになる。GANの基本的な考え方はシンプルで、たとえ話にすると、ニセ札造りの偽造者と警察官の2名の登場人物がいるとする。偽造者は本物の紙幣と似たニセ札を造り、警察官はニセ札を見破ろうとする。
下手なニセ札は簡単に警察官に見破られるが、偽造者の腕が上がって精巧なニセ札になっていくと、警察官もなんとかニセ札を見破ろうと頑張って見分けようとする。お互いに切磋琢磨していくと、最終的にはニセ札が本物の紙幣と区別がつかなくなるというものだ。この関係をモデル化したのがGANで、教師データとよく似た画像が生成できるようになる。
・LAPGAN:周波数ごとのGANを作り高解像度の画像を生成する手法。
・DCGAN:GANにCNN、Leaky ReLU(0以外にも勾配をつけたReLU)、Batch Normalization(バッチごとに平均・分散を用いて正規化すること)を加えた手法。
・カプセルネットワーク(Capsule Network):ディープラーニングの開発者であるトロント大学のヒントン(Hinton)教授が提案したモデル。CNNの欠点である、各特長間の空間的位置関係の消失を直し、空間情報を保持できる画期的なモデル。
従来のCNNなどのニューラルネットワークは、プーリング処理により特徴量をスカラー値として出力したが、カプセルネットワークは空間情報をベクトルで出力し、これをカプセルと呼んでいる。
・強化学習:教師データがない場合でも、報酬を与えることで学習を進めることができる機械学習。試行錯誤の探索をしながら、パラメーターを調整して最善の方法を探っていくことができる。その代表的手法がQ学習である。
この強化学習は、最短経路の探索やゲームの攻略など、明確な正解が不明な問題に有効となる。ただし、最短経路問題なら「距離が短い」、ゲームなら「ハイスコア」のように、最終目標に近づいたかどうかを判断する基準が必要となる。
・深層強化学習:強化学習では、各状態での行動価値を経験から推測するが、この推定する関数を上手く学習できなかった。この関数にディープラーニングを用いたのがDQNである。
・逆強化学習(IRL):熟練者が選択した行動結果のログを取り込むことで、強化学習の「報酬」を計算するモデル。各場面を特徴量に集約し、その特徴量と選択行動からネットワークで報酬に変換する。自動運転などに利用されつつある。このIRLとGANが同義であると2017年に発表され、世界に衝撃を与えた。
・スパースモデリング:ディープラーニングと異なり、大量の教師データがなくても学習可能な手法。たとえ話で説明すると、英語は2000種類の単語を知っていれば話せるが、2000単語だけで文章を作成すると、どうしても表現が長くなる。しかし専門用語など数十万単語を知っていると、簡潔に表現できる。これと同じように、スパースモデリングは、自動的に「適切な特徴量」を選ぶのでデータ量が少なくても学習できる。だが、ディープラーニングが自動的に特徴量を抽出するのとは逆に、たくさんの特徴量のあるデータを準備する必要がある。