バックプロパゲーション

ディープラーニングにおいて行われている、特徴量抽出方法の学習について一般的なCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)を用いて説明してみましょう。画像に写った物体を識別するのに、一般的に「教師あり学習」として学習されます。例えば、犬と猫の画像認識においては、「犬」や「猫」の教師データとなる画像データを最初に用意して、コンピュータに入力しておきます。 コンビュータは入力された画像から、それが「犬である」あるいは「猫である」という特徴量を自動的に抽出し、その特徴量によって、「犬」と入力した画像が「犬」と出力されればOKとなりますが、なぜか間違えて「猫」という出力になったと仮定します。すると、コンピュータは答え合わせをして、抽出した特徴量に誤りがあったことに気づき、特徴量の抽出方法を修正しようとします。特徴量は、ニューラルネットワークの中間層に、数値として抽出されていますが、コンピュータが「中間層で特徴量の抽出方法をどのように修正すれば、出力が正しい『犬』になるのか」を調整するために、出力に近い箇所、つまり後ろから順に「どこで失敗したか」を探して調整していきます。ある地点だけで調整しきれないときは、さらに遡って入力に近い方へと調整を進める、という作業を行なっていきます。これを「誤差逆伝播法」、あるいは「バックプロパゲーション(Backpropagation)」 と呼ばれています。

Be the first to comment

Leave a Reply

Your email address will not be published.


*