ディープニューラルネッ卜ワーク

ディープラーニングは、AIに3度目のブームをもたらした技術です。といっても、いまから考えると信じられないかもしれませんが、当時はまだ、「ディープラーニング」という言葉すら存在せず、ディープニューラルネッ卜ワークという言い方がされていました。当時、AIの分野、とくに機械学習の中で注目度が高かったのは、SVM (Support Vector Machine、サポー卜・ベクター・マシン)と呼ばれる手法でした。2012年半ば以前は、SVMに比べると、ニューラルネットワークは“時代遅れ””とさえ言われていました。その時代遅れのニューラルネッ卜ワークの分野からディープラーニングが生まれたのですから、関係者の驚きも頷けます。簡単にいうと、ニューラルネットワークとは「入力層・中間層(隠れ層)・出力層」の3層構造でできています。この中間層(隠れ層)が二つ以上、つまり「入力層・中間層・中間層・出力層」と全体で4層以上ある場合をとくにディープラ一二ングと呼ばれています。カナダの大学教授が2012年に発表したものは8層(中間層が6層)と言われ、共同研究者の名前を取って「AlexNet」 と呼ばれています。翌年にはVGG(16層)やGoogLeNet(22層)というのが生まれて、20層を超えるに至り、何と2014年には大手IT企業が152層という、その層数はエスカレートするばかりです。ところが、層数が増えるということは、計算量も当然増大し、コンピュータに猛烈な負荷がかかってきます。正直なところ、当時のコンビュータでは処理しきれず、実用化に耐えないというジレンマに陥っていました。

コメントは受け付けていません。