G検定対策~第五章 ディープラーニングの概要~

こんにちは。管理人のピヨ猫でーす。

日本ディープラーニング協会(JDLA)が実施している機械学習の認定試験のG検定って何かすごいらしいねー。この前、機械学習のセミナーでG検定に合格したという方が講師していて、みんな「おっ!」てしていたよ。僕も機械学習の仕事に就きたいからG検定取りたいけど、機械学習って分野が広すぎて何をどう勉強して良いかわからないんだー。

疑問がある

日本ディープラーニング協会(JDLA)がG検定の推薦図書を出してくれているから、これに従って勉強すれば良いんだよ。すごく分かり易く書かれているから、今まで理解できないと思っていたこともすんなり理解できるようになるよ。これから詳しく勉強方法を説明するね。

記事の説明です

 

1.日本ディープラーニング協会(JDLA)のG検定とは

日本ディープラーニング協会(JDLA)とは

日本ディープラーニング協会(JDLA)は、ディープラーニングを中心とする技術による日本の産業競争力の向上を目指し、2017年6月1日設立日された一般社団法人です。

詳しくは以下の記事を参照ください。
日本ディプラーニング協会のG検定とは?

G検定とは

G検定は日本ディープラーニング協会(JDLA)が実施している機械学習の検定試験です。
ディープラーニングの基礎知識を有し、適切な活用方針を決定して事業応用する能力を持つ人材であることを測る検定』です。

2.G検定の勉強方法

日本ディープラーニング協会(JDLA)の推薦書籍

G検定の勉強方法は至ってシンプルです。
日本ディープラーニング協会(JDLA)が「G検定の問題はここから出す」と言っている、日本ディープラーニング協会(JDLA)が推薦する書籍があります。

日本ディープラーニング協会(JDLA)のG検定の問題はここからでる!!

深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト (EXAMPRESS) [ 一般社団法人日本ディープラーニング協会 ]

価格:3,024円
(2019/4/3 21:03時点)
感想(1件)

なので、基本的にはこの本を読んで書いてあることが分かればG検定に合格できます。
この本はG検定の合格目的でなくてもとても良い本です。
機械学習を始める上での入門書と言った感じで、とても分かり易く順序立てて機械学習を行う上で必要なことが書かれています。機械学習を始める方は絶対に読んだ方が良いでしょう。

G検定の勉強のコツ

理解度を深めるコツとしては、
本を読む → キーワードを抑える → キーワードを見て意味が分かる程度になるまで、また本を読む
を繰り返すのが良いと思います。人それぞれですので、これが必ずしも良いということはありませんので、自分に合った勉強法があれば、自分に合った方法で勉強するのが良いかと思います。どうすれば良いかわからないという方は、上記の方法を試してみて下さい。

本記事で『深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト』の第五章のキーワードを纏めましたので、良ければ利用して下さい。

第五章~ディープラーニングの概要~のキーワード

5-1. ニューラルネットワークとディープラーニング

1.ディープラーニングの基本

1.1 多層パーセプトロン
  • ニューラルネットワーク
  • 人間の脳を模している
  • ニューロン
  • 入力と出力の関係性が隠れ層の中に重みとして表現される
  • 隠れ層は入力と出力を対応付ける関数
  • 単純パーセプトロン
    入力と出力層のみ
    線形分類しか出来ない
  • 多層パーセプトロン
    隠れ層を持つ
    非線形分類が出来る
1.2 ディープラーニングとは
  • 隠れ層を増やしたネットワーク
  • 課題の種類に応じて様々なモデルがある
  • ニューラルネットを用いた学習方法
  • ディープニューラルネットワーク
  • 明確にする

2.既存のニューラルネットワークにおける問題

  • 誤差逆伝播法
  • ネットワークが深いと誤差が最後まで正しく反映されない
  • 隠れ層を増やすと逆に精度が下がった
  • 隠れ層が1つでは精度が良くない
  • シグモイド関数の特性が問題
  • 勾配消失問題

5-2. ディープラーニングのアプローチ

1. 事前学習によるアプローチ

1.1 オートエンコーダー
  • 可視層と隠れ層の二層からなるネットワーク
  • 可視層は入力層と出力層が1つになったもの
  • 可視層(入力層)→隠れ層→可視層(出力層)の順に伝播
  • 入力と出力が同じになるネットワーク
  • 隠れ層に入力情報が圧縮される
  • 入力層(可視層)の次元より隠れ層の次元を小さくしておく
  • 入力層→隠れ層 (エンコーディング)
  • 隠れ層→入力層(デコーディング)
1.2 積層オートエンコーダ
  • オートエンコーダーを積み重ねる
  • ディープオートエンコーダーを作る
  • 積層オートエンコーダー(stacked autoencoder)
  • 一気に全ての層を学習するわけではない
  • 入力層に近い層から逐次学習する
  • 手前で学習して重み付けされた隠れ層が次のネットワークの入力層となる
  • 事前学習(pre-training)
1.3 ファインズチューニング
  • オートエンコーダーを積み重ねてもラベルを出力できない
  • オートエンコーダーは教師なし学習
  • 組み合わせても教師あり学習にならない
  • 最後にロジスティク回帰層を足す(シグモイド関数かソフトマックス関数)
  • 回帰問題では線形回帰層を足す
  • ロジスティク回帰層も重みの調整が必要
  • ファインチューニング(fine-tuning)
  • 積層オートエンコーダは事前学習とファインチューニングの工程で構成される
1.4 深層信念ネットワーク
  • オートエンコーダーではなく制限付きボルツマンマシンで隠れ層を学習する

2. 事前学習なしのアプローチ

  • 事前学習は最近は見かけない
  • 事前学習なしで一気に学習する方法が考案された
  • 事前学習はコストが高くつく
  • 勾配消失問題は活性化関数の工夫で解決された

5-3. ディープラーニングを実現するには

1. CPUとGPU

1.1 CPUとGPU
  • CPU(Central Prossesing Unit)
    アプリケーションを動かす
    直列処理
  • GPU(Grphics Prossesing Unit)
    画像処理
    並列処理
  • どちらが優れている分けではない
  • GPUの方が機械学習に向いている
1.2 GPGPU
  • GPUは画像処理に特化したチップ
  • 画像処理以外も出来る様にしたGPU = GPGPU(General-Purpose computing on GPU)
  • NVIDIA社がGPGPUの製造をリード

2. ディープラーニングのデータ量

  • 学習とはモデルが持つパラメーターの最適化
  • データ量の目安となる経験則
  • バーニーのおじさんのルール
  • モデルのパラメーターの10倍のデータが必要
  • 現実的で無いのでテクニックが必要

第五章~ディープラーニングの概要

本章はディープラーニングの基本的な仕組みが記されていますのでしっかり押さえておきましょう。

ディープラーニングの基本となるのはニューラルネットワークです。
【ニューラルネットワーク(多層パーセプトロン)】
多層パーセプトロン

多層パーセプトロンの隠れ層を増やせばより多くの状態を作ることが出来ますが、ニューラルネットワークは誤差伝播法により学習するので、隠れ層を増やすと誤差が最後まで正しく反映されなくなってしまう問題があり、これを解決する基本的な仕組みが積層オートエンコーダーであることを覚えておきましょう。
【積層オートエンコーダ】
積層オートエンコーダ

また、オートエンコーダを積み重ねるだけでは最終的なアウトプットを得られないので、ロジスティック回帰層(シグモイド関数あるいはソフトマックス関数)でファインチューニングすることも覚えておきましょう。

第五章はこれで終了です。次章も頑張りましょー

がんばろー

(参考)日本ディープラーニング協会(JDLA)のその他の推薦図書

◆◆AI白書 2019 / 情報処理推進機構AI白書編集委員会/編 / 角川アスキー総合研究所

価格:3,888円
(2019/4/3 22:46時点)
感想(0件)

人工知能は人間を超えるか ディープラーニングの先にあるもの (角川EPUB選書) [ 松尾豊 ]

価格:1,512円
(2019/4/3 22:46時点)
感想(2件)


広告




スポンサーリンク
広告




広告




シェアする

  • このエントリーをはてなブックマークに追加

フォローする

スポンサーリンク
広告