G検定対策~総集編~

こんにちは。管理人のピヨ猫でーす。

日本ディープラーニング協会(JDLA)が実施している機械学習の認定試験のG検定って何かすごいらしいねー。この前、機械学習のセミナーでG検定に合格したという方が講師していて、みんな「おっ!」てしていたよ。僕も機械学習の仕事に就きたいからG検定取りたいけど、機械学習って分野が広すぎて何をどう勉強して良いかわからないんだー。

疑問がある

日本ディープラーニング協会(JDLA)がG検定の推薦図書を出してくれているから、これに従って勉強すれば良いんだよ。すごく分かり易く書かれているから、今まで理解できないと思っていたこともすんなり理解できるようになるよ。これから詳しく勉強方法を説明するね。

記事の説明です

 

1.日本ディープラーニング協会(JDLA)のG検定とは

日本ディープラーニング協会(JDLA)とは

日本ディープラーニング協会(JDLA)は、ディープラーニングを中心とする技術による日本の産業競争力の向上を目指し、2017年6月1日設立日された一般社団法人です。

詳しくは以下の記事を参照ください。
日本ディプラーニング協会のG検定とは?

G検定とは

G検定は日本ディープラーニング協会(JDLA)が実施している機械学習の検定試験です。
ディープラーニングの基礎知識を有し、適切な活用方針を決定して事業応用する能力を持つ人材であることを測る検定』です。

2.G検定の問題集

G検定の問題集

G検定の対策としてスキルアップAI株式会社より、G検定の問題集が出版されています。
G検定の試験前に、機械学習の理解度の確認と復習のため、本書の問題を解いてみることをお勧めします。

徹底攻略ディープラーニングG検定ジェネラリスト問題集 [ 明松真司 ]

価格:2,268円
(2019/5/23 19:51時点)
感想(0件)

なお、連載記事で紹介しておりました以下の書籍をしっかり読んで理解していれば解ける問題になりますので、これから機械学習を勉強しよう!!、G検定を受けてみよう!!、という方は是非以下の書籍も読んでみて下さい。
日本ディープラーニング協会(JDLA)のG検定の問題はここからでる!!

深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト (EXAMPRESS) [ 一般社団法人日本ディープラーニング協会 ]

価格:3,024円
(2019/4/3 21:03時点)
感想(1件)

G検定で特に注意すべき点

機械学習の用途と仕組みをしっかり理解していれば大半の問題は解くことが出来ますが、たまに「えっ?こんな問題でるの?」というものがありますので、ここでは普通に機械学習の勉強していると見落としがちになるだろうポイントを記載致します。

基本用語

人工知能

計算機により知的な情報システムを設計・実装する研究分野。

強いAI

心を持つAI。何にでも対応出来る汎用AI。
フレーム問題を打ち破ったAI。

弱いAI

心を持たないAI。特定の分野に特化したAI。
フレーム問題を打ち破っていないAI。

名称

人名

人名 説明
アーサー・サミュエル アメリカの計算機科学者。機械学習の研究分野を「明示的にプログラムをしなくても学習する能力をコンピューターに与える研究分野」と定義したことで有名。
アラン・チューリング ある機会が人工知能かどうかを判定するテスト「チューリングテスト」の考案者。
ジェフリー・ヒントン AlexNetの開発チームのリーダー。AlexNetはディープラーニングを用いた画像認識システムで、ILSVRCで2位を大きく引き離し優勝したことで有名。
ヤン・ルカン ディープラーニングの画像認識モデルの基本系であるCNN(畳み込みニューラルネットワーク)の基礎となったLeNet(ルネット)の考案者。
GANについて「機械学習において、10年間で最もおもしろいアイディア」であると形容した。
レイ・カーツワイル シンギュラリティ(技術的特異点)は2045年に到来すると述べたことで有名。
ヒューゴ・デ・ガリス シンギュラリティは21世紀の後半に来ると予想した。
イーロン・マスク 非営利のAI研究組織OpenAIの設立者。シンギュラリティの到来に危機感を持ちOpenAIを設立した。
オレン・エツィオーニ シンギュラリティは終末論的な構想で馬鹿げていると述べたことで有名。
スティーブン・ホーキング AIの完成は人類の終焉を意味するかもしれないと述べたことで有名。
イアン・グッドフェロー 敵対的生成ネットワーク(GAN:Generative Adversarial Network)の考案者。

AI名

AI名 説明
ELIZA(イライザ)     初期の自然言語処理プログラム。ELIZAと話した人の中にはELIZAが実際の人間だと思った人もいた。
PARRY(パリー) ELIZAの数年後に開発された自然言語処理プログラム。ELIZAとPARRYは世界で初めてAI同士で会話したことでも有名でありRFC439文書として記録されている。
ディープブルー IBMにより構築されたチェスAI。力任せの探索であったが、1996年に世界チャンピオンを破る。大学の研究室で生まれたチェス専用スーパーコンピュータ「ディープ・ソート」の研究を引き継ぐ形でIBMが1989年より開発を開始した。
Ponanza(ポナンザ) 東大生の山本一成が開発した将棋AI。プロ棋士と将棋ソフトが対戦する電王戦で次々とプロ棋士を破る。
AlexNet(アレックスネット) ILSVRCで圧倒的な成績で優勝した画像認識AI。パラメタ数は60,000,000個、データサンプルは600,000,000個程度と推定される。
AlphaGo(アルファゴー) Google DeepMindによって開発されたコンピュータ囲碁プログラム。 2015年10月に、人間のプロ囲碁棋士を互先で破り、2016年3月15日に囲碁の世界チャンピオンを破る。
Tay (テイ) Microsoft社が開発したおしゃべりボット。Twitter上のユーザーから不適切な誘導を受け学習した結果、不適切な言動、行動を繰り返すようになり、Microsoft社によりサービスを停止された。
WaveNet Google DeepMind社により開発されたディープラーニングを用いた音声合成ソフト

文書名

文書名 説明
RFC439文書 世界で初めてAI同士で会話したELIZAとPARRYの会話を記録した文書。

競技名

競技名 説明
ILSVRC ImageNet Large Scale Visual Recognition Competition。ImageNetデータセットを用いた画像認識の精度を競うコンペティッション。ディープラーニングを用いたAlexNetが前年度のチャンピオンの記録を大きく引き離して優勝したことでも有名。

プロジェクト名

文書名 説明
Cyc(サイク) 一般常識を知識ベース化するプロジェクト。1984年より開始し現代版のバベルの塔の異名を持つ。2001年よりOpenCycとして一部が公開された。
インダストリー4.0 ドイツの産業改革プロジェクト。製造業におけるオートメーション化およびデータ化・コンピュータ化を目指す昨今の技術的コンセプトに付けられた名称である。
中国製造2025 中国の製造業発展のロードマップ。AI技術の取り組みを強化することが名言されている。

格言・比喩

格言・比喩 説明
知識獲得のボトルネック 専門化の知識をコンピューターに移植するのが困難なこと。専門化の知識をコンピューターに移植する仕事をナレッジエンジニアと言う。
ノーフリーランチ定理 あらゆることに万能なアルゴリズムは存在しない。
バーニーおじさんのルール 学習にはパラメタ数のおよそ10倍のデータサンプルが必要
アシロマAI原則 AIによる軍拡競争は避けるべきであると明示

ディープラーニングのフレームワーク

フレームワーク | 概要
NumPy(ナムパイ) | 線形代数の計算を行うフレームワーク
Tensorflow(テンソルフロー) | 機械学習に関する計算を行うフレームワーク。Googleによって開発された。
Keras(ケラス) | ディープラーニングに特化したTensoflowのラッパー
Chainer(チェイナー) | Preferred Networksによって開発されたフレームワーク。Define-by-Runという形式を採用している。
PyTorch(パイトーチ) | Chainerから派生したフレームワーク
sckit-learn(サイキットラーン) | 機械学習全般に対応するフレームワーク

レコメンデーション

協調ベースフィルタリング

アイテム利用者の行動履歴を元にレコメンドする方法です。

内容ベースフィルタリング(コンテンツベースフィルタリング)

アイテムの特徴ベクトルで類似度ソートしてレコメンドする方法

機械学習の手法・用語

教師なし学習

主な機能
  • クラスタリング
  • 次元削減

強化学習

ある環境内におけるエージェントが、現在の状態を観測し、取るべき行動を決定する問題を扱う機械学習の一種。エージェントは行動を選択することで環境から報酬を得る。強化学習は一連の行動を通じて報酬が最も多く得られるような方策(policy)を学習する

kNN法(K近傍法)

クラス判別用の手法。 学習データをベクトル空間上にプロットしておき、未知のデータが得られたら、そこから距離が近い順に任意のK個を取得し、多数決でデータが属するクラスを推定する。
クラスの分布やサンプル数に隔たりがあると分類精度が落ちる。kNN法のk値の様に事前に人間が調整しておく必要があるハイパーパラメータをハイパーパラメータという。

k-means法(kmeans法)

非階層型クラスタリングのアルゴリズム。 クラスタの平均を用い、与えられたクラスタ数k個に分類する。

サポートベクターマシン

線形入力素子を利用して 2 クラスのパターン識別器を構成する手法。
訓練サンプルから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準で線形入力素子のパラメータを学習する。

初期のサポートベクターマシンは、線形分類器にしか適用できなかったが、再生核ヒルベルト空間の理論を取り入れたカーネル関数を用いてパターンを有限もしくは無限次元の特徴空間へ写像し、特徴空間上で線形分離を行うことにより、非線形分類問題にも優れた性能を発揮することがわかり近年特に注目を集めている。カーネル関数を取り入れた一連の手法では、どのような写像が行われるか知らずに計算できることから、カーネルトリックと呼ばれている。
評価関数に「スラック変数(ε)」という変数を導入する。スラック変数は誤分類時やマージン境界を越えた場合に正の値をとる変数である。

決定木

決定木は、「段階的にデータを分割していき、木のような分析結果を出力する」もの。
決定木は「分析結果の解釈が容易」という特徴を持ち、事前にデータのスケールを揃えておく必要がない。決定木は情報利得が最大となる様に分類する。
情報利得とは、データ分割の前後を比較してどれだけ綺麗にデータを分割できたかを数値化したものである。

オートエンコーダー

自己符号化機。次元圧縮に用いる教師なし学習のモデル。入力と出力が同じ3層のネットワーク。

敵対性生成ネットワーク(GAN)

生成ネットワークと識別ネットワークで構築された、データ生成モデル。教師なし学習の一種。

主成分分析

相関のある多数の変数から相関のない少数で全体のばらつきを最もよく表す主成分と呼ばれる変数を合成する多変量解析の一手法。データの次元を削減するために用いられる。
線形の次元削減。

  • 寄与率 : 主成分軸一つでデータの何割を説明することができているかを表したもの。寄与率を分析することで各成分の重要度を測ることが出来る。
  • 主成分: 主成分を調べることで各成分の意味を推測することができる。

自然言語解析

言語モデル

自然言語処理などにおいて、文の品詞や統語構造、単語と単語、文書と文書などの関係性について定式化したもの。

ニューラル言語モデル

ニューラルネットワークを用いて構築した言語モデル

解析方法
  • 形態素解析を用いて、文章を単語などの最少単位(形態素)に切り分ける
  • データのクレンジングにより、不要な文字列を取り除く
  • BoW (Bag-of-Words)などを用いて、形態素解析を行ったデータをベクトルの形式に変換する。
  • TF-IDFなどを用いて各単語の重要度を評価する。
Word2Vec

Word2Vecにおける単語のベクトル表現というのは「周辺語の予測」というダミータスクをニューラルネットワークによって解く過程で得られる。
その際によく用いられるのがSkip-Gram Modelと呼ばれる手法である。

過学習(過適合)

訓練データに適合しすぎて、訓練データでは正解率が高いのに訓練データとは異なるデータでは正解率が低くなってしまう、つまり、訓練データだけに最適化されてしまって汎用性がない状態

アンサンブル学習

複数のモデルを作り、一般的に分類は多数決、回帰は平均を結果として採用する。安定した精度の実現や過学習の抑制のために用いる。

  • バギング : データ全てを使うのではなくその一部を使って学習し、それを何度も繰り返して最後に合わせる方法。並列処理が出来る。
  • ランダムフォレスト : バギングの1つの方法。学習に決定木を使う。決定木の過学習を起こしやすいという問題をある程度克服している学習手法。
  • ブースティングング : データの一部を抽出してそれで弱学習機を作り、最後に合わせるのはバギングと同様。違いは前回の結果を利用するのがブースティング。なので並列処理はできない。

ロジスティック回帰

回帰という名前がついてるが、分類問題に利用される。対数オッズと呼ばれる値を線形回帰で予測し、それを正規化して確率として解釈できる出力を得ることによって、結果としてクラス分類が実現される。
最少化を行う関数のことを目的関数と呼び、ロジスティック回帰の場合は尤度関数が用いられる。

正則化

過学習を減らすための手法。パラメタのノルム(幾何学的ベクトルの長さ)が大きくなりすぎないようにすれば
過学習を抑制できるのではないかというアイディアが正則化である。

  • LASSO(L1正則化) : 自動的に特徴量の選択が行われる性質を持つ(Lasso回帰は不要と判断される説明変数の係数(重み)が0になる性質がある)
  • Ridge正則化(L2正則化) : 特徴量選択は行わないが、パラメタのノルムを小さく抑える。

スパースなデータ

ほとんどが0で稀に0以外が並ぶデータ。スパース=疎
スパース性を用いて計算量の削減などの工夫ができる。

LAWS

自立型致死性兵器。Lethal Autonomous Weapon Systems。AIの発展による弊害として危惧されている。

基礎数学

微分と偏微分

微分

微分とはある関数f(x)のある時点x=aにおける傾きf'(a)を求めることです。
傾きf'(a)を微分係数と呼びます。
f'(a)は以下の式で求まります。
微分
微分

また、ある時点x=aの傾きf'(a)を求める関数 微分を導関数と呼びます。
微分の導関数は、
微分になります。

偏微分

偏微分は多変数関数をある変数で微分することです。
微分と考え方は同じです。微分する変数以外は定数と見なし微分します。
偏微分の偏導関数は、
偏微分になります。

線形代数

ベクトル

ベクトルは1行列x列の行列 (または、x行1列の行列)です。
ベクトル

プログラムをする方向けに言うと一次元配列です。
例) double x[3];

行列

数や記号や式などを縦と横に矩形状に配列したものです。
行列

プログラムをする方向けに言うと二次元配列。
例) double x[2][2];

機械学習で良く使うベクトル、行列の内積計算は以下の様に行います。※ ベクトル、行列の内積計算は機械学習の全結合層で使われています。
行列

統計

相関係数

相関係数は、x と y の間の直線的な関係性の強さを表す指標です。
相関係数は以下の式で表されます。
相関係数

  • 相関係数が+1に近い値の場合、「x と y には正の相関がある」と言い「x が大きいとき、y も大きい傾向がある」ことを意味します。
  • 相関係数が-1に近い値の場合、「x と y には負の相関がある」と言い「x が大きいとき、y は小さい傾向がある」ことを意味します。
  • 相関係数が0に近い値の場合、「x と y にはほとんど相関がない」と言い「xの大小は y の大小と直線的な関係がない」ことを意味します。

相関係数

説明変数と目的変数

y = fr(x) の xが説明変数、yが目的変数。

  • 説明変数 :目的変数を説明する変数のこと。独立変数とも呼ぶ。物事の原因ととらえることもできる。
  • 目的変数:予測したい変数のこと。物事の結果ととらえることもできる。

これでG検定の勉強は終了です。お疲れ様でした。
本試験も頑張ってください!!

がんばろー

(参考)日本ディープラーニング協会(JDLA)のその他の推薦図書

◆◆AI白書 2019 / 情報処理推進機構AI白書編集委員会/編 / 角川アスキー総合研究所

価格:3,888円
(2019/4/3 22:46時点)
感想(0件)

人工知能は人間を超えるか ディープラーニングの先にあるもの (角川EPUB選書) [ 松尾豊 ]

価格:1,512円
(2019/4/3 22:46時点)
感想(2件)


広告




スポンサーリンク
広告




広告




シェアする

  • このエントリーをはてなブックマークに追加

フォローする

スポンサーリンク
広告