こんにちは。管理人のピヨ猫でーす。
日本ディープラーニング協会(JDLA)が実施している機械学習の認定試験のG検定って何かすごいらしいねー。この前、機械学習のセミナーでG検定に合格したという方が講師していて、みんな「おっ!」てしていたよ。僕も機械学習の仕事に就きたいからG検定取りたいけど、機械学習って分野が広すぎて何をどう勉強して良いかわからないんだー。
日本ディープラーニング協会(JDLA)がG検定の推薦図書を出してくれているから、これに従って勉強すれば良いんだよ。すごく分かり易く書かれているから、今まで理解できないと思っていたこともすんなり理解できるようになるよ。これから詳しく勉強方法を説明するね。
1.日本ディープラーニング協会(JDLA)のG検定とは
日本ディープラーニング協会(JDLA)とは
日本ディープラーニング協会(JDLA)は、ディープラーニングを中心とする技術による日本の産業競争力の向上を目指し、2017年6月1日設立日された一般社団法人です。
詳しくは以下の記事を参照ください。
日本ディプラーニング協会のG検定とは?
G検定とは
G検定は日本ディープラーニング協会(JDLA)が実施している機械学習の検定試験です。
『ディープラーニングの基礎知識を有し、適切な活用方針を決定して事業応用する能力を持つ人材であることを測る検定』です。
2.G検定の勉強方法
日本ディープラーニング協会(JDLA)の推薦書籍
G検定の勉強方法は至ってシンプルです。
日本ディープラーニング協会(JDLA)が「G検定の問題はここから出す」と言っている、日本ディープラーニング協会(JDLA)が推薦する書籍があります。
日本ディープラーニング協会(JDLA)のG検定の問題はここからでる!!
![]() |
深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト (EXAMPRESS) [ 一般社団法人日本ディープラーニング協会 ] 価格:3,024円 |
なので、基本的にはこの本を読んで書いてあることが分かればG検定に合格できます。
この本はG検定の合格目的でなくてもとても良い本です。
機械学習を始める上での入門書と言った感じで、とても分かり易く順序立てて機械学習を行う上で必要なことが書かれています。機械学習を始める方は絶対に読んだ方が良いでしょう。
G検定の勉強のコツ
理解度を深めるコツとしては、
本を読む → キーワードを抑える → キーワードを見て意味が分かる程度になるまで、また本を読む
を繰り返すのが良いと思います。人それぞれですので、これが必ずしも良いということはありませんので、自分に合った勉強法があれば、自分に合った方法で勉強するのが良いかと思います。どうすれば良いかわからないという方は、上記の方法を試してみて下さい。
本記事で『深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト』の第八章のキーワードを纏めましたので、良ければ利用して下さい。
第九章~ディープラーニングの応用に向けて(2) 法律・倫理・現行の議論~のキーワード
1.日本ディープラーニング協会(JDLA)のG検定とは
G検定は日本ディープラーニング協会(JDLA)が実施している機械学習の検定試験です。
『ディープラーニングの基礎知識を有し、適切な活用方針を決定して事業応用する能力を持つ人材であることを測る検定』です。
詳しくは以下の記事を参照ください。
2.G検定の勉強方法
G検定の勉強方法は至ってシンプルです。
日本ディープラーニング協会(JDLA)が「G検定の問題はここから出す」と言っている、日本ディープラーニング協会(JDLA)が推薦する書籍があります。
日本ディープラーニング協会(JDLA)のG検定の問題はここからでる!!
![]() |
深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト (EXAMPRESS) [ 一般社団法人日本ディープラーニング協会 ] 価格:3,024円 |
なので、基本的にはこの本を読んで書いてあることが分かればG検定に合格できます。
この本はG検定の合格目的でなくてもとても良い本です。
機械学習を始める上での入門書と言った感じで、とても分かり易く順序立てて機械学習を行う上で必要なことが書かれています。機械学習を始める方は絶対に読んだ方が良いでしょう。
理解度を深めるコツとしては、
本を読む → キーワードを抑える → キーワードを見て意味が分かる程度になるまで、また本を読む
を繰り返すのが良いと思います。人それぞれですので、これが必ずしも良いということはありませんので、自分に合った勉強法があれば、自分に合った方法で勉強するのが良いかと思います。どうすれば良いかわからないという方は、上記の方法を試してみて下さい。
本記事で第九章の9-1節「AIと社会」と9-2節「プロダクトを考える」のキーワードを纏めましたので、良ければ利用下さい。
他の章も順次まとめ中です。
3.第九章 9-1~9-2節のキーワード
9-1. AIと社会
1. 法・倫理・社会
- 法は技術開発を制約することがあるが、逆にイノベーションの自由も支援する
- 法が整備されれば投資も受け易い
- 倫理は主に価値に対し議論されている
- ある人に対しての価値が別の人から見ると不利益かもしれない
- 逆に人の価値観に向き合うことでニーズの掘り下げになる
- 法や倫理、社会に対する対応を煩わしものと思わず見方に付けるのが大事
2. 本章の構成
- プロダクトを作る工程に沿って解説
- プロダクトを考える → データを集める → データの加工・分析・学習 → 実装・運用・評価 → クライシスマネジメント
- 各工程に法・倫理・社会的な課題がある
- 問題が起きないようにクライシス・マネジメントが必要
- 教訓を次回に活かす必要がある
3. 本章の狙い
- 過去の事例からこういうことをしたら不利益と感じる人がいるかもしれないと考える想像力を養うことが目的
- 過去の事例の対策をしていれば問題無いというのとなは無い
- 個人・特定部門で考えず幅広い部門・社会と議論出来る環境作りが必要
9-2. プロダクトを考える
1.ディープラーニングを使いたい、の前に
- AIを使いたいではなく、AIを使う必要があるかをまずは考えるべき
- ブラックボックス化せずプロセスが見えた方が良いなどの要望もあるかもしれない
2.「バイ・デザイン」でポジティブサムを狙う
- プライバシー・バイ・デザイン(PbD)
- プライバシー侵害の予防を施行し、仕様段階から検討するプロセス
- 予めプライバシーに配慮した設計やプロセス
- 利用者や社会から信用が得れる
- セキュリティ・バイ・デザイン(SbD)
- バリュー・センシティブ・デザイン
IEEE「倫理的に調和された設計」
- 学術団体IEEEが2016年にレポート提出
- 倫理的に調和された設計(Ethically Aligned Design)
- 標準規約 P7000シリーズ
- 1.システム設計時に倫理的問題に取り組むモデルプロセス
- 2.自立システムの透明性
- 3.データプライバシーの処理
- 4.アルゴリズム上のバイアスに関する考察
- 5.子供と学生のデータガバナンスに関する標準
- 6.透明性のある雇用者のデータガバナンスに関する標準
- 7.パーソナルデータ人工知能エージェントに関する標準
- 8.ロボット及び自動システムを倫理的に駆動するためのオントロジー標準
- 9.ロボットや知的自動システムをそっと促して駆動するための標準
- 10.自動及び半自動システムのフェイルセーフ設計に関する標準
- 11.倫理的な人工知能と自立システムのウェルビィーング測定基準に関する標準
- 12.ニュースソースの信頼性を特定し評価するプロセス標準
- 13.機械可読のパーソナルプライバシー条項の標準
- 14.自動化された顔認識技術のための包含および適用基準
9-3. データを集める
1. データの利用条件を確認する
- 著作権法
- 不正競争防止法
- 個人情報保護法等
- 個別の契約
- 使っただけで問題となる場合もある
- データ保有者保護
2. 役割と責任を明確にして連携を進める
- 異業種、産業/学会などの合同プロジェクトの増加
- 認識のずれが後々問題となることも多い
- オープン・イノベーションで大企業とベンチャー間の認識ずれ
ディープラーニングを用いる場合の注意点
- 学習済みモデルの性質・効果が契約時に不透明
- 学習精度がデータに左右される
- ノウハウの重要性が高い
- 生成物に対し再利用の需要がある
- ウォーターフォールは不向き
AI・データの利用に関する契約ガイドライン
- 2018年施行
- ①アセスメント段階、②PoC段階、③開発段階、④追加学習段階で順番に契約していくことを推奨
- 契約類型はデータ提供型、データ創造型、データ共用型
- 個別取引の実情に応じて考えることが重要
3. データセットの隔たりに注意する
- データには隔たりがある場合がある
- 現実に偏見などにやる隔たりがある場合、現実データをそのまま使うと偏見を継承・助長するリスクがある
- 現実の事象がデータベースに登録されていない場合もある
- 共用データセットの作成が欧米主導
- 不平等や不公正、不正義を助長・増幅することに使われかねない場合は留意が必要
9-4. データを加工・分析・学習させる
1.プライバシーに配慮してデータを加工する
- プライバシー・リスクを低減させるデータ加工
- カメラ画像利活用ガイドブック
- 法律に抵触せずとも説明責任を怠ると問題になるケースもある
2.アルゴリズムを調整する
- 目標が複数あると目標間のトレードオフが問題となる
- フィルタ・バブル
パーソナライズを強めると新しい発見が少なくなる - トレードオフの結果、技術的対応が出来なかったものは社会的対応ですくい上げる
- FAT(Fairness Accountability and Transparency):公明性・説明責任・透明性
- ブラックボックス化は安全やプライバシーに関わる時、容易に同意出来ない
3.悪用へのセキュリティ対策を行う
- コストが下がるほどセキュリティリスクが増加する
- 画像認識アルゴリズムに対する敵対的攻撃
- 絶対安全な技術は無いと意識する
- ハッキングや不正アクセスへの対策
9-5. 実装・運用・評価する
1. 成果物を知的財産として守る
- AIに関する知的財産法
2. 利用者・データ保持者を保護する
- データの利用条件を再確認する
- 開発時の利用目的以外で使っていないか?
- 個人情報を扱う場合、利用目的を出来る限り特定する
- 当初予定されていなかった用途で個人情報を扱う場合、事前の確認が必要
- EU一般データ保護規則(GDPR)
3.予期しない振る舞いに注意し対策を講じる
- システムが誰かの名誉棄損に繋がっているのを知りながら放置するのは違法
- 個人情報保護など開発時だけでなく運用時も監視・対策が必要
4.インセンティブを設計し多様な人材を巻き込む
- インセンティブ設計
- 広く社会一般を巻き込んで考えていく体制を作る
9-6.クライシスマネジメント
1.体制を整備する
- クライシスマネジメント(危機管理)
- 火消し
- 復旧
- エスカレーションのしくみ
- 防災訓練
- 危機管理マニュアル
2. 有事に対応する
- ソーシャルメディアの口コミが発端でクライシスに陥る
- クライシスの規模・状況に応じて機動的に行動
- 自律型兵器の開発が議論
- 国連は自律型兵器の開発事態を禁止する意向
3. 社会と対話し対応をアピールする
- 対応していても伝えて無ければ対応していないのと同じに見られる
- 企業の透明性を担保し説明責任を果たす
- 透明性レポート
- 一般社団法人セーフティーインターネット協会
4.指針を作成し議論を継続する
- 各個人、企業、政府などが拠り所となる指針が必要
- AI at google
- Partnership on AI(PAI)
- アシロマAI原則
5.プロダクトデザインに反映する
- 法整備が追い付かず明確な線引きが無いことも多い
- 絶対的な解があるわけではない
第九章~ディープラーニングの応用に向けて(2) 法律・倫理・現行の議論~のポイントの復習
9章は機械学習に関する法律・倫理・社会の話になります。
本章ではシステム開発をする上で機械学習を使う使わないにかかわらず、システムエンジニアとして常に気を付けるべきことが記載されています。
機械学習特融の注意点と、機械学習を使う使わないによらず注意するべきことを分けて紹介いたします。
機械学習特有の注意点
- 学習済みモデルの性質・効果が不透明なため説明責任がより重要である。
- トライアンドエラーを繰り返すのでウォーターフォールの開発は不向きである。
- データセットの隔たりにより偏見を継承・助長するリスクがある。
- AI開発で利用したデータや開発したモデル、AIで生成した成果物にはAI特有の知的財産法、指針が適用される。
機械学習によらず注意する点
- 技術は手段である。ユーザーのニーズから考えよう。
- システム開発のはじめから倫理(プライバシーやセキュリティ)を考えよう。それが顧客の信頼にも繋がる。
- 過去事例を教訓にするのは大事だが、常に想像力を持ち問題が無いか考える視野が必要である。
- PDCAを繰り返し実施する。
- 著作権法、不正競争防止法、個人情報保護法等を遵守する。
- 各フェーズ毎に関係者間の認識合わせが重要。契約もフェーズ間で交わすのが望ましい。
- プライバシーなどを考慮し扱うデータをフィルタするなどの配慮が必要である。
- 目的に合わせて利便性/プライバシー、セキュリティ/透明性などのトレードオフを行う必要がある。
- トレードオフの結果、技術的対応が出来なかったものは社会的対応ですくい上げる活動が必要である。
- 公明性・説明責任・透明性が重要である。
- 敵対的攻撃への考慮が必要である。
- 個人情報保護など開発時だけでなく運用時も監視・対策が必要である。
- 広く社会一般を巻き込んで考えていく体制を作ることが重要である。
- 防災訓練、危機管理マニュアルの整備などを行い危機に備えることが重要である。
- 企業の透明性を担保し説明責任を果たすことが重要である。
『深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト』はこれで終了になります。お疲れ様でした。
これから問題集なども紹介していきますので引き続き宜しくお願いします。
最後に本ブログでは個人的な見解はあまり記載しない方針ですが、今回は自分がちょっと思ったことを書きます。
欧米ではAIの議論の中で自律型兵器が必ず議論に上がるそうです。私はAIでなくても兵器開発に賛同は出来ませんが特にAIの兵器利用は危険の極みと思いました。AIは人の生活を豊かにする技術ですが危険性を含んでいることも事実だと思います。各国、各個人およびAIの開発者一人一人がしっかり危険性を認識した上で、社会の発展にAIを活用していって欲しいと思いました。
(参考)日本ディープラーニング協会(JDLA)のその他の推薦図書
![]() |
◆◆AI白書 2019 / 情報処理推進機構AI白書編集委員会/編 / 角川アスキー総合研究所 価格:3,888円 |
![]() |
人工知能は人間を超えるか ディープラーニングの先にあるもの (角川EPUB選書) [ 松尾豊 ] 価格:1,512円 |