スキルアップしたい

【2020年版】G検定対策 試験に出てくるおもしろ用語集

2019年9月16日

  1. HOME >

【2020年版】G検定対策 試験に出てくるおもしろ用語集

2019年9月16日

G検定対策 試験に出てくるおもしろ用語集

 

そんな、ディープラーニングや機会学習のジェネラリストを検定するこの試験。

どういうわけか面白い用語が多いので、いくつかご紹介します。

共通するのは、特に定理やルール名を中心に、けっして「うまい!」とは言えない、意味不明な例えばかりという点。

恐らく本来は英語名の者を訳しているためかと推察しますが、日本人からしてみると???な例えばかり。

そんな用語集をいくつかご紹介します。

 

本記事の信頼性

 

大手IT企業所属の、自称「ビジネス支援型データサイエンティスト」。

元営業という異色の経歴を活かしながら、金融・製造・流通業のお客様を中心にAI活用コンサルや定着支援・人材育成・講演活動など、幅広く活動しています。

ヤエリ(@yaesuri_man

普段のお客様との会話の中でよく話題に上る内容。

名だたるデータサイエンティストの先輩を差し置いてあまり大それたことは言えませんが、ド素人である文系営業出身の私ならではの視点での紹介は喜んで頂けることが多いです。

 

ノーフリーランチ定理

 

この定理は「あらゆる問題で性能の良い汎用最適化戦略は理論上不可能であり、ある戦略が他の戦略より性能がよいのは、現に解こうとしている特定の問題に対して特殊化(専門化)されている場合のみである」ということを立証している(Ho and Pepyne、2002年)。※wikipediaより

 

つまり、

機械学習でデータモデルを作成する事を考えた時、あらゆるデータセットに万能なアルゴリズムは存在しない

ということ。

データモデルを作成する手法は、ロジスティック回帰、ランダムフォレスト、GoogleのTensorFlow・・・と、色々なアルゴリズムがありますが、どのアルゴリズムで作成したモデルが最適な精度を出すかは、作ってみないと分からないということです。

「無料の昼食は存在しない。そんなにうまい話は無い」という感じでしょうか。

 

次元の呪い

 

リチャード・ベルマンが使ったもので、(数学的)空間の次元が増えるのに対応して問題の算法が指数関数的に大きくなることを表している。※wikipediaより

 

機械学習を行う上で特徴量の数は結構ポイントになりますが、特徴量の数が増えれば増えるほど、指数関数的に問題が複雑になっていく事。

例として「この人はお金を返してくれるのかどうか」という、与信モデルの問題を例に挙げてみます。

その場合の特徴量としては、

  • 性別(男性女性、というカテゴリ変数。「性別不詳」を入れると3パターン)
  • 勤務先区分(カテゴリ変数。正社員、アルバイト、無職、役員とすると4パターン)
  • 持家区分(カテゴリ変数。持家、借家、実家住まいとすると3パターン)

となりますが、上記の例だけで言っても3×4×3の36通りが考えられます。

しかもこの特徴量(次元)が増えれば増えるほど、計算は大変かつ複雑になってきます。

これが次元の呪いです。

ちなみにここから先は一気に難易度が上がります。

 

トロッコ問題

 

トロッコ問題(トロッコもんだい、英: trolley problem)あるいはトロリー問題とは、「ある人を助けるために他の人を犠牲にするのは許されるか?」という倫理学の思考実験。フィリッパ・フットが提起し、ジュディス・ジャーヴィス・トムソン 、ピーター・アンガーなどが考察を行った。人間がどのように道徳的ジレンマを解決するかの手がかりとなると考えられており、道徳心理学、神経倫理学では重要な論題として扱われている。※wikipediaより

 

もし貴方がトロッコに乗っていたとして、この先の線路が2つに分かれていたとします。

  • このまま進むと、前方に作業者複数人がいて、彼らを轢いてしまう
  • 進路を切り替えると、作業者が1人だけいて、彼を轢いてしまう

この状況でどう判断をすべきか?

つまり仮に自動運転車(人工知能)が上記の状態に陥った時のために、人間は人工知能に対し何らかのルール(判断)を設定しなければいけないのですが、それって難しいよね。という倫理問題です。

言うまでもありませんが、倫理問題であり、最適解はありません。

 

醜いアヒルの子定理

 

醜いアヒルの子を含む n匹のアヒルがいるとする. このとき,醜いアヒルの子と普通のアヒルの子の類似性は,任意の二匹の普通のアヒルの子の間の類似性と同じになるという定理。※wikipediaより

 

これはなかなか説明が難しいのですが・・・醜いアヒルの子(白鳥の子)と普通のアヒルの子を比較した場合、

  • 白鳥の子と、普通のアヒルの子
  • 普通のアヒルの子と、他の普通のアヒルの子

それぞれの特徴は、同じくらいの特徴量(違い)を持つため、容易には見分けられない。

難しく言うと「ブール代数」という論理学の定理を表したものです。

 

モラベックのパラドックス

 

モラベックのパラドックス(Moravec's paradox)とは人工知能 (AI) やロボット工学の研究者らが発見したパラドックスで、伝統的な前提に反して「高度な推論よりも感覚運動スキルの方が多くの計算資源を要する」というものである。※wikipediaより

カナダ出身のロボット研究者であるモラベックスさんが提唱したパラドックスだそうです。

  • 赤ちゃんが行っているような人間のスキルは、人間(動物)が長期の歴史の中で会得したもの
  • 一見簡単だと思われる機能でも、機械に実装させるのは難しい

この領域に携わっていて常々思うのは、赤ちゃんの学習機能って目を見張るものがあるのですよね。

全く無の状態で生まれてきた彼らは、様々なインプットを経て世界の在り方を把握してしまいます。

これは今のところ人工知能には成し得ないレベルの事で、この難しさはNHKの番組「人間ってなんだ?超AI入門」の中で、東大の松尾先生も言及されていました。

 

 人間ってナンだ?超AI入門 - NHK
人間ってナンだ?超AI入門 - NHK

 

バーニーおじさんのルール

 

データ量の目安となる経験則は存在します。バーニーおじさんのルールと呼ばれるこの経験則は、「モデルのパラメータ数の10倍のデータ数が必要」というものです。

※ディープラーニング G検定(ジェネラリスト) 公式テキストP130 より

 

 

ちなみに、「バーニーおじさん」の正体はスタンフォード大学のBernard Widrow教授です。

出版社や本人に問い合わせた際の記事はこちらです。

 

バーニーおじさんの正体はスタンフォード大学の教授(JDLA ディープラーニング ジェネラリスト検定)

続きを見る

 

G検定「手抜き」合格テクニック


 

約一週間、計20時間の勉強時間で合格した私。

当サイトで紹介しているG検定「手抜き」合格テクニックをnoteの記事にまとめました。

時間の無い方は是非こちらをご覧ください。

 

 

その他、G検定関連のまとめ記事とおすすめ書籍はこちら。

合格ラインや過去問、勉強法、過去の合格発表タイミングなどなど、G検定関連だけで20本近くの記事があります。

是非これらを読んで合格して頂いて、次のレベルを目指してください。

 

【2020年版】G検定関連の記事まとめ(JDLA ディープラーニング ジェネラリスト検定)

続きを見る

 

おすすめ参考書


 

 

 

 

時間があるならオンライン講座


 

 

 

-スキルアップしたい

Copyright© 営業アップデート , 2020 All Rights Reserved.