※本記事はAI-900の資格試験対策用に私が勉強した内容を備忘録として残したものです。想定問題を解いていて重要だ、ここは忘れそうだと感じた部分をまとめています。網羅的な解説記事ではありませんのでご容赦ください。
はじめに
さて今回は、AI-900(Microsoft Certified:Azure AI Fundamentals)の資格試験対策として、機械学習の基礎知識と評価手法についてまとめたいと思います。
資格試験に受かることだけを目標に、ポイントだけ抑えた記事となっていますので、詳しく知りたい方はMicrosoftの公式HPでしっかり学習してください。
それでは見ていきましょ~。
オススメ試験対策
オススメの試験対策用Udemy講座も載せておきますね。
以下は体系的に知識を学ぶのにぴったりです。

体系的に学習した後は、過去問を解きまくりましょう。以下の模擬問題集がオススメなので是非!

機械学習(ML:Machine Learning)
機械学習とは、明示的にプログラムを書かなくても、データからパターンを学習し、予測や分類などのタスクを実行する技術です。機械学習の主な種類は以下の通りです。
種類 | 説明 | 例 |
---|---|---|
教師あり学習 | 入力データと正解ラベルをセットで学習する | 回帰、分類 |
教師なし学習 | 正解ラベルなしでデータの構造を学習する | クラスタリング |
強化学習 | 試行錯誤を通じて最適な行動を学習する | 自動運転 |
教師あり学習は「正解を教えてもらって予測する」、教師なし学習は「正解なしで予測する」的なイメージを持ちましょう。
また、例として、教師あり学習 = 回帰、分類、教師なし学習 = クラスタリングはめちゃくちゃ出るので覚えておきましょう。
学習タイプ | 主なタスク | 目的 | 出力例 | 代表的なアルゴリズム |
---|---|---|---|---|
教師あり学習 | 回帰(Regression) | 数値予測(連続値) | 住宅価格の予測 | 線形回帰、決定木回帰 |
教師あり学習 | 分類(Classification) | カテゴリ分類(ラベルあり) | スパム判定、病気診断 | ロジスティクス回帰、SVM |
教師なし学習 | クラスタリング(Clustering) | 似たデータをグループ化 | 顧客セグメント分析 | K-means、階層的クラスタリング |
回帰には色々と種類があるので覚えておきましょう。
回帰モデル | 目的 | 特徴 | 例 |
---|---|---|---|
線形回帰 | 数値予測 | 特徴量とターゲット(ラベル)の間の関係を直線(y = ax + b)で表す手法 | 家の価格予測 |
ロジスティック回帰 | 分類 | 分類(Yes/No, 1/0 など)を行うモデル 結果が確率となる | スパム判定 |
多重線形回帰 | 数値予測 | 複数の特徴量を使って数値を予測する線形回帰の拡張版 | 価格予測(面積 + 築年数) |
また、機械学習ではほかにも重要な技術があります。
技術 | 説明 |
---|---|
畳み込みニューラルネットワーク(CNN: Convolutional Neural Network) | 畳み込みニューラルネットワーク(CNN)は、深層学習の一種で、特に画像認識や画像分類に優れた性能を発揮します。人間の視覚野の働きを模倣して、画像の局所的な特徴を抽出するために「畳み込み層」を用います。 |
トランスフォーマー(Transformer) | 主に自然言語処理や機械翻訳などで使われるディープラーニングのモデルアーキテクチャの一つです。 ・自己注意機構(Self-Attention): 入力データ内の各要素が、他の全ての要素とどのように関係しているかを効率的に計算することで、文脈を的確に捉えます。 ・並列処理: 従来のRNNやLSTMとは異なり、シーケンシャルな処理を必要とせず、全ての単語を同時に処理できるため、学習速度が速く、大規模なデータセットにも対応しやすいです。 ・層状の構造: エンコーダとデコーダの2つの部分から成り、各層で自己注意機構やフィードフォワードネットワークを重ねることで、複雑な言語のパターンや文脈情報を深く学習します。 |
マルチモーダル モデル(Multimodal Model) | 複数の種類のデータ(例:テキスト、画像、音声、動画など)を同時に処理・統合するディープラーニングの手法です。 |
機械学習における重要な概念
機械学習のモデルを構築する際、データの前処理や特徴量の選択がモデルの精度に大きな影響を与えます。
特徴量エンジニアリング(Feature Engineering)
前提として特徴量とは、機械学習モデルが学習するためのデータの属性や変数です。いかにして特徴量を決定するかが重要となります。
このうち特徴量エンジニアリングとは、データを前処理し、モデルが学習しやすい特徴量を作成するプロセス です。
手法 | 説明 | 例 |
---|---|---|
特徴量の選択(Feature Selection) | 重要な特徴量のみを使用 | 「駅からの距離」が価格に影響するなら「部屋の色」は不要 |
特徴量の変換(Feature Transformation) | 特徴量をスケール変換し、均一化 | 面積(㎡)を対数変換してスケールを調整 |
変数変換(Variable Transformation) | 特徴量を数学的に変換し、より良い関係を見つける | 「築年数」→「老朽度スコア」への変換 |
カテゴリデータの処理(Categorical Data Handling) | 数値化できないデータをエンコーディング | 「都道府県」→ 1,2,3 のように変換(One-Hot Encoding) |
欠損値処理(Missing Value Handling) | 欠損データを補完・削除 | 平均値や中央値で埋める |
次元削減(Dimensionality Reduction) | 高次元データを圧縮し、計算コストを削減 | PCA(主成分分析)を使用 |
過学習(Overfitting)
過学習とは、モデルが訓練データに適応しすぎて、新しいデータに対して適切に予測できない状態 のこと。学習させすぎて、予測に偏りが生じてしまうような現象ですね。
データの分割(Data Splitting)
モデルの性能を正しく評価するため、データセットを「訓練データ」「検証データ」「テストデータ」に分割することが重要です。
データセット | 役割 | 割合の目安 |
---|---|---|
訓練データ(Training Data) | モデルの学習に使用 | 70~80% |
検証データ(Validation Data) | モデルのチューニング(ハイパーパラメータ調整)に使用 | 10~15% |
テストデータ(Test Data) | 最終的なモデルの評価に使用 | 10~15% |
機械学習の評価手法
混同行列(Confusion Matrix)
混同行列は、分類モデルの予測結果と実際の正解データの関係を整理した表 です。
予測:Positive(陽性) | 予測:Negative(陰性) | |
実際:Positive(陽性) | 真陽性(TP:True Positive) 陽性と予測して実際に陽性→予測が当たっていた | 偽陰性(FN:False Negative) 陰性と予測して実際は陽性→予測が間違っていた |
実際:Negative(陰性) | 偽陽性(FP:False Positive) 陽性と予測して実際は陰性→予測が間違っていた | 真陰性(TN:True Negative) 陰性と予測して実際に陰性→予測が当たっていた |
例えば、False Negative(FN)は医療分野では重大なミスとなります。「病気がない」と予測して間違っていたわけですからね。こういった実用的な理解が求められます。
正解率(Accuracy)
正解率(Accuracy) は、全予測のうち 正しく予測した割合 を示す評価指標です。
正解率(Accuracy)= (TP + TN) / (TP + TN + FP + FN)
で求められます。混同行列を理解していれば簡単ですね。
ちなみに評価指標は他にもありますが、いったんここまでにしておきます。
試験合格体験記
私の合格体験記も載せておきますので、是非参考になればと思います。
6時間程度の勉強で私は合格できました!
別に私がスゴイわけでもなく、誰でもこのくらいの時間で十分合格を狙えるはずです!
最後に
さて今回は、AI-900(Microsoft Certified:Azure AI Fundamentals)の資格試験対策として、機械学習の基礎知識と評価手法についてまとめました。
あくまでも私の備忘録ですが、このメモが皆さんのお役に立てればとても嬉しいです!是非この記事を読んで資格に合格できた!!等あれば励みになりますのでコメントください~。
前回まとめた記事はこちらです。
本ブログでは、AI-900以外の勉強記事もあげていますのでそちらも是非!!



コメント