【AIF-C01】生成AI・生成モデル関連知識まとめ(勉強ログ#2)

AWS AI Practitioner

※本記事はAIF-C01の資格試験対策用に私が勉強した内容を備忘録として残したものです。想定問題を解いていて重要だ、ここは忘れそうだと感じた部分をまとめています。網羅的な解説記事ではありませんのでご容赦ください。

はじめに

さて今回は、AIF-C01(AWS Certified AI Practitioner)の資格試験対策として、生成AI・生成モデルについてまとめたいと思います。

資格試験に受かることだけを目標に、ポイントだけ抑えた記事となっていますので、気になった個所はより深く調べてみてくださいね。

それでは見ていきましょ~。

オススメ試験対策

試験対策にオススメなUdemy講座も載せておきますね。

基本的には過去問のみです。

とにかく問題を解きまくる!分からないところは私の勉強ログで知識を補填する。このようなサイクルで回してもらえるとすごく嬉しいです~。

目指せ試験合格!

生成AI・生成モデル関連

ユニモーダル vs. マルチモーダル

  • ユニモーダル:
    単一のデータ形式(例:テキスト、画像、音声)を対象に処理するため、処理系やモデル設計が比較的シンプルになります。
  • マルチモーダル:
    複数のデータ形式(例:テキストと画像、音声と映像など)を同時に扱い、情報間の相互補完や文脈理解を深めるため、より複雑な設計と計算リソースが求められます。

拡散モデル

拡散モデルは、入力データに徐々にノイズを加えていく「順方向プロセス」と、そのノイズを除去して元のデータを再現する「逆拡散プロセス」を学習する生成モデルです。

具体的には、まず実データに少しずつランダムなノイズを付加し、完全にノイズだけの状態に近づけます。その後、逆の手順でノイズを除去する方法を学習することで、新しいデータ(たとえば画像や音声)を生成できるようになります。これにより、非常に高品質かつ多様な生成結果が得られるのが特徴です。

例えば、以下が拡散モデルの具体例です。

  • Stable Diffusion:
    低解像度の潜在空間で動作し、計算資源の効率的な利用を図りながら高品質な画像などを生成できる点が特徴です。このアプローチにより、生成物の多様性と安定性が向上しています。

生成AIアーキテクチャ(Transformer、GAN、VAE)

  • Transformer:
    自己注意機構を利用し、並列計算と長距離依存性の効率的な学習を可能にするアーキテクチャです。BERTやGPTといった大規模言語モデルの基盤となり、自然言語処理分野で革新的な成果を上げています。
  • GAN(敵対的生成ネットワーク):
    生成ネットワークと識別ネットワークの二つのモデルが競合しながら学習を進めることで、リアルなデータに近い生成結果を得る手法です。画像生成やスタイル変換など、視覚的な品質向上に大きな役割を果たします。
  • VAE(変分オートエンコーダー):
    入力データを潜在変数に圧縮し、そこから再構築するプロセスを通じて、データの分布を学習する手法です。潜在空間上の連続的な表現を得ることができ、異常検知や画像再構築などで利用されます。

出力関連パラメータ

  • トップP:
    各生成ステップで候補となる単語の累積確率が指定した閾値pに達するまでの語彙からランダムに単語を選択する手法です。この方法では、低確率の候補は除外されるため、非現実的な出力を抑制し、より自然な文章生成を実現します。p値が低いと、出力はより決定的で保守的になり、逆にp値が高いと、生成される文章に多様性が生まれます。

トップPは単語候補の出力確率を制御するためのパラメータと覚えておきましょう。

  • トップK:
    各生成ステップで最も確率が高い上位K個の候補語から次の単語を選択する方法です。この方法により、候補語が多すぎて不自然な出力が生じるのを防ぎ、より合理的で質の高いテキスト生成が可能になります。K値が低いと、選択肢が限定され出力が決定的になりすぎる傾向があり、K値が高いと生成の多様性は向上するものの、ノイズが混入しやすくなるため、適切なバランスを見極めることが重要です。

トップKは出現確率の最も高い上位K個の候補から単語を選択させるためのパラメータと覚えておきましょう。

  • Temperature(温度):
    次に選ばれる単語の確率分布を調整するパラメータです。温度パラメータを上げると分布が平坦になり、より多様で予測不可能な単語が選ばれやすくなります。一方、温度を下げると分布が尖鋭化し、確率の高い単語が選ばれやすくなり、出力がより決定的になります。

Temperature(温度)は選ばれる単語候補の確立分布(確率の範囲)を調整するためのパラメータと覚えておきましょう。

  • 停止シークエンス:
    特定のトークンや文字列が出力された際に自動的に生成プロセスを終了する仕組みです。ユーザーが任意に設定でき、例えば「」や「。」といったシーケンスを指定することで、モデルがそのシーケンスに達した時点で出力を打ち切ります。

最後に

さて今回は、AIF-C01(AWS Certified AI Practitioner)の資格試験対策として、生成AI・生成モデルについてまとめました。

あくまでも私の備忘録ですが、このメモが皆さんのお役に立てればとても嬉しいです!是非この記事を読んで資格に合格できた!!等あれば励みになりますのでコメントください~。

前回まとめた記事はこちらです。

本ブログでは、AIF-C01以外の勉強記事もあげていますのでそちらも是非!!

コメント

タイトルとURLをコピーしました