【AIF-C01】ファインチューニング手法関連知識まとめ(勉強ログ#7)

AWS AI Practitioner

※本記事はAIF-C01の資格試験対策用に私が勉強した内容を備忘録として残したものです。想定問題を解いていて重要だ、ここは忘れそうだと感じた部分をまとめています。網羅的な解説記事ではありませんのでご容赦ください。

はじめに

さて今回は、AIF-C01(AWS Certified AI Practitioner)の資格試験対策として、ファインチューニング手法についてまとめたいと思います。

資格試験に受かることだけを目標に、ポイントだけ抑えた記事となっていますので、気になった個所はより深く調べてみてくださいね。

それでは見ていきましょ~。

オススメ試験対策

試験対策にオススメなUdemy講座も載せておきますね。

基本的には過去問のみです。

とにかく問題を解きまくる!分からないところは私の勉強ログで知識を補填する。このようなサイクルで回してもらえるとすごく嬉しいです~。

目指せ試験合格!

ファインチューニング手法

PEFT(パラメータ効率の良いファインチューニング)

PEFTは、基盤となる大規模モデル全体を更新するのではなく、タスク固有のアダプターレイヤーのみを追加して学習させる手法です。

このアプローチにより、計算リソースとメモリ使用量を大幅に削減しながら、特定タスクに合わせたモデルのカスタマイズが可能となります。

LoRA(Low-rank adaptation)

LoRAは、元のモデルパラメータは固定し、各層に低ランクの行列を導入して学習する手法です。

これにより、必要なパラメータ数が大幅に削減され、効率的なファインチューニングが実現されます。

元の大規模モデルの性能を維持しつつ、特定タスクに対して微調整を加えることが可能です。

ReFT(Representation Fine-Tuning)

ReFTは、モデル全体の重みを変更せずに、隠れ層の表現部分だけをタスク固有に最適化する手法です。

これにより、既存の汎用表現を活かしながら、必要な部分のみを調整して性能向上を図ることができます。

マルチタスクファインチューニング

複数の関連タスクを同時に学習させ、共通する表現を獲得することで、各タスクにおける性能を向上させる手法です。

タスク間での知識の共有により、個々のタスクだけで学習する場合に比べ、より堅牢で汎用的なモデルが得られます。

ただし、学習には大量のデータと精緻なハイパーパラメータの調整が必要となります。

RLHF(人間フィードバックによる強化学習)

RLHFは、モデルの出力に対して人間からの評価やフィードバックを取り入れ、そのフィードバックを基に強化学習を行う手法です。

これにより、モデルが出力する内容を人間の好みや倫理基準に沿ったものに調整し、より信頼性の高い応答を生成することが可能になります。

最後に

さて今回は、AIF-C01(AWS Certified AI Practitioner)の資格試験対策として、ファインチューニング手法についてまとめました。

あくまでも私の備忘録ですが、このメモが皆さんのお役に立てればとても嬉しいです!是非この記事を読んで資格に合格できた!!等あれば励みになりますのでコメントください~。

前回まとめた記事はこちらです。

本ブログでは、AIF-C01以外の勉強記事もあげていますのでそちらも是非!!

コメント

タイトルとURLをコピーしました