機械学習蒸留(知識蒸留)読み方: じょうりゅう蒸留(知識蒸留) とはKnowledge Distillationの略称。大規模な「教師モデル」の知識を小規模な「生徒モデル」に転移させる手法。教師モデルの出力確率分布を模倣するように生徒モデルを学習させることで、推論速度を高速化しつつ精度を維持する。エッジデバイスへのモデルデプロイやAPIコスト削減に活用される。関連用語LLM(大規模言語モデル)自然言語処理量子化機械学習エッジAI開発ファインチューニング自然言語処理機械学習の他の用語機械学習ディープラーニング(深層学習)ニューラルネットワーク教師あり学習教師なし学習強化学習用語集一覧に戻る