機械学習

蒸留(知識蒸留)

読み方: じょうりゅう

蒸留(知識蒸留) とは

Knowledge Distillationの略称。大規模な「教師モデル」の知識を小規模な「生徒モデル」に転移させる手法。教師モデルの出力確率分布を模倣するように生徒モデルを学習させることで、推論速度を高速化しつつ精度を維持する。エッジデバイスへのモデルデプロイやAPIコスト削減に活用される。
用語集一覧に戻る

無料診断

あなたに合ったAIツールを今すぐ見つけよう

1,200以上のAIツールから、課題・業界・予算で絞り込み。資料請求不要。

AIツール診断をはじめる