機械学習蒸留(知識蒸留)読み方: じょうりゅう蒸留(知識蒸留) とはKnowledge Distillationの略称。大規模な「教師モデル」の知識を小規模な「生徒モデル」に転移させる手法。教師モデルの出力確率分布を模倣するように生徒モデルを学習させることで、推論速度を高速化しつつ精度を維持する。エッジデバイスへのモデルデプロイやAPIコスト削減に活用される。関連用語LLM(大規模言語モデル)自然言語処理量子化機械学習エッジAI開発ファインチューニング自然言語処理蒸留(知識蒸留)に関連するAIツールRev AI高精度音声認識APIプラットフォーム。リアルタイム・バッチの音声文字起こしAPIを提供。カスタム語彙・話者分離に対応し、...OpenRouter複数のAIモデルを統一APIで利用できるゲートウェイ。GPT-4、Claude、Gemini、Llama等100以上のモ...Anthropic APIClaude AIモデルのAPI。Claude 3.5 Sonnet/Haiku等の高性能モデルをAPI経由で利用。長文...OpenAI APIGPT-4o、DALL-E、Whisper、TTS等のOpenAIモデルをAPI経由で利用。世界で最も利用されているAI...機械学習の他の用語機械学習ディープラーニング(深層学習)ニューラルネットワーク教師あり学習教師なし学習強化学習用語集一覧に戻る