自然言語処理LoRA(低ランク適応)読み方: ローラLoRA(低ランク適応) とはLow-Rank Adaptationの略。大規模モデルのファインチューニングを少ないGPUメモリで実現するパラメータ効率的な手法。元のモデルの重みを固定し、低ランク行列の追加パラメータのみを学習する。消費者向けGPUでもLLMの追加学習が可能になり、個人・中小企業への普及を促進した。関連用語ファインチューニング自然言語処理LLM(大規模言語モデル)自然言語処理PEFT(パラメータ効率的ファインチューニング)機械学習LoRA(低ランク適応)に関連するAIツールCivitaiCivitaiは、AIアートの発見と創造のためのプラットフォームです。多様なAIモデルや画像を探求し、ユニークなコンテン...自然言語処理の他の用語LLM(大規模言語モデル)自然言語処理(NLP)トランスフォーマーGPTBERTプロンプトエンジニアリング用語集一覧に戻る