自然言語処理LoRA(低ランク適応)読み方: ローラLoRA(低ランク適応) とはLow-Rank Adaptationの略。大規模モデルのファインチューニングを少ないGPUメモリで実現するパラメータ効率的な手法。元のモデルの重みを固定し、低ランク行列の追加パラメータのみを学習する。消費者向けGPUでもLLMの追加学習が可能になり、個人・中小企業への普及を促進した。関連用語ファインチューニング自然言語処理LLM(大規模言語モデル)自然言語処理PEFT(パラメータ効率的ファインチューニング)機械学習LoRA(低ランク適応)に関連するAIツールMemAI搭載のメモ・ナレッジベースツール。メモを取るだけでAIが自動整理・関連付け。自然言語で過去のメモを検索・要約。第二の...CivitaiStable Diffusionのカスタムモデル、LoRA、テクスチャなどを共有するコミュニティプラットフォーム。数千の...Cohere企業向けLLM APIを提供するプラットフォーム。テキスト生成、エンベディング、再ランキング、分類タスクに特化し、RAG...Mistral AIフランス発のLLM開発企業。オープンソースのMistral 7BからプロプライエタリのMistral Largeまで、様...自然言語処理の他の用語LLM(大規模言語モデル)自然言語処理(NLP)トランスフォーマーGPTBERTプロンプトエンジニアリング用語集一覧に戻る