自然言語処理BERT読み方: バートBERT とはBidirectional Encoder Representations from Transformersの略。Googleが2018年に発表した双方向トランスフォーマーモデル。文章の左右両方向から文脈を理解するMasked Language Modelingで事前学習。テキスト分類・固有表現認識・質問応答などの下流タスクで高精度を達成した。関連用語トランスフォーマー自然言語処理LLM(大規模言語モデル)自然言語処理自然言語処理(NLP)自然言語処理ファインチューニング自然言語処理自然言語処理の他の用語LLM(大規模言語モデル)自然言語処理(NLP)トランスフォーマーGPTプロンプトエンジニアリングRAG(検索拡張生成)用語集一覧に戻る