自然言語処理

BERT

読み方: バート

BERT とは

Bidirectional Encoder Representations from Transformersの略。Googleが2018年に発表した双方向トランスフォーマーモデル。文章の左右両方向から文脈を理解するMasked Language Modelingで事前学習。テキスト分類・固有表現認識・質問応答などの下流タスクで高精度を達成した。
用語集一覧に戻る