自然言語処理

BERT

読み方: バート

BERT とは

Bidirectional Encoder Representations from Transformersの略。Googleが2018年に発表した双方向トランスフォーマーモデル。文章の左右両方向から文脈を理解するMasked Language Modelingで事前学習。テキスト分類・固有表現認識・質問応答などの下流タスクで高精度を達成した。
用語集一覧に戻る

無料診断

あなたに合ったAIツールを今すぐ見つけよう

1,200以上のAIツールから、課題・業界・予算で絞り込み。資料請求不要。

AIツール診断をはじめる