機械学習セルフアテンション読み方: セルフアテンションセルフアテンション とはTransformerアーキテクチャの中核機構。文中の各トークンが他のすべてのトークンとの関連度(アテンションスコア)を計算し、文脈を考慮した表現を獲得する。「銀行」が「川の銀行」と「金融機関の銀行」で異なる意味を持つことを文脈から判断できる。Multi-head Attentionで複数の観点を同時に学習する。関連用語トランスフォーマー自然言語処理LLM(大規模言語モデル)自然言語処理ディープラーニング(深層学習)機械学習機械学習の他の用語機械学習ディープラーニング(深層学習)ニューラルネットワーク教師あり学習教師なし学習強化学習用語集一覧に戻る