BERT(バート)とは、Bidirectional Encoder Representations from Transformers の略で、Googleが2018年に発表した自然言語処理のモデルです。
・Bidirectional : 双方向
・Encoder : アナログ情報をデジタル情報に変える装置など
・Representation : 表現
・Transformer : 変換するもの
日本語では、「トランスフォーマーによる双方向のエンコード表現」と訳されますが、BERT(バート)はTransformerという仕組みを使って、文章を文頭と文末の双方向から学習することが特徴です。
そのBERT(バート)には、どのようなメリットがあるのでしょうか。
1つは、(英語での)前置詞の意味を汲み取り、文脈を理解できるようになったこと。もう1つは、一つの学習モデルを他のタスク(利用方法、場面)にもチューニングして転用することで適用範囲が広がりAIの学習効率が向上したことです。
特に、利用者の立場からすると、AIが文脈を理解できるようになったことは大きいです。
それまでは、「東京から大阪に飛行機で」という検索をしても、結局は「東京 大阪 飛行機」という単語での検索と同じものでしかありませんでした。そのために、逆の意味である「大阪から東京に飛行機で行く」という検索結果も表示される仕組みでした。
それが、Googleの検索にBertが導入され10%の検索結果の精度向上がもたらされたとのことです。