BERTバート|AI・人工知能の用語

BERT(バート)とは、Bidirectional Encoder Representations from Transformers の略で、Googleが2018年に発表した自然言語処理のモデルです。

・Bidirectional : 双方向
・Encoder : アナログ情報をデジタル情報に変える装置など
・Representation : 表現
・Transformer : 変換するもの


日本語では、「トランスフォーマーによる双方向のエンコード表現」と訳されますが、BERT(バート)はTransformerという仕組みを使って、文章を文頭と文末の双方向から学習することが特徴です。

そのBERT(バート)には、どのようなメリットがあるのでしょうか。

1つは、(英語での)前置詞の意味を汲み取り、文脈を理解できるようになったこと。もう1つは、一つの学習モデルを他のタスク(利用方法、場面)にもチューニングして転用することで適用範囲が広がりAIの学習効率が向上したことです。

特に、利用者の立場からすると、AIが文脈を理解できるようになったことは大きいです。

それまでは、「東京から大阪に飛行機で」という検索をしても、結局は「東京 大阪 飛行機」という単語での検索と同じものでしかありませんでした。そのために、逆の意味である「大阪から東京に飛行機で行く」という検索結果も表示される仕組みでした。

それが、Googleの検索にBertが導入され10%の検索結果の精度向上がもたらされたとのことです。

コールセンター代行サービス(トップページ)

コールセンターBPO・コラム <一覧>