オンラインで情報を検索するには、時に創造性が求められます。検索クエリの表現方法によっては、Googleが返す結果がおかしくなることがあります。そのためGoogleは本日、「予測できないクエリ」に対しても自然言語をより適切に理解できるよう、検索機能を強化したと発表しました。
問題の一つは、私たち不完全な人間は、探しているものの綴りを必ずしも把握しているわけではないこと、あるいはコンピューターにとって意味のある表現を思いつくことさえできないことです。会話調でクエリを入力すると、意味不明な結果が返ってくるリスクがあります。だからこそ、Googleが「キーワード語法」と呼ぶ、関連する単語を並べて入力する手法の方がはるかに一般的になっています。コンピューターアルゴリズムにとっては、いわば赤ちゃん言葉のようなものと言えるでしょう。
https://[削除されたリンク]/thousands-of-reasons-that-we-shouldnt-trust-a-neural-ne-1836669838
この問題に対処するため、Googleはオープンソースのニューラルネットワークを用いて検索の自然言語処理能力を向上させていると発表しました。これは「Bidirectional Encoder Representations from Transformers(BERT)」と呼ばれ、簡単に言うと、検索アルゴリズムがキーワードだけに頼るのではなく、言語的文脈を考慮できるようにするものです。特に「for」や「to」といった前置詞は、通常の検索では検索を阻害する可能性があります。Googleが提供した例として、「2019 ブラジルから米国へ旅行する人はビザが必要」というクエリの検索結果があります。BERTを適用する前は、検索結果には米国民がブラジルへ旅行する際のバックリンクが表示されていました。

Googleは近年、Googleアシスタントで自然言語処理の分野で成功を収めています。SiriとAlexaに続く3大音声アシスタントの中で、アシスタントは会話中の指示や質問を理解し、回答する能力が最も優れています。もちろん完璧ではありませんが、私のアパートには3つすべてがあるので、Google Nest Hubに話しかける際に、それほど難しい言い回しを考える必要がありません。
Googleによると、BERTの導入により、米国における英語検索の10件に1件の割合で改善が見込まれるとのことです。ただし、BERTが将来的に他の言語にも展開されないというわけではありません。Googleは英語モデルの改善を進めており、現在、韓国語、ヒンディー語、ポルトガル語で大幅な改善が見られると述べています。