Googleは、人工知能(AI)モデルを利用し、危機的状況に陥った人々に、より優れた検索結果を提示しようとしている。同社は米国時間3月30日、その概要を明らかにした。自殺、性的暴行、薬物乱用などのトピックについて、有害なコンテンツやショックを与える恐れのあるコンテンツを避けながら、信頼できる有益な情報を人々が必要とするタイミングで効果的に提供する狙いがある。
同社は、最新のAIモデル「MUM」(Multitask Unified Mode)を利用し、危機にある人々の検索を自動的に、より正確に検出できるとしている。これから数週間をかけて、MUMを導入し、このような改善を実現していくという。MUMは、質問の背景にある検索者の意図をより良く理解できるとGoogleは説明している。
また、MUMを利用し、検索結果でスパムが減少するよう、数カ月をかけて強化する。役立たない結果や危険な結果の検索順位が下がる可能性がある。
MUMは75の言語で訓練されている。Googleはこのような改善を世界で展開できる。
Googleのフェローで検索担当バイスプレジデントのPandu Nayak氏は、「MUMでは、(クエリーの性質を分類するなどの)あるタスクを実行するための1つのモデルを訓練すると、モデルは、知っているすべての言語でそのタスクを実行できるよう学習する」と説明している。
Googleは2021年の開発者会議「Google I/O」でMUMを披露した。その際、このAIモデルで検索結果をいかに改善できるかということについて、より商業的な例を紹介していた。MUMはマルチモーダルであり、ウェブページや画像などさまざまなフォーマットの情報を理解できる。MUMで強化された検索は、例えばブーツの写真を撮って富士山の登山に使えるかを質問すれば、システムが写真に写ったブーツを解析し、要求された質問に答えるようになるかもしれない。
また、Googleは言語モデル「BERT」で、好ましくない場合のある結果を大幅に削減していると説明した。2021年には、BERTの改善によって「予期しないショッキングな検索結果」が30%減少したという。
Nayak氏はBERTについて、「民族、性的指向、ジェンダーに関連する検索で露骨な内容を減少させる上で特に効果を発揮している。こうした内容は、女性、特に有色人種の女性に過大な影響を及ぼす場合がある」と述べている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス