5月12日、Googleは開発者向けイベント 「Google I/O 2022」 を開催。イベントのなかで同社スマートディスプレイ 「Nest Hub Max」 の新機能を発表した。
今回発表された 「Nest Hub Max」 の新機能は、スマートディスプレイを呼び起こすための機能 「Look and Talk」 「クイックフレーズ」 だ。
Look and Talk
Look and Talkは、Nest Hub Maxを見つめるだけでGoogleアシスタントをアクティブ状態にできるというもの。
Googleのスマートスピーカー/スマートディスプレイは 「ねぇ Google」 「OK Google」 のウェイクワードで音声操作をはじめることが可能だが、Look and Talkはデバイスを見つめるだけで、話しかけることが可能になる。
搭載されたカメラで、ユーザーから見つめられていることを認識する。バックグランドでは、Googleの6つの機械学習モデルを利用することでユーザーの頭の動きや視線の向き、唇の動き、文脈や意図の分析など、100以上のシグナルからユーザーがNest Hub Maxに話しかけているかどうかを判断できるという。
これらのシグナルはすべてオンデバイスで処理され、クラウドに送信されることはなく、プライバシーに配慮されているとGoogleは強調している。
なお、Look and TalkによるGoogleアシスタントの呼び出しは画面をタップすることでキャンセル可能だという。
利用するにはGoogleアシスタントに自身の声を認識させるVoice Match、顔を認識させるFace Matchを有効にする必要があるとのこと。
Look and Talk機能は、米国では今週からAndroidユーザー向けに提供開始となる。iOSユーザー向けには5月中旬頃に提供されるとのことだ。ほか言語・地域における実装は未定。
クイックフレーズ
クイックフレーズ機能は、「ねぇ Google」 「OK Google」 のウェイクワードが不要で音声操作できるというもの。Pixel 6シリーズで先行実装されているものになるが、ついに 「Nest Hub Max」 でも利用可能になる。
この機能が利用できるのは、特定のシチュエーションのみに限られる。例えばアラームやタイマーが鳴った際に 「ストップ」 「スヌーズ」 ということで、アラームを操作することが可能。電話着信時に 「応答する」 「拒否する」 ということで着信をどうするか音声で操作することも可能だ。
他にもライトのオン/オフや、時間・天気を尋ねたりも可能。利用するにはGoogleアシスタントに自身の声を認識させるVoice Matchを有効化する必要がある。
同機能は、米国ユーザー向けに今夏に提供予定。ほか言語・地域における実装は未定となっている。
Googleは上記発表のほか、Googleアシスタントの会話をスムーズにする取り組みを発表した。ユーザーの発言を機械学習で分析し、「うーん」 「えーっと」 など言葉がすぐ出てこないときに発する言葉を無視できるようになったり、言葉に詰まったときの沈黙も理解できるようになるとのことだ。
このGoogleアシスタントのアップデートは、早ければ2023年初頭に実装予定であるとのこと。ただし、日本語が対応するかどうかについては未定となっている。
関連リンク:Have more natural conversations with Google Assistant – The Keyword
(画像:Google)