Googleアシスタント:チートシート - TechRepublic

Googleアシスタント:チートシート - TechRepublic
Googleアシスタント
画像: Google

Googleの使命は「ユーザーにとってより役立つGoogleを作ること」だと、Googleのデバイスおよびサービス担当上級副社長リック・オスターロー氏は2019年10月に開催されたMade by Googleイベントで述べた。サービスの統合をさらに進める方法の1つは、2016年に最初にリリースされた人工知能(AI)搭載のGoogleアシスタントを継続的に改良することだ。

スマートフォンユーザー、AIファン、そして企業の意思決定者の方々にGoogleアシスタントの機能とその重要性を理解していただくため、このチートシートに最も重要な詳細とリソースをまとめました。この記事は、新たな関連情報が公開されるたびに更新・更新されます。

参照:Google Pixel 5:チートシート(TechRepublic)

エグゼクティブサマリー

  • Google アシスタントとは何ですか? Google アシスタントは、Google が開発した会話型の音声起動型デジタル アシスタントで、ユーザーに代わってアクションを実行したり、状況に応じた情報を提供したりすることができます。
  • Google アシスタントはなぜ重要なのでしょうか。Googleアシスタントが重要なのは、Google の将来の AI ファースト戦略の要となるためであり、ユーザーが Google のほぼすべてのコア製品とどのようにやり取りするかを定義することになる可能性が高いからです。
  • Googleアシスタントは誰に影響を与えるのでしょうか? Googleエコシステムに投資している消費者が影響を受けるでしょう。また、他のスマートフォンメーカーも、競合するAI製品の開発や買収を迫られる可能性があります。
  • Google アシスタントはいつリリースされましたか? Google アシスタントは、2016 年 5 月に開催された Google I/O 開発者会議で初めて発表され、2016 年 10 月 20 日に Google Pixel スマートフォンで初めて利用可能になりました。2017 年の Google I/O 会議では、iPhone 向けの Google アシスタントのサポートが発表されました。2019 年の Made by Google イベントでは、新機能と改善点が発表されました。2021 年の Google I/O イベントでは、追加の機能と改善点が発表されました。
  • Google アシスタントはどのように使用すればいいですか? Google アシスタントは、一部のプレミアム Android 端末、iPhone、Google Home、Google のスマート チャット アプリ Allo、Android TV、一部の Wear OS スマートウォッチおよびデバイス、Android Auto 統合型の一部の車で利用できます。

参照: IoT セキュリティ: IT リーダー向けガイド(TechRepublic Premium)

Google アシスタントとは何ですか?

Googleアシスタントは、2016年にカリフォルニアで開催されたGoogle I/Oカンファレンスで初めて発表された音声起動型のバーチャルアシスタントです。AmazonのAlexa、AppleのSiri、MicrosoftのCortanaと同様に、Googleアシスタントは状況に応じた情報を提供し、レストランの予約やユーザーに代わってのメッセージ送信などの操作を実行します。スマートフォンユーザーは、音声入力を使いたくない場合は、Googleアシスタントにリクエストを直接入力することもできます。

Googleアシスタントは、自然言語処理や機械学習といった人工知能(AI)技術を活用し、ユーザーの発話内容を理解し、入力された言語に基づいて提案やアクションを実行します。Googleアシスタントは、CEOのサンダー・ピチャイが2016年のMade by Googleイベントで述べたGoogleの「AIファースト」戦略の基盤となるものです。

参照: Google アシスタントをテキスト翻訳機として使用する方法(TechRepublic)

Googleアシスタント以前に、GoogleはGoogle Nowという別のデジタルアシスタントソフトウェアを開発していました。Google Nowは技術的には現在も運用されていますが、両プラットフォームには微妙な違いがあります。Google NowはAndroidまたはiOSで利用可能なアプリ内で動作しますが、GoogleアシスタントはGoogle Alloなどの特定の製品や一部のスマートフォンでのみ利用可能です。Google Nowはその後段階的に廃止され、その機能はGoogleの他の製品に統合されました。

ピチャイ氏は以前、Googleアシスタントの目標は「ユーザー一人ひとりに合わせたパーソナルなGoogleを構築すること」だと述べていた。Googleアシスタントは、Googleのコアソフトウェアおよびハードウェア製品すべてを繋ぐ結合組織のようなものだ。

参照: TechRepublic のすべてのチートシートと賢い人向けガイド

Google アシスタントが重要な理由は何ですか?

Googleアシスタントは、その機能や機能よりも、Googleの消費者向け製品へのアプローチの将来において、それが何を意味するかという点で重要です。前述の通り、Googleは、テクノロジーの世界がウェブからモバイルへと移行したように、進化の次の段階はモバイルからAIへと移行することだと考えています。

ハードウェアのコモディティ化が進むにつれ、スマートフォンメーカーは次世代ソフトウェアとAIを通じて何を提供できるかで競争を強いられるようになります。また、このAIへのアクセスを共有する製品とデバイスのエコシステムを構築する必要があります。Googleアシスタントは様々なAndroidスマートフォンに組み込まれているだけでなく、スマートチャットアプリAlloでも機能し、Google Homeスマートスピーカーや様々なデバイスアプリの重要な構成要素となっています。

他の企業も同様の軌跡を辿っています。サムスンはViv Labsを買収し、最終的にサムスンのパーソナルアシスタントであるBixbyを開発しました。マイクロソフトは、ゲーマーに音声コマンドを提供するために、Xbox OneとWindows 10にCortanaを搭載し、AppleはパーソナルアシスタントであるSiriをほとんどの製品に統合しました。

Google アシスタントは誰に影響を与えますか?

Google アシスタントの登場は、Google エコシステムの消費者に影響を与えます。対応の Android スマートフォンを購入したスマートフォンユーザーや、Google Home などのスマートホームデバイスのファンは、Google アシスタントを使ってよりつながりを保ち、日常生活の多くの部分を自動化できるようになります。Google アシスタントを搭載した Google Home 1 台で、複数のユーザーの質問や指示を認識し、先回りしてサポートしたり、ハンズフリー通話を提供したりできます。また、Google アシスタントは、Google Home からのリクエストに対する視覚的な応答をユーザーのスマートフォンや、接続された特定のテレビやスマートディスプレイにプッシュしたり、音楽をストリーミングしたりすることもできます。

しかし、Google アシスタントは SmartThings と連携し、iPhone や一部の Android Auto 対応車両でも利用できるため、この技術の適用範囲はかなり広くなっています。ユーザーは Chromecast デバイスを Google アシスタントにリンクさせることさえ可能です。

参照: Google が組み込み Google Assistant SDK と開発者向けツールを計画(ZDNet)

GoogleアシスタントはAIを活用したサービスに全く新しい可能性をもたらすため、開発者にも大きな影響を与えるでしょう。Googleはハードウェアベンダーや開発者向けにGoogleアシスタントSDKもリリースしており、これを使用することでGoogleアシスタントを自社製品に統合できます。

Google Assistantは市場に新たな主要プレーヤーを加えるため、他のスマートホームデバイスメーカーも影響を受けるでしょう。Amazon AlexaはAmazon EchoとAmazon Dotで圧倒的なリードを築いていますが、エコシステムの拡大に伴い、ホームオートメーション分野でGoogle Homeとの激しい競争に直面しています。

Google アシスタントはいつリリースされましたか?

Googleは、2016年5月にカリフォルニア州マウンテンビューのショアライン・アンフィシアターで開催された第10回Google I/O開発者イベントで、Googleアシスタントを初めて発表しました。2016年9月には、Googleアシスタントの最初のプレビューの一つとして、スマートメッセージングアプリ「Google Allo」がリリースされました。

Google アシスタントを搭載した最初のスマートフォン、Google Pixel スマートフォンは、2016 年 10 月 4 日に発表されました。同日、予約注文が開始され、2016 年 10 月 20 日に店頭に並びました。

Google Assistant も搭載する Google Home は、2016 年 11 月 4 日に一般公開されました。

Google アシスタントは、新しい機能と統合により定期的に更新され続けます。

Google アシスタントを使うにはどうすればいいですか?

Googleアシスタントを活用したいユーザーは、デジタルパーソナルアシスタントを機能として提供する製品(Google Home、Googleアシスタント対応の各種スマートフォン、Wear OSデバイス、Android TV、Googleアシスタント対応のAndroid Auto搭載車、チャットアプリGoogle Alloなど)のいずれかを購入する必要があります。GoogleアカウントでGoogleアシスタントを使い始めたら、提供される情報の質を高めるために、頻繁に利用することが重要です。

ユーザーは「Hey Google」または「OK Google」と話しかけることで、Googleアシスタントの聞き取りを開始します。これまでは、アシスタントを起動するたびにこれらのフレーズのいずれかを言う必要がありましたが、2018年のI/O開発者会議で発表された「Continued Conversation(継続会話)」という新機能により、アシスタントが会話の合図を捉えてコマンドを聞き続けることができるため、実際に双方向の会話が可能になります。

当初は単一のタスクしか実行できませんでしたが、Google I/O 2018に先立ち、Googleは「ルーティン」と呼ばれる新機能を発表しました。この機能により、アシスタントは単一の音声コマンドで複数のアクションを連続して処理できるようになります。例えば、「OK Google、ただいま」と話しかけると、照明が点灯し、音楽が再生されるようになります。

Googleアシスタントは、アプリを起動したり、提案したり、天気を教えてくれたり、音楽を再生したり、リマインダーを設定したりと、他のデジタルアシスタントで一般的に可能な機能をすべて備えています。しかし、2018年のI/O基調講演で発表されたDuplexという技術により、Googleアシスタントは電話をかけたり、予約を取ったりすることもできます。I/O基調講演では、アシスタントがヘアサロンに電話をかけ、女性の予約を入れるというライブデモが行われました。電話中のアシスタントはまるで人間のように話し、適切な指示に反応し、特定のサービスを一定の時間内に予約することができました。

Google アシスタントは30の言語に対応し、6種類の音声からお選びいただけます。そのうちの1つは、受賞歴のあるミュージシャン、ジョン・レジェンドと、俳優兼コメディアンのイッサ・レイの音声です。Google アシスタントで利用できる最新のアクションの多くは、「探す」機能で見つけることができます。

2020年9月、GoogleはPixelデバイス向けの新機能「Hold for Me」を発表しました。この機能により、GoogleアシスタントはPixelユーザーのカスタマーサービス保留を監視できるようになります。電話に出るのを待つ代わりに、アシスタントが回線を監視し、誰かが電話に出る際にユーザーに通知します。この機能はPixel 5とPixel 4aのみで利用可能で、将来的には旧型のPixelデバイスでも利用可能になる予定です。Googleは、この機能が将来的にPixel以外のデバイスでも利用可能になるかどうかについては言及していません。

埋め込み可能な SDK の利用にサインアップしたい開発者や企業は、ここから始めることができます。

参照:採用キット: Android 開発者(TechRepublic Premium)

2021 年 5 月 19 日、Google は仮想 Google I/O イベントで、開発者とユーザー向けの新機能と改善点をいくつか発表しました。最初に発表されたのは、Android 開発者がアプリで Google アシスタント ユーザーからのクエリを簡単に処理できるようにし、Android アプリを Google アシスタントと統合できるモバイル アプリ アクションです。この機能により、ユーザーは音声コマンドを使用して、アプリ内の最も興味深く便利なポイントにジャンプできます。開発者は、ユーザー インテントをアプリ内の特定の機能や手順にマッピングすることにより、Android Studio 経由でアプリ アクションを有効にできます。アプリ アクションでカスタム インテントがサポートされるようになったため、開発者独自の機能に一致するアプリ アクションを構築できます。組み込みインテントを使用すると、アプリ アクションはアプリのアクションとコンテンツを Android と Google 全体で表示します。

また、共通インテントと垂直インテントのサポートを宣言できる新しいフレームワークAPIであるCapabilities APIも発表されました。これは、アプリがサポートする組み込みインテントをAndroidに適した方法で宣言する方法を提供します。2021年5月19日よりベータ版として利用可能です。Android 12では、開発者がAndroidショートカットの作成に参加できるようになりました。

Android ショートカットを使用すると、ユーザーは開発者アプリ内でショートカットを活用したパーソナル音声コマンドを設定できます。Google はまた、ユーザーがアプリ内で対応するアクションを実行するたびにショートカットを有効にする新しいショートカット Jetpack モジュールも提供しています。開発者は、アプリでサポートされるディープリンクのセットをショートカット XML に直接記述し、新しいショートカット Jetpack モジュールを使用して、Android システムと Google アシスタントに無制限のショートカットをプッシュできます。

Googleによると、ウィジェットの導入により、インタラクティブ性とカスタマイズ性が向上し、ユーザーはホーム画面でより多くのことを行えるようになりました。Android 12では、ウィジェットは一貫性のあるデザインとルックアンドフィールを維持しながら、アプリをインタラクティブかつカスタマイズ可能なビューで操作できます。ウィジェットは、モバイル、ロック画面、Android Autoなど、様々な新しいデバイスでVoice On Assistantを介してユーザーに届き、より使いやすくなりました。

音声操作によるインタラクションは、テキスト読み上げ(TTS)によるマルチターンフローのサポートにより、ユーザーが音声で簡単な操作を完了できるようにします。開発者はCapabilities APIを使用して、特定の組み込みインテントをウィジェットにマッピングできます。これにより、ユーザーはGoogleアシスタントからウィジェットを呼び出し、音声向けに最適化できます。同社によると、目標はAndroidアプリとGoogleアシスタントの統合を可能な限り容易にすることです。

参照:モノのインターネット (IoT) の 5 つのイノベーション (無料 PDF) (TechRepublic)

スマートディスプレイ向けGoogle Native Assistant開発は、ゲーム、ストーリー、教育のためのインタラクティブなキャンバスを備えています。より高速でシンプル、そして低レイテンシのCanvas APIは、クライアントサイドのTTS、自然言語理解、そしてストレージをサポートします。この機能は開発者がオプションで利用でき、開発者プレビューで「近日中に利用可能」になる予定です。

また、リリース管理機能も近日中にリリースされます。これにより、開発者は段階的にリリースすることでコンソールでリリースを管理できるようになります (たとえば、1 つの国でリリースしたり、一定の割合のユーザーに対してリリースしたりすることができます)。

Googleはスマートディスプレイのユーザーエクスペリエンスの改善も発表しました。これにより、ユーザーは完全で没入感のある体験を楽しめるようになります。また、スマートディスプレイをタップした際にTTSが中断されることがなくなり、全画面キャンバス機能が導入され、Media APIも改善されました。

最後に、Googleはスマートディスプレイでのデバイス内CVC入力とデバイス内クレジットカード入力を近日中に提供開始すると発表しました。これらの機能により、デバイス内での取引が大幅に簡素化され、ユーザーがモバイルデバイスにリダイレクトされる可能性が減ります。

編集者注:この記事は Conner Forrest によって執筆され、Brandon Vigliarolo と Kristen Lotze によって更新されました。

Tagged: