Conversations "Basics"の日本語訳です

注: この日本語訳は、翻訳時点での内容が反映されています。そのため、既に古い記載内容となっている可能性があります。必ず最新の情報を Actions on Google Document で確認してください。

Googleアシスタントが生息するデバイスは主に2つの形態があります。Googleアシスタント向けアプリの開発では、これらの存在を意識して、ユーザに最適なUIを提供しなければなりません。

  • 音声のみのデバイス(Google Homeのような)。
  • 音声と画面を持つデバイス(Androidのような)。

Actions on GoogleのドキュメントにあるConversations - Basicsにて、それらの概要が説明されています。以下はその日本語訳です。


会話の基本

アプリの開発の大部分は、会話またはアプリのユーザインタフェースの設計と構築です。会話を作成する際には、3つの一般的なことを考慮する必要があります。

サーフェス機能(Surface Capabilities) は、ユーザーがあなたのアプリを体験しているサーフェスを表します。サーフェスは、オーディオサポート、スクリーンサポート、またはその両方を持つことができます。Actions on Googleは、あなたのフルフィルメントに対するすべてのリクエストに対してサーフェスの機能を返すため、この情報を使用して適切なUIを提供することができます。

サーフェス機能の使用方法の詳細については、Capabilitiesのドキュメントを参照してください。

レスポンス(Response) は、ユーザーがあなたのアプリに言うことができることと、ユーザーへの返事に対応する応答を定義します。ユーザーが使用しているデバイスのサーフェス機能に応じて、ダイアログが声を出して話すことができ(TTSとSSMLがサポートされています)、また視覚的に表現されることもできます(チャットバブル、カード、リスト、カルーセル、チップが画面に表示されます)。

より詳細は、Responsesをご覧ください。

ヘルパー(Helpers) は、アシスタントに共通の機能を実現するためのインテントを実行するよう依頼することができます。

より詳細は、Helpersをご覧ください。

アシスタントの会話を構築する方法

あなたのアプリは、オーディオやディスプレイ体験をサポートする電話機や、オーディオのみの体験をサポートする音声起動スピーカーなど、さまざまなサーフェス上に現れます。すべてのユーザーにとって最高の体験を作るには、まず音声のみの体験を設計します。これは自然な音の会話を作成する最も簡単な方法ですが、視覚体験のためにぜひ必要です。素晴らしいダイアログを書く方法については、design principlesを参照してください。

そこから、基本的なカードやリストなど、画面のコンポーネントを使って会話を補完します。Actions on Googleは、必要に応じて様々なTTSオーディオを提供し、また応答を表示することもできます。

声を出して話すときよりもディスプレイに表示する必要が少ないが、すべてのデバイスで同様の体験を維持したいときには、これを行うとよいでしょう。

会話で必要になったときは、ロジックを分岐して、サーフェスの種類ごとに完全に異なるUIを提供できます。

これは、最近のアイテムの迅速な並べ替えや、オーディオやスクリーン出力を備えたデバイスでの完全なショッピングカート体験など、オーディオ専用デバイスの簡略化された体験が必要な時に役立ちます。

両方のタイプの分岐を達成するには、サーフェス機能を使用して、ユーザーの要求が来るサーフェスを特定し、実際のUIを構築するための様々なタイプのレスポンスヘルパーを使用します。


Creative Commons Attribution 3.0 License 原文

← Actions on Google開発者向けドキュメント 日本語訳インデックス

このエントリーをはてなブックマークに追加

関連記事

Remapの登録キーボード数が180を超えました

ABQの体験は「高級」でした

Lunakey Miniを毎日使っています

Ender-3 V2の押し出し部品を替えました

Ender-3 V2でのコールドプルの方法