コンテンツに移動
Google Cloud

Cloud Machine Learning API を使った会話アプリの作成 - Part 2

2017年8月30日
Google Cloud Japan Team

このブログ記事の Part 1 では、Cloud Machine Learning API と API.AI を使って構築される iOS 対応の会話型ツアー ガイド アプリがどのようなものかを紹介しました。また、API.AI のインテントとコンテキストの作成方法も説明しました。

Part 2 では、API.AI の高度なトピックであるウェブフックと Cloud Functions を取り上げます。Cloud Machine Learning API(Speech、Vision、Translation の各 API)の使い方や、2 つ目の言語のサポート方法も解説します。

Cloud Functions によるウェブフック

API.AI ではウェブフックの統合を利用して、マッチされたインテントからウェブ サービスに情報を渡し、結果を取得できます。パレードの情報をリクエストし、Cloud Functions から入手する方法を見ていきましょう。

  1. console.cloud.google.com にアクセスします。自分のアカウントでログインし、新しいプロジェクトを作成します。
  2. 新しいプロジェクトを作成したら、そのプロジェクトに移動します。
  3. Cloud Functions API を有効にします。

https://storage.googleapis.com/gweb-cloudblog-publish/images/1tf6NW7eoOIacbuQGJthQ1mlOUpzo_nbXaAv31WObLAh.max-800x800.PNG

4. 関数を作成します。ここでは “parades”(パレード)という名前の関数を作成することにします。“HTTP trigger”(HTTP トリガ)オプションを選択し、“Inline editor”(インライン エディタ)を選択します。

https://storage.googleapis.com/gweb-cloudblog-publish/images/wS_7i2-9oU6vRaOkXKiq2hXHDvyXyJDgv4ceGSsXaVHR.max-600x600.PNG

5. 実行する関数を “parades” と指定することを忘れないでください。

“ステージ バケット” も作成する必要があります。“browse”(ブラウズ)をクリックするとブラウザが表示されますが、バケットはまだありません。

https://storage.googleapis.com/gweb-cloudblog-publish/images/8iPU4507SiuZ_ygEn5uTlp_SOxD7I0EDhw8i6DrOlyiS.max-700x700.PNG

6. “+” ボタンをクリックし、バケットを作成します。

  • バケットの一意な名前を指定し(たとえばプロジェクト名が使えます)、“regional”(リージョナル)ストレージを選択し、デフォルトのリージョンのままにします(us-central1)。
  • 前のウィンドウで “select”(選択)ボタンをクリックします。
  • “Create”(作成)ボタンをクリックし、関数を作成します。

関数が作成され、デプロイされます。

https://storage.googleapis.com/gweb-cloudblog-publish/images/HRLdGAMp8eDlplcdBNQnnBxtCrl1SNTMr5RVjATJYY0F.max-800x800.PNG

7. “parades” 関数行をクリックします。“source”(ソース)タブでソースを見ることができます。

いよいよ私たちの関数のコーディングです! 2 つのファイルが必要になります。“index.js” ファイルには JavaScript / Node.JS のロジックが含まれます。“package.json” ファイルには、私たちの関数で必要な依存関係など、Node パッケージの定義が含まれます。

package.json ファイルは以下のとおりです。これで、NPM モジュールの actions-on-google を利用して、API.AI および Actions on Google プラットフォームとの統合を容易に行うことができます。この統合により、皆さんのエクステンション(Google Home から使えます)で Google アシスタントを拡張することが可能になります。

読み込んでいます...

index.js ファイルのコードは以下のとおりです。

読み込んでいます...

上のコードの内容を説明します。

  1. NPM モジュールの actions-on-google を要求します。
  2. ask() メソッドを使って、アシスタントからユーザーに結果を送信させます。
  3. 関数をエクスポートします。この関数では、actions-on-google モジュールの ApiAiApp クラスを使ってリクエストを処理します。
  4. API.AI から JavaScript 関数に “intents” をマップするためのマップを作成します。
  5. handleRequest() を呼び出してリクエストを処理します。
  6. コードを入力したら、必ず関数の “create” ボタンをクリックします。これで関数がクラウドにデプロイされます。

tell() APIと ask() API には微妙な違いがあります。tell() は会話を終了させ、マイクを閉じますが、ask() はそうではありません。この違いは、このブログ記事の Part 1 と Part 2 で説明しているような API.AI プロジェクトでは重要ではありません。Part 3 で Actions on Google を統合する際に、この違いについて詳しく説明します。

下の画面の “Testing”(テスト)タブは関数を呼び出し、“General”(一般)タブは統計情報を表示し、“Trigger”(トリガ)タブは関数のために作成された HTTP URL を示します。

https://storage.googleapis.com/gweb-cloudblog-publish/images/7P8uSS-U8MftkqwDGqaJUDSLOoG28VWTo6MOcDM723K7.max-600x600.PNG

最後に、API.AI コンソールに移動し、“Fulfillment” タブをクリックします。ウェブフックを有効にし、上の URL を URL フィールドに貼り付けます。

https://storage.googleapis.com/gweb-cloudblog-publish/images/mFolwWQGqduLpCfL48Um_YSjYEbaSB4bk_mIw18zfsq5.max-800x800.PNG

以上で、テキストを介して人と会話するチャットボットを API.AI で作成することができました。次に、Cloud Speech API でボットが「聞く」ことを、Cloud Vision API で「見る」ことを、iOS のテキスト音声変換 SDK で「話す」ことを、Cloud Translation API で「翻訳する」ことを可能にしましょう。

Cloud Speech API の使用

Cloud Speech API にはサンプル iOS アプリが含まれています。gRPC 対応の非ストリーミング サンプル アプリを私たちのチャットボット アプリに統合することは、至って簡単です。

Google Cloud Console から API キーを入手し、SpeechRecognitionService.m の次のでその API キーを指定します。

読み込んでいます...

ランドマーク検出

読み込んでいます...

iOS で Cloud Vision API を使用するときは、このに従ってください。上のように、ラベルと顔の検出をランドマーク検出に置き換える必要があります。

Cloud Speech API で使用したのと同じ API キーが使えます。

テキスト音声変換

iOS 7 以降では、テキスト音声変換 SDK である AVSpeechSynthesizer がビルトインで用意されています。以下のコードだけで、テキストを音声に変換できます。

読み込んでいます...

複数言語のサポート

Video Thumbnail

Cloud Speech API で新たな言語をサポートするには、iOS クライアント側で 1 行を変更します(現在、複数言語を同時に使うことはできません)。中国語をサポートするには、SpeechRecognitionService.m のこのを置き換えます。

読み込んでいます...

上の行を以下のように変更します。

読み込んでいます...

テキスト音声変換で中国語をサポートするには、コードに次の行を追加します。

読み込んでいます...

Cloud Speech API と Apple の AVSpeechSynthesisVoice は、BCP-47 言語コードをサポートしています。

Cloud Vision API のランドマーク検出機能は現在、英語しかサポートしていません。そのため、他の言語で検出する場合は、英語のランドマーク記述を受け取った後で、Cloud Translation API を使って目的の言語に翻訳する必要があります(Translation API は、Cloud Vision API や Cloud Speech API のように使います)。

API.AI 側では、新しいエージェントを作成し、その言語を中国語に設定する必要があります。1 つのエージェントは 1 つの言語しかサポートできないからです。同じエージェントを 2 つ目の言語で使おうとすると、その言語については機械学習が機能しません。

https://storage.googleapis.com/gweb-cloudblog-publish/images/2SSsSiMpBOXxBkMHQvqjgH9EUONYGTX-0vONu84HCRSD.max-800x800.PNG

また、すべてのインテントとエンティティを中国語で作成する必要もあります。

https://storage.googleapis.com/gweb-cloudblog-publish/images/MnDBYOo6ntvJcAKpp-UBoPDC_K2iq6AQEBbLKY8SxW.max-1100x1100.PNG

これで完了です。英語と中国語をサポートするシンプルな “ツアー ガイド” チャットボットを作成できました。

次回の予定

このサンプル アプリを通じて、機械学習を利用したアプリの作成が簡単なことをおわかりいただけたと思います。さらに多くの情報を得たいのであれば、以下のクイックスタートを試してみるとよいでしょう。


ソース コードは GitHub からダウンロードできます。

Part 3 では、Google アシスタント をベースに Actions on Google との統合を利用して、このアプリを作成する方法を紹介します。

* この投稿は米国時間 8 月 16 日、Software Engineer である Chang Luo と Bob Liu によって投稿されたもの(投稿はこちら)の抄訳です。

- By Chang Luo and Bob Liu, Software Engineers

投稿先