1. ラズパイとIntel Speech Enabling開発キットのセットアップ

まずはラズパイの設定から開始します。Raspberry Pi 3ボードに搭載されているもの -

  • 4 USBポート
  • ビデオ出力用のHDMIポート (HDMIモニターに接続するために利用します。)
  • 音声出力のための3.5mmオーディオジャック (本ラボでは利用しません。IntelのDSPに接続します。)
  • Micro SDカードスロット
  • イーサネットポート

ラズパイの組み立て

  1. Micro SDカードをラズパイのMicro SDカードスロット差し込む (接触部分を上に向けるよう注意してください。)
  2. キーボードとマウスをUSBポートに接続
  3. HDMIポートを利用し、モニターに接続
  4. イーサネットがある場合はケーブルを接続 - ない場合は、画面右上部にあるWifiのアイコンをクリックし、Wifiを有効にするとともに、SSIDを指定 wifi

Intel Speech Enabling開発キットの組み立て

Intelのキットは音声をキャプチャするマイクロフォンアレイボード、オーディオの処理アルゴリズムを実装しているDigital Signal Processor (DSP) ボード、DSPボードとRaspberry Piを接続ためのInterconnect FPCが含まれています。組み立てる前にそれぞれが揃っていることを確認してください。 contents

まず、マイクアレイボードとDSPボードの接続から行います。マイクアレイボードとDSPボードそれぞれに対となる2つのコネクターと端子があります。それらを慎重に差し込んでください。2つの円形ボードがずれることなく接続されていることを確認してください。 Connect Mic PCB to DSP PCB

Connect Detail

次にFPCをDSPボードに接続してください。DSPボードを裏返し、FPCの2つのコネクターのうち小さい方をボードに接続してください。FPCとDSPボードのピンがずれていないことを確認してからコネクターをしっかりと差し込んでください。

FPC to DSP

それではFCPのもう一方(大きいコネクター側)をRaspberry Piに接続します。DSPボードをひっくり返すことで、FPCのコネクターが下側になるため組み立て安くなります。Raspberry Piのピン配列に合わせ、慎重にコネクターを接続してください。 Pi to FPC

下記のようにDSPボードの3.5mmオーディオコネクターにスピーカーもしくはイヤフォンを差し込んでください。Raspberry Piのオーディオジャックは使用しないよう注意してください。次に電源をDSPボードのUSBマイクロコネクターに接続します。DSPボードの下部に青いLEDがつくことで電源が入ったことが確認できます。スピカーの電源が入っていることも確認してください - 万が一つかない場合はバッテリーの充電を行ってください。 USBマイクロケーブルをスピーカーのコネクターに差し込むことで、バッテリーの充電が行なえます。 Audio and Power

下記の写真を確認し、キットのすべての接続が正しく行われていることを確認してください。ラズパイの電源を入れた際に、Intelキットのマイクアレイボードの円形白LEDが点灯します。この写真ではイーサネット接続がされていません。

SetupFinished

ラズパイの起動

  1. ラズパイのマイクロUSBコネクターに電源を差します。
  2. キーボードレイアウトが正しいことを確認してください。(日本語キーボードの場合は、Japaneseを選択) 画面左上部のRaspberryアイコンからKeyboard and Mouse設定を選択して変更してください。 Keyboard setup
  3. OS言語が正しいことを確認してください。(日本語のAlexaを利用する場合は、Japaneseを選択) 画面左上部のRaspberryアイコンから、Raspberry Pi Configurationを選択しLocaleをja(Japan)に設定してください。 Locale setup
  4. OSの再起動が促されるため、再起動を行い画面が日本語に変更されていることを確認してください。
  5. ツールバー上の地球のアイコンをクリックし、ブラウザーを起動してください。

チェックポイント 1

  1. インターネットに接続されていることを確認し、https://developer.amazon.comにアクセスできる。
  2. Intelキット下部の青いLEDとマイクロフォンアレイの白いLEDが点灯している。

2. Amazonデベロッパーアカウントの取得

Amazon Developer Accountのレジストレーション

Amazon.co.jpアカウントを持っていない場合、developer.amazon.comにて無料で新規アカウントを作成してください。AVS Terms and Agreementsこちらから確認してください。 Note:新規でDeveloperポータルからAmazonアカウントを作成すると、日本語のSkillが使えない事があります。こちらのブログAlexa 開発者アカウント作成時のハマりどころを参照し、アカウントがない場合は、事前にDeveloperポータル用のアカウントをAmazon.co.jpで作成することをおすすめします。

チェックポイント2

  1. https://developer.amazon.com/avs/home.htmlにログイン

3. 製品とセキュリティプロファイルの作成

デバイスの登録とセキュリティプロファイルの作成

Amazon Developerアカウントの登録後、Alexaデバイスとセキュリティプロファイルの作成を行います。これにより、デバイスがクラウド上にあるAlexa Voice Serviceに接続することができるようになります。

  1. developer.amazon.comよりAmazon Developer Portalにログイン。右上の”Developer Console”をクリック。
  2. Alexaタブをクリックし、Alexa Voice Service下部にあるGetting Startedボタンをクリック。
  3. 初めてAVSを利用する場合、ウェルカム画面が表示されます。GET STARTEDボタンをクリックします。すでにAVSを利用されたことがある場合、Create Productボタンをクリックします。

製品情報

  1. 製品名: Developer Portal上での表示名および、ユーザが製品をAmazonに登録した祭に、ユーザにも表示される製品名。
  2. 製品ID: シンプルな製品識別名。空白不可
  3. 製品はアプリやデバイスを使用しますか?にて端末を選択。
  4. ご使用の端末は、コンパニオンアプリを使用しますか?いいえを選択 。
  5. 製品カテゴリーを選択。どのカテゴリーでも可。製品概要を記載。
  6. エンドユーザは、商品とどのようにやり取りするのでしょうか?にてファーフィールドを選択。
  7. (オプション入力)画像: 下記リンクを右クリックしてテスト画像をコンピュータに保存(自身の画像でも可)し、アップロード。https://developer.amazon.com/public/binaries/content/gallery/developerportalpublic/solutions/alexa/alexa-voice-service/images/reference-implementation-image.png
  8. この製品を商品として配信する予定ですか?にていいえを選択。
  9. これは子供向け商品、それ以外は13歳以上の子供向けですか?にていいえを選択。
  10. 次へをクリック。

セキュリティプロファイル

  1. プロフィールを新規作成するリンクをクリック。

  2. 下記を入力
    • セキュリティプロファイル名: Alexa Voice Service Sample App Security Profile
    • セキュリティプロファイル記述: Alexa Voice Service Sample App Security Profile Description
    • 次へをクリック。

    Note: 上記は入力例のため、セキュリティプロファイル名セキュリティプロファイル記述に他の値を設定することも可能。

    クライアントのIDとクライアントのシークレットが自動的に生成されます。

  3. セキュリティプロファイルIDしたのウェブ - Android/Kindle - iOS - 他のデバイスやプラットフォームからウェブを選択。

    • 許可された出荷地にてhttp://localhost:3000をテキストフィールドに入力し、追加ボタンをクリック。これによりクライアントがAVSより固有のRefresh Tokenをリクエストすることができ、デバイスがAlexaと接続することが可能となります。
    • 許可された返品URLにてhttp://localhost:3000/authresponseをテキストフィールドに入力し、追加ボタンをクリック。これによりAVSがRefresh Tokenをデバイスに受け渡すことができます。
    • 以下に同意します: AVS同意およびAVSプログラムの要件にチェック。
      • 完了するをクリック。

ProfileInfo2

チェックポイント3

  1. デバイスが、AVSダッシュボードに表示されていることを確認。 https://developer.amazon.com/avs/home.html#/avs/home
  2. AVSダッシュボードのデバイス横の管理するリンクをクリック。
  3. 詳細と管理セクションの左ナビゲーションのセキュリティプロファイルをクリック。
  4. 許可された出荷地http://localhost:3000が設定されていることを確認。
  5. 許可された返品URLhttp://localhost:3000/authresponseが設定されていることを確認。

4. セキュリティプロファイルの有効化

  1. ブラウザーを起動して、https://developer.amazon.com/lwa/sp/overview.htmlにアクセス。

  2. 画面上部にて、ドロップダウンメニューから先程作成したセキュリティプロファイルを選択し、Confirmをクリック。
  3. http://もしくはhttps://で始まるプライバシーポリシーURLを入力。例にもあるように、http://example.comのような疑似URLを指定することも可能。
  4. [オプション] 画像をアップロードすることも可能。画像は、Login with Amazonの同意ページに表示されます。
  5. Saveをクリック。

チェックポイント4

  1. セキュリティプロファイルが、Login with Amazon Configurations内に表示されることを確認。

5. セットアップとインストールスクリプトの実行

デバイスの設定およびインストールスクリプトの実行

NOTE: 本ワークショップでは、作業時間の短縮のため、SDKはプリコンパイルされています。

Alexaをアクティベートするためには、固有の情報を利用してデバイスをクラウドと認証させる必要があります。。セットアップとインストールスクリプトを始めるためには、下記をRaspberry Piで行います:

  1. ラズパイデスクトップ左上にあるツールバーの黒いコンソールアイコンをクリックし、ターミナルウィンドウを開きます。
  2. インストールスクリプトを実行するために、デベロッパークレデンシャルを指定します。ターミナルは/home/piディレクトリ下で開かれます。ターミナルウィンドウで:sudo bash install_avs_sdk.shを入力。プロンプトで、ProductID (空白なし)、ClientIDClient Secretの入力が求められます。Develper Portalよりこれらをコピー&ペーストします。ProductIDとAmazonIDは異なるので注意。  
  3. 確認用に出力されたクルデンシャルが正しいことを確認した後、”y”を入力する。多くのメッセージとWarningが出力されますが続けます。
  4. デバイス用のRefresh tokenを要求するためブラウザーウィンドウが開きます。もしログインが正しく動いていない場合、新しいブラウザーウィンドウを開き、http://localhost:3000を入力し、ログインします。 このトークンが、デバイスをクラウド上のAVSに接続する際にLogin with Amazon (LWA)で認証のため利用されます。もし数百万ものAlexa搭載製品を出荷する際も、各デバイスは同じProductID、ClientID、Client Secretを利用することは可能ですが、各デバイスは固有のRefresh Tokenを必要とします。通常、エンドユーザはコンパニオンアプリで製品をActivateする際に、Refresh Tokenを取得します。今回のLabでは、製造元とエンドユーザの両方の立場で進めていきます。
  5. 手動で2つ目のブラウザーウィンドウを起動し、http://localhost:3000を開きます。ページを開く際は、スクリプトが実行されている必要があります。また、ProductID(空白なし)が正しく設定されているかも確認してみてください。

チェックポイント5

  1. File Explorerウィンドウが開かれていない場合、画面左上のフォルダーアイコンをクリックし、ウィンドウを開きます。/home/pi/sdk-folder/sdk-build/Integrationに移動し、AlexaClientSDKConfig.jsonファイルを右クリックし、ファイルの中身を確認するためテキストエディタを選択します。authdelegateセクションの中に、デベロッパーのクルデンシャルが設定されていることが確認できます。“refreshToken” フィールドにも長い文字列が設定されていることを確認します。   

6. ユニットテストの実行

スクリプト(sdk-folder)で、すでにディレクトリ内にビルドが生成されている前提

ユニットテスト

プロトタイプのユニットテスト郡を実行するため、ターミナルウィンドウで下記のステップを実行します。

cd /home/pi/sdk-folder/sdk-build sudo make all test

本ワークショップでは、時間短縮のためテストはプリビルドされています。イヤフォンもしくはスピーカーがある場合、Alexaが一連のオーディオテストと機能テストを実施する内容を聞くことができます。

テスト自体は4分程度かかり、すべてのテスト項目がすべて100% Successで完了します。デベロッパーは、クライアントデバイスソフトウェアを修正した際、いつでもユニットテストを実行し、意図しない不具合が起きていないことを確認できます。これでクライアントを起動する準備が整いました。

7. クライアントの起動

クライアントの起動

サンプルアプリケーションは/home/pi/sdk-folder/sdk-build/SampleApp/srcフォルダー内に格納されています。

サンプルアプリを起動するためには、/home/pi/sdk-folderディレクトリ内にあるstartsample.shスクリプトを実行します。どのように起動されているかを確認したい場合、ファイルマネージャから格納ディレクトリに移動し、右クリックからテキストエディタを選択することで、中身を確認します。

最もデバッグレベルの高いDEBUG9で起動されていることが確認できます。これによりコンソールにAlexaとのやり取りのステータスメッセージが表示されます。出力を少なくしたい場合、小さな数字を指定するか、指定をはずします。初めての場合は、裏で何が起きているのか確認するために最も高いデバッグレベルを指定することをおすすめします。

ターミナルウィンドウ

新しいターミナルウィンドウを開き、ターミナルウィンドウに下記のコマンドを入力することでstartsample.shを実行します。

cd /home/pi/sdk-folder sudo bash startsample.sh

Connectingのメッセージが確認できるとともに、アプリが正しく起動したことを示すスプラッシュスクリーンが表示されます。

言語指定

Alexaと日本語でやり取りができるよう、言語設定を行う。

  1. スプラッシュスクリーン表示後、言語設定をおこなうためキーコマンドの“c”を入力します。
  2. Setting OptionsでChange Languageの“1”を入力し、日本語に切り替えるために“Japaneseの番号”を入力します。
  3. locale set to ja-JPステータスがコンソールに表示されます。

チェックポイント9

  1. “Alexa”と話しかけます。コンソールのステータスがListeningに変わることを確認し、”なにかおもしろいことを言って”と続けます。AlexaがThinkingからSpeakingにステータスに切り替われば、プロトタイプが正しく動いています。もし何も音声が聞こえない場合、イヤホンがDSPボードの3.5mmオーディオジャックに正しく接続されていることを確認します。スピーカーを利用している場合、スピーカーの電源が入っていることを確認します。
  2. もし音量が大きすぎる場合は、サンプルアプリのキーコマンドでボリュームを下げることができます。“p”を入力し、Enterを押します。そして下記の画面にもある通り、“1”“2”の順ですすめることでボリュームが下がります。もしくは、シンプルにAlexaにボリュームを下げてと伝えることで下げることもできます!
  3. 万が一、画面がハングし、話しかけてもThinking が表示されない場合、sを入力しEnterを押すことで、インターラクションを止めることができます。 - それでもうまくいかない場合は、qを入力することで終了させます。 - 新しいターミナルウィンドウを開き、上記手順に従い、サンプルアプリを再起動してみてください。

8. Alexaと話す

プロトタイプとのインターラクション

これでウェイクワードの”Alexa”と話しかけるだけで、Intel Speech Enabling Developer Kitと会話ができるようになります。下記を試して、ターミナルウィンドウに表示されるそれぞれのディレクティブやイベントを確認します。

  • “Alexa”, ”いま何時?”と話しかけます。
  • “Alexa”, ”目黒の天気を教えて?”と話しかけます。
  • “Alexa”, ”5秒のタイマーをセットして”と話しかけます。
  • “Alexa”, ”TuneInでクラッシックFMを再生して”と話しかけます。
  • “Alexa”, ”こんにちは”と話しかけます。
  • “Alexa”, ”冗談を言って”と話しかけます。
  • “Alexa”, ”人生の意味ってなに?”と話しかけます。
  • “Alexa”, ”ハッピバースデーを歌って”と話しかけます。
  • “Alexa”, ”どこで生まれたの?”と話しかけます。
  • “Alexa”, ”なにか歌って?”と話しかけます。

マルチターンインターラクションを試す

  • “Alexa”と言ったあと、”12:30にアラームをセットして”と話しかけます。午前か午後かを確認するレスポンスを受けます。”午後”と答えてください。DEBUG9が設定されている場合、Listening… のところまでスクロールで戻り、ウェイクワードを言わなくとも、Audio Input Processor (AIP) がIDLEからEXPECTING_SPEECHそしてRECOGNIZING`に変わっていっていることを確認します。通常AIPはクライアントで起動しているWake Word Engine からトリガーされます。しかしこのケースでは、クラウドからクライアントに送信されたDirectiveによりアクティベートされています。

AIP_multiturn

マルチターンインターラクションはより、Alexaと都度発声する必要がなく、Alexaとの会話を継続できることから、より自然にコミュニケーションを行っている感覚を得られます。


9. ディスプレイカードを利用して、ビジュアルメタデータ追加する

デバイスプロファイルで、ディスプレイカードを有効化

もし、Alexa搭載製品がグラフィカルやテキストを表示できるような画面機能を持っている場合、Alexaからの応答にビジュアルメタデータ(ディスプレイカード)を追加することができます。AVSからこのようなデータを受け取るには、製品のレジストレーションで指定する必要があります。

Developerポータルdeveloper.amazon.comに戻ります。今回の製品の”管理する”を選択し、詳細と管理の下の機能タブに遷移します。カードを表示するのボックスをチェックし、リストからメディアつきカードを表示するを選択します。変更を保存するため更新をクリックします。確認用のポップアップが表示され、更新が反映されます。 DisplayCards

サンプルアプリを再起動し、“Alexa、TuneInでクラッシックFMを再生して”と話します。ログをスクロールして、RenderPlayerInfoCardを探します。 - これがAlexaから送信されたビジュアルメタデータ情報になります。 URLをコピーしてブラウザーでアクセスすると製品に画面機能がある場合に、表示される画像を確認することができます。

DisplayCards

Alexaに天気を確認してみます。- より複雑で、グラフィック用に多くの異なるURLが含まれた、RenderPlayerInfoCardが表示されます。これら各URLをブラウザーにコピー&ペーストして確認できます。 - 製品では、SDKの新しい機能であるTemplateRuntime capability agentを利用して、パースすることができます。

10. ステート変更時の音声追加

UImanagerファイルの修正

Alexa搭載製品に話しかけた際に、ウェイクワードの検知をわかるようにしたいと思うことがあります。これらは、製品のLEDの点灯や、色の変化で認識することもできますが、デバイスが見えないところにある場合はどうでしょうか?今回のケースでは、Alexaが検知した際に、オーディオキューを再生することで認識できるようにします。本手順では、User Interface Managerを修正し、AlexaのステートがLISTENINGに変わるタイミングで、通知音を再生させます。

/home/pi/sdk-folder/sdk-source/avs-device-sdk/SampleApp/src/に移動し、テキストエディターを利用してUIManager.cppを開きます。

UIM_location

ファイルの上部に記述されている#include statementsの中に、下記を追加します:#include <cstdlib>これにより次の手順で追加する再生ファンクションを有効にします。

Add_include

OSイメージの中に、本エクサイズで利用できるテスト用WAVファイルが/home/pi/CustomSoundsフォルダ内に格納されています。オーディオキューとして利用するため、このファイルのパスを追加します。UIManagerファイルの下部にprintState()ファンクションで、case DialogUXState::LISTENING:と記載されている箇所に下記のコマンドを追記します。 system("play /home/pi/CustomSounds/ding.wav");

Add_sound

テキストファイルを閉じる前に保存します。オーディオファイルを再生させるためには、soxをダウンロードし、修正を反映させるためにサンプルアプリを再コンパイルします。はじめに、”q“を入力し、エンターを押すことで、起動しているサンプルアプリを終了させます。(起動している場合のみ) ターミナルを起動して、下記を実行:

sudo apt-get install sox

インストール確認で”y”を入力します、ダウンロードは数秒で完了します。

サンプルアプリをリビルドするため、ターミナルで下記のコマンドを入力します:

cd /home/pi/sdk-folder/sdk-build/SampleApp make

リビルドされる修正ファイルが表示され、数分で完了します。 100%で完了した後、ターミナルでstartsample.shスクリプトを実行することでサンプルアプリが再起動されます:

cd /home/pi/sdk-folder sudo bash startsample.sh

チェックポイント11

プロトタイプデバイスにウェイクワードの”Alexa”と話しかけるたびに(AlexaのステートがListening…に変更)、カスタムした音声が再生され、Alexaがクラウドと通信するためのチャンネルを開き、リクエストを待ちます。エラーが発生する場合は、sを入力し、インターラクションを中断し再実行することができます。ネットから他の.wavファイルを探し、UI managerのそれぞれのステートごとに異なる音声を指定することも可能です!

実際に商用製品を出荷する際は、エンドユーザはあらゆるAlexa搭載製品で同じようなユーザ体験を得られることを期待しています。ビジュアルや音声キューの実装に関するベストプラクティスは、AVS UX Design overview pageで確認できます。

11. AFML挙動の変更

Alexa Focus Manager Library挙動の変更

一つのスピーカーしか搭載されていないデバイスであっても、複数のCapability Agentsがそのスピーカーを利用しようとします。Focus Managerは一貫したユーザ体験と、複数のエージェントが同時に音声出力を行わないように制御します。それではどのようにスピーカーに対して制御を行っているのでしょうか?いくつかの機能(例えば、SpeechAlarmsMusic)をChannelsに割り当てることで、Focus Managerが個々の優先度のストラクチャーを定義します。

製品の重要な機能に対して、中断されることを回避したいというユースケースはないでしょうか?例えば、自動車のナビゲーションシステムで、Alexaによる経路情報提供中に、アラーム機能が鳴ったことでスピーカーの制御を持って行かれたくはないかと思います。それではサンプルアプリのForcus Managerでその挙動を確認してみましょう。

2つの共同するCapability Agentを設定

サンプルアプリに設定されている既存のChannel Priorityに則って、Focus ManagerがMedia Playerの制御を取得するシチュエーションを作成します。

  1. “Alexa、20秒のタイマーをセットして”と話しかけます。
  2. Alexaより”20秒のタイマーを開始します。”という確認を受信します。
  3. 続いて、”Alexa、歌を歌って”と話しかけます。
  4. 数秒後に、Alexaが歌を歌い始めます。
  5. …歌が終了する前に、アラームが鳴ります!! するとデバイスで、歌のFocusが外されます。
  6. “Alexa、止めて”と話しかけると、アラームが止まります。
  7. AlarmsのCapability Agentが停止されると、デバイスのForegroundチャンネルを歌が再取得します。

この歌の再生が実際の経路情報で、高速道路の出口を伝えるタイミングだった場合のことを想像すると、きっと高速を降りるのをミスしてしまうと思います。それではこのデバイスで、Focus Managerを修正し、Contentチャンネルの優先度をAlarmsチャンネルより上にしてみましょう。

Focus Managerインターフェースの修正

  1. ファイルマネージャを利用して、/home/pi/sdk-folder/sdk-source/avs-device-sdk/AVSCommon/SDKInterfaces/include/AVSCommon/SDKInterfacesに移動します。
  2. FocusManagerInterface.hを右クリックして、Text Editorを選択し、ファイルを開きます。 FM_location
  3. 下にスクロールするとFocusManagerInterface内にチャンネル優先度のリストを確認できます。数字が小さいほうが優先度が高くなります。-なぜ1/2/3ではなく100/200/300で設定されているのでしょうか?これは新しいチャンネルを作成された場合にも、柔軟に優先度を指定できるようにしているためです。例えばチャンネル1-99を作成した場合、これらはDialogよりも優先度が高く設定することが可能となります。
  4. 本エクササイズでは、Contentの優先度を上げることで、Alertsによって割込が発生しないようにします。CONTENT_CHANNEL_PRIORITY300に設定されています。 300から199に変更することで、Alertsより優先度を高く設定します。FocusManagerInterface.hを保存して閉じます。 FM_mod

修正したSample appのリビルド

  1. 修正を反映させるために、Sample Appをリビルドする必要があります。はじめに、(まだアプリが動いている場合)qを入力しreturnを押して、既存のSample Appを終了させます。ターミナルを起動し、下記のコマンドを入力してSample Appのリビルドを行います:

cd /home/pi/sdk-folder/sdk-build/SampleApp make

  1. 修正した部分のライブラリがリビルドされることが確認できます。- この処理は数分かかります。
  2. 対象のSampleAppのビルドが100%で完了したメッセージが表示されます。 - Sample Appを再起動して同じインターラクションを実施してみましょう!
  3. Sample Appを起動するため、ターミナルで下記のコマンドを実行します:

cd /home/pi/sdk-folder sudo bash startsample.sh

再度20秒タイマーを設定し、設定が完了したメッセージを確認した後 - Alexaに音楽の再生開始を伝えます。今回はタイマーが鳴った際に、音楽は中断されたでしょうか?

ぜひFocus Managerを使って製品のユースケースにおいてユーザ体験に最も適した優先度の設定を行ってみてください。ユーザはどのような状況下でもAlexaに話しかければ常にそれを聞き取り応答することを期待しているということを、Alexa搭載製品を製造される際には意識してください。

プロトタイプ環境での体験

  1. Dialogよりも高い優先度のものを作った場合、どのようなことが起きるでしょうか?
  2. LabマニュアルStep6の手順にしたがいUnit Testを再実行して見ましょう。どのような結果が起きましたか?

12. デバイスのロケーション指定とその他の設定

Alexa.Amazon.co.jpでデバイスのロケーションを設定

Alexaに”今日の天気は?”と問い合わせた際、AVSはどのようにあなたのいる場所を理解するのでしょうか?もし、天気予報を伝える地域やタイムゾーン、もしくはその他場所に関するデータを変更したい場合、Alexa.amazon.co.jpにアクセスし、設定メニューから行うことができます。

ナビゲーションの設定タブから、登録したデバイスを選択します。 - ユニークなプロダクト名でデバイスの識別ができます。 - もしSample Appが起動している場合、ステータスが”オンライン”になっています。

対象のデバイスを選択し、所在地にてご自身の住所を設定します。 AlexaSettings

設定を確認するためのSample Appの再起動は不要です。- クラウドで設定を更新すると、即時その場所の情報を得ることができるようになります。Alexaに再度天気を聞いてみると、指定した所在地の情報がきけます。

Alexa.Amazon.co.jpの左メニューより”ホーム”を選択してください。- そこで様々な情報を確認することができます。直近のリクエスト内容を聞くことも可能です。 - 聞いていただくと、いかにマイクロフォンの選定があなたのデバイスに取って重要かが理解いただけるかと思います。


Amazon Resouces

Alexa Resources