NOID スマートスピーカー ハンズオンNIGHTに参加したよ
本日(2018年11月19日)は
NOID スマートスピーカー ハンズオンNIGHT
に参加してきました。
アイリッジ社のロゴかっこいいです。
NOIDすげー便利なやつ。
前に画面見たときは英語だったような気がしたんですけど、日本語になってました。
国産万歳。
このイベントでした
参加者層
18時受付開始、18時半から本番開始だったんですけど、18時10分くらいについた僕が1番乗りでした。
で、参加者はビジネス層が結構いたように思います。
VUI・スマートスピーカーに興味はあるんだけど、技術的に専門にできない という方が多かった気がします。
また、冒頭で「スマートスピーカーを持ってない人」を挙手してもらってましたが、3分の1から半分くらいは該当でした。
企業で何名かでまとまってきている方々もいらっしゃいました。
良いことだと思います。
NOIDすげぇ
画面がめっちゃヌルヌルうごく。
なめらかです。
mp3ファイルをドラッグ&ドロップでAlexa対応フォーマットにしてサーバにあげてくれます。まじかよ。
GUIなので本当に最初は慣れが必要ですが、かといって触っていればすぐ使えます。
参加者が楽しんでた
Amazonのアカウント作成からスマートスピーカーで声をださせるまで、ハンズオンです。
本当に初めての方々が何名もいらっしゃって、その人たちが自分でスキルを作って
「おおおお!!」
「しゃべったーー!!」
とか会場でワイワイ。
僕も最初はこんな感じでした。
GUIのツールで、ノンコーディングでスキル作成できるのは本当に便利です。
個人はもちろん、企業でも。
モック作成がスキル開発を依頼する側が作成できて、そこからどう発展させましょうという流れが作りやすそうです。
VUIビジネスのサイクルが早くなってとても良いと思います。
こんな動きをしてる
NOIDでスキルのプロジェクトを立ち上げて「保存」をすると2~3分待つことになります。
これ何やってるんだろうと思って、自分のコンソール開いたらスキルビルドまでやってくれたんですよ。
エンドポイントが専用のLambdaになっているので、アイリッジさんの管理するサーバに生成されているんだろうなぁ。
Alexaの音声でどこで話すか、どこで音声ファイルを流すかが、ドラッグ&ドロップでサクサク設定できる。
ということは、たぶん、Node.jsならResponseBuilderで呼び出す前に、
NOID画面で選ばれて保存された順で1つの
僕が気づいたこと
0.
ファシリテーターの岩屋さんの進行がめっちゃ良かったです。
ハンズオンは、もくもくしがち。
そこを盛り上げるようにしてて、進行がすごい良かった。
あれはハンズオン系のイベントですごく参考になると思います。
1.
mp3の90秒問題が管理できない。
これはとても難しい。
僕がNOIDを創る側だとしても、Alexaのmp3ファイル90秒の壁の管理はかなり厳しいと思います。
マルチスレッドとかで、音声ファイルの長さを調べつつ、アップロードとかうまくできたりするかも?
2.
レスポンス1つのmp3ファイルは5つまでの制限が厳しそう。
画面でポチポチできると積極的に音をいれたくなると思いました。
けど、レスポンス1つで5ファイルまでしか繋げられない認識でいます。
そこはフロントエンドで対応するのだろうか。
かといって、条件分岐をもっと複雑にできるようにしたりすると、、、すごく大変そう。
3.
何ができて、何ができないのかを明確化した方がいいかもしれない。
そもそもスマートスピーカーで何ができるのか、できないのか。
その上でNOIDでは何ができて、何ができないのか。
それはどこかに一覧の記載があっても良かったかもしれないです。
かといってそれを明文化するのはとても難しい。
アイリッジさん、がんばってください!
一番感じたこと
とにかく動くモノをリリースする!
そしてバックエンドより、フロントエンドの動きに力を入れてノンプログラミングでかっこよくできることを強調しているところが、すごく良いと勝手に思いました。
完璧なモノを創ってからではなく、まずはできる範囲でリリースしてフィードバックを集める。
これは本当に勝手に共感してました。
ハンズオンやって、ユーザーがどう操作するのか、どこで躓くのかを生で感じるのはすごい大事だと思います。
SHAもハンズオンやろう。