音声UIと見えなくなるパッケージ

y_matsuwitter
3 min readJan 15, 2017

--

音声入力便利だなーと気づいて以来、Siriも頻繁に活用するようになりました。「Hey, Siri」から起動するのは未だに慣れないので、天気だの知りたい情報がでたらHomeボタン長押しで呼び出してます。まだSiriKitに対応したサービスが少ないのでもっと増えて欲しいところ。

ところで昨晩布団に入ってからしばらく、ユーザーとして、また開発者として音声入力に感じている価値・意味について考えていました。

そこでふと思ったのが、パッケージと音声入力の関係ってこれから変わっていくのではないかと。

これまでのパッケージは全て、まず将来の用途を見越してユーザーが機能をインストールして利用する形式です。これはアプリ開発者的には「ユーザーがアプリをインストール前に理解する」「その後にアプリをインストールしてユースケースに備える」という2つの壁をユーザーに課しているのでハードルが高く、例えば自分の田舎の祖母にこれを使いこなしてもらうのは相当難しいと思っています。意図と機能を結びつけるのは案外面倒なものです。どのパッケージが欲しい機能を提供してくれるか理解する必要があるので。

こうした意図と機能のマッピング作業が音声UIの向かう先ではなくなるのではないかなと。ユーザーはパッケージを意識せず、「今日の天気は?」「ランチを注文したい」だののリクエストを音声アシスタントに依頼すれば、その後ろの機能を誰が提供するか意識せず仲介してくれるようになる。例えばランチの注文であればUberEatsが来るかもしれませんが、ユーザーは何を使ったか意識しない方が楽。AmazonAlexaやSiri、Google Alloの価値はユーザーの意図を機能に直接結びつけるところにありそうに見えます。

ただ、この方向性で一点だけ感じるのは「音声だけのUI」は難しいんじゃないかなというところです。ユーザーの意図に対して、音声を受け取って機能に結びつける事自体はAlexaもSiriもAlloも可能です。しかし、その出力に関しては意図に対して複数の選択肢もありうるので、音声出力だけでは遅く、かつ想像しづらいものになるのではないかと。

この点に関しては、同時に立ち上がってきつつあるVR・AR・MRの1つの入力装置として音声入力が機能することで解決し、普及しないかとか考えています。情報空間内のアシスタントが意図を拾い、GUIとしてユーザーの目の前に選択肢を提示して(あるいは機能をまず有効化するなどして)機能を提供していくのではないかなと。

音声入力は今後まず普及する(というかして欲しい)領域ですし、パッケージをなくしてユーザーがパッケージを意識しない世界にすることは、より人間の脳とインターネットの距離を近づけ人間の機能を拡張することになっていきます。人は早く動きたいと思って、脳が走ると言う機能を提供しますが、それと同じような文脈で例えば何か食べたいという意図に対して、選択肢を提示して実際に実現させる仕組みは人間の機能拡張そのものっぽいなと。

ということで、パッケージが見えなくなる世界は音声インターフェースの重要な価値だと思うという話でした。

--

--

y_matsuwitter

正座エンジニア。DMM CTO, GunosyおよびLayerX Technical Advisor。早く電脳化させてください。ここには雑に考えた個人的な諸々を投げ込む。