Xperia Earを試しに使って次のUIってどうなるんだろうと想像してみた

AmazonのAlexaが評判ですよね。そしてもちろんAppleのSiriやGoogleも負けじと音声のUIを開発しているようです。最近の機械学習の盛り上がりによって音声認識精度があがり、またAI的なものも実用的になってきているところが関係していると思います。

そんな中でXperia Earを試しに使うチャンスがありましたので、使ってみました。


Xperia Earはスマホにつながる片耳のBluetoothイヤホンで、スマホの音声アシスタントに繋ぐための音声ベースのUIです。ちょっと賢い感じで充電機能つきのケースから取り出して耳にねじこむと、音声で「こんにちは、今日の予定は、、、」なんて話かけてくれます。イヤホンも片耳なので、音楽を聞くときだけ、とかではなく、常に装着しているという利用イメージなのかと思います。Androidの通知があるとそれを読み上げてくれたりもするので、必要なときだけスマホの画面を触るということができると思います。

なるほどね、と思いつつもやはりストレスなのは、自分が主体的に操作したいときです。Xperia Earを軽くクリックして話しかけると、音声のコマンドを解釈して動作結果を音声で返してくれる。でもね、、電車でも会社のデスクでも声に出して話しかけられないですよ。音声で能動的アクションを指示するって無理だわ。同様のことはiPhoneのSiriでも感じたんですよね。

そんななかでGoogle HomeやAmazon Echo Dotといったハードがあるとちょっと違うのかもと想像しています。家の中など特定の空間だったら、できるのかも?そしてそんなときはいちいちイヤホンつける必要なしに、据え置きのデバイスが聞き取ってくれたら便利なのかもしれません。自分の運転する車なんかでも使えるかもしれません。

こういうところで音声でのUIに慣れてきて、更に認識の精度が十分になったら、駅で歩きながらぶつぶつアシスタントと話しながらスマホを操作している、なんて光景が見られるようになるのかな?歩きながら電話を耳につけずに電話で話している人がBluetoohの携帯イヤフォンが当たり前になったばかりの頃には異様に思えましたが、最近はそうでもないですからね。

でも、その手前に何か別の能動的にアクションを指示UIがないかなぁと思います。テレビの前などではジェスチャとか提案されましたが、あまりピンとこなかったですが。さて、どうなることやら。