デジタル
2017/10/19 16:50

【西田宗千佳連載】音声エージェントの進化で、ヘッドホンは「スマホのインターフェイス」になる

「週刊GetNavi」Vol.59-4

20171010-
↑ボーズの「QuietComfort 35 II」(10月19日現在、日本未発表・海外では発表済み)はイヤーカップに「Googleアシスタント」を起動するボタンを装備。これを押せば、スマホのロックを解除せずにマイクを通じてGoogleアシスタントの操作が可能となる

 

有線でつなぐおなじみのヘッドホンは、機械としてはシンプルなものであり、それゆえにつなぐ機器の側も「なんでもいい」という設計思想だった。Bluetoothヘッドホンも、元々は同じ考え方であり、音をシンプルに伝えるものだった。

 

だが、スマホとセットで使うもの、ということが前提となることで、Bluetoothヘッドホンは「スマホアプリの力を使う」ことが前提になっていく。

 

方向性はいくつかある。ひとつは、ヘッドホンに心拍計などのセンサーが増え、それを活かすためにアプリを使う、というもの。もうひとつは、スマホの持っている機能と連携する方向性だ。

 

ソニーはフラッグシップヘッドホン「1000X」シリーズで、スマホのモーションセンサーを使ってヘッドホンの設定を変える、というやり方をした。これは後者のアプローチであり、AirPodsの「最後に使った場所を記録しておく」のも、スマホの通信機能を使うアプローチ、という風に考えればいいだろう。

 

むしろ今後、より多く採用されていくのが「音声エージェント」との連携だ。具体的には、iOSでは「Siri」と、Androidでは「Googleアシスタント」と連携するヘッドホンが増えるだろう。

 

ボーズの「QuietComfort 35 II」(海外では発表済み)では、ヘッドホン自体がGoogleアシスタントに最適化されている。スマホと連携し、スマホ内のGoogleアシスタントを呼び出して使うのだが、連携機能を使う場合にも、スマホのロックを外さず、カバンやポケットの中にスマホを入れたまま、音声で質問ができるようになっている。

 

いまも、ヘッドホンのボタンを押すとSiriやGoogleアシスタントを呼び出す機能を持つものは多い。その応用編、というか進化版のようなものなのだが、音声エージェントの普及と進化により、こうした機能はより重要になっていくだろう。

 

スマホのOSは、どんどん「次にやるべきこと」「いまいる場所でやるべきこと」を指示する方向に進化していく。そうなると、画面を見ずに使いたい時が増えていくことになるわけで、音声での連携はより重要なものになるわけだ。だからこそ、ワンタッチで音声エージェントに命令を与える機能は重要だし、同様に、スマホから聞こえる通知音を聞く機能も大切になっていく。

 

すなわち、ヘッドホンは音楽を聴くだけのものではなくなり、ディスプレイと同じように、人とスマホをつなぐ接点になるのである。音楽を聞いていないけれどヘッドホンはつけている……という時間は増えていくのかもしれない。

 

そういう風に考えると、ヘッドホンにこれからどんな機能が追加されるか、なんとなくわかってくるのではないか、と思うのだ。

 

●Vol.60-1は「ゲットナビ」12月号(10月24日発売)に掲載予定です。

 

週刊GetNavi、バックナンバーはこちら