
iOS 17のリリースに伴い、Appleは第2世代AirPods Proのファームウェアアップデートもリリースしました。このアップデートでは、アダプティブオーディオを含むいくつかの新機能が追加されています。この機能は、外部音取り込みモードとノイズキャンセリングモードを組み合わせ、外部環境に応じてバランスを調整します。興味深いことに、AppleはかつてiPhoneのGPSを利用してアダプティブオーディオのレベルを制御することを検討していましたが、これは実現しませんでした。
AirPods Pro 2のアダプティブオーディオの仕組み
TechCrunchとのインタビューで、Apple幹部のロン・フアン氏とエリック・トレスキ氏がAirPods Proの新機能について語った。
新しいファームウェアには、アダプティブオーディオに加えて、環境条件に基づいてメディアの音量を調整するパーソナライズされた音量と、話し始めるとメディアの音量を下げて目の前の声を強調する会話認識機能も搭載されています。
アダプティブオーディオといえば、昨年AirPods Pro向けに発表されたアダプティブトランスペアレンシーに似ているように聞こえるかもしれません。アダプティブトランスペアレンシーでは、外部音取り込みモードがオンの場合でも、イヤホンが常に外部音をモニタリングし、耳障りなノイズを低減します。一方、アダプティブオーディオは、それ以上の機能を備えています。
トレスキ氏は、新しいモードはアダプティブ トランスペアレンシーよりも動作が遅いが、それは「何を聴いているのかを把握するための、より体系的なプロセス」があり、トランスペアレンシーとノイズキャンセレーションの間のスペクトルをインテリジェントに調整するためだと説明した。
このシステムは、ユーザーが曲を聴いているのか、ポッドキャストを聴いているのかを識別し、AirPodsに内蔵されたマイクが耳の中の音量を測定して、ユーザーが実際に感じている音量を把握します。しかし、この機能の開発中、Appleは全く異なるアプローチを試みました。
この機能はGPSにほぼ依存していた

Appleは、マイクなどのセンサーに頼る代わりに、iPhoneのGPSを使ってユーザーが騒音の多い場所にいるかどうかを判断して、アダプティブオーディオのレベルを調整することを検討しました。例えば、ユーザーが道を歩いていると、AirPodsは自動的に外部音取り込みモードになります。
「アダプティブオーディオの初期段階では、基本的にユーザーの現在位置に基づいて、ANCと外部音取り込みを切り替えていました」とフアン氏は説明した。「スマートフォンがAirPodsにヒントを与えて、『ねえ、家の中にいるよ』などと伝えることができるようになるでしょう。」
「これまでの経験を踏まえ、それは正しい方法ではないと考え、実際にそうしませんでした。もちろん、家はいつも静かであるとは限らないし、通りはいつも騒がしいとも限りません。そこで、スマートフォンから位置情報のヒントに頼るのではなく、AirPodsがユーザーの周囲の環境をリアルタイムで監視し、自らインテリジェントに判断を下すことにしました」と彼は付け加えた。
AirPodsに関するその他の情報
Appleは、パーソナライズされた音量機能について、ユーザーが様々な環境で様々なコンテンツをどのように聴いているかに関する「何時間にもわたる様々なデータ」を分析し、ユーザーの好みを把握したと述べています。AirPodsは、ユーザーの現在地や周囲の騒音レベルに基づいてユーザーの好みを記憶します。これらはすべてデバイス上で行われます。
会話認識に関しては、この機能は主な声を検出するまで待つだけでなく、加速度計を使用して顎の動きを検出し、近くにいる他の人ではなくユーザーが話していることを確認します。

インタビュー全文には、Apple幹部が、USB-Cを搭載した第2世代AirPods Proの改訂版では、Apple Vision Proとペアリングするとロスレスオーディオを送信するために新しい5GHzワイヤレスプロトコルが使用されることを強調するなど、他の詳細も含まれています。
juloda.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。