JP7110301B2 - Audio processing algorithms and databases - Google Patents
Audio processing algorithms and databases Download PDFInfo
- Publication number
- JP7110301B2 JP7110301B2 JP2020185230A JP2020185230A JP7110301B2 JP 7110301 B2 JP7110301 B2 JP 7110301B2 JP 2020185230 A JP2020185230 A JP 2020185230A JP 2020185230 A JP2020185230 A JP 2020185230A JP 7110301 B2 JP7110301 B2 JP 7110301B2
- Authority
- JP
- Japan
- Prior art keywords
- playback
- zone
- audio
- playback device
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R27/00—Public address systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/301—Automatic calibration of stereophonic sound system, e.g. with test microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/005—Audio distribution systems for home, i.e. multi-room use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/09—Electronic reduction of distortion of stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
Description
本願は、2014年9月9日に出願された米国特許出願第14/481,505号及び2014年9月9日に出願された米国特許出願第14/481,514号の優先権を主張しており、その全体が参照されることにより本明細書に組み込まれる。 This application claims priority to U.S. Application No. 14/481,505 filed September 9, 2014 and U.S. Application No. 14/481,514 filed September 9, 2014. and is incorporated herein by reference in its entirety.
本願は、コンシューマ製品に関するものであり、特に、メディア再生に向けられた方法、システム、製品、機能、サービス、および他の要素に関するものや、それらのいくつかの態様に関する。 This application relates to consumer products, and more particularly to methods, systems, products, features, services, and other elements directed to media playback, as well as some aspects thereof.
2003年に、ソノズ・インコーポレイテッドが最初の特許出願のうちの1つである「複数のネットワークデバイス間のオーディオ再生を同期する方法」と題する特許出願をし、2005年にメディア再生システムの販売を開始するまで、アウトラウド設定におけるデジタルオーディオへのアクセスおよび試聴のオプションは制限されていた。人々は、ソノズ無線HiFiシステムによって、1つ又は複数のネットワーク再生デバイスを介して多数のソースから音楽を体験できるようになっている。スマートフォン、タブレット、又はコンピュータにインストールされたソフトウェアコントロールアプリケーションを通じて、ネットワーク再生デバイスを備えたいずれの部屋においても、人々は自分が望む音楽を再生することができる。また、例えばコントローラを用いて、再生デバイスを備えた各部屋に異なる歌をストリーミングすることもできるし、同期再生のために複数の部屋をグループ化することもできるし、全ての部屋において同期して同じ歌を聞くこともできる。 In 2003, Sonos, Inc. filed one of the first patent applications, titled "Method for Synchronizing Audio Playback Across Multiple Network Devices," and in 2005 launched a media playback system. Prior to launch, digital audio access and audition options were limited in Outloud settings. The Sonos wireless HiFi system allows people to experience music from multiple sources via one or more network playback devices. Through software control applications installed on smartphones, tablets, or computers, people can play the music they want in any room equipped with a network playback device. Also, for example, using a controller, different songs can be streamed to each room with a playback device, multiple rooms can be grouped for synchronized playback, and all rooms can be synchronized. You can also listen to the same song.
これまでのデジタルメディアに対する関心の高まりを考えると、試聴体験を更に向上させることができるコンシューマアクセス可能な技術を更に開発することにニーズがある。 Given the ever-increasing interest in digital media, there is a need to further develop consumer-accessible technologies that can further enhance the listening experience.
本明細書で開示されている技術の特徴、態様、および利点は、以下の記載、添付の特許請求の範囲、および添付の図面を参照するとより理解しやすい。 Features, aspects, and advantages of the technology disclosed herein may be better understood with reference to the following description, appended claims, and accompanying drawings.
図面は、いくつかの例示的な実施形態を説明することを目的としているが、本発明が、図面に示した配置および手段に限定されるものではないことは理解される。 While the drawings are for the purpose of illustrating some exemplary embodiments, it is to be understood that the invention is not limited to the arrangements and instrumentalities shown in the drawings.
I.概要
再生デバイスが再生ゾーンにおいてオーディオコンテンツを再生するとき、再生の品質は、再生ゾーンの音響特性に依存することがある。本明細書の説明において、再生ゾーンは、1つ又は複数の再生デバイス又は再生デバイスのグループを含むことができる。再生ゾーンの音響特性は、再生ゾーンの寸法、再生ゾーン内の家具の種類、及び再生ゾーン内の家具の配置などに依存することがある。そのため、異なる再生ゾーンは、異なる音響特性を有する場合がある。再生デバイスの所定のモデルは、異なる音響特性を有する様々な異なる再生ゾーンにおいて使用されうるため、単一のオーディオ処理アルゴリズムは、異なる再生ゾーンのそれぞれにおける再生デバイスによる一貫したオーディオ再生品質を提供しないことがある。
I. Overview When a playback device plays audio content in a playback zone, the quality of playback may depend on the acoustic characteristics of the playback zone. In the description herein, a playback zone may include one or more playback devices or groups of playback devices. The acoustic properties of the reproduction zone may depend on the dimensions of the reproduction zone, the type of furniture within the reproduction zone, the placement of the furniture within the reproduction zone, and the like. As such, different playback zones may have different acoustic properties. Since a given model of playback device may be used in a variety of different playback zones with different acoustic characteristics, no single audio processing algorithm will provide consistent audio playback quality by playback devices in each of the different playback zones. There is
本明細書において記載される例は、再生ゾーン内に再生デバイスが存在するような再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することに関する。再生ゾーンにおいてオーディオコンテンツを再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。ある場合では、オーディオ処理アルゴリズムの適用は、オーディオコンテンツの1つ又は複数のオーディオ周波数におけるオーディオ増幅を変更することである。他の例もまた可能である。 Examples described herein relate to determining audio processing algorithms to be applied by a playback device based on acoustic characteristics of a playback zone within which the playback device resides. Application by the playback device of the determined audio processing algorithm when playing the audio content in the playback zone can cause, at least in part, the audio content rendered by the playback device in the playback zone to have predetermined audio characteristics. In some cases, the application of the audio processing algorithm is to change the audio amplification at one or more audio frequencies of the audio content. Other examples are also possible.
ある例では、オーディオ処理アルゴリズムのデータベースは保守されてもよく、データベース内のオーディオ処理アルゴリズムは、再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性、及び/又は再生ゾーンの寸法、再生ゾーンの床材及び/又は壁材、並びに再生ゾーン内の家具の数及び/又は種類などのうちの1つ又は複数を含んでもよい。 In one example, a database of audio processing algorithms may be maintained, and the audio processing algorithms in the database may be identified based on one or more characteristics of the play zone. The one or more characteristics of the regeneration zone may be the acoustic properties of the regeneration zone, and/or the dimensions of the regeneration zone, the flooring and/or walling of the regeneration zone, and the number and/or type of furniture in the regeneration zone. may include one or more of
オーディオ処理アルゴリズムのデータベースを保守することは、再生ゾーンの1つ又は複数の特性に対応する少なくとも1つのオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムをデータベースに追加することを含んでもよい。ある例では、データベースは、データベースを保守する1つ又は複数のデバイス又は1つ又は複数の他のデバイスに格納されうる。本明細書における説明において、別段の記載がない限り、データベースを保守するための機能は、とりわけ、1つ又は複数のコンピューティングデバイス(すなわち、サーバ)、1つ又は複数の再生デバイス、又は1つ又は複数のコントローラデバイスによって実行されうる。しかしながら、単純化のために、機能を実行する1つ又は複数のデバイスは、一般に、コンピューティングデバイスと称されてもよい。 Maintaining the database of audio processing algorithms may include determining at least one audio processing algorithm corresponding to one or more characteristics of the play zone and adding the determined audio processing algorithm to the database. . In some examples, the database may be stored on one or more devices or one or more other devices that maintain the database. In the description herein, unless stated otherwise, the functionality for maintaining the database may be, inter alia, one or more computing devices (i.e., servers), one or more playback devices, or one or more or may be performed by multiple controller devices. However, for the sake of simplicity, one or more devices that perform functions may be generally referred to as computing devices.
ある例では、そのようなオーディオ処理アルゴリズムを決定することは、コンピューティングデバイスが再生ゾーンの音響特性を決定することを含んでもよい。ある場合では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができる再生ゾーンをシミュレートするために使用されるモデルルームであってもよい。そのような場合、モデルルームの1つ又は複数の物理的特性(すなわち、寸法、床材及び壁材など)が予め決定されてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの自宅内の部屋であってもよい。そのような場合、再生ゾーンの物理的特性は、ユーザによって提供されてもよく又は未知であってもよい。 In one example, determining such audio processing algorithms may include the computing device determining acoustic characteristics of the play zone. In some cases, a play zone may be a model room used to simulate a play zone in which a playback device can play audio content. In such cases, one or more physical characteristics of the model room (ie, dimensions, flooring and wall coverings, etc.) may be predetermined. In other cases, the playback zone may be a room in the home of the user of the playback device. In such cases, the physical characteristics of the play zone may be provided by the user or unknown.
ある例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスにオーディオ信号を再生させてもよい。ある場合では、再生されたオーディオ信号は、再生デバイスによってレンダリング可能な全周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。その後、再生デバイスは、再生デバイスのマイクロホンを使用してオーディオ信号を検出してもよい。再生デバイスのマイクロホンは、再生デバイスの内蔵マイクロホンであってもよい。ある場合では、検出されたオーディオ信号は、再生されたオーディオ信号に対応する部分を含んでもよい。例えば、検出されたオーディオ信号は、再生ゾーン内で反射された再生されたオーディオ信号の成分を含んでもよい。コンピューティングデバイスは、検出されたオーディオ信号を再生デバイスから受信し、検出されたオーディオ信号に基づいて再生ゾーンの音響応答を決定してもよい。 In one example, a computing device may cause a playback device within a playback zone to play an audio signal. In some cases, the reproduced audio signal may include audio content having frequencies that substantially cover the entire frequency range renderable by the reproduction device. The playback device may then detect the audio signal using the playback device's microphone. The playback device's microphone may be the playback device's built-in microphone. In some cases, the detected audio signal may include portions corresponding to the reproduced audio signal. For example, the detected audio signal may include components of the reproduced audio signal reflected within the reproduction zone. A computing device may receive the detected audio signal from the playback device and determine an acoustic response of the playback zone based on the detected audio signal.
そして、コンピューティングデバイスは、再生ゾーンの音響応答から再生デバイスの音響特性を除去することによって再生ゾーンの音響特性を決定してもよい。再生デバイスの音響特性は、再生デバイスのモデルに対応する音響特性であってもよい。ある場合では、再生デバイスのモデルに対応する音響特性は、無響室におけるモデルの代表的な再生デバイスによって再生されて検出されたオーディオ信号に基づいて決定されてもよい。 The computing device may then determine the acoustic properties of the play zone by subtracting the acoustic properties of the playback device from the acoustic response of the play zone. The acoustic properties of the playback device may be acoustic properties corresponding to a model of the playback device. In some cases, acoustic characteristics corresponding to a model of a playback device may be determined based on detected audio signals played by a representative playback device of the model in an anechoic room.
そして、コンピューティングデバイスは、決定した再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、対応するオーディオ処理アルゴリズムを決定してもよい。所定のオーディオ特性は、良好なサウンディングとみなされる特定の周波数等化を含んでもよい。対応するオーディオ処理アルゴリズムが決定されて、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせてもよい。例えば、再生ゾーンの音響特性が特定のオーディオ周波数が他の周波数よりも減衰されたものである場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数の強めた増幅を含んでもよい。他の例もまた可能である。 The computing device may then determine corresponding audio processing algorithms based on the determined acoustic characteristics of the play zone and predetermined audio characteristics. Predetermined audio characteristics may include a particular frequency equalization that is considered good sounding. A corresponding audio processing algorithm is determined, and application of the corresponding audio processing algorithm by the playback device when playing back the audio content in the playback zone will affect, at least to some extent, the audio content rendered by the playback device in the playback zone. It may have audio characteristics. For example, if the acoustic properties of the play zone are such that certain audio frequencies are attenuated more than others, a corresponding audio processing algorithm may include increased amplification of certain audio frequencies. Other examples are also possible.
そして、決定されたオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けは、データベース内のエントリとして記憶されてもよい。幾つかの場合では、オーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の他の特性との関連付けが追加的に又は代替的にデータベースに記憶されてもよい。例えば、再生ゾーンが特定の寸法からなる場合、オーディオ処理アルゴリズムと特定の部屋寸法との関連付けがデータベースに記憶されてもよい。他の例もまた可能である。 The association between the determined audio processing algorithm and the acoustic properties of the play zone may then be stored as an entry in a database. In some cases, an association between audio processing algorithms and one or more other characteristics of the playback zone may additionally or alternatively be stored in the database. For example, if the play zone is of specific dimensions, the association of audio processing algorithms with specific room dimensions may be stored in the database. Other examples are also possible.
ある例では、データベースが、コンピューティングデバイスによってアクセスされることによって、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムが特定されてもよい。ある例では、データベースにアクセスしてオーディオ処理アルゴリズムを特定するコンピューティングデバイスは、上述したように、データベースを保守する同一のコンピューティングデバイスであってもよい。別の例では、コンピューティングデバイスは、異なるコンピューティングデバイスであってもよい。 In one example, a database may be accessed by a computing device to identify audio processing algorithms for a playback device to apply to a playback zone. In one example, the computing device that accesses the database to identify the audio processing algorithms may be the same computing device that maintains the database, as described above. In another example, the computing devices may be different computing devices.
幾つかの場合では、データベースにアクセスして、再生デバイスが再生ゾーンに適用するためのオーディオ処理アルゴリズムを特定することは、再生デバイスの校正の一部であってもよい。そのような再生デバイスの校正は、再生デバイス自体によって、再生デバイスと通信するサーバによって、又はコントローラデバイスによって開始されてもよい。ある場合では、再生デバイスが新規であり且つ校正が再生デバイスの初期設定の一部であるため、校正が開始されてもよい。別の場合では、再生デバイスは、同一の再生ゾーン内に又はある再生ゾーンから別の再生ゾーンに再配置されてもよい。さらなる場合では、校正は、コントローラデバイスを介してなど、再生デバイスのユーザによって開始されてもよい。 In some cases, accessing the database to identify audio processing algorithms for the playback device to apply to the playback zone may be part of calibrating the playback device. Calibration of such a playback device may be initiated by the playback device itself, by a server in communication with the playback device, or by a controller device. In some cases, calibration may be initiated because the playback device is new and calibration is part of the initial setup of the playback device. In other cases, playback devices may be relocated within the same playback zone or from one playback zone to another. In further cases, calibration may be initiated by a user of the playback device, such as through a controller device.
ある例では、再生デバイスの校正は、他の可能性の中でも特に、コンピューティングデバイスが、再生デバイスのユーザに、再生ゾーンの近似寸法、床材又は壁材、家具の量などの再生ゾーンの1つ又は複数の特性を示すように促すことを含んでもよい。コンピューティングデバイスは、コントローラデバイス上のユーザインタフェースを介してユーザに促すことができる。ユーザによって提供される再生ゾーンの1つ又は複数の特性に基づいて、再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムがデータベースにおいて特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに特定されたオーディオ処理アルゴリズムを適用してもよい。 In one example, calibrating the playback device involves, among other possibilities, allowing the computing device to provide the user of the playback device with the approximate dimensions of the playback zone, flooring or wall coverings, amount of furniture, etc. It may include prompting to indicate one or more characteristics. The computing device can prompt the user via a user interface on the controller device. Based on one or more characteristics of the playback zone provided by the user, audio processing algorithms corresponding to one or more characteristics of the playback zone may be identified in the database, and thus the playback device may may apply the specified audio processing algorithm when playing the audio content in .
別の例では、再生デバイスの校正は、再生ゾーンの音響特性を決定すること、及び再生ゾーンの音響特性に基づいて対応するオーディオ処理アルゴリズムを特定することを含んでもよい。再生ゾーンの音響特性の決定は、上述したものと同様であってもよい。例えば、再生デバイスが校正されている再生ゾーン内の再生デバイスは、第1のオーディオ信号を再生した後に、再生デバイスのマイクロホンを使用して第2のオーディオ信号を検出してもよい。そして、第2のオーディオ信号は、再生ゾーンの音響特性を決定することに基づいてもよい。決定された音響特性に基づいて、対応するオーディオ処理アルゴリズムがデータベース内で特定されてもよく、したがって、再生デバイスは、再生ゾーンにおいてオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。上述したように、再生ゾーンにおいてオーディオコンテンツを再生するときの再生デバイスによる対応するオーディオ処理アルゴリズムの適用は、再生ゾーンにおいて再生デバイスによってレンダリングされたオーディオコンテンツに、少なくともある程度、所定のオーディオ特性を持たせることができる。 In another example, calibrating a playback device may include determining acoustic properties of the playback zone and identifying corresponding audio processing algorithms based on the acoustic properties of the playback zone. Determining the acoustic properties of the playback zone may be similar to that described above. For example, a playback device within the playback zone in which the playback device is calibrated may detect the second audio signal using the playback device's microphone after playing the first audio signal. The second audio signal may then be based on determining the acoustic properties of the playback zone. Based on the determined acoustic characteristics, a corresponding audio processing algorithm may be identified in the database so that the playback device applies the identified audio processing algorithm when playing audio content in the playback zone. may As described above, the application of corresponding audio processing algorithms by a playback device when playing back audio content in a playback zone causes the audio content rendered by the playback device in the playback zone to have, at least to some extent, predetermined audio characteristics. be able to.
上述した再生デバイスの校正についての説明は、一般に、オーディオ処理アルゴリズムのデータベースを含むが、当業者は、コンピューティングデバイスがデータベースにアクセスすることなく再生ゾーンについてのオーディオ処理アルゴリズムを決定することができることを理解するであろう。例えば、データベース内の対応するオーディオ処理アルゴリズムを特定する代わりに、コンピューティングデバイスは、(検出されたオーディオ信号からの)再生ゾーンの音響特性と、データベースについてのオーディオ処理アルゴリズムエントリの保守及び生成に関連して上述したものと同様の所定のオーディオ特性とに基づいて、オーディオ処理アルゴリズムを計算することによってオーディオ処理アルゴリズムを決定することができる。他の例もまた可能である。 Although the above discussion of calibrating playback devices generally includes a database of audio processing algorithms, those skilled in the art will appreciate that a computing device can determine audio processing algorithms for a playback zone without accessing the database. will understand. For example, instead of identifying corresponding audio processing algorithms in a database, the computing device relates the acoustic characteristics of the play zone (from detected audio signals) to the maintenance and generation of audio processing algorithm entries for the database. The audio processing algorithm can be determined by calculating the audio processing algorithm based on predetermined audio characteristics similar to those described above. Other examples are also possible.
ある場合では、校正されるべき再生デバイスは、再生ゾーンにおいてオーディオコンテンツを同期して再生するように構成された複数の再生デバイスのうちの1つであってもよい。そのような場合、再生ゾーンの音響特性の決定は、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号を含むこともできる。ある例では、オーディオ処理アルゴリズムを決定している間、再生ゾーンにおける複数の再生デバイスのそれぞれは、同時にオーディオ信号を再生することができ、再生デバイスのマイクロホンによって検出されたオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分とともに、再生ゾーン内の他の再生デバイスによって再生されたオーディオ信号の部分を含んでもよい。検出されたオーディオ信号に基づいて、再生ゾーンの音響応答を決定することができ、再生ゾーンの音響応答から校正されている再生デバイスの音響特性を除去することによって、他の再生デバイスを含む再生ゾーンの音響特性を決定することができる。そして、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に基づいてデータベース内で計算又は特定され、再生デバイスによって適用されうる。 In some cases, the playback device to be calibrated may be one of a plurality of playback devices configured to synchronously play back audio content in the playback zone. In such cases, the determination of the acoustic properties of the reproduction zone may also include audio signals reproduced by other reproduction devices within the reproduction zone. In one example, while determining the audio processing algorithm, each of the multiple playback devices in the playback zone can simultaneously play an audio signal, and the audio signal detected by the playback device's microphone is received by the playback device. Portions of the audio signal played by other playback devices within the playback zone may be included along with the portion corresponding to the played audio signal. Based on the detected audio signal, the acoustic response of the playback zone can be determined, and the playback zone including other playback devices by removing the acoustic characteristics of the calibrated playback device from the acoustic response of the playback zone. can determine the acoustic properties of Audio processing algorithms can then be calculated or specified in the database based on the acoustic properties of the playback zone and applied by the playback device.
別の場合では、再生ゾーン内の複数の再生デバイスにおける2つ以上の再生デバイスは、各内蔵マイクロホンをそれぞれ有することができ、上記記載にしたがってそれぞれ個別に校正されうる。1つの例において、2つ以上の再生デバイスのそれぞれのマイクロホンによって検出されたオーディオ信号の集合に基づいて、再生ゾーンの音響特性が決定されてもよく、音響特性に対応するオーディオ処理アルゴリズムは、2つ以上の再生デバイスのそれぞれについて特定されてもよい。他の例もまた可能である。 Alternatively, two or more playback devices in a plurality of playback devices within a playback zone can each have their own built-in microphones, each of which can be individually calibrated according to the above description. In one example, the acoustic characteristics of the playback zone may be determined based on sets of audio signals detected by respective microphones of two or more playback devices, and the audio processing algorithms corresponding to the acoustic characteristics are: It may be specified for each of one or more playback devices. Other examples are also possible.
上述したように、本開示は、再生デバイスを含む特定の再生ゾーンの音響特性に基づいて、再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含む。1つの態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。本機能は、さらに、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。 As noted above, the present disclosure involves determining audio processing algorithms to be applied by a playback device based on acoustic characteristics of a particular playback zone containing the playback device. In one aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The functionality includes causing a playback device within the playback zone to play the first audio signal, and receiving data from the playback device indicative of a second audio signal detected by a microphone of the playback device. The second audio signal includes portions corresponding to the first audio signal. The function further includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and transmitting data indicative of the determined audio processing algorithm to the playback device.
別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、第1の再生デバイスに再生ゾーンにおいて第1のオーディオ信号を再生させること、第2の再生デバイスに再生ゾーンにおいて第2のオーディオ信号を再生させること、及び第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを第1の再生デバイスから受信することを含む。第3のオーディオ信号は、(i)第1のオーディオ信号に対応する部分と、(ii)第2の再生デバイスによって再生された第2のオーディオ信号に対応する部分とを含む。また、本機能は、第3のオーディオ信号及び第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムを示すデータを第1の再生デバイスに送信することを含む。 In another aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The function comprises causing a first playback device to play a first audio signal in the play zone, causing a second playback device to play a second audio signal in the play zone, and a microphone of the first playback device. receiving from the first playback device data indicative of the third audio signal detected by the. The third audio signal includes (i) a portion corresponding to the first audio signal and (ii) a portion corresponding to the second audio signal reproduced by the second reproduction device. The function also determines an audio processing algorithm based on the third audio signal and the acoustic characteristics of the first playback device, and transmits data indicative of the determined audio processing algorithm to the first playback device. Including.
別の態様において、再生デバイスが提供される。再生デバイスは、プロセッサと、マイクロホンと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーンにおいて第1のオーディオ信号を再生しながら、マイクロホンによって第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び再生ゾーンにおいてメディアアイテムを再生するときに、決定されたオーディオ処理アルゴリズムをメディアアイテムに対応するオーディオデータに適用することを含む。 In another aspect, a playback device is provided. The playback device includes a processor, a microphone, and a memory storing instructions executable by the processor to cause the playback device to perform functions. The function includes detecting a second audio signal with a microphone while playing the first audio signal in the play zone. The second audio signal includes portions corresponding to the first audio signal. The facility also includes determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device, and applying the determined audio processing algorithm to the media item when playing the media item in the playback zone. to the audio data corresponding to the
別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、及びオーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。 In another aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The functionality includes causing a playback device within the playback zone to play a first audio signal and receiving data indicative of a second audio signal detected by a microphone of the playback device. The second audio signal includes portions corresponding to the first audio signal reproduced by the reproduction device. The functionality also includes determining acoustic characteristics of the playback zone based on the characteristics of the second audio signal and the playback device, determining an audio processing algorithm based on the acoustic characteristics of the playback zone, and the audio processing algorithm. Storing in a database the association with the acoustic properties of the play zone.
別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、及び(i)再生ゾーンの1つ又は複数の特性を示すデータと、(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータとを受信することを含む。第2のオーディオ信号は、再生デバイスによって再生されたオーディオ信号に対応する部分を含む。また、本機能は、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定すること、及び決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。 In another aspect, a computing device is provided. A computing device includes a processor and memory storing instructions executable by the processor to cause the computing device to perform functions. The function comprises causing a playback device within the playback zone to play a first audio signal, and (i) data indicative of one or more characteristics of the playback zone and (ii) the audio signal detected by the playback device's microphone. and receiving data indicative of a second audio signal. The second audio signal includes portions corresponding to the audio signal reproduced by the reproduction device. The facility also includes determining an audio processing algorithm based on the characteristics of the second audio signal and the playback device, and combining the determined audio processing algorithm with at least one of the one or more characteristics of the playback zone. Including storing the association in a database.
別の態様において、コンピューティングデバイスが提供される。コンピューティングデバイスは、プロセッサと、プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリとを含む。本機能は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応する。また、本機能は、再生ゾーンの1つ又は複数の特性を示すデータを受信すること、データに基づいてオーディオ処理アルゴリズムをデータベースにおいて特定すること、及び特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。 In another aspect, a computing device is provided. The computing device includes a processor and memory storing instructions executable by the processor to cause the playback device to perform functions. This functionality includes maintaining a database of (i) multiple audio processing algorithms and (ii) multiple play zone characteristics. Each audio processing algorithm of the plurality of audio processing algorithms corresponds to at least one play zone characteristic of the plurality of play zone characteristics. The function also receives data indicative of one or more characteristics of the playback zone, identifies in the database an audio processing algorithm based on the data, and transmits data indicative of the identified audio processing algorithm. including.
本明細書に記載の幾つかの例は、「ユーザ」及び/又は他の実体のような任意の主体によって行われる機能について言及するが、このことは単に例示目的であると理解されるべきである。特許請求の範囲は、特許請求の範囲自体の記載によって明示的に要請されない限り、そのような例示の主体の動作であることを要請するものと解釈されてはならない。当業者にとって、本開示には他の複数の実施形態が含まれることは理解されるであろう。 Although some examples described herein refer to functions performed by arbitrary entities such as "users" and/or other entities, it should be understood that this is for illustrative purposes only. be. The claims should not be construed as requiring such exemplary subject matter to be acted upon unless expressly requested by the claims themselves. It will be appreciated by those skilled in the art that this disclosure includes multiple other embodiments.
II.動作環境の例
図1は、本明細書で開示されている1つ又は複数の実施形態で実施可能又は実装可能なメディア再生システム100の例示的な構成を示す。図示されるように、メディア再生システム100は、複数の部屋および空間、例えば、主寝室、オフィス、ダイニングルーム、およびリビングルームを有する例示的なホーム環境と関連付けられている。図1の例に示されるように、メディア再生システム100は、再生デバイス102-124、制御デバイス126および128、有線又は無線のネットワークルータ130を含む。
II. Example Operating Environment FIG. 1 illustrates an example configuration of a
更に、例示的なメディア再生システム100の異なる構成要素、および異なる構成要素がどのように作用してユーザにメディア体験を提供するかに関しての説明は、以下のセクションで述べられている。本明細書における説明は、概してメディア再生システム100を参照しているが、本明細書で述べられている技術は、図1に示されるホーム環境の用途に限定されるものではない。例えば、本明細書で述べられている技術は、マルチゾーンオーディオが望まれる環境、例えば、レストラン、モール、又は空港のような商業的環境、スポーツ用多目的車(SUV)、バス又は車のような車両、船、若しくはボード、飛行機などの環境において有益である。
Further descriptions regarding the different components of the exemplary
a.例示的な再生デバイス
図2は、図1のメディア再生システム100の再生デバイス102-124の1つ又は複数を構成する例示的な再生デバイス200の機能ブロック図を示す。再生デバイス200は、プロセッサ202、ソフトウェアコンポーネント204、メモリ206、オーディオ処理コンポーネント208、オーディオアンプ210、スピーカー212、マイクロホン220、およびネットワークインタフェース214を含んでもよい。ネットワークインタフェース214は、無線インタフェース216および有線インタフェース218を含む。ある場合では、再生デバイス200は、スピーカー212を含まないが、再生デバイス200を外部スピーカーに接続するためのスピーカーインタフェースを含んでいてもよい。別の場合では、再生デバイス200は、スピーカー212もオーディオアンプ210も含まないが、再生デバイス200を外部オーディオアンプ又はオーディオビジュアルレシーバーに接続するためのオーディオインタフェースを含んでもよい。
a. Exemplary Playback Device FIG. 2 illustrates a functional block diagram of an exemplary playback device 200 that may make up one or more of the playback devices 102-124 of the
ある例では、プロセッサ202は、メモリ206に記憶された命令に基づいて、入力データを処理するように構成されたクロック駆動コンピュータコンポーネントであってもよい。メモリ206は、プロセッサ202によって実行可能な命令を記憶するように構成された非一時的なコンピュータ読み取り可能記録媒体であってもよい。例えば、メモリ206は、ある機能を実行するためにプロセッサ202によって実行可能なソフトウェアコンポーネント204の1つ又は複数をロードすることができるデータストレージであってもよい。ある例では、機能は、再生デバイス200がオーディオソース又は別の再生デバイスからオーディオデータを読み出すステップを含んでもよい。別の例では、機能は、再生デバイス200がネットワーク上の別のデバイス又は再生デバイスにオーディオデータを送信するステップを含んでもよい。更に別の例では、機能は、マルチチャンネルオーディオ環境を作るために、再生デバイス200と1つ又は複数の再生デバイスとをペアリングするステップを含んでもよい。
In one example, processor 202 may be a clocked computer component configured to process input data based on instructions stored in
ある機能は、再生デバイス200が、1つ又は複数の他の再生デバイスと、オーディオコンテンツの再生を同期するステップを含む。再生を同期している間、再生デバイス200によるオーディオコンテンツの再生と1つ又は複数の他の再生デバイスによる再生との間の遅延を、リスナーが気づかないことが好ましい。「複数の独立クロックデジタルデータ処理デバイス間の動作を同期するシステムおよび方法」と題する米国特許第8,234,395号が本明細書に参照として援用されており、それは再生デバイス間のオーディオ再生を同期することが述べられたより詳細な例を提供している。 Certain functions include playback device 200 synchronizing playback of audio content with one or more other playback devices. While synchronizing playback, the listener is preferably unaware of any delay between playback of audio content by playback device 200 and playback by one or more other playback devices. U.S. Pat. No. 8,234,395, entitled "System and Method for Synchronizing Operation Between Multiple Independently Clocked Digital Data Processing Devices," is incorporated herein by reference and describes audio playback between playback devices. We provide a more detailed example where synchronizing is mentioned.
更に、メモリ206は、データを記憶するように構成されていてもよい。データは、例えば、1つ又は複数のゾーンおよび/又はゾーングループに一部として含まれる再生デバイス200などの再生デバイス200、再生デバイス200によりアクセス可能なオーディオソース、又は再生デバイス200(又は他の再生デバイス)と関連付け可能な再生キュー、に関連付けられている。データは、定期的に更新され、再生デバイス200の状態を示す1つ又は複数の状態変数として記憶されてもよい。また、メモリ206は、メディアシステムの他のデバイスの状態と関連付けられたデータを含んでもよく、デバイス間で随時共有することによって、1つ又は複数のデバイスが、システムと関連するほぼ直近のデータを有してもよい。他の実施形態も可能である。
Additionally,
オーディオ処理コンポーネント208は、とりわけ、1つ又は複数のデジタル-アナログ変換器(DAC)、アナログ-デジタル変換器(ADC)、オーディオ処理コンポーネント、オーディオ強化コンポーネント、及びデジタルシグナルプロセッサ(DSP)を含んでいてもよい。ある実施形態では、1つ又は複数のオーディオ処理コンポーネント208は、プロセッサ202のサブコンポーネントであってもよい。ある実施形態では、オーディオコンテンツが、オーディオ処理コンポーネント208によって処理および/又は意図的に変更されることによって、オーディオ信号を生成してもよい。生成されたオーディオ信号は、オーディオアンプ210に送信され、増幅され、スピーカー212を通じて再生される。特に、オーディオアンプ210は、1つ又は複数のスピーカー212を駆動できるレベルまでオーディオ信号を増幅するように構成されたデバイスを含んでもよい。スピーカー212は、独立した変換器(例えば、「ドライバ」)又は1つ又は複数のドライバを内包する筐体を含む完全なスピーカーシステムを備えてもよい。スピーカー212に備えられたあるドライバは、例えば、サブウーファー(例えば、低周波用)、ミドルレンジドライバ(例えば、中間周波用)、および/又はツイーター(高周波用)を含んでもよい。ある場合では、1つ又は複数のスピーカー212のそれぞれの変換器は、オーディオアンプ210の対応する個々のオーディオアンプによって駆動されてもよい。再生デバイス200で再生するアナログ信号を生成することに加えて、オーディオ処理コンポーネント208は、オーディオコンテンツを処理し、そのオーディオコンテンツを1つ又は複数の他の再生デバイスに再生させるために送信する。 Audio processing components 208 include, among others, one or more digital-to-analog converters (DACs), analog-to-digital converters (ADCs), audio processing components, audio enhancement components, and digital signal processors (DSPs). good too. In some embodiments, one or more of audio processing components 208 may be subcomponents of processor 202 . In some embodiments, audio content may be processed and/or intentionally altered by audio processing component 208 to generate an audio signal. The generated audio signal is sent to audio amplifier 210 to be amplified and played through speaker 212 . In particular, audio amplifier 210 may include devices configured to amplify audio signals to a level capable of driving one or more speakers 212 . Speaker 212 may comprise a complete speaker system including a separate transducer (eg, “driver”) or an enclosure enclosing one or more drivers. Certain drivers provided with speaker 212 may include, for example, a subwoofer (eg, for low frequencies), a mid-range driver (eg, for medium frequencies), and/or a tweeter (for high frequencies). In some cases, each transducer of one or more speakers 212 may be driven by a corresponding individual audio amplifier of audio amplifier 210 . In addition to generating analog signals for playback on playback device 200, audio processing component 208 processes audio content and transmits the audio content for playback to one or more other playback devices.
再生デバイス200によって処理および/又は再生されるオーディオコンテンツは、外部ソース、例えば、オーディオライン-イン入力接続(例えば、オートディテクティング3.5mmオーディオラインイン接続)又はネットワークインタフェース214を介して、受信されてもよい。 Audio content to be processed and/or played by playback device 200 is received from an external source, such as an audio line-in input connection (eg, an autodetecting 3.5 mm audio line-in connection) or network interface 214 . may
マイクロホン220は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、オーディオ処理コンポーネント208及び/又はプロセッサ202によって処理されうる。マイクロホン220は、再生デバイス200における1つ又は複数の位置において1つ又は複数の向きに配置されうる。マイクロホン220は、1つ又は複数の周波数レンジ内のサウンドを検出するように構成されうる。ある場合では、1つ又は複数のマイクロホン220は、再生デバイス200が可能であるか又はレンダリングしているオーディオの周波数レンジ内のサウンドを検出するように構成されうる。別の場合では、1つ又は複数のマイクロホン220は、人間の可聴周波数レンジ内のサウンドを検出するように構成されてもよい。他の例もまた可能である。 Microphone 220 may include an audio sensor configured to convert detected sounds into electrical signals. The electrical signal may be processed by audio processing component 208 and/or processor 202 . Microphone 220 may be placed in one or more orientations at one or more locations on playback device 200 . Microphone 220 may be configured to detect sounds within one or more frequency ranges. In some cases, one or more microphones 220 may be configured to detect sounds within the frequency range of audio that playback device 200 is capable of or rendering. In other cases, one or more microphones 220 may be configured to detect sounds within the human audible frequency range. Other examples are also possible.
ネットワークインタフェース214は、データネットワーク上で再生デバイス200と1つ又は複数の他のデバイスとの間のデータフローを可能にするように構成されてもよい。このように、再生デバイス200は、再生デバイスと通信する1つ又は複数の他の再生デバイス、ローカルエリアネットワーク内のネットワークデバイス、又は例えば、インターネット等のワイドエリアネットワーク上のオーディオコンテンツソースから、データネットワークを介してオーディオコンテンツを受信するように構成されていてもよい。ある例では、再生デバイス200によって送信および受信されたオーディオコンテンツおよび他の信号は、インターネットプロトコル(IP)に基づくソースアドレスおよびIPに基づく宛先アドレスを含むデジタルパケットの形で送信されてもよい。そのような場合、ネットワークインタフェース214は、デジタルパケットデータを解析することによって、再生デバイス200宛てのデータを、再生デバイス200によって適切に受信して処理することができる。 Network interface 214 may be configured to allow data flow between playback device 200 and one or more other devices over a data network. In this way, the playback device 200 can communicate with one or more other playback devices in communication with the playback device, network devices in a local area network, or audio content sources on a wide area network, such as the Internet, for example, from a data network. may be configured to receive audio content via. In one example, audio content and other signals transmitted and received by playback device 200 may be transmitted in the form of digital packets that include an Internet Protocol (IP)-based source address and an IP-based destination address. In such cases, network interface 214 parses the digital packet data so that data intended for playback device 200 can be properly received and processed by playback device 200 .
図示されるように、ネットワークインタフェース214は、無線インタフェース216と有線インタフェース218とを含んでもよい。無線インタフェース216は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、無線規格IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15、4Gモバイル通信基準などを含む無線基準(規格)のいずれか)に基づいて、他のデバイス(例えば、再生デバイス200に関連付けられたデータネットワーク内の他の再生デバイス、スピーカー、レシーバー、ネットワークデバイス、制御デバイス)と無線通信してもよい。有線インタフェース218は、再生デバイス200用のネットワークインタフェース機能を提供し、通信プロトコル(例えば、IEEE802.3)に基づいて他のデバイスとの有線接続を介して通信してもよい。図2に示されるネットワークインタフェース214は、無線インタフェース216と有線インタフェース218との両方を含んでいるが、ネットワークインタフェース214は、ある実施形態において、無線インタフェースのみか、又は有線インタフェースのみを含んでいてもよい。 As shown, network interface 214 may include wireless interface 216 and wired interface 218 . Wireless interface 216 provides network interface functionality for playback device 200 and supports communication protocols (e.g., wireless standards IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, 4G Mobile other devices (e.g., other playback devices, speakers, receivers, network devices, control devices) in the data network associated with playback device 200, based on any wireless standard (including communication standards, etc.). may communicate wirelessly with Wired interface 218 may provide network interface functionality for playback device 200 to communicate via wired connections with other devices based on communication protocols (eg, IEEE 802.3). Although the network interface 214 shown in FIG. 2 includes both a wireless interface 216 and a wired interface 218, the network interface 214 may include only a wireless interface or only a wired interface in some embodiments. good.
ある例では、再生デバイス200と他の再生デバイスとは、ペアにされて、オーディオコンテンツの2つの別々のオーディオコンポーネントを再生してもよい。例えば、再生デバイス200は、左チャンネルオーディオコンポーネントを再生するように構成される一方、他の再生デバイスは、右チャンネルオーディオコンポーネントを再生するように構成されてもよい。これにより、オーディオコンテンツのステレオ効果を生成するか、又は強化することができる。ペアにされた再生デバイス(「結合再生デバイス」とも言う)は、更に、他の再生デバイスと同期してオーディオコンテンツを再生してもよい。 In one example, playback device 200 and another playback device may be paired to play two separate audio components of the audio content. For example, playback device 200 may be configured to play left channel audio components, while other playback devices may be configured to play right channel audio components. This can create or enhance the stereo effect of the audio content. Paired playback devices (also referred to as "combined playback devices") may also play audio content in sync with other playback devices.
別の例では、再生デバイス200は、1つ又は複数の他の再生デバイスと音響的に統合され、単一の統合された再生デバイス(統合再生デバイス)を形成してもよい。統合再生デバイスは、統合されていない再生デバイス又はペアにされた再生デバイスと比べて、サウンドの処理や再現を異なるように構成することができる。なぜならば、統合再生デバイスは、オーディオコンテンツを再生するスピーカー追加することができるからである。例えば、再生デバイス200が、低周波レンジのオーディオコンテンツを再生するように設計されている場合(例えば、サブウーファー)、再生デバイス200は、全周波数レンジのオーディオコンテンツを再生するように設計された再生デバイスと統合されてもよい。この場合、全周波数レンジの再生デバイスは、低周波の再生デバイス200と統合されたとき、オーディオコンテンツの中高周波コンポーネントのみを再生するように構成されてもよい。一方で低周波レンジの再生デバイス200は、オーディオコンテンツの低周波コンポーネントを再生する。更に、統合再生デバイスは、単一の再生デバイス、又は更に他の統合再生デバイスとペアにされてもよい。 In another example, playback device 200 may be acoustically integrated with one or more other playback devices to form a single integrated playback device (integrated playback device). Integrated playback devices may be configured to process and reproduce sound differently than non-integrated or paired playback devices. This is because the integrated playback device can add speakers to play audio content. For example, if the playback device 200 is designed to play audio content in the low frequency range (e.g., a subwoofer), the playback device 200 may be a playback device designed to play audio content in the full frequency range. May be integrated with the device. In this case, the full frequency range playback device, when integrated with the low frequency playback device 200, may be configured to play only the mid-high frequency components of the audio content. The low frequency range playback device 200, on the other hand, plays back the low frequency components of the audio content. Further, an integrated playback device may be paired with a single playback device or even other integrated playback devices.
例として、現在、ソノズ・インコーポレイテッドは、「PLAY:1」、「PLAY:3」、「PLAY:5」、「PLAYBAR」、「CONNECT:AMP」、「CONNECT」、および「SUB」を含む再生デバイスを販売提供している。他の過去、現在、および/又は将来のいずれの再生デバイスにおいても、追加的に又は代替的に本明細書で開示された実施例の再生デバイスに実装して使用することができる。更に、再生デバイスは、図2に示された特定の例又は提供されるソノズ製品に限定されないことは理解される。例えば、再生デバイスは、有線又は無線のヘッドホンを含んでもよい。別の例では、再生デバイスは、パーソナルモバイルメディア再生デバイス用のドッキングステーションを含むか、又は、それらと対話してもよい。更に別の例では、再生デバイスは、別のデバイス又はコンポーネント、例えば、テレビ、照明器具、又は屋内又は屋外で使用するためのいくつかの他のデバイスと一体化されてもよい。 By way of example, Sonos, Inc. currently lists playback options including "PLAY:1", "PLAY:3", "PLAY:5", "PLAYBAR", "CONNECT:AMP", "CONNECT", and "SUB". We sell devices. Any other past, present, and/or future playback devices may additionally or alternatively be implemented and used with the example playback devices disclosed herein. Further, it is understood that the playback device is not limited to the specific examples shown in FIG. 2 or the Sonos products provided. For example, the playback device may include wired or wireless headphones. In another example, the playback device may include or interact with a docking station for a personal mobile media playback device. In yet another example, the playback device may be integrated with another device or component, such as a television, lighting fixture, or some other device for indoor or outdoor use.
b.例示的な再生ゾーン構成
図1のメディア再生システム100に戻って、環境は、1つ又は複数の再生ゾーンを有しており、それぞれの再生ゾーンは1つ又は複数の再生デバイスを含んでいる。メディア再生システム100は、1つ又は複数の再生ゾーンで形成されており、後で1つ又は複数のゾーンが追加又は削除して、図1に示す例示的な構成としてもよい。それぞれのゾーンは、異なる部屋又は空間、例えば、オフィス、浴室、主寝室、寝室、キッチン、ダイニングルーム、リビングルーム、および/又はバルコニーに基づく名前が与えられてもよい。ある場合では、単一の再生ゾーンは複数の部屋又は空間を含んでいてもよい。別の場合では、単一の部屋又は空間は、複数の再生ゾーンを含んでいてもよい。
b. Exemplary Play Zone Configurations Returning to
図1に示されるように、バルコニー、ダイニングルーム、キッチン、浴室、オフィス、および寝室のゾーンのそれぞれは、1つの再生デバイスを有する一方、リビングルームおよび主寝室のゾーンのそれぞれは、複数の再生デバイスを有する。リビングルームゾーンは、再生デバイス104、106、108、および110が、別々の再生デバイスとしてか、1つ又は複数の結合再生デバイスとしてか、1つ又は複数の統合再生デバイスとしてか、又はこれらのいずれかの組み合わせで、オーディオコンテンツを同期して再生するように構成されてもよい。同様に、主寝室の場合では、再生デバイス122および124が、別々の再生デバイスとしてか、結合再生デバイスとしてか、又は統合再生デバイスとして、オーディオコンテンツを同期して再生するように構成されてもよい。
As shown in FIG. 1, the balcony, dining room, kitchen, bathroom, office, and bedroom zones each have one playback device, while the living room and master bedroom zones each have multiple playback devices. have The living room zone may have
ある例では、図1の環境における1つ又は複数の再生ゾーンは、それぞれ異なるオーディオコンテンツを再生している。例えば、ユーザは、バルコニーゾーンでグリルしながら、再生デバイス102によって再生されるヒップホップ音楽を聞くことができる。一方、別のユーザは、キッチンゾーンで食事を準備しながら、再生デバイス114によって再生されるクラシック音楽を聞くことができる。別の例では、再生ゾーンは、同じオーディオコンテンツを別の再生ゾーンと同期して再生してもよい。例えば、ユーザがオフィスゾーンにいる場合、オフィスゾーンの再生デバイス118が、バルコニーの再生デバイス102で再生されている音楽と同じ音楽を再生してもよい。そのような場合、再生デバイス102および118は、ロック音楽を同期して再生しているため、ユーザは、異なる再生ゾーン間を移動してもアウト-ラウドで再生されるオーディオコンテンツをシームレス(又は少なくともほぼシームレス)に楽しむことができる。再生ゾーン間の同期は、前述の米国特許第8,234,395号で述べられているような再生デバイス間の同期と同様の方法で行ってもよい。
In one example, one or more play zones in the environment of FIG. 1 are each playing different audio content. For example, a user can listen to hip hop music played by
上述したように、メディア再生システム100のゾーン構成は、動的に変更してもよく、ある実施形態では、メディア再生システム100は、複数の構成をサポートする。例えば、ユーザが1つ又は複数の再生デバイスを、物理的にゾーンに移動させるか、又はゾーンから移動させる場合、メディア再生システム100は変更に対応するように再構成されてもよい。例えば、ユーザが再生デバイス102をバルコニーゾーンからオフィスゾーンに物理的に移動させる場合、オフィスゾーンは、再生デバイス118と再生デバイス102との両方を含んでもよい。必要に応じて、制御デバイス、例えば制御デバイス126と128とを介して、再生デバイス102が、ペアにされるか、又はオフィスゾーンにグループ化されるか、および/又はリネームされてもよい。一方、1つ又は複数の再生デバイスが、再生ゾーンを未だ設定していないホーム環境において、ある領域に移動させられた場合、新しい再生ゾーンがその領域に形成されてもよい。
As noted above, the zone configuration of
更に、メディア再生システム100の異なる再生ゾーンは、動的にゾーングループに組み合わされてもよいし、又は別々の再生ゾーンに分割されてもよい。例えば、ダイニングルームゾーンとキッチンゾーン114とがディナーパーティ用のゾーングループに組み合わされることによって、再生デバイス112と114とがオーディオコンテンツを同期して再生することができる。一方、あるユーザがテレビを見たい一方、他のユーザがリビングルーム空間の音楽を聞きたい場合、リビングルームゾーンが、再生デバイス104を含むテレビゾーンと、再生デバイス106、108および110を含むリスニングゾーンと、に分けられてもよい。
Further, different playback zones of
c.例示的な制御デバイス
図3は、メディア再生システム100の制御デバイス126と128とうちの一方又は両方を構成する例示的な制御デバイス300の機能ブロック図を示す。図示されるように、制御デバイス300は、プロセッサ302、メモリ304、ネットワークインタフェース306、ユーザインタフェース308、及びマイクロホン310を含んでもよい。ある例では、制御デバイス300は、メディア再生システム100専用の制御デバイスであってもよい。別の例では、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールされたネットワークデバイス、例えば、iPhone(登録商標)、iPad(登録商標)、又は任意の他のスマートフォン、タブレットあるいはネットワークデバイス(例えば、PC又はMac(登録商標)などのネットワークコンピュータ)であってもよい。
c. Exemplary Control Device FIG. 3 shows a functional block diagram of an exemplary control device 300 that constitutes one or both of
プロセッサ302は、メディア再生システム100のユーザアクセス、コントロール、および構成を可能にすることに関する機能を実行するように構成されてもよい。メモリ304は、プロセッサ302によって実行可能な命令を記憶し、それらの機能を実行するように構成されていてもよい。また、メモリ304は、メディア再生システムコントローラアプリケーションソフトウェアと、メディア再生システム100とユーザとに関連付けられた他のデータを記憶するように構成されていてもよい。
Processor 302 may be configured to perform functions related to enabling user access, control, and configuration of
マイクロホン310は、検出されたサウンドを電気信号に変換するように構成されたオーディオセンサを含んでもよい。電気信号は、プロセッサ302によって処理されうる。ある場合では、制御デバイス300が音声通信又は音声録音のための手段として使用されることもできるデバイスである場合、1つ又は複数のマイクロホン310は、それらの機能を容易にするマイクロホンであってもよい。例えば、1つ又は複数のマイクロホン310は、人間が生成可能な周波数レンジ及び/又は人間の可聴周波数レンジ内のサウンドを検出するように構成されうる。他の例もまた可能である。 Microphone 310 may include an audio sensor configured to convert detected sounds into electrical signals. The electrical signal may be processed by processor 302 . In some cases, if the control device 300 is a device that can also be used as a means for voice communication or voice recording, the one or more microphones 310 may be microphones that facilitate those functions. good. For example, one or more microphones 310 may be configured to detect sounds within the human-producible frequency range and/or the human-audible frequency range. Other examples are also possible.
ある例では、ネットワークインタフェース306は、工業規格(例えば、赤外線、無線、IEEE802.3などの有線規格、IEEE802.11a、802.11b、802.11g、802.11n、802.11ac、802.15などの無線規格、4G通信規格など)に基づいてもよい。ネットワークインタフェース306においては、制御デバイス300がメディア再生システム100内の他のデバイスと通信するための手段を提供してもよい。ある例では、データおよび情報(例えば、状態変数)は、ネットワークインタフェース306を介して制御デバイス300と他のデバイスとの間で通信されてもよい。例えば、メディア再生システム100における再生ゾーンおよびゾーングループの構成は、制御デバイス300によって、再生デバイス又は別のネットワークデバイスから受信されてもよいし、あるいは制御デバイス300によって、ネットワークインタフェース306を介して別の再生デバイス又はネットワークデバイスに送信されてもよい。ある場合では、他のネットワークデバイスは、別の制御デバイスであってもよい。
In one example, the network interface 306 is an industry standard (e.g., infrared, wireless, wireline standards such as IEEE 802.3, IEEE 802.11a, 802.11b, 802.11g, 802.11n, 802.11ac, 802.15, etc.). wireless standard, 4G communication standard, etc.). Network interface 306 may provide a means for control device 300 to communicate with other devices within
ボリュームコントロールおよびオーディオ再生コントロールなどの再生デバイス制御コマンドは、ネットワークインタフェース306を介して制御デバイス300から再生デバイスに通信されてもよい。上述したように、メディア再生システム100の構成の変更は、ユーザにより制御デバイス300を用いて行うことができる。構成の変更は、1つ又は複数の再生デバイスをゾーンに追加すること、1つ又は複数の再生デバイスをゾーンから取り除くこと、1つ又は複数のゾーンをゾーングループに追加すること、1つ又は複数のゾーンをゾーングループから取り除くこと、結合プレーヤー又は統合プレーヤーを形成すること、結合プレーヤー又は統合プレーヤーから1つ又は複数の再生デバイスに分けることなどを含んでもよい。このように、制御デバイス300は、コントローラと呼ばれてもよく、制御デバイス300は、メディア再生システムコントローラアプリケーションソフトウェアをインストールした専用のコントローラか、又はネットワークデバイスであってもよい。
Playback device control commands, such as volume control and audio playback controls, may be communicated from control device 300 to playback devices via network interface 306 . As described above, changes in the configuration of the
制御デバイス300のユーザインタフェース308は、図4に示されるコントローラインタフェース400などのようなコントローラインタフェースを提供することによって、メディア再生システム100のユーザアクセスおよび制御を可能にするように構成されていてもよい。コントローラインタフェース400は、再生制御領域410、再生ゾーン領域420、再生ステータス領域430、再生キュー領域440、およびオーディオコンテンツソース領域450を含む。図示されるユーザインタフェース400は、図3の制御デバイス300などのようなネットワークデバイス(および/又は図1の制御デバイス126および128)を設けられたユーザインタフェースの単なる一例であって、ユーザによってメディア再生システム100などのようなメディア再生システムを制御するためにアクセスされるものである。あるいは、様々なフォーマット、スタイル、および対話型シーケンスを他のユーザのインタフェースを1つ又は複数のネットワークデバイスに実装し、メディア再生システムへ類似の制御アクセスを提供してもよい。
User interface 308 of control device 300 may be configured to allow user access and control of
再生制御領域410は、(例えば、タッチ又はカーソルを用いることで)選択可能なアイコンを含んでもよい。このアイコンによって、選択された再生ゾーン又はゾーングループ内の再生デバイスが、再生又は停止、早送り、巻き戻し、次にスキップ、前にスキップ、シャッフルモードのオン/オフ、リピートモードのオン/オフ、クロスフェードモードのオン/オフを行う。再生制御領域410は、別の選択可能なアイコンを含んでもよい。別の選択可能なアイコンは、イコライゼーション設定、再生ボリュームなど他の設定などを変更してもよい。
The
再生ゾーン領域420は、メディア再生システム100内の再生ゾーンの表示を含んでもよい。ある実施形態では、再生ゾーンのグラフィック表示が選択可能であってもよい。追加の選択可能なアイコンを移動させることによって、メディア再生システム内の再生ゾーンを管理又は構成することができる。例えば、結合ゾーンの作成、ゾーングループの作成、ゾーングループの分割、およびゾーングループのリネームなど他の管理又は構成を行うことができる。
Play
例えば、図示されるように、「グループ」アイコンは、再生ゾーンのグラフィック表示のそれぞれに設けられてもよい。あるゾーンのグラフィック表示内の「グループ」アイコンは、メディア再生システム内の1つ又は複数のゾーンを選択して、あるゾーンとグループ化するオプションを出せるように選択可能であってもよい。一度グループ化すると、あるゾーンとグループ化されたゾーン内の再生デバイスは、あるゾーン内の再生デバイスと同期してオーディオコンテンツを再生するように構成される。同様に、「グループ」アイコンは、ゾーングループのグラフィック表示内に設けられてもよい。この場合、「グループ」アイコンは、ゾーングループ内の1つ又は複数のゾーンをゾーングループから取り除くために、ゾーングループ内の1つ又は複数のゾーンを選択から外すというオプションを出すように選択可能であってもよい。ユーザインタフェース400等のユーザインタフェースを介してゾーンをグループ化およびグループ解除するための他の対話をすることも可能であるし、実施することも可能である。再生ゾーン領域420内の再生ゾーンの表示は、再生ゾーン又はゾーングループ構成が変更されると、動的に更新されてもよい。
For example, as shown, a "group" icon may be provided in each of the graphical representations of the play zones. A "group" icon within the graphical representation of a zone may be selectable to provide an option to select one or more zones within the media playback system to group with a zone. Once grouped, a zone and the playback devices within the grouped zones are configured to play the audio content in sync with the playback devices within the zone. Similarly, a "group" icon may be provided within the graphical representation of the zone group. In this case, the "group" icon can be selected to provide an option to deselect one or more zones within the zonegroup to remove one or more zones within the zonegroup from the zonegroup. There may be. Other interactions for grouping and ungrouping zones are possible and may be implemented via a user interface such as
再生ステータス領域430は、現在再生されているオーディオコンテンツ、前に再生されたオーディオコンテンツ、又は選択された再生ゾーン又はゾーングループ内で次に再生するように予定されているオーディオコンテンツ、のグラフィック表示を含んでもよい。選択可能な再生ゾーン又は再生グループは、ユーザインタフェース上で、例えば、再生ゾーン領域420および/又は再生ステータス領域430内で視覚的に区別されてもよい。グラフィック表示は、トラックタイトル、アーティスト名、アルバム名、アルバム年、トラックの長さ、およびメディア再生システムを、ユーザインタフェース400を介して制御するときに、ユーザにとって有益な他の関連情報を含んでいてもよい。
再生キュー領域440は、選択された再生ゾーン又はゾーングループと関連付けられた再生キュー内のオーディオコンテンツのグラフィック表示を含んでもよい。ある実施形態では、それぞれの再生ゾーン又はゾーングループは、再生ゾーン又は再生グループによって再生される0以上のオーディオアイテムに対応する情報を含む再生キューと関連付けられていてもよい。例えば、再生キュー内のそれぞれのオーディオアイテムは、ユー・アール・アイ(URI)、ユー・アール・エル(URL)、又は再生ゾーン又はゾーングループ内の再生デバイスによって使用可能な他の識別子を含んでいてもよい。これらによって、ローカルオーディオコンテンツソース又はネットワークオーディオコンテンツソース、からオーディオアイテムを見つけ、および/又は取り出し、再生デバイスによって再生することができる。
ある例では、プレイリストが再生キューに追加されてもよい。この場合、プレイリスト内のそれぞれのオーディオアイテムに対応する情報が再生キューに追加されてもよい。別の例では、再生キュー内のオーディオアイテムは、プレイリストとして保存されてもよい。更に別の例では、再生デバイスがストリーミングオーディオコンテンツ、例えば、再生時間を有することで連続して再生されないオーディオアイテムよりも、停止しない限り連続して再生されるインターネットラジオを再生し続けているとき、再生キューは、空であってもよいし、又は「未使用」であるが埋められていてもよい。別の実施形態では、再生キューは、インターネットラジオおよび/又は他のストリーミングオーディオコンテンツアイテムを含むことができ、且つ再生ゾーン又はゾーングループがそれらのアイテムを再生しているとき「未使用」とすることができる。他の例も可能である。 In one example, a playlist may be added to the play queue. In this case, information corresponding to each audio item in the playlist may be added to the play queue. In another example, the audio items in the play queue may be saved as a playlist. In yet another example, when a playback device continues to play streaming audio content, e.g., an Internet radio that plays continuously unless stopped, rather than an audio item that has a play time that does not play continuously, The play queue may be empty, or "unused" but filled. In another embodiment, the play queue may contain Internet radio and/or other streaming audio content items, and be "unused" when a play zone or zone group is playing those items. can be done. Other examples are possible.
再生ゾーン又はゾーングループが「グループ化される」か、又は「グループ解除」されるとき、影響を受ける再生ゾーン又はゾーングループに関連付けられた再生キューは、クリアされてもよいし、又は再び関連付けられてもよい。例えば、第1再生キューを含む第1再生ゾーンが、第2再生キューを含む第2再生ゾーンとグループ化された場合、形成されたゾーングループは、関連付けられた再生キューを有していてもよい。関連付けられた再生キューは、最初は空であるか、(例えば、第2再生ゾーンが第1再生ゾーンに追加された場合、)第1再生キューのオーディオアイテムを含むか、(例えば、第1再生ゾーンが第2再生ゾーンに追加された場合、)第2再生キューのオーディオアイテムを含むか、又は第1再生キューと第2再生キューとの両方のオーディオアイテムを組み合わせられる。その後、形成されたゾーングループがグループ解除された場合、グループ解除された第1再生ゾーンは、前の第1再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。同様に、グループ解除された第2再生ゾーンは、前の第2再生キューと再び関連付けられてもよいし、空の新しい再生キューと関連付けられてもよいし、あるいはゾーングループがグループ解除される前にゾーングループと関連付けられていた再生キューのオーディオアイテムを含む新しい再生キューと関連付けられてもよい。 When a play zone or zone group is "grouped" or "ungrouped," the play queue associated with the affected play zone or zone group may be cleared or reassociated. may For example, if a first play zone containing a first play cue is grouped with a second play zone containing a second play cue, the formed zone group may have an associated play cue. . The associated play queue is initially empty, contains audio items from the first play queue (e.g. when a second play zone is added to the first play zone), or contains audio items from the first play queue (e.g. If a zone is added to the second play zone, it may include audio items from the second play cue, or it may combine audio items from both the first and second play queues. Subsequently, if the formed zone group is ungrouped, the ungrouped first play zone may be re-associated with the previous first play queue, or may be associated with an empty new play queue. Alternatively, the zonegroup may be associated with a new play queue containing audio items from the play queue that was associated with the zonegroup before it was ungrouped. Similarly, the ungrouped secondary play zone may be reassociated with the previous secondary play queue, may be associated with an empty new play queue, or may be associated with a new play queue that is empty, or may be ungrouped before the zone group is ungrouped. may be associated with a new play queue containing audio items from the play queue that were previously associated with the zone group.
図4のユーザインタフェース400に戻って、再生キュー領域440内のオーディオコンテンツのグラフィック表示は、トラックタイトル、アーティスト名、トラックの長さ、および再生キュー内のオーディオコンテンツと関連付けられた他の関連情報を含んでいてもよい。ある例では、オーディオコンテンツのグラフィック表示は、追加の選択可能なアイコンを選択して移動させることができる。これにより、再生キューおよび/又は再生キューに表示されたオーディオコンテンツを管理および/又は操作することができる。例えば、表示されたオーディオコンテンツは、再生キューから取り除いてもよいし、再生キュー内の異なる位置に移動させてもよいし、すぐに再生させるか若しくは現在再生しているオーディオコンテンツの後に再生するように選択されてもよいし、あるいは他の動作を実行してもよい。再生ゾーン又はゾーングループに関連付けられた再生キューは、再生ゾーン又はゾーングループ内の1つ又は複数の再生デバイスのメモリ、再生ゾーン又はゾーングループに入っていない再生デバイスのメモリ、および/又は他の指定のデバイスのメモリに記憶されていてもよい。
Returning to
オーディオコンテンツソース領域450は、選択可能なオーディオコンテンツソースのグラフィック表示を含んでいてもよい。このオーディオコンテンツソースにおいては、オーディオコンテンツが選択された再生ゾーン又はゾーングループによって取り出され、再生されてもよい。オーディオコンテンツソースに関する説明は、以降のセクションを参照することができる。
Audio
d.例示的なオーディオコンテンツソース
前回図示したように、ゾーン又はゾーングループ内の1つ又は複数の再生デバイスは、再生するオーディオコンテンツを、(例えば、オーディオコンテンツの対応するURI又はURLに基づいて、)複数の入手可能なオーディオコンテンツソースから取り出すように構成されていてもよい。ある例では、オーディオコンテンツは、再生デバイスによって、対応するオーディオコンテンツソース(例えば、ライン-イン接続)から直接取り出されてもよい。別の例では、オーディオコンテンツは、1つ又は複数の他の再生デバイス若しくはネットワークデバイスを介してネットワーク上の再生デバイスに提供されてもよい。
d. Exemplary Audio Content Sources As previously illustrated, one or more playback devices within a zone or zone group may select audio content for playback (e.g., based on the audio content's corresponding URI or URL). available audio content sources. In some examples, audio content may be retrieved directly by a playback device from a corresponding audio content source (eg, a line-in connection). In another example, audio content may be provided to playback devices on a network via one or more other playback devices or network devices.
例示的なオーディオコンテンツソースは、メディア再生システム内の1つ又は複数の再生デバイスのメモリを含んでもよい。メディア再生システムとしては、例えば、図1のメディア再生システム100、1つ又は複数のネットワークデバイス上のローカルミュージックライブラリ(例えば、制御デバイス、ネットワーク対応のパーソナルコンピュータ、又はネットワーク接続ストレージ(NAS)など)、インターネット(例えば、クラウド)を介してオーディオコンテンツを提供するストリーミングオーディオサービス、あるいは再生デバイス又はネットワークデバイスのライン-イン入力接続を介してメディア再生システムに接続されるオーディオソース、他の可能なシステムであってもよい。
Exemplary audio content sources may include the memory of one or more playback devices within a media playback system. Media playback systems include, for example, the
ある実施形態では、オーディオコンテンツソースは、図1のメディア再生システム100などのようなメディア再生システムに定期的に追加されてもよいし、定期的に取り除かれてもよい。ある例では、1つ又は複数のオーディオコンテンツソースが追加される、取り除かれる、又は更新される度に、オーディオアイテムのインデックス付けが行われてもよい。オーディオアイテムのインデックス付けは、ネットワーク上で共有される全てのフォルダ/ディレクトリ内の識別可能なオーディオアイテムをスキャンすることを含んでもよい。ここで、ネットワークは、メディア再生システム内の再生デバイスによってアクセス可能である。また、オーディオアイテムのインデックス付けは、メタデータ(例えば、タイトル、アーティスト、アルバム、トラックの長さなど)と他の関連情報とを含むオーディオコンテンツデータベースを作成すること、又は更新すること、を含んでもよい。他の関連情報とは、例えば、それぞれの識別可能なオーディオアイテムを見つけるためのURI又はURLを含んでもよい。オーディオコンテンツソースを管理し、且つ維持するための他の例も可能である。
In some embodiments, audio content sources may be periodically added to or removed from a media playback system, such as
再生デバイス、制御デバイス、再生ゾーン構成、およびメディアコンテンツソースに関しての上述した説明は、以降で述べられている機能および方法を実施可能ないくつかの例示的な動作環境のみを提供している。本発明は、本明細書で明示的に述べられていないメディア再生システム、再生デバイス、およびネットワークデバイスの他の動作環境および構成であっても適用可能であり、その機能および方法を実施するのに適している。 The above descriptions of playback devices, control devices, playback zone configurations, and media content sources provide only some exemplary operating environments in which the functions and methods described hereinafter can be implemented. The invention is applicable to other operating environments and configurations of media playback systems, playback devices, and network devices not expressly described herein, and may implement its features and methods. Are suitable.
III.信号処理アルゴリズムのデータベースの保守
上述したように、本明細書で説明される幾つかの例は、オーディオ処理アルゴリズムのデータベースを保守することに関連する。幾つかの場合において、データベースの保守は、さらに、データベースについてのオーディオ処理アルゴリズムのエントリを生成及び/又は更新することを含んでもよい。データベースにおけるオーディオ処理アルゴリズムのそれぞれは、再生ゾーンの1つ又は複数の特性に対応することができる。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。以下の説明は、一般に、データベース内のエントリとして記憶されるオーディオ処理アルゴリズムを決定することに関する。しかし、当業者は、類似の機能がデータベース内の既存のエントリを更新するために実行されてもよいことを理解するであろう。データベースにアクセスして、特定の再生ゾーンにおけるオーディオコンテンツを再生するときに、再生デバイスが適用するオーディオ処理アルゴリズムを特定することができる。
III. Maintaining a Database of Signal Processing Algorithms As noted above, some examples described herein relate to maintaining a database of audio processing algorithms. In some cases, maintaining the database may also include creating and/or updating audio processing algorithm entries for the database. Each of the audio processing algorithms in the database can correspond to one or more characteristics of the playback zone. In some examples, one or more properties of the play zone may include acoustic properties of the play zone. The following description generally relates to determining audio processing algorithms that are stored as entries in a database. However, those skilled in the art will appreciate that similar functions may be performed to update existing entries in the database. A database can be accessed to identify the audio processing algorithms that a playback device will apply when playing audio content in a particular playback zone.
a.オーディオ処理アルゴリズム及び再生ゾーンの対応する音響特性の例示的データベース
図5は、オーディオ処理アルゴリズム及び再生ゾーン音響特性のデータベースを保守する方法500の例示的なフロー図を示している。上述したように、オーディオ処理アルゴリズムのデータベースを保守することは、データベースに記憶されるオーディオ処理アルゴリズムを決定することを含んでもよい。図5に示される方法500は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法500は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されうる。別の例では、方法500の幾つか又は全ての機能は、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. Exemplary Database of Audio Processing Algorithms and Corresponding Acoustic Properties of Play Zones FIG. 5 illustrates an exemplary flow diagram of a
方法500は、ブロック502-510の1つ又は複数によって構成されるように、1つ又は複数の操作、機能、又は動作を含んでもよい。ブロックはそれぞれ順番に示されているが、これらのブロックは並行して行われてもよいし、および/又は、本明細書で述べられている順番と異なる順番で行われてもよい。また、所望の実施内容に応じて、ブロックを少なくしてもよいし、増やして分割してもよいし、および/又は取り除いてもよい。さらに、フローチャートは、方法500並びに本明細書で開示されている他の処理および方法に関して、本実施形態の実施可能な機能および動作の例を示している。これに関して、各ブロックは、プロセッサによって実行されるとプロセスにおける特定のロジカル機能又はステップを実行させる1つ又は複数の命令を記憶した、モジュール、セグメント、あるいはプログラムコードの一部を示していてもよい。プログラムコードは例えば、ディスク又はハードドライブを含む記憶デバイスなど、任意のタイプのコンピュータ読み取り可能記録媒体に記憶されてもよい。
コンピュータ読み取り可能記録媒体は、非一時的なコンピュータ読み取り可能記録媒体、例えば、レジスタメモリ、プロセッサキャッシュ、およびランダム・アクセス・メモリ(RAM)などのように短時間データを記憶するコンピュータ読み取り可能媒体を含んでもよい。コンピュータ読み取り可能媒体は、非一時的なメディア、例えば、リード・オンリ・メモリ(ROM)、光ディスク、磁気ディスク、コンパクトディスク・リード・オンリ・メモリ(CD-ROM)等の長期間の記憶が可能な二次記憶装置又は永続記憶装置を含んでもよい。コンピュータ読み取り可能媒体は、その他の任意の揮発性記憶システム又は不揮発性記憶システムであってもよい。コンピュータ読み取り可能媒体は例えば、コンピュータ読み取り可能記録媒体、即ち、有形の記憶デバイスとみなされてもよい。また、方法500並びに本明細書に開示されたその他の処理および方法において、各ブロックは回路を示していてもよく、その回路は処理において、ある論理機能を実行するために有線接続されている。
Computer-readable recording media include computer-readable media that store data for short periods of time, such as non-transitory computer-readable recording media, such as register memory, processor cache, and random access memory (RAM). It's okay. Computer-readable media are non-transitory media capable of long-term storage, such as read-only memory (ROM), optical discs, magnetic discs, compact disc-read-only memory (CD-ROM), etc. It may also include secondary or permanent storage. A computer-readable medium may be any other volatile or non-volatile storage system. A computer-readable medium, for example, may be considered a computer-readable recording medium or a tangible storage device. Also, in
図5に示されるように、方法500は、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させ(ブロック502)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信し(ブロック504)、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定し(ブロック506)、再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定し(ブロック508)、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させる(ブロック510)。
As shown in FIG. 5, a
前述したように、データベースにアクセスして、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを、特定することができる。そのため、ある例では、方法500は、様々な異なる再生ゾーンについて実行されて、様々な異なる再生環境に対応するオーディオ処理アルゴリズムのデータベースが構築される。
As previously mentioned, a database may be accessed to identify the audio processing algorithms to be applied by the playback device when playing audio content in the playback zone. Thus, in one example,
方法500は、ブロック502において、再生ゾーン内の再生デバイスに、第1のオーディオ信号を再生させることを含む。再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。ある場合では、コンピューティングデバイスは、第1のオーディオ信号を再生させるコマンドを送信することによって、再生デバイスに第1のオーディオ信号を再生させてもよい。別の場合では、コンピューティングデバイスは、再生されるべき第1のオーディオ信号を再生デバイスに提供してもよい。
The
ある例では、第1のオーディオ信号は、再生ゾーンの音響応答を決定するために使用されてもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表す検査信号又は測定信号であってもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。 In one example, the first audio signal may be used to determine the acoustic response of the play zone. As such, the first audio signal may be a test or measurement signal representative of audio content that may be played by a playback device during normal use by a user. Accordingly, the first audio signal may include audio content having frequencies that substantially cover the renderable frequency range of the playback device or the human audible frequency range.
ある例では、再生ゾーンは、再生デバイスがユーザによる通常使用中にオーディオコンテンツを再生することができる複数の再生環境のうちの1つを表す再生ゾーンであってもよい。図1を参照すると、再生ゾーンは、メディア再生システム100における異なる部屋及びゾーングループのうちのいずれか1つを表すことができる。例えば、再生ゾーンは、ダイニングルームを表していてもよい。
In one example, the playback zone may be a playback zone that represents one of multiple playback environments in which the playback device may play audio content during normal use by a user. Referring to FIG. 1, a play zone can represent any one of different rooms and zone groups in
ある例では、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために構築されたモデル再生ゾーンであってもよい。ある例では、再生ゾーンは、複数の再生環境をシミュレートするために構築された複数の再生ゾーンのうちの1つであってもよい。複数の再生ゾーンは、そのようなオーディオ処理アルゴリズムのデータベースを作成する目的のために構築されてもよい。そのような場合、再生ゾーンの特定の特性は、予め決められていてもよいし及び/又は公知のものであってもよい。例えば、いくつかある可能性の中でも特に、再生ゾーンの寸法、再生ゾーンの床材若しくは壁材(又は再生ゾーンのオーディオ反射特性に影響を与えることがある他の特徴)、再生ゾーン内の家具の数、又は再生ゾーン内の家具のサイズ及び種類は、予め決められた及び/又は公知の再生ゾーンの特性であってもよい。 In one example, the playback zone may be a model playback zone constructed to simulate a listening environment in which a playback device can play audio content. In one example, the play zone may be one of multiple play zones constructed to simulate multiple play environments. Multiple play zones may be constructed for the purpose of creating a database of such audio processing algorithms. In such cases, certain characteristics of the regeneration zone may be predetermined and/or known. For example, the dimensions of the playback zone, the flooring or walling of the playback zone (or other features that may affect the audio reflection properties of the playback zone), the furniture within the playback zone, among other possibilities. The number, or size and type of furniture within the regeneration zone may be predetermined and/or known characteristics of the regeneration zone.
別の場合では、再生ゾーンは、再生デバイスのユーザの家庭内の部屋であってもよい。例えば、データベースの構築の一部として、顧客及び/又は試験者などの再生デバイスのユーザは、ユーザの再生デバイスを使用して、方法500の機能を実行してデータベースを構築するように要請されることがある。幾つかの場合において、ユーザ再生ゾーンの特定の特性は不明であってもよい。幾つかの他の場合において、ユーザ再生ゾーンの特定の特性の一部又は全てがユーザによって提供されてもよい。方法500の機能を実行することによって作成されたデータベースは、シミュレートされた再生ゾーン及び/又はユーザ再生ゾーンに基づくエントリを含んでもよい。
In other cases, the playback zone may be a room in the home of the user of the playback device. For example, as part of building the database, a user of a playback device, such as a customer and/or tester, is asked to use the user's playback device to perform the functions of
ブロック502はコンピューティングデバイスを含み、そのコンピューティングデバイスは、再生デバイスに第1のオーディオ信号を再生させる。しかし、当業者は、再生デバイスによる第1のオーディオ信号の再生が、必ずしもコンピューティングデバイスによって引き起こされるか又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイスは、再生デバイスにコマンドを送信して、再生デバイスに第1のオーディオ信号を再生させてもよい。別の例において、再生デバイスは、コンピューティングデバイス又はコントローラからコマンドを受信することなく、第1のオーディオ信号を再生してもよい。他の例もまた可能である。
方法500は、ブロック504において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。上述したように、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。そのため、マイクロホンは、マイクロホン220であってもよい。ある例では、コンピューティングデバイスは、再生デバイスからデータを受信してもよい。別の例において、コンピューティングデバイスは、他の再生デバイス、コントローラデバイス又は他のサーバを介してデータを受信してもよい。
再生デバイスが第1のオーディオ信号を再生しているとき又はその後まもなく、再生デバイスのマイクロホンは、第2のオーディオ信号を検出してもよい。第2のオーディオ信号は、再生ゾーン内に存在する検出可能なオーディオ信号を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。 When the playback device is playing the first audio signal, or shortly thereafter, a microphone of the playback device may detect the second audio signal. The second audio signal may include a detectable audio signal present within the play zone. For example, the second audio signal may include portions corresponding to the first audio signal reproduced by the reproduction device.
ある例では、マイクロホンが第2のオーディオ信号を検出するとき、コンピューティングデバイスは、メディアストリームとして、再生デバイスから検出された第2のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生デバイスのマイクロホンによる第1のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイスから受信してもよい。いずれの場合においても、再生デバイスは、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成し、コンピューティングデバイスにそのデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。 In one example, the computing device may receive data indicative of the detected second audio signal from the playback device as a media stream when the microphone detects the second audio signal. In another example, the computing device may receive data indicative of the second audio signal from the playback device upon completion of detection of the first audio signal by the playback device's microphone. In either case, the playback device processes the detected second audio signal (via an audio processing component, such as audio processing component 208 of playback device 200) to generate data indicative of the second audio signal. may be generated and transmitted to the computing device. In some examples, generating data indicative of the second audio signal may include converting the second audio signal from an analog signal to a digital signal. Other examples are also possible.
方法500は、ブロック506において、第2のオーディオ信号及び再生デバイスの特性に基づいて、再生ゾーンの音響特性を決定することを含む。上述したように、第2のオーディオ信号は、再生ゾーンにおいて再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。
The
再生デバイスの特性は、再生デバイスの音響特性、再生デバイスの仕様(すなわち、トランスデューサの数、周波数レンジ、増幅器ワット数など)、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。幾つかの場合において、再生デバイスの音響特性及び/又は再生デバイスの仕様は、再生デバイスのモデルと関連付けられてもよい。例えば、再生デバイスの特定のモデルは、実質的に同一の仕様及び音響特性を有してもよい。ある例では、再生デバイスのモデルのデータベース、再生デバイスのモデルの音響特性、及び/又は再生デバイスのモデルの仕様は、コンピューティングデバイス又はコンピューティングデバイスと通信する他のデバイス上で保守されうる。 The characteristics of the playback device may include one or more of the acoustic characteristics of the playback device, playback device specifications (ie, number of transducers, frequency range, amplifier wattage, etc.), and playback device model. In some cases, the acoustic characteristics of a playback device and/or playback device specifications may be associated with a model of the playback device. For example, particular models of playback devices may have substantially identical specifications and acoustic characteristics. In some examples, a database of models of playback devices, acoustic properties of models of playback devices, and/or specifications of models of playback devices may be maintained on the computing device or other device in communication with the computing device.
ある例では、再生ゾーン内で第1のオーディオ信号を再生する再生デバイスからの音響応答は、第1のオーディオ信号と第2のオーディオ信号との間の関係によって表すことができる。数学的に、第1のオーディオ信号がf(t)であり、第2のオーディオ信号がs(t)であり、且つ再生ゾーン内で第1のオーディオ信号を再生する再生デバイスの音響応答がhr(t)である場合、下記式(1)になる。 In one example, an acoustic response from a playback device playing a first audio signal within a playback zone can be represented by a relationship between the first audio signal and the second audio signal. Mathematically, the first audio signal is f(t), the second audio signal is s(t), and the acoustic response of a reproduction device reproducing the first audio signal within the reproduction zone is h In the case of r (t), the following formula (1) is obtained.
ある場合では、第1のオーディオ信号f(t)が再生デバイスによって再生されることから、音響応答hr(t)は、(i)再生デバイスの音響特性及び(ii)再生デバイスとは独立した再生ゾーンの音響特性を含んでもよい。数学的に、この関係は、下記式(2)として表すことができる。 In some cases, since the first audio signal f(t) is played by a playback device, the acoustic response h r (t) is independent of (i) the acoustic properties of the playback device and (ii) the playback device It may also include the acoustic properties of the play zone. Mathematically, this relationship can be expressed as equation (2) below.
ある例では、再生デバイスの音響特性hp(t)は、無響室において再生デバイス又は同一のモデルの代表的な再生デバイスを配置し、再生デバイスに無響室内で測定信号を再生させ、再生デバイスのマイクロホンによって応答信号を検出することによって、決定されうる。無響室において再生デバイスによって再生された測定信号は、上述した第1のオーディオ信号f(t)に類似していてもよい。例えば、測定信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含むことができる。 In one example, the acoustic properties h p (t) of a playback device can be determined by placing the playback device or a representative playback device of the same model in an anechoic room, having the playback device play back the measured signal in the anechoic room, playing It can be determined by detecting the response signal with the device's microphone. The measured signal reproduced by the reproduction device in the anechoic chamber may resemble the first audio signal f(t) described above. For example, the measurement signal may contain audio content having frequencies that substantially cover the renderable frequency range of the playback device or the human audible frequency range.
再生デバイスの音響特性hp(t)は、再生された測定信号と検出された応答信号との間の関係を表すことができる。例えば、測定信号が特定の周波数において第1の信号の大きさを有し且つ検出された応答信号がその特定の周波数において第1の信号の大きさとは異なる第2の信号の大きさを有する場合、再生デバイスの音響特性hp(t)は、特定の周波数において信号の増幅又は減衰を示すことができる。 The acoustic properties h p (t) of the reproduction device can represent the relationship between the reproduced measurement signal and the detected response signal. For example, if the measurement signal has a first signal magnitude at a particular frequency and the detected response signal has a second signal magnitude at that particular frequency that is different from the first signal magnitude. , the acoustic properties h p (t) of the reproduction device can indicate the amplification or attenuation of the signal at a particular frequency.
数学的に、測定信号がx(t)であり、検出された応答信号がy(t)であり且つ無響室における再生デバイスの音響特性がhp(t)である場合、下記式(4)になる。 Mathematically, if the measured signal is x(t), the detected response signal is y(t), and the acoustic properties of the playback device in the anechoic chamber are h p (t), then equation (4 )become.
ある例では、上述したように、基準音響特性hP(t)は、再生デバイスのモデル及び/又は再生デバイスの仕様と関連付けて記憶されてもよい。ある例では、hP(t)は、コンピューティングデバイス上に格納されてもよい。別の例では、hp(t)は、再生デバイス及び同一のモデルの他の再生デバイス上に格納されてもよい。さらなる場合において、hp -1(t)として表されるhp(t)の逆数は、hp(t)の代わりに記憶されてもよい。 In one example, as described above, the reference acoustic properties h P (t) may be stored in association with the playback device model and/or playback device specifications. In one example, h P (t) may be stored on the computing device. In another example, h p (t) may be stored on the playback device and other playback devices of the same model. In further cases, the inverse of h p (t), denoted as h p −1 (t), may be stored instead of h p (t).
したがって、ブロック506に戻って参照すると、再生ゾーンの音響特性hroom(t)は、第1のオーディオ信号f(t)、第2のオーディオ信号s(t)、及び再生デバイスの音響特性hp(t)に基づいて決定されうる。ある例では、再生デバイスの音響特性の逆数hp -1(t)を、式(2)に適用することができる。換言すれば、下記式(5)になる。 Thus, referring back to block 506, the acoustic properties of the playback zone h room (t) are the first audio signal f(t), the second audio signal s(t), and the acoustic properties of the playback device h p (t). In one example, the inverse of the acoustic properties of the playback device, h p −1 (t), can be applied to equation (2). In other words, the following formula (5) is obtained.
ここで、I(t)は、インパルス信号である。そして、再生ゾーン時間の音響特性hroom(t)は、下記式(6)のように簡略化されうる。 where I(t) is the impulse signal. Also, the acoustic characteristic h room (t) of the playback zone time can be simplified as shown in Equation (6) below.
方法500は、ブロック506において、再生ゾーンの音響特性及び所定のオーディオ信号に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、オーディオ処理アルゴリズムが決定されて、再生ゾーンにおいて第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度所定のオーディオ特性を持つ第3のオーディオ信号が生成されうる。
The
ある例では、所定のオーディオ特性は、良好なサウンディングとみなされるオーディオ周波数等化であってもよい。ある場合では、所定のオーディオ特性は、再生デバイスのレンダリング可能な周波数レンジにわたって実質的に均等な等化を含んでもよい。別の場合では、所定のオーディオ特性は、一般的なリスナーに心地よいと考えられる等化を含んでもよい。さらなる場合において、所定のオーディオ特性は、特定の音楽ジャンルに適していると考えられる周波数応答を含んでもよい。 In one example, the predetermined audio characteristic may be audio frequency equalization, which is considered good sounding. In some cases, the predetermined audio characteristics may include substantially uniform equalization across the renderable frequency range of the playback device. In other cases, the predetermined audio characteristics may include equalization that is considered pleasing to a typical listener. In a further case, the predetermined audio characteristics may include frequency responses deemed suitable for a particular musical genre.
いずれの場合にも、コンピューティングデバイスは、音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定することができる。ある例では、再生ゾーンの音響特性が、特定のオーディオ周波数が他の周波数よりも減衰されたものであり、且つ、所定のオーディオ特性が、特定のオーディオ周波数が最小限に減衰された等化を含む場合、対応するオーディオ処理アルゴリズムは、特定のオーディオ周波数において強めた増幅を含んでもよい。 In either case, the computing device can determine audio processing algorithms based on acoustic characteristics and predetermined audio characteristics. In one example, the acoustic properties of the playback zone are such that certain audio frequencies are attenuated more than others, and the predetermined audio properties are such that the equalization is such that certain audio frequencies are attenuated the least. If included, the corresponding audio processing algorithms may include enhanced amplification at specific audio frequencies.
所定のオーディオ特性が所定のオーディオ信号z(t)によって表され且つオーディオ処理アルゴリズムがp(t)によって表される場合、所定のオーディオ信号z(t)、オーディオ処理アルゴリズム及び再生ゾーンの音響特性hroom(t)との間の関係を、下記式(7)のように数学的に記述することができる。 If the predetermined audio characteristic is represented by a predetermined audio signal z(t) and the audio processing algorithm is represented by p(t), the given audio signal z(t), the audio processing algorithm and the acoustic properties of the reproduction zone h room (t) can be mathematically described as in equation (7) below.
したがって、オーディオ処理アルゴリズムp(t)を、下記式(8)のように数学的に記述することができる。 Therefore, the audio processing algorithm p(t) can be mathematically described as Equation (8) below.
幾つかの場合において、オーディオ処理アルゴリズムを決定することは、オーディオ処理アルゴリズムについての1つ又は複数のパラメータ(すなわち、p(t)についての係数)を決定することを含んでもよい。例えば、オーディオ処理アルゴリズムは、オーディオ信号の特定の対応する周波数における特定の信号増幅利得を含んでもよい。そのため、特定の信号増幅及び/又はオーディオ信号の特定の対応する周波数を示すパラメータが、オーディオ処理アルゴリズムp(t)を決定するために特定されてもよい。 In some cases, determining the audio processing algorithm may include determining one or more parameters for the audio processing algorithm (ie, coefficients for p(t)). For example, an audio processing algorithm may include specific signal amplification gains at specific corresponding frequencies of the audio signal. As such, parameters indicative of a particular signal amplification and/or a particular corresponding frequency of the audio signal may be specified to determine the audio processing algorithm p(t).
方法500は、ブロック510において、オーディオ処理アルゴリズムと再生ゾーンの音響特性との関連付けをデータベースに記憶させることを含む。そのため、ブロック504及び506において決定した再生ゾーンの音響特性hroom(t)及び対応するオーディオ処理アルゴリズムp(t)を含むエントリを、データベースに追加してもよい。ある例では、データベースは、コンピューティングデバイスのローカルのメモリストレージに格納されてもよい。別の例において、データベースが他のデバイスに格納されている場合、コンピューティングデバイスは、オーディオ処理アルゴリズム及び再生ゾーンの音響特性を他のデバイスに送信して、データベースに記憶されるようにしてもよい。他の例もまた可能である。
The
上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。 As noted above, the playback zone from which the audio processing algorithms have been determined can be a model playback zone used to simulate a listening environment in which the playback device can play audio content, or the user's room of the playback device. There may be. In some cases, the database is based on detected audio signals played within the user's room of the playback device, with entries generated based on detected audio signals played within the model playback zone. May contain generated entries.
図6Aは、オーディオ処理アルゴリズムのデータベース600の例示的な部分を示していて、上記説明において決定されたオーディオ処理アルゴリズムp(t)がデータベース600に格納されている。示されるように、データベース600の一部は、複数のエントリ602-608を含んでもよい。エントリ602は、再生ゾーン音響特性hroom
-1(t)-1を含んでもよい。音響特性hroom
-1(t)-1は、上述したように再生デバイスによって検出されたオーディオ信号及び再生デバイスの特性に基づいて計算されるように、再生ゾーンの音響特性の数学的表現であってもよい。エントリ602における音響特性hroom
-1(t)-1に対応するものは、上述したように、音響特性hroom
-1(t)-1及び所定のオーディオ特性に基づいて決定されたオーディオ処理アルゴリズムについての係数w1、x1、y1及びz1であってもよい。
FIG. 6A shows an exemplary portion of a
さらに示されるように、データベース600のエントリ604は、再生ゾーン音響特性hroom
-1(t)-2及び処理アルゴリズム係数w2、x2、y2及びz2を含んでもよい。データベース600のエントリ606は、再生ゾーン音響特性hroom
-1(t)-3及び処理アルゴリズム係数w3、x3、y3及びz3を含んでもよい。データベース600のエントリ608は、再生ゾーン音響特性hroom
-1(t)-4及び処理アルゴリズム係数w4、x4、y4及びz4を含んでもよい。
As further shown,
当業者は、データベース600が方法500の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されうる。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。他の例もまた可能である。
Those skilled in the art will appreciate that
ある例では、上述した機能の一部が、同一の再生ゾーンにおいて同一の再生デバイスについて複数回実行されて、再生ゾーンの音響特性hroom(t)及び対応する処理アルゴリズムp(t)が決定されうる。例えば、複数回、ブロック502-506を実行することによって、再生ゾーンの複数の音響特性を決定することができる。再生ゾーンの合成(すなわち、平均)音響特性は、複数の音響特性から決定されてもよく、対応する処理アルゴリズムp(t)は、再生ゾーンの合成音響特性に基づいて決定されてもよい。そして、対応する処理アルゴリズムp(t)と再生ゾーンの音響特性hroom(t)又はhroom -1(t)との関連付けは、データベースに記憶されてもよい。幾つかの場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復のそれぞれにおいて実質的に同一のオーディオ信号であってもよい。幾つかの他の場合において、再生ゾーン内の再生デバイスによって再生される第1のオーディオ信号は、関数の反復の一部又はそれぞれについて異なるオーディオ信号であってもよい。他の例もまた可能である。 In one example, some of the functions described above are performed multiple times for the same playback device in the same playback zone to determine the acoustic properties h room (t) of the playback zone and the corresponding processing algorithm p(t). sell. For example, by executing blocks 502-506 multiple times, multiple acoustic characteristics of the playback zone can be determined. A composite (ie, average) acoustic property of the play zone may be determined from the plurality of acoustic properties, and a corresponding processing algorithm p(t) may be determined based on the composite acoustic property of the play zone. The association between the corresponding processing algorithm p(t) and the acoustic properties h room (t) or h room −1 (t) of the playback zone may then be stored in a database. In some cases, the first audio signal reproduced by the reproduction device within the reproduction zone may be substantially the same audio signal in each iteration of the function. In some other cases, the first audio signal played by the playback device in the playback zone may be a different audio signal for some or each iteration of the function. Other examples are also possible.
上述した方法500(又は、方法500の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されうる。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法500は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されうる。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、第5のオーディオ信号を示すデータを受信し、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定することができる。
The method 500 (or some variation of method 500) described above may also be performed to create other entries in the database. For example, given that the playback device is the first playback device, the playback zone is the first playback zone, and the audio processing algorithm is the first audio processing algorithm,
コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定することができる。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させることができる。 The computing device can determine a second audio processing algorithm based on the acoustic properties of the second play zone. Application by the second playback device of the determined second audio processing algorithm when playing back the fourth audio signal in the playback zone now produces a sixth audio signal. The sixth audio signal has substantially the same audio characteristics as the predetermined audio characteristics represented by the predetermined audio signal z(t) shown in equations (7) and (8). The computing device can then store in a database an association between the second audio processing algorithm and the acoustic characteristics of the second play zone.
多くの再生ゾーンは、寸法、構築材料、及び/又は家具の種類及び配置において類似している場合もあるけれども、2つの再生ゾーンが全く同一の再生ゾーン音響特性を有することになるとは考えにくい。そのため、各固有の再生ゾーン音響特性及びそれらの各対応するオーディオ処理アルゴリズムについての個々のエントリを記憶すると、非現実的な量のメモリストレージを必要とすることがあるため、むしろ、類似の又は実質的に同一の再生ゾーン音響特性についてのエントリは組み合わせたほうがよい。 Although many play zones may be similar in size, materials of construction, and/or type and arrangement of furniture, it is unlikely that two play zones will have exactly the same play zone acoustic characteristics. As such, storing individual entries for each unique play zone acoustic characteristic and their respective corresponding audio processing algorithms may require an unrealistic amount of memory storage, so rather than a similar or substantial Entries for virtually identical play zone acoustic characteristics should be combined.
ある場合では、2つの再生ゾーンが実質的に類似の部屋であるとき、2つの再生ゾーンの音響特性は類似している場合がある。別の場合では、コンピューティングデバイスは、上記示唆したように、同一の再生ゾーンにおいて、複数回、同一の再生デバイスについて、方法500を実行してもよい。さらなる場合において、コンピューティングデバイスは、同一の再生ゾーンにおいて、異なる再生デバイスについて、方法500を実行してもよい。さらに他の場合において、コンピューティングデバイスは、同一の再生ゾーンであるが再生ゾーン内の他の場所において、再生デバイスについて方法500を実行してもよい。他の例もまた可能である。
In some cases, the acoustic characteristics of the two playback zones may be similar when the two playback zones are substantially similar rooms. In other cases, a computing device may perform
いずれの場合にも、再生ゾーン音響特性及び対応するオーディオ処理アルゴリズムのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが実質的に同一の再生ゾーン音響特性を有することを決定してもよい。そして、コンピューティングデバイスは、それに応答して、第1のオーディオ処理アルゴリズム及び第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定してもよい。例えば、コンピューティングデバイスは、第1及び第2のオーディオ処理アルゴリズムのパラメータの平均をとることによって、第3のオーディオ処理アルゴリズムを決定してもよい。 In either case, in the process of generating the play zone acoustic properties and corresponding audio processing algorithm entries, the computing device determines that the two play zones have substantially identical play zone acoustic properties. good too. The computing device may then, in response, determine a third audio processing algorithm based on the first audio processing algorithm and the second audio processing algorithm. For example, the computing device may determine the third audio processing algorithm by averaging the parameters of the first and second audio processing algorithms.
そして、コンピューティングデバイスは、第3のオーディオ処理アルゴリズムと実質的に同一の音響特性との関連付けをデータベースに記憶してもよい。ある例では、第3のオーディオ処理アルゴリズムについてのデータベースエントリは、2つの実質的に同一の音響特性の平均値に基づいて決定された対応する音響特性を有してもよい。幾つかの場合において、上記示唆したように、データベースは、ストレージメモリを節約する目的で、実質的に同一の音響特性について1つのエントリのみを有してもよい。そのため、第3のオーディオ処理アルゴリズムについてのエントリを優先して、第1の再生ゾーン及び第2の再生ゾーンの音響特性のエントリは廃棄してもよい。他の例もまた可能である。 The computing device may then store in a database an association of the third audio processing algorithm with substantially the same acoustic characteristics. In one example, the database entry for the third audio processing algorithm may have corresponding acoustic properties determined based on an average of two substantially identical acoustic properties. In some cases, as suggested above, the database may have only one entry for substantially identical acoustic characteristics for the purpose of saving storage memory. As such, the entries for the acoustic properties of the first and second playback zones may be discarded in favor of the entry for the third audio processing algorithm. Other examples are also possible.
上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法500について言及しているが、当業者は、上述したように、方法500の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック502-510のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック502-510のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
Although the above description generally refers to
ある例では、上述したように、ブロック502における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されてもよい。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して第1のオーディオ信号を再生してもよい。別の例では、ブロック502-506は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック508及び510を実行してもよい。さらに別の例では、ブロック502-508は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック510においてオーディオ処理アルゴリズムを記憶する機能を実行するだけであってもよい。他の例もまた可能である。
In one example, as described above, playing the first audio signal by the playback device at
b.オーディオ処理アルゴリズム及び再生ゾーンの対応する1つ又は複数の特性の例示的データベース
先に示したように、再生ゾーンは、1つ又は複数の再生ゾーン特性を有してもよい。1つ又は複数の再生ゾーン特性は、上述したように、再生ゾーンの音響特性を含んでもよい。また、再生ゾーンの1つ又は複数の特性は、(a)再生ゾーンの寸法、(b)再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具のサイズ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含んでもよい。ある場合では、再生ゾーンのオーディオ反射特性は、再生ゾーンの床材及び/又は壁材に関連してもよい。
b. Exemplary Database of Audio Processing Algorithms and Corresponding One or More Properties of Play Zones As indicated above, a play zone may have one or more play zone properties. The one or more play zone properties may include acoustic properties of the play zone, as described above. Also, the one or more characteristics of the play zone may include (a) the dimensions of the play zone, (b) the audio reflection properties of the play zone, (c) the intended use of the play zone, and (d) the number of pieces of furniture in the play zone. , (e) the size of the furniture in the regeneration zone, and (f) the type of furniture in the regeneration zone. In some cases, the audio reflection properties of the playback zone may be related to the flooring and/or walling of the playback zone.
幾つかの例において、上述したp(t)などの決定されたオーディオ処理アルゴリズムと再生ゾーンの追加の1つ又は複数の特性との関連付けがデータベースに記憶されうる。図7は、オーディオ処理アルゴリズム及び再生ゾーンの1つ又は複数の特性のデータベースを保守する方法700の例示的なフロー図を示している。図7に示される方法700は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、及び図3の1つ又は複数の制御デバイス300を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法700は、メディア再生システム100などのメディア再生システムと通信するコンピューティングデバイスによって実行されてもよい。これに代えて、別の例では、方法700の幾つか又は全ての機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
In some examples, an association between the determined audio processing algorithm, such as p(t) described above, and one or more additional characteristics of the playback zone may be stored in a database. FIG. 7 illustrates an exemplary flow diagram of a
方法700は、ブロック702-708のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。
図7に示されるように、方法700は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック702)、(i)再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信するステップ(ブロック704)、第2のオーディオ信号及び再生デバイスの特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック706)、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させるステップ(ブロック708)を含む。
As shown in FIG. 7, the
方法700は、ブロック702において、コンピューティングデバイスにより、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させる。ある例では、ブロック702は、図5に関連して記載されたブロック502のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。そのため、ブロック502に関連した上記説明は、ブロック702に適用することができる。
The
方法700は、ブロック704において、(i)再生ゾーンの1つ又は複数の特性を示すデータ、及び(ii)再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信することを含む。ある例では、ブロック704は、図5に関連して記載されたブロック504のものと同一の又は実質的に同一の機能を含んでもよい。例えば、第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。そのため、ブロック504に関連した上記説明は、ブロック704に適用することができる。
The
ブロック504に関連して上述したものに加えて、ブロック704は、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。上述したように、再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーンであってもよい。そのような場合、再生ゾーンについての1つ又は複数の再生ゾーン特性の一部は公知であってもよい。例えば、再生ゾーンについての寸法、フロアプラン、構築材料、及び家具が公知であってもよい。ある場合では、モデル再生ゾーンは、データベースについてのオーディオ処理アルゴリズムを決定するという目的のために構築されてもよく、その場合、1つ又は複数の再生ゾーン特性の一部は予め決められていてもよい。別の場合では、再生ゾーンは、再生デバイスのユーザの部屋であってもよい。上述したように、そのような再生ゾーンの特性は、再生ゾーンの音響特性に寄与することができる。 In addition to what was described above with respect to block 504, block 704 includes receiving data indicative of one or more characteristics of the regeneration zone. As noted above, a playback zone may be a model playback zone used to simulate a listening environment in which a playback device can play audio content. In such cases, some of the one or more regeneration zone characteristics for the regeneration zone may be known. For example, the dimensions, floor plan, construction materials, and furniture for the regeneration zone may be known. In some cases, model play zones may be constructed for the purpose of determining audio processing algorithms for a database, where some of one or more of the play zone characteristics may be predetermined. good. In other cases, the playback zone may be the room of the user of the playback device. As noted above, such play zone properties can contribute to the acoustic properties of the play zone.
ある例では、コンピューティングデバイスは、ユーザ又は音響エンジニアによって使用されるコントローラデバイスのコントローラインタフェースを介して、1つ又は複数の再生ゾーン特性を示すデータを受信してもよい。別の例では、コンピューティングデバイスは、再生ゾーン内の再生デバイスから再生ゾーンの1つ又は複数の特性を示すデータを受信してもよい。例えば、1つ又は複数の特性を示すデータは、第2のオーディオ信号を示すデータとともに受信されてもよい。1つ又は複数の再生ゾーン特性を示すデータは、ブロック702における再生デバイスによる第1のオーディオ信号の再生前、再生中又は再生後に受信されてもよい。他の例もまた可能である。
In one example, a computing device may receive data indicative of one or more play zone characteristics via a controller interface of a controller device used by a user or sound engineer. In another example, a computing device may receive data indicative of one or more characteristics of a playback zone from playback devices within the playback zone. For example, data indicative of one or more characteristics may be received along with data indicative of the second audio signal. Data indicative of one or more playback zone characteristics may be received before, during, or after playback of the first audio signal by the playback device at
方法700は、ブロック706において、第2のオーディオ信号及び再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック706は、図5のブロック506及び508において上述したものと同一又は類似の機能を含んでもよい。例えば、オーディオ処理アルゴリズムを決定することは、第2のオーディオ信号及び再生デバイスの特性に基づいて再生ゾーンの音響特性を決定すること、及びその後に再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定することを含んでもよい。再生デバイスの特性は、上述したように、再生デバイスの音響特性、再生デバイスの仕様、及び再生デバイスのモデルのうちの1つ又は複数を含んでもよい。
The
上述したように、再生ゾーン内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイスによる適用により、第3のオーディオ信号が生成されうる。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度所定のオーディオ特性を持つ。ある場合では、所定のオーディオ特性は、上述した所定のオーディオ信号p(t)として表される所定のオーディオ特性と同一か又は実質的に同一であってもよい。他の例もまた可能である。 As described above, application by the playback device of the determined audio processing algorithm when playing the first audio signal within the playback zone may produce the third audio signal. The third audio signal has audio characteristics substantially identical to the predetermined audio characteristics, or at least to some extent the predetermined audio characteristics. In some cases, the predetermined audio characteristic may be the same or substantially the same as the predetermined audio characteristic represented as the predetermined audio signal p(t) described above. Other examples are also possible.
方法800は、ブロック708において、決定したオーディオ処理アルゴリズムと再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させることを含む。ある例では、ブロック708は、ブロック501において上述したものと同一又は類似の機能を含んでもよい。しかしながら、この場合において、コンピューティングデバイスは、再生ゾーンの音響特性に加えて又はその代わりに、オーディオ処理アルゴリズムと1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。
The
上述したように、オーディオ処理アルゴリズムが決定された再生ゾーンは、再生デバイスがオーディオコンテンツを再生することができるリスニング環境をシミュレートするために使用されるモデル再生ゾーン、又は再生デバイスのユーザの部屋であってもよい。幾つかの場合において、データベースは、モデル再生ゾーン内で再生されて検出されたオーディオ信号に基づいて生成されたエントリとともに、再生デバイスのユーザの部屋内で再生されて検出されたオーディオ信号に基づいて生成されたエントリを含んでもよい。 As described above, the playback zone in which the audio processing algorithms have been determined can be a model playback zone used to simulate a listening environment in which the playback device can play back audio content, or the user's room of the playback device. There may be. In some cases, the database is based on detected audio signals played within the user's room of the playback device, with entries generated based on detected audio signals played within the model playback zone. May contain generated entries.
図6Bは、オーディオ処理アルゴリズムのデータベース650の例示的な部分を示している。データベース650には、上記説明において決定したオーディオ処理アルゴリズム及びオーディオ処理アルゴリズムと再生ゾーン音響特性との関連付けが格納されている。示されるように、データベース650の一部は、データベース600のエントリ602-608と類似の複数のエントリ652-658を含んでもよい。例えば、エントリ652及び602は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ654及び604は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ656及び606は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。エントリ658及び608は、同一の再生ゾーン音響特性、及び同一のオーディオ処理アルゴリズム係数を有してもよい。
FIG. 6B shows an exemplary portion of a
再生ゾーン音響特性に加えて、データベース650は、対応する再生ゾーン音響特性を有する再生ゾーンの寸法を示すゾーン寸法情報及び対応する再生ゾーン音響特性に基づいて決定されたオーディオ処理アルゴリズムを含んでもよい。例えば、示されるように、エントリ652は、a1×b1×c1のゾーン寸法を有してもよく、エントリ654は、a2×b2×c2のゾーン寸法を有してもよく、エントリ656は、a3×b3×c3のゾーン寸法を有してもよく、エントリ654は、a4×b4×c4のゾーン寸法を有してもよい。そのため、この例において、決定されたオーディオ処理アルゴリズムに関連付けて記憶された1つ又は複数の特性は、再生ゾーンの音響特性及び再生ゾーンの寸法を含む。他の例もまた可能である。
In addition to the play zone acoustic properties, the
当業者は、データベース650が方法700の機能を実行することによって作成されて保守されうるデータベースの単なる一例であることを理解するであろう。ある例では、再生ゾーン音響特性は、異なる形式又は数学的状態(すなわち、反転対非反転関数)で記憶されてもよい。別の例では、オーディオ処理アルゴリズムは、関数及び/又は等化関数として記憶されてもよい。さらに別の例では、データベース650は、ゾーン寸法及び対応するオーディオ処理アルゴリズムのみを含むことができ、再生ゾーンの対応する音響特性を含まないことができる。他の例もまた可能である。
Those skilled in the art will appreciate that
方法500と同様に、上述した方法700(又は方法700の幾つかの変形例)は、さらに、データベース内の他のエントリを生成するために実行されてもよい。例えば、再生デバイスが第1の再生デバイスであり、再生ゾーンが第1の再生ゾーンであり、オーディオ処理アルゴリズムが第1のオーディオ処理アルゴリズムであることを考えると、方法600は、追加的に又は代替的に、第2の再生ゾーンにおいて第2の再生デバイスを使用して実行されてもよい。ある例では、第2の再生デバイスは、第2の再生ゾーンにおいて第4のオーディオ信号を再生することができ、第2の再生デバイスのマイクロホンは、第2の再生デバイスによって再生された第4のオーディオ信号の一部を含む第5のオーディオ信号を検出することができる。そして、コンピューティングデバイスは、(i)第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信してもよい。
Similar to
そして、コンピューティングデバイスは、第5のオーディオ信号及び第2の再生デバイスの特性に基づいて、第2の再生ゾーンの音響特性を決定してもよい。コンピューティングデバイスは、第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーンにおいて第4のオーディオ信号を再生するときの、決定した第2のオーディオ処理アルゴリズムの第2の再生デバイスによる適用により、第6のオーディオ信号が生成される。第6のオーディオ信号は、式(7)及び(8)において示される、所定のオーディオ信号z(t)によって表される所定のオーディオ特性と実質的に同一のオーディオ特性を有する。そして、コンピューティングデバイスは、第2のオーディオ処理アルゴリズムと第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させてもよい。 The computing device may then determine acoustic characteristics of the second playback zone based on the fifth audio signal and characteristics of the second playback device. The computing device may determine a second audio processing algorithm based on the acoustic properties of the second play zone. Application by the second playback device of the determined second audio processing algorithm when playing back the fourth audio signal in the playback zone now produces a sixth audio signal. The sixth audio signal has substantially the same audio characteristics as the predetermined audio characteristics represented by the predetermined audio signal z(t) shown in equations (7) and (8). The computing device may then store in the database an association between the second audio processing algorithm and at least one of the one or more characteristics of the second play zone.
方法500に関連して上述したものと同様に、データベースについてのエントリを生成する過程において、コンピューティングデバイスは、2つの再生ゾーンが類似の又は実質的に同一の再生ゾーン音響特性を有することを決定してもよい。したがって、上述したように、コンピューティングデバイスは、再生ゾーン音響特性と再生ゾーン音響特性に対応する決定したオーディオ処理アルゴリズムとを合成(すなわち、平均化)することができ、データベース内の1つのエントリとして合成された再生ゾーン音響特性及び合成したオーディオ処理アルゴリズムを記憶してもよい。他の例もまた可能である。
Similar to that described above with respect to
方法500の場合と同様に、上記説明は、全体的に、コンピューティングデバイスによって実行されるものとして方法700について言及しているが、当業者は、方法700の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよいことを理解するであろう。換言すれば、ブロック702-708のうちの1つ又は複数は、コンピューティングデバイスによって実行されてもよい一方で、ブロック702-708のうちの1つ又は複数の他のブロックは、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。他のコンピューティングデバイスは、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、及び/又は1つ又は複数のサーバを含んでもよい。
As with
ある例では、上述したように、ブロック702における再生デバイスによる第1のオーディオ信号の再生は、いかなる外部コマンドもなしに再生デバイスによって実行されうる。あるいは、再生デバイスは、コントローラデバイス及び/又は他の再生デバイスからのコマンドに応答して、第1のオーディオ信号を再生してもよい。別の例では、ブロック702-706は、1つ又は複数の再生デバイス又は1つ又は複数のコントローラデバイスによって実行されてもよく、コンピューティングデバイスは、ブロック708を実行してもよい。他の例もまた可能である。
In one example, as described above, playing the first audio signal by the playback device at
IV. 再生ゾーン特性に基づく再生デバイスの校正
上述したように、本明細書に記載された幾つかの例は、再生ゾーンについての再生デバイスの校正を含む。幾つかの場合において、再生デバイスの校正は、再生ゾーンにおけるオーディオコンテンツの再生時に再生デバイスが適用するオーディオ処理アルゴリズムを決定することを含んでもよい。
IV. CALIBRATION OF PLAYBACK DEVICES BASED ON PLAY ZONE CHARACTERISTICS As noted above, some examples described herein involve calibration of playback devices for the play zone. In some cases, calibrating a playback device may include determining the audio processing algorithms that the playback device applies when playing audio content in the playback zone.
図8は、再生デバイスを校正することができる例示的な再生環境800を示している。示されるように、再生環境800は、コンピューティングデバイス802と、再生デバイス804及び806と、コントローラデバイス808と、再生ゾーン810とを含む。再生デバイス804及び806は、図2に示される再生デバイス200に類似していてもよい。そのため、再生デバイス804及び806は、それぞれ、マイクロホン220などのマイクロホンを有してもよい。幾つかの場合において、再生デバイス804及び806のうちの一方のみがマイクロホンを有していてもよい。
FIG. 8 shows an
ある例では、再生デバイス804及び806は、メディア再生システムの一部とすることができ、図1のメディア再生システム100に関連して示されて上述されたもののように、オーディオコンテンツを同期して再生するように構成されうる。ある場合では、再生デバイス804及び806は、再生ゾーン810内で同期してオーディオコンテンツを再生するためにともにグループ化されうる。図1を再度参照すると、再生ゾーン810は、メディア再生システム100において異なる部屋及びゾーングループのいずれか1つ又は複数であってもよい。例えば、再生ゾーン810は、主寝室であってもよい。そのような場合、再生デバイス804及び806は、それぞれ、再生デバイス122及び124に対応していてもよい。
In one example,
ある例では、コントローラデバイス808は、メディア再生システムを制御するために使用されうるデバイスであってもよい。ある場合では、コントローラデバイス808は、図3の制御デバイス300に類似していてもよい。図8のコントローラデバイス808は、再生ゾーン810の内部にあるように示されているが、コントローラデバイス808は、再生ゾーン810の外部にあってもよいし、又は、再生デバイス804、再生デバイス806、及び/又はメディア再生システム内の他のデバイスと通信しながら再生ゾーン810の内外に移動してもよい。
In one example, controller device 808 may be a device that may be used to control a media playback system. In some cases, controller device 808 may be similar to control device 300 of FIG. Although the controller device 808 of FIG. 8 is shown as being inside the
ある例では、コンピューティングデバイス802は、メディア再生システムと通信するサーバであってもよい。コンピューティングデバイス802は、メディア再生システムに関連する情報(再生デバイス804及び806に関連付けられた登録番号など)のデータベースを保守するように構成されうる。また、コンピューティングデバイス802は、前のセクションにおいて記載されたようにオーディオ処理アルゴリズムのデータベースを保守するように構成されうる。他の例もまた可能である。
In one example,
方法900、1000及び1100は、後述するように、再生ゾーン810における再生デバイス804及び806などの再生ゾーンにおける再生デバイスの校正のために実行されうる機能を提供する。
a. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第1の例示的な方法
図9は、1つ又は複数の再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する方法900の例示的なフロー図を示している。図9に示される方法900は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法900は、メディア再生システムと通信するコンピューティングデバイスによって実行されうる。これに代えて、別の例では、方法900の機能の一部又は全ては、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又はメディア再生システムに関連する1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
a. First Exemplary Method for Determining Audio Processing Algorithms Based on Detected Audio Signals FIG. 9 is an exemplary flow diagram of a
方法900は、ブロック902-908のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。
図9に示されるように、方法900は、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させるステップ(ブロック902)、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを再生デバイスから受信するステップ(ブロック904)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック906)、及び決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信するステップ(ブロック908)を含む。
As shown in FIG. 9,
方法900は、ブロック902において、再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させることを含む。図8を参照し、再生デバイスは再生デバイス804であってもよく、再生ゾーンは再生ゾーン810であってもよい。そのため、再生デバイスは、図2に示される再生デバイス200と同様の再生デバイスであってもよい。
ある例では、コンピューティングデバイス802は、再生デバイス804が再生ゾーン810について校正されるべきであることを決定してもよく、それに応答して再生ゾーン810内の再生デバイス804に第1のオーディオ信号を再生させてもよい。ある場合では、コンピューティングデバイス802は、ユーザから受信した、再生デバイス804が校正されるべきであることを示す入力に基づいて、再生デバイス804が校正されるべきであることを決定してもよい。ある例では、入力は、コントローラデバイス808を介してユーザから受信されてもよい。別の場合では、コンピューティングデバイス802は、再生デバイス804が新たな再生デバイスであることから又は再生ゾーン810へと新たに移動したことから、再生デバイス804が校正されるべきであることを決定してもよい。さらなる場合において、再生デバイス804(又はメディア再生システム内の任意の他の再生デバイス)の校正が定期的に実行されてもよい。そのため、コンピューティングデバイス802は、再生デバイス804が再生デバイス804の校正スケジュールに基づいて校正されるべきであることを決定してもよい。他の例もまた可能である。再生デバイス804が校正されるべきであることを決定するのに応答して、コンピューティングデバイス802は、その後、再生デバイス804に第1のオーディオ信号を再生させてもよい。
In one example, the
ブロック902は、コンピューティングデバイス802が再生デバイス804に第1のオーディオ信号を再生させることを含むが、当業者は、再生デバイス804による第1のオーディオ信号の再生が必ずしもコンピューティングデバイス802によって生じなくてもよい又は開始されなくてもよいことを理解するであろう。例えば、コントローラデバイス808は、再生デバイス804にコマンドを送信して、再生デバイス804に第1のオーディオ信号を再生させてもよい。別の例では、再生デバイス806は、再生デバイス804に第1のオーディオ信号を再生させてもよい。さらなる例において、再生デバイス804は、コンピューティングデバイス802、再生デバイス806又はコントローラデバイス808からのコマンドを受信することなく、第1のオーディオ信号を再生してもよい。ある例では、再生デバイス804は、再生デバイス804の動き又は再生デバイス804の再生ゾーンの変化に基づいて、校正が実行されるべきであることを決定してもよく、それに応答して、第1のオーディオ信号を再生してもよい。他の例もまた可能である。
示唆されるように、第1のオーディオ信号は、再生ゾーン810についての再生デバイス804を校正するための検査信号又は測定信号であってもよい。そのため、第1のオーディオ信号は、ユーザによる通常使用中に再生デバイスによって再生されうるオーディオコンテンツを表してもよい。したがって、第1のオーディオ信号は、再生デバイスのレンダリング可能な周波数レンジ又は人間の可聴周波数レンジを実質的にカバーする周波数を有するオーディオコンテンツを含んでもよい。別の例では、第1のオーディオ信号は、再生デバイスのユーザのお気に入りの又は一般に再生されるオーディオトラックであってもよい。
As suggested, the first audio signal may be a test or measurement signal for calibrating
方法900は、ブロック904において、再生デバイスのマイクロホンによって検出された第2のオーディオ信号を再生デバイスから受信することを含む。上記例を続けると、再生デバイス804が図2の再生デバイス200と同様であることを考慮すると、再生デバイス804のマイクロホンは、再生デバイス200のマイクロホン220に類似していてもよい。ある例では、コンピューティングデバイス802は、再生デバイス804からデータを受信してもよい。別の例では、コンピューティングデバイス804は、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、又は他のサーバなどの他のコンピューティングデバイスを介して、データを受信してもよい。
The
再生デバイス804が第1のオーディオ信号を再生しているとき又はその直後まもなく、再生デバイス804のマイクロホンは、第2のオーディオ信号を検出することができる。第2のオーディオ信号は、再生ゾーン内に存在するサウンドを含んでもよい。例えば、第2のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分を含んでもよい。
When the
ある例では、コンピューティングデバイス802は、マイクロホンが第2のオーディオ信号を検出するとき、メディアストリームとして再生デバイス804から第1のオーディオ信号を示すデータを受信してもよい。別の例では、コンピューティングデバイス802は、再生デバイス804のマイクロホンによる第2のオーディオ信号の検出が完了すると、第2のオーディオ信号を示すデータを再生デバイス804から受信してもよい。いずれの場合も、再生デバイス804は、(再生デバイス200のオーディオ処理コンポーネント208などのオーディオ処理コンポーネントを介して)検出された第2のオーディオ信号を処理して、第2のオーディオ信号を示すデータを生成してコンピューティングデバイス802にデータを送信してもよい。ある例では、第2のオーディオ信号を示すデータを生成することは、アナログ信号からデジタル信号に第2のオーディオ信号を変換することを含んでもよい。他の例もまた可能である。
In one example,
方法900は、ブロック906において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、再生デバイスの音響特性は、図5に示される方法500のブロック506に関連して上述したように、hp(t)であってもよい。例えば、上述したように、無響室内の基準再生デバイスに測定信号を再生させ、基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを基準再生デバイスから受信し、検出されたオーディオ信号と測定信号との比較に基づいて再生デバイスの音響特性を決定することにより、再生デバイスの音響特性を決定することができる。
The
上記示唆したように、基準再生デバイスは、再生ゾーン810について校正されている再生デバイス804と同じモデルであってもよい。また、ブロック506に関連して上述したものと同様に、コンピューティングデバイスは、それに応じて、再生デバイスの音響特性及び第2のオーディオ信号に基づいて、再生ゾーンの音響特性を決定してもよい。
As suggested above, the reference playback device may be the same model as the
ある例では、コンピューティングデバイス802は、ブロック508に関連して上述したものと同様の再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。そのため、コンピューティングデバイス802は、再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを決定してもよい。ここで、再生ゾーン810内で第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか、又は少なくともある程度、所定のオーディオ特性を持つ。
In one example,
別の例では、コンピューティングデバイス802は、再生ゾーン810の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、コンピューティングデバイスは、図6A及び図6Bそれぞれのデータベース600及び650などのデータベースにアクセスすることができ、再生ゾーン810の音響特性に基づいてオーディオ処理アルゴリズムを特定してもよい。例えば、図6Aのデータベース600を参照すると、再生ゾーン810の音響特性がhroom
-1(t)-3として決定された場合、データベースエントリ606の係数w3、x3、y3及びz3を有するオーディオ処理アルゴリズムを特定することができる。
In another example,
幾つかの場合において、再生ゾーン810の決定された音響特性に完全に一致する音響特性は、データベースにおいてみつからないことがある。そのような場合、再生ゾーン810の音響特性に最も類似しているデータベース内の音響特性に対応するオーディオ処理アルゴリズムが特定されてもよい。他の例もまた可能である。
In some cases, acoustic properties that exactly match the determined acoustic properties of
方法900は、ブロック908において、決定したオーディオ処理アルゴリズムを示すデータを再生デバイスに送信することを含む。上記例を続けると、コンピューティングデバイス802(又は1つ又は複数の他のデバイス)は、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。また、決定されたオーディオ処理アルゴリズムを示すデータは、再生ゾーン810においてオーディオコンテンツを再生するときに、決定されたオーディオ処理アルゴリズムを再生デバイス804に適用させるためのコマンドを含んでもよい。ある例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの周波数等化を変更してもよい。別の例では、オーディオコンテンツにオーディオ処理アルゴリズムを適用することは、オーディオコンテンツの音量域を変更してもよい。他の例もまた可能である。
幾つかの場合において、再生ゾーンは、同期してオーディオコンテンツを再生するように構成された複数の再生デバイスを含んでもよい。例えば、上述したように、再生デバイス804及び806は、再生ゾーン810において同期してオーディオコンテンツを再生するように構成されてもよい。そのような場合、再生デバイスのうちの1つの校正は、他の再生デバイスを含んでもよい。
In some cases, a playback zone may include multiple playback devices configured to play audio content in sync. For example, as described above,
ある例では、再生ゾーン810などの再生ゾーンは、同期してオーディオコンテンツを再生するように構成された、再生デバイス804などの第1の再生デバイス及び再生デバイス806などの第2の再生デバイスを含んでもよい。コンピューティングデバイス802によって協調されて実行されるのにともない、再生デバイス804の校正は、再生デバイス804に第1のオーディオ信号を再生させ且つ再生デバイス806に第2のオーディオ信号を再生させることを含んでもよい。
In one example, a playback zone, such as
ある場合では、コンピューティングデバイス802は、再生デバイス804による第1のオーディオ信号の再生と同期して、再生デバイス806に第2のオーディオ信号を再生させてもよい。ある例では、再生デバイス804及び806のいずれかによって同期して再生されるオーディオコンテンツの成分が識別可能とすることができるように、第2のオーディオ信号は第1のオーディオ信号に直交していてもよい。別の場合では、コンピューティングデバイスは、再生デバイス804による第1のオーディオ信号の再生が終了した後に再生デバイス806に第2のオーディオ信号を再生させてもよい。他の例もまた可能である。
In some cases,
そして、コンピューティングデバイス802は、ブロック904に関連して記載されたものと同様に、再生デバイス804のマイクロホンによって検出された第3のオーディオ信号を再生デバイス804から受信してもよい。しかしながら、この場合、第3のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分の双方を含んでもよい。
その後、コンピューティングデバイス802は、第3のオーディオ信号及び再生デバイス804の音響特性に基づいて、オーディオ処理アルゴリズムを決定して、決定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に送信してもよい。決定されたオーディオ処理アルゴリズムは、ブロック906及び908に関連して上述したものと同様に、再生ゾーン810においてオーディオコンテンツを再生するときに、再生デバイス804が適用するものである。
ある場合では、上述したように、再生デバイス806は、マイクロホンを有してもよく、また、上述したものと同様に校正されてもよい。示されるように、再生デバイス804によって再生される第1のオーディオ信号及び再生デバイス806によって再生される第2のオーディオ信号は、直交していてもよく又は識別可能であってもよい。例えば、また上述したように、再生デバイス806は、再生デバイス804による第1のオーディオ信号の再生が終了した後に、第2のオーディオ信号を再生してもよい。別の例において、第2のオーディオ信号は、第1のオーディオ信号の位相に直交する位相を有してもよい。さらに別の例において、第2のオーディオ信号は、第1のオーディオ信号とは異なる及び/又は変化する周波数レンジを有してもよい。他の例もまた可能である。
In some cases, as described above,
いずれの場合にも、識別可能な第1及び第2のオーディオ信号により、コンピューティングデバイス802は、再生デバイス804によって検出された第3のオーディオ信号から、検出された第3のオーディオ信号に対する再生デバイス804の寄与及び検出された第3のオーディオ信号に対する再生デバイス806の寄与を解析することができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806について決定されうる。
In either case, the distinguishable first and second audio signals allow the
各オーディオ処理アルゴリズムは、ブロック508に関連して上述したものと同様に、決定されうる。ある場合では、再生ゾーンの第1の音響特性は、再生デバイス604によって検出された第3のオーディオ信号に基づいて決定されてもよく、再生ゾーンの第2の音響特性は、再生デバイス806によって検出された第4のオーディオ信号に基づいて決定されてもよい。第3のオーディオ信号と同様に、第4のオーディオ信号は、再生デバイス804によって再生された第1のオーディオ信号に対応する部分及び再生デバイス806によって再生された第2のオーディオ信号に対応する部分を含んでもよい。
Each audio processing algorithm can be determined in a manner similar to that described above with respect to block 508 . In some cases, a first acoustic property of the play zone may be determined based on a third audio signal detected by
そして、再生デバイス804及び再生デバイス806についての各オーディオ処理アルゴリズムは、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の個々に又はそれらの組み合わせに基づいて、決定されうる。幾つかの場合において、再生ゾーンの第1の音響特性及び再生ゾーンの第2の音響特性の組み合わせは、再生ゾーンの個別の第1又は第2の音響特性のいずれかよりも、再生ゾーンのより包括的な音響特性を表すことができる。そして、各オーディオ処理アルゴリズムは、再生デバイス804及び再生デバイス806に送信されて、再生ゾーン810においてオーディオコンテンツを再生するときに適用される。他の例もまた可能である。
Each audio processing algorithm for
上記説明は、全体的に、図8のコンピューティングデバイス802によって実行されるものとして、方法900ついて言及しているが、当業者は、上述したように、方法900の機能が、代替的に、1つ又は複数のサーバ、1つ又は複数の再生デバイス及び/又は1つ又は複数のコントローラデバイスなどの、1つ又は複数の他のコンピューティングデバイスよって実行されてもよいことを理解するであろう。例えば、再生ゾーン810についての再生デバイス804を校正するための方法900の機能は、再生デバイス804、再生デバイス806、コントローラデバイス808、又は図8には示されていないが再生デバイス804と通信する他のデバイスによって実行されてもよい。
Although the above description generally refers to
さらに、幾つかの場合において、ブロック902-908のうちの1つ又は複数は、コンピューティングデバイス802によって実行されうる一方で、ブロック902-908のうちの1つ又は複数の他のブロックは、1つ又は複数の他のデバイスによって実行されてもよい。例えば、ブロック902及び904は、再生デバイス804、再生デバイス806及び再生デバイス808のうちの1つ又は複数によって実行されうる。換言すれば、コンピューティングデバイス802以外の調整デバイスは、再生ゾーン810についての再生デバイス804の校正を調整することができる。
Further, in some cases, one or more of blocks 902-908 may be performed by computing
幾つかの場合において、ブロック906において、調整デバイスは、第2のオーディオ信号をコンピューティングデバイス802に送信して、コンピューティングデバイス802が第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定してもよい。再生デバイスの音響特性は、調整デバイスによってコンピューティングデバイス802に提供されてもよいし、又は再生デバイスの特性が格納されている他のデバイスから提供されてもよい。ある場合では、コンピューティングデバイス802は調整デバイスよりも多くの処理能力を有するため、コンピューティングデバイス802がブロック906の計算を実行してもよい。
In some cases, at
ある例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを直接再生デバイス804に送信して、再生ゾーン810でオーディオコンテンツを再生するときに再生デバイス804が適用できるようにしてもよい。別の例では、コンピューティングデバイス802は、オーディオ処理アルゴリズムを決定すると、決定したオーディオ処理アルゴリズムを調整デバイスに送信してもよく、調整デバイスはブロック908を実行して、(調整デバイスが再生デバイス804ではない場合は)決定したオーディオ処理アルゴリズムを再生デバイス804に送信してもよい。他の例もまた可能である。
In one example, once the
b. 検出されたオーディオ信号に基づいてオーディオ処理アルゴリズムを決定する第2の例示的な方法
幾つかの場合において、上述したように、再生ゾーンにおける再生デバイスの校正は、サーバ又はコントーラデバイスなどのコンピューティングデバイスによって調整されて実行されてもよい。幾つかの他の場合において、上述したように、再生デバイスの校正は、校正されている再生デバイスによって調整及び/又は実行されてもよい。
b. A Second Exemplary Method of Determining an Audio Processing Algorithm Based on a Detected Audio Signal In some cases, as described above, calibration of playback devices in the playback zone involves computing devices such as servers or controller devices. may be coordinated and performed by In some other cases, as described above, playback device calibration may be adjusted and/or performed by the playback device being calibrated.
図10は、校正されている再生デバイスによって実行されるような、1つ又は複数の再生ゾーン特性に基づいて、オーディオ処理アルゴリズムを決定する方法1000の例示的なフロー図を示している。図10に示される方法1000は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。示されるように、方法800は、再生ゾーンのために校正されるべき再生デバイスによって実行されうる。幾つかの場合において、方法1000の機能の一部は、代替的に、1つ又は複数のサーバ、1つ又は複数の他の再生デバイス、及び/又は1つ又は複数のコントローラデバイスなどの1つ又は複数の他のコンピューティングデバイスによって実行されてもよい。
FIG. 10 shows an exemplary flow diagram of a
方法1000は、ブロック1002-1008のうちの1つ又は複数によって示されるように1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。
図10に示されるように、方法1000は、再生ゾーン内で第1のオーディオ信号を再生するステップ(ブロック1002)、マイクロホンによって第2のオーディオ信号を検出するステップ(ブロック1004)、第2のオーディオ信号及び再生デバイスの音響特性に基づいてオーディオ処理アルゴリズムを決定するステップ(ブロック1006)、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに適用するステップ(ブロック1008)を含む。
As shown in FIG. 10,
方法1000は、ブロック1002において、再生ゾーンにおいて、第1のオーディオ信号を再生することを含む。図8を参照すると、再生デバイス804が再生ゾーン810内にある間、方法1000を実行する再生デバイスは、再生デバイス804であってもよい。ある例では、ブロック1002はブロック902に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック902に関連した上記説明が、時にはいくらか変形して、ブロック1002に適用可能である。
方法1000は、ブロック1004において、マイクロホンによって、第2のオーディオ信号を検出することを含む。第2のオーディオ信号は、再生デバイスによって再生された第1のオーディオ信号に対応する部分を含んでもよい。ある例では、ブロック1004はブロック904に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック904に関連した上記説明が、時にはいくらか変形して、ブロック1004に適用可能である。
方法1000は、ブロック1006において、第2のオーディオ信号及び再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定することを含む。ある例では、ブロック1006はブロック906に類似しているが、コンピューティングデバイス802よりもむしろ校正されている再生デバイス804によって実行されてもよい。それにもかかわらず、ブロック906に関連した上記説明が、時にはいくらか変形して、ブロック1006に適用可能である。
The
ある場合では、オーディオ処理アルゴリズムを決定する機能は、ブロック906に関連して記載されたように、再生ゾーン810のために校正されている再生デバイス804によって全体的に実行されてもよい。例えば、再生デバイス804が、第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン610の音響特性を決定してもよい。ある場合では、再生デバイス804は、再生デバイス804の音響特性をローカルに格納していてもよい。別の場合では、再生デバイス804は、他のデバイスから、再生デバイス804の音響特性を受信してもよい。
In some cases, the function of determining audio processing algorithms may be performed entirely by
ある例では、その後、再生デバイス804は、再生ゾーン610の音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムの中から選択してもよい。例えば、再生デバイス804は、それぞれ、図6A及び図6Bに関連して示されて上述されたデータベース600及び650などのデータベースにアクセスして、再生ゾーン610の音響特性と実質的に同様の音響特性に対応するオーディオ処理アルゴリズムをデータベースにおいて特定してもよい。
In one example,
他の例において、方法900のブロック906及び/又は方法500のブロック508に関連して上述した機能と同様に、再生デバイス804は、再生ゾーン610の音響特性及び所定のオーディオ特性に基づいて、オーディオ処理アルゴリズムを計算してもよい。ここで、再生ゾーン810において第1のオーディオ信号を再生するときの、決定したオーディオ処理アルゴリズムの再生デバイス804による適用は、第3のオーディオ信号を生成する。第3のオーディオ信号は、所定のオーディオ特性と実質的に同一のオーディオ特性を有するか又は少なくともある程度の所定のオーディオ特性を持つ。
In another example, similar to the functionality described above with respect to block 906 of
さらなる例において、前のセクションにおいて記載されたように、再生デバイス804以外の他のデバイスが、ブロック1006の機能の一部又は全てを実行してもよい。例えば、再生デバイス804は、コンピューティングデバイス802などのコンピューティングデバイス、再生デバイス806などの他の再生デバイス、コントローラデバイス808などのコントローラデバイス、及び/又は再生デバイス804と通信する幾つかの他のデバイスに対して、検出された第2のオーディオ信号を示すデータを送信して、オーディオ処理アルゴリズムを要求してもよい。別の例において、再生デバイス804は、検出されたオーディオ信号に基づいて再生ゾーン810の音響特性を決定し、再生ゾーン810の決定した音響特性に基づいたオーディオ処理アルゴリズムについての要求に応じて、再生ゾーン810の決定した音響特性を示すデータを他のデバイスに送信してもよい。
In further examples, other devices besides
換言すれば、1つの態様において、再生デバイス804は、検出された第2のオーディオ信号及び/又は再生デバイス804によって他のデバイスに提供された再生ゾーン810の音響特性に基づいて、他のデバイスからオーディオ処理アルゴリズムを要求することによって、オーディオ処理アルゴリズムを決定してもよい。
In other words, in one aspect, the
再生デバイス804が再生ゾーン810の音響特性ではなく、検出された第2のオーディオ信号を示すデータを提供する場合、再生デバイス804は、他のデバイスが再生ゾーン810の音響特性を決定することができるように、検出された第2のオーディオ信号を示すデータとともに再生デバイス804の音響特性を送信してもよい。別の場合では、検出された第2のオーディオ信号を示すデータを受信するデバイスは、データに基づいて、データを送信する再生デバイス804のモデルを決定し、再生デバイス804のモデル(すなわち、再生デバイス音響特性データベース)に基づいて、再生デバイス804の音響特性を決定してもよい。他の例もまた可能である。
If the
そして、再生デバイス804は、決定されたオーディオ処理アルゴリズムを受信してもよい。ある場合では、再生デバイス804は、他のデバイスが再生デバイス804よりも多くの処理能力を有することから、第2のオーディオ信号を他のデバイスに送信してもよい。別の場合では、再生デバイス804及び1つ又は複数の他のデバイスは、処理能力の効率的な使用のために、計算及び機能を並列に実行してもよい。他の例もまた可能である。
方法800は、ブロック1008において、決定したオーディオ処理アルゴリズムを、メディアアイテムを再生するときにメディアアイテムに対応するオーディオデータに対して適用することを含む。ある例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの周波数等化を変更してもよい。別の例では、再生ゾーン810内でメディアアイテムを再生するときの再生デバイス804によるメディアアイテムのオーディオデータに対するオーディオ処理アルゴリズムの適用は、メディアアイテムの音量域を変更してもよい。ある例では、再生デバイス804は、決定されたオーディオ処理アルゴリズムをローカルメモリストレージに格納することができ、再生ゾーン810においてオーディオコンテンツを再生するときにオーディオ処理アルゴリズムを適用してもよい。
The
ある例では、再生デバイス804は、再生デバイス804の異なる構成のために校正されてもよい。例えば、再生デバイス804は、再生ゾーン810における個々の再生を含む第1の構成、並びに再生ゾーン810における再生デバイス806との同期再生を含む第2の構成のために、校正されてもよい。そのような場合、第1のオーディオ処理アルゴリズムが、再生デバイスの第1の再生構成のために、決定、格納、及び適用され、第2のオーディオ処理アルゴリズムが、再生デバイスの第2の再生構成のために、決定、格納、及び適用される。
In some examples,
そして、再生デバイス804は、再生デバイス804の所定時間における再生構成に基づいて、オーディオ処理アルゴリズムを決定して、再生ゾーン810におけるオーディオコンテンツの再生時に適用してもよい。例えば、再生デバイス804が再生デバイス806なしで再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第1のオーディオ処理アルゴリズムを適用してもよい。一方、再生デバイス804が再生デバイス806と同期して再生ゾーン810においてオーディオコンテンツを再生しているとき、再生デバイス804は、第2のオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。
The
c. 再生ゾーン特性に基づいてオーディオ処理アルゴリズムを決定する例示的な方法
上記説明において、オーディオ処理アルゴリズムの決定は、一般に、再生ゾーン内の再生デバイスによって検出されたオーディオ信号に基づいて決定されるように、再生ゾーンの音響特性を決定することに基づくことができる。幾つかの場合において、オーディオ処理アルゴリズムは、再生ゾーンの音響特性に加えて又はその代わりに、再生ゾーンの他の特性に基づいて特定されてもよい。
c. Exemplary Methods of Determining Audio Processing Algorithms Based on Play Zone Characteristics In the discussion above, the determination of audio processing algorithms is generally based on the audio signals detected by the playback devices within the play zone. It can be based on determining the acoustic properties of the playback zone. In some cases, audio processing algorithms may be specified based on other properties of the play zone in addition to or instead of the acoustic properties of the play zone.
図11は、再生ゾーンの1つ又は複数の特性に基づいて、オーディオ処理アルゴリズムのデータベースから、オーディオ処理アルゴリズムを提供する例示的なフロー図を示している。図11に示される方法1100は、例えば、図1のメディア再生システム100、図2の1つ又は複数の再生デバイス200、図3の1つ又は複数の制御デバイス300、及び図8の再生環境800を含む動作環境内で実施されうる方法の実施形態を表している。ある例では、方法1100は、再生ゾーンのために校正されるべきである再生デバイスと通信する、1つ又は複数の再生デバイス、1つ又は複数のコントローラデバイス、1つ又は複数のサーバ、又は1つ又は複数のコンピューティングデバイスによって、個別に又はまとめて実行されてもよい。
FIG. 11 shows an exemplary flow diagram for providing an audio processing algorithm from a database of audio processing algorithms based on one or more characteristics of a play zone. 11, the one or more playback devices 200 of FIG. 2, the one or more control devices 300 of FIG. 3, and the
方法1100は、ブロック1102-1108のうちの1つ又は複数によって示されるように、1つ又は複数の操作、機能又は動作を含んでもよい。ブロックは順番に示されているが、これらのブロックは、並列に及び/又は本明細書に記載されたものとは異なる順序で実行されてもよい。また、様々なブロックは、所望の実装に基づいて、より少数のブロックに組み合わせられてもよく、さらなるブロックに分割されてもよく、及び/又は除去されてもよい。 Method 1100 may include one or more operations, functions or actions, as indicated by one or more of blocks 1102-1108. Although the blocks are shown in sequence, these blocks may be executed in parallel and/or in a different order than described herein. Also, various blocks may be combined into fewer blocks, divided into additional blocks, and/or removed based on the desired implementation.
図11に示されるように、方法1100は、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守するステップ(ブロック1102)、再生ゾーンの1つ又は複数の特性を示すデータを受信するステップ(ブロック1104)、データに基づいてオーディオ処理アルゴリズムをデータベース内で特定するステップ(ブロック1106)、及び特定したオーディオ処理アルゴリズムを示すデータを送信するステップ(ブロック1108)を含む。 As shown in FIG. 11, the method 1100 includes maintaining a database of (i) a plurality of audio processing algorithms and (ii) a plurality of play zone characteristics (block 1102); The steps include receiving data indicative (block 1104), identifying an audio processing algorithm in a database based on the data (block 1106), and transmitting data indicative of the identified audio processing algorithm (block 1108).
方法1100は、ブロック1102において、(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守することを含む。ある例では、データベースは、図6A及び図6Bそれぞれに関連して示されて上述されたようなデータベース600及び650に類似していてもよい。そのため、複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、複数の再生ゾーン特性のうちの1つ又は複数の再生ゾーン特性に対応してもよい。データベースの保守は、図5及び図7それぞれの方法500及び700に関連して上述したようなものとしてもよい。上述したように、データベースは、データベースを保守するデバイス上にローカルに格納されていてもよいし、格納されていなくてもよい。
The method 1100 includes maintaining a database of (i) multiple audio processing algorithms and (ii) multiple play zone characteristics at
方法1100は、ブロック1104において、再生ゾーンの1つ又は複数の特性を示すデータを受信することを含む。ある例では、再生ゾーンの1つ又は複数の特性は、再生ゾーンの音響特性を含んでもよい。別の例では、再生ゾーンの1つ又は複数の特性は、他の可能性のうち、再生ゾーンの寸法、再生ゾーンの床材、再生ゾーンの壁材、再生ゾーンの使用目的、再生ゾーン内の家具の数、再生ゾーン内の家具の大きさ及び再生ゾーン内の家具の種類を含んでもよい。
Method 1100 includes receiving data indicative of one or more characteristics of the play zone at
ある例では、図8を再度参照すると、再生デバイス804は、再生ゾーン810のために校正されてもよい。上述したように、方法1100は、校正されている再生デバイス804、再生デバイス806、コントローラデバイス808、コンピューティングデバイス802、又は再生デバイス804と通信する他のデバイスによって、個別に又はまとめて実行されてもよい。
In one example, referring back to FIG. 8,
ある場合では、1つ又は複数の特性は、再生ゾーン810の音響特性を含んでもよい。そのような場合、再生ゾーン810内の再生デバイス804は、第1のオーディオ信号を再生し、第1のオーディオ信号に対応する部分を含む第2のオーディオ信号を再生デバイス804のマイクロホンによって検出してもよい。ある例では、1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータであってもよい。別の例において、検出された第2のオーディオ信号及び再生デバイス804の音響特性に基づいて、再生ゾーン810の音響特性は、先に記載されたものと同様に決定されてもよい。そして、1つ又は複数の特性を示すデータは、再生ゾーンの音響特性を示してもよい。いずれの場合にも、1つ又は複数の特性を示すデータは、その後、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。
In some cases, the one or more properties may include acoustic properties of the
別の場合では、1つ又は複数の特性は、再生ゾーンの寸法、再生ゾーンの床材、及び再生ゾーンの壁材などを含んでもよい。そのような場合、ユーザは、コントローラデバイス808などのコントローラデバイスによって提供されるコントローラインタフェースを介して、再生ゾーン810の1つ又は複数の特性を入力又は選択するように促されてもよい。例えば、コントローラインタフェースは、ユーザが選択できるように、他の可能性のうち、再生ゾーン寸法のリスト及び/又は家具配置のリストを提供してもよい。そして、ユーザによって提供されるような再生ゾーン810の1つ又は複数の特性を示すデータは、方法1100を実行する1つ又は複数のデバイスのうちの少なくとも1つによって受信されてもよい。
In other cases, the one or more characteristics may include regeneration zone dimensions, regeneration zone flooring, regeneration zone wall materials, and the like. In such cases, the user may be prompted to input or select one or more characteristics of
方法1100は、ブロック1106において、データに基づいて、データベース内でオーディオ処理アルゴリズムを特定することを含む。1つ又は複数の特性が再生ゾーン810の音響特性を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーン810の音響特性に基づいて、データベース内で特定されうる。例えば、図6Aのデータベース600を参照すると、受信したデータが、hroom
-1(t)-3又はhroom
-1(t)-3と実質的に同一の、再生ゾーン810の音響特性を示す場合、係数w3、x3、y3及びz3を有するデータベースエントリ606のオーディオ処理アルゴリズムが特定されうる。例えば、再生ゾーンの1つ又は複数の特性を示すデータは、検出された第2のオーディオ信号を示すデータを単に含み、再生ゾーンの音響特性は、さらに、オーディオ処理アルゴリズムを特定する前に、上述したように決定されうる。他の例もまた可能である。
The method 1100 includes identifying audio processing algorithms in the database based on the data at
1つ又は複数の特性が、数ある特性の中でも特に、再生ゾーンの寸法を含む場合を参照すると、オーディオ処理アルゴリズムは、再生ゾーンの寸法に基づいて、データベース内で特定されてもよい。例えば、図6Bのデータベース650を参照すると、受信データがa4×b4×c4として又はa4×b4×c4と実質的に同一の、再生ゾーン810の寸法を示す場合、係数w4、x4、y4及びz4を有するデータベースエントリ658のオーディオ処理アルゴリズムエントリが特定されうる。他の例もまた可能である。
Referring to the case where the one or more properties include, among other properties, the dimensions of the play zone, audio processing algorithms may be identified in the database based on the dimensions of the play zone. For example, referring to
幾つかの場合において、複数のオーディオ処理アルゴリズムは、受信データに示される再生ゾーンの1つ又は複数の特性に基づいて特定されてもよい。例えば、再生ゾーン810の音響特性が、hroom
-1(t)-3として決定される一方で、再生ゾーン810についてユーザによって提供される寸法が、a4×b4×c4であってもよい。ここで、hroom
-1(t)-3は、図6のデータベース650のエントリ656において提供されるようなオーディオ処理アルゴリズムパラメータw3、x3、y3及びz3に対応し、a4×b4×c4は、エントリ658において提供されるようなオーディオ処理アルゴリズムパラメータw4、x4、y4及びz4に対応する。
In some cases, multiple audio processing algorithms may be identified based on one or more characteristics of the playback zone indicated in the received data. For example, even if the acoustic properties of the
ある例では、一致又は実質的に一致する音響特性に対応するオーディオ処理アルゴリズムが優先されてもよい。別の例では、オーディオ処理アルゴリズムの平均(すなわち、パラメータの平均)が計算されてもよく、平均オーディオ処理アルゴリズムが、特定されたオーディオ処理アルゴリズムであってもよい。他の例もまた可能である。 In some examples, preference may be given to audio processing algorithms that correspond to matching or substantially matching acoustic characteristics. In another example, an audio processing algorithm average (ie, parameter average) may be calculated, and the average audio processing algorithm may be a specified audio processing algorithm. Other examples are also possible.
方法1100は、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを送信することを含む。上記例を続けると、特定したオーディオ処理アルゴリズムを示すデータは、再生ゾーン810用に校正されている再生デバイス804に送信されてもよい。ある場合では、特定したオーディオ処理アルゴリズムを示すデータは、再生デバイス804に直接送信されてもよい。別の場合では、再生デバイス804の校正がコントローラデバイス808によって調整される場合、及びオーディオ処理アルゴリズムがコンピューティングデバイス802によって特定された場合、特定されたオーディオ処理アルゴリズムを示すデータは、コントローラデバイス808を介してコンピューティングデバイス802から再生デバイス804に対して送信されてもよい。他の例もまた可能である。
Method 1100 includes transmitting data indicative of the identified audio processing algorithm at
上述したように、方法1100の機能は、1つ又は複数のサーバ、1つ又は複数の再生デバイス、及び/又は1つ又は複数のコントローラデバイスのうちの1つ又は複数によって実行されうる。ある例では、ブロック1102におけるデータベースの保守は、コンピューティングデバイス802によって実行される。ブロック1104における再生ゾーンの1つ又は複数の特性を示すデータの受信は、コントローラデバイス808によって実行される(データは、再生ゾーン810において校正されている再生デバイス804によってコントローラデバイス808に提供される)。ブロック1106は、コンピューティングデバイス802と通信するコントローラデバイス808によって実行され、コンピューティングデバイス802によって保守されるデータベースにアクセスして、オーディオ信号処理が特定される。ブロック1108は、コンピューティングデバイス802が、特定されたオーディオ処理アルゴリズムを示すデータを、直接又はコントローラデバイス808を介して、再生デバイス804に送信することを含む。
As noted above, the functionality of method 1100 may be performed by one or more of one or more servers, one or more playback devices, and/or one or more controller devices. In one example, database maintenance at
別の例では、方法1100の機能は、1つのデバイスによって完全に又は実質的完全に実行されてもよい。例えば、コンピューティングデバイス802は、ブロック1102に関連して記載されたようにデータベースを保守してもよい。
In another example, the functionality of method 1100 may be performed entirely or substantially entirely by one device. For example,
そして、コンピューティングデバイス802は、再生デバイス804の校正を調整してもよい。例えば、コンピューティングデバイス802は、再生デバイス804に第1のオーディオ信号を再生させて第2のオーディオ信号を検出させ、検出された第2のオーディオ信号を示すデータを再生デバイス804から受信し、再生デバイス804からのデータに基づいて再生ゾーン810の音響特性を決定してもよい。別の場合において、コンピューティングデバイス802は、コントローラデバイス808に再生ゾーン810の1つ又は複数の特性(すなわち、上述したように寸法など)を提供するようにユーザを促させ、再生ゾーン810のユーザによって提供された特性を示すデータを受信してもよい。
そして、コンピューティングデバイスは、ブロック1106において、受信データに基づいてオーディオ処理アルゴリズムを特定することができ、ブロック1108において、特定したオーディオ処理アルゴリズムを示すデータを再生デバイス804に対して送信してもよい。また、コンピューティングデバイス802は、再生デバイス804のためにコマンドを送信して、再生ゾーン810内でオーディオコンテンツを再生するときに、特定されたオーディオ処理アルゴリズムを適用してもよい。他の例もまた可能である。
The computing device may then identify an audio processing algorithm based on the received data at
IV.結論
本明細書は、様々な例示のシステム、方法、装置、および製品などを開示しており、それらは、他のコンポーネントの中で、ハードウェア上で実行されるファームウェアおよび/又はソフトウェアを含む。そのような例は、単なる例示であり、限定されるものとみなすべきではないと理解される。例えば、これらのファームウェア、ハードウェア、および/又はソフトウェアの態様又はコンポーネントのいくつか又はすべてが、専らハードウェアに、専らソフトウェアに、専らファームウェアに、又はハードウェア、ソフトウェア、および/又はファームウェアの任意の組み合わせを実施することができることが意図されている。したがって、提供されているそれらの例は、それらのシステム、方法、装置、および/又は生産物を実施する唯一の方法ではない。
IV. CONCLUSION This specification discloses various example systems, methods, apparatus, articles of manufacture, etc. that include, among other components, firmware and/or software executing on hardware. It is understood that such examples are illustrative only and should not be considered limiting. For example, some or all of these firmware, hardware, and/or software aspects or components may be exclusively hardware, exclusively software, exclusively firmware, or any of hardware, software, and/or firmware. It is intended that combinations may be practiced. Accordingly, the examples provided are not the only ways to implement the systems, methods, apparatuses, and/or products.
更に、本明細書において「実施形態」は、実施形態に関連して述べられた特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施例に含まれ得ることを示している。本明細書の様々な場所でこの語句が用いられているが、すべてが同じ実施形態を言及するものではなく、又、他の実施形態を除いた別個の実施形態又は代替の実施形態でもない。このように、本明細書で述べられた実施形態は、明示的におよび暗黙的に、当業者によって、他の実施形態砥組み合わせることができることが理解される。 Further, the use of "embodiment" herein indicates that the particular feature, structure, or characteristic described in connection with the embodiment can be included in at least one example of the invention. The appearances of the phrase in various places in this specification are not all referring to the same embodiment, nor to separate or alternative embodiments but to other embodiments. It is thus understood that the embodiments described herein can be combined with other embodiments, both explicitly and implicitly, by those skilled in the art.
以下の例は、本開示のさらなる又は代替的な態様を記載している。以下の例のいずれかにおけるデバイスは、本明細書に記載されたデバイスのうちのいずれかのデバイスの要素又は本明細書に記載されたデバイスの任意の構成とすることができる。
(特徴1)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを前記再生デバイスから受信すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
決定した前記オーディオ処理アルゴリズムを示すデータを前記再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴2)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴3)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴4)
前記オーディオ処理アルゴリズムを決定することが、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性及び所定のオーディオ特性に基づいて、前記オーディオ処理アルゴリズムを計算すること、
を含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴5)
前記オーディオ処理アルゴリズムを決定することが、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、いずれかの先行する特徴のコンピューティングデバイス。
(特徴6)
前記機能が、さらに、
無響室内の基準再生デバイスに測定信号を再生させること、
前記基準再生デバイスのマイクロホンによって検出されたオーディオ信号を示すデータを前記基準再生デバイスから受信すること、ここで、前記検出されたオーディオ信号は前記無響室内で再生された測定信号に対応する部分を含む、及び
前記検出されたオーディオ信号と前記測定信号との比較に基づいて、前記再生デバイスの音響特性を決定すること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴7)
プロセッサ、及び前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリを備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーンにおいて、第1の再生デバイスに第1のオーディオ信号を再生させること、
前記再生ゾーンにおいて、第2の再生デバイスに第2のオーディオ信号を再生させること、
前記第1の再生デバイスのマイクロホンによって検出された第3のオーディオ信号を示すデータを前記第1の再生デバイスから受信すること、ここで、前記第3のオーディオ信号は、(i)前記第1のオーディオ信号に対応する部分及び(ii)第2の再生デバイスによって再生された前記第2のオーディオ信号に対応する部分を含む、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムを示すデータを前記第1の再生デバイスに送信すること、
を有する、コンピューティングデバイス。
(特徴8)
前記再生ゾーンにおいて前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第4のオーディオ信号が生成される、特徴7のコンピューティングデバイス。
(特徴9)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第3のオーディオ信号及び前記第1の再生デバイスの音響特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること
を含む、特徴7又は特徴8のコンピューティングデバイス。
(特徴10)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生と同期して、前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴9のいずれかのコンピューティングデバイス。
(特徴11)
第2の再生デバイスに第2のオーディオ信号を再生させることは、前記第1の再生デバイスによる前記第1のオーディオ信号の再生が終了した後に前記第2の再生デバイスに前記第2のオーディオ信号を再生させることを含む、特徴7から特徴10のいずれかのコンピューティングデバイス。
(特徴12)
前記第1のオーディオ信号は前記第2のオーディオ信号に直交している、特徴7から特徴11のいずれかのコンピューティングデバイス。
(特徴13)
前記第1の再生デバイス及び前記第2の再生デバイスは、同期してオーディオコンテンツを再生するように構成された再生デバイスのゾーングループに含まれる、特徴7から特徴12のいずれかのコンピューティングデバイス。
(特徴14)
プロセッサ、マイクロホン、及び前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリを備えた再生デバイスであって、
前記機能は、
再生ゾーン内で第1のオーディオ信号を再生すること、
第2のオーディオ信号を前記マイクロホンによって検出すること、ここで、前記第2のオーディオ信号は前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、
前記再生ゾーン内でメディアアイテムを再生するときに前記メディアアイテムに対応するオーディオデータに対して、前記決定したオーディオ処理アルゴリズムを適用すること、
を有する、再生デバイス。
(特徴15)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号を生成する、特徴14のコンピューティングデバイス。
(特徴16)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの音響特性に基づいて、前記再生ゾーンの1つ又は複数の特性を決定すること、及び
前記再生ゾーンの1つ又は複数の特性に対応するオーディオ処理アルゴリズムを複数のオーディオ処理アルゴリズムから選択すること、
を含む、特徴14又は特徴15のコンピューティングデバイス。
(特徴17)
前記オーディオ処理アルゴリズムを決定することは、
(i)前記第2のオーディオ信号及び(ii)前記再生デバイスの特性を示す送信データをコンピューティングデバイスに送信すること、及び
前記オーディオ処理アルゴリズムを示すデータを前記コンピューティングデバイスから受信すること、
を含む、特徴14から特徴16のいずれかのコンピューティングデバイス。
(特徴18)
前記機能は、さらに、前記決定したオーディオ処理アルゴリズムを前記メモリに格納することを含む、特徴14から特徴17のいずれかのコンピューティングデバイス。
(特徴19)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの周波数等化を変更することを含む、特徴14から特徴18のいずれかのコンピューティングデバイス。
(特徴20)
前記オーディオデータに対して前記オーディオ処理アルゴリズムを適用することは、前記メディアアイテムの音量域を変更することを含む、特徴14から特徴19のいずれかのコンピューティングデバイス。
(特徴21)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記第1のオーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記オーディオ処理アルゴリズムと前記再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、コンピューティングデバイス。
(特徴22)
前記再生ゾーン内で前記第1のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、いずれかの先行する特徴のコンピューティングデバイス。
(特徴23)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第4のオーディオ信号を再生させること、
前記第2の再生デバイスのマイクロホンによって検出された第5のオーディオ信号を示すデータを受信すること、ここで、前記第5のオーディオ信号は、前記第2の再生デバイスによって再生された前記第4のオーディオ信号に対応する部分を含む、
前記第5のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、前記第2の再生ゾーンの音響特性を決定すること、
前記第2の再生ゾーンの音響特性に基づいて、第2のオーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズム及び前記第2の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、いずれかの先行する特徴のコンピューティングデバイス。
(特徴24)
第1の再生ゾーン内で前記第1のオーディオ信号を再生するときに前記第1の決定されたオーディオ処理アルゴリズムを前記第1の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成される、
前記第2の再生ゾーン内で前記第4のオーディオ信号を再生するときに前記第2の決定されたオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、前記所定のオーディオ特性と実質的に同一のオーディオ特性を有する第6のオーディオ信号が生成される、
特徴3のコンピューティングデバイス。
(特徴25)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの音響特性との関連付けをデータベースに記憶させること、
を有する、特徴3のコンピューティングデバイス。
(特徴26)
前記オーディオ処理アルゴリズムを決定することは、前記オーディオ処理アルゴリズムについての1つ又は複数のパラメータを決定することを含む、特徴21から特徴25のいずれかのコンピューティングデバイス。
(特徴27)
前記機能は、さらに、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、及び
前記再生ゾーンの1つ又は複数の特性と前記第2のオーディオ処理アルゴリズムとの関連付けをデータベースに記憶させること、
を有する、特徴21から特徴26のいずれかのコンピューティングデバイス。
(特徴28)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、及び(f)再生ゾーン内の家具の種類のうちの1つ又は複数を含む、特徴27のコンピューティングデバイス。
(特徴29)
プロセッサ、及び
前記プロセッサによって実行可能であってコンピューティングデバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
再生ゾーン内の再生デバイスに第1のオーディオ信号を再生させること、
(i)前記再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記再生デバイスのマイクロホンによって検出された第2のオーディオ信号を示すデータを受信すること、ここで、前記第2のオーディオ信号は、前記再生デバイスによって再生された前記オーディオ信号に対応する部分を含む、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記決定したオーディオ処理アルゴリズムと前記再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を備える、コンピューティングデバイス。
(特徴30)
前記オーディオ処理アルゴリズムを決定することは、さらに、
前記第2のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいてオーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第2のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第3のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴31)
前記再生デバイスは、第1の再生デバイスである、
前記再生ゾーンは、第1の再生ゾーンである、
前記オーディオ処理アルゴリズムは、第1のオーディオ処理アルゴリズムである、
前記機能は、さらに、
第2の再生ゾーン内の第2の再生デバイスに第3のオーディオ信号を再生させること、
(i)前記第2の再生ゾーンの1つ又は複数の特性を示すデータ及び(ii)前記第2の再生ゾーン内の第2の再生デバイスのマイクロホンによって検出された第4のオーディオ信号を示すデータを受信すること、ここで、前記第4のオーディオ信号は、前記再生デバイスによって再生された前記第3のオーディオ信号に対応する部分を含む、
前記第4のオーディオ信号及び前記第2の再生デバイスの特性に基づいて、オーディオ処理アルゴリズムを決定すること、及び
前記第2のオーディオ処理アルゴリズムと前記第2の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴29又は特徴30のコンピューティングデバイス。
(特徴32)
前記第2のオーディオ処理アルゴリズムを決定することは、さらに、
前記第4のオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの音響特性に基づいて、オーディオ処理アルゴリズムを決定すること、を含み、前記再生ゾーン内で前記第3のオーディオ信号を再生するときに前記決定したオーディオ処理アルゴリズムを前記第2の再生デバイスによって適用することにより、所定のオーディオ特性と実質的に同一のオーディオ特性を有する第5のオーディオ信号が生成されるようにする、
特徴29のコンピューティングデバイス。
(特徴33)
前記機能は、さらに、
前記第2の再生ゾーンの音響特性が前記第1の再生ゾーンの音響特性と実質的に同一であることを決定すること、
それに応答して、前記第1のオーディオ処理アルゴリズム及び前記第2のオーディオ処理アルゴリズムに基づいて、第3のオーディオ処理アルゴリズムを決定すること、及び
前記第3のオーディオ処理アルゴリズムと前記第1の再生ゾーンの1つ又は複数の特性のうちの少なくとも1つとの関連付けをデータベースに記憶させること、
を有する、特徴32のコンピューティングデバイス。
(特徴34)
前記再生ゾーンの1つ又は複数の特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴29から特徴33のいずれかのコンピューティングデバイス。
(特徴35)
プロセッサ、及び
前記プロセッサによって実行可能であって再生デバイスに機能を実行させる命令を格納したメモリ、
を備えたコンピューティングデバイスであって、
前記機能は、
(i)複数のオーディオ処理アルゴリズム及び(ii)複数の再生ゾーン特性のデータベースを保守すること、ここで、前記複数のオーディオ処理アルゴリズムのうちの各オーディオ処理アルゴリズムは、前記複数の再生ゾーン特性のうちの少なくとも1つの再生ゾーン特性に対応している、
前記再生ゾーンの1つ又は複数の特性を示すデータを受信すること、
前記データに基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、及び
前記特定したオーディオ処理アルゴリズムを示すデータを送信すること、
を有する、コンピューティングデバイス。
(特徴36)
前記データは、さらに、前記再生ゾーン内の再生デバイスのマイクロホンによって検出されたオーディオ信号を示す、特徴35のコンピューティングデバイス。
(特徴37)
前記オーディオ処理アルゴリズムを前記データベースにおいて特定することは、さらに、
前記検出されたオーディオ信号及び前記再生デバイスの特性に基づいて、前記再生ゾーンの音響特性を決定すること、及び
前記再生ゾーンの決定した前記音響特性に基づいて、オーディオ処理アルゴリズムを前記データベースにおいて特定すること、
を含む、特徴36のコンピューティングデバイス。
(特徴38)
前記複数の再生ゾーン特性は、(a)前記再生ゾーンの寸法、(b)前記再生ゾーンのオーディオ反射特性、(c)再生ゾーンの使用目的、(d)再生ゾーン内の家具の数、(e)再生ゾーン内の家具の大きさ、(f)再生ゾーン内の家具の種類、及び(g)前記再生ゾーンの音響特性のうちの1つ又は複数を含む、特徴35のコンピューティングデバイス。
(特徴39)
前記再生ゾーンの1つ又は複数の特性を示すデータは、コントローラデバイスから受信される、特徴35のコンピューティングデバイス。
(特徴40)
前記再生ゾーンの1つ又は複数の特性を示すデータは、前記再生ゾーン内の再生デバイスから受信される、特徴35のコンピューティングデバイス。
The following examples describe additional or alternative aspects of the disclosure. A device in any of the following examples can be an element of any of the devices described herein or any configuration of a device described herein.
(Feature 1)
A computing device comprising a processor and a memory storing instructions executable by the processor to cause the computing device to perform functions,
Said function is
causing a playback device within the playback zone to play the first audio signal;
receiving data from the playback device indicative of a second audio signal detected by a microphone of the playback device, wherein the second audio signal includes a portion corresponding to the first audio signal;
determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device; and transmitting data indicative of the determined audio processing algorithm to the playback device;
A computing device having a
(Feature 2)
third audio having audio characteristics substantially identical to predetermined audio characteristics by applying the determined audio processing algorithm by the playback device when playing the first audio signal within the playback zone; A computing device of any preceding character from which a signal is generated.
(Feature 3)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the second audio signal and the acoustic characteristics of the playback device; and a plurality of audio processing algorithms corresponding to the determined acoustic characteristics of the playback zone. to choose from
A computing device of any preceding feature, including
(Feature 4)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the second audio signal and acoustic characteristics of the playback device; and calculating the audio processing algorithm based on the acoustic characteristics of the playback zone and predetermined audio characteristics. to do
A computing device of any preceding feature, including
(Feature 5)
The computing device of any preceding feature, wherein determining the audio processing algorithm comprises determining one or more parameters for the audio processing algorithm.
(Feature 6)
The function further includes:
causing a reference reproduction device in the anechoic chamber to reproduce the measured signal;
receiving data from the reference reproduction device indicative of an audio signal detected by a microphone of the reference reproduction device, wherein the detected audio signal corresponds to a measured signal reproduced in the anechoic chamber; and determining an acoustic characteristic of the playback device based on a comparison of the detected audio signal and the measured signal;
A computing device of any preceding feature, having
(Feature 7)
A computing device comprising a processor and a memory storing instructions executable by the processor to cause the computing device to perform functions,
Said function is
causing a first playback device to play a first audio signal in a playback zone;
causing a second playback device to play a second audio signal in the playback zone;
receiving data from the first playback device indicative of a third audio signal detected by a microphone of the first playback device, wherein the third audio signal is (i) the first audio signal; a portion corresponding to an audio signal; and (ii) a portion corresponding to said second audio signal reproduced by a second reproduction device;
determining an audio processing algorithm based on the third audio signal and acoustic characteristics of the first playback device; and transmitting data indicative of the determined audio processing algorithm to the first playback device;
A computing device having a
(Feature 8)
applying the determined audio processing algorithm by the first reproduction device when reproducing the first audio signal in the reproduction zone, thereby generating a fourth audio characteristic having substantially the same audio characteristics as predetermined audio characteristics; 8. The computing device of feature 7, wherein the audio signal of feature 7 is generated.
(Feature 9)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the third audio signal and acoustic characteristics of the first playback device; and a plurality of audio processing algorithms corresponding to the acoustic characteristics of the playback zone. The computing device of feature 7 or feature 8, comprising selecting from:
(Feature 10)
causing a second reproduction device to reproduce a second audio signal includes reproducing the second audio signal to the second reproduction device in synchronization with reproduction of the first audio signal by the first reproduction device; 10. The computing device of any of features 7-9, including playing the
(Feature 11)
causing the second reproduction device to reproduce the second audio signal includes reproducing the second audio signal to the second reproduction device after the reproduction of the first audio signal by the first reproduction device is completed; 11. The computing device of any of features 7-10, including playing.
(Feature 12)
12. The computing device of any of features 7-11, wherein the first audio signal is orthogonal to the second audio signal.
(Feature 13)
13. The computing device of any of features 7-12, wherein the first playback device and the second playback device are included in a zone group of playback devices configured to play audio content synchronously.
(Feature 14)
1. A playback device comprising a processor, a microphone, and a memory storing instructions executable by the processor to cause the playback device to perform functions,
Said function is
playing the first audio signal within a play zone;
detecting a second audio signal with the microphone, wherein the second audio signal includes a portion corresponding to the first audio signal;
determining an audio processing algorithm based on the second audio signal and the acoustic characteristics of the playback device;
applying the determined audio processing algorithm to audio data corresponding to the media item when playing the media item within the play zone;
A playback device.
(Feature 15)
generating a third audio signal having audio characteristics substantially identical to predetermined audio characteristics by applying the determined audio processing algorithm when reproducing the first audio signal within the reproduction zone; , the computing device of feature 14.
(Feature 16)
Determining the audio processing algorithm further comprises:
determining one or more characteristics of the playback zone based on the second audio signal and acoustic characteristics of the playback device; and providing an audio processing algorithm corresponding to the one or more characteristics of the playback zone. choosing from multiple audio processing algorithms;
16. The computing device of feature 14 or feature 15, comprising:
(Feature 17)
Determining the audio processing algorithm includes:
(i) transmitting the second audio signal and (ii) transmission data indicative of characteristics of the playback device to a computing device; and receiving data indicative of the audio processing algorithm from the computing device;
17. The computing device of any of features 14-16, comprising:
(Feature 18)
18. The computing device of any of features 14-17, wherein the functionality further includes storing the determined audio processing algorithm in the memory.
(Feature 19)
19. The computing device of any of features 14-18, wherein applying the audio processing algorithm to the audio data includes modifying frequency equalization of the media item.
(Feature 20)
20. The computing device of any of features 14-19, wherein applying the audio processing algorithm to the audio data includes modifying a volume range of the media item.
(Feature 21)
a processor and a memory storing instructions executable by the processor to cause a computing device to perform functions;
A computing device comprising
Said function is
causing a playback device within the playback zone to play the first audio signal;
receiving data indicative of a second audio signal detected by a microphone of the reproduction device, wherein the second audio signal corresponds to a portion of the first audio signal reproduced by the reproduction device; including,
determining acoustic characteristics of the playback zone based on the second audio signal and characteristics of the playback device;
determining an audio processing algorithm based on the acoustic properties of the play zone; and storing in a database an association between the audio processing algorithm and the acoustic properties of the play zone;
A computing device having a
(Feature 22)
third audio having audio characteristics substantially identical to predetermined audio characteristics by applying the determined audio processing algorithm by the playback device when playing the first audio signal within the playback zone; A computing device of any preceding character from which a signal is generated.
(Feature 23)
wherein the playback device is a first playback device;
wherein the regeneration zone is a first regeneration zone;
wherein the audio processing algorithm is a first audio processing algorithm,
Said function further comprises:
causing a second playback device in a second playback zone to play a fourth audio signal;
receiving data indicative of a fifth audio signal detected by a microphone of the second reproduction device, wherein the fifth audio signal is the fourth audio signal reproduced by the second reproduction device; including the portion corresponding to the audio signal,
determining acoustic characteristics of the second playback zone based on the fifth audio signal and characteristics of the second playback device;
determining a second audio processing algorithm based on the acoustic properties of the second play zone; and storing in a database an association between the second audio processing algorithm and the acoustic properties of the second play zone. thing,
A computing device of any preceding feature, having
(Feature 24)
substantially identical to predetermined audio characteristics by applying the first determined audio processing algorithm by the first reproduction device when reproducing the first audio signal within a first reproduction zone; a third audio signal is generated having audio characteristics of
applying the second determined audio processing algorithm by the second playback device when playing back the fourth audio signal in the second playback zone, substantially a sixth audio signal having the same audio characteristics at
The computing device of
(Feature 25)
Said function further comprises:
determining that the acoustic properties of the second playback zone are substantially the same as the acoustic properties of the first playback zone;
In response, determining a third audio processing algorithm based on said first audio processing algorithm and said second audio processing algorithm; and said third audio processing algorithm and said first play zone. storing in a database the association with the acoustic properties of
The computing device of
(Feature 26)
26. The computing device of any of features 21-25, wherein determining the audio processing algorithm includes determining one or more parameters for the audio processing algorithm.
(Feature 27)
Said function further comprises:
receiving data indicative of one or more characteristics of the play zone; and storing in a database an association between one or more characteristics of the play zone and the second audio processing algorithm;
The computing device of any of features 21-26, having a
(Feature 28)
The one or more characteristics of the reproduction zone are: (a) dimensions of the reproduction zone; (b) audio reflection properties of the reproduction zone; (c) intended use of the reproduction zone; 28. The computing device of feature 27, comprising one or more of the number, (e) the size of the furniture in the reproduction zone, and (f) the type of furniture in the reproduction zone.
(Feature 29)
a processor and a memory storing instructions executable by the processor to cause a computing device to perform functions;
A computing device comprising
Said function is
causing a playback device within the playback zone to play the first audio signal;
(i) data indicative of one or more characteristics of the playback zone and (ii) data indicative of a second audio signal detected by a microphone of the playback device, wherein the second audio. the signal includes a portion corresponding to the audio signal reproduced by the reproduction device;
determining an audio processing algorithm based on the second audio signal and characteristics of the playback device; and associating the determined audio processing algorithm with at least one of one or more characteristics of the playback zone. to be stored in a database,
A computing device comprising:
(Feature 30)
Determining the audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the second audio signal and characteristics of the playback device; and determining an audio processing algorithm based on the acoustic characteristics of the playback zone. A third audio signal having audio characteristics substantially identical to predetermined audio characteristics is generated by applying the determined audio processing algorithm by the reproduction device when reproducing the second audio signal within the zone. to be generated,
29. The computing device of feature 29.
(Feature 31)
wherein the playback device is a first playback device;
wherein the regeneration zone is a first regeneration zone;
wherein the audio processing algorithm is a first audio processing algorithm,
Said function further comprises:
causing a second playback device in a second playback zone to play a third audio signal;
(i) data indicative of one or more characteristics of said second playback zone; and (ii) data indicative of a fourth audio signal detected by a microphone of a second playback device within said second playback zone. wherein said fourth audio signal comprises a portion corresponding to said third audio signal reproduced by said reproduction device;
determining an audio processing algorithm based on characteristics of the fourth audio signal and the second playback device; and determining one or more characteristics of the second audio processing algorithm and the second playback zone. storing in a database an association with at least one of
The computing device of feature 29 or feature 30, comprising:
(Feature 32)
Determining the second audio processing algorithm further comprises:
determining acoustic characteristics of the playback zone based on the fourth audio signal and characteristics of the playback device; and determining an audio processing algorithm based on the acoustic characteristics of the playback zone; applying the determined audio processing algorithm by the second reproduction device when reproducing the third audio signal within a reproduction zone, thereby obtaining a fifth audio characteristic having substantially the same audio characteristics as predetermined audio characteristics; so that an audio signal of
29. The computing device of feature 29.
(Feature 33)
Said function further comprises:
determining that the acoustic properties of the second playback zone are substantially the same as the acoustic properties of the first playback zone;
In response, determining a third audio processing algorithm based on said first audio processing algorithm and said second audio processing algorithm; and said third audio processing algorithm and said first play zone. storing in a database an association with at least one of the one or more properties of
The computing device of feature 32, comprising:
(Feature 34)
The one or more characteristics of the reproduction zone are: (a) dimensions of the reproduction zone; (b) audio reflection properties of the reproduction zone; (c) intended use of the reproduction zone; (e) the size of the furniture in the reproduction zone; (f) the type of furniture in the reproduction zone; and (g) the acoustic characteristics of the reproduction zone. any computing device.
(Feature 35)
a processor and a memory storing instructions executable by the processor to cause a playback device to perform functions;
A computing device comprising
Said function is
(i) maintaining a database of a plurality of audio processing algorithms and (ii) a plurality of play zone characteristics, wherein each audio processing algorithm of said plurality of audio processing algorithms comprises: corresponding to at least one play zone characteristic of
receiving data indicative of one or more characteristics of the regeneration zone;
identifying an audio processing algorithm in the database based on the data; and transmitting data indicative of the identified audio processing algorithm;
A computing device having a
(Feature 36)
36. The computing device of Feature 35, wherein the data is further indicative of audio signals detected by microphones of playback devices within the playback zone.
(Feature 37)
Identifying the audio processing algorithm in the database further comprises:
determining acoustic characteristics of the playback zone based on the detected audio signal and characteristics of the playback device; and identifying an audio processing algorithm in the database based on the determined acoustic characteristics of the playback zone. thing,
The computing device of feature 36, comprising:
(Feature 38)
The plurality of play zone characteristics include: (a) dimensions of the play zone, (b) audio reflection properties of the play zone, (c) intended use of the play zone, (d) number of furniture in the play zone, (e) 36. The computing device of feature 35, comprising one or more of:) size of furniture in a play zone; (f) type of furniture in a play zone; and (g) acoustic characteristics of the play zone.
(Feature 39)
36. The computing device of feature 35, wherein data indicative of one or more characteristics of the play zone is received from a controller device.
(Feature 40)
36. The computing device of feature 35, wherein data indicative of one or more characteristics of the play zone is received from a play device within the play zone.
本明細書は、例示的な環境、システム、手順、ステップ、論理ブロック、処理、および他のシンボル表現に関して広く示されており、それらは直接又は間接的にネットワークに接続されるデータ処理デバイスの動作に類似するものである。これらの処理説明および表現は、一般的に当業者によって使用され、それらの仕事の内容を他の当業者に最も効率良く伝えることができる。多くの具体的な内容が、本開示を理解するために提供されている。しかしながら、当業者にとって、本開示の特定の実施形態が特定の、具体的な詳細なしに実施され得ることは理解される。他の例では、周知の方法、手順、コンポーネント、および回路が、実施形態を不必要に曖昧にすることを避けるため、詳細に説明していない。したがって、本開示の範囲は、上記した実施形態よりむしろ添付された特許請求の範囲によって定義される。 This specification is presented broadly in terms of exemplary environments, systems, procedures, steps, logic blocks, processes, and other symbolic representations that describe the operations of data processing devices that are directly or indirectly connected to networks. is similar to These processing descriptions and representations are commonly used by those skilled in the art to most effectively convey the substance of their work to others skilled in the art. A number of specific details are provided for understanding this disclosure. However, it will be understood by those skilled in the art that certain embodiments of the present disclosure may be practiced without the specific specific details. In other instances, well-known methods, procedures, components and circuits have not been described in detail to avoid unnecessarily obscuring the embodiments. Accordingly, the scope of the present disclosure is defined by the appended claims rather than the above-described embodiments.
添付の特許請求の範囲のいずれかが単にソフトウェアおよび/又はファームウェアへの実装をカバーするように読み取ると、少なくとも1つの例における要素の1つ又は複数は、本明細書では、ソフトウェアおよび/又はファームウェアを記憶する有形の非一時的な記憶媒体、例えば、メモリ、DVD、CD、Blu-ray(登録商標)等を含むことが明確に定められている。 When any of the appended claims are read to merely cover implementations in software and/or firmware, one or more of the elements in at least one example may be referred to herein as software and/or firmware. tangible, non-transitory storage media, such as memories, DVDs, CDs, Blu-rays, etc.
Claims (17)
アンプを有するオーディオステージ、
1つ又は複数のプロセッサ、
ハウジング、
を備え、
ハウジングは、少なくともネットワークインタフェース、オーディオステージ、1つ又は複数のプロセッサ、及び1つ又は複数のプロセッサによって再生デバイスに機能を実行させる命令を記憶したデータストレージを有し、
前記機能は、
再生デバイスのマイクロホンによって検出される第1オーディオ信号を示すデータを受信するステップ、ここで、再生デバイスは第1再生ゾーン内で第2オーディオ信号を再生している、
第1オーディオ信号に基づいて、再生ゾーンの1つ又は複数の音響特性を決定するステップ、
ゾーンの決定された1つ又は複数の音響特性に対応するモデルゾーンの音響特性をオフセットするため、第1オーディオ処理アルゴリズムを、所定の校正のためのデータベースにおいて、ネットワークインタフェースを介して特定するステップ、ここで、データベースは再生デバイスから離れた1つ又は複数のサーバによってホストされる、
再生デバイスのオーディオステージに第1オーディオ処理アルゴリズムを適用するステップ、
校正されたオーディオステージ及び1つ又は複数のスピーカーを介してオーディオコンテンツを再生するステップ、
を含む、再生デバイス。 network interface,
an audio stage with an amplifier,
one or more processors;
housing,
with
the housing has at least a network interface, an audio stage, one or more processors, and a data storage storing instructions that cause the one or more processors to cause the playback device to perform functions;
Said function is
receiving data indicative of a first audio signal detected by a microphone of a reproduction device, wherein the reproduction device is reproducing a second audio signal within a first reproduction zone;
determining one or more acoustic properties of the playback zone based on the first audio signal;
Identifying a first audio processing algorithm in a database for a predetermined calibration via a network interface for offsetting acoustic properties of the model zone corresponding to the determined one or more acoustic properties of the zone. step, wherein the database is hosted by one or more servers remote from the playback device;
applying a first audio processing algorithm to an audio stage of a playback device;
playing audio content through a calibrated audio stage and one or more speakers;
playback devices, including
再生デバイス自体による第1タイプの校正を用いて再生デバイスを校正する命令を受信するステップ、ここで、前記所定の校正は再生デバイスと通信するサーバによる第2タイプの校正である、
第1タイプの校正を用いて再生デバイスを校正する命令に基づいて、第1タイプの校正を用いて再生デバイスを校正するステップ、
ここで第1タイプの校正を用いて再生デバイスを校正するステップは、
マイクロホンデバイスが校正オーディオ出力を記録している間、オーディオステージ及び1つ又は複数のスピーカーを介して校正オーディオを出力すること、
記録された校正オーディオ出力に基づいて第2オーディオ処理アルゴリズムを計算し、それを再生デバイスのオーディオステージに適応し、第1タイプの所定の校正を実行すること、これにより、第1タイプの所定の校正は再生デバイスのオーディオステージに適用されるとき、再生デバイスが配置される特定のゾーンの音響特性をオフセットする、
を有する、
を含む、請求項1に記載の再生デバイス。 Said function further comprises:
receiving instructions to calibrate the playback device with a first type of calibration by the playback device itself , wherein said predetermined calibration is a second type of calibration by a server in communication with the playback device ;
calibrating the playback device with the first type of calibration based on the instructions to calibrate the playback device with the first type of calibration;
Here, the step of calibrating the playback device using the first type of calibration includes:
outputting the calibration audio through an audio stage and one or more speakers while the microphone device records the calibration audio output;
calculating a second audio processing algorithm based on the recorded calibration audio output, adapting it to the audio stage of the playback device, and performing a first type of predetermined calibration, whereby a first type of predetermined calibration, when applied to the audio stage of a playback device, offsets the acoustic characteristics of the particular zone in which the playback device is located;
having
2. The playback device of claim 1, comprising:
請求項1に記載の再生デバイス。 The predetermined calibration offsets the acoustic properties of a model zone that has known dimensions and includes one or more known materials with given reflection properties.
A playback device according to claim 1 .
請求項1に記載の再生デバイス。 Determining one or more acoustic properties of the playback zone based on the first audio signal includes removing the acoustic properties of the playback device from the acoustic response of the playback zone to the first audio signal;
A playback device according to claim 1 .
第1のタイプの所定の較正を、再生デバイスから離れた1つ又は複数のサーバによってホストされるデータベース内の特定のゾーンの1つ又は複数の音響特性と関連付けるステップ、
を含む、請求項2に記載の再生デバイス。 Said function further comprises:
associating a first type of predetermined calibration with one or more acoustic properties of a particular zone in a database hosted by one or more servers remote from the playback device;
3. The playback device of claim 2, comprising:
再生デバイスのマイクロホンによって検出される第1オーディオ信号を示すデータを受信するステップ、ここで、再生デバイスは第1再生ゾーン内で第2オーディオ信号を再生している、
第1オーディオ信号に基づいて、再生ゾーンの1つ又は複数の音響特性を決定するステップ、
ゾーンの決定された1つ又は複数の音響特性に対応するモデルゾーンの音響特性をオフセットするため、第1オーディオ処理アルゴリズムを、所定の校正のためのデータベースにおいて、ネットワークインタフェースを介して特定するステップ、ここで、データベースは再生デバイスから離れた1つ又は複数のサーバによってホストされる、
再生デバイスのオーディオステージに第1オーディオ処理アルゴリズムを適用するステップ、
校正されたオーディオステージ及び1つ又は複数のスピーカーを介してオーディオコンテンツを再生するステップ、
を含む、方法。 A method performed by a playback device, comprising:
receiving data indicative of a first audio signal detected by a microphone of a reproduction device, wherein the reproduction device is reproducing a second audio signal within a first reproduction zone;
determining one or more acoustic properties of the playback zone based on the first audio signal;
Identifying a first audio processing algorithm in a database for a predetermined calibration via a network interface for offsetting acoustic properties of the model zone corresponding to the determined one or more acoustic properties of the zone. step, wherein the database is hosted by one or more servers remote from the playback device;
applying a first audio processing algorithm to an audio stage of a playback device;
playing audio content through a calibrated audio stage and one or more speakers;
A method, including
再生デバイス自体による第1タイプの校正を用いて再生デバイスを校正する命令を受信するステップ、ここで、前記所定の校正は再生デバイスと通信するサーバによる第2タイプの校正である、
第1タイプの校正を用いて再生デバイスを校正する命令に基づいて、第1タイプの校正を用いて再生デバイスを校正するステップ、
ここで第1タイプの校正を用いて再生デバイスを校正するステップは、
マイクロホンデバイスが校正オーディオ出力を記録している間、オーディオステージ及び1つ又は複数のスピーカーを介して校正オーディオを出力すること、
記録された校正オーディオ出力に基づいて第2オーディオ処理アルゴリズムを計算し、それを再生デバイスのオーディオステージに適応し、第1タイプの所定の校正を実行すること、これにより、第1タイプの所定の校正は再生デバイスのオーディオステージに適用されるとき、再生デバイスが配置される特定のゾーンの音響特性をオフセットする、
を有する、
を含む、請求項7に記載の方法。 Furthermore,
receiving instructions to calibrate the playback device with a first type of calibration by the playback device itself , wherein said predetermined calibration is a second type of calibration by a server in communication with the playback device ;
calibrating the playback device with the first type of calibration based on the instructions to calibrate the playback device with the first type of calibration;
Here, the step of calibrating the playback device using the first type of calibration includes:
outputting the calibration audio through an audio stage and one or more speakers while the microphone device records the calibration audio output;
calculating a second audio processing algorithm based on the recorded calibration audio output, adapting it to the audio stage of the playback device, and performing a first type of predetermined calibration, whereby a first type of predetermined calibration, when applied to the audio stage of a playback device, offsets the acoustic characteristics of the particular zone in which the playback device is located;
having
8. The method of claim 7 , comprising:
請求項7に記載の方法。 The predetermined calibration offsets the acoustic properties of a model zone that has known dimensions and includes one or more known materials with given reflection properties.
8. The method of claim 7 .
請求項7に記載の方法。 Determining one or more acoustic properties of the playback zone based on the first audio signal includes removing the acoustic properties of the playback device from the acoustic response of the playback zone to the first audio signal;
8. The method of claim 7 .
第1のタイプの所定の較正を、再生デバイスから離れた1つ又は複数のサーバによってホストされるデータベース内の特定のゾーンの1つ又は複数の音響特性と関連付けるステップ、
を含む、請求項8に記載の方法。 Furthermore,
associating a first type of predetermined calibration with one or more acoustic properties of a particular zone in a database hosted by one or more servers remote from the playback device;
9. The method of claim 8 , comprising:
前記機能は、
再生デバイスのマイクロホンによって検出される第1オーディオ信号を示すデータを受信するステップ、ここで、再生デバイスは第1再生ゾーン内で第2オーディオ信号を再生している、
第1オーディオ信号に基づいて、再生ゾーンの1つ又は複数の音響特性を決定するステップ、
ゾーンの決定された1つ又は複数の音響特性に対応するモデルゾーンの音響特性をオフセットするため、第1オーディオ処理アルゴリズムを、所定の校正のためのデータベースにおいて、ネットワークインタフェースを介して特定するステップ、ここで、データベースは再生デバイスから離れた1つ又は複数のサーバによってホストされる、
再生デバイスのオーディオステージに第1オーディオ処理アルゴリズムを適用するステップ、
校正されたオーディオステージ及び1つ又は複数のスピーカーを介してオーディオコンテンツを再生するステップ、
を含む、コンピュータ読み取り可能な記録媒体。 A non-transitory computer-readable recording medium storing instructions that cause the playback device to perform functions by the playback device's processor,
Said function is
receiving data indicative of a first audio signal detected by a microphone of a reproduction device, wherein the reproduction device is reproducing a second audio signal within a first reproduction zone;
determining one or more acoustic properties of the playback zone based on the first audio signal;
Identifying a first audio processing algorithm in a database for a predetermined calibration via a network interface for offsetting acoustic properties of the model zone corresponding to the determined one or more acoustic properties of the zone. step, wherein the database is hosted by one or more servers remote from the playback device;
applying a first audio processing algorithm to an audio stage of a playback device;
playing audio content through a calibrated audio stage and one or more speakers;
A computer-readable recording medium, including
再生デバイス自体による第1タイプの校正を用いて再生デバイスを校正する命令を受信するステップ、ここで、前記所定の校正は再生デバイスと通信するサーバによる第2タイプの校正である、
第1タイプの校正を用いて再生デバイスを校正する命令に基づいて、第1タイプの校正を用いて再生デバイスを校正するステップ、
ここで第1タイプの校正を用いて再生デバイスを校正するステップは、
マイクロホンデバイスが校正オーディオ出力を記録している間、オーディオステージ及び1つ又は複数のスピーカーを介して校正オーディオを出力すること、
記録された校正オーディオ出力に基づいて第2オーディオ処理アルゴリズムを計算し、それを再生デバイスのオーディオステージに適応し、第1タイプの所定の校正を実行すること、これにより、第1タイプの所定の校正は再生デバイスのオーディオステージに適用されるとき、再生デバイスが配置される特定のゾーンの音響特性をオフセットする、
を有する、
を含む、請求項13に記載のコンピュータ読み取り可能な記録媒体。 Said function further comprises:
receiving instructions to calibrate the playback device with a first type of calibration by the playback device itself , wherein said predetermined calibration is a second type of calibration by a server in communication with the playback device ;
calibrating the playback device with the first type of calibration based on the instructions to calibrate the playback device with the first type of calibration;
Here, the step of calibrating the playback device using the first type of calibration includes:
outputting the calibration audio through an audio stage and one or more speakers while the microphone device records the calibration audio output;
calculating a second audio processing algorithm based on the recorded calibration audio output, adapting it to the audio stage of the playback device, and performing a first type of predetermined calibration, whereby a first type of predetermined calibration, when applied to the audio stage of a playback device, offsets the acoustic characteristics of the particular zone in which the playback device is located;
having
14. The computer-readable medium of claim 13 , comprising:
請求項13に記載のコンピュータ読み取り可能な記録媒体。 The predetermined calibration offsets the acoustic properties of a model zone that has known dimensions and includes one or more known materials with given reflection properties.
14. A computer-readable recording medium according to claim 13 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022115789A JP2022163061A (en) | 2014-09-09 | 2022-07-20 | Audio processing algorithm and database |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/481,505 US9952825B2 (en) | 2014-09-09 | 2014-09-09 | Audio processing algorithms |
US14/481,505 | 2014-09-09 | ||
US14/481,514 US9891881B2 (en) | 2014-09-09 | 2014-09-09 | Audio processing algorithm database |
US14/481,514 | 2014-09-09 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019056360A Division JP6792015B2 (en) | 2014-09-09 | 2019-03-25 | Audio processing algorithms and databases |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022115789A Division JP2022163061A (en) | 2014-09-09 | 2022-07-20 | Audio processing algorithm and database |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021044818A JP2021044818A (en) | 2021-03-18 |
JP2021044818A5 JP2021044818A5 (en) | 2022-06-08 |
JP7110301B2 true JP7110301B2 (en) | 2022-08-01 |
Family
ID=54292894
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017513241A Active JP6503457B2 (en) | 2014-09-09 | 2015-09-08 | Audio processing algorithm and database |
JP2019056360A Active JP6792015B2 (en) | 2014-09-09 | 2019-03-25 | Audio processing algorithms and databases |
JP2020185230A Active JP7110301B2 (en) | 2014-09-09 | 2020-11-05 | Audio processing algorithms and databases |
JP2022115789A Pending JP2022163061A (en) | 2014-09-09 | 2022-07-20 | Audio processing algorithm and database |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017513241A Active JP6503457B2 (en) | 2014-09-09 | 2015-09-08 | Audio processing algorithm and database |
JP2019056360A Active JP6792015B2 (en) | 2014-09-09 | 2019-03-25 | Audio processing algorithms and databases |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022115789A Pending JP2022163061A (en) | 2014-09-09 | 2022-07-20 | Audio processing algorithm and database |
Country Status (4)
Country | Link |
---|---|
EP (2) | EP4243450B1 (en) |
JP (4) | JP6503457B2 (en) |
CN (2) | CN106688248B (en) |
WO (1) | WO2016040324A1 (en) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9084058B2 (en) | 2011-12-29 | 2015-07-14 | Sonos, Inc. | Sound field calibration using listener localization |
US9690539B2 (en) | 2012-06-28 | 2017-06-27 | Sonos, Inc. | Speaker calibration user interface |
US9706323B2 (en) | 2014-09-09 | 2017-07-11 | Sonos, Inc. | Playback device calibration |
US9106192B2 (en) | 2012-06-28 | 2015-08-11 | Sonos, Inc. | System and method for device playback calibration |
US9219460B2 (en) | 2014-03-17 | 2015-12-22 | Sonos, Inc. | Audio settings based on environment |
US9264839B2 (en) | 2014-03-17 | 2016-02-16 | Sonos, Inc. | Playback device configuration based on proximity detection |
US9910634B2 (en) | 2014-09-09 | 2018-03-06 | Sonos, Inc. | Microphone calibration |
US9952825B2 (en) | 2014-09-09 | 2018-04-24 | Sonos, Inc. | Audio processing algorithms |
US10127006B2 (en) | 2014-09-09 | 2018-11-13 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US9891881B2 (en) | 2014-09-09 | 2018-02-13 | Sonos, Inc. | Audio processing algorithm database |
US10664224B2 (en) | 2015-04-24 | 2020-05-26 | Sonos, Inc. | Speaker calibration user interface |
WO2016172593A1 (en) | 2015-04-24 | 2016-10-27 | Sonos, Inc. | Playback device calibration user interfaces |
US9538305B2 (en) | 2015-07-28 | 2017-01-03 | Sonos, Inc. | Calibration error conditions |
EP3531714B1 (en) | 2015-09-17 | 2022-02-23 | Sonos Inc. | Facilitating calibration of an audio playback device |
US9693165B2 (en) | 2015-09-17 | 2017-06-27 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US9743207B1 (en) | 2016-01-18 | 2017-08-22 | Sonos, Inc. | Calibration using multiple recording devices |
US10003899B2 (en) | 2016-01-25 | 2018-06-19 | Sonos, Inc. | Calibration with particular locations |
US11106423B2 (en) | 2016-01-25 | 2021-08-31 | Sonos, Inc. | Evaluating calibration of a playback device |
EP3547701B1 (en) * | 2016-04-01 | 2023-09-06 | Sonos Inc. | Updating playback device configuration information based on calibration data |
US9860662B2 (en) | 2016-04-01 | 2018-01-02 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US9864574B2 (en) | 2016-04-01 | 2018-01-09 | Sonos, Inc. | Playback device calibration based on representation spectral characteristics |
US9763018B1 (en) | 2016-04-12 | 2017-09-12 | Sonos, Inc. | Calibration of audio playback devices |
US9794710B1 (en) | 2016-07-15 | 2017-10-17 | Sonos, Inc. | Spatial audio correction |
US9860670B1 (en) | 2016-07-15 | 2018-01-02 | Sonos, Inc. | Spectral correction using spatial calibration |
US10372406B2 (en) | 2016-07-22 | 2019-08-06 | Sonos, Inc. | Calibration interface |
US10459684B2 (en) | 2016-08-05 | 2019-10-29 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
US10299061B1 (en) | 2018-08-28 | 2019-05-21 | Sonos, Inc. | Playback device calibration |
US11206484B2 (en) | 2018-08-28 | 2021-12-21 | Sonos, Inc. | Passive speaker authentication |
US10959018B1 (en) * | 2019-01-18 | 2021-03-23 | Amazon Technologies, Inc. | Method for autonomous loudspeaker room adaptation |
US10734965B1 (en) | 2019-08-12 | 2020-08-04 | Sonos, Inc. | Audio calibration of a portable playback device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325073A (en) | 2006-06-02 | 2007-12-13 | Konica Minolta Holdings Inc | Echo canceling circuit, acoustic apparatus, network camera, and echo canceling method |
JP2008035254A (en) | 2006-07-28 | 2008-02-14 | Sharp Corp | Sound output device and television receiver |
US20100162117A1 (en) | 2008-12-23 | 2010-06-24 | At&T Intellectual Property I, L.P. | System and method for playing media |
US20130216071A1 (en) | 2012-02-21 | 2013-08-22 | Intertrust Technologies Corporation | Audio reproduction systems and methods |
US20140003625A1 (en) | 2012-06-28 | 2014-01-02 | Sonos, Inc | System and Method for Device Playback Calibration |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0828920B2 (en) * | 1992-01-20 | 1996-03-21 | 松下電器産業株式会社 | Speaker measuring device |
JP2870359B2 (en) * | 1993-05-11 | 1999-03-17 | ヤマハ株式会社 | Acoustic characteristic correction device |
JPH10307592A (en) * | 1997-05-08 | 1998-11-17 | Alpine Electron Inc | Data distributing system for on-vehicle audio device |
CN100382657C (en) * | 1999-08-11 | 2008-04-16 | 微软公司 | Compensation system and method for sound reproduction |
JP4187391B2 (en) * | 2000-08-28 | 2008-11-26 | 富士通テン株式会社 | In-vehicle audio service method |
US7483540B2 (en) * | 2002-03-25 | 2009-01-27 | Bose Corporation | Automatic audio system equalizing |
JP2004159037A (en) * | 2002-11-06 | 2004-06-03 | Sony Corp | Automatic sound adjustment system, sound adjusting device, sound analyzer, and sound analysis processing program |
US8234395B2 (en) | 2003-07-28 | 2012-07-31 | Sonos, Inc. | System and method for synchronizing operations among a plurality of independently clocked digital data processing devices |
JP2005086686A (en) * | 2003-09-10 | 2005-03-31 | Fujitsu Ten Ltd | Electronic equipment |
US20060088174A1 (en) * | 2004-10-26 | 2006-04-27 | Deleeuw William C | System and method for optimizing media center audio through microphones embedded in a remote control |
LV13342B (en) * | 2005-05-18 | 2005-10-20 | Real Sound Lab Sia | Method and device for correction of acoustic parameters of electro-acoustic transducers |
JP4407571B2 (en) * | 2005-06-06 | 2010-02-03 | 株式会社デンソー | In-vehicle system, vehicle interior sound field adjustment system, and portable terminal |
JP2007271802A (en) * | 2006-03-30 | 2007-10-18 | Kenwood Corp | Content reproduction system and computer program |
US7845233B2 (en) * | 2007-02-02 | 2010-12-07 | Seagrave Charles G | Sound sensor array with optical outputs |
JP2008228133A (en) * | 2007-03-15 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Acoustic system |
JP5313549B2 (en) * | 2008-05-27 | 2013-10-09 | アルパイン株式会社 | Acoustic information providing system and in-vehicle acoustic device |
US8300840B1 (en) * | 2009-02-10 | 2012-10-30 | Frye Electronics, Inc. | Multiple superimposed audio frequency test system and sound chamber with attenuated echo properties |
EP2396958B1 (en) * | 2009-02-11 | 2013-01-02 | Nxp B.V. | Controlling an adaptation of a behavior of an audio device to a current acoustic environmental condition |
JP2011164166A (en) * | 2010-02-05 | 2011-08-25 | D&M Holdings Inc | Audio signal amplifying apparatus |
EP2539889B1 (en) * | 2010-02-24 | 2016-08-24 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus for generating an enhanced downmix signal, method for generating an enhanced downmix signal and computer program |
US9307340B2 (en) | 2010-05-06 | 2016-04-05 | Dolby Laboratories Licensing Corporation | Audio system equalization for portable media playback devices |
ES2632576T3 (en) * | 2010-05-06 | 2017-09-14 | Dolby Laboratories Licensing Corporation | Audio system equalization for portable media playback devices. |
JP5533248B2 (en) * | 2010-05-20 | 2014-06-25 | ソニー株式会社 | Audio signal processing apparatus and audio signal processing method |
CN102004823B (en) * | 2010-11-11 | 2012-09-26 | 浙江中科电声研发中心 | Numerical value simulation method of vibration and acoustic characteristics of speaker |
DE102011076484A1 (en) * | 2011-05-25 | 2012-11-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | SOUND PLAYING DEVICE WITH HORIZONTAL SIMULATION |
JP2013247456A (en) * | 2012-05-24 | 2013-12-09 | Toshiba Corp | Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system |
CN104956689B (en) * | 2012-11-30 | 2017-07-04 | Dts(英属维尔京群岛)有限公司 | For the method and apparatus of personalized audio virtualization |
EP2747081A1 (en) * | 2012-12-18 | 2014-06-25 | Oticon A/s | An audio processing device comprising artifact reduction |
-
2015
- 2015-09-08 CN CN201580047998.3A patent/CN106688248B/en active Active
- 2015-09-08 JP JP2017513241A patent/JP6503457B2/en active Active
- 2015-09-08 WO PCT/US2015/048942 patent/WO2016040324A1/en active Application Filing
- 2015-09-08 EP EP23178432.3A patent/EP4243450B1/en active Active
- 2015-09-08 EP EP15778787.0A patent/EP3111678B1/en active Active
- 2015-09-08 CN CN202010187024.8A patent/CN111565352B/en active Active
-
2019
- 2019-03-25 JP JP2019056360A patent/JP6792015B2/en active Active
-
2020
- 2020-11-05 JP JP2020185230A patent/JP7110301B2/en active Active
-
2022
- 2022-07-20 JP JP2022115789A patent/JP2022163061A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325073A (en) | 2006-06-02 | 2007-12-13 | Konica Minolta Holdings Inc | Echo canceling circuit, acoustic apparatus, network camera, and echo canceling method |
JP2008035254A (en) | 2006-07-28 | 2008-02-14 | Sharp Corp | Sound output device and television receiver |
US20100162117A1 (en) | 2008-12-23 | 2010-06-24 | At&T Intellectual Property I, L.P. | System and method for playing media |
US20130216071A1 (en) | 2012-02-21 | 2013-08-22 | Intertrust Technologies Corporation | Audio reproduction systems and methods |
US20140003625A1 (en) | 2012-06-28 | 2014-01-02 | Sonos, Inc | System and Method for Device Playback Calibration |
Also Published As
Publication number | Publication date |
---|---|
EP3111678A1 (en) | 2017-01-04 |
JP2019134470A (en) | 2019-08-08 |
JP2017528083A (en) | 2017-09-21 |
EP3111678B1 (en) | 2023-11-01 |
CN111565352B (en) | 2021-08-06 |
CN106688248A (en) | 2017-05-17 |
EP4243450A2 (en) | 2023-09-13 |
EP4243450B1 (en) | 2024-08-07 |
CN111565352A (en) | 2020-08-21 |
WO2016040324A1 (en) | 2016-03-17 |
JP6792015B2 (en) | 2020-11-25 |
CN106688248B (en) | 2020-04-14 |
JP2022163061A (en) | 2022-10-25 |
JP2021044818A (en) | 2021-03-18 |
EP4243450A3 (en) | 2023-11-15 |
JP6503457B2 (en) | 2019-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7110301B2 (en) | Audio processing algorithms and databases | |
US11625219B2 (en) | Audio processing algorithms | |
US10701501B2 (en) | Playback device calibration | |
US10127008B2 (en) | Audio processing algorithm database | |
JP6524273B2 (en) | Calibration of playback device | |
US12141501B2 (en) | Audio processing algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220303 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220531 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20220531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7110301 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |