[go: up one dir, main page]

JPWO2016151720A1 - Audio correction device - Google Patents

Audio correction device Download PDF

Info

Publication number
JPWO2016151720A1
JPWO2016151720A1 JP2017507183A JP2017507183A JPWO2016151720A1 JP WO2016151720 A1 JPWO2016151720 A1 JP WO2016151720A1 JP 2017507183 A JP2017507183 A JP 2017507183A JP 2017507183 A JP2017507183 A JP 2017507183A JP WO2016151720 A1 JPWO2016151720 A1 JP WO2016151720A1
Authority
JP
Japan
Prior art keywords
correction
information
microphone
sound
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017507183A
Other languages
Japanese (ja)
Inventor
廣瀬 智博
智博 廣瀬
貴広 秋葉
貴広 秋葉
丈洋 青野
丈洋 青野
晃広 井関
晃広 井関
大 佐藤
大 佐藤
敬太 中野
敬太 中野
徹練 柴尾
徹練 柴尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2016151720A1 publication Critical patent/JPWO2016151720A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

音響機器が設置された環境に適した出力音声に補正することができる音声補正装置を提供する。スマートフォン(1)は車載機(2)とは別体に構成されており、受信部(11)でスマートフォン(1)のマイク(15)の特性情報をサーバ(2)から取得し、Gセンサ(18)でスマートフォン(1)の向きに関する情報を取得する。次に、演算部(13)がホワイトノイズ生成部(14)にホワイトノイズ音声を生成して車載機(2)に当該ホワイトノイズ音声を出力させ、マイク(15)を用いてホワイトノイズ音声を録音部(16)に録音させて測定結果とする。そして、演算部(13)でマイク(15)の特性情報と、スマートフォン(1)の向きに関する情報と、測定結果と、に基づいて補正情報を生成する。Provided is an audio correction device capable of correcting an output audio suitable for an environment in which an acoustic device is installed. The smartphone (1) is configured separately from the vehicle-mounted device (2). The receiver (11) acquires the characteristic information of the microphone (15) of the smartphone (1) from the server (2), and the G sensor ( 18) Information on the orientation of the smartphone (1) is acquired. Next, the calculation unit (13) generates white noise sound in the white noise generation unit (14), outputs the white noise sound to the in-vehicle device (2), and records the white noise sound using the microphone (15). Recorded in the part (16) as the measurement result. And a correction information is produced | generated based on the characteristic information of a microphone (15), the information regarding the direction of a smart phone (1), and a measurement result in a calculating part (13).

Description

本発明は、音響機器等の出力音声を補正する音声補正装置に関する。   The present invention relates to a sound correction apparatus that corrects output sound of an acoustic device or the like.

例えばカーオーディオなどの音響機器においては、当該音響機器の設置環境に合わせて音質の調整が可能となっているものが多い。   For example, in many audio devices such as car audio, the sound quality can be adjusted according to the installation environment of the audio device.

また、近年では、カーオーディオにおいて、携帯音楽プレーヤ等を接続して、当該携帯音楽プレーヤに記憶されている音楽を再生することも行われている。この際に、携帯音楽プレーヤ等に設定されている音質設定等をカーオーディオが取得して携帯音楽プレーヤで再生した音質に近い音質で再生することが提案されている(例えば特許文献1を参照)。   In recent years, in car audio, a portable music player or the like is connected to play music stored in the portable music player. At this time, it has been proposed that the car audio obtains the sound quality setting set in the portable music player or the like and is reproduced with a sound quality similar to that reproduced by the portable music player (see, for example, Patent Document 1). .

特許文献1には、車両用音響装置300が、外部音源装置100の音響設定情報を取得し、それを音響設定補正部302が、外部音源装置100に固有の出力特性に基づく変換を行ない、更に車両用音響装置300自体の出力特性を加味した補正を行なって音楽等の再生を行うことが記載されている。   In Patent Document 1, the vehicle acoustic device 300 acquires the sound setting information of the external sound source device 100, and the sound setting correction unit 302 performs conversion based on the output characteristics unique to the external sound source device 100, and further, It is described that music or the like is reproduced by performing correction in consideration of the output characteristics of the vehicle acoustic device 300 itself.

特許5114922号公報Japanese Patent No. 5114922

しかしながら、特許文献1に記載された発明では、適用される車両用音響機器300が店頭で市販されているカーオーディオ等の設置される車両や接続されるスピーカが予め特定されない機器の場合、接続された携帯音楽プレーヤ等の音響設定情報を加味することは可能であるが、接続されるスピーカの特性や車内の反響特性及びシートや内装材による減衰などの特性が分からない。従って、車両用音響装置300自体の出力特性が分かっていても、個々の車内環境に合わせた補正は不十分となってしまうことがある。   However, in the invention described in Patent Document 1, the vehicle audio device 300 to be applied is connected in the case where the vehicle installed such as a car audio marketed at a store or a device to which a speaker to be connected is not specified in advance. It is possible to take into account the sound setting information of a portable music player or the like, but the characteristics of the connected speaker, the echo characteristics in the vehicle, and the characteristics such as attenuation due to the seat and interior materials are not known. Therefore, even if the output characteristics of the vehicular acoustic device 300 itself are known, correction in accordance with the in-vehicle environment may be insufficient.

また、カーオーディオ等にマイクや演算装置等を搭載して、スピーカからの音をマイクで録音し、特性が最適になるようなパラメータを演算して、音声を再生する際に当該パラメータを反映させて再生することも可能である。但し、この場合、マイクと高度な演算装置が必要となりコストがかかる。   In addition, a microphone, arithmetic unit, etc. are installed in car audio, etc., the sound from the speaker is recorded with the microphone, the parameter that optimizes the characteristics is calculated, and the parameter is reflected when the sound is played back. Can also be played. In this case, however, a microphone and an advanced arithmetic device are required, which is expensive.

そこで、本発明は、上述した問題に鑑み、例えば、音響機器が設置された環境に適した出力音声に補正することができる音声補正装置を提供することを課題とする。   In view of the above-described problems, an object of the present invention is to provide an audio correction device that can correct an output audio suitable for an environment in which an acoustic device is installed.

上記課題を解決するために、請求項1に記載の発明は、マイクを備え、音響機器の出力音を補正する補正情報を生成する音声補正装置であって、前記音響機器に測定音を出力させ、前記マイクを介して前記測定音を測定する測定部と、前記測定部が測定した測定結果に基づいて前記補正情報を生成する補正情報生成部と、を備え、前記音響機器とは別体に構成されている、ことを特徴とする音声補正装置である。   In order to solve the above-described problem, the invention according to claim 1 is an audio correction device that includes a microphone and generates correction information for correcting an output sound of an audio device, and causes the audio device to output a measurement sound. A measurement unit that measures the measurement sound via the microphone, and a correction information generation unit that generates the correction information based on a measurement result measured by the measurement unit, which is separate from the acoustic device. It is comprised, The voice correction device characterized by the above-mentioned.

また、請求項9に記載の発明は、音響機器とは別体に構成されるとともにマイクを備え、該音響機器の出力音を補正する補正情報を生成する音声補正装置の音声補正方法であって、前記音響機器に測定音を出力させ、前記マイクを介して前記測定音を測定する測定工程と、前記特性情報取得工程で取得した前記マイクの特性及び前記測定工程で測定した測定結果に基づいて前記補正情報を生成する補正情報生成工程と、を含むことを特徴とする音声補正方法である。   The invention according to claim 9 is an audio correction method for an audio correction apparatus that is configured separately from an audio device, includes a microphone, and generates correction information for correcting an output sound of the audio device. Based on the measurement step of outputting the measurement sound to the acoustic device and measuring the measurement sound through the microphone, the characteristics of the microphone acquired in the characteristic information acquisition step, and the measurement result measured in the measurement step And a correction information generation step of generating the correction information.

また、請求項10に記載の発明は、請求項9に記載の音声補正方法を、コンピュータにより実行させることを特徴とする音声補正プログラムである。   According to a tenth aspect of the present invention, there is provided a voice correction program that causes a computer to execute the voice correction method according to the ninth aspect.

また、請求項11に記載の発明は、請求項10に記載の音声補正プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体である。   The invention described in claim 11 is a computer-readable recording medium in which the sound correction program according to claim 10 is stored.

本発明の一実施例にかかるスマートフォンと、車載機と、サーバとの接続構成を示した構成図である。It is the block diagram which showed the connection structure of the smart phone concerning one Example of this invention, vehicle equipment, and a server. 図1に示されたスマートフォンの機能構成図である。It is a functional block diagram of the smart phone shown by FIG. 図1に示された車載機の機能構成図である。It is a function block diagram of the vehicle equipment shown by FIG. 図1に示されたサーバの機能構成図である。It is a function block diagram of the server shown by FIG. 図1に示されたスマートフォンにおける音質補正動作のフローチャートである。It is a flowchart of the sound quality correction | amendment operation | movement in the smart phone shown by FIG. 図5に示されたマイク特性補正動作のフローチャートである。6 is a flowchart of a microphone characteristic correction operation shown in FIG. 図5に示された測定向き確定動作のフローチャートである。6 is a flowchart of a measurement direction determination operation shown in FIG. 5. 図5に示された測定動作のフローチャートである。6 is a flowchart of the measurement operation shown in FIG. 図5に示された補正情報生成動作のフローチャートである。6 is a flowchart of a correction information generation operation shown in FIG. 向き指定の画面表示例である。It is an example of a screen display of direction designation. 正しい向きとなった場合の画面表示例である。It is an example of a screen display when it becomes a correct orientation. 測定結果の例を示したグラフであるIt is a graph showing an example of measurement results 図12に対してマイク特性補正を行った結果の例を示したグラフである。13 is a graph showing an example of a result of performing microphone characteristic correction on FIG. 図13に対して補正を行った結果の例を示したグラフである。14 is a graph showing an example of a result obtained by performing correction on FIG.

以下、本発明の一実施形態にかかる表示装置を説明する。本発明の一実施形態にかかる音声補正装置は、音響機器とは別体に構成されており、測定部で音響機器に測定音を出力させ、マイクを介して測定音を測定する。そして、補正情報生成部で特性情報取得部が取得したマイクの特性及び測定部が測定した測定結果に基づいて補正情報を生成する。このようにすることにより、音響機器とは別体の機器のマイクを利用して、補正情報を生成することができ、カーオーディオ等の音響機器が設置された環境に適した出力音声に補正することができる。また、音響機器とは別体であるので、複数の環境における補正をすることが容易にできる。   Hereinafter, a display device according to an embodiment of the present invention will be described. The sound correction apparatus according to an embodiment of the present invention is configured separately from the acoustic device, and the measurement unit outputs the measurement sound to the acoustic device and measures the measurement sound through the microphone. Then, correction information is generated based on the characteristics of the microphone acquired by the characteristic information acquisition unit and the measurement result measured by the measurement unit in the correction information generation unit. In this way, correction information can be generated using a microphone that is separate from the audio device, and the output sound is corrected to be suitable for the environment in which the audio device such as the car audio is installed. be able to. Moreover, since it is a separate body from the audio equipment, correction in a plurality of environments can be easily performed.

また、マイクの特性が取得できればマイク自体が高性能でなくてもよいので、例えばスマートフォン等の予めマイクが設けられている機器を利用して容易にカーオーディオ等の音響機器の出力音を補正することができる。   Moreover, if the microphone characteristics can be acquired, the microphone itself may not have high performance. For example, the output sound of an audio device such as a car audio can be easily corrected using a device such as a smartphone provided with a microphone in advance. be able to.

また、マイクの特性情報を取得する特性情報取得部を更に備え、補正情報生成部は、特性情報取得部が取得したマイクの特性及び測定部が測定した測定結果に基づいて補正情報を生成してもよい。このようにすることにより、測定音を測定するマイクの特性を考慮して、補正情報を生成することができ、マイクの特性に依存しないでカーオーディオ等の音響機器が設置された環境に適した出力音声に補正することができる。   Further, a characteristic information acquisition unit that acquires the characteristic information of the microphone is further provided, and the correction information generation unit generates correction information based on the characteristics of the microphone acquired by the characteristic information acquisition unit and the measurement result measured by the measurement unit. Also good. In this way, correction information can be generated in consideration of the characteristics of the microphone that measures the measurement sound, and it is suitable for an environment where an audio device such as a car audio is installed without depending on the characteristics of the microphone. The output sound can be corrected.

また、マイクの向きに関する情報を取得する向き情報取得部を更に備え、測定部は、向き情報取得部が取得した向きに関する情報と、マイクの特性情報測定時のマイクの向きと、に基づいて、音響機器に測定音を出力させ、マイクを介して測定音を測定してもよい。このようにすることにより、マイクの向きを考慮することができるので、よりマイクの特性に依存しない補正を行うことができる。   Further, it further comprises a direction information acquisition unit that acquires information about the direction of the microphone, and the measurement unit is based on the information about the direction acquired by the direction information acquisition unit and the direction of the microphone when measuring the characteristic information of the microphone. The measurement sound may be output to an acoustic device and the measurement sound may be measured via a microphone. In this way, since the direction of the microphone can be taken into consideration, correction independent of the characteristics of the microphone can be performed.

また、補正情報生成部は、マイクの特性情報に基づいて測定部の測定結果を補正したマイク補正情報を生成し、該マイク補正情報に基づいて補正情報を生成してもよい。このようにすることにより、測定結果からマイクの特性に依存しないマイク特性情報を生成し、その情報に基づいてカーオーディオ等の音響機器が設置された環境に適した出力音声に補正することができる。   The correction information generation unit may generate microphone correction information obtained by correcting the measurement result of the measurement unit based on the microphone characteristic information, and generate correction information based on the microphone correction information. By doing so, it is possible to generate microphone characteristic information that does not depend on the characteristics of the microphone from the measurement result, and correct the output sound to be suitable for an environment in which an audio device such as a car audio is installed based on the information. .

また、測定部は、測定音を録音し、補正情報生成部は、測定部が録音した測定音に基づいて補正情報を生成してもよい。このようにすることにより、測定音を録音することができので、処理能力が低くリアルタイム処理が困難な場合でも補正情報を生成することができる。   The measurement unit may record the measurement sound, and the correction information generation unit may generate the correction information based on the measurement sound recorded by the measurement unit. In this way, since the measurement sound can be recorded, correction information can be generated even when the processing capability is low and real-time processing is difficult.

また、補正情報を音響機器に出力する出力部を更に備えていてもよい。このようにすることにより、生成された補正情報を音響機器が利用して自動的に補正することができる。   Moreover, you may further provide the output part which outputs correction | amendment information to an audio equipment. By doing so, the generated correction information can be automatically corrected by the audio equipment.

また、音響機器における補正範囲に関する情報を取得する補正範囲情報取得部を更に備え、補正情報生成部は、補正範囲情報取得部が取得した補正範囲に関する情報に基づいて補正情報を生成してもよい。このようにすることにより、音響機器が有するイコライザ等の補正手段のバンド数、中心周波数 、Q値、ゲイン等の音響機器の補正範囲に関する情報に基づいて補正情報を生成することができる。   Further, the image processing apparatus may further include a correction range information acquisition unit that acquires information regarding the correction range in the audio device, and the correction information generation unit may generate correction information based on the information regarding the correction range acquired by the correction range information acquisition unit. . In this way, correction information can be generated based on information related to the correction range of the acoustic device, such as the number of bands, center frequency, Q value, gain, etc. of the correction means such as an equalizer that the acoustic device has.

また、音響機器は移動体に設けられていてもよい。このようにすることにより、自動車等の車両に搭載されるカーオーディオ等の音響機器について、搭載された車両の音響特性に合わせた補正を行うことができる。   Moreover, the audio equipment may be provided in the moving body. By doing in this way, it can correct | amend according to the acoustic characteristic of the mounted vehicle about acoustic apparatuses, such as a car audio mounted in vehicles, such as a motor vehicle.

また、本発明の一実施形態にかかる音声補正方法は、音響機器とは別体に構成された音声補正装置において、測定工程が音響機器に測定音を出力させ、マイクを介して測定音を測定する。そして、補正情報生成工程が特性情報取得工程で取得したマイクの特性と、測定工程で測定した測定結果と、に基づいて補正情報を生成する。このようにすることにより、音響機器とは別体の機器のマイクを利用して、補正情報を生成することができ、カーオーディオ等の音響機器が設置された環境に適した出力音声に補正することができる。また、音響機器とは別体であるので、複数の環境における補正をすることが容易にできる。   In addition, the audio correction method according to an embodiment of the present invention is an audio correction apparatus configured separately from an audio device, in which the measurement process causes the audio device to output measurement sound and measures the measurement sound via a microphone. To do. Then, the correction information generation step generates correction information based on the characteristics of the microphone acquired in the characteristic information acquisition step and the measurement result measured in the measurement step. In this way, correction information can be generated using a microphone that is separate from the audio device, and the output sound is corrected to be suitable for the environment in which the audio device such as the car audio is installed. be able to. Moreover, since it is a separate body from the audio equipment, correction in a plurality of environments can be easily performed.

また、上述した音声補正方法をコンピュータにより実行させる音声補正プログラムとしてもよい。このようにすることにより、コンピュータを用いて、音響機器とは別体の機器のマイクを利用して、補正情報を生成することができ、カーオーディオ等の音響機器が設置された環境に適した出力音声に補正することができる。また、音響機器とは別体であるので、複数の環境における補正をすることが容易にできる。   Moreover, it is good also as an audio | voice correction program which performs the audio | voice correction method mentioned above by computer. By doing so, it is possible to generate correction information using a microphone that is a separate device from the acoustic device using a computer, and it is suitable for an environment where an acoustic device such as a car audio is installed. The output sound can be corrected. Moreover, since it is a separate body from the audio equipment, correction in a plurality of environments can be easily performed.

また、上述した音声補正プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。   Further, the above-described audio correction program may be stored in a computer-readable recording medium. In this way, the program can be distributed as a single unit in addition to being incorporated in the device, and version upgrades can be easily performed.

本発明の一実施例にかかる音声補正装置を図1乃至図15を参照して説明する。まず、図1に本実施例にかかる音声補正装置としてのスマートフォン1と、音響機器としての車載機2と、サーバ4との接続構成を示す。   An audio correction apparatus according to an embodiment of the present invention will be described with reference to FIGS. First, FIG. 1 shows a connection configuration of a smartphone 1 as an audio correction device according to the present embodiment, an in-vehicle device 2 as an acoustic device, and a server 4.

スマートフォン1は、車載機2と無線にて通信可能となっている。図1では、無線にて通信可能としているが、USB(Universal Serial Bus)等の有線にて通信可能としてもよい。即ち、スマートフォン1は車載機2とは別体に構成されている。車載機2は、車両の車室内に設置され、例えばカーオーディオやカーナビゲーションシステム等音声の再生が行われる装置である。そして、車載機2はスピーカ3L及び3Rが接続されている。なお、スピーカは2つに限らず3つ以上であってもよい。   The smartphone 1 can communicate with the in-vehicle device 2 wirelessly. In FIG. 1, wireless communication is possible, but communication may be possible via wired communication such as USB (Universal Serial Bus). That is, the smartphone 1 is configured separately from the in-vehicle device 2. The in-vehicle device 2 is a device that is installed in a vehicle interior of a vehicle and that reproduces sound, such as a car audio or a car navigation system. The in-vehicle device 2 is connected to speakers 3L and 3R. Note that the number of speakers is not limited to two and may be three or more.

また、スマートフォン1は、サーバ4と無線にて通信可能となっている。サーバ4は、例えばインターネットを介してスマートフォン1と通信可能となっている。   The smartphone 1 can communicate with the server 4 wirelessly. The server 4 can communicate with the smartphone 1 via, for example, the Internet.

スマートフォン1は、図2に示すように、受信部11と、送信部12と、演算部13と、ホワイトノイズ生成部14と、マイク15と、録音部16と、表示部17と、Gセンサ18と、操作部19と、を備えている。   As illustrated in FIG. 2, the smartphone 1 includes a reception unit 11, a transmission unit 12, a calculation unit 13, a white noise generation unit 14, a microphone 15, a recording unit 16, a display unit 17, and a G sensor 18. And an operation unit 19.

受信部11は、車載機2から後述する音響特性補正可能範囲情報(音響機器における補正範囲に関する情報)等を受信する。受信した音響特性補正可能範囲情報は演算部13に出力する。また、受信部11は、サーバ4からスマートフォン1のマイク特性情報等を受信する。即ち、受信部11は、音響機器における補正範囲に関する情報を取得する補正範囲情報取得部、マイク15の特性情報を取得する特性情報取得部として機能する。   The receiving unit 11 receives from the vehicle-mounted device 2 acoustic characteristic correction possible range information (information relating to the correction range in the acoustic device) and the like which will be described later. The received acoustic characteristic correction possible range information is output to the calculation unit 13. The receiving unit 11 receives microphone characteristic information of the smartphone 1 from the server 4. In other words, the reception unit 11 functions as a correction range information acquisition unit that acquires information about the correction range in the acoustic device and a characteristic information acquisition unit that acquires characteristic information of the microphone 15.

送信部12は、車載機2に対して、演算部13から入力される後述する音響特性補正量情報及びホワイトノイズ生成部14から入力されるホワイトノイズ音声情報等を送信する。また、送信部12は、サーバ4に対してスマートフォン1の機種情報等を送信する。   The transmission unit 12 transmits acoustic characteristic correction amount information (described later) input from the calculation unit 13 and white noise sound information input from the white noise generation unit 14 to the in-vehicle device 2. The transmission unit 12 transmits model information of the smartphone 1 to the server 4.

即ち、受信部11及び送信部12は、車載機2との通信機能(Bluetooth(登録商標)やUSB等)と、サーバ4との通信機能(LTE(Long Term Evolution)や無線LAN(Local Area Network)等)と、を備えている。   That is, the reception unit 11 and the transmission unit 12 are configured to communicate with the in-vehicle device 2 (Bluetooth (registered trademark), USB, etc.) and communicate with the server 4 (LTE (Long Term Evolution) or wireless LAN (Local Area Network). ) Etc.).

演算部13は、Gセンサ18の出力に基づいてスマートフォン1の向きを推定する。また、演算部13は、ホワイトノイズ生成部14にホワイトノイズ音声を生成させ、録音部16に車載機2が再生したホワイトノイズ音声をマイク15を介して録音させる。また、演算部13は、録音部16に録音されたホワイトノイズ音声をサーバ4から受信したマイク特性情報に基づいてマイク15の特性にかかる補正を行う。そして、演算部13は、マイク15の特性にかかる補正の結果に基づいて、車載機2の音響特性補正量情報を生成する。   The calculation unit 13 estimates the orientation of the smartphone 1 based on the output of the G sensor 18. Further, the calculation unit 13 causes the white noise generation unit 14 to generate white noise sound, and causes the recording unit 16 to record the white noise sound reproduced by the in-vehicle device 2 via the microphone 15. In addition, the arithmetic unit 13 corrects the characteristics of the microphone 15 based on the microphone characteristic information received from the server 4 for the white noise sound recorded in the recording unit 16. And the calculating part 13 produces | generates the acoustic characteristic correction amount information of the vehicle equipment 2 based on the result of the correction concerning the characteristic of the microphone 15.

ホワイトノイズ生成部14は、測定音としてのホワイトノイズ音声を生成する。なお、本実施例では測定音としてホワイトノイズ音声で説明するが、インパルス応答用のインパルス等の車載機2と、スピーカ3L及び3Rと、車室内と、の周波数特性を測定するのに適した音声であればよい。   The white noise generation unit 14 generates white noise sound as a measurement sound. In this embodiment, white noise sound is used as the measurement sound. However, the sound is suitable for measuring the frequency characteristics of the vehicle-mounted device 2 such as an impulse response impulse, the speakers 3L and 3R, and the vehicle interior. If it is.

マイク15は、車載機2で再生したホワイトノイズ音声を集音する。なお、マイク15は、専用のものではなく、通話等に利用されるものでよい。   The microphone 15 collects white noise sound reproduced by the in-vehicle device 2. Note that the microphone 15 is not a dedicated one but may be used for a telephone call or the like.

録音部16は、マイク15が集音したホワイトノイズ音声を録音する。録音部は、図示しないメモリ等の記憶媒体にホワイトノイズ音声を録音する。   The recording unit 16 records white noise sound collected by the microphone 15. The recording unit records white noise sound in a storage medium such as a memory (not shown).

表示部17は、例えば液晶ディスプレイ等で構成され、演算部13で演算されたマイク15の特性にかかる補正の結果や、その後生成される音響特性補正量情報等を表示する。勿論表示部17は、スマートフォン1の他の機能(通話、メール等)の表示を行ってもよい。   The display unit 17 is composed of, for example, a liquid crystal display, and displays a result of correction related to the characteristics of the microphone 15 calculated by the calculation unit 13, acoustic characteristic correction amount information generated thereafter, and the like. Of course, the display unit 17 may display other functions (call, mail, etc.) of the smartphone 1.

Gセンサ18は、所謂加速度センサであり、例えば3軸加速度センサであれば、XYZ軸の3方向の加速度を測定できる。Gセンサ18は、測定された加速度を演算部13に出力する。即ち、重力が地面方向にかかっているため、Gセンサ18が出力する加速度が、マイク15の向きに関する情報となり、Gセンサ18は、向き情報取得部として機能する。   The G sensor 18 is a so-called acceleration sensor. For example, if it is a three-axis acceleration sensor, it can measure accelerations in three directions of the XYZ axes. The G sensor 18 outputs the measured acceleration to the calculation unit 13. That is, since gravity is applied to the ground direction, the acceleration output from the G sensor 18 becomes information regarding the direction of the microphone 15, and the G sensor 18 functions as a direction information acquisition unit.

操作部19は、押しボタンやタッチパネル等で構成され、ユーザ等が入力した操作に関する情報が演算部13に出力される。   The operation unit 19 includes a push button, a touch panel, and the like, and information related to an operation input by a user or the like is output to the calculation unit 13.

車載機2は、図3に示すように、送信部21と、受信部22と、補正部23と、光ディスクドライブ24と、再生部25と、アンプ26と、を備えている。   As shown in FIG. 3, the in-vehicle device 2 includes a transmission unit 21, a reception unit 22, a correction unit 23, an optical disk drive 24, a reproduction unit 25, and an amplifier 26.

送信部21は、スマートフォン1に対して、補正部23から入力される音響特性補正可能範囲情報等を送信する。   The transmission unit 21 transmits the acoustic characteristic correction possible range information and the like input from the correction unit 23 to the smartphone 1.

受信部22は、スマートフォン1から音響特性補正量情報及びホワイトノイズ音声情報等を受信する。受信した音響特性補正量情報は補正部23に出力され、ホワイトノイズ音声情報は再生部25に出力される。   The receiving unit 22 receives acoustic characteristic correction amount information, white noise audio information, and the like from the smartphone 1. The received acoustic characteristic correction amount information is output to the correction unit 23, and the white noise audio information is output to the reproduction unit 25.

補正部23は、受信部22から入力された音響特性補正量情報に基づいて、複数の周波数帯域毎にゲイン等を設定して再生部25が再生する音声信号を補正する。   Based on the acoustic characteristic correction amount information input from the receiving unit 22, the correcting unit 23 sets a gain or the like for each of a plurality of frequency bands and corrects the audio signal reproduced by the reproducing unit 25.

光ディスクドライブ24は、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク等の音楽等の音声情報が記録された光ディスクから音声情報等を読み出す装置である。なお、本実施例では、音楽等の音声情報が記録された記録媒体として光ディスクとしているが、それに限らず、ハードディスクや半導体メモリ等であってもよい。また、ラジオ放送やテレビ放送の音声であってもよい。或いは、スマートフォン1に格納されている音楽等、外部から通信等により入力される音声情報であってもよい。   The optical disc drive 24 is a device that reads audio information and the like from an optical disc on which audio information such as music such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a Blu-ray disc is recorded. In this embodiment, an optical disk is used as a recording medium on which audio information such as music is recorded. However, the present invention is not limited to this, and a hard disk, a semiconductor memory, or the like may be used. Moreover, the sound of radio broadcasting or television broadcasting may be used. Or the audio | voice information input by communication etc. from the outside, such as the music stored in the smart phone 1, may be sufficient.

再生部25は、光ディスクドライブ24が読み出した音声情報を再生してアンプ26に出力する。   The reproduction unit 25 reproduces the audio information read by the optical disc drive 24 and outputs it to the amplifier 26.

アンプ26は、再生部25で再生された音声信号を所定量増幅してスピーカ3L及び3Rに出力する。   The amplifier 26 amplifies the audio signal reproduced by the reproducing unit 25 by a predetermined amount and outputs it to the speakers 3L and 3R.

サーバ4は、図4に示すように、送信部41と、受信部42と、演算部43と、マイク特性格納部44と、を備えている。   As illustrated in FIG. 4, the server 4 includes a transmission unit 41, a reception unit 42, a calculation unit 43, and a microphone characteristic storage unit 44.

送信部41は、スマートフォン1に対して、演算部43から入力されたマイク特性情報等を送信する。   The transmission unit 41 transmits the microphone characteristic information and the like input from the calculation unit 43 to the smartphone 1.

受信部42は、スマートフォン1から機種情報等を受信する。受信部42は、受信した機種情報等を演算部43に出力する。   The receiving unit 42 receives model information and the like from the smartphone 1. The receiving unit 42 outputs the received model information and the like to the calculation unit 43.

演算部43は、受信部42が受信した機種情報に基づいて、マイク特性格納部44から当該機種に該当するマイク特性を読み出して送信部41を介してスマートフォン1に送信する。   Based on the model information received by the reception unit 42, the calculation unit 43 reads out the microphone characteristic corresponding to the model from the microphone characteristic storage unit 44 and transmits it to the smartphone 1 via the transmission unit 41.

マイク特性格納部44は、複数のスマートフォン1の機種ごとのマイク特性が格納されている記録媒体である。マイク特性は、当該機種におけるマイクの向き(スマートフォン1自体の向き)に応じた周波数特性である。スマートフォン1は機種によってマイク位置や性能の違いから録音特性が異なる。そこで、予め特性の判明しているスピーカとスマートフォン1を無響室など理想的な録音ができる環境で測定し、当該スマートフォン1のマイク15の周波数特性を得たものである。このマイク特性は、複数のスマートフォン1の向き(即ち、マイクの向き)毎に特性を測定してマイク特性格納部44に格納してもよいし、特定の1方向のみであってもよい。   The microphone characteristic storage unit 44 is a recording medium in which microphone characteristics for each model of the plurality of smartphones 1 are stored. The microphone characteristic is a frequency characteristic corresponding to the direction of the microphone (direction of the smartphone 1 itself) in the model. The smartphone 1 has different recording characteristics due to differences in microphone position and performance depending on the model. Therefore, the frequency characteristics of the microphone 15 of the smartphone 1 are obtained by measuring the speaker and the smartphone 1 whose characteristics are known in advance in an environment where ideal recording is possible such as an anechoic room. This microphone characteristic may be measured for each direction of the plurality of smartphones 1 (that is, the direction of the microphone) and stored in the microphone characteristic storage unit 44, or only in one specific direction.

なお、マイク特性格納部44に格納されている機種としてはスマートフォン1に限らず、携帯電話などマイクを備えて音声補正装置として機能できる機器を含めてもよい。   Note that the model stored in the microphone characteristic storage unit 44 is not limited to the smartphone 1, and a device such as a mobile phone that includes a microphone and can function as an audio correction device may be included.

次に、上述した構成のスマートフォン1における音質補正動作を図5乃至図9のフローチャートを参照して説明する。これらのフローチャートは特に記載した場合を除きスマートフォン1の演算部13で実行される。   Next, the sound quality correction operation in the smartphone 1 having the above-described configuration will be described with reference to the flowcharts of FIGS. These flowcharts are executed by the calculation unit 13 of the smartphone 1 unless otherwise specified.

まず、ステップS11において、アプリを起動してステップS12に進む。ここで、アプリとは、本実施例にかかる音質補正方法を実行させる音声補正プログラムである。このアプリはスマートフォン1に予め或いはダウンロード等によりインストールされる。   First, in step S11, the application is activated and the process proceeds to step S12. Here, the application is a sound correction program for executing the sound quality correction method according to the present embodiment. This application is installed in the smartphone 1 in advance or by downloading.

次に、特性情報取得工程としてのステップS12において、スマートフォン1のマイク特性をサーバ4から取得してステップS13に進む。本ステップでは、図6に示したように、まず、スマートフォン1が、予め設定されている機種情報を送信部12を介してサーバ4に送信する(ステップS21)。サーバ4では、受信部42が受信した機種情報に基づいて演算部43がマイク特性格納部44に格納されている当該機種のマイク特性を選択して、マイク特性情報として送信部41を介してスマートフォン1に送信する。スマートフォン1は、そのマイク特性情報を受信部11で受信することにより取得する(ステップS22)。なお、このステップS12は、一度実行すれば、例えば他の車両において補正動作を行う際など次回以降は実行しなくてもよい。   Next, in step S12 as the characteristic information acquisition step, the microphone characteristic of the smartphone 1 is acquired from the server 4, and the process proceeds to step S13. In this step, as shown in FIG. 6, first, the smartphone 1 transmits preset model information to the server 4 via the transmission unit 12 (step S21). In the server 4, the calculation unit 43 selects the microphone characteristic of the model stored in the microphone characteristic storage unit 44 based on the model information received by the reception unit 42, and the smartphone via the transmission unit 41 as microphone characteristic information. 1 to send. The smartphone 1 acquires the microphone characteristic information by receiving the microphone characteristic information with the receiving unit 11 (step S22). Note that once this step S12 is executed, it may not be executed after the next time, for example, when a correction operation is performed in another vehicle.

次に、ステップS13において、後述する測定動作のためにスマートフォン1の向きを確定させる。スマートフォン1の向きは、図7に示したフローチャートにより確定させる。   Next, in step S13, the orientation of the smartphone 1 is determined for a measurement operation described later. The orientation of the smartphone 1 is determined by the flowchart shown in FIG.

図7のフローチャートのステップS31において、スマートフォン1のユーザ等に、スマートフォン1の向きを指定してステップS32に進む。向きの指定は、例えば図10に示したような画面を車載機2の図示しない表示部やスマートフォン1の表示部17に表示させる。図10の例で下側とは、スマートフォン1の画面表示を基準として定めている。この向きの指定は、マイク特性情報を測定する際のスマートフォン1の向きと同じ向きを指定する。本実施例においては、スマートフォン1の向きを指定しているが、これは実質的にマイク15の向きを指定することと同等である。尚、例えば、実際に聴取するユーザの耳元(運転席、助手席を含む車両のシートのヘッドレストの位置に合わせること等)を示した画面を車載機2の図示しない表示部やスマートフォン1の表示部17に表示してもよい。   In step S31 of the flowchart of FIG. 7, the direction of the smartphone 1 is designated to the user of the smartphone 1 or the like, and the process proceeds to step S32. For example, the orientation is displayed on a display unit (not shown) of the in-vehicle device 2 or the display unit 17 of the smartphone 1 as shown in FIG. In the example of FIG. 10, the lower side is determined based on the screen display of the smartphone 1. The designation of this orientation designates the same orientation as the orientation of the smartphone 1 when measuring the microphone characteristic information. In the present embodiment, the direction of the smartphone 1 is specified, but this is substantially equivalent to specifying the direction of the microphone 15. In addition, for example, a screen showing the ears of the user who actually listens (such as matching the position of the headrest of the vehicle seat including the driver's seat and the passenger seat) is displayed on the in-vehicle device 2 and the display portion of the smartphone 1. 17 may be displayed.

次に、ステップS32において、スマートフォン1の向きを推定してステップS33に進む。向きはスマートフォン1に搭載されているGセンサ18の出力(向き情報)に基づいて周知の方法により推定する。   Next, in step S32, the orientation of the smartphone 1 is estimated, and the process proceeds to step S33. The direction is estimated by a well-known method based on the output (direction information) of the G sensor 18 mounted on the smartphone 1.

次に、ステップS33において、スマートフォン1の実際の向きと指定した向きが一致したか否かを判断し、一致した場合(YESの場合)はステップS34に進み、一致しない場合(NOの場合)は一致するまで本ステップを繰り返す。   Next, in step S33, it is determined whether or not the actual orientation of the smartphone 1 matches the designated orientation. If they match (YES), the process proceeds to step S34, and if they do not match (NO). Repeat this step until they match.

次に、ステップS34において、例えば図11に示したような画面により正しい向きであることを表示して図5のフローチャートに戻る。   Next, in step S34, for example, the correct orientation is displayed on the screen as shown in FIG. 11, and the flow returns to the flowchart of FIG.

図5のフローチャートに戻って、測定工程としてのステップS14において測定を行う。測定とは、車載機2が設置されている車室における当該車載機2による再生時の周波数特性を測定することである。測定動作は図8に示したフローチャートにより行われる。即ち、測定工程は、マイクの向き(スマートフォン1の向き)と、マイクの特性情報測定時のマイクの向き(指定した方向)と、に基づいて行われる。   Returning to the flowchart of FIG. 5, measurement is performed in step S14 as a measurement process. The measurement is to measure a frequency characteristic at the time of reproduction by the in-vehicle device 2 in a cabin where the in-vehicle device 2 is installed. The measurement operation is performed according to the flowchart shown in FIG. That is, the measurement process is performed based on the direction of the microphone (the direction of the smartphone 1) and the direction of the microphone at the time of measuring the characteristic information of the microphone (specified direction).

図8のフローチャートのステップS41において、スマートフォン1の表示部17に測定開始ボタン等を表示して、そのボタンをユーザ等が操作することにより測定を開始してステップS42に進む。そしてユーザ等のボタン操作により、マイク15が集音する音声の録音を開始する。測定開始ボタンはスマートフォン1ではなく車載機2側に表示して、車載機2から測定開始を示す情報を受信するようにしてもよい。   In step S41 of the flowchart of FIG. 8, a measurement start button or the like is displayed on the display unit 17 of the smartphone 1, and measurement is started by the user or the like operating the button, and the process proceeds to step S42. Then, the recording of the sound collected by the microphone 15 is started by the button operation of the user or the like. The measurement start button may be displayed not on the smartphone 1 but on the in-vehicle device 2 side, and information indicating the measurement start may be received from the in-vehicle device 2.

次に、ステップS42において、ホワイトノイズ生成部14にホワイトノイズ音声を生成させホワイトノイズ音声情報として送信部12を介して送信させる。車載機2では、受信部22で受信したホワイトノイズ音声情報を直接再生部25で再生し、スピーカ3L及び3Rからホワイトノイズ音声を放射させる。このとき、車載機2側では補正部23による音質の補正動作を行わないようにする。スピーカ3L及び3Rから放射されたホワイトノイズ音声は、スマートフォン1のマイク15から集音されて録音部16に録音される。   Next, in step S42, the white noise generating unit 14 generates white noise sound and transmits the white noise sound information through the transmitting unit 12 as white noise sound information. In the in-vehicle device 2, the white noise sound information received by the receiving unit 22 is directly reproduced by the reproduction unit 25, and white noise sound is emitted from the speakers 3 </ b> L and 3 </ b> R. At this time, the sound quality correction operation by the correction unit 23 is not performed on the in-vehicle device 2 side. White noise sound radiated from the speakers 3L and 3R is collected from the microphone 15 of the smartphone 1 and recorded in the recording unit 16.

次に、ステップS43において、所定時間ホワイトノイズ音声を車載機2に再生させた後に測定(録音)を終了させ、図5のフローチャートに戻る。つまり、ホワイトノイズ生成部14にホワイトノイズ音声の生成を停止させ、録音部16による録音を停止させる。そして、録音部16で録音されたホワイトノイズ音声が測定結果となる。図8のフローチャートの説明から明らかなように、演算部13は、Gセンサ18(向き情報取得部)が取得した向きに関する情報と、マイク15の特性情報測定時のマイクの向きが一致した場合に、車載機2(音響機器)に測定音を出力させ、マイク15を用いて測定音を測定する。   Next, in step S43, after the white noise sound is reproduced by the in-vehicle device 2 for a predetermined time, the measurement (recording) is terminated, and the process returns to the flowchart of FIG. That is, the white noise generation unit 14 stops the generation of white noise sound, and the recording by the recording unit 16 is stopped. The white noise sound recorded by the recording unit 16 becomes the measurement result. As is apparent from the description of the flowchart of FIG. 8, the calculation unit 13 determines that the direction information acquired by the G sensor 18 (orientation information acquisition unit) matches the direction of the microphone at the time of measuring the characteristic information of the microphone 15. The measurement sound is output to the in-vehicle device 2 (acoustic device), and the measurement sound is measured using the microphone 15.

なお、本実施例では、スマートフォン1がホワイトノイズ生成部14を備えて、車載機2に対してホワイトノイズ音声を出力しているが、車載機2がホワイトノイズ音声等の測定音を生成する機能を備え、スマートフォン1は測定音の出力指示を送信するような構成であってもよい。   In the present embodiment, the smartphone 1 includes the white noise generation unit 14 and outputs white noise sound to the in-vehicle device 2, but the in-vehicle device 2 generates measurement sound such as white noise sound. The smartphone 1 may be configured to transmit a measurement sound output instruction.

図5のフローチャートに戻って、ステップS15において、ステップS14で測定した測定結果に対してステップS12で取得したマイク特性情報に基づいて補正を行いステップS16に進む。本ステップで補正された測定結果がマイク補正情報となる。本ステップでは、ステップS14で行った測定に対して、マイク15の特性による影響を排除するために実行するものである。例えば、ステップS14で測定した測定結果を高速フーリエ変換して周波数特性を算出し、その周波数特性に対してマイク15の特性がフラットになるような補正を行う。   Returning to the flowchart of FIG. 5, in step S15, the measurement result measured in step S14 is corrected based on the microphone characteristic information acquired in step S12, and the process proceeds to step S16. The measurement result corrected in this step becomes microphone correction information. In this step, the measurement performed in step S14 is executed in order to eliminate the influence of the characteristics of the microphone 15. For example, the measurement result measured in step S14 is subjected to fast Fourier transform to calculate a frequency characteristic, and correction is performed so that the characteristic of the microphone 15 becomes flat with respect to the frequency characteristic.

次に、補正情報生成工程としてのステップS16において、車載機2に対する音響特性補正量情報を生成してステップS17に進む。音響特性補正量情報生成動作は図9に示したフローチャートにより行われる。   Next, in step S16 as a correction information generation step, acoustic characteristic correction amount information for the in-vehicle device 2 is generated, and the process proceeds to step S17. The acoustic characteristic correction amount information generation operation is performed according to the flowchart shown in FIG.

図9のフローチャートのステップS51において、車載機2の補正部23から送信部21と受信部11を介して音響特性補正可能範囲情報(補正範囲に関する情報)を取得してステップS52に進む。音響特性補正可能情報とは、車載機2が有する補正部23の補正量に関する情報を示す。具体的には、イコライザ等の音質調整機能に関する情報であり、例えばバンド数、中心周波数 、Q値、ゲインの上限下限等の情報である。   In step S51 of the flowchart of FIG. 9, acoustic characteristic correction possible range information (information regarding the correction range) is acquired from the correction unit 23 of the in-vehicle device 2 via the transmission unit 21 and the reception unit 11, and the process proceeds to step S52. The acoustic characteristic correction possible information indicates information regarding the correction amount of the correction unit 23 included in the in-vehicle device 2. Specifically, it is information related to a sound quality adjustment function such as an equalizer, such as information on the number of bands, center frequency, Q value, upper and lower limits of gain, and the like.

次に、ステップS52において、ステップS51で取得した音響特性補正可能範囲情報と、ステップS15でマイク特性の補正がなされた後の測定結果(マイク補正情報)と、に基づいて車載機2に対する音響特性補正量情報を生成して図5のフローチャートに戻る。即ち、演算部13が、車載機2の出力音を補正する補正情報を、マイク15の特性及び測定結果に基づいて生成する補正情報生成部として機能する。   Next, in step S52, based on the acoustic characteristic correction possible range information acquired in step S51 and the measurement result (microphone correction information) after the microphone characteristic is corrected in step S15, the acoustic characteristic for the in-vehicle device 2 is obtained. The correction amount information is generated and the process returns to the flowchart of FIG. That is, the calculation unit 13 functions as a correction information generation unit that generates correction information for correcting the output sound of the in-vehicle device 2 based on the characteristics of the microphone 15 and the measurement results.

図5のフローチャートに戻って、ステップS17において、音響特性補正量情報を出力して終了する。本ステップでは、送信部12を介して音響特性補正量情報を車載機2に送信する。即ち、送信部12は、補正情報を車載機2(音響機器)に出力する出力部として機能する。車載機2では、受信部22が受信した音響特性補正量情報に基づいて補正部23が補正動作を行う。また、音響特性補正量情報を、スマートフォン1の表示部17に表示し、ユーザ等がマニュアルで車載機2の調整等を行ってもよい。   Returning to the flowchart of FIG. 5, in step S17, the acoustic characteristic correction amount information is output and the process ends. In this step, the acoustic characteristic correction amount information is transmitted to the in-vehicle device 2 via the transmission unit 12. That is, the transmission unit 12 functions as an output unit that outputs correction information to the in-vehicle device 2 (acoustic device). In the in-vehicle device 2, the correction unit 23 performs a correction operation based on the acoustic characteristic correction amount information received by the reception unit 22. Moreover, acoustic characteristic correction amount information may be displayed on the display part 17 of the smart phone 1, and a user etc. may adjust the vehicle equipment 2 manually.

ここで、上述した測定動作と、マイク特性補正動作と、補正情報生成動作と、においての具体例を示して説明する。   Here, a specific example of the measurement operation, the microphone characteristic correction operation, and the correction information generation operation described above will be described.

図12は、ステップS14で測定(録音)されたままの状態の周波数特性の例である。図12では、200Hz以下が音声を拾いにくいマイク特性となっている。即ち、実際に鳴っている音よりも低音が小さく録音されてしまっている。従って、このままでは正しい補正ができない。   FIG. 12 shows an example of the frequency characteristic as it is measured (recorded) in step S14. In FIG. 12, the microphone characteristic of 200 Hz or less is difficult to pick up sound. In other words, the bass has been recorded smaller than the actual sound. Therefore, correct correction cannot be performed as it is.

図13は、ステップS15でマイク特性の補正を行った結果の例である。この状態が実際の車室内の音の状況となる。但し、図13では、6kHz付近が大きく鳴ってしまう特性の車載機2(スピーカ3L及び3R)や車内環境であることが分かる。   FIG. 13 is an example of the result of correcting the microphone characteristics in step S15. This state is the actual sound condition in the passenger compartment. However, in FIG. 13, it can be seen that the vehicle-mounted device 2 (speakers 3L and 3R) and the in-vehicle environment have a characteristic in which the vicinity sounds 6 kHz.

そこで、ステップS16で車載機2の音響特性補正可能範囲情報に基づいてフラットな周波数特性に近づけるように音響特性補正量情報を生成し、車載機2に送信し、車載機2の補正部23が受信した音響特性補正量情報に基づいて図14に示すように補正する。図14の場合、6kHzを中心に−10dB、10kHzを中心に−5dB、2kHzを中心に+2dBする補正を行った。このようにすることにより、特性をフラットに近づけて聴感を良くすることができる。   Therefore, in step S16, the acoustic characteristic correction amount information is generated so as to approach the flat frequency characteristic based on the acoustic characteristic correction possible range information of the in-vehicle device 2 and is transmitted to the in-vehicle device 2, and the correction unit 23 of the in-vehicle device 2 Based on the received acoustic characteristic correction amount information, correction is performed as shown in FIG. In the case of FIG. 14, correction was performed so that −10 dB centered on 6 kHz, −5 dB centered on 10 kHz, and +2 dB centered on 2 kHz. By doing so, it is possible to improve the audibility by making the characteristics close to flat.

本実施例によれば、スマートフォン1は車載機2とは別体に構成されており、受信部11でスマートフォン1のマイク15の特性情報をサーバ4から取得し、Gセンサ18でスマートフォン1の向きに関する情報を取得する。次に、演算部13がホワイトノイズ生成部14にホワイトノイズ音声を生成して車載機2に当該ホワイトノイズ音声を出力させ、マイク15を用いてホワイトノイズ音声を録音部16に録音させて測定結果とする。そして、演算部13でマイク15の特性情報と、測定結果と、に基づいて補正情報を生成する。このようにすることにより、スマートフォン1のマイクの特性を考慮して、補正情報を生成することができ、マイク15の特性に依存しないでカーオーディオ等の車載機2が設置された環境に適した出力音声に補正することができる。また、車載機2とは別体であるので、他の車両、他の音響機器等の複数の環境における補正をすることが容易にできる。   According to the present embodiment, the smartphone 1 is configured separately from the in-vehicle device 2, the characteristic information of the microphone 15 of the smartphone 1 is acquired from the server 4 by the receiving unit 11, and the direction of the smartphone 1 is detected by the G sensor 18. Get information about. Next, the calculation unit 13 causes the white noise generation unit 14 to generate white noise sound, causes the vehicle-mounted device 2 to output the white noise sound, and uses the microphone 15 to record the white noise sound to the recording unit 16 and the measurement result. And Then, the calculation unit 13 generates correction information based on the characteristic information of the microphone 15 and the measurement result. In this way, correction information can be generated in consideration of the characteristics of the microphone of the smartphone 1 and is suitable for an environment in which the vehicle-mounted device 2 such as a car audio is installed without depending on the characteristics of the microphone 15. The output sound can be corrected. Moreover, since it is a separate body from the vehicle-mounted device 2, it can be easily corrected in a plurality of environments such as other vehicles and other acoustic devices.

また、録音部16にホワイトノイズ音声を録音させた後にマイク特性補正や補正情報の生成を行っているので、処理能力の低くリアルタイム処理が困難な場合でも補正情報を生成することができる。   Further, since the microphone characteristic correction and the generation of correction information are performed after the recording unit 16 has recorded the white noise sound, the correction information can be generated even when the processing capability is low and real-time processing is difficult.

また、マイク15の特性や向きが取得できればマイク自体が高性能でなくてもよいので、スマートフォン1等の予めマイク15が設けられている機器を利用して容易にカーオーディオ等の音響機器の出力音を補正することができる。   Further, if the characteristics and orientation of the microphone 15 can be acquired, the microphone itself may not have high performance. Therefore, the output of an audio device such as a car audio can be easily performed using a device in which the microphone 15 is provided in advance, such as the smartphone 1. Sound can be corrected.

また、演算部43は、Gセンサ18が取得したスマートフォン1の向きに関する情報と、マイク15の特性情報測定時のマイク15の向きが一致した場合に、車載機2にホワイトノイズ音声を出力させ、マイク15から録音している。このようにすることにより、マイク15の向きを考慮することができるので、よりマイク15の特性に依存しない補正を行うことができる。   In addition, when the information regarding the orientation of the smartphone 1 acquired by the G sensor 18 matches the orientation of the microphone 15 at the time of measuring the characteristic information of the microphone 15, the calculation unit 43 causes the in-vehicle device 2 to output white noise sound. Recording from the microphone 15. By doing in this way, since the direction of the microphone 15 can be taken into consideration, correction independent of the characteristics of the microphone 15 can be performed.

また、演算部13は、マイク15の特性情報及びスマートフォン1の向きに関する情報に基づいて測定結果を補正したマイク補正情報を生成し、該マイク補正情報に基づいて補正情報を生成している。このようにすることにより、測定結果からマイク15の特性に依存しないマイク特性情報を生成し、その情報に基づいて車載機2が設置された環境に適した出力音声に補正することができる。   Moreover, the calculating part 13 produces | generates the microphone correction information which correct | amended the measurement result based on the characteristic information of the microphone 15, and the information regarding the direction of the smart phone 1, and has produced | generated correction information based on this microphone correction information. By doing in this way, the microphone characteristic information which does not depend on the characteristic of the microphone 15 can be produced | generated from a measurement result, and it can correct | amend to the output audio | voice suitable for the environment where the vehicle equipment 2 was installed based on the information.

また、補正情報を車載機2に送信する送信部12を備えていている。このようにすることにより、生成された補正情報を車載機2が利用することで、以降は車載機2のみの構成で補正することができる。   Moreover, the transmission part 12 which transmits correction information to the vehicle equipment 2 is provided. By doing in this way, the correction | amendment information produced | generated can be corrected by the structure of only the vehicle equipment 2 after that the vehicle equipment 2 utilizes.

また、受信部11が車載機2の音響特性補正可能範囲情報を取得し、演算部13は、受信部11が取得した音響特性補正可能範囲情報に基づいて補正情報を生成している。このようにすることにより、イコライザのバンド数、中心周波数 、Q値、ゲイン等の車載機2の音響特性補正可能範囲情報に基づいて補正情報を生成することができる。従って、スマートフォン1のみで複数の種類の車載機に最適な補正情報を生成することもできる。   In addition, the reception unit 11 acquires the acoustic characteristic correction possible range information of the in-vehicle device 2, and the calculation unit 13 generates correction information based on the acoustic characteristic correction possible range information acquired by the reception unit 11. By doing in this way, correction information can be generated based on the acoustic characteristic correction possible range information of the vehicle-mounted device 2 such as the number of bands of the equalizer, the center frequency, the Q value, and the gain. Accordingly, it is possible to generate correction information optimal for a plurality of types of vehicle-mounted devices using only the smartphone 1.

また、サーバ4に機種ごとのマイク特性情報が格納されているので、新機種にも容易に対応することができ、また、マイク特性情報の更新等も容易にすることができる。   Further, since the microphone characteristic information for each model is stored in the server 4, it is possible to easily cope with a new model, and it is possible to easily update the microphone characteristic information.

また、車載機2は自動車等の車両に設置されているので、設置された車両の音響特性に合わせた補正を行うことができる。   Moreover, since the vehicle equipment 2 is installed in vehicles, such as a motor vehicle, it can correct | amend according to the acoustic characteristic of the installed vehicles.

なお、上述した実施例では、車両に設置された音響機器として車載機2で説明したが、移動体であれば、鉄道車両や、船舶、航空機等に設置される音響機器であってもよい。また、屋内に設置される家庭用オーディオ機器等の音響機器であってもよい。   In the above-described embodiment, the vehicle-mounted device 2 has been described as the acoustic device installed in the vehicle. However, as long as it is a moving body, an acoustic device installed in a railway vehicle, a ship, an aircraft, or the like may be used. Further, it may be an acoustic device such as a home audio device installed indoors.

また、上述した実施例では、サーバ4を設けていたが、スマートフォン1にマイク15の特性情報が格納されていてもよい。   In the embodiment described above, the server 4 is provided. However, the smartphone 1 may store characteristic information of the microphone 15.

また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の音声補正装置の構成を具備する限り、勿論、本発明の範疇に含まれるものである。   Further, the present invention is not limited to the above embodiment. That is, those skilled in the art can implement various modifications in accordance with conventionally known knowledge without departing from the scope of the present invention. Of course, such modifications are included in the scope of the present invention as long as the configuration of the sound correction apparatus of the present invention is provided.

1 スマートフォン(音声補正装置)
2 車載機(音響機器)
11 受信部(特性情報取得部、補正範囲情報取得部)
12 送信部(出力部)
13 演算部(補正情報生成部)
14 ホワイトノイズ生成部(測定部)
15 マイク
16 録音部(測定部)
18 Gセンサ(向き情報取得部)
S12 マイク特性取得(特性情報取得工程)
S13 測定向き確定(向き情報取得工程)
S14 測定(測定工程)
S15 マイク特性補正(補正情報生成工程)
S16 補正情報生成(補正情報生成工程)
1 Smartphone (voice correction device)
2 Onboard equipment (acoustic equipment)
11 Receiving unit (characteristic information acquiring unit, correction range information acquiring unit)
12 Transmitter (output unit)
13 Calculation unit (correction information generation unit)
14 White noise generator (measurement unit)
15 Microphone 16 Recording part (measurement part)
18 G sensor (direction information acquisition unit)
S12 Microphone characteristics acquisition (characteristic information acquisition process)
S13 Determination of measurement orientation (direction information acquisition process)
S14 measurement (measurement process)
S15 Microphone characteristic correction (correction information generation step)
S16 Correction information generation (correction information generation step)

上記課題を解決するために、請求項1に記載の発明は、マイクと、前記マイクの特性情報を取得する特性情報取得部と、外部の音響機器に測定音を出力させ、前記マイクを介して前記測定音を測定する測定部と、前記測定時の前記マイクの位置および向きを指示する指示情報をユーザに提示する提示部と、前記マイクの特性及び前記測定部が測定した測定結果に基づいて、前記音響機器の出力音を補正する補正情報を生成する補正情報生成部と、を備え、前記提示部は、前記測定部が前記測定を開始する前に、前記指示情報を提示する、ことを特徴とする音声補正装置である。 In order to solve the above-described problem, the invention according to claim 1 is directed to output a measurement sound to a microphone, a characteristic information acquisition unit that acquires characteristic information of the microphone, and an external audio device, via the microphone. Based on a measurement unit that measures the measurement sound, a presentation unit that presents instruction information that indicates the position and orientation of the microphone at the time of measurement, a characteristic of the microphone, and a measurement result measured by the measurement unit A correction information generation unit that generates correction information for correcting the output sound of the acoustic device, and the presentation unit presents the instruction information before the measurement unit starts the measurement. This is a featured sound correction apparatus.

また、請求項10に記載の発明は、マイクを備え、外部の音響装置の出力音を補正する音声補正装置で実行される音声補正方法であって、前記マイクの特性情報を取得する特性情報取得工程と、前記音響機器に測定音を出力させ、前記マイクを介して前記測定音を測定する測定工程と、前記測定時の前記マイクの位置および向きを指示する指示情報をユーザに提示する提示工程と、前記マイクの特性及び前記測定工程で測定された測定結果に基づいて、前記音響機器の出力音を補正する補正情報を生成する補正情報生成工程と、を含み、前記提示工程は、前記測定工程による前記測定を開始する前に、前記指示情報を提示する、ことを特徴とする音声補正方法である。 The invention described in claim 10 is an audio correction method executed by an audio correction apparatus that includes a microphone and corrects an output sound of an external audio device, and acquires characteristic information for acquiring characteristic information of the microphone. A measurement step of outputting measurement sound to the acoustic device and measuring the measurement sound via the microphone, and a presentation step of presenting instruction information indicating the position and orientation of the microphone at the time of measurement to the user And a correction information generation step of generating correction information for correcting the output sound of the acoustic device based on the characteristics of the microphone and the measurement result measured in the measurement step, and the presentation step includes the measurement The voice correction method is characterized by presenting the instruction information before starting the measurement according to a process .

また、請求項11に記載の発明は、請求項10に記載の音声補正方法を、コンピュータにより実行させることを特徴とする音声補正プログラムである。 The invention described in Claim 11, a voice correction process of claim 10, a voice correction program for causing a computer-implemented.

また、請求項12に記載の発明は、請求項11に記載の音声補正プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体である。 A twelfth aspect of the present invention is a computer-readable recording medium storing the voice correction program according to the eleventh aspect.

Claims (11)

マイクを備え、音響機器の出力音を補正する補正情報を生成する音声補正装置であって、
前記音響機器に測定音を出力させ、前記マイクを介して前記測定音を測定する測定部と、
前記測定部が測定した測定結果に基づいて前記補正情報を生成する補正情報生成部と、
を備え、
前記音響機器とは別体に構成されている、
ことを特徴とする音声補正装置。
An audio correction apparatus that includes a microphone and generates correction information for correcting an output sound of an acoustic device,
A measurement unit that outputs measurement sound to the acoustic device and measures the measurement sound via the microphone; and
A correction information generation unit that generates the correction information based on a measurement result measured by the measurement unit;
With
It is configured separately from the acoustic device,
An audio correction apparatus characterized by that.
前記マイクの特性情報を取得する特性情報取得部を更に備え、
前記補正情報生成部は、前記特性情報取得部が取得した前記マイクの特性及び前記測定部が測定した測定結果に基づいて前記補正情報を生成する、
ことを特徴とする請求項1に記載の音声補正装置。
A characteristic information acquisition unit for acquiring characteristic information of the microphone;
The correction information generation unit generates the correction information based on the characteristics of the microphone acquired by the characteristic information acquisition unit and the measurement result measured by the measurement unit.
The sound correction apparatus according to claim 1.
前記マイクの向きに関する情報を取得する向き情報取得部を更に備え、
前記測定部は、前記向き情報取得部が取得した前記向きに関する情報と、前記マイクの特性情報測定時の前記マイクの向きと、に基づいて、前記音響機器に測定音を出力させ、前記マイクを介して前記測定音を測定することを特徴とする請求項2に記載の音声補正装置。
A direction information acquisition unit that acquires information about the direction of the microphone;
The measurement unit causes the acoustic device to output a measurement sound based on the information on the direction acquired by the direction information acquisition unit and the direction of the microphone at the time of measuring the characteristic information of the microphone, and The sound correction apparatus according to claim 2, wherein the measurement sound is measured via the sound correction device.
前記補正情報生成部は、前記マイクの特性情報に基づいて前記測定部の測定結果を補正したマイク補正情報を生成し、該マイク補正情報に基づいて前記補正情報を生成することを特徴とする請求項3に記載の音声補正装置。   The correction information generation unit generates microphone correction information obtained by correcting a measurement result of the measurement unit based on characteristic information of the microphone, and generates the correction information based on the microphone correction information. Item 4. The sound correction device according to Item 3. 前記測定部は、前記測定音を録音し、
前記補正情報生成部は、前記測定部が録音した前記測定音に基づいて前記補正情報を生成する、
ことを特徴とする請求項1乃至4のうちいずれか一項に記載の音声補正装置。
The measurement unit records the measurement sound,
The correction information generation unit generates the correction information based on the measurement sound recorded by the measurement unit.
The sound correction device according to claim 1, wherein the sound correction device is a sound correction device.
前記補正情報を前記音響機器に出力する出力部を更に備えることを特徴とする請求項1乃至5のうちいずれか一項に記載の音声補正装置。   The audio correction apparatus according to claim 1, further comprising an output unit that outputs the correction information to the acoustic device. 前記音響機器における補正範囲に関する情報を取得する補正範囲情報取得部を更に備え、
前記補正情報生成部は、前記補正範囲情報取得部が取得した前記補正範囲に関する情報に基づいて前記補正情報を生成する、
ことを特徴とする請求項1乃至6のうちいずれか一項に記載の音声補正装置。
A correction range information acquisition unit for acquiring information on the correction range in the acoustic device;
The correction information generation unit generates the correction information based on information related to the correction range acquired by the correction range information acquisition unit.
The sound correction device according to claim 1, wherein the sound correction device is a sound correction device.
前記音響機器は移動体に設けられていることを特徴とする請求項1乃至7のうちいずれか一項に記載の音声補正装置。   The sound correction apparatus according to claim 1, wherein the acoustic device is provided on a moving body. 音響機器とは別体に構成されるとともにマイクを備え、該音響機器の出力音を補正する補正情報を生成する音声補正装置の音声補正方法であって、
前記音響機器に測定音を出力させ、前記マイクを介して前記測定音を測定する測定工程と、
前記特性情報取得工程で取得した前記マイクの特性及び前記測定工程で測定した測定結果に基づいて前記補正情報を生成する補正情報生成工程と、
を含むことを特徴とする音声補正方法。
An audio correction method for an audio correction apparatus that is configured separately from an audio device and includes a microphone, and generates correction information for correcting an output sound of the audio device,
A measurement step of outputting a measurement sound to the acoustic device and measuring the measurement sound via the microphone;
A correction information generation step for generating the correction information based on the characteristics of the microphone acquired in the characteristic information acquisition step and the measurement result measured in the measurement step;
An audio correction method comprising:
請求項9に記載の音声補正方法を、コンピュータにより実行させることを特徴とする音声補正プログラム。   A sound correction program that causes a computer to execute the sound correction method according to claim 9. 請求項10に記載の音声補正プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the audio correction program according to claim 10.
JP2017507183A 2015-03-23 2015-03-23 Audio correction device Pending JPWO2016151720A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/058677 WO2016151720A1 (en) 2015-03-23 2015-03-23 Sound correction device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019100954A Division JP2019140700A (en) 2019-05-30 2019-05-30 Sound correction device

Publications (1)

Publication Number Publication Date
JPWO2016151720A1 true JPWO2016151720A1 (en) 2017-12-28

Family

ID=56978815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017507183A Pending JPWO2016151720A1 (en) 2015-03-23 2015-03-23 Audio correction device

Country Status (2)

Country Link
JP (1) JPWO2016151720A1 (en)
WO (1) WO2016151720A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006340285A (en) * 2005-06-06 2006-12-14 Denso Corp Vehicle-mounted device, vehicle-mounted system, system for adjusting sound field in mobile room and mobile terminal
JP2009037143A (en) * 2007-08-03 2009-02-19 Yamaha Corp Auxiliary appliance for measurement
JP2013247456A (en) * 2012-05-24 2013-12-09 Toshiba Corp Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system
JP2014165762A (en) * 2013-02-26 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> Sound volume adjustment device and sound volume adjustment method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006340285A (en) * 2005-06-06 2006-12-14 Denso Corp Vehicle-mounted device, vehicle-mounted system, system for adjusting sound field in mobile room and mobile terminal
JP2009037143A (en) * 2007-08-03 2009-02-19 Yamaha Corp Auxiliary appliance for measurement
JP2013247456A (en) * 2012-05-24 2013-12-09 Toshiba Corp Acoustic processing device, acoustic processing method, acoustic processing program, and acoustic processing system
JP2014165762A (en) * 2013-02-26 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> Sound volume adjustment device and sound volume adjustment method

Also Published As

Publication number Publication date
WO2016151720A1 (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP2023052739A (en) Sound correction device
CN104081789B (en) Ear speaker device, terminal device, information transferring method, program and earphone system
JP5313549B2 (en) Acoustic information providing system and in-vehicle acoustic device
US9324314B2 (en) System for controlling vehicle interior sound using smart phone and method thereof
US10019979B2 (en) Selective suppression of audio emitted from an audio source
US10002601B2 (en) In-vehicle communication signal processing
CN111526467B (en) Acoustic listening area mapping and frequency correction
US10492044B2 (en) Entertaining system of vehicle, method for connecting wireless, and processing sound using the same
US9129527B2 (en) Sound playing system of a cluster
JP2018045088A (en) Noise reduction device, voice recognition system, noise reduction method, and program
KR101500177B1 (en) Audio system of vehicle
JP6777185B2 (en) External headphone control method by terminal device, headphone system, noise canceling mode
JP5932742B2 (en) Automatic adjustment device
JP2021164109A (en) Sound field correction method, sound field correction program and sound field correction system
TWI470949B (en) Audio system, electronic device and car audio system
JPWO2016151720A1 (en) Audio correction device
JP2005352255A (en) Noise canceling apparatus, sound reproduction system, and noise canceling method
JP6281646B2 (en) Terminal device, headphone system
JP6551106B2 (en) Control device
JP6536702B2 (en) Terminal device, headphone system
JP2016220066A (en) Electronic device, electronic system, voice output program, and voice output method
JP2012129692A (en) Portable terminal, audio data reproduction system, audio data reproduction method and program
JP5181991B2 (en) Automatic sound quality measuring method and sound quality measuring apparatus for wireless system
JP2013214849A (en) Acoustic correction device, sound output device, acoustic correction method, and program
JP2008124627A (en) Audio output device and sound quality correction method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170904

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190305