[go: up one dir, main page]

JP7678211B1 - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP7678211B1
JP7678211B1 JP2024205528A JP2024205528A JP7678211B1 JP 7678211 B1 JP7678211 B1 JP 7678211B1 JP 2024205528 A JP2024205528 A JP 2024205528A JP 2024205528 A JP2024205528 A JP 2024205528A JP 7678211 B1 JP7678211 B1 JP 7678211B1
Authority
JP
Japan
Prior art keywords
sound
changed
unit
information
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024205528A
Other languages
Japanese (ja)
Inventor
創太 福本
大智 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2024205528A priority Critical patent/JP7678211B1/en
Application granted granted Critical
Publication of JP7678211B1 publication Critical patent/JP7678211B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

Figure 0007678211000001

【課題】イベント会場において集音した音を調整できるようにする。
【解決手段】情報処理装置1は、仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得する取得部131と、取得部131が取得した音情報に基づいて、所定空間における一以上の音源の位置を特定する特定部132と、音情報を用いて、所定空間において一以上の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成する生成部134と、生成部134が生成した変更後音情報を出力する出力部135と、を有する。
【選択図】図2

Figure 0007678211000001

To make it possible to adjust collected sounds at an event venue.
[Solution] The information processing device 1 has an acquisition unit 131 that acquires sound information indicating sound collected at an event held in a specified space, which is a virtual space or a real space, an identification unit 132 that identifies the positions of one or more sound sources in the specified space based on the sound information acquired by the acquisition unit 131, a generation unit 134 that uses the sound information to generate modified sound information indicating the sound when collected when the position of at least one of the one or more sound sources in the specified space is changed, and an output unit 135 that outputs the modified sound information generated by the generation unit 134.
[Selected figure] Figure 2

Description

本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing device and an information processing method.

従来、ライブ等のイベント会場において撮影した映像と、集音した音とを、イベント会場とは異なる場所に位置するユーザが装着する映像及び音を視聴するための装置に配信し、ユーザ側でイベントを疑似体験させるシステムが知られている(例えば、特許文献1を参照)。 Conventionally, a system is known in which images and collected sounds at an event venue, such as a live concert, are delivered to a device worn by a user located in a location other than the event venue for viewing the images and sounds, allowing the user to simulate an experience of the event (see, for example, Patent Document 1).

特開2022-134638号公報JP 2022-134638 A

イベント会場において音を集音する位置によっては、歓声が偏って聞こえたり、ユーザが聞きたい演者が発する音が聞こえにくかったりするという問題が生じていた。また、イベントを運営する事業者の中には、音源の発生位置を調整することを希望する事業者が存在していた。 Depending on the location where sound is collected at an event venue, problems have arisen such as cheers being heard unevenly or users having difficulty hearing the sounds emitted by performers that they want to hear. Also, some event operators have expressed a desire to adjust the location where the sound source is generated.

そこで、本発明はこれらの点に鑑みてなされたものであり、イベント会場において集音した音を調整できるようにすることを目的とする。 The present invention was made in consideration of these points, and aims to make it possible to adjust the sounds collected at event venues.

本発明の第1の態様は、情報処理装置である。この情報処理装置は、仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得する取得部と、前記取得部が取得した前記音情報に基づいて、前記所定空間における一以上の音源の位置を特定する特定部と、前記音情報を用いて、前記所定空間において前記一以上の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成する生成部と、前記生成部が生成した前記変更後音情報を出力する出力部と、を有する。 The first aspect of the present invention is an information processing device. This information processing device has an acquisition unit that acquires sound information indicating sounds collected at an event held in a specified space, which is a virtual space or a real space, an identification unit that identifies the positions of one or more sound sources in the specified space based on the sound information acquired by the acquisition unit, a generation unit that uses the sound information to generate changed sound information indicating sounds when collected when the position of at least one of the one or more sound sources in the specified space is changed, and an output unit that outputs the changed sound information generated by the generation unit.

前記生成部は、前記所定空間における複数の音源の位置に偏りがあるかを判定してもよく、偏りがあると判定すると、偏りを抑制するように複数の音源の位置を変更した場合に対応する前記変更後音情報を生成してもよい。 The generation unit may determine whether there is a bias in the positions of the multiple sound sources in the specified space, and if it determines that there is a bias, may generate the changed sound information corresponding to a case in which the positions of the multiple sound sources are changed so as to suppress the bias.

前記生成部は、前記所定空間における前記音情報の取得位置である所定位置に対する、前記所定空間における歓声に対応する複数の音源の位置に偏りがあると判定すると、偏りが抑制されるように複数の音源の位置を変更した場合に対応する前記変更後音情報を生成してもよい。 When the generation unit determines that there is a bias in the positions of multiple sound sources corresponding to cheers in the specified space relative to a specified position from which the sound information was acquired in the specified space, the generation unit may generate the changed sound information corresponding to a case in which the positions of the multiple sound sources are changed so as to suppress the bias.

位置を変更する音源の選択を受け付ける受付部をさらに有してもよく、前記生成部は、前記一以上の音源のうち、前記受付部が選択を受け付けた音源の位置を変更した場合に対応する前記変更後音情報を生成してもよい。 The system may further include a reception unit that receives a selection of a sound source whose position is to be changed, and the generation unit may generate the changed sound information corresponding to a case where the position of a sound source selected by the reception unit among the one or more sound sources is changed.

前記受付部は、前記変更後音情報の出力先である視聴用装置を使用するユーザから、位置を変更する音源の選択を受け付けてもよい。 The reception unit may receive a selection of the sound source whose position is to be changed from a user of a viewing device to which the changed sound information is output.

前記受付部は、前記イベントの開催者から、位置を変更する音源の選択を受け付けてもよい。 The reception unit may receive a selection of the sound source whose position is to be changed from the organizer of the event.

前記受付部は、位置を変更する音源の変更後の位置を受け付けてもよく、前記生成部は、前記受付部が選択を受け付けた音源の位置を、前記受付部が受け付けた変更後の位置に変更した場合に対応する前記変更後音情報を生成してもよい。 The reception unit may receive a new position of the sound source whose position is to be changed, and the generation unit may generate the new sound information corresponding to the case where the position of the sound source whose selection has been accepted by the reception unit is changed to the new position accepted by the reception unit.

前記受付部は、前記所定空間のうち、予め定められた範囲内で、前記音源の変更後の位置を受け付けてもよい。
前記生成部は、前記所定空間において前記一以上の音源の少なくともいずれかの向きを変更した場合に集音したときの音を示す前記変更後音情報を生成してもよい。
The receiving unit may receive a position of the sound source after the change within a predetermined range in the specified space.
The generation unit may generate the changed sound information indicating a sound collected when a direction of at least one of the one or more sound sources in the specified space is changed.

前記生成部は、複数の音源のうち、前記変更後音情報の出力先である視聴用装置を使用するユーザが好む音源を特定してもよく、特定した音源の位置を変更した場合に対応する前記変更後音情報を生成してもよい。 The generation unit may identify, from among a plurality of sound sources, a sound source that is preferred by a user of a viewing device to which the changed sound information is output, and may generate the changed sound information corresponding to a case in which the position of the identified sound source is changed.

前記取得部は、前記イベントにおいて撮像された映像を取得してもよく、前記出力部は、前記生成部が前記変更後音情報を生成する前の前記音情報と前記映像とを前記ユーザが音及び映像を視聴するための前記視聴用装置に出力してもよく、前記取得部は、前記ユーザが前記映像を視認したときに前記ユーザが視認した位置を示す視認位置情報を取得してもよく、前記生成部は、前記取得部が取得した前記視認位置情報に基づいて、前記ユーザが好む音源を特定してもよい。 The acquisition unit may acquire video captured at the event, the output unit may output the sound information and the video before the generation unit generates the changed sound information to the viewing device for the user to view the sound and the video, the acquisition unit may acquire viewing position information indicating the position viewed by the user when the user views the video, and the generation unit may identify the sound source preferred by the user based on the viewing position information acquired by the acquisition unit.

前記生成部は、前記一以上の音源の少なくともいずれかの位置が変更されるとともに、前記所定空間に音響を変化させるオブジェクトを追加又は移動した状態において集音したときの音を示す前記変更後音情報を生成してもよい。 The generator may generate the modified sound information indicating the sound collected when the position of at least one of the one or more sound sources is changed and an object that changes the sound is added or moved to the specified space.

前記所定空間は仮想空間であってもよく、前記取得部は、前記所定空間に存在する、音を発生するオブジェクトの位置を示すオブジェクト位置情報を取得してもよく、前記特定部は、前記取得部が取得した前記音情報と前記オブジェクト位置情報とに基づいて、一以上の音源の位置を特定してもよい。 The specified space may be a virtual space, the acquisition unit may acquire object position information indicating the position of an object that is present in the specified space and generates a sound, and the identification unit may identify the positions of one or more sound sources based on the sound information and the object position information acquired by the acquisition unit.

前記取得部は、前記所定空間の所定位置において集音された前記音情報を取得してもよく、前記生成部は、前記所定空間において前記一以上の音源の少なくともいずれかの位置を変更した場合に前記所定位置において集音したときの音を示す前記変更後音情報を生成してもよい。 The acquisition unit may acquire the sound information collected at a predetermined position in the predetermined space, and the generation unit may generate the changed sound information indicating the sound when collected at the predetermined position when the position of at least one of the one or more sound sources is changed in the predetermined space.

前記所定空間において集音する集音位置を受け付ける受付部を有してもよく、前記生成部は、前記所定空間において前記一以上の音源の少なくともいずれかの位置を変更した場合に前記受付部が受け付けた前記集音位置において集音したときの音を示す前記変更後音情報を生成してもよい。 The system may have a reception unit that receives a sound collection position in the specified space, and the generation unit may generate the changed sound information indicating the sound when the sound is collected at the sound collection position received by the reception unit when the position of at least one of the one or more sound sources in the specified space is changed.

本発明の第2の態様は、情報処理方法である。この情報処理方法は、コンピュータが実行する、仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得するステップと、取得した前記音情報に基づいて、前記所定空間における一以上の音源の位置を特定するステップと、前記音情報を用いて、前記所定空間において前記一以上の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成するステップと、が生成した前記変更後音情報を出力するステップと、を有する。 The second aspect of the present invention is an information processing method. This information processing method includes the steps of acquiring sound information indicating sounds collected at an event held in a specified space, which is a virtual space or a real space, executed by a computer, identifying the positions of one or more sound sources in the specified space based on the acquired sound information, generating modified sound information using the sound information indicating sounds that are collected when the positions of at least one of the one or more sound sources in the specified space are changed, and outputting the generated modified sound information.

本発明によれば、イベント会場において集音した音を調整することができるという効果を奏する。 The present invention has the effect of making it possible to adjust the sounds collected at an event venue.

情報処理装置の概要を説明する図である。FIG. 1 is a diagram illustrating an overview of an information processing device. 情報処理装置の機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of an information processing device. 選択受付画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a selection receiving screen. 情報処理装置が音情報及び映像情報を視聴用装置に出力するまでの処理の流れを示すフローチャートである。10 is a flowchart showing a process flow until an information processing device outputs audio information and video information to a viewing device.

[情報処理装置1の概要]
図1は、情報処理装置1の概要を説明する図である。情報処理装置1は、イベント会場において集音された音を示す音情報と、イベント会場において撮影された映像を示す映像情報を取得し、イベント会場とは異なる場所に設けられている視聴用装置に出力するコンピュータである。
[Overview of information processing device 1]
1 is a diagram illustrating an overview of an information processing device 1. The information processing device 1 is a computer that acquires audio information indicating sounds collected at an event venue and video information indicating videos captured at the event venue, and outputs the information to a viewing device provided in a location different from the event venue.

情報処理装置1は、インターネットや携帯電話回線等の通信ネットワークを介して集音装置2、撮影装置3及び視聴用装置4と通信可能に接続されている。集音装置2は、例えばイベント会場に設けられており、イベント会場において発生した音を集音する。撮影装置3は、例えばイベント会場に設けられており、イベント会場において行われているイベントを撮影する。視聴用装置4は、例えばイベント会場とは異なる場所に設けられている存在するユーザが装着するVR(Virtual Reality)ヘッドセットである。なお、視聴用装置4は、VRヘッドセットに限らず、ディスプレイやスピーカーといった、ユーザの近傍に設けられている複数の装置により構成されていてもよい。 The information processing device 1 is communicatively connected to a sound collection device 2, a photographing device 3, and a viewing device 4 via a communication network such as the Internet or a mobile phone line. The sound collection device 2 is installed, for example, at an event venue, and collects sounds generated at the event venue. The photographing device 3 is installed, for example, at the event venue, and photographs an event taking place at the event venue. The viewing device 4 is, for example, a VR (Virtual Reality) headset installed in a location different from the event venue and worn by a user. Note that the viewing device 4 is not limited to a VR headset, and may be composed of multiple devices installed near the user, such as a display and a speaker.

情報処理装置1は、集音装置2から、仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得するとともに、撮影装置3から、イベントを撮影した映像を示す映像情報を取得する(図1における(1)、(2))。 The information processing device 1 acquires from the sound collection device 2 sound information indicating sounds collected at an event held in a specific space, which may be a virtual space or a real space, and acquires from the imaging device 3 video information indicating video footage of the event ((1) and (2) in FIG. 1).

情報処理装置1は、取得した音情報に基づいて、所定空間における一以上の音源の位置を特定する(図1における(3))。イベントがライブやコンサートである場合、音源は、例えば演者が発する音声、楽器が発生させる音、観客の歓声である。 The information processing device 1 identifies the positions of one or more sound sources in a specified space based on the acquired sound information ((3) in FIG. 1). If the event is a live performance or concert, the sound sources may be, for example, the voices of performers, sounds produced by musical instruments, and cheers from the audience.

情報処理装置1は、所定空間において一以上の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成する(図1における(4))。情報処理装置1は、生成した変更後音情報と、取得した映像情報とを、視聴用装置4に出力する(図1における(5))。このようにすることで、情報処理装置1は、イベント会場において集音した音を調整して出力することができる。また、ユーザは、所定空間において開催されたイベントを、音が調整された状態で、遠隔で視聴することができる。 The information processing device 1 generates modified sound information indicating the sound collected when the position of at least one of one or more sound sources in a specified space is changed ((4) in FIG. 1). The information processing device 1 outputs the generated modified sound information and the acquired video information to the viewing device 4 ((5) in FIG. 1). In this way, the information processing device 1 can adjust and output the sound collected at the event venue. In addition, the user can remotely view an event held in a specified space with the sound adjusted.

[情報処理装置1の機能構成]
続いて、情報処理装置1の機能構成について説明する。図2は、情報処理装置1の機能構成を示す図である。情報処理装置1は、通信部11と、記憶部12と、制御部13とを有する。
[Functional configuration of information processing device 1]
Next, a description will be given of the functional configuration of the information processing device 1. Fig. 2 is a diagram showing the functional configuration of the information processing device 1. The information processing device 1 has a communication unit 11, a storage unit 12, and a control unit 13.

通信部11は、集音装置2、撮影装置3及び視聴用装置4や、通信ネットワークを管理する通信装置等の外部装置とデータを送受信するための通信インターフェースである。
記憶部12は、各種のデータを記憶する記憶媒体であり、ROM(Read Only Memory)、RAM(Random Access Memory)、及びハードディスク等を有する。記憶部12は、制御部13が実行するプログラムを記憶する。記憶部12は、制御部13を、取得部131、特定部132、受付部133、生成部134及び出力部135として機能させるプログラムを記憶する。
The communication unit 11 is a communication interface for transmitting and receiving data to and from external devices such as the sound collection device 2, the image capture device 3, the viewing device 4, and a communication device that manages a communication network.
The storage unit 12 is a storage medium that stores various data, and includes a read only memory (ROM), a random access memory (RAM), a hard disk, etc. The storage unit 12 stores a program executed by the control unit 13. The storage unit 12 stores a program that causes the control unit 13 to function as an acquisition unit 131, an identification unit 132, a reception unit 133, a generation unit 134, and an output unit 135.

制御部13は、例えばCPU(Central Processing Unit)である。制御部13は、記憶部12に記憶されたプログラムを実行することにより、取得部131、特定部132、受付部133、生成部134及び出力部135として機能する。 The control unit 13 is, for example, a CPU (Central Processing Unit). The control unit 13 executes the programs stored in the storage unit 12, thereby functioning as an acquisition unit 131, an identification unit 132, a reception unit 133, a generation unit 134, and an output unit 135.

取得部131は、仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報と、当該イベントにおいて撮影された映像を示す映像情報とを取得する。例えば、取得部131は、イベント会場としての所定空間の所定位置に設けられた集音装置2が集音した音情報と、所定空間に設けられた撮影装置3が撮影した映像を示す映像情報とを、通信ネットワークを介して取得する。所定空間が実空間である場合、集音装置2は例えば複数のマイクを有するアレイマイクである。また、所定空間が仮想空間である場合、集音装置2は例えば仮想空間上に設けられた仮想のアレイマイクである。取得部131は、所定空間の複数の所定位置に設けられた集音装置2が集音した音情報を取得してもよい。また、取得部131は、所定位置と異なる位置に設けられた一以上の撮影装置3が生成した映像情報を取得してもよい。 The acquisition unit 131 acquires sound information indicating sounds collected at an event held in a specified space, which is a virtual space or a real space, and video information indicating videos captured at the event. For example, the acquisition unit 131 acquires, via a communication network, sound information collected by a sound collection device 2 installed at a specified position in a specified space as an event venue, and video information indicating videos captured by a shooting device 3 installed in the specified space. When the specified space is a real space, the sound collection device 2 is, for example, an array microphone having multiple microphones. When the specified space is a virtual space, the sound collection device 2 is, for example, a virtual array microphone installed in the virtual space. The acquisition unit 131 may acquire sound information collected by a sound collection device 2 installed at multiple specified positions in the specified space. The acquisition unit 131 may also acquire video information generated by one or more shooting devices 3 installed at positions different from the specified position.

特定部132は、取得部131が取得した音情報に基づいて、所定空間における一以上の音源の位置を特定する。例えば、特定部132は、アイクアレイが有する複数のマイクの集音結果に基づいて音が到来した方向と、距離とを推定することにより、所定空間における一以上の音源の位置を特定する。所定空間が仮想空間である場合、取得部131は、仮想空間を管理するサーバ(不図示)から、仮想空間に存在する他のユーザのアバターを含む、音を発生するオブジェクトの位置を示すオブジェクト位置情報を取得してもよい。そして、特定部132は、取得部131が取得した音情報と、オブジェクト位置情報とに基づいて、一以上の音源の位置を特定してもよい。 The identification unit 132 identifies the positions of one or more sound sources in a specified space based on the sound information acquired by the acquisition unit 131. For example, the identification unit 132 identifies the positions of one or more sound sources in a specified space by estimating the direction and distance from which a sound arrives based on the sound collection results of multiple microphones in the Ike array. When the specified space is a virtual space, the acquisition unit 131 may acquire object position information indicating the positions of objects that generate sound, including avatars of other users that exist in the virtual space, from a server (not shown) that manages the virtual space. Then, the identification unit 132 may identify the positions of one or more sound sources based on the sound information acquired by the acquisition unit 131 and the object position information.

ここで、イベントに出演する一以上の演者が予め定められている場合には、一以上の演者それぞれが発する音の特徴を示す特徴情報が記憶部12に記憶されていてもよい。そして、特定部132は、音情報に基づいて位置が特定された一以上の音源それぞれが発する音の特徴を特定してもよい。そして、特定部132は、特定した音の特徴と、記憶部12に記憶されている一以上の演者それぞれに対応する特徴情報が示す音の特徴とをマッチングすることにより、一以上の音源それぞれに対応する演者を特定してもよい。このようにすることで、情報処理装置1は、音源としての複数の演者それぞれの位置を特定することができる。 Here, when one or more performers who will appear at the event are predetermined, feature information indicating the features of the sound emitted by each of the one or more performers may be stored in the storage unit 12. Then, the identification unit 132 may identify the features of the sound emitted by each of the one or more sound sources whose positions have been identified based on the sound information. Then, the identification unit 132 may identify the performers corresponding to each of the one or more sound sources by matching the identified sound features with the sound features indicated by the feature information corresponding to each of the one or more performers stored in the storage unit 12. In this way, the information processing device 1 can identify the position of each of the multiple performers as a sound source.

受付部133は、イベントを視聴するユーザであって、視聴用装置4を利用するユーザから、位置を変更する音源の選択を受け付ける。例えば、受付部133は、ユーザが使用するスマートフォン等のユーザ端末(不図示)から、位置を変更する音源の選択を受け付ける選択受付画面の表示要求を受け付けたことに応じて、選択受付画面をユーザ端末に表示させる。なお、音源の位置の変更は、音源の実際の位置を変更するものではなく、ユーザが、音源の位置を変更した状態での音を聴くための、音源の仮想的な位置の変更である。 The reception unit 133 receives a selection of a sound source whose position is to be changed from a user who is watching an event and who is using the viewing device 4. For example, in response to receiving a display request for a selection acceptance screen that accepts the selection of a sound source whose position is to be changed from a user terminal (not shown) such as a smartphone used by the user, the reception unit 133 displays a selection acceptance screen on the user terminal. Note that changing the position of the sound source does not change the actual position of the sound source, but rather changes the virtual position of the sound source so that the user can listen to the sound with the sound source in a changed position.

受付部133は、例えば、選択受付画面の表示要求を受け付けた時点における、特定部132が特定した音源のイベント会場における位置を示し、音源の位置の変更を受け付ける選択受付画面を生成する。受付部133は、生成した選択受付画面をユーザ端末に送信することにより、当該選択受付画面をユーザ端末に表示させる。そして、受付部133は、選択受付画面を介して、ユーザ端末から、位置を変更する対象となる音源の選択と、位置を変更する対象となる音源の変更後の位置とを受け付ける。 The reception unit 133 generates a selection acceptance screen that indicates, for example, the position of the sound source identified by the identification unit 132 in the event venue at the time when the display request for the selection acceptance screen is received, and accepts a change to the position of the sound source. The reception unit 133 transmits the generated selection acceptance screen to the user terminal, thereby causing the selection acceptance screen to be displayed on the user terminal. The reception unit 133 then accepts, from the user terminal via the selection acceptance screen, a selection of the sound source whose position is to be changed, and the new position of the sound source whose position is to be changed.

例えば、イベントに出演する一以上の演者が予め定められている場合、受付部133は、一以上の演者の中から、位置を移動させる演者を受け付けるための選択受付画面をユーザ端末に表示させ、ユーザから、位置を移動させる音源としての演者の選択を受け付ける。 For example, if one or more performers who will appear at an event have been determined in advance, the reception unit 133 displays a selection reception screen on the user terminal to receive a performer whose position will be moved from among the one or more performers, and receives from the user a selection of a performer as the sound source whose position will be moved.

図3は、選択受付画面の一例を示す図である。図3には、イベント会場のレイアウトが表示されているとともに、レイアウト上の、特定部132が特定した複数の音源それぞれに対応する位置に、当該複数の音源としての、演者A~Gを示すアイコンと複数の歓声を示すアイコンとが表示されていることが確認できる。また、図3に示されるレイアウトには、「自分」と表示され、集音装置2を示すアイコンが表示されている。 Figure 3 is a diagram showing an example of a selection reception screen. In Figure 3, the layout of the event venue is displayed, and it can be seen that icons representing performers A to G and icons representing multiple cheers are displayed on the layout at positions corresponding to the multiple sound sources identified by the identification unit 132. In addition, the layout shown in Figure 3 displays "Self" and an icon representing the sound collection device 2.

ユーザは、レイアウト上に表示されている演者や歓声といった複数の音源の少なくともいずれかに対応するアイコンを選択し、レイアウト上で、選択した音源を自身が希望する位置に移動させることができる。このようにすることで、例えば、ユーザは、自身が応援する演者がステージの端で歌っている場合等に、ユーザが当該演者を選択し、変更後の位置をステージの中央に移動させることにより、当該演者がステージの中央で歌っているときの歌を聴くことができる。また、ユーザは、集音位置に対し、歓声が偏って聞こえる場合に、歓声の位置を変更し、歓声が偏っていない状態でイベントの発生音を聴くことができる。 A user can select an icon corresponding to at least one of multiple sound sources, such as performers or cheers, displayed on the layout, and move the selected sound source to the position on the layout that the user desires. In this way, for example, if a performer the user is cheering for is singing at the edge of the stage, the user can select the performer and move the changed position to the center of the stage, allowing the user to listen to the song as the performer sings in the center of the stage. Also, if the cheers sound biased toward the sound collection position, the user can change the position of the cheers and listen to the sounds generated by the event without the cheers being biased.

なお、ユーザが、集音装置2が設置されている位置とは異なる位置においてイベントでの発生音を聴きたい場合がある。このため、受付部133は、集音する位置である集音位置の変更を受け付けてもよい。例えば、受付部133は、選択受付画面において、集音装置2を示すアイコンの移動操作を受け付けることにより、集音位置の変更を受け付ける。このようにすることで、ユーザは、イベント会場において自身が希望した位置において集音した時のイベントでの発生音を聴くことができる。 There may be cases where the user wishes to listen to sounds generated at an event at a location other than the location where the sound collection device 2 is installed. For this reason, the reception unit 133 may accept a change to the sound collection location, which is the location where sound is collected. For example, the reception unit 133 accepts a change to the sound collection location by accepting an operation to move the icon representing the sound collection device 2 on the selection reception screen. In this way, the user can listen to sounds generated at an event when the sound is collected at the location of the user's choice at the event venue.

また、所定空間の中には、例えば、ステージから離れた場所等の音を発生させる場所としてふさわしくない場所が存在することがある。これに対し、受付部133は、所定空間のうち、予め定められた範囲内で、音源の変更後の位置を受け付けるようにしてもよい。このようにすることで、情報処理装置1は、ユーザが音を発生させる場所としてふさわしくない場所に音源を移動させて聴こうとすることを抑制することができる。 In addition, there may be places in the specified space that are not suitable for generating sound, such as places away from the stage. In response to this, the reception unit 133 may be configured to receive the changed position of the sound source within a predetermined range in the specified space. In this way, the information processing device 1 can prevent the user from moving the sound source to a place that is not suitable for generating sound and listening to it.

また、受付部133は、視聴用装置4を利用するユーザから位置を変更する音源の選択を受け付けたが、これに限らない。受付部133は、イベントの開催者から、位置を変更する音源の選択を受け付けてもよい。このようにすることで、イベントの開催者は、例えばイベントの状況に応じて、音源の発生位置を自由に調整してユーザに聴かせることができる。 In addition, the reception unit 133 receives a selection of a sound source whose position is to be changed from a user who uses the viewing device 4, but this is not limited to the above. The reception unit 133 may also receive a selection of a sound source whose position is to be changed from an event organizer. In this way, the event organizer can freely adjust the generation position of the sound source depending on, for example, the situation of the event, and allow the user to hear it.

生成部134は、取得部131が取得した音情報を用いて、所定空間において一以上の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成する。生成部134は、特定部132が位置を特定した一以上の音源のうち、受付部133が選択を受け付けた音源の位置を、受付部133が受け付けた変更後の位置に変更した場合に対応する変更後音情報を生成する。 The generation unit 134 uses the sound information acquired by the acquisition unit 131 to generate changed sound information indicating the sound collected when the position of at least one of the one or more sound sources in the specified space is changed. The generation unit 134 generates changed sound information corresponding to the case where the position of a sound source selected by the reception unit 133, among the one or more sound sources whose positions are identified by the identification unit 132, is changed to the changed position accepted by the reception unit 133.

生成部134は、ユーザから集音装置2の位置の変更を受け付けていない場合、所定空間において一以上の音源の少なくともいずれかの位置を変更した場合に集音装置2が設置されている所定位置において集音したときの音を示す変更後音情報を生成する。 When the generation unit 134 does not receive a request from the user to change the position of the sound collection device 2, it generates changed sound information indicating the sound that is collected when the position of at least one of the one or more sound sources in the specified space is changed at the specified position where the sound collection device 2 is installed.

この場合、生成部134は、位置を変化させる音源である対象音源の位置変更前の位置と所定位置との距離と、対象音源の位置変更後の位置と所定位置との距離と、に基づいて、対象音源が発生させた音の所定位置における音量の変化量を特定する。また、生成部134は、所定位置を基準とした当該対象音源の位置変更後の方向を特定する。そして、生成部134は、音情報に含まれる対象音源の音を、特定した音量の変化量と、位置変更後の方向とに基づいて変更することにより、変更後音情報を生成する。 In this case, the generation unit 134 determines the amount of change in volume of the sound generated by the target sound source at a predetermined position based on the distance between the position of the target sound source, which is the sound source whose position is being changed, before the position is changed and the predetermined position, and the distance between the position of the target sound source after the position is changed and the predetermined position. The generation unit 134 also determines the direction of the target sound source after the position is changed based on the predetermined position. The generation unit 134 then generates changed sound information by changing the sound of the target sound source included in the sound information based on the determined amount of change in volume and the direction after the position is changed.

生成部134は、ユーザから集音装置2の位置の変更を受け付けている場合、所定空間において一以上の音源の少なくともいずれかの位置を変更した場合に、受付部133が受け付けた変更後の集音位置において集音したときの音を示す変更後音情報を生成する。 When the generation unit 134 receives a request from the user to change the position of the sound collection device 2, and when the position of at least one of the one or more sound sources in the specified space is changed, the generation unit 134 generates changed sound information indicating the sound when the sound is collected at the changed sound collection position received by the reception unit 133.

例えば、生成部134は、集音装置2の設置位置を変更した場合に、集音装置2の変更前の設置位置と、複数の音源それぞれの変更前の位置との距離と、集音装置2の変更後の設置位置と、複数の音源それぞれの変更後の位置との距離と、に基づいて、集音装置2の設置位置を変更した場合における、複数の音源それぞれが発生させた音の音量の変化量を特定する。 For example, when the installation position of the sound collection device 2 is changed, the generation unit 134 determines the amount of change in the volume of the sound generated by each of the multiple sound sources when the installation position of the sound collection device 2 is changed, based on the distance between the installation position of the sound collection device 2 before the change and the position of each of the multiple sound sources before the change, and the distance between the installation position of the sound collection device 2 after the change and the position of each of the multiple sound sources after the change.

また、生成部134は、集音装置2の変更後の設置位置を基準とした複数の音源それぞれとの方向を特定する。そして、生成部134は、音情報に含まれる複数の音源それぞれの音を、特定した音量の変化量と、位置変更後の方向とに基づいて変更することにより、変更後音情報を生成する。 The generation unit 134 also identifies the direction of each of the multiple sound sources based on the changed installation position of the sound collection device 2. The generation unit 134 then generates changed sound information by changing the sound of each of the multiple sound sources included in the sound information based on the identified amount of change in volume and the direction after the position change.

なお、生成部134は、所定空間における複数の音源の位置に偏りがあるかを判定し、偏りがあると判定すると、偏りを抑制するように複数の音源の位置を変更した場合に対応する変更後音情報を生成してもよい。この場合、生成部134は、所定空間における歓声に対応する複数の音源の位置に偏りがあるか否かを判定する。 The generation unit 134 may determine whether there is a bias in the positions of the multiple sound sources in the specified space, and if it determines that there is a bias, generate changed sound information corresponding to a case where the positions of the multiple sound sources are changed so as to suppress the bias. In this case, the generation unit 134 determines whether there is a bias in the positions of the multiple sound sources corresponding to cheers in the specified space.

例えば、生成部134は、観客スペースをステージに対する右側と左側とに分割する。生成部134は、特定部132が特定した複数の歓声それぞれの音源の位置と音量とに基づいて、観客スペースの中央位置で集音した場合における歓声の音量が、右側と左側とのいずれかに所定量以上偏っているか否かを判定する。 For example, the generation unit 134 divides the audience space into the right and left sides of the stage. Based on the position and volume of each of the multiple cheers identified by the identification unit 132, the generation unit 134 determines whether the volume of the cheers, when collected at the center of the audience space, is biased toward either the right or the left side by a predetermined amount or more.

生成部134は、右側と左側とのいずれかに所定量以上偏っていると判定すると、偏りが抑制されるように複数の音源の位置を変更した場合に対応する変更後音情報を生成する。このようにすることで、情報処理装置1は、観客スペースの一部の歓声が偏っていることにより、不自然に歓声が聞こえてしまうことを抑制することができる。 When the generating unit 134 determines that the sound sources are biased to either the right or left side by a predetermined amount or more, it generates changed sound information corresponding to the case where the positions of the multiple sound sources are changed so as to reduce the bias. In this way, the information processing device 1 can reduce the situation where the cheers sound unnatural due to being biased from one part of the audience space.

また、イベント会場において発生する音源に、指向性を有する音源が含まれている場合がある。これに対応して、受付部133は、位置を変更する音源の、位置変更後の向きを受け付けてもよい。そして、生成部134は、受付部133が選択を受け付けた音源の向きを、受付部133が受け付けた向きに変更した場合に対応する変更後音情報を生成してもよい。このようにすることで、情報処理装置1は、音源が発生させる音の指向性を考慮した変更後音情報を生成することができる。 In addition, sound sources generated at an event venue may include sound sources with directionality. In response to this, the receiving unit 133 may receive the orientation of the sound source whose position is to be changed after the position is changed. The generating unit 134 may then generate changed sound information corresponding to the case where the orientation of the sound source whose selection has been accepted by the receiving unit 133 has been changed to the orientation accepted by the receiving unit 133. In this way, the information processing device 1 can generate changed sound information that takes into account the directionality of the sound generated by the sound source.

出力部135は、生成部134が生成した変更後音情報と映像情報とを視聴用装置4に出力する。出力部135は、変更後音情報と映像情報とを通信ネットワークを介して視聴用装置4に送信することにより、変更後音情報と映像情報とを視聴用装置4から出力させる。 The output unit 135 outputs the changed sound information and video information generated by the generation unit 134 to the viewing device 4. The output unit 135 transmits the changed sound information and video information to the viewing device 4 via a communication network, thereby causing the changed sound information and video information to be output from the viewing device 4.

[動作フロー]
続いて、情報処理装置1における処理の流れについて説明する。情報処理装置1は、音情報及び映像情報を視聴用装置4に出力する処理と、音源の位置を変更する処理とをそれぞれ独立して実行する。まず、音情報及び映像情報を視聴用装置4に出力する処理に係る処理の流れについて説明する。図4は、情報処理装置1が音情報及び映像情報を視聴用装置4に出力するまでの処理の流れを示すフローチャートである。図4に示すフローチャートは、ユーザがイベントを視聴している間、繰り返し実行されるものとする。
[Operation flow]
Next, the flow of processing in the information processing device 1 will be described. The information processing device 1 independently executes a process of outputting audio information and video information to the viewing device 4 and a process of changing the position of the sound source. First, the flow of processing related to the process of outputting audio information and video information to the viewing device 4 will be described. Fig. 4 is a flowchart showing the flow of processing until the information processing device 1 outputs audio information and video information to the viewing device 4. The flowchart shown in Fig. 4 is executed repeatedly while the user is viewing an event.

まず、取得部131は、所定空間において開催されたイベントにおいて集音された音を示す音情報を集音装置2から取得するとともに、当該イベントを撮影した映像を示す映像情報を撮影装置3から取得する(S1)。 First, the acquisition unit 131 acquires from the sound collection device 2 sound information indicating sounds collected at an event held in a specified space, and acquires from the imaging device 3 video information indicating video footage of the event (S1).

続いて、特定部132は、取得部131が取得した音情報に基づいて、所定空間における一以上の音源の位置を特定する(S2)。 Next, the identification unit 132 identifies the positions of one or more sound sources in the specified space based on the sound information acquired by the acquisition unit 131 (S2).

続いて、受付部133は、選択受付画面の表示要求を受け付けたか否かを判定する(S3)。受付部133は、表示要求を受け付けたと判定すると(S3のYES)、S4に処理を移し、選択受付画面を介して、位置を変更する対象となる音源の選択と、当該音源の変更後の位置とを受け付ける。受付部133は、表示要求を受け付けていないと判定すると(S3のNO)、S5に処理を移す。 Then, the reception unit 133 determines whether or not a display request for the selection reception screen has been received (S3). If the reception unit 133 determines that a display request has been received (YES in S3), the process proceeds to S4, where the reception unit 133 receives, via the selection reception screen, a selection of the sound source whose position is to be changed and the position of the sound source after the change. If the reception unit 133 determines that a display request has not been received (NO in S3), the process proceeds to S5.

続いて、生成部134は、音源位置の変更があるか否かを判定する(S5)。生成部134は、受付部133が音源の位置の変更があると判定すると(S5のYES)、S6に処理を移し、受付部133が位置の変更を受け付けた音源の位置を、変更後の位置に変更した場合に集音したときの音を示す変更後音情報を生成する。そして、出力部135は、変更後音情報及び映像情報を視聴用装置4に出力する(S7)。 Then, the generation unit 134 determines whether or not there has been a change in the sound source position (S5). If the reception unit 133 determines that there has been a change in the sound source position (YES in S5), the generation unit 134 moves the process to S6 and generates changed sound information that indicates the sound that will be collected when the position of the sound source whose change in position has been accepted by the reception unit 133 is changed to the changed position. The output unit 135 then outputs the changed sound information and the video information to the viewing device 4 (S7).

生成部134は、受付部133が音源の位置の変更がないと判定すると(S5のNO)、S8に処理を移す。出力部135は、音情報及び映像情報を視聴用装置4に出力する(S8)。 When the reception unit 133 determines that the position of the sound source has not changed (NO in S5), the generation unit 134 proceeds to S8. The output unit 135 outputs the sound information and video information to the viewing device 4 (S8).

続いて、出力部135は、音情報及び映像情報の出力の終了指示を受け付けたか否かを判定する(S9)。出力部135は、終了指示を受け付けたと判定すると(S9のYES)、本フローチャートに係る処理を終了し、終了指示を受け付けていないと判定すると(S9のNO)、S1に処理を移す。 Next, the output unit 135 determines whether or not an instruction to end the output of the audio information and video information has been received (S9). If the output unit 135 determines that an instruction to end has been received (YES in S9), it ends the process related to this flowchart, and if it determines that an instruction to end has not been received (NO in S9), it proceeds to S1.

[変形例]
上述の実施の形態において、生成部134は、特定部132が特定した一以上の音源のうち、受付部133が選択を受け付けた音源の位置を変更した場合に対応する変更後音情報を生成したが、これに限らない。生成部134は、複数の音源のうち、ユーザが好む音源を特定し、特定した音源の位置を変更した場合に対応する変更後音情報を生成してもよい。
[Modification]
In the above embodiment, the generating unit 134 generates changed sound information corresponding to a case where the position of a sound source selected by the receiving unit 133 is changed among one or more sound sources identified by the identifying unit 132, but this is not limited thereto. The generating unit 134 may identify a sound source preferred by the user among a plurality of sound sources, and generate changed sound information corresponding to a case where the position of the identified sound source is changed.

この場合、ユーザは、視聴用装置4には、アイトラッカー等の視線を検出する装置が含まれており、視聴用装置4は、ユーザが映像を視認したときにユーザが視認した位置を示す視認位置情報を情報処理装置1に送信する。取得部131は、視聴用装置4から、視認位置情報を取得する。 In this case, the viewing device 4 includes a device for detecting the line of sight, such as an eye tracker, and the viewing device 4 transmits viewing position information indicating the position at which the user viewed the video to the information processing device 1. The acquisition unit 131 acquires the viewing position information from the viewing device 4.

生成部134は、取得部131が取得した視認位置情報に基づいて、ユーザが好む音源を特定する。例えば、生成部134は、視認位置情報が示す複数の時刻それぞれのユーザの視認位置に基づいてユーザが視認している時間が最も長い音源をユーザが好む音源と特定する。そして、生成部134は、例えば、ユーザが好む音源がイベント会場に設けられているステージの中央等の予めユーザにより指定された場所に位置するように、当該音源の位置を変更し、特定した音源の位置を変更した場合に対応する変更後音情報を生成する。このようにすることで、情報処理装置1は、自動的に音源の位置を変更してユーザに音源の位置を変更した場合に対応するイベントでの発生音を聴かせることができる。 The generation unit 134 identifies the user's preferred sound source based on the viewing position information acquired by the acquisition unit 131. For example, the generation unit 134 identifies the sound source that the user views for the longest time based on the user's viewing positions at each of the multiple times indicated by the viewing position information as the user's preferred sound source. The generation unit 134 then changes the position of the sound source so that the user's preferred sound source is located at a location previously designated by the user, such as the center of a stage set up at an event venue, and generates changed sound information corresponding to the case where the identified sound source position has been changed. In this way, the information processing device 1 can automatically change the position of the sound source and allow the user to listen to the sound generated at the event corresponding to the case where the sound source position has been changed.

なお、生成部134は、予めユーザにより指定された場所に、ユーザが好む音源を位置させることとしたが、これに限らない。受付部133が、選択受付画面をユーザ端末に表示させ、ユーザが好む音源の変更後の位置を受け付けてもよい。そして、生成部134は、ユーザが好む音源の位置を、受付部133が受け付けた位置に変更した場合に対応する変更後音情報を生成してもよい。 Note that the generation unit 134 positions the user's preferred sound source at a location designated in advance by the user, but this is not limited to the above. The reception unit 133 may display a selection reception screen on the user terminal and receive the changed position of the user's preferred sound source. The generation unit 134 may then generate changed sound information corresponding to the case where the position of the user's preferred sound source is changed to the position received by the reception unit 133.

また、受付部133は、ユーザが好む音源の位置変更後の向きを受け付けてもよい。例えば、受付部133は、ユーザが好む音源の位置変更後の向きを、所定の向きにすることや、自動的にユーザの方向に対応する向きにすることを受け付け、生成部134は、ユーザが好む音源の位置変更後の向きを、受付部133が受け付けた向きに変更した場合に対応する変更後音情報を生成してもよい。 The receiving unit 133 may also receive the user's preferred orientation of the sound source after the position change. For example, the receiving unit 133 may receive a request to set the user's preferred orientation of the sound source after the position change to a predetermined orientation or to automatically set the orientation to an orientation that corresponds to the user's direction, and the generating unit 134 may generate changed sound information corresponding to the case where the user's preferred orientation of the sound source after the position change is changed to the orientation received by the receiving unit 133.

また、生成部134は、所定空間に音響を変化させるオブジェクトの追加、変更又は移動した状態において、所定位置において集音したときの音を示す変更後音情報を生成するようにしてもよい。この場合、受付部133は、選択受付画面を介して、所定空間に対する、音響を変化させるオブジェクトの追加、変更又は所定空間に設置されている当該オブジェクトの移動を受け付けるようにしてもよい。オブジェクトは、例えば、音響を変化させる壁、音を反射させる反射パネルである。また、オブジェクトの変更には、オブジェクトの壁を含む所定空間の構造を、他のイベント会場の構造に変化させることが含まれる。 The generation unit 134 may also generate changed sound information indicating the sound when collected at a specified position in a state in which an object that changes the sound has been added, changed, or moved to the specified space. In this case, the reception unit 133 may receive, via a selection reception screen, the addition, change, or movement of an object that changes the sound to the specified space. The object is, for example, a wall that changes the sound, or a reflective panel that reflects sound. Furthermore, changing the object includes changing the structure of the specified space, including the wall of the object, to the structure of another event venue.

そして、生成部134は、一以上の音源の少なくともいずれかの位置が変更されるとともに、受付部133が受け付けたオブジェクトを所定空間に追加又は移動した状態において、所定位置において集音したときの音を示す変更後音情報を生成する。例えば、生成部134は、所定空間が仮想空間である場合には当該仮想空間に対し、受付部133が追加、変更、又は移動を受け付けたオブジェクトを、受付部133が受け付けた状態に配置する。また、生成部134は、所定空間が実空間である場合には当該実空間を模した仮想空間に対し、受付部133が追加、変更、又は移動を受け付けたオブジェクトを、受付部133が受け付けた状態に配置する。 Then, the generation unit 134 generates changed sound information indicating the sound when the sound is collected at the specified position in a state in which the position of at least one of the one or more sound sources has been changed and the object accepted by the reception unit 133 has been added or moved to the specified space. For example, when the specified space is a virtual space, the generation unit 134 places the object that the reception unit 133 has accepted for addition, change, or movement in the virtual space in the state accepted by the reception unit 133. Furthermore, when the specified space is a real space, the generation unit 134 places the object that the reception unit 133 has accepted for addition, change, or movement in the virtual space that imitates the real space in the state accepted by the reception unit 133.

そして、生成部134は、当該仮想空間において、一以上の音源の少なくともいずれかの位置が変更された状態における変更後音情報を生成する。このようにすることで、ユーザは、オブジェクトにより所定のイベントの音響状態が変化したときのイベント内の音を聴くことができる。 Then, the generation unit 134 generates changed sound information in the virtual space in a state where the position of at least one of the one or more sound sources has been changed. In this way, the user can hear the sound in the event when the acoustic state of the specified event has been changed by the object.

[情報処理装置1による効果]
以上説明したように、本実施の形態に係る情報処理装置1は、仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報に基づいて、所定空間における一以上の音源の位置を特定し、所定空間において一以上の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成して出力する。このようにすることで、情報処理装置1は、イベント会場において集音した音を調整することができる。
[Effects of information processing device 1]
As described above, the information processing device 1 according to the present embodiment identifies the positions of one or more sound sources in a predetermined space based on sound information indicating sounds collected at an event held in a predetermined space, which may be a virtual space or a real space, and generates and outputs changed sound information indicating sounds collected when the positions of at least one of the one or more sound sources in the predetermined space are changed. In this way, the information processing device 1 can adjust the sounds collected at the event venue.

なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。 Furthermore, this invention will make it possible to contribute to Goal 9 of the United Nations' Sustainable Development Goals (SDGs), which is "Build resilient infrastructure, promote inclusive and sustainable industrialization, and promote innovation and infrastructure."

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist of the invention. For example, all or part of the device can be configured by distributing or integrating functionally or physically in any unit. In addition, new embodiments resulting from any combination of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment resulting from the combination also has the effect of the original embodiment.

1 情報処理装置
11 通信部
12 記憶部
13 制御部
131 取得部
132 特定部
133 受付部
134 生成部
135 出力部
REFERENCE SIGNS LIST 1 Information processing device 11 Communication unit 12 Storage unit 13 Control unit 131 Acquisition unit 132 Identification unit 133 Reception unit 134 Generation unit 135 Output unit

Claims (16)

仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得する取得部と、
前記取得部が取得した前記音情報に基づいて、前記所定空間における一以上の音源の位置を特定する特定部と、
前記音情報を用いて、前記所定空間において前記一以上の音源の少なくともいずれかの位置と、前記一以上の音源の少なくともいずれかの向きとを変更した場合に集音したときの音を示す変更後音情報を生成する生成部と、
前記生成部が生成した前記変更後音情報を出力する出力部と、
を有する情報処理装置。
an acquisition unit that acquires sound information indicating sounds collected at an event held in a predetermined space, which is a virtual space or a real space;
an identification unit that identifies positions of one or more sound sources in the predetermined space based on the sound information acquired by the acquisition unit;
A generator that uses the sound information to generate changed sound information indicating a sound collected when at least one position of the one or more sound sources and at least one orientation of the one or more sound sources are changed in the predetermined space; and
an output unit that outputs the changed sound information generated by the generation unit;
An information processing device having the above configuration.
仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得する取得部と、
前記取得部が取得した前記音情報に基づいて、前記所定空間における複数の音源の位置を特定する特定部と、
前記音情報を用いて、前記所定空間において前記複数の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成する生成部と、
前記生成部が生成した前記変更後音情報を視聴用装置に出力する出力部と、
を有し、
前記生成部は、前記特定部が特定した複数の音源のうち、前記視聴用装置を使用するユーザが好む音源を特定し、特定した音源の位置を変更した場合に対応する前記変更後音情報を生成する、
情報処理装置。
an acquisition unit that acquires sound information indicating sounds collected at an event held in a predetermined space, which is a virtual space or a real space;
an identification unit that identifies positions of a plurality of sound sources in the predetermined space based on the sound information acquired by the acquisition unit;
a generation unit that generates, using the sound information, changed sound information indicating a sound collected when a position of at least one of the plurality of sound sources in the predetermined space is changed; and
an output unit that outputs the changed sound information generated by the generation unit to a listening device;
having
The generating unit identifies a sound source preferred by a user of the listening device from among the plurality of sound sources identified by the identifying unit, and generates the changed sound information corresponding to a case where a position of the identified sound source is changed.
Information processing device.
前記取得部は、前記イベントにおいて撮像された映像を取得し、
前記出力部は、前記生成部が前記変更後音情報を生成する前の前記音情報と前記映像とを前記ユーザが音及び映像を視聴するための前記視聴用装置に出力し、
前記取得部は、前記ユーザが前記映像を視認したときに前記ユーザが視認した位置を示す視認位置情報を取得し、
前記生成部は、前記取得部が取得した前記視認位置情報に基づいて、前記ユーザが好む音源を特定する、
請求項2に記載の情報処理装置。
The acquisition unit acquires video captured at the event,
the output unit outputs the sound information and the video before the generation unit generates the changed sound information to the viewing device for the user to view the sound and the video;
The acquisition unit acquires viewing position information indicating a position where the user viewed the video when the user viewed the video,
The generation unit identifies a sound source preferred by the user based on the visual recognition position information acquired by the acquisition unit.
The information processing device according to claim 2 .
前記生成部は、前記所定空間における複数の音源の位置に偏りがあるかを判定し、偏りがあると判定すると、偏りを抑制するように複数の音源の位置を変更した場合に対応する前記変更後音情報を生成する、
請求項1又は2に記載の情報処理装置。
The generation unit determines whether there is a bias in positions of the plurality of sound sources in the predetermined space, and when it determines that there is a bias, generates the changed sound information corresponding to a case where the positions of the plurality of sound sources are changed so as to suppress the bias.
3. The information processing device according to claim 1 or 2.
前記生成部は、前記所定空間における前記音情報の取得位置である所定位置に対する、前記所定空間における歓声に対応する複数の音源の位置に偏りがあると判定すると、偏りが抑制されるように複数の音源の位置を変更した場合に対応する前記変更後音情報を生成する、
請求項1又は2に記載の情報処理装置。
When the generation unit determines that there is a bias in positions of a plurality of sound sources corresponding to cheers in the specified space with respect to a predetermined position that is an acquisition position of the sound information in the specified space, the generation unit generates the changed sound information corresponding to a case where the positions of the plurality of sound sources are changed so as to suppress the bias.
3. The information processing device according to claim 1 or 2.
位置を変更する音源の選択を受け付ける受付部をさらに有し、
前記生成部は、前記受付部が選択を受け付けた音源の位置を変更した場合に対応する前記変更後音情報を生成する、
請求項1又は2に記載の情報処理装置。
A reception unit is further provided for receiving a selection of a sound source whose position is to be changed,
The generating unit generates the changed sound information corresponding to a case where a position of the sound source selected by the receiving unit is changed.
3. The information processing device according to claim 1 or 2.
前記受付部は、前記変更後音情報の出力先である視聴用装置を使用するユーザから、位置を変更する音源の選択を受け付ける、
請求項6に記載の情報処理装置。
the receiving unit receives a selection of a sound source whose position is to be changed from a user of a listening device that is an output destination of the changed sound information;
The information processing device according to claim 6.
前記受付部は、前記イベントの開催者から、位置を変更する音源の選択を受け付ける、
請求項6に記載の情報処理装置。
the reception unit receives, from a host of the event, a selection of a sound source whose position is to be changed;
The information processing device according to claim 6.
前記受付部は、位置を変更する音源の変更後の位置を受け付け、
前記生成部は、前記受付部が選択を受け付けた音源の位置を、前記受付部が受け付けた変更後の位置に変更した場合に対応する前記変更後音情報を生成する、
請求項6に記載の情報処理装置。
The receiving unit receives a position after the change of the sound source whose position is to be changed,
The generating unit generates the changed sound information corresponding to a case where the position of the sound source selected by the receiving unit is changed to the changed position received by the receiving unit.
The information processing device according to claim 6.
前記受付部は、前記所定空間のうち、予め定められた範囲内で、前記音源の変更後の位置を受け付ける、
請求項9に記載の情報処理装置。
The receiving unit receives the position of the sound source after the change within a predetermined range in the specified space.
The information processing device according to claim 9.
前記生成部は、前記所定空間に音響を変化させるオブジェクトを追加又は移動した状態において集音したときの音を示す前記変更後音情報を生成する、
請求項1又は2に記載の情報処理装置。
The generation unit generates the changed sound information indicating a sound collected when an object that changes sound is added or moved to the specified space.
3. The information processing device according to claim 1 or 2.
前記所定空間は仮想空間であり、
前記取得部は、前記所定空間に存在する、音を発生するオブジェクトの位置を示すオブジェクト位置情報を取得し、
前記特定部は、前記取得部が取得した前記音情報と前記オブジェクト位置情報とに基づいて、一以上の音源の位置を特定する、
請求項1又は2に記載の情報処理装置。
The predetermined space is a virtual space,
the acquisition unit acquires object position information indicating a position of an object that is present in the predetermined space and that generates a sound,
The identification unit identifies positions of one or more sound sources based on the sound information and the object position information acquired by the acquisition unit.
3. The information processing device according to claim 1 or 2.
前記取得部は、前記所定空間の所定位置において集音された前記音情報を取得し、
前記生成部は、前記所定位置において集音したときの音を示す前記変更後音情報を生成する、
請求項1又は2に記載の情報処理装置。
The acquisition unit acquires the sound information collected at a predetermined position in the predetermined space,
The generation unit generates the changed sound information indicating a sound when the sound is collected at the predetermined position.
3. The information processing device according to claim 1 or 2.
前記所定空間において集音する集音位置を受け付ける受付部を有し、
前記生成部は、前記受付部が受け付けた前記集音位置において集音したときの音を示す前記変更後音情報を生成する、
請求項1又は2に記載の情報処理装置。
A reception unit that receives a sound collection position in the predetermined space,
The generation unit generates the changed sound information indicating a sound when the sound is collected at the sound collection position accepted by the acceptance unit.
3. The information processing device according to claim 1 or 2.
コンピュータが実行する、
仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得するステップと、
取得した前記音情報に基づいて、前記所定空間における一以上の音源の位置を特定するステップと、
前記音情報を用いて、前記所定空間において前記一以上の音源の少なくともいずれかの位置と、前記一以上の音源の少なくともいずれかの向きとを変更した場合に集音したときの音を示す変更後音情報を生成するステップと、
が生成した前記変更後音情報を出力するステップと、
を有する情報処理方法。
The computer executes
acquiring sound information indicating sounds collected at an event held in a predetermined space, which is a virtual space or a real space;
Identifying positions of one or more sound sources in the predetermined space based on the acquired sound information;
generating, using the sound information, changed sound information indicating a sound collected when at least one position of the one or more sound sources and at least one orientation of the one or more sound sources are changed in the predetermined space;
outputting the modified sound information generated by
An information processing method comprising the steps of:
コンピュータが実行する、
仮想空間又は実空間である所定空間において開催されたイベントにおいて集音された音を示す音情報を取得するステップと、
取得した前記音情報に基づいて、前記所定空間における複数の音源の位置を特定するステップと、
前記音情報を用いて、前記所定空間において前記複数の音源の少なくともいずれかの位置を変更した場合に集音したときの音を示す変更後音情報を生成するステップと、
が生成した前記変更後音情報を視聴用装置に出力するステップと、
を有し、
前記生成するステップにおいて、前記コンピュータは、特定した複数の音源のうち、前記視聴用装置を使用するユーザが好む音源を特定し、特定した音源の位置を変更した場合に対応する前記変更後音情報を生成する、
情報処理方法。
The computer executes
acquiring sound information indicating sounds collected at an event held in a predetermined space, which is a virtual space or a real space;
Identifying positions of a plurality of sound sources in the predetermined space based on the acquired sound information;
generating, using the sound information, changed sound information indicating a sound collected when a position of at least one of the plurality of sound sources is changed in the predetermined space;
outputting the generated changed sound information to a listening device;
having
In the generating step, the computer identifies a sound source preferred by a user of the listening device from among the identified multiple sound sources, and generates the changed sound information corresponding to a case where a position of the identified sound source is changed.
Information processing methods.
JP2024205528A 2024-11-26 2024-11-26 Information processing device and information processing method Active JP7678211B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024205528A JP7678211B1 (en) 2024-11-26 2024-11-26 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024205528A JP7678211B1 (en) 2024-11-26 2024-11-26 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP7678211B1 true JP7678211B1 (en) 2025-05-15

Family

ID=95694153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024205528A Active JP7678211B1 (en) 2024-11-26 2024-11-26 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP7678211B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039140A (en) * 2012-08-15 2014-02-27 Fujitsu Ltd Estimation program, estimation device and estimation method
JP2019511148A (en) * 2016-02-04 2019-04-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. Techniques for pointing audio in augmented reality systems
JP2020167471A (en) * 2019-03-28 2020-10-08 キヤノン株式会社 Information processing equipment, information processing methods, and programs
JP2022034041A (en) * 2016-09-20 2022-03-02 ソニーグループ株式会社 Information processing equipment and information processing methods and programs
WO2022113394A1 (en) * 2020-11-27 2022-06-02 ヤマハ株式会社 Live data delivering method, live data delivering system, live data delivering device, live data reproducing device, and live data reproducing method
JP2023078689A (en) * 2021-11-26 2023-06-07 株式会社ニコン Sound information recording device, sound information recording reproducing system, and sound information recording method
JP2024172483A (en) * 2023-05-31 2024-12-12 株式会社ジェーシービー PROGRAM AND INFORMATION PROCESSING APPARATUS

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039140A (en) * 2012-08-15 2014-02-27 Fujitsu Ltd Estimation program, estimation device and estimation method
JP2019511148A (en) * 2016-02-04 2019-04-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. Techniques for pointing audio in augmented reality systems
JP2022034041A (en) * 2016-09-20 2022-03-02 ソニーグループ株式会社 Information processing equipment and information processing methods and programs
JP2020167471A (en) * 2019-03-28 2020-10-08 キヤノン株式会社 Information processing equipment, information processing methods, and programs
WO2022113394A1 (en) * 2020-11-27 2022-06-02 ヤマハ株式会社 Live data delivering method, live data delivering system, live data delivering device, live data reproducing device, and live data reproducing method
JP2023078689A (en) * 2021-11-26 2023-06-07 株式会社ニコン Sound information recording device, sound information recording reproducing system, and sound information recording method
JP2024172483A (en) * 2023-05-31 2024-12-12 株式会社ジェーシービー PROGRAM AND INFORMATION PROCESSING APPARATUS

Similar Documents

Publication Publication Date Title
JP2022163173A (en) Distributed Audio Capture Techniques for Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR) Systems
EP2743917B1 (en) Information system, information reproducing apparatus, information generating method, and storage medium
US12288546B2 (en) Live data distribution method, live data distribution system, and live data distribution apparatus
US20250280254A1 (en) Live data distribution method, live data distribution system, and live data distribution apparatus
JP2025038170A (en) Distribution System
JP6951610B1 (en) Speech processing system, speech processor, speech processing method, and speech processing program
US11985380B2 (en) Video output method and video output apparatus
JP7678211B1 (en) Information processing device and information processing method
US20240129669A1 (en) Distribution system, sound outputting method, and non-transitory computer-readable recording medium
JP7344610B2 (en) Management server
JP6664456B2 (en) Information processing system, control method therefor, and computer program
JP7581714B2 (en) Sound signal processing method and sound signal processing device
JP2024149165A (en) Image processing device, control method, and program
CN118202669A (en) Information processing device, information processing method, and program
CN117121096A (en) Live broadcast transmission device, live broadcast transmission method
WO2022208609A1 (en) Distribution system, distribution method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20241126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250501

R150 Certificate of patent or registration of utility model

Ref document number: 7678211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150