KR101679570B1 - Image display apparatus and method for operating the same - Google Patents
Image display apparatus and method for operating the same Download PDFInfo
- Publication number
- KR101679570B1 KR101679570B1 KR1020100091832A KR20100091832A KR101679570B1 KR 101679570 B1 KR101679570 B1 KR 101679570B1 KR 1020100091832 A KR1020100091832 A KR 1020100091832A KR 20100091832 A KR20100091832 A KR 20100091832A KR 101679570 B1 KR101679570 B1 KR 101679570B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth
- audio signal
- signal
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
본 발명은 영상표시기기 및 그 동작 방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시기기의 동작방법은,3D 영상을 입력받는 단계와, 3D 영상의 깊이를 검출하는 단계와, 검출된 깊이에 대응하여, 3D 영상과 동기되어 입력되는 오디오 신호의 음상 정위를 제어하는 단계를 포함한다. 이에 의해, 사용자는 3D 영상 표시시 깊이에 대응하여 오디오 신호를 출력할 수 있게 된다. The present invention relates to an image display apparatus and an operation method thereof. According to an embodiment of the present invention, there is provided a method of operating an image display device, including: receiving a 3D image; detecting a depth of the 3D image; detecting a depth of the 3D image; And controlling the sound phase localization. Thus, the user can output an audio signal corresponding to the depth of 3D image display.
Description
본 발명은 영상표시장치 그 동작방법에 관한 것이며, 더욱 상세하게는 3D 영상 표시시 깊이에 대응하여 오디오 신호를 출력할 수 있는 영상표시장치 또는 영상표시방법에 관한 것이다.BACKGROUND OF THE
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다. A video display device is a device having a function of displaying an image that a user can view. The user can view the broadcast through the video display device. A video display device displays a broadcast selected by a user among broadcast signals transmitted from a broadcast station on a display. Currently, broadcasting is changing from analog broadcasting to digital broadcasting around the world.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다. Digital broadcasting refers to broadcasting in which digital video and audio signals are transmitted. Compared to analog broadcasting, digital broadcasting is strong against external noise and has a small data loss, is advantageous for error correction, has a high resolution, and provides a clear screen. Also, unlike analog broadcasting, digital broadcasting is capable of bidirectional service.
또한 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다. In addition, various studies on stereoscopic images have been conducted recently, and stereoscopic image technology has become more common and practical in various other environments and technologies as well as computer graphics.
본 발명의 목적은, 3D 영상 표시시 깊이에 대응하여 오디오 신호를 출력할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.An object of the present invention is to provide an image display apparatus and an operation method thereof capable of outputting an audio signal corresponding to a depth of a 3D image display.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 방법은, 3D 영상을 입력받는 단계와, 3D 영상의 깊이를 검출하는 단계와, 검출된 깊이에 대응하여, 3D 영상과 동기되어 입력되는 오디오 신호의 음상 정위를 제어하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating an image display device, the method including receiving a 3D image, detecting a depth of the 3D image, And controlling the sound image localization of the input audio signal.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 방법은, 3D 영상을 입력받는 단계와, 3D 영상의 깊이를 검출하는 단계와, 검출된 깊이에 대응하여, 3D 영상과 동기되어 입력되는 오디오 신호의 음상 정위 제어, 오디오 신호의 위상 조정, 또는 오디오 신호의 게인 조정 중 적어도 하나를 수행하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating a video display device including receiving a 3D image, detecting a depth of the 3D image, Performing phase control of the audio signal, adjusting the phase of the audio signal, or adjusting the gain of the audio signal.
또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 영상을 표시하는 디스플레이와, 오디오 신호를 출력하는 오디오 출력부와, 입력되는 3D 영상의 깊이에 대응하여, 3D 영상과 동기되어 입력되는 오디오 신호의 음상 정위를 제어하며, 음상 정위된 오디오 신호를 출력하도록 제어하는 제어부를 포함한다. According to another aspect of the present invention, there is provided an image display apparatus including: a display for displaying an image; an audio output unit for outputting an audio signal; And a control unit for controlling the sound phase position of the synchronized input audio signal and outputting the audio signal phase-shifted.
본 발명의 실시예에 따르면, 3D 영상 표시시, 깊이에 대응하여 오디오 신호를 음상 정위, 위상 조정 또는 게인 조정함으로써, 입체 음향을 출력할 수 있게 된다. 이에 의해 사용자의 이용 편의성이 증대된다.According to the embodiment of the present invention, stereoscopic sound can be outputted by adjusting the image position, phase adjustment or gain of the audio signal corresponding to the depth in 3D image display. This increases the usability of the user.
또한, 3D 영상 내의 오브젝트가 복수인 경우, 각 깊이의 평균을 이용하여 오디오 신호를 3D 신호 처리함으로써, 실감나는 입체 음향을 제공할 수 있게 된다.In addition, when there are a plurality of objects in the 3D image, the 3D signal processing of the audio signal using the average of the depths can provide realistic stereo sound.
또한, 3D 영상 내의 오브젝트가 복수인 경우, 개개의 깊이에 따라, 각 오브젝트에 대응하는 오디오 신호를 3D 신호 처리함으로써, 실감나는 입체 음향을 제공할 수 있게 된다.In addition, when a plurality of objects in the 3D image are processed, 3D signals are processed for the audio signals corresponding to the individual depths, thereby realizing realistic stereo sound.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 2는 도 1의 제어부의 내부 블록도이다.
도 3은 도 2의 영상 디코더의 내부 블록도이다.
도 4는 도 2의 오디오 처리부의 내부 블록도이다.
도 5는 3D 영상의 다양한 포맷을 보여주는 도면이다.
도 6은 도 5의 포맷에 따라 안경 타입의 추가 디스플레이의 동작을 보여주는 도면이다.
도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이다.
도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다.
도 9는 본 발명의 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이다.
도 10 내지 도 14는 도 9의 영상표시장치의 동작 방법의 다양한 예 설명하기 위해 참조되는 도면이다.1 is an internal block diagram of an image display apparatus according to an embodiment of the present invention.
2 is an internal block diagram of the control unit of FIG.
3 is an internal block diagram of the video decoder of FIG.
4 is an internal block diagram of the audio processing unit of FIG.
5 is a view showing various formats of a 3D image.
6 is a diagram showing the operation of an additional display of glasses type according to the format of FIG.
Fig. 7 is a view for explaining how images are formed by the left eye image and the right eye image.
8 is a view for explaining the depth of the 3D image according to the interval between the left eye image and the right eye image.
9 is a flowchart illustrating an operation method of an image display apparatus according to an embodiment of the present invention.
Figs. 10 to 14 are drawings referred to explain various examples of the operation method of the video display device of Fig.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in detail with reference to the drawings.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다. 1 is an internal block diagram of an image display apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너(110), 복조부(120), 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 디스플레이(180), 오디오 출력부(185), 및 3D 시청장치(195)를 포함할 수 있다.1, an
튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the selected RF broadcast signal is an analog broadcast signal, it is converted into an analog baseband image or voice signal (CVBS / SIF). That is, the
또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. Also, the
한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. In the present invention, the
복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(7-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.For example, when the digital IF signal output from the
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For example, when the digital IF signal output from the
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.Meanwhile, the demodulating
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다. The stream signal output from the
외부장치 인터페이스부(130)는, 접속된 외부 장치(190)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external
외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치(190)와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(130)는 접속된 외부 장치(190)를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다. The A / V input / output unit includes a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), a DVI (Digital Visual Interface) terminal, an HDMI (High Definition Multimedia Interface) terminal, an RGB terminal, a D-SUB terminal, and the like.
무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다. The wireless communication unit can perform short-range wireless communication with other electronic devices. The
또한, 외부장치 인터페이스부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다. Also, the external
한편, 외부장치 인터페이스부(130)는, 3D 시청장치(195)와 데이터를 송수신할 수 있다. On the other hand, the external
네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(135)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다. The
네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 인터넷, 컨텐츠 제공자 등으로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다. The
또한, 네트워크 인터페이스부(135)는, 예를 들어, IP(internet Protocol) TV와 접속되어, 양방향 통신이 가능하도록, IPTV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 수신하여 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IPTV용 셋탑 박스로 전달할 수 있다.The
한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.Meanwhile, the IPTV may include ADSL-TV, VDSL-TV, FTTH-TV and the like depending on the type of the transmission network. The IPTV may include a TV over DSL, a video over DSL, a TV over IP BTV), and the like. In addition, IPTV may also mean an Internet TV capable of accessing the Internet, or a full browsing TV.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The
또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the
저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.The
도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다. 1 shows an embodiment in which the
사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user
예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. For example, the user
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다.For example, the user
또한, 예를 들어, 사용자입력 인터페이스부(150)는, 사용자의 제스처를 센싱하는 센싱부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센싱부(미도시)로 송신할 수 있다. 여기서, 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다. For example, the user
제어부(170)는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The video signal processed by the
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The audio signal processed by the
도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 2를 참조하여 후술한다.Although not shown in FIG. 1, the
그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. In addition, the
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. In addition, the
예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다. For example, the
다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(130)를 통하여 입력되는 외부 장치(190), 예를 들어, 카메라 또는 캠코더로부터의 영상 신호 또는 음성 신호가 디스플레이(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다. The
한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(130)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부(135)를 통해 입력되는 영상 또는 저장부(140)에 저장된 영상을 디스플레이(180)에 표시하도록 제어할 수 있다. Meanwhile, the
이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.At this time, the image displayed on the
한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 중에, 소정 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 한다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다. On the other hand, the
이러한 3D 오브젝트는, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다. Such a 3D object may be processed to have a different depth than the image displayed on the
한편, 제어부(170)는, 촬영부(미도시)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식한다. 예를 들어, 사용자와 영상표시장치(100)간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.On the other hand, the
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다. 이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다. Although not shown in the drawing, a channel browsing processing unit for generating a channel signal or a thumbnail image corresponding to an external input signal may be further provided. The channel browsing processing unit receives the stream signal TS output from the
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. The
디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이(3D display)가 가능한 것이 바람직하다. The
3차원 영상 시청을 위해 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.The
단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경(glass) 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다. The single display method can implement a 3D image only on the
한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 추가 디스플레이를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 다시 나뉠 수 있다. 한편, 헤드 마운트 디스플레이 타입에서도 패시브 방식과 액티브 방식으로 나뉠 수 있다.Meanwhile, the additional display method can implement a 3D image using an additional display in addition to the
본 발명의 실시에에서는, 입체 영상 시청을 위해, 3D용 추가 디스플레이(195)로 3D용 글래스를 중심으로 기술한다. 3D용 글래스(195)는, 패시브 방식의 편광 글래스 또는 액티브 방식의 셔트 글래스를 포함할 수 있으며, 상술한 헤드 마운트 타입도 포함하는 개념으로 기술된다. In the practice of the present invention, 3D glasses are mainly described by an
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.Meanwhile, the
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.The
한편, 사용자의 제스처를 감지하기 위해, 상술한 바와 같이, 터치 센서, 음성 센서, 위치 센서, 동작 센서 중 적어도 하나를 구비하는 센싱부(미도시)가 영상표시장치(100)에 더 구비될 수 있다. 센싱부(미도시)에서 감지된 신호는 사용자입력 인터페이스부(150)를 통해 제어부(170)로 전달된다. In order to detect a user's gesture, a sensing unit (not shown) having at least one of a touch sensor, a voice sensor, a position sensor, and an operation sensor may be further provided in the
제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센싱부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수 있다. The
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.The
상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(7-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.The
한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.Meanwhile, the video display device described in the present specification can be applied to a TV set, a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) .
한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the block diagram of the
도 2는 도 1의 제어부의 내부 블록도이고, 도 3은 도 2의 영상 디코더의 내부 블록도이며, 도 4는 도 2의 오디오 처리부의 내부 블록도이고, 도 5는 3D 영상의 다양한 포맷을 보여주는 도면이며, 도 6은 도 5의 포맷에 따라 안경 타입의 추가 디스플레이의 동작을 보여주는 도면이다.2 is an internal block diagram of the controller of FIG. 1, FIG. 3 is an internal block diagram of the video decoder of FIG. 2, FIG. 4 is an internal block diagram of the audio processor of FIG. 2, Fig. 6 is a view showing the operation of an additional display of glasses type according to the format of Fig. 5; Fig.
도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(210), 영상 처리부(220), OSD 생성부(240), 믹서(245), 프레임 레이트 변환부(250), 및 포맷터(260)를 포함할 수 있다. 그 외 오디오 처리부(230), 데이터 처리부(미도시)를 더 포함할 수 있다.The
역다중화부(210)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(210)에 입력되는 스트림 신호는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.The
영상 처리부(220)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(220)는, 영상 디코더(225), 및 스케일러(235)를 구비할 수 있다. The
영상 디코더(225)는, 역다중화된 영상신호를 복호화하며, 스케일러(235)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.The
영상 디코더(225)는 다양한 규격의 디코더를 구비하는 것이 가능하다. 예를 들어, 영상 디코더(225)는, MPEG-2 디코더, H.264 디코더, MPEC-C 디코더(MPEC-C part 3), MVC 디코더, FTV 디코더 중 적어도 하나를 구비할 수 있다. The
도 3은 영상 디코더(220) 내의 3D 영상 신호를 복호화하기 위한 3D 영상 디코더(310)를 예시한다.FIG. 3 illustrates a
3D 영상 디코더(310)로 입력되는 역다중화된 영상 신호는, 예를 들어, MVC (Multi-view Video Coding)로 부호화된 영상 신호이거나, dual AVC로 부호화된 영상 신호이거나, 각각 부호화된 좌안 영상 신호와 우안 영상 신호가 혼합된 신호일 수 있다. The demultiplexed video signal input to the
입력되는 신호가, 상술한 바와 같이 부호화된 좌안 영상 신호와 우안 영상 신호가 혼합된 신호인 경우, 2D 영상 디코더를 그대로 사용할 수 있다. 예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 영상 신호이거나, AVC 규격의 부호화된 영상 신호인 경우, MPEG-2 디코더 또는 AVC 디코더에 의해 복호화될 수 있다. When the input signal is a signal obtained by mixing the left and right eye image signals encoded as described above, the 2D image decoder can be used as it is. For example, if the demultiplexed video signal is an MPEG-2 standard encoded video signal or an AVC-standard encoded video signal, it can be decoded by an MPEG-2 decoder or an AVC decoder.
한편, 3D 영상 디코더(310)는, MVC 디코더로서, 기본 시점 디코더(Base View Decoder)(320)와 확장 시점 디코더(Extended View Decoder)(330)를 구비할 수 있다. Meanwhile, the
예를 들어, 3D 영상 디코더(310)에 입력되는 부호화된 3D 영상 신호 중 확장 시점 영상 신호(Extended View Video)가 MVC로 부호화된 경우, 이를 복호화하기 위해서는, 대응하는 기본 시점 영상 신호(Base View Video)를 복호화해야 한다. 이를위해, 이를 위해, 기본 시점 디코더(320)에서 복호화된 기본 시점 영상 신호가 확장 시점 디코더(330)으로 전달된다. For example, when the extended view video signal (Extended View Video) of the encoded 3D video signal input to the
결국, 3D 영상 디코더(310)에서 출력되는 복호화된 3D 영상 신호는, 확장 시점 디코더(330)의 복호화가 완료될 때까지 소정 딜레이(delay)를 가지게 되며, 결국, 복호화된 기본 시점 영상 신호(Base View Video)와 복호화된 확장 시점 영상 신호(Extended View Video)가 혼합되어 출력되게 된다.As a result, the decoded 3D video signal output from the
또한, 예를 들어, 3D 영상 디코더(310)에 입력되는 부호화된 3D 영상 신호 중 확장 시점 영상 신호(Extended View Video)가 AVC로 부호화된 경우는, 상술한 MVC의 경우와 달리, 확장 시점 영상 신호(Extended View Video)와 기본 시점 영상 신호(Base View Video)가 동시에(parallel) 복호화가 가능하게 된다. 이에 따라, 기본 시점 디코더(320)와 확장 시점 디코더(330)는 독립적으로 복호 동작을 수행하게 된다. 한편, 복호화된 기본 시점 영상 신호(Base View Video)와 복호화된 확장 시점 영상 신호(Extended View Video)가 혼합되어 출력되게 된다.In addition, for example, when the extended view video signal (Extended View Video) of the encoded 3D video signal input to the
한편, 3D 영상 디코더(310)는 도면과 달리, 색차 영상 디코더와 깊이 영상 디코더를 구비하는 것도 가능하다. 즉, 입체 영상이 색차 영상(color image)과, 깊이 영상(depth image)을 구분되어 부호화된 경우, 이를 복호하하기 색차 영상 디코더에서 색차 영상을 복호화하고, 깊이 영상 디코더에서 깊이 영상을 복화하하는 것이 가능하다. 이때, 깊이 영상 복호화를 위해, 색차 영상이 참조 영상으로 사용되는 것도 가능하다. Alternatively, the
한편, 영상 처리부(220)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다. On the other hand, the image signal decoded by the
예를 들어, 외부 장치(190)으로부터 입력되는 외부 영상 신호 또는 튜너(110)에서 수신되는 방송 신호의 방송 영상 신호가, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있으며, 이에 따라, 이후의 제어부(170), 특히 영상 처리부(220) 등에서 신호 처리되어, 각각 2D 영상 신호, 2D 영상 신호와 3D 영상 신호의 혼합 신호, 3D 영상 신호가 출력될 수 있다.For example, when a 2D video signal and a 3D video signal are mixed when an external video signal input from the external device 190 or a broadcasting video signal of a broadcasting signal received from the
한편, 영상 처리부(220)에서 복호화된 영상 신호는, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다. Meanwhile, the image signal decoded by the
여기서, 3D 영상 신호의 포맷은, 도 5와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 5a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 5b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 5c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 5d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 5e) 등일 수 있다.5, the format of the 3D video signal is a side-by-side format (FIG. 5A) in which the left eye image signal L and the right eye image signal R are arranged left and right, A frame sequential format (FIG. 5C) in which time division is arranged (FIG. 5C), an interlaced format in which the left eye image signal and the right eye image signal are mixed line by line 5d), a checker box format (FIG. 5e) in which the left eye image signal and the right eye image signal are mixed box by box, and the like.
OSD 생성부(240)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다. The
믹서(245)는, OSD 생성부(240)에서 생성된 OSD 신호와 영상 처리부(220)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 이때, OSD 신호와 복호화된 영상 신호는 각각 2D 신호 및 3D 신호 중 적어도 하나를 포함할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(250)에 제공된다.The
프레임 레이트 변환부(Frame Rate Conveter, FRC)(250)는, 입력되는 영상의 프레임 레이트를 변환한다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz로 변환한다. 60Hz의 프레임 레이트를 120Hz로 변환하는 경우, 제1 프레임과 제2 프레임 사이에, 동일한 제1 프레임을 삽입하거나, 제1 프레임과 제2 프레임으로부터 예측된 제3 프레임을 삽입하는 것이 가능하다. 60Hz의 프레임 레이트를 240Hz로 변환하는 경우, 동일한 프레임을 3개 더 삽입하거나, 예측된 프레임을 3개 삽입하는 것이 가능하다. A frame rate converter (FRC) 250 converts a frame rate of an input image. For example, a frame rate of 60 Hz is converted to 120 Hz or 240 Hz. When converting the frame rate of 60 Hz to 120 Hz, it is possible to insert the same first frame between the first frame and the second frame, or insert the third frame predicted from the first frame and the second frame. When converting a frame rate of 60 Hz to 240 Hz, it is possible to insert three more identical frames or insert three predicted frames.
한편, 이러한 프레임 레이트 변환부(250)는, 별도의 프레임 레이트 변환 없이, 입력되는 프레임 레이트를 그대로 출력하는 것도 가능하다. 바람직하게는, 2D 영상 신호가 입력되는 경우, 프레임 레이트를 그대로 출력할 수 있다. 한편, 3D 영상 신호가 입력되는 경우, 프레임 레이트를 상술한 바와 같이 가변하는 것이 가능하다.On the other hand, the
포맷터(Formatter)(260)는, 믹서(245)에서 믹싱된 신호, 즉 OSD 신호와 복호화된 영상 신호를 입력받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다.The
한편, 본 명세서에서, 3D 영상 신호는 3D 오브젝트를 포함하는 것을 의미하며, 이러한 오브젝트의 예로는 PIP(picuture in picture) 영상(정지 영상 또는 동영상), 방송 프로그램 정보를 나타내는 EPG, 다양한 메뉴, 위젯, 아이콘, 텍스트, 영상 내의 사물, 인물, 배경, 웹 화면(신문, 잡지 등) 등이 있을 수 있다.In the present specification, a 3D video signal means a 3D object. Examples of the 3D object include a picuture in picture (PIP) image (still image or moving picture), an EPG indicating broadcasting program information, Icons, texts, objects in images, people, backgrounds, web screens (newspapers, magazines, etc.).
한편, 포맷터(260)는, 3D 영상 신호의 포맷을 변경할 수 있다. 예를 들어, 도 5에 예시된 다양한 포맷 중 어느 하나의 포맷으로 변경할 수 있다. 이에 따라, 해당 포맷에 따라, 도 6과 같이, 안경 타입의 추가 디스플레이의 동작이 수행될 수 있다. On the other hand, the
먼저, 도 6(a)는, 포맷터(260)가 도 5의 포맷 중 프레임 시퀀셜 포맷으로 정렬하여 출력하는 경우, 3D 시청장치(195), 특히 셔터 글래스(195)의 동작을 예시한다.6 (a) illustrates the operation of the
즉, 디스플레이(180)에 좌안 영상(L)이 표시된 경우, 셔터 글래스(195)의 좌안 글래스가 개방, 우안 글래스가 닫히는 것을 예시하며, 도 6(b)는, 셔터 글래스(195)의 좌안 글래스가 닫히고, 우안 글래스가 개방되는 것을 예시한다.6 (b) is a view showing that the left eye glass of the
한편, 도 6(b)는, 포맷터(260)가 도 5의 포맷 중 사이드 바이 사이드 포맷으로 정렬하여 출력하는 경우, 3D 시청장치(195), 특히 편광 글래스(195)의 동작을 예시한다. 한편, 도 6(b)에서 적용되는 3D 시청장치(195)는, 셔터 글래스일 수 있으며, 이 때의 셔터 글래스는 좌안 글래스와 우안 글래스 모두가 개방된 상태를 유지하여, 편광 글래스 처럼 동작할 수 있다. 6 (b) illustrates the operation of the
한편, 포맷터(260)는, 2D 영상 신호를 3D 영상 신호로 전환할 수도 있다. 예를 들어, 3D 영상 생성 알고리즘에 따라, 2D 영상 신호 내에서 에지(edge) 또는 선택 가능한 오브젝트를 검출하고, 검출된 에지(edge)에 따른 오브젝트 또는 선택 가능한 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 이때, 생성된 3D 영상 신호는, 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리되어 정렬될 수 있다. Meanwhile, the
한편, 제어부(170) 내의 오디오 처리부(230)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(230)는, 도 4에 예시된 바와 같이, 오디오 디코더(410), 음상 정위부(420), 크로스 토크 저감부(430), 서브밴드 분석부(440), 위상 조정부(450), 게인 조정부(460), 및 서브밴드 합성부(470)를 포함할 수 있다.Meanwhile, the
오디오 디코더(410)는, 다양한 방식으로 부호화된 오디오 신호를 복호화하기 위해, 다양한 디코더를 구비할 수 있다.The
예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 돌비(Dolby) AC-3 규격의 부호화된 음성 신호인 경우, AC-3 디코더에 의해 복호화될 수 있다.For example, if the demultiplexed speech signal is a coded speech signal, it can be decoded. Specifically, when the demultiplexed speech signal is an MPEG-2 standard encoded speech signal, it can be decoded by an MPEG-2 decoder. In addition, if the demultiplexed speech signal is a coded voice signal of the MPEG 4 BSAC (Bit Sliced Arithmetic Coding) standard according to a terrestrial DMB (Digital Multimedia Broadcasting) scheme, it can be decoded by an MPEG 4 decoder. Also, if the demultiplexed speech signal is an encoded audio signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB scheme or DVB-H, it can be decoded by the AAC decoder. If the demultiplexed speech signal is a Dolby AC-3 standard encoded audio signal, it can be decoded by an AC-3 decoder.
음상 정위부(420)는, 입력되는 복호화된 오디오 신호에 대해 음상 정위를 제어한다. 여기서, 음상 정위(Sound image Localization)는, 감각적으로 지각되는 음상의 위치를 의미한다. 예를 들어, 좌, 우 채널의 스테레오 오디오 신호에 대해, 각 채널의 오디오 신호가 동일한 경우, 음상 정위는, 좌측 스피커 및 우측 스피커의 중간일 수 있다. The
음상을 정위시키는 방법은, 예를 들어, 청취자의 각 귀에 도달하는 음성 신호의 위상차(시간 차)와 레벨 비율(음압 레벨 비율)에 기초하여, 음장 공간에서의 특정 위치(특정 방향)에 음원을 느끼게 하도록 할 수 있다.The method of orienting the sound image is a method of locating a sound source at a specific position (specific direction) in a sound field space based on, for example, a phase difference (time difference) of a sound signal reaching each ear of a listener and a level ratio I can make you feel.
이러한 음상 정위 제어를 위해, 본 발명의 실시예에서는, 입력되는 복호화된 오디오 신호에 대해, 머리 전달 함수(Head-Related Transfer Function) 필터링을 사용할 수 있다.For such sound level control, in the embodiment of the present invention, head-related transfer function filtering can be used for the input decoded audio signal.
머리 전달 함수(HRTF)는 임의의 위치를 갖는 음원에서 나오는 음파와 귀의 고막에 도달하는 음파 사이의 전달 함수(transfer function)를 의미하는 것으로, 실제 청취자의 귀 속 또는 사람의 모양을 한 모형의 귀 속에 마이크를 넣고, 특정 각도에 대해 오디오 신호의 임펄스 응답을 측정함으로써 획득할 수 있다. The HRTF refers to a transfer function between a sound wave from a sound source having an arbitrary position and a sound wave reaching the eardrum of the ear, By inserting a microphone into the microphone and measuring the impulse response of the audio signal at a particular angle.
이러한 머리 전달 함수(HRTF)는, 음원의 방위와 고도에 따라 그 값이 달라진다. 또한, 청취자의 머리 모양, 머리 크기 또는 귀의 모양 등과 같은 신체 특성에 의해 달라질 수 있다.Such a head transfer function (HRTF) varies depending on the azimuth and altitude of the sound source. It may also vary depending on physical characteristics such as the listener's head shape, head size or ear shape.
한편, 본 발명의 실시예에서는, 3D 영상의 깊이(depth)에 대응하여, 머리 전달 함수가 가변하는 것으로 한다. 예를 들어, 3D 영상의 깊이에 대응하여 음원의 위치가 가변하는 것으로 가정하고, 해당 깊이에 따른 음원을 기준으로, 각각의 머리 전달 함수를 설정할 수 있다. 즉, 깊이에 따라 머리 전달 함수(HRTF)의 계수가 달라질 수 있다. 또한 주파수 별로 머리 전달 함수(HRTF)의 계수가 달라질 수 있다. 특히, 깊이가 클수록, 또는 깊이의 변화량이 클수록, 고주파 성분이 제거되도록 머리 전달 함수(HRTF)의 계수 조정을 수행할 수 있다. On the other hand, in the embodiment of the present invention, the head transfer function is varied corresponding to the depth of the 3D image. For example, it is assumed that the position of the sound source varies according to the depth of the 3D image, and each of the head transfer functions can be set based on the sound source corresponding to the depth. That is, the coefficient of the head transfer function (HRTF) may vary depending on the depth. Also, the coefficients of the HRTF can be changed by frequency. In particular, the coefficient adjustment of the head transfer function (HRTF) can be performed so that the higher the depth, or the greater the variation in depth, the higher frequency components are removed.
한편, 3D 영상의 깊이에 따른 머리 전달 함수(HRTF) 또는 머리 전달 함수(HRTF)의 계수 정보는, 미리 측정된 것으로서, 저장부(140) 등에 저장될 수 있다.On the other hand, the coefficient information of the HRTF or the HRTF depending on the depth of the 3D image may be stored in the
이와 같이, 3D 영상의 깊이에 따른 머리 전달 함수(HRTF)를 이용한 음상 정위 방법은 공간감이나 현실감과 같은 3차원 효과를 제공할 수 있게 된다. As described above, the sound localization method using the head transfer function (HRTF) according to the depth of the 3D image can provide a three-dimensional effect such as spatial feeling and realism.
한편, 머리 전달 함수(HRTF) 필터링은, 모노 채널 기반으로 수행될 수 있다. 예를 들어, 모노 채널 오디오 신호를, 제1 머리 전달 함수에 대한 임펄스 응답, 및 제2 머리 전달함수에 대한 임펄스 응답과, 각각 컨벌루션하여 좌측 오디오 신호 및 우측 오디오 신호를 생성할 수 있다. 이에 따라, 음상 정위를 수행할 수 있다. On the other hand, HRTF filtering can be performed on a mono channel basis. For example, a mono channel audio signal may be convoluted with an impulse response to a first head transfer function and an impulse response to a second head transfer function, respectively, to generate a left audio signal and a right audio signal. As a result, sound image localization can be performed.
한편, 다채널의 오디오 신호가 입력되는 경우, 각 채널 별로 각각 머리 전달 함수(HRTF) 필터링을 수행하고, 각각 좌측 오디오 신호 및 우측 오디오 신호를 생성하며, 최종적으로 이를 합산하여 출력할 수 있다. On the other hand, when a multi-channel audio signal is input, HRTF filtering is performed for each channel, and a left audio signal and a right audio signal are generated, respectively, and finally, they are summed and output.
크로스 토크 저감부(cross-talk canceller)(430)는, 음상 정위 제어된 오디오 신호의 크로스 토크 저감을 위한 신호 처리를 수행한다. 즉, 왼쪽 귀에 도달하도록 연산 처리되어 발신된 음이 오른쪽 귀에도 도달하여 가상 음원의 방향을 인식할 수 없게 되는 것(크로스 토크 현상)을 방지하기 위하여, 이를 지우기 위한 부가 오디오 신호를 발신할 수 있다.The
예를 들어, 크로스 토크 저감부(430)는, 우측 채널의 오디오 신호 및 좌측 채널의 오디오 신호의 차이 신호에 대해서 지연 시간을 가진 다수의 잔향 성분을 부가할 수도 있다. For example, the
이에 따라, 크로스 토크 저감부(430)를 통과한 좌측 오디오 신호와 우측 오디오 신호는 청취자의 해당 귀(좌측귀, 우측귀)에만 들리게 된다.Accordingly, the left audio signal and the right audio signal that have passed through the
한편, 크로스 토크 저감을 위한 신호 처리는, 시간 영역을 기반으로 수행되나 이에 한정되지 않고, 주파수 영역을 기반으로 수행되는 것도 가능하다. On the other hand, the signal processing for crosstalk reduction is performed based on the time domain, but it is not limited thereto, and it is also possible to perform based on the frequency domain.
한편, 크로스 토크 저감부(430)는 선택적으로 구비되는 것도 가능하다. 즉, 영상 정위부(420)으로부터 출력되는 좌측 오디오 신호와 우측 오디오 신호를 바로 서브 밴드 분석부(440)로 입력시키는 것도 가능하다.On the other hand, the
서브밴드 분석부(subband analysis unit)(440)는, 음상 정위 제어된 오디오 신호를 서브 밴드 분석 필터링한다. 즉, 서브 밴드 분석 필터 뱅크를 구비하여, 음상 정위 제어된 오디오 신호를 주파수 신호로 변환시킨다. 서브 밴드 분석부(440)에서 필터링된 오디오 신호의 서브 밴드는 32개의 서브 밴드 또는 64개의 서브 밴드일 수 있다.The
이와 같이 주파수 대역 별로 구분된 오디오 신호는 이하의 위상 조정부(450), 및 게인 조정부(460)에서 주파수 대역 별로, 또는 주파수 대역 그룹별로 위상 조정 또는 게인 조정이 수행될 수 있다.The audio signal classified by the frequency bands can be subjected to phase adjustment or gain adjustment for each frequency band or for each frequency band group in the following
위상 조정부(frequency dependent phase controller)(450)는, 대역별로 분리된 주파수 대역별로 위상(phase)을 조정한다. 이러한 위상 조정은, 검출된 깊이 정보 또는 깊이의 변화량에 기반하여 수행될 수 있다. 검출된 깊이가 클수록 또는 깊이의 변화량이 클수록, 위상을 증가시키는 것이 바람직하다. 위상 증가시 상한치까지 증가시키는 것이 가능하다. 한편, 깊이가 거의 없는 경우 또는 깊이의 변화량이 거의 없는 경우, 즉 소정치 미만인 경우, 위상 조정은 수행되지 않을 수 있다.A frequency
예를 들어, 소정 주파수의 오디오 신호의 위상을 180도 증가시킨 경우, 해당 오디오 신호는 사용자 방향으로 더 돌출되어 출력되는 것으로 파악될 수 있다. For example, when the phase of an audio signal of a predetermined frequency is increased by 180 degrees, it can be understood that the audio signal is further projected in the user direction.
위상 조정 방법은, 다양한 방법으로 수행될 수 있다. 예를 들어, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 부호를 바꾸거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 부호를 바꾸거나, 모든 주파수 대역에서 각각 독립적으로 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 위상을 조절할 수 있다. The phase adjustment method can be performed in various ways. For example, it is possible to change the sign between channels by dividing the band or band only for a certain frequency range, to change the sign between channels by grouping them for a specific frequency range, to adjust the phase between the channels independently in all frequency bands, You can adjust the phase between channels by dividing bands or bands for specific frequency ranges, or you can group them for specific frequency ranges to adjust the phase between channels.
또한, 깊이가 클수록, 또는 깊이의 변화량이 클수록, 고주파 성분이 제거되도록 위상 조정을 수행할 수 있다. Further, the phase adjustment can be performed such that the higher the depth or the larger the variation in depth, the higher the frequency components are removed.
한편, 깊이에 따른 위상 조정은, 3D 영상 내의 평균 깊이 또는 최대 깊이를 기반으로 수행될 수 있다. 예를 들어, 3D 영상 내의 3D 오브젝트가 복수개인 경우, 해당 3D 오브젝트의 깊이의 평균 깊이를 연산하고, 이러한 평균 깊이를 기반으로 위상 조정을 수행하거나, 복수의 3D 오브젝트 깊이 중 사용자 방향으로 최대로 돌출되는 최대 3D 깊이를 기준으로 위상 조정을 수행할 수 있다.On the other hand, the phase adjustment according to the depth can be performed based on the average depth or the maximum depth in the 3D image. For example, when there are a plurality of 3D objects in the 3D image, the average depth of the corresponding 3D object is calculated, the phase adjustment is performed based on the average depth, or the maximum of the plurality of 3D object depths Lt; RTI ID = 0.0 > 3D < / RTI > depth.
게인 조정부(frequency dependent gain controller)(460)는, 대역별로 분리된 주파수 대역별로 게인(gain)을 조정한다. 이러한 게인 조정은, 검출된 깊이 정보 또는 깊이의 변화량에 기반하여 수행될 수 있다. 검출된 깊이가 클수록 또는 깊이의 변화량이 클수록, 게인을 증가시키는 것이 바람직하다. The frequency
예를 들어, 검출된 깊이가 2배로 커지는 경우, 게인은 4배로 증가시킬 수 있으며, 검출된 깊이가 4배로 커지는 경우, 게인은 8배로 증가시킬 수 있다. 이에 깊이에 오디오 신호의 줌밍(zooming) 하고자 하는 대역을 강조할 수 있게 된다.For example, if the detected depth is doubled, the gain can be increased by a factor of four, and if the detected depth is increased by four, the gain can be increased by eight. Accordingly, a band for zooming of an audio signal can be emphasized.
게인 조정 방법은, 다양한 방법으로 수행될 수 있다. 예를 들어, 모든 주파수 대역에서 각각 독립적으로 게인을 조절 하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 게인을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 그룹별로 게인을 조절할 수 있다. The gain adjustment method can be performed in various ways. For example, gain can be adjusted independently for all frequency bands, gain can be adjusted by dividing bands or bands only for specific frequency ranges, or groups can be grouped for specific frequency ranges to control gain for each group.
예를 들어, 주파수 대역이 1000Hz 내지 4000Hz인 경우 게인을 조정하고 그 외의 주파수 대역에서는 게인 조정을 하지 않을 수 있다. For example, if the frequency band is 1000 Hz to 4000 Hz, the gain can be adjusted and the gain can not be adjusted in other frequency bands.
또한, 깊이가 클수록, 또는 깊이의 변화량이 클수록, 고주파 성분이 제거되도록 게인 조정을 수행할 수 있다. In addition, the gain adjustment can be performed such that the higher the depth or the greater the variation in depth, the higher the frequency components are removed.
한편, 깊이에 따른 게인 조정은, 3D 영상 내의 평균 깊이 또는 최대 깊이를 기반으로 수행될 수 있다. 예를 들어, 3D 영상 내의 3D 오브젝트가 복수개인 경우, 해당 3D 오브젝트의 깊이의 평균 깊이를 연산하고, 이러한 평균 깊이를 기반으로 게인 조정을 수행하거나, 복수의 3D 오브젝트 깊이 중 사용자 방향으로 최대로 돌출되는 최대 3D 깊이를 기준으로 게인 조정을 수행할 수 있다.On the other hand, the gain adjustment according to the depth can be performed based on the average depth or the maximum depth in the 3D image. For example, when there are a plurality of 3D objects in the 3D image, the average depth of the corresponding 3D object is calculated, and the gain adjustment is performed based on the average depth. Alternatively, among the plurality of 3D object depths, Gain adjustment can be performed based on the maximum 3D depth.
서브밴드 합성부(subband synthesis unit)(470)는, 주파수 밴드별로 위상 또는 게인 조정된 오디오 신호를 서브 밴드 합성 필터링한다. 즉, 서브 밴드 합성 필터 뱅크를 구비하여, 개의 서브 밴드 또는 64개의 서브 밴드 등으로 구분된 서브 밴드를 합성한다. 이에 따라, 최종적으로, 깊이에 따라, 음상 정위, 위상 조정, 게인 조정 등이 수행된 오디오 신호가 출력되게 된다. 이러한 오디오 신호는 깊이에 따라 줌밍(zooming) 출력되어, 청취자 머리 앞에서 출력되는 것으로 인지할 수 있게 된다.The
한편, 깊이에 따른, 음상 정위, 위상 조정, 게인 조정 등은 각각 선택적으로 수행되는 것도 가능하다. 즉, 음상 정위, 위상 조정 또는 게인 조정 중 적어도 하나가 깊이에 대응하여, 수행될 수 있다. 예를 들어, 깊이에 대응하는 위상 조정만이 수행되거나, 깊이에 대응하는 게인 조정만이 수행될 수도 있다. 또는 깊이에 따른 음상 정위를 전제로, 선택적으로 위상 조정 또는 깊이 조정이 수행되는 것도 가능하다.On the other hand, it is also possible to selectively perform sound phase normalization, phase adjustment, gain adjustment, and the like depending on the depth. That is, at least one of the sound image localization, the phase adjustment, or the gain adjustment may be performed corresponding to the depth. For example, only the phase adjustment corresponding to the depth may be performed, or only the gain adjustment corresponding to the depth may be performed. Alternatively, it is also possible to selectively perform the phase adjustment or the depth adjustment on the assumption of the sound phase localization according to the depth.
한편, 도면에서는 도시하지 않았지만, 오디오 디코더(410)와 음상 정위부(420) 사이에 채널 분리부(420)가 구비되는 것도 가능하다. Although not shown in the drawing, a
채널 분리부(420)는, 입력되는 오디오 신호를 채널 별로 분리한다. 예를 들어, 오디오 신호 중 리어 채널(rear channel)과 프론트 채널(front channel)로 분리할 수 있다. 리어 채널은, 영상표시장치(100)의 후방에서 출력되는 오디오 신호이며, 프론트 채널은 영상표시장치(100)의 전방에서 출력되는 오디오 신호일 수 있다. 그 외 5.1 채널 등으로 분리하거나, 스테레오인 경우 좌측 채널과 우측 채널로 구분하는 것도 가능하다.The
또한, 제어부(170) 내의 오디오 처리부(230)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. In addition, the
제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, ATSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(2 byte)에 포함되는 정보일 수 있다.The data processing unit (not shown) in the
한편, 도 2에서는 OSD 생성부(240)와 영상 처리부(220)으로부터의 신호를 믹서(245)에서 믹싱한 후, 포맷터(260)에서 3D 처리 등을 하는 것으로 도시하나, 이에 한정되지 않으며, 믹서가 포맷터 뒤에 위치하는 것도 가능하다. 즉, 영상 처리부(220)의 출력을 포맷터(260)에서 3D 처리하고, OSD 생성부(240)는 OSD 생성과 함께 3D 처리를 수행한 후, 믹서(245)에서 각각의 처리된 3D 신호를 믹싱하는 것도 가능하다.2, a signal from the
한편, 도 2에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Meanwhile, the block diagram of the
특히, 프레임 레이트 변환부(250), 및 포맷터(260)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비될 수도 있다.In particular, the
도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이며, 도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다. FIG. 7 is a view for explaining how images are formed by a left eye image and a right eye image, and FIG. 8 is a view for explaining depths of a 3D image according to an interval between a left eye image and a right eye image.
먼저, 도 7을 참조하면, 복수의 영상 또는 복수의 오브젝트들(615,625,635,645)이 예시된다. First, referring to FIG. 7, a plurality of images or a plurality of
먼저, 제1 오브젝트(615)는, 제1 좌안 영상신호에 기초하는 제1 좌안 영상(611,L)과 제1 우안 영상신호에 기초하는 제1 우안 영상(613,R)를 포함하며, 제1 좌안 영상(611,L)과 제1 우안 영상(613,R)의 간격은 디스플레이(180) 상에서 d1 인 것이 예시된다. 이때, 사용자는 좌안(601)과 제1 좌안 영상(611)을 연결하는 연장선, 및 우안(603)과 제1 우안 영상(603)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제1 오브젝트(615)가 디스플레이(180) 보다 뒤에 위치하는 것으로 인식한다. First, the
다음, 제2 오브젝트(625)는, 제2 좌안 영상(621,L)과 제2 우안 영상(623,R)를 포함하며, 서로 겹쳐져 디스플레이(180)에 표시되므로, 그 간격은 0 인 것이 예시된다. 이에 따라, 사용자는 제2 오브젝트(625)가 디스플레이(180) 상에 위치 것으로 인식한다. Next, since the second object 625 includes the second left eye image 621, L and the second right eye image 623, R and overlaps with each other and is displayed on the
다음, 제3 오브젝트(635)와 제4 오브젝트(645)는, 각각 제3 좌안 영상(631,L)과 제2 우안 영상(633,R), 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)를 포함하며, 그 간격이 각각 d3, d4 인 것이 예시된다. Next, the
상술한 방식에 따라, 사용자는 상이 맺히는 위치에, 각각 제3 오브젝트(635)와 제4 오브젝트(645)가 위치하는 것으로 인식하며, 도면에서는, 각각 디스플레이(180) 보다 앞에 위치하는 것으로 인식한다. According to the above-described method, the user recognizes that the
이때, 제4 오브젝트(645)가 제3 오브젝트(635) 보다 더 앞에, 즉 더 돌출되는 것으로 인식되며, 이는 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)의 간격(d4)이, 제3 좌안 영상(631,L)과 제3 우안 영상(633,R)의 간격(d3) 보다 더 큰 것에 기인한다.At this time, it is recognized that the
한편, 본 발명의 실시예에서는, 디스플레이(180)와 사용자에게 인식되는 오브젝트(615,625,635,645) 사이의 거리를 깊이(depth)로 표현한다. 이에 따라, 디스플레이(180)보다 뒤에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(-)을 가지는 것으로 하며, 디스플레이(180)보다 앞에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(+)을 가지는 것으로 한다. 즉, 사용자 방향으로 돌출 정도가 더 클수록, 깊이의 크기는 더 커지게 된다.Meanwhile, in the embodiment of the present invention, the distance between the
도 8을 보면, 도 8(a)의 좌안 영상(701)과 우안 영상(702) 간의 간격(a)이, 도 8(b)에 도시된 좌안 영상(701)과 우안 영상(702) 간의 간격(b)이 더 작은 경우, 도 8(a)의 3D 오브젝트의 깊이(a') 보다, 도 8(b)의 3D 오브젝트의 깊이(b')가 더 작은 것을 알 수 있다. 8, the interval a between the
이와 같이, 3D 영상이 좌안 영상과 우안 영상으로 예시되는 경우, 좌안 영상과 우안 영상 간의 간격에 의해, 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지게 된다. 따라서, 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 3D 영상 또는 3D 오브젝트의 깊이를 조절할 수 있게 된다.In this way, when the 3D image is exemplified as the left eye image and the right eye image, the positions recognized as images are different depending on the interval between the left eye image and the right eye image. Accordingly, by adjusting the display intervals of the left eye image and the right eye image, the depth of the 3D image or the 3D object composed of the left eye image and the right eye image can be adjusted.
도 9는 본 발명의 실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이며, 도 10 내지 도 14는 도 9의 영상표시장치의 동작 방법의 다양한 예를 설명하기 위해 참조되는 도면이다.FIG. 9 is a flowchart illustrating an operation method of an image display apparatus according to an embodiment of the present invention, and FIGS. 10 to 14 are referred to for explaining various examples of an operation method of the image display apparatus of FIG.
도 9를 참조하면, 먼저, 3D 영상을 입력받는다(S905). 입력되는 3D 영상은, 외부 장치(190)로부터의 외부 입력 영상, 네트워크를 통해 컨텐츠 제공자로부터 입력된 영상, 튜너(110)에서 수신되는 방송 신호로부터의 방송 영상, 또는 저장부(140)에 저장된 영상일 수 있다. Referring to FIG. 9, first, a 3D image is input (S905). The input 3D image is input to an external input image from the external device 190, an image input from a content provider via a network, a broadcast image from a broadcast signal received from the
한편, 제어부(170)는 입력되는 영상이 3D 영상인 지에 대해 판단할 수 있다. 예를 들어, 입력되는 영상 스트림의 헤더 또는 메타 데이터 내에 3D 영상인 지 여부를 나타내는 정보를 수신하여 이를 기초로, 3D 영상인 지 여부를 판단할 수 있다. Meanwhile, the
다음, 3D 영상의 깊이를 산출한다(S910). 제어부(170)는, 입력되는 3D 영상의 복호화시 또는 복호화 후 포맷 변환시에 3D 영상의 깊이를 산출할 수 있다. Next, the depth of the 3D image is calculated (S910). The
예를 들어, 입력되는 3D 영상이, MPEG-C Part 3 방식으로 부호화되어, 색차 영상과 깊이 영상으로 각각이 부호화되는 경우, 영상처리부(220)에서 깊이 영상을 복호화함으로써, 깊이를 산출할 수 있다. For example, when an input 3D image is coded by the MPEG-
이러한 깊이는, 프레임 단위로 생성되거나, 프레임 내의 오브젝트 별로 생성되는 것도 가능하다. 예를 들어, 프레임 내의 3D 오브젝트의 개수가 1개인 경우, 해당 오브젝트의 깊이에 기초하여, 해당 프레임의 깊이를 산출하는 것이 가능하다. 또한, 프레임 내의 3D 오브젝트의 개수가 복수개인 경우, 복수개의 깊이를 이용하여, 평균값을 해당 프레임의 깊이로 산출하는 것이 가능하다.This depth may be generated on a frame-by-frame basis or on an object-by-object basis. For example, when the number of 3D objects in a frame is one, it is possible to calculate the depth of the frame based on the depth of the object. When there are a plurality of 3D objects in the frame, it is possible to calculate the average value as the depth of the frame using a plurality of depths.
또한, 예를 들어, 입력되는 3D 영상이, MPEG-2 등의 방식으로 부호화되어, 좌안 영상과 우안 영상으로 각각이 부호화되는 경우, 일단 좌안 영상과 우안 영상을 복호화한 후, 좌안 영상과 우안 영상의 시차 정보로부터 깊이를 산출할 수 있다. 좌안 영상과 우안 영상의 시차 정보로부터 깊이를 산출하는 것은, 제어부(170) 내의 포맷터(260)에서 수행되는 것이 가능하다. 검출된 깊이는 도 2 및 도 4에 도시한 바와 같이, 오디오 처리부(230) 내로 입력되게 된다.For example, when an input 3D image is coded by a method such as MPEG-2 and is coded by a left eye image and a right eye image, once the left eye image and the right eye image are decoded, It is possible to calculate the depth from the parallax information. It is possible to calculate the depth from the parallax information of the left eye image and the right eye image in the
다음, 검출된 깊이에 대응하여 3D 영상과 동기되는 오디오 신호의 음상 정위를 제어한다(S915). Next, the sound image position of the audio signal synchronized with the 3D image is controlled corresponding to the detected depth (S915).
도 4에 대한 설명에서 기술한 바와 같이, 오디오 처리부(230) 내에서 음상 정위부(420)는 음상 정위를 제어한다. 특히, 본 발명의 실시예에서는, 깊이에 따라 음상 정위가 수행되도록, 깊이에 따라 측정된 머리 전달 함수(HRTF) 필터링을 수행한다.As described in the description of FIG. 4, the sound image
도 10 내지 도 12를 참조하여 설명하면, 도 10은, 디스플레이(180) 내에 오브젝트(1010)이 배치되는 것을 예시한다. 여기서, 오브젝트(1010)에 음원이 있는 것으로 가정하면, 음원과 청취자 사이의 각도는 θ1으로 설정되며, 그 거리는 L1으로 설정된다. 10 to 12, FIG. 10 illustrates that an
다음, 도 11은 도 10과 달리 3D 오브젝트(1015)가 깊이(d1)를 가지며, 디스플레이(180)로부터 돌출되는 것을 예시한다. 여기서, 3D 오브젝트(1015)에 음원이 있는 것으로 가정하면, 음원과 청취자 사이의 각도는 θ2으로 설정되며, 그 거리는 L2으로 설정된다. Next, FIG. 11 illustrates that, unlike FIG. 10, the
다음, 도 12는 도 11과 달리 3D 오브젝트(1020)가 깊이(d2)를 가지며, 디스플레이(180)로부터 더 돌출되는 것을 예시한다. 여기서, 3D 오브젝트(1020)에 음원이 있는 것으로 가정하면, 음원과 청취자 사이의 각도는 θ3으로 설정되며, 그 거리는 L3으로 설정된다. Next, FIG. 12 illustrates that, unlike FIG. 11, the
도 10 내지 도 12를 보면, 도 10은 깊이가 없는 오브젝트에 대해, 청취자(1005)와의 각도는 도 10 내지 도 12 중에서 가장 작은 θ1이 설정되며, 청취자(1005)와의 거리는 도 10 내지 도 12 중에서 가장 큰 L1이 설정된다. 또한, 도 11은 소정 깊이 미만의 깊이(d1)의 3D 오브젝트에 대해, 청취자(1005)와의 각도는 도 10 내지 도 12 중에서 중간인 θ2이 설정되며, 청취자(1005)와의 거리는 도 10 내지 도 12 중에서 중간인 L2가 설정된다. 또한, 도 12는 소정 깊이 이상의 깊이(d2)의 3D 오브젝트에 대해, 청취자(1005)와의 각도는 도 10 내지 도 12 중에서 가장 큰 θ3이 설정되며, 청취자(1005)와의 거리는 도 10 내지 도 12 중에서 가장 작은 L3이 설정된다. 10 to 12, for an object having no depth, the angle with respect to the
이에 따라, 본 발명의 실시예는, 도 10 내지 도 12와 같이, 3D 영상이 각각 서로 다른 깊이를 가지는 경우, 각 깊이에 대응하여, 미리 측정된 머리 전달 함수(HRTF)를 구비하고, 깊이에 따라 대응하는 머리 전달 함수(HRTF) 필터링을 수행한다. 이에 따라, 깊이에 대응하여, 음상 정위 제어를 수행할 수 있게 된다.Accordingly, in the embodiment of the present invention, when the 3D images have different depths, as shown in FIGS. 10 to 12, the HRTFs are measured in advance corresponding to the respective depths, And then performs corresponding head transfer function (HRTF) filtering. Thus, the sound image position control can be performed corresponding to the depth.
한편, 도면에는 도시하지 않았지만, 음상 정위 제어 이후, 도 4에서 기술한 바와 같이, 크로스토크 저감 제어가 수행되는 것이 가능하다. 즉, 음상 정위되어 출력되는 죄측 오디오 신호와 우측 오디오 신호의 크로스 토크를 방지하기 위해, 부가 오디오 신호(예를 들어, 잔향 신호)를 생성하여 부가할 수 있다.On the other hand, although not shown in the figure, after the sound image leveling control, the crosstalk reduction control can be performed as described in Fig. That is, an additional audio signal (for example, a reverberation signal) can be generated and added in order to prevent crosstalk between the left and right audio signals outputted in the sound image phase.
다음, 서브 밴드 분석 필터링을 수행한다(S920). 도 4에 대한 설명에서 기술한 바와 같이, 오디오 처리부(230) 내에서 서브밴드 분석부(440)는, 음상 정위 제어된 오디오 신호를 서브 밴드 분석 필터링한다. 즉, 서브 밴드 분석 필터 뱅크를 구비하여, 음상 정위 제어된 오디오 신호를 주파수 신호로 변환시킨다. 서브 밴드 분석부(440)에서 필터링된 오디오 신호의 서브 밴드는, 예를 들어 32개의 서브 밴드 또는 64개의 서브 밴드일 수 있다.Subband analysis filtering is then performed (S920). 4, the
다음, 검출된 깊이에 대응하여 위상을 조정한다(S925). 도 4에 대한 설명에서 기술한 바와 같이, 오디오 처리부(230) 내에서 위상 조정부(440)는, 역별로 분리된 주파수 대역별로 위상(phase)을 조정한다. 이러한 위상 조정은, 검출된 깊이 정보에 기반하여 수행될 수 있다. 검출된 깊이가 클수록, 위상을 증가시키는 것이 바람직하다. 또는, 검출된 깊이의 변화량이 클수록, 위상을 증가시키는 것도 가능하다. 예를 들어, 소정 주파수의 오디오 신호의 위상을 180도 증가시킨 경우, 해당 오디오 신호는 사용자 방향으로 더 돌출되어 출력되는 것으로 파악될 수 있다. Next, the phase is adjusted corresponding to the detected depth (S925). 4, in the
한편, 위상 조정 방법은, 다양한 방법으로 수행될 수 있다. 예를 들어, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 부호를 바꾸거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 부호를 바꾸거나, 모든 주파수 대역에서 각각 독립적으로 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 채널간의 위상을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 채널간의 위상을 조절할 수 있다. On the other hand, the phase adjustment method can be performed in various ways. For example, it is possible to change the sign between channels by dividing the band or band only for a certain frequency range, to change the sign between channels by grouping them for a specific frequency range, to adjust the phase between the channels independently in all frequency bands, You can adjust the phase between channels by dividing bands or bands for specific frequency ranges, or you can group them for specific frequency ranges to adjust the phase between channels.
다음, 검출된 깊이에 대응하여 게인을 조정한다(S930). 도 4에 대한 설명에서 기술한 바와 같이, 오디오 처리부(230) 내에서 게인 조정부(450)는, 대역별로 분리된 주파수 대역별로 게인(gain)을 조정한다. 이러한 게인 조정은, 검출된 깊이 정보에 기반하여 수행될 수 있다. 검출된 깊이가 클수록, 게인을 증가시키는 것이 바람직하다. 한편, 검출된 깊이의 변화량이 클수록, 게인을 증가시키는 것도 가능하다.Next, the gain is adjusted corresponding to the detected depth (S930). 4, in the
예를 들어, 검출된 깊이가 2배로 커지는 경우, 게인은 4배로 증가시킬 수 있으며, 검출된 깊이가 4배로 커지는 경우, 게인은 8배로 증가시킬 수 있다. 이에 깊이에 오디오 신호의 줌밍(zooming) 하고자 하는 대역을 강조할 수 있게 된다.For example, if the detected depth is doubled, the gain can be increased by a factor of four, and if the detected depth is increased by four, the gain can be increased by eight. Accordingly, a band for zooming of an audio signal can be emphasized.
게인 조정 방법은, 다양한 방법으로 수행될 수 있다. 예를 들어, 모든 주파수 대역에서 각각 독립적으로 게인을 조절하거나, 특정 주파수 범위에 대해서만 밴드 혹은 대역을 나누어 게인을 조절하거나, 특정 주파수 범위에 대해서 그룹으로 묶어서 그룹별로 게인을 조절할 수 있다. The gain adjustment method can be performed in various ways. For example, gain can be adjusted independently for all frequency bands, gain can be adjusted by dividing bands or bands only for specific frequency ranges, or groups can be grouped for specific frequency ranges to control gain for each group.
다음, 서브 밴드 합성 필터링을 수행한다(S935). 그리고, 3D 영상 및 3D 영상에 동기되는 오디오 신호를 출력한다(S940).Subband synthesis filtering is then performed (S935). Then, an audio signal synchronized with the 3D image and the 3D image is output (S940).
도 4에 대한 설명에서 기술한 바와 같이, 오디오 처리부(230) 내에서 서브밴드 합성부(460)는, 주파수 밴드별로 위상 또는 게인 조정된 오디오 신호를 서브 밴드 합성 필터링한다. 즉, 서브 밴드 합성 필터 뱅크를 구비하여, 개의 서브 밴드 또는 64개의 서브 밴드 등으로 구분된 서브 밴드를 합성한다. 이에 따라, 최종적으로, 깊이에 따라, 음상 정위, 위상 조정, 게인 조정 등이 수행된 오디오 신호가 출력되게 된다. 이러한 오디오 신호는 깊이에 따라 줌밍(zooming) 출력되어, 청취자 머리 앞에서 출력되는 것으로 인지할 수 있게 된다.As described in the description of FIG. 4, in the
도 13은 깊이(d1)를 갖는 3D 오브젝트(1120)를 구비하는 3D 영상(1110)이 디스플레이(180)에 표시되는 것을 예시한다. 이에 따라, 오디오 출력부(185)에서는, 해당 3D 영상에 동기되어 신호 처리된 오디오 신호가 출력된다. 13 illustrates that a
이때 오디오 신호는, 깊이(d1)가 소정치 미만이어서, 입력되는 오디오 신호대로 출력되는 것을 예시한다. 즉, 좌측 채널과 우측 채널의 오디오 신호(1135)가, 입력되는 오디오 신호에 따라 출력된다. 이와 같이 출력되는 오디오 신호는, 3D 시청장치(195)를 착용하고 영상(1110)을 시청중인 사용자(1105)에게, 깊이에 대응하는 입체 영상을 제공하지 못하게 된다. 즉, 사용자(1105)에 이격되어 오디오 신호(1130)가 출력되는 것으로 된다. At this time, the depth d1 of the audio signal is less than a predetermined value, so that the audio signal is output as an input audio signal band. That is, the
다음, 도 14는 깊이(d2)를 갖는 3D 오브젝트(1220)를 구비하는 3D 영상(1210)이 디스플레이(180)에 표시되는 것을 예시한다. 도 11에 비해, 깊이가 더 커졌으며, 소정치 이상의 깊이를 가지므로, 입력되는 오디오 신호가 상술한 바와 같이, 음상 정위, 위상 조정 또는 게인 조정 등의 별도의 3D 오디오 신호 처리되게 된다.Next, FIG. 14 illustrates that a
상술한 바와 같이, 해당 채널의 위상 등의 조정에 의해, 오디오 신호가 더 돌출되어 출력되도록 한다.As described above, the audio signal is further projected and output by adjusting the phase of the channel and the like.
도면에서는, 좌측 채널과 우측 채널의 오디오 신호(1235)가 강조되어, 출력되는 것을 예시한다. 이와 같이 출력되는 오디오 신호(1230)는, 3D 시청장치(195)를 착용하고 영상(1210)을 시청중인 사용자(1105) 부근에서 출력되는 것으로 된다. 따라서, 3D 영상의 깊이에 따라 입체 음향을 구현할 수 있게 된다.In the figure, it is exemplified that the
한편, 도 13 내지 도 14에서는 영상 내의 오브젝트의 깊이에 의해, 오디오 신호의 3D 신호 처리를 하는 것을 예로 들었으나, 이에 한정되지 않으며, 영상 내에 복수의 오브젝트가 있는 경우, 각각의 오브젝트의 깊이를 이용하여, 즉, 평균 깊이를 이용하여, 오디오 신호의 3D 신호 처리를 수행하는 것도 가능하다. 또한, 각 오브젝트 별 깊이에 기초하여, 각 오브젝트에 대응하는 오디오 신호의 3D 신호 처리를 별개로 수행하는 것도 가능하다. 13 to 14, the 3D signal processing of the audio signal is performed by the depth of the object in the image. However, the present invention is not limited to this, and if there are a plurality of objects in the image, the depth of each object is used It is also possible to perform the 3D signal processing of the audio signal by using the average depth. It is also possible to separately perform the 3D signal processing of the audio signal corresponding to each object based on the depth of each object.
본 발명에 따른 영상표시장치 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The image display apparatus and the operation method thereof according to the present invention are not limited to the configuration and method of the embodiments described above but the embodiments can be applied to all or some of the embodiments May be selectively combined.
한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the operation method of the image display apparatus of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by a processor included in the image display apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.
Claims (17)
상기 3D 영상의 깊이를 검출하는 단계; 및
상기 검출된 깊이에 대응하여, 상기 3D 영상과 동기되어 입력되는 오디오 신호의 음상 정위를 제어하는 단계;를 포함하는 것을 특징으로 하며,
상기 음상 정위 제어 단계는,
상기 오디오 신호를, 상기 3D 영상의 깊이에 따라 계수가 가변되는 머리 전달 함수(Head-Related Transfer Function) 필터링을 수행하는 것을 특징으로 하는 영상표시장치의 동작방법.Receiving a 3D image;
Detecting a depth of the 3D image; And
And controlling the sound image localization of the audio signal input in synchronization with the 3D image corresponding to the detected depth,
Wherein the sound image phase control step comprises:
Related transfer function filtering in which coefficients of the audio signal are varied according to a depth of the 3D image.
상기 음상 정위 제어된 오디오 신호의 크로스 토크를 저감하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.The method according to claim 1,
Further comprising: reducing crosstalk of the audio signal controlled by the sound image position control.
상기 음상 정위 제어된 오디오 신호를 서브 밴드 분석 필터링하는 단계;더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.The method according to claim 1,
And performing subband analysis filtering on the audio-signal-controlled audio signal.
상기 검출된 깊이 또는 깊이의 변화량에 대응하여, 상기 오디오 신호를 주파수 밴드별로 위상 조정하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.The method according to claim 1,
And adjusting the phase of the audio signal according to a frequency band corresponding to the detected depth or depth variation.
상기 검출된 깊이가 클수록, 상기 위상을 증가시키는 것을 특징으로 하는 영상표시장치의 동작방법.6. The method of claim 5,
And increases the phase as the detected depth increases.
상기 검출된 깊이 또는 깊이의 변화량에 대응하여, 상기 오디오 신호를 주파수 밴드별로 게인 조정하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.The method according to claim 1,
And adjusting a gain of the audio signal according to a frequency band corresponding to a variation amount of the detected depth or depth.
상기 검출된 깊이가 클수록, 상기 게인을 증가시키는 것을 특징으로 하는 영상표시장치의 동작방법.8. The method of claim 7,
Wherein the gain is increased as the detected depth is increased.
주파수 밴드별로 위상 또는 게인 조정된 오디오 신호를 서브 밴드 합성 필터링하는 단계;더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.9. The method according to claim 7 or 8,
And performing subband synthesis filtering on the audio signal whose phase or gain has been adjusted for each frequency band.
상기 3D 영상의 깊이를 검출하는 단계; 및
상기 검출된 깊이에 대응하여, 상기 3D 영상과 동기되어 입력되는 오디오 신호의 음상 정위 제어, 상기 오디오 신호의 위상 조정, 또는 상기 오디오 신호의 게인 조정 중 적어도 하나를 수행하는 단계;를 포함하는 것을 특징으로 하며,
상기 음상 정위 제어시, 오디오 신호를, 상기 3D 영상의 깊이에 따라 계수가 가변되는 머리 전달 함수(Head-Related Transfer Function) 를 필터링하는 것을 특징으로 하는 영상표시장치의 동작방법.Receiving a 3D image;
Detecting a depth of the 3D image; And
And performing at least one of a sound level control of an audio signal input in synchronization with the 3D image, a phase adjustment of the audio signal, or a gain adjustment of the audio signal in correspondence with the detected depth And,
Wherein the head-related transfer function is configured to filter the audio signal at the time of the image-normalization control, the head-related transfer function having a variable coefficient according to a depth of the 3D image.
오디오 신호를 출력하는 오디오 출력부; 및
입력되는 3D 영상의 깊이에 대응하여, 상기 3D 영상과 동기되어 입력되는 오디오 신호의 음상 정위를 제어하며, 상기 음상 정위된 오디오 신호를 출력하도록 제어하는 제어부;를 포함하는 것을 특징으로 하며,
상기 제어부는,
상기 3D 영상의 깊이에 따라 계수가 가변되는 머리 전달 함수(Head-Related Transfer Function) 필터링을 수행하여 상기 오디오 신호의 음상 정위를 제어하는 것을 특징으로 하는 영상표시장치.A display for displaying an image;
An audio output unit for outputting an audio signal; And
And a control unit for controlling the sound image position of the audio signal to be synchronized with the 3D image in accordance with the depth of the input 3D image and outputting the audio signal having the sound image position,
Wherein,
Related transfer function filtering in which coefficients are varied according to a depth of the 3D image to control the sound image localization of the audio signal.
상기 제어부는,
상기 3D 영상의 깊이 또는 깊이의 변화량에 대응하여, 상기 오디오 신호를 주파수 밴드별로 위상 조정하는 위상 조정부;를 포함하는 것을 특징으로 하는 영상표시장치.12. The method of claim 11,
Wherein,
And a phase adjusting unit for adjusting the phase of the audio signal according to a frequency band corresponding to a variation amount of depth or depth of the 3D image.
상기 제어부는,
상기 3D 영상의 깊이 또는 깊이의 변화량에 대응하여, 상기 오디오 신호를 주파수 밴드별로 게인 조정하는 위상 조정부;를 포함하는 것을 특징으로 하는 영상표시장치.12. The method of claim 11,
Wherein,
And a phase adjuster for adjusting gain of the audio signal according to a frequency band corresponding to a change amount of depth or depth of the 3D image.
상기 제어부는,
상기 음상 정위 제어된 오디오 신호의 크로스 토크를 저감하는 크로스 토크 저감부;를 포함하는 것을 특징으로 하는 영상표시장치.12. The method of claim 11,
Wherein,
And a crosstalk canceling unit for reducing the crosstalk of the audio signal whose sound level is controlled.
상기 제어부는,
상기 3D 영상의 깊이를 검출하는 포맷터;를 포함하는 것을 특징으로 하는 영상표시장치.12. The method of claim 11,
Wherein,
And a formatter for detecting the depth of the 3D image.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100091832A KR101679570B1 (en) | 2010-09-17 | 2010-09-17 | Image display apparatus and method for operating the same |
| US13/155,122 US8665321B2 (en) | 2010-06-08 | 2011-06-07 | Image display apparatus and method for operating the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020100091832A KR101679570B1 (en) | 2010-09-17 | 2010-09-17 | Image display apparatus and method for operating the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20120029783A KR20120029783A (en) | 2012-03-27 |
| KR101679570B1 true KR101679570B1 (en) | 2016-11-25 |
Family
ID=46134116
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020100091832A Expired - Fee Related KR101679570B1 (en) | 2010-06-08 | 2010-09-17 | Image display apparatus and method for operating the same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101679570B1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI475898B (en) * | 2012-09-05 | 2015-03-01 | 宏碁股份有限公司 | Multimedia processing system and audio signal adjustment method |
| MX366000B (en) * | 2013-03-29 | 2019-06-24 | Samsung Electronics Co Ltd | Audio apparatus and audio providing method thereof. |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090259479A1 (en) * | 2002-09-18 | 2009-10-15 | Coding Technologies Sweden Ab | Method for reduction of aliasing introduced by spectral envelope adjustment in real-valued filterbanks |
-
2010
- 2010-09-17 KR KR1020100091832A patent/KR101679570B1/en not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090259479A1 (en) * | 2002-09-18 | 2009-10-15 | Coding Technologies Sweden Ab | Method for reduction of aliasing introduced by spectral envelope adjustment in real-valued filterbanks |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20120029783A (en) | 2012-03-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8665321B2 (en) | Image display apparatus and method for operating the same | |
| KR101647722B1 (en) | Image Display Device and Operating Method for the Same | |
| KR101349276B1 (en) | Video display device and operating method therefor | |
| US8958565B2 (en) | Apparatus for controlling depth/distance of sound and method thereof | |
| KR101611263B1 (en) | Apparatus for displaying image and method for operating the same | |
| KR101635567B1 (en) | Apparatus for displaying image and method for operating the same | |
| US20130291017A1 (en) | Image display apparatus and method for operating the same | |
| KR101679570B1 (en) | Image display apparatus and method for operating the same | |
| KR101730424B1 (en) | Image display apparatus and method for operating the same | |
| KR20120104022A (en) | Multimedia apparatus with sound effect function, sound effect apparatus and method for applying sound effect | |
| KR101730323B1 (en) | Apparatus for viewing image image display apparatus and method for operating the same | |
| KR101737367B1 (en) | Image display apparatus and method for operating the same | |
| KR101657564B1 (en) | Apparatus for displaying image and method for operating the same | |
| KR20120062428A (en) | Image display apparatus, and method for operating the same | |
| KR20120027816A (en) | Apparatus for displaying image and method for operating the same | |
| KR20110134087A (en) | Image display device and its operation method | |
| KR101730423B1 (en) | Apparatus for displaying image and method for operating the same | |
| KR101691801B1 (en) | Multi vision system | |
| KR101716144B1 (en) | Image display apparatus, and method for operating the same | |
| KR101176500B1 (en) | Image display apparatus, and method for operating the same | |
| KR20130056762A (en) | Image display apparatus and method for operating the same | |
| KR20110133296A (en) | 3D video viewer and its operation method | |
| KR20110114996A (en) | Image display device and its operation method | |
| KR20120034836A (en) | Image display apparatus, and method for operating the same | |
| KR20110134094A (en) | Image display device and its operation method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20191014 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20211122 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20211122 |