[go: up one dir, main page]

KR102777582B1 - 디스플레이 장치 및 그의 동작 방법 - Google Patents

디스플레이 장치 및 그의 동작 방법 Download PDF

Info

Publication number
KR102777582B1
KR102777582B1 KR1020230007927A KR20230007927A KR102777582B1 KR 102777582 B1 KR102777582 B1 KR 102777582B1 KR 1020230007927 A KR1020230007927 A KR 1020230007927A KR 20230007927 A KR20230007927 A KR 20230007927A KR 102777582 B1 KR102777582 B1 KR 102777582B1
Authority
KR
South Korea
Prior art keywords
frequency
mode
image
output image
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020230007927A
Other languages
English (en)
Other versions
KR20240115507A (ko
Inventor
엄태하
노현철
전상엽
안성렬
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020230007927A priority Critical patent/KR102777582B1/ko
Publication of KR20240115507A publication Critical patent/KR20240115507A/ko
Application granted granted Critical
Publication of KR102777582B1 publication Critical patent/KR102777582B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 개시는 주파수 변경에 따른 스크린 뮤트 동작의 발생을 막기 위한 것으로, 본 개시에 따른 디스플레이 장치는 디스플레이부; 제1 주파수의 입력 영상을 수신하고, 영상의 자연스러움 정도를 나타내는 모션 스무딩 모드가 제1 모드에서 제2 모드로 변경된 경우, 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 메인 프로세서; 및 상기 제2 주파수의 상기 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환하고, 상기 제3 주파수의 제2 출력 영상에 대한 영상 보간을 통해 제4 주파수의 제3 출력 영상을 상기 디스플레이부로 출력하는 서브 프로세서를 포함할 수 있다.

Description

디스플레이 장치 및 그의 동작 방법{DISPLAY DEVICE AND OPERATING METHOD THEREOF}
본 개시는 디스플레이 장치에 관한 것이다.
모션 스무딩(Motion Smoothing) 기능은 동영상이 더 많은 프레임으로 송출되는 것처럼 보이도록 만드는 기능이다.
모션 스무딩 기능은 빠른 동작의 세부를 더 잘 보여줄 수 있도록 하려는 것에 목적이 있다.
모션 스무딩 모드는 오프 모드, 영화 모드(또는 cinematic movement 모드), 내츄럴 모드, 사용자 모드, 스무스 모드 중 어느 하나로 설정될 수 있고, 각 모드에 따라 영상의 표현의 자연스러움이 달라진다.
즉, 각 모션 스무딩 모드에 따라 영상의 자연스러운 정도가 달라진다.
다른 모션 스무딩 모드에서 영화 모드로 변경 시, 메인 SoC(System On Chip)에서 서브 SoC로 출력되는 영상의 출력 주파수가 96Hz에서 120Hz로 변경되거나, 120Hz에서 96Hz로 변경될 수 있다.
이에 따라 서브 SoC의 입력 주파수는 96Hz에서 120Hz로 변경되거나, 120Hz에서 96Hz로 변경될 수 있고, 립 싱크(Lip-sync) 이슈로 서브 SoC의 입력 주파수가 변경될 시에는 스크린 뮤트 동작이 발생된다.
즉, 메인 SoC에서 서브 Soc로 출력되는 영상의 주파수가 변경됨에 따라 싱크가 맞지 않게 되어 스크린 뮤트 동작이 발생된다.
스크린 뮤트 동작은 주파수 변경에 따른 싱크의 어긋남을 보상하기 위해 블랙 영상을 잠시 표시하는 동작(깜박임 동작)이다.
그러나, 스크린 뮤트 동작은 블랙 영상으로 인해 사용자가 영상을 시청하는데 방해가 될 수 있다.
본 개시는 메인 SoC에서 서브 SoC로 출력되는 영상의 주파수를 고정시켜 스크린 뮤트 동작을 없애기 위한 것에 목적이 있다.
본 개시는 다른 모션 스무딩 모드에서 영화적 움직임(cinematic movement) 모드로 변경될 시, 메인 SoC에서 서브 SoC로 출력되는 영상의 주파수를 고정시켜 스크린 뮤트 동작을 없애기 위한 것에 그 목적이 있다.
본 개시에 따른 디스플레이 장치는 디스플레이부; 제1 주파수의 입력 영상을 수신하고, 영상의 자연스러움 정도를 나타내는 모션 스무딩 모드가 제1 모드에서 제2 모드로 변경된 경우, 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 메인 프로세서; 및 상기 제2 주파수의 상기 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환하고, 상기 제3 주파수의 제2 출력 영상에 대한 영상 보간을 통해 제4 주파수의 제3 출력 영상을 상기 디스플레이부로 출력하는 서브 프로세서를 포함할 수 있다.
본 개시에 따른 디스플레이 장치의 동작 방법은 제1 주파수의 입력 영상을 수신하는 단계, 영상의 자연스러움 정도를 나타내는 모션 스무딩 모드가 제1 모드에서 제2 모드로 변경된 경우, 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 단계, 상기 제2 주파수의 상기 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환하는 단계 및 상기 제3 주파수의 제2 출력 영상에 대한 영상 보간을 통해 제4 주파수의 제3 출력 영상을 출력하는 단계를 포함할 수 있다.
본 개시의 실시 예에 따르면, 다른 모션 스무딩 모드에서 영화적 움직임(cinematic movement) 모드로 변경될 시, 메인 SoC에서 서브 SoC로 출력되는 영상의 주파수를 고정시켜 스크린 뮤트 동작이 발생되지 않는다.
이에 따라, 사용자는 영상 출력의 자연스러움을 느끼게 되어, 영상 시청의 몰입도가 향상될 수 있다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치를 도시한 도면이다.
도 2는 도 1의 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 3은 도 2의 제어부의 내부 블록도의 일 예이다.
도 4는 도 2의 디스플레이부의 내부 블록도이다.
도 5는 본 개시의 일 실시 예에 따른 외부 기기와 디스플레이 장치 간의 영상 출력 관계를 설명하는 도면이다.
도 6a 및 도 6b는 본 개시의 실시 예에 따른 디스플레이 장치에 포함된 일부 구성 요소들의 동작을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 디스플레이 장치의 영상 출력 방법을 설명하기 위한 흐름도이다.
도 8은 본 개시의 일 실시 예에 따라 제1 주파수의 입력 영상이 5:5 풀 다운을 통해 제2 주파수의 제1 출력 영상으로 변환되는 과정을 보여주는 도면이다.
도 9는 본 개시의 일 실시 예에 따라 제2 주파수의 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환하는 과정을 설명하는 도면이다.
도 10은 본 개시의 일 실시 예에 따라 제3 주파수의 제2 출력 영상으로부터 원본 영상을 추출하고, 추출된 원본 영상에 대해 MEMC를 수행하는 과정을 설명하는 도면이다.
도 11a은 디스플레이부의 출력 주파수가 120Hz인 경우, 4K의 해상도를 갖는 24Hz의 입력 영상이 8K의 해상도를 갖는 96Hz의 출력 영상으로 변환되는 과정을 설명하는 도면이다.
도 11b는 디스플레이부의 출력 주파수가 60Hz인 경우, 4K의 해상도를 갖는 24Hz의 입력 영상이 8K의 해상도를 갖는 48Hz의 출력 영상으로 변환되는 과정을 설명하는 도면이다.
도 12a는 종래 기술에 따라 스크린 뮤트 동작이 발생되는 과정을 설명하는 도면이고, 도 12b는 본 개시의 실시 예가 적용되어 스크린 뮤트 동작이 발생되지 않는 과정을 설명하는 도면이다.
도 13은 모션 스무딩 모드(트루 모션 모드)에 따른 디스플레이부의 출력 주파수를 설명하는 도면이다.
이하에서는 도면을 참조하여 본 개시를 보다 상세하게 설명한다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치를 도시한 도면이다.
도면을 참조하면, 디스플레이 장치(100)는, 디스플레이부(180)를 포함할 수 있다.
한편, 디스플레이부(180)는 다양한 패널 중 어느 하나로 구현될 수 있다. 예를 들어, 디스플레이부(180)는, 액정표시패널(LCD 패널), 유기발광패널(OLED 패널), 무기발광패널(LED 패널) 등 중 어느 하나일 수 있다.
본 개시에서는, 디스플레이부(180)가 유기발광패널(OLED 패널)을 구비하는 것으로 한다. 그러나, 이는 예시적인 것에 불과하며, 디스플레이부(180)는 유기발광패널(OLED 패널)이 아닌 다른 패널을 구비할 수도 있다.
한편, 도 1의 디스플레이 장치(100)는, 모니터, TV, 태블릿 PC, 이동 단말기 등이 가능하다.
도 2는 도 1의 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2를 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 무선 통신부(173), 디스플레이부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조부(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
네트워크 인터페이스부(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
외부장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부장치 인터페이스부(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스부(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 제어부(170)로 전달할 수 있다. 외부장치 인터페이스부(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition Multimedia Interface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다.
외부장치 인터페이스부(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이부(180)를 통해 출력될 수 있다. 외부장치 인터페이스부(135)를 통해 입력된 외부장치의 음성 신호는 오디오 출력부(185)를 통해 출력될 수 있다.
외부장치 인터페이스부(135)에 연결 가능한 외부 장치는 셋톱 박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램을 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 제어부(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 디스플레이부(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
무선 통신부(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신부(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신부(173)는 블루투스(Bluetooth™), BLE(Bluetooth Low Energy), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신부(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 개시에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신부(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(170)는 감지된 웨어러블 디바이스가 본 개시에 따른 디스플레이 장치(100)와 통신하도록 인증된(authenticated) 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신부(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R, G, B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 2에 도시된 디스플레이 장치(100)는 본 개시의 일 실시 예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 개시의 실시 예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 개시의 권리범위를 제한하지 아니한다.
본 개시의 또 다른 실시 예에 따르면, 디스플레이 장치(100)는 도 2에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋톱 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 개시의 실시 예에 따른 디스플레이 장치의 동작 방법은 도 2를 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋톱 박스 등과 같은 영상 처리 장치 또는 디스플레이부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 음성으로 출력한다.
전원 공급부(190)는, 디스플레이 장치(100) 전반에 걸쳐 해당 전원을 공급한다. 특히, 시스템 온 칩(System On Chip, SOC)의 형태로 구현될 수 있는 제어부(170)와, 영상 표시를 위한 디스플레이부(180), 및 오디오 출력을 위한 오디오 출력부(185) 등에 전원을 공급할 수 있다.
구체적으로, 전원 공급부(190)는, 교류 전원을 직류 전원으로 변환하는 컨버터와, 직류 전원의 레벨을 변환하는 dc/dc 컨버터를 구비할 수 있다.
원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
도 3은 도 2의 제어부의 내부 블록도의 일 예이다.
도면을 참조하여 설명하면, 본 개시의 일실시예에 의한 제어부(170)는, 역다중화부(310), 영상 처리부(320), 프로세서(330), OSD 생성부(340), 믹서(345), 프레임 레이트 변환부(350), 및 포맷터(360)를 포함할 수 있다. 그 외 오디오 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.
역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너(131) 또는 복조부(132) 또는 외부장치 인터페이스부(135)에서 출력되는 스트림 신호일 수 있다.
영상 처리부(320)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(325), 및 스케일러(335)를 구비할 수 있다.
영상 디코더(325)는, 역다중화된 영상신호를 복호화하며, 스케일러(335)는, 복호화된 영상신호의 해상도를 디스플레이부(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.
영상 디코더(325)는 다양한 규격의 디코더를 구비하는 것이 가능하다. 예를 들어, MPEG-2, H,264 디코더, 색차 영상(color image) 및 깊이 영상(depth image)에 대한 3D 영상 디코더, 복수 시점 영상에 대한 디코더 등을 구비할 수 있다.
프로세서(330)는, 디스플레이 장치(100) 내 또는 제어부(170) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(330)는 튜너(131)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 프로세서(330)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있다.
또한, 프로세서(330)는, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(135)와의 데이터 전송 제어를 수행할 수 있다.
또한, 프로세서(330)는, 제어부(170) 내의 역다중화부(310), 영상 처리부(320), OSD 생성부(340) 등의 동작을 제어할 수 있다.
OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이부(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 디스플레이 장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다.
또한, OSD 생성부(340)는, 원격제어장치(200)로부터 입력되는 포인팅 신호에 기초하여, 디스플레이부(180)에 표시 가능한, 포인터를 생성할 수 있다. 특히, 이러한 포인터는, 포인팅 신호 처리부에서 생성될 수 있으며, OSD 생성부(340)는, 이러한 포인팅 신호 처리부(미도시)를 포함할 수 있다. 물론, 포인팅 신호 처리부(미도시)가 OSD 생성부(340) 내에 구비되지 않고 별도로 마련되는 것도 가능하다.
믹서(345)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상 처리부(320)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(350)에 제공된다.
프레임 레이트 변환부(Frame Rate Conveter, FRC)(350)는, 입력되는 영상의 프레임 레이트를 변환할 수 있다. 한편, 프레임 레이트 변환부(350)는, 별도의 프레임 레이트 변환 없이, 그대로 출력하는 것도 가능하다.
한편, 포맷터(Formatter)(360)는, 입력되는 영상 신호의 포맷을, 디스플레이에 표시하기 위한 영상 신호로 변화시켜 출력할 수 있다.
포맷터(360)는, 영상 신호의 포맷을 변경할 수 있다. 예를 들어, 3D 영상 신호의 포맷을, 사이드 바이 사이드(Side by Side) 포맷, 탑 다운(Top/ Down) 포맷, 프레임 시퀀셜(Frame Sequential) 포맷, 인터레이스 (Interlaced) 포맷, 체커 박스(Checker Box) 포맷 등의 다양한 3D 포맷 중 어느 하나의 포맷으로 변경할 수 있다.
한편, 제어부(170) 내의 오디오 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(미도시)는 다양한 디코더를 구비할 수 있다.
또한, 제어부(170) 내의 오디오 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 전자 프로그램 가이드 정보(Electronic Program Guide) 정보일 수 있다.
한편, 도 3에 도시된 제어부(170)의 블록도는 본 개시의 일 실시 예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
특히, 프레임 레이트 변환부(350), 및 포맷터(360)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비되거나, 하나의 모듈로서 별도로 구비될 수도 있다.
도 4는 도 2의 디스플레이부의 내부 블록도이다.
도면을 참조하면, 유기발광패널 기반의 디스플레이부(180)는, 패널(210), 제1 인터페이스부(230), 제2 인터페이스부(231), 타이밍 컨트롤러(232), 게이트 구동부(234), 데이터 구동부(236), 메모리(240), 프로세서(270), 전원 공급부(290) 등을 포함할 수 있다.
디스플레이부(180)는, 영상 신호(Vd)와, 제1 직류 전원(V1) 및 제2 직류 전원(V2)을 수신하고, 영상 신호(Vd)에 기초하여, 소정 영상을 표시할 수 있다.
한편, 디스플레이부(180) 내의 제1 인터페이스부(230)는, 제어부(170)로부터 영상 신호(Vd)와, 제1 직류 전원(V1)을 수신할 수 있다.
여기서, 제1 직류 전원(V1)은, 디스플레이부(180) 내의 전원 공급부(290), 및 타이밍 컨트롤러(232)의 동작을 위해 사용될 수 있다.
다음, 제2 인터페이스부(231)는, 외부의 전원 공급부(190)로부터 제2 직류 전원(V2)을 수신할 수 있다. 한편, 제2 직류 전원(V2)은, 디스플레이부(180) 내의 데이터 구동부(236)에 입력될 수 있다.
타이밍 컨트롤러(232)는, 영상 신호(Vd)에 기초하여, 데이터 구동 신호(Sda) 및 게이트 구동 신호(Sga)를 출력할 수 있다.
예를 들어, 제1 인터페이스부(230)가 입력되는 영상 신호(Vd)를 변환하여 변환된 영상 신호(va1)를 출력하는 경우, 타이밍 컨트롤러(232)는, 변환된 영상 신호(va1)에 기초하여, 데이터 구동 신호(Sda) 및 게이트 구동 신호(Sga)를 출력할 수 있다.
타이밍 컨트롤러(timing controller)(232)는, 제어부(170)로부터의 비디오 신호(Vd) 외에, 제어 신호, 수직동기신호(Vsync) 등을 더 수신할 수 있다.
그리고, 타이밍 컨트롤러(timing controller)(232)는, 비디오 신호(Vd) 외에, 제어 신호, 수직동기신호(Vsync) 등에 기초하여, 게이트 구동부(234)의 동작을 위한 게이트 구동 신호(Sga), 데이터 구동부(236)의 동작을 위한 데이터 구동 신호(Sda)를 출력할 수 있다.
이때의 데이터 구동 신호(Sda)는, 패널(210)이 RGBW의 서브픽셀을 구비하는 경우, RGBW 서브픽셀 구동용 데이터 구동 신호일 수 있다.
한편, 타이밍 컨트롤러(232)는, 게이트 구동부(234)에 제어 신호(Cs)를 더 출력할 수 있다.
게이트 구동부(234)와 데이터 구동부(236)는, 타이밍 컨트롤러(232)로부터의 게이트 구동 신호(Sga), 데이터 구동 신호(Sda)에 따라, 각각 게이트 라인(GL) 및 데이터 라인(DL)을 통해, 주사 신호 및 영상 신호를 패널(210)에 공급한다. 이에 따라, 패널(210)은 소정 영상을 표시하게 된다.
한편, 패널(210)은, 유기 발광층을 포함할 수 있으며, 영상을 표시하기 위해, 유기 발광층에 대응하는 각 화소에, 다수개의 게이트 라인(GL) 및 데이터 라인(DL)이 매트릭스 형태로 교차하여 배치될 수 있다.
한편, 데이터 구동부(236)는, 제2 인터페이스부(231)로부터의 제2 직류 전원(V2)에 기초하여, 패널(210)에 데이터 신호를 출력할 수 있다.
전원 공급부(290)는, 각종 전원을, 게이트 구동부(234)와 데이터 구동부(236), 타이밍 컨트롤러(232) 등에 공급할 수 있다.
프로세서(270)는, 디스플레이부(180) 내의 각종 제어를 수행할 수 있다. 예를 들어, 게이트 구동부(234)와 데이터 구동부(236), 타이밍 컨트롤러(232) 등을 제어할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 외부 기기와 디스플레이 장치 간의 영상 출력 관계를 설명하는 도면이다.
외부 기기(600)는 외부로부터 수신된 비디오 신호를 디스플레이 장치(100)에 전달할 수 있다.
외부 기기(600)는 셋톱 박스, 게임기, DVD 플레이어 중 어느 하나일 수 있다.
디스플레이 장치(100)의 네트워크 인터페이스부(133) 또는 외부장치 인터페이스부(135)는 외부 기기(600)로부터 비디오 신호를 수신할 수 있다.
비디오 신호의 주파수는 24Hz, 25Hz, 30Hz, 60Hz 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
도 6a 및 도 6b는 본 개시의 실시 예에 따른 디스플레이 장치에 포함된 일부 구성 요소들의 동작을 설명하는 도면이다.
도 6a를 참조하면, 디스플레이 장치(100)는 제어부(170) 및 디스플레이부(180)를 포함할 수 있다.
제어부(170)는 제1 주파수의 입력 영상을 수신할 수 있다.
제어부(170)는 수신된 제1 주파수의 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환할 수 있다.
제어부(170)는 모션 스무딩 모드가 다른 모드에서 영화 모드로 변경되는 경우, 서브 프로세서(630)에 전달되는 제1 출력 영상의 주파수를 기 설정된 제2 주파수로 고정시킬 수 있다.
제어부(170)는 제2 주파수의 제1 출력 영상을 제2 주파수의 절반인 제3 주파수의 제2 출력 영상으로 변환할 수 있다.
제어부(170)는 입력 영상의 주파수 정보, 모션 스무딩 정보 및 풀다운 정보에 기초하여 MEMC(Motion Estimation Motion Compensation, 모션 추적/모션 보상)를 통해 제3 주파수의 제2 출력 영상을 제1 주파수의 체배인 제4 주파수의 제3 출력 영상으로 변환할 수 있다.
도 6b를 참조하면, 디스플레이 장치(100)는 제어부(170) 및 디스플레이부(180)를 포함할 수 있다.
제어부(170)는 메인 프로세서(610), 서브 프로세서(630)를 포함할 수 있다.
메인 프로세서(610)는 제1 주파수의 입력 영상을 수신할 수 있다.
메인 프로세서(610)는 수신된 제1 주파수의 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환할 수 있다.
메인 프로세서(610)는 모션 스무딩 모드가 다른 모드에서 영화 모드로 변경되는 경우, 서브 프로세서(630)에 전달되는 제1 출력 영상의 주파수를 기 설정된 제2 주파수로 고정시킬 수 있다.
서브 프로세서(630)는 메인 스케일러(631) 및 프레임 레이트 조정기(633)를 포함할 수 있다.
메인 스케일러(631)는 업 스케일링을 통해 메인 프로세서(610)에서 출력된 출력 영상의 해상도를 변환할 수 있다.
프레임 레이트 조정기(633)는 메인 프로세서(610)로부터 입력 영상의 주파수 정보 및 모션 스무딩 정보를 수신할 수 있다.
프레임 레이트 조정기(633)는 입력 영상의 주파수가 24Hz이고, 모션 스무딩 정보에 포함된 모션 스무딩 모드가 영화 모드이고, 메인 스케일러(631)로부터 수신된 출력 영상의 풀 다운 정보가 3:2인 경우, MEMC 수행을 통해 8K 해상도를 갖는 60Hz의 출력 영상을 8K 해상도를 갖는 96Hz의 출력 영상으로 변환할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 디스플레이 장치의 영상 출력 방법을 설명하기 위한 흐름도이다.
이하에서 설명되는 영상의 주파수는 영상의 주사율 또는 프레임 레이트를 의미할 수 있다.
영상의 주사율 또는 프레임 레이트는 1초당 화면 상에 얼마나 많은 장면들을 담을 수 있는지에 대한 수치로, 초당 프레임 수로 정의될 수 있다.
입력 주파수는 외부 기기 인터페이스부(135)를 통해 연결된 외부 기기(600)가 출력하는 영상 신호의 구동 주파수일 수 있다.
출력 주파수는 디스플레이부(180)가 영상 신호를 출력할 시, 갖는 영상 신호의 구동 주파수를 나타낼 수 있다.
디스플레이 장치(100)의 제어부(170)는 제1 주파수의 입력 영상을 수신한다(S701).
제어부(170)는 네트워크 인터페이스부(133) 또는 외부 인터페이스부(135)를 통해 연결된 외부 기기로부터 제1 주파수의 입력 영상을 수신할 수 있다.
여기서, 제1 주파수는 24Hz일 수 있으나, 이는 예시에 불과하다.
제1 주파수의 입력 영상은 원본 영상으로 명명될 수 있다.
제어부(170)는 수신된 제1 주파수의 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환한다(S703).
일 예로, 제1 주파수가 24Hz, 30Hz, 50Hz, 60Hz 중 어느 하나인 경우, 기 설정된 제2 주파수는 120Hz일 수 있다.
또 다른 예로, 제1 주파수가 25Hz, 50Hz 중 어느 하나인 경우, 기 설정된 제2 주파수는 100Hz일 수 있다.
제어부(170)는 제1 주파수의 입력 영상의 해상도를 유지하면서, 제1 주파수의 입력 영상을 제2 주파수의 제1 출력 영상으로 변환할 수 있다.
제1 주파수의 입력 영상의 해상도는 4K일 수 있으나, 예시에 불과한 수치이다.
제어부(170)에 구비된 메인 프로세서(610)는 제1 주파수의 입력 영상을 제2 주파수의 제1 출력 영상으로 변환할 수 있다.
메인 프로세서(610)는 모션 스무딩 정보에 포함된 모션 스무딩 모드가 다른 모드에서 영화 모드로 변경되는 경우, 제1 주파수의 입력 영상을 기 설정된 제2 주파수를 갖는 제1 출력 영상으로 변환할 수 있다.
모션 스무딩 정보는 MEMC의 정도를 나타내는 정보로, 즉, 영상의 자연스러운 정도를 나타내는 정보일 수 있다.
복수의 모션 스무딩 모드들은 오프 모드, 영화 모드(또는 cinematic movement 모드), 내츄럴 모드, 사용자 모드, 스무스 모드를 포함할 수 있다.
오프 모드의 자연스러움 정도는 0일 수 있다.
영화 모드의 자연스러움 정도는 3일 수 있다.
내츄럴 모드의 자연스러움 정도는 6일 수 있다.
사용자 모드는 0 내지 10 중 사용자의 설정에 따른 자연스러움 정도를 가질 수 있다.
스무스 모드의 자연스러움 정도는 10일 수 있다.
메인 프로세서(610)는 모션 스무딩 모드가 다른 모드에서 영화 모드로 변경되는 경우, 서브 프로세서(630)에 전달되는 제1 출력 영상의 주파수를 기 설정된 제2 주파수로 고정시킬 수 있다.
서브 프로세서(630)의 입력 주파수가 제2 주파수로 고정됨에 따라 스크린 뮤트 동작이 발생되지 않아 시청의 불편함이 크게 개선될 수 있다.
메인 프로세서(610)는 5:5 풀 다운(Pull-down)을 통해 제1 주파수의 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환할 수 있다.
도 8은 본 개시의 일 실시 예에 따라 제1 주파수의 입력 영상이 5:5 풀 다운을 통해 제2 주파수의 제1 출력 영상으로 변환되는 과정을 보여주는 도면이다.
도 8을 참조하면, 제1 주파수는 24Hz이고, 입력 영상의 영상 프레임들 간 간격은 41.67ms이다.
제어부(170)의 메인 프로세서(610)는 5:5 pull-down 방식을 통해 24Hz의 입력 영상을 120Hz의 제1 출력 영상으로 변환할 수 있다.
5:5 pull-down은 제1 영상 프레임(A)과 동일한 영상 프레임들이 추가적으로 4개 생성되고, 제2 영상 프레임(B)과 동일한 영상 프레임들이 추가적으로 4개 생성되어, 연속된 영상 프레임들이 5:5의 비율로 생성되는 과정을 나타낼 수 있다.
한편, 메인 프로세서(610)는 제1 주파수의 입력 영상의 해상도를 유지하면서 5:5 pull-down 방식을 통해 제1 주파수의 입력 영상을 제2 주파수의 제1 출력 영상으로 변환할 수 있다.
다시, 도 7을 설명한다.
제어부(170)는 제2 주파수의 제1 출력 영상을 제2 주파수의 절반인 제3 주파수의 제2 출력 영상으로 변환한다(S705).
제2 주파수가 120Hz인 경우, 제3 주파수는 60Hz일 수 있다.
제어부(170)는 제2 주파수의 제1 출력 영상의 해상도를 2배 변경하면서 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환할 수 있다.
제어부(170)는 업 스케일링을 통해 제2 주파수의 제1 출력 영상의 해상도를 2배 증가시킬 수 있다.
업 스케일링은 영상을 구성하는 각 픽셀 사이를 넓혀, 사이마다 새로운 픽셀을 끼워 넣어 더 높은 해상도의 영상을 만드는 보간 기술일 수 있다.
제1 출력 영상의 해상도가 4K인 경우, 제2 출력 영상의 해상도는 8K일 수 있다.
제어부(170)는 3:2 풀 다운을 통해 제2 주파수의 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환할 수 있다.
도 9는 본 개시의 일 실시 예에 따라 제2 주파수의 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환하는 과정을 설명하는 도면이다.
제2 주파수는 120Hz이고, 제3 주파수는 제2 주파수의 절반인 60Hz 일 수 있다.
도 9를 참조하면, 5:5 풀 다운 방식의 적용 후, 3개의 연속된 영상 프레임들 중 중간에 위치한 영상 프레임이 생략될 수 있다.
구체적으로, 제어부(170)는 3개의 영상 프레임(A) 중 중간에 위치한 영상 프레임을 삭제할 수 있다.
이와 같은 방식을 뒤따르는 영상 프레임들에 적용하면, 제1 영상 프레임(A)이 3개, 제2 영상 프레임(B)이 2개, 제3 영상 프레임(C)이 3개가 됨에 따라 3:2 pull-down이 수행될 수 있다.
제어부(170)의 서브 프로세서(630)는 제1 출력 영상의 해상도를 변경하면서, 제2 주파수의 제1 출력 영상을 제2 주파수의 절반인 제3 주파수의 제2 출력 영상으로 변환할 수 있다.
예를 들어, 서브 프로세서(630)는 제1 출력 영상의 해상도를 4K에서 8K로 변경하면서, 120Hz의 제1 출력 영상을 60Hz의 제2 출력 영상으로 변환할 수 있다.
서브 프로세서(630)는 업 스케일링을 통해 제1 출력 영상의 해상도를 4K에서 8K로 변경할 수 있다.
다시, 도 7을 설명한다.
제어부(170)는 입력 영상의 주파수 정보, 모션 스무딩 정보 및 풀다운 정보에 기초하여 MEMC(Motion Estimation Motion Compensation, 모션 추적/모션 보상)를 통해 제3 주파수의 제2 출력 영상을 제1 주파수의 체배인 제4 주파수의 제3 출력 영상으로 변환한다(S707).
입력 영상의 주파수 정보는 입력 영상의 주파수 또는 프레임 레이트일 수 있다.
모션 스무딩 정보는 MEMC의 정도를 나타내는 정보로, 즉, 영상의 자연스러운 정도를 나타내는 정보일 수 있다.
모션 스무딩 정보는 복수의 모션 스무딩 모드들 중 정해진 모션 스무딩 모드 및 모션 스무딩 모드에 대응하는 수치 중 하나 이상을 포함할 수 있다.
복수의 모션 스무딩 모드들은 오프 모드, 영화 모드(또는 cinematic movement 모드), 내츄럴 모드, 사용자 모드, 스무스 모드를 포함할 수 있다.
오프 모드의 자연스러움 정도는 0일 수 있다.
영화 모드의 자연스러움 정도는 3일 수 있다.
내츄럴 모드의 자연스러움 정도는 6일 수 있다.
사용자 모드는 0 내지 10 중 사용자의 설정에 따른 자연스러움 정도를 가질 수 있다.
스무스 무드의 자연스러움 정도는 10일 수 있다.
제어부(170)는 메뉴 화면을 통해 사용자 입력에 의해 설정된 모션 스무딩 모드에 상응하는 수치를 획득할 수 있다.
제어부(170)는 풀 다운 정보는 제3 주파수의 제2 출력 영상의 풀 다운 비율을 포함할 수 있다.
예를 들어, 풀 다운 비율은 3:2일 수 있다.
제어부(170)는 입력 영상의 주파수 정보가 24Hz이고, 모션 스무딩 정보에 포함된 모션 스무딩 모드가 스무스 모드이고, 제3 출력 영상의 풀 다운 비율이 3:2인 경우, MEMC를 통해 제3 주파수의 제2 출력 영상을 제1 주파수의 체배인 제4 주파수의 제3 출력 영상으로 변환할 수 있다.
즉, 제어부(170)는 3가지 조건이 만족되는 경우, MEMC를 통해 제3 주파수의 제2 출력 영상을 제1 주파수의 체배인 제4 주파수의 제3 출력 영상으로 변환할 수 있다.
제4 주파수는 24Hz의 4배인 96Hz일 수 있다.
MEMC(움직임 추정/움직임 보상)은 영상의 보간 작업의 한 예일 수 있다.
움직임 추정(ME)은 비디오 프레임을 복수의 작은 블록들로 분할하고, 현재 영상 프레임의 이전 프레임 또는 미래의 기 부호화된 프레임 상의 어떤 블록으로부터 이동되었는지를 추정하여, 현재의 블록을 예측하는 방법일 수 있다.
움직임 보상(MC)은 움직임 추정의 부 정확성을 보상하기 위한, 예측 값과 실제 값의 차이를 보상하는 것일 수 있다.
제어부(170)는 제3 주파수의 제2 출력 영상에 기초하여 제1 주파수의 입력 영상을 추출할 수 있다. 제1 주파수의 입력 영상은 원본 영상으로 명명될 수 있다.
제어부(170)는 제1 주파수의 입력 영상을 추출하고, 추출된 입력 영상에 대해 MEMC를 수행하여 제1 주파수의 체배인 제4 주파수의 제3 출력 영상을 생성할 수 있다.
도 10은 본 개시의 일 실시 예에 따라 제3 주파수의 제2 출력 영상으로부터 원본 영상을 추출하고, 추출된 원본 영상에 대해 MEMC를 수행하는 과정을 설명하는 도면이다.
서브 프로세서(630)의 프레임 레이트 조정기(633)는 입력 영상(또는 원본 영상)의 주파수 정보, 모션 스무딩 정보 및 풀 다운 정보에 기초하여 MEMC를 통해 제1 주파수의 입력 영상을 제4 주파수의 제3 출력 영상으로 변환할 수 있다.
프레임 레이트 조정기(633)는 제3 주파수의 제2 출력 영상으로부터 원본 영상을 추출할 수 있다.
원본 영상은 메인 프로세서(610)에 입력된 제1 주파수의 입력 영상일 수 있다.
원본 영상은 제1 영상 프레임(A), 제2 영상 프레임(B), 제3 영상 프레임(C)을 포함할 수 있다.
프레임 레이트 조정기(633)는 제1 영상 프레임(A)과 제1 영상 프레임(A)을 뒤따르는 제2 영상 프레임(B)을 이용하여 MEMC가 수행된 3개의 MEMC 프레임들(MEMC 1, MEMC 2, MEMC 3)을 생성할 수 있다.
프레임 레이트 조정기(633)는 제2 영상 프레임(B)과 제2 영상 프레임(B)을 뒤따르는 제3 영상 프레임(C)을 이용하여 MEMC가 수행된 3개의 MEMC 프레임들(MEMC 4, MEMC 5, MEMC 6)을 생성할 수 있다.
각 MEMC 프레임은 2개의 영상 프레임들 사이에 생성되므로, 보간 프레임(Interpolation frame)으로 명명될 수 있다.
프레임 레이트 조정기(633)는 60Hz의 제2 출력 영상으로부터 원본 영상을 추출하고, MEMC 수행을 통해 원본 영상의 프레임 레이트를 24Hz에서 96Hz로 변경할 수 있다.
다시, 도 7을 설명한다.
제어부(170)는 제4 주파수의 제3 출력 영상을 디스플레이부(180)로 출력한다(S709).
예를 들어, 제어부(170)는 8K의 해상도를 갖는 96Hz의 제3 출력 영상을 디스플레이부(180)로 출력할 수 있다.
디스플레이부(180)는 8K의 해상도를 갖는 제3 출력 영상을 표시할 수 있다.
도 11a은 디스플레이부의 출력 주파수가 120Hz인 경우, 4K의 해상도를 갖는 24Hz의 입력 영상이 8K의 해상도를 갖는 96Hz의 출력 영상으로 변환되는 과정을 설명하는 도면이다.
도 11a를 참조하면, 메인 프로세서(610)는 외부 기기로부터 4K의 해상도를 갖는 24Hz의 입력 영상을 수신할 수 있다.
메인 프로세서(610)는 4K의 해상도를 갖는 24Hz의 입력 영상의 해상도를 유지하면서, 프레임 레이트를 24Hz에서 120Hz로 변경할 수 있다.
서브 프로세서(630)의 메인 스케일러(631)는 4K의 해상도를 갖는 120Hz의 출력 영상의 해상도를 업 스케일링을 통해 8K로 변환할 수 있다.
메인 스케일러(631)는 해상도를 4K에서 8K로 변환하면서 120Hz의 출력 영상을 60Hz의 출력 영상으로 변환할 수 있다.
프레임 레이트 조정기(633)는 메인 프로세서(610)로부터 입력 영상의 주파수 정보 및 모션 스무딩 정보를 수신할 수 있다.
프레임 레이트 조정기(633)는 입력 영상의 주파수가 24Hz이고, 모션 스무딩 정보에 포함된 모션 스무딩 모드가 영화 모드이고, 메인 스케일러(631)로부터 수신된 출력 영상의 풀 다운 정보가 3:2인 경우, MEMC 수행을 통해 8K 해상도를 갖는 60Hz의 출력 영상을 8K 해상도를 갖는 96Hz의 출력 영상으로 변환할 수 있다.
도 11b는 디스플레이부의 출력 주파수가 60Hz인 경우, 4K의 해상도를 갖는 24Hz의 입력 영상이 8K의 해상도를 갖는 48Hz의 출력 영상으로 변환되는 과정을 설명하는 도면이다.
도 11b를 참조하면, 메인 프로세서(610)는 외부 기기로부터 4K의 해상도를 갖는 24Hz의 입력 영상을 수신할 수 있다.
메인 프로세서(610)는 4K의 해상도를 갖는 24Hz의 입력 영상의 해상도를 유지하면서, 프레임 레이트를 24Hz에서 120Hz로 변경할 수 있다.
서브 프로세서(630)의 메인 스케일러(631)는 4K의 해상도를 갖는 120Hz의 출력 영상의 해상도를 업 스케일링을 통해 8K로 변환할 수 있다.
메인 스케일러(631)는 해상도를 4K에서 8K로 변환하면서 120Hz의 출력 영상을 60Hz의 출력 영상으로 변환할 수 있다.
프레임 레이트 조정기(633)는 메인 프로세서(610)로부터 입력 영상의 주파수 정보 및 모션 스무딩 정보를 수신할 수 있다.
프레임 레이트 조정기(633)는 입력 영상의 주파수가 24Hz이고, 모션 스무딩 정보에 포함된 모션 스무딩 모드가 영화 모드이고, 메인 스케일러(631)로부터 수신된 출력 영상의 풀 다운 정보가 3:2인 경우, MEMC 수행을 통해 8K 해상도를 갖는 60Hz의 출력 영상을 8K 해상도를 갖는 48Hz의 출력 영상으로 변환할 수 있다.
도 12a는 종래 기술에 따라 스크린 뮤트 동작이 발생되는 과정을 설명하는 도면이고, 도 12b는 본 개시의 실시 예가 적용되어 스크린 뮤트 동작이 발생되지 않는 과정을 설명하는 도면이다.
도 12a 및 도 12b에서 디스플레이부(180)의 주사율은 120Hz임을 가정한다.
도 12a를 참조하면, 메인 프로세서(610)는 24Hz의 입력 영상을 수신한다.
메인 프로세서(610)는 모션 스무딩 모드가 오프 모드, 내튜럴 모드, 사용자 모드, 스무스 모드 중 어느 하나인 경우, 24Hz의 입력 영상을 120Hz의 출력 영상으로 변환할 수 있다.
서브 프로세서(630)는 120Hz의 출력 영상을 디스플레이부(180)로 출력할 수 있다.
메인 프로세서(610)는 모션 스무딩 모드가 오프 모드, 내튜럴 모드, 사용자 모드, 스무스 모드 중 어느 하나에서 영화 모드로 변경되는 경우, 24Hz의 입력 영상을 96Hz의 출력 영상으로 변환할 수 있다.
이 경우, 서브 프로세서(630)에 입력되는 영상의 주파수는 120Hz에서 96Hz로 변경됨에 따라 싱크가 어긋나게 되어 스크린 뮤트 동작이 발생된다.
스크린 뮤트 동작으로 인해, 사용자는 영상의 시청에 방해를 받게 된다.
도 12b를 참조하면, 메인 프로세서(610)는 24Hz의 입력 영상을 수신한다.
메인 프로세서(610)는 모션 스무딩 모드가 오프 모드, 내튜럴 모드, 사용자 모드, 스무스 모드 중 어느 하나인 경우, 24Hz의 입력 영상을 120Hz의 출력 영상으로 변환할 수 있다.
메인 프로세서(610)는 모션 스무딩 모드가 오프 모드, 내튜럴 모드, 사용자 모드, 스무스 모드 중 어느 하나에서 영화 모드로 변경되는 경우, 24Hz의 입력 영상을 120Hz의 출력 영상으로 유지할 수 있다.
즉, 메인 프로세서(610)는 모션 스무딩 모드가 오프 모드, 내튜럴 모드, 사용자 모드, 스무스 모드 중 어느 하나에서 영화 모드로 변경되더라도 24Hz의 입력 영상을 120Hz의 출력 영상으로 유지할 수 있다.
이에 따라 서브 프로세서(630)에 입력되는 영상의 주파수는 120Hz로 고정됨에 따라 스크린 뮤트 동작이 발생되지 않을 수 있다.
이와 같이, 본 개시의 실시 예에 따르면 모션 스무딩 모드가 오프 모드, 내튜럴 모드, 사용자 모드, 스무스 모드 중 어느 하나에서 영화 모드로 변경되더라도 서브 프로세서(630)에 입력되는 영상의 주파수가 고정되어 스크린 뮤트 동작이 발생되는 것을 막을 수 있다.
사용자는 모션 스무딩 모드가 다른 모드에서 영화 모드로 변경되더라도 영상의 시청에 제약을 받지 않을 수 있다.
한편, 서브 프로세서(630)는 120Hz의 영상을 MEMC 수행을 통해 96Hz의 영상으로 변환할 수 있다. 96Hz는 영화 모드를 최적으로 구현할 수 있는 주사율일 수 있다.
도 13은 모션 스무딩 모드(트루 모션 모드)에 따른 디스플레이부의 출력 주파수를 설명하는 도면이다.
도 13에서 디스플레이부(180)는 60Hz의 주사율 또는 120Hz의 주사율을 갖는 모델일 수 있다.
모션 스무딩 모드(또는 트루 모션 모드)는 오프 모드, 영화적 움직임(Cinematic movement) 모드(또는 영화 모드), 내츄럴 모드, 스무스 모드, 사용자 모드 중 어느 하나일 수 있다.
60Hz 모델의 경우, 오프 모드에서(그 중에서 리얼 시네마 오프 모드)는 24Hz의 입력 영상에 대해 3:2 pull-down이 적용되어, 60Hz의 출력 영상이 생성될 수 있다.
120Hz 모델의 경우, 오프 모드에서(그 중에서 리얼 시네마 오프 모드)는 24Hz의 입력 영상에 대해 6:4 pull-down이 적용되어, 120Hz의 출력 영상이 생성될 수 있다.
60Hz 모델의 경우, 오프 모드에서(그 중에서 리얼 시네마 온 모드)는 24Hz의 입력 영상에 대해 2:2 pull-down이 적용되어, 48Hz의 출력 영상이 생성될 수 있다.
120Hz 모델의 경우, 오프 모드에서(그 중에서 리얼 시네마 온 모드)는 24Hz의 입력 영상에 대해 5:5 pull-down이 적용되어, 120Hz의 출력 영상이 생성될 수 있다.
60Hz 모델의 경우, 영화적 움직임 모드에서는 24Hz의 입력 영상에 대해 MEMC가 수행되어 48Hz의 출력 영상이 생성될 수 있다.
120Hz 모델의 경우, 영화적 움직임 모드에서는 24Hz의 입력 영상에 대해 MEMC가 수행되어 96Hz의 출력 영상이 생성될 수 있다.
60Hz 모델의 경우, 내츄럴 모드, 스무스 모드 및 사용자 모드에서는 24Hz의 입력 영상에 대해 60Hz의 출력 영상이 생성될 수 있다.
120Hz 모델의 경우, 내츄럴 모드, 스무스 모드 및 사용자 모드에서 24Hz의 입력 영상에 대해 120Hz의 출력 영상이 생성될 수 있다.
한편, 본 개시의 실시 예의 적용 여부는 모션 스무딩 모드가 다른 모드에서 영화 모드로 변경되는 경우, 메인 프로세서(610)에서 출력되는 영상의 주파수가 120Hz로 유지됨을 확인하여 판단될 수 있다.
또한, 서브 프로세서(630)의 출력 영상의 주파수가 96Hz가 되는지를 확인하여 본 개시의 적용 여부가 판단될 수 있다.
이를 위해 침해 입증자는 모션 스무딩 모드가 다른 모드에서 영화 모드로 변경시켜, 오실로스코프를 통해 메인 프로세서(610)의 출력 주파수가 120Hz인지, 서브 프로세서(630)의 출력 주파수가 96Hz인지를 측정할 수 있다.
본 개시의 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (14)

  1. 디스플레이 장치에 있어서,
    디스플레이부;
    제1 주파수의 입력 영상을 수신하고, 영상의 자연스러움 정도를 나타내는 모션 스무딩 모드가 제1 모드에서 제2 모드로 변경된 경우, 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 메인 프로세서; 및
    상기 제2 주파수의 상기 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환하고, 상기 제3 주파수의 제2 출력 영상에 대한 영상 보간을 통해 제4 주파수의 제3 출력 영상을 상기 디스플레이부로 출력하는 서브 프로세서를 포함하는
    디스플레이 장치.
  2. 제1항에 있어서,
    상기 모션 스무딩 모드는
    오프 모드, 영화 모드, 내츄럴 모드, 사용자 모드 및 스무스 모드를 포함하고,
    상기 메인 프로세서는
    상기 모션 스무딩 모드가 상기 오프 모드, 상기 영화 모드, 상기 내츄럴 모드, 상기 사용자 모드 중 어느 하나에서 상기 영화 모드로 변경된 경우, 상기 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는
    디스플레이 장치.
  3. 제2항에 있어서,
    상기 디스플레이부의 주사율이 120Hz인 경우, 상기 제1 주파수는 24Hz이고, 상기 제2 주파수는 120Hz이고, 상기 제3 주파수는 60Hz이고, 상기 제4 주파수는 96Hz인
    디스플레이 장치.
  4. 제2항에 있어서,
    상기 디스플레이부의 주사율이 120Hz인 경우, 상기 제1 주파수는 24Hz이고, 상기 제2 주파수는 120Hz이고, 상기 제3 주파수는 60Hz이고, 상기 제4 주파수는 48Hz인
    디스플레이 장치.
  5. 제1항에 있어서,
    상기 메인 프로세서는
    상기 제1 주파수의 상기 입력 영상의 해상도를 유지하면서, 5:5 풀 다운을 통해 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는
    디스플레이 장치.
  6. 제1항에 있어서,
    상기 서브 프로세서는
    상기 제2 주파수의 상기 제1 출력 영상의 해상도를 변경하면서, 3:2 풀 다운을 통해 상기 제2 주파수의 상기 제1 출력 영상을 상기 제3 주파수의 제2 출력 영상으로 변환하는 메인 스케일러 및
    상기 입력 영상의 주파수 정보, 모션 스무딩 정보 및 풀다운 정보에 기초하여 상기 제3 주파수의 상기 제2 출력 영상을 상기 제4 주파수의 상기 제3 출력 영상으로 변환하는 프레임 레이트 조정기를 포함하는
    디스플레이 장치.
  7. 제6항에 있어서,
    상기 프레임 레이트 조정기는
    상기 입력 영상의 주파수 정보가 24Hz이고, 상기 모션 스무딩 정보에 포함된 모션 스무딩 모드가 영화 모드이고, 상기 풀 다운 정보가 3:2인 경우, 움직임 추정(Motion Estimation) 및 움직임 보상(Motion Compensation)을 수행하여, 상기 제4 주파수의 상기 제3 출력 영상을 생성하는
    디스플레이 장치.
  8. 디스플레이 장치의 동작 방법에 있어서,
    제1 주파수의 입력 영상을 수신하는 단계;
    영상의 자연스러움 정도를 나타내는 모션 스무딩 모드가 제1 모드에서 제2 모드로 변경된 경우, 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 단계;
    상기 제2 주파수의 상기 제1 출력 영상을 제3 주파수의 제2 출력 영상으로 변환하는 단계; 및
    상기 제3 주파수의 제2 출력 영상에 대한 영상 보간을 통해 제4 주파수의 제3 출력 영상을 디스플레이부로 출력하는 단계를 포함하는
    디스플레이 장치의 동작 방법.
  9. 제8항에 있어서,
    상기 모션 스무딩 모드는
    오프 모드, 영화 모드, 내츄럴 모드, 사용자 모드 및 스무스 모드를 포함하고,
    상기 제1 출력 영상으로 변환하는 단계는
    상기 모션 스무딩 모드가 상기 오프 모드, 상기 영화 모드, 상기 내츄럴 모드, 상기 사용자 모드 중 어느 하나에서 상기 영화 모드로 변경된 경우, 상기 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 단계를 포함하는
    디스플레이 장치의 동작 방법.
  10. 제9항에 있어서,
    상기 디스플레이부의 주사율이 120Hz인 경우, 상기 제1 주파수는 24Hz이고, 상기 제2 주파수는 120Hz이고, 상기 제3 주파수는 60Hz이고, 상기 제4 주파수는 96Hz인
    디스플레이 장치의 동작 방법.
  11. 제9항에 있어서,
    상기 디스플레이부의 주사율이 120Hz인 경우, 상기 제1 주파수는 24Hz이고, 상기 제2 주파수는 120Hz이고, 상기 제3 주파수는 60Hz이고, 상기 제4 주파수는 48Hz인
    디스플레이 장치의 동작 방법.
  12. 제8항에 있어서,
    상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 단계는
    상기 제1 주파수의 상기 입력 영상의 해상도를 유지하면서, 5:5 풀 다운을 통해 상기 제1 주파수의 상기 입력 영상을 기 설정된 제2 주파수의 제1 출력 영상으로 변환하는 단계를 포함하는
    디스플레이 장치의 동작 방법.
  13. 제8항에 있어서,
    상기 제2 주파수의 상기 제1 출력 영상을 상기 제3 주파수의 제2 출력 영상으로 변환하는 단계는
    상기 제2 주파수의 상기 제1 출력 영상의 해상도를 변경하면서, 3:2 풀 다운을 통해 상기 제2 주파수의 상기 제1 출력 영상을 상기 제3 주파수의 제2 출력 영상으로 변환하는 단계를 포함하고,
    상기 제3 주파수의 상기 제2 출력 영상을 상기 제4 주파수의 상기 제3 출력 영상으로 변환하는 단계는
    상기 입력 영상의 주파수 정보, 모션 스무딩 정보 및 풀다운 정보에 기초하여 상기 제3 주파수의 상기 제2 출력 영상을 상기 제4 주파수의 상기 제3 출력 영상으로 변환하는 단계를 포함하는
    디스플레이 장치의 동작 방법.
  14. 제13항에 있어서,
    상기 입력 영상의 주파수 정보, 모션 스무딩 정보 및 풀다운 정보에 기초하여 상기 제3 주파수의 상기 제2 출력 영상을 상기 제4 주파수의 상기 제3 출력 영상으로 변환하는 단계는
    상기 입력 영상의 주파수 정보가 24Hz이고, 상기 모션 스무딩 정보에 포함된 모션 스무딩 모드가 영화 모드이고, 상기 풀 다운 정보가 3:2인 경우, 움직임 추정(Motion Estimation) 및 움직임 보상(Motion Compensation)을 수행하여, 상기 제4 주파수의 상기 제3 출력 영상을 생성하는 단계를 포함하는
    디스플레이 장치의 동작 방법.
KR1020230007927A 2023-01-19 2023-01-19 디스플레이 장치 및 그의 동작 방법 Active KR102777582B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230007927A KR102777582B1 (ko) 2023-01-19 2023-01-19 디스플레이 장치 및 그의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230007927A KR102777582B1 (ko) 2023-01-19 2023-01-19 디스플레이 장치 및 그의 동작 방법

Publications (2)

Publication Number Publication Date
KR20240115507A KR20240115507A (ko) 2024-07-26
KR102777582B1 true KR102777582B1 (ko) 2025-03-11

Family

ID=92148097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230007927A Active KR102777582B1 (ko) 2023-01-19 2023-01-19 디스플레이 장치 및 그의 동작 방법

Country Status (1)

Country Link
KR (1) KR102777582B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079287A (ja) 2007-07-10 2008-04-03 Sharp Corp 画像表示装置及び方法
JP2009111885A (ja) 2007-10-31 2009-05-21 Toshiba Corp 画像データ処理装置および画像データ処理方法
JP2010093596A (ja) 2008-10-09 2010-04-22 Hitachi Ltd 表示システム及び受信装置
KR102304860B1 (ko) 2020-03-19 2021-09-27 엘지전자 주식회사 디스플레이 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102469484B1 (ko) * 2021-01-29 2022-11-22 엘지전자 주식회사 디스플레이 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008079287A (ja) 2007-07-10 2008-04-03 Sharp Corp 画像表示装置及び方法
JP2009111885A (ja) 2007-10-31 2009-05-21 Toshiba Corp 画像データ処理装置および画像データ処理方法
JP2010093596A (ja) 2008-10-09 2010-04-22 Hitachi Ltd 表示システム及び受信装置
KR102304860B1 (ko) 2020-03-19 2021-09-27 엘지전자 주식회사 디스플레이 장치

Also Published As

Publication number Publication date
KR20240115507A (ko) 2024-07-26

Similar Documents

Publication Publication Date Title
US11222410B2 (en) Image display apparatus
US11798508B2 (en) Display device and method for operating same
US11854475B2 (en) Display device
US20140267285A1 (en) Display apparatus and control method thereof for applying motion compensation to remove artifacts from images
KR102304860B1 (ko) 디스플레이 장치
KR20190055418A (ko) 컨텐츠 제공장치, 그 제어방법 및 기록매체
KR102777582B1 (ko) 디스플레이 장치 및 그의 동작 방법
KR102469484B1 (ko) 디스플레이 장치
KR20220013977A (ko) 유기 발광 다이오드 디스플레이 장치 및 그의 동작 방법
US10225611B2 (en) Point-to-point content navigation using an auxiliary device
EP4235640A1 (en) Display device
KR20230134966A (ko) 디스플레이 장치 및 그의 동작 방법
CN111445427B (zh) 视频图像处理方法以及显示设备
US9117387B2 (en) Image display apparatus and method for operating the same
KR20230008977A (ko) 유기 발광 다이오드 표시 장치
KR102782009B1 (ko) 디스플레이 장치 및 그의 동작 방법
KR102747149B1 (ko) 디스플레이 장치 및 그의 휘도 제어 방법
US11922936B2 (en) Home appliance and operating method thereof
KR102729948B1 (ko) 디스플레이 장치 및 그의 동작 방법
CN113009963B (zh) 一种浏览器语音提醒方法及显示设备
EP4488989A1 (en) Display device
KR20100027315A (ko) 디스플레이장치 및 그의 제어 방법
KR20250082544A (ko) 싱크 장치 및 그의 동작 방법
KR100731357B1 (ko) 화질 조정 방법 및 이를 수행하는 영상처리장치
KR101963777B1 (ko) 디스플레이장치, 업그레이드장치, 디스플레이 시스템 및 이들의 제어방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20230119

PA0201 Request for examination

Patent event code: PA02011R01I

Patent event date: 20230119

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240715

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20241206

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250304

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250305

End annual number: 3

Start annual number: 1

PG1601 Publication of registration