[go: up one dir, main page]

KR102739527B1 - Electronic apparatus and the method thereof - Google Patents

Electronic apparatus and the method thereof Download PDF

Info

Publication number
KR102739527B1
KR102739527B1 KR1020200020339A KR20200020339A KR102739527B1 KR 102739527 B1 KR102739527 B1 KR 102739527B1 KR 1020200020339 A KR1020200020339 A KR 1020200020339A KR 20200020339 A KR20200020339 A KR 20200020339A KR 102739527 B1 KR102739527 B1 KR 102739527B1
Authority
KR
South Korea
Prior art keywords
frames
frame
electronic device
area
subframe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200020339A
Other languages
Korean (ko)
Other versions
KR20210105635A (en
Inventor
민병석
최윤식
김신행
문영수
윤종수
이상수
조영훈
Original Assignee
삼성전자주식회사
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 연세대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020200020339A priority Critical patent/KR102739527B1/en
Priority to PCT/KR2020/019035 priority patent/WO2021167230A1/en
Publication of KR20210105635A publication Critical patent/KR20210105635A/en
Application granted granted Critical
Publication of KR102739527B1 publication Critical patent/KR102739527B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 일 실시예에 따른 전자장치에 있어서, 디스플레이와; 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누고, 상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누고, 상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하고, 상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 프로세서를 포함할 수 있다.In one embodiment of the present invention, an electronic device may include a display; and a processor configured to divide an input image into a plurality of frame sets having a first number of frames, divide the first number of frames included in the frame sets into a plurality of subframe sets having a second number of frames, identify a predefined key frame among frames included in each subframe set for each of the plurality of subframe sets, and identify an area within the image in which a luminance change of the frame set is less than a threshold value based on a luminance change between the frames using the identified key frame.

Description

전자장치 및 그 제어방법{ELECTRONIC APPARATUS AND THE METHOD THEREOF}ELECTRONIC APPARATUS AND THE METHOD THEREOF

본 개시는 디스플레이에 표시되는 영상의 열화 현상을 방지하는 전자장치 및 그 제어방법에 관한 것이다.The present disclosure relates to an electronic device and a control method thereof for preventing deterioration of an image displayed on a display.

최근, 유기전계발광 표시 장치(Organic Light Emitting Display Device), 액정 표시 장치(Liquid Crystal Display Device), 플라즈마 표시 장치(Plasma Display Device) 등 다양한 종류의 표시 장치들이 널리 사용되고 있다. 이러한 표시 장치들은 구동 시간이 오래됨에 따라 소위 번 인(Burn-in) 현상에 의해 특정 픽셀(Pixel)이 열화되어 그 성능이 저하될 수 있다. 예를 들어, 공공 장소, 차량 등에서 정보 전달을 위하여 사용되는 디지털 정보 표시 장치(Digital Information Display Device)는 특정 영상 또는 글자를 오랜 시간 동안 지속적으로 출력하므로, 특정 픽셀의 열화가 가속되어 잔상이 발생할 수 있다. 특히 대부분의 방송은 화면 상단에 프로그램 이름 혹은 해당 방송사 이름을 표시하므로, 채널 내 고정되어 표시되는 영역에 픽셀의 열화가 발생할 수 있다. 이를 해결하기 위해 디스플레이 패널 상에 일정 주기로 영상을 이동시켜 표시하는 픽셀 시프트(Pixel Shift) 기술, 특정 영역의 휘도를 감소시켜 수명을 늘리는 휘도 감소(Luminance Reduction) 기술 등이 사용되고 있다. 그러나 이러한 기술을 사용하기 위해서는 픽셀의 열화가 발생하는 영역을 정확하게 파악할 필요가 있고 이는 각 기술의 효율과 직결된다.Recently, various types of display devices such as organic light emitting display devices, liquid crystal display devices, and plasma display devices are widely used. As these display devices are operated for a long time, specific pixels may deteriorate due to the so-called burn-in phenomenon, which may deteriorate their performance. For example, digital information display devices used for information transmission in public places, vehicles, etc. continuously output specific images or letters for a long time, so the deterioration of specific pixels may accelerate and afterimages may occur. In particular, most broadcasts display the program name or the name of the broadcaster at the top of the screen, so pixel deterioration may occur in areas that are fixedly displayed within the channel. To solve this problem, pixel shift technology, which displays images by moving them periodically on the display panel, and luminance reduction technology, which reduces the luminance of a specific area to extend its lifespan, are being used. However, in order to use these technologies, it is necessary to accurately identify the area where pixel degradation occurs, and this is directly related to the efficiency of each technology.

본 개시의 목적은 디스플레이에 표시되는 영상의 열화 현상을 보다 효과적으로 방지하는 전자장치 및 그 제어방법을 제공하는 것이다.The purpose of the present disclosure is to provide an electronic device and a control method thereof that more effectively prevent deterioration of an image displayed on a display.

본 발명의 일 실시예에 따른 전자장치에 있어서, 디스플레이와; 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누고, 상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누고, 상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하고, 상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 프로세서를 포함할 수 있다.In one embodiment of the present invention, an electronic device may include a display; and a processor configured to divide an input image into a plurality of frame sets having a first number of frames, divide the first number of frames included in the frame sets into a plurality of subframe sets having a second number of frames, identify a predefined key frame among frames included in each subframe set for each of the plurality of subframe sets, and identify an area within the image in which a luminance change of the frame set is less than a threshold value based on a luminance change between the frames using the identified key frame.

상기 프로세서는, 상기 서브프레임 세트에 포함된 상기 키프레임과 상기 다른 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The processor can identify a luminance change in the frame set based on a luminance change between the key frame included in the subframe set and the other frame.

상기 프로세서는, 상기 키프레임과, 상기 키프레임에 후속하는 상기 프레임 간의 순차적인 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The processor can identify luminance changes in the set of frames based on sequential luminance changes between the keyframe and the frame following the keyframe.

상기 키프레임은, 상기 키프레임이 포함된 상기 서브프레임 세트의 첫번째 프레임일 수 있다.The above keyframe may be the first frame of the set of subframes that includes the above keyframe.

상기 프로세서는, 상기 키프레임들 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The processor can identify luminance changes in the frame set based on luminance changes between the keyframes.

상기 프로세서는, 상기 복수의 서브프레임 세트에서의 휘도 변화들 간의 계산에 기초하여 상기 프레임 세트의 휘도 변화를 식별할 수 있다.The above processor can identify a luminance change of the frame set based on a calculation between luminance changes in the plurality of subframe sets.

상기 프레임 세트는 제1프레임 세트이고, 상기 프로세서는, 상기 제1프레임 세트의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별할 수 있다.The above frame set is a first frame set, and the processor can identify an area within the image based on a luminance change in a second frame set in a section moved by a predefined number of subframe sets in the section of the first frame set.

상기 프로세서는, 상기 제1프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하고, 상기 식별된 영역을 기준으로 상기 제2프레임 세트의 휘도 변화에 기초한 상기 영역의 변화를 식별할 수 있다.The processor can identify a region within the image based on a change in luminance of the first set of frames, and identify a change in the region based on a change in luminance of the second set of frames based on the identified region.

상기 프로세서는, 상기 제1프레임 세트 및 상기 제2프레임 세트의 휘도 변화들 간의 계산에 기초하여 상기 영상 내의 영역을 식별할 수 있다.The processor can identify an area within the image based on calculations between luminance changes of the first frame set and the second frame set.

상기 서브프레임 세트는 제1서브프레임 세트, 상기 키프레임은 제1키프레임이고, 상기 프로세서는, 상기 서브프레임 세트에 포함된 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나누고, 상기 복수의 제2서브프레임 세트 별로 각 제2서브프레임 세트에 포함된 프레임 중 기 정의된 제2키프레임을 식별하고, 상기 식별된 제2키프레임을 이용한 프레임 간의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별할 수 있다.The above subframe set is a first subframe set, the keyframe is a first keyframe, and the processor divides a second number of frames included in the subframe set into a plurality of second subframe sets having a third number of frames, identifies a predefined second keyframe among the frames included in each second subframe set for each of the plurality of second subframe sets, and identifies an area within the image based on a luminance change between frames using the identified second keyframe.

본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계; 상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계; 상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계; 및 상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.A method for controlling an electronic device according to one embodiment of the present invention may include: a step of dividing an input image into a plurality of frame sets having a first number of frames; a step of dividing the first number of frames included in the frame sets into a plurality of subframe sets having a second number of frames; a step of identifying a predefined key frame among frames included in each subframe set for each of the plurality of subframe sets; and a step of identifying an area within the image in which a luminance change of the frame set is less than a threshold value based on a luminance change between the frames using the identified key frame.

상기 영상 내의 영역을 식별하는 단계는, 상기 서브프레임 세트에 포함된 상기 키프레임과 상기 다른 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The step of identifying an area within the image may include the step of identifying a luminance change in the set of frames based on a luminance change between the key frame included in the set of subframes and the other frames.

상기 프레임 세트의 휘도 변화를 식별하는 단계는, 상기 키프레임과, 상기 키프레임에 후속하는 상기 프레임 간의 순차적인 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The step of identifying a luminance change of the set of frames may include a step of identifying a luminance change of the set of frames based on sequential luminance changes between the key frame and the frame subsequent to the key frame.

상기 영상 내의 영역을 식별하는 단계는, 상기 키프레임들 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The step of identifying an area within the image may include the step of identifying a luminance change in the set of frames based on a luminance change between the key frames.

상기 영상 내의 영역을 식별하는 단계는, 상기 복수의 서브프레임 세트에서의 휘도 변화들 간의 계산에 기초하여 상기 프레임 세트의 휘도 변화를 식별하는 단계를 포함할 수 있다.The step of identifying an area within the image may include the step of identifying a luminance change in the set of frames based on a calculation between luminance changes in the plurality of sets of subframes.

상기 프레임 세트는 제1프레임 세트이고, 상기 영상 내의 영역을 식별하는 단계는, 상기 제1프레임 세트의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.The above frame set is a first frame set, and the step of identifying an area within the image may include a step of identifying an area within the image based on a luminance change in a second frame set in a section moved by a predefined number of subframe sets in a section of the first frame set.

상기 영상 내의 영역을 식별하는 단계는, 상기 제1프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 단계; 및 상기 식별된 영역을 기준으로 상기 제2프레임 세트의 휘도 변화에 기초한 상기 영역의 변화를 식별하는 단계를 포함할 수 있다.The step of identifying a region within the image may include the step of identifying a region within the image based on a luminance change of the first frame set; and the step of identifying a change in the region based on a luminance change of the second frame set with the identified region as a reference.

상기 서브프레임 세트는 제1서브프레임 세트, 상기 키프레임은 제1키프레임이고, 상기 서브프레임 세트에 포함된 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나누는 단계; 상기 복수의 제2서브프레임 세트 별로 각 제2서브프레임 세트에 포함된 프레임 중 기 정의된 제2키프레임을 식별하는 단계; 및 상기 식별된 제2키프레임을 이용한 프레임 간의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.The subframe set may include a first subframe set, the keyframe is a first keyframe, a step of dividing a second number of frames included in the subframe set into a plurality of second subframe sets having a third number of frames; a step of identifying a predefined second keyframe among the frames included in each second subframe set of the plurality of second subframe sets; and a step of identifying an area within the image based on a luminance change between frames using the identified second keyframe.

컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은, 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계; 상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계; 상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계; 및 상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계를 포함할 수 있다.A computer program including a computer-readable code that performs a method for controlling an electronic device is stored in a recording medium, wherein the method for controlling an electronic device comprises: a step of dividing an input image into a plurality of frame sets having a first number of frames; a step of dividing the first number of frames included in the frame sets into a plurality of subframe sets having a second number of frames; a step of identifying a predefined key frame among frames included in each subframe set for each of the plurality of subframe sets; and a step of identifying an area within the image in which a luminance change in the frame set is less than a threshold value based on a luminance change between the frames using the identified key frame.

디스플레이에 표시되는 영상의 열화 현상을 방지하기 위해 열화가 일어나는 영역을 정교하게 식별할 수 있다. 그리고, 영상에 대한 노이즈, 압축으로 인한 영역 손실이 발생하는 경우에도 안정적으로 열화가 일어나는 영역을 식별할 수 있다.In order to prevent degradation of images displayed on a display, the area where degradation occurs can be precisely identified. In addition, even when noise or area loss due to compression occurs in the image, the area where degradation occurs can be stably identified.

도 1은 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 의한 전자장치의 동작 흐름도를 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.
도 4은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다.
FIG. 1 is a diagram illustrating the configuration of an electronic device according to one embodiment of the present invention.
FIG. 2 is a block diagram illustrating an operation flow diagram of an electronic device according to one embodiment of the present invention.
FIG. 3 is a diagram illustrating a frame processed by an electronic device according to one embodiment of the present invention.
FIG. 4 is a diagram illustrating a frame processed by an electronic device according to one embodiment of the present invention.
FIG. 5 is a diagram illustrating a frame processed by an electronic device according to one embodiment of the present invention.
FIG. 6 is a diagram illustrating a frame processed by an electronic device according to one embodiment of the present invention.
FIG. 7 is a diagram illustrating a frame processed by an electronic device according to one embodiment of the present invention.

이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numbers or symbols refer to components that perform substantially the same functions, and the size of each component in the drawings may be exaggerated for clarity and convenience of explanation. However, the technical idea of the present invention and its core configuration and operation are not limited to the configuration or operation described in the following embodiments. In describing the present invention, if it is determined that a specific description of a known technology or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 구현될 수 있다. 또한, 본 발명의 실시예에서, 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.In the embodiments of the present invention, terms including ordinal numbers such as first, second, etc. are used only for the purpose of distinguishing one component from another component, and singular expressions include plural expressions unless the context clearly indicates otherwise. In addition, in the embodiments of the present invention, it should be understood that terms such as 'configured', 'include', 'have', etc. do not exclude in advance the possibility of the existence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof. In addition, in the embodiments of the present invention, a 'module' or 'part' performs at least one function or operation, may be implemented as hardware or software, or may be implemented as a combination of hardware and software, and may be implemented as an integrated unit of at least one module. In addition, in the embodiments of the present invention, at least one of a plurality of elements refers not only to all of the plurality of elements, but also to each one excluding the rest of the plurality of elements or all combinations thereof.

도 1은 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 도면이다.FIG. 1 is a diagram illustrating the configuration of an electronic device according to one embodiment of the present invention.

이 때, 전자장치(100)는 영상을 표시할 수 있는 디스플레이장치로 구현될 수 있다. 일 예로, 전자장치(100)는 TV, 컴퓨터, 스마트 폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등을 포함할 수 있다.At this time, the electronic device (100) may be implemented as a display device capable of displaying an image. For example, the electronic device (100) may include a TV, a computer, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, etc.

도 1에 도시된 바와 같이, 전자장치(100)는 인터페이스부(110)를 포함할 수 있다. 인터페이스부(110)는 유선 인터페이스부(111)를 포함할 수 있다. 유선 인터페이스부(111)는 지상파/위성방송 등 방송표준에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송표준에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(100)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부(111)는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART 등과 같이, 비디오 및/또는 오디오 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 USB 포트 등과 같은 범용 데이터 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 광 전송표준에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 외부 마이크 또는 마이크를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오 신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오 신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 이더넷 등과 같은 네트워크 전송표준에 따른 커넥터 또는 포트를 포함할 수 있다. 예컨대, 유선 인터페이스부(111)는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.As illustrated in FIG. 1, the electronic device (100) may include an interface unit (110). The interface unit (110) may include a wired interface unit (111). The wired interface unit (111) includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting is connected, or a cable capable of receiving a broadcast signal according to a cable broadcasting standard is connected. As another example, the electronic device (100) may have a built-in antenna capable of receiving a broadcast signal. The wired interface unit (111) may include a connector or port according to a video and/or audio transmission standard, such as an HDMI port, a DisplayPort, a DVI port, Thunderbolt, composite video, component video, super video, SCART, etc. The wired interface unit (111) may include a connector or port according to a universal data transmission standard, such as a USB port. The wired interface unit (111) may include a connector or port, etc. to which an optical cable may be connected according to an optical transmission standard. The wired interface unit (111) may include a connector or port, etc. to which an external microphone or an external audio device equipped with a microphone is connected, and which may receive or input audio signals from the audio device. The wired interface unit (111) may include a connector or port, etc. to which an audio device such as a headset, earphones, or an external speaker is connected, and which may transmit or output audio signals to the audio device. The wired interface unit (111) may include a connector or port according to a network transmission standard such as Ethernet. For example, the wired interface unit (111) may be implemented as a LAN card, etc. that is wired and connected to a router or gateway.

유선 인터페이스부(111)는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오 신호를 수신하거나 또는 해당 외부기기에 비디오/오디오 신호를 송신한다. 유선 인터페이스부(111)는, 비디오/오디오 신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다. The wired interface unit (111) receives video/audio signals from the external device or transmits video/audio signals to the external device by being wired 1:1 or 1:N (N is a natural number) with an external device such as a set-top box, an optical media player, or an external display device, speaker, server, etc. through the connector or port. The wired interface unit (111) may also include a connector or port that separately transmits video/audio signals.

그리고, 본 실시예에 따르면 유선 인터페이스부(111)는 전자장치(100)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(100)의 커넥터에 착탈될 수도 있다. And, according to the present embodiment, the wired interface unit (111) is built into the electronic device (100), but may also be implemented in the form of a dongle or module and be detachable from the connector of the electronic device (100).

인터페이스부(110)는 무선 인터페이스부(112)를 포함할 수 있다. 무선 인터페이스부(112)는 전자장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부(112)는 통신방식으로 RF(radio frequency), 지그비(Zigbee), 블루투스(bluetooth), 와이파이(Wi-Fi), UWB(Ultra WideBand) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다. 무선 인터페이스부(112)는 와이파이(Wi-Fi) 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현될 수 있다. 무선 인터페이스부(112)는 네트워크 상의 서버와 무선 통신함으로써, 서버와의 사이에 데이터 패킷을 송수신할 수 있다. 무선 인터페이스부(112)는 적외선 통신표준에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부(112)는 IR송신부 및/또는 IR수신부를 통해 리모컨 또는 다른 외부기기로부터 리모컨신호를 수신 또는 입력하거나, 다른 외부기기로 리모컨신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(100)는 와이파이(Wi-Fi), 블루투스(bluetooth) 등 다른 방식의 무선 인터페이스부(112)를 통해 리모컨 또는 다른 외부기기와 리모컨신호를 송수신할 수 있다.The interface unit (110) may include a wireless interface unit (112). The wireless interface unit (112) may be implemented in various ways corresponding to the implementation form of the electronic device (100). For example, the wireless interface unit (112) may use wireless communication such as RF (radio frequency), Zigbee, Bluetooth, Wi-Fi, UWB (Ultra WideBand), and NFC (Near Field Communication) as a communication method. The wireless interface unit (112) may be implemented as a wireless communication module that performs wireless communication with an AP according to the Wi-Fi method, or a wireless communication module that performs 1:1 direct wireless communication such as Bluetooth. The wireless interface unit (112) may transmit and receive data packets between the server and the server by wirelessly communicating with the server on the network. The wireless interface unit (112) may include an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard. The wireless interface unit (112) may receive or input a remote control signal from a remote control or another external device through the IR transmitter and/or the IR receiver, or may transmit or output a remote control signal to another external device. As another example, the electronic device (100) may transmit and receive a remote control signal to and from a remote control or another external device through a wireless interface unit (112) of another type, such as Wi-Fi or Bluetooth.

전자장치(100)는 인터페이스부(110)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 더 포함할 수 있다.If the video/audio signal received through the interface unit (110) is a broadcast signal, the electronic device (100) may further include a tuner that tunes the received broadcast signal by channel.

전자장치(100)는 디스플레이부(120)를 포함할 수 있다. 디스플레이부(120)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이부(120)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예를 들면 디스플레이 패널이 액정 방식이라면, 디스플레이부(120)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다.The electronic device (100) may include a display unit (120). The display unit (120) includes a display panel capable of displaying an image on a screen. The display panel is provided with a light-receiving structure such as a liquid crystal display or a self-luminous structure such as an OLED display. The display unit (120) may further include additional components depending on the structure of the display panel. For example, if the display panel is a liquid crystal display, the display unit (120) includes a liquid crystal display panel, a backlight unit that supplies light, and a panel driving substrate that drives liquid crystals of the liquid crystal display panel.

전자장치(100)는 사용자입력부(130)를 포함할 수 있다. 사용자입력부(130)는 사용자의 입력을 수행하기 위해 마련된 다양한 종류의 입력 인터페이스 관련 회로를 포함한다. 사용자입력부(130)는 전자장치(100)의 종류에 따라서 여러 가지 형태의 구성이 가능하며, 예컨대, 전자장치(100)의 기계적 또는 전자적 버튼부, 전자장치(100)와 분리된 리모트 컨트롤러, 전자장치(100)와 연결된 외부기기에서의 입력부, 터치패드, 디스플레이부(120)에 설치된 터치스크린 등이 있다.The electronic device (100) may include a user input unit (130). The user input unit (130) includes various types of input interface-related circuits provided to perform user input. The user input unit (130) may have various configurations depending on the type of the electronic device (100), and for example, may include a mechanical or electronic button unit of the electronic device (100), a remote controller separated from the electronic device (100), an input unit in an external device connected to the electronic device (100), a touchpad, a touch screen installed in the display unit (120), etc.

전자장치(100)는 저장부(140)를 포함할 수 있다. 저장부(140)는 디지털화된 데이터를 저장한다. 저장부(140)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(storage)와, 프로세서(170)에 의해 처리되기 위한 데이터가 로딩되며 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(memory)를 포함한다. 스토리지에는 플래시메모리(flash-memory), HDD(hard-disc drive), SSD(solid-state drive) ROM(Read Only Memory) 등이 있으며, 메모리에는 버퍼(buffer), 램(RAM; Random Access Memory) 등이 있다.The electronic device (100) may include a storage unit (140). The storage unit (140) stores digitized data. The storage unit (140) includes a non-volatile storage capable of preserving data regardless of whether power is supplied, and a volatile memory into which data to be processed by the processor (170) is loaded and which cannot preserving data if power is not supplied. The storage includes a flash memory, a hard-disc drive (HDD), a solid-state drive (SSD), a Read Only Memory (ROM), etc., and the memory includes a buffer, a RAM (Random Access Memory), etc.

전자장치(100)는 마이크로폰(150)을 포함할 수 있다. 마이크로폰(150)은 사용자 음성을 비롯한 외부 환경의 소리를 수집한다. 마이크로폰(150)은 수집된 소리의 신호를 프로세서(170)에 전달한다. 전자장치(100)는 사용자 음성을 수집하는 마이크로폰(150)을 구비하거나, 또는 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다. 외부장치에 리모트 컨트롤러 어플리케이션을 설치하여 전자장치(100)를 제어하거나 음성 인식 등의 기능을 수행할 수도 있다. 이와 같은 어플리케이션이 설치된 외부장치의 경우, 사용자 음성을 수신할 수 있으며, 외부장치는 전자장치(100)와 Wi-Fi/BT 또는 적외선 등을 이용하여 데이터 송수신 및 제어가 가능한 바, 상기 통신 방식을 구현할 수 있는 복수의 인터페이스부(110)가 전자장치(100) 내에 존재할 수 있다.The electronic device (100) may include a microphone (150). The microphone (150) collects sounds from the external environment, including the user's voice. The microphone (150) transmits signals of the collected sounds to the processor (170). The electronic device (100) may be equipped with a microphone (150) that collects the user's voice, or may receive a voice signal from an external device, such as a remote controller or a smartphone, having a microphone through an interface unit (110). A remote controller application may be installed in the external device to control the electronic device (100) or perform functions such as voice recognition. In the case of an external device on which such an application is installed, the user's voice may be received, and the external device may transmit and receive data and control the electronic device (100) using Wi-Fi/BT or infrared, etc., and thus a plurality of interface units (110) that may implement the above communication method may exist in the electronic device (100).

전자장치(100)는 스피커(160)를 포함할 수 있다. 스피커(160)는 프로세서(170)에 의해 처리되는 오디오 데이터를 소리로 출력한다. 스피커(160)는 어느 한 오디오 채널의 오디오 데이터에 대응하게 마련된 단위 스피커를 포함하며, 복수 오디오 채널의 오디오 데이터에 각기 대응하도록 복수의 단위 스피커를 포함할 수 있다. 다른 실시예로서, 스피커(160)는 전자장치(100)와 분리되어 마련될 수 있으며, 이 경우 전자장치(100)는 오디오 데이터를 인터페이스부(110)를 통하여 스피커(160)로 전달할 수 있다.The electronic device (100) may include a speaker (160). The speaker (160) outputs audio data processed by the processor (170) as sound. The speaker (160) includes a unit speaker provided to correspond to audio data of a certain audio channel, and may include a plurality of unit speakers respectively to correspond to audio data of a plurality of audio channels. As another embodiment, the speaker (160) may be provided separately from the electronic device (100), and in this case, the electronic device (100) may transmit audio data to the speaker (160) through the interface unit (110).

전자장치(100)는 프로세서(170)를 포함할 수 있다. 프로세서(170)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(system on chip)로 구현될 수도 있다. 프로세서(170)는 전자장치(100)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현될 수 있다. 예를 들면, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.The electronic device (100) may include a processor (170). The processor (170) includes one or more hardware processors implemented as a CPU, chipset, buffer, circuit, etc. mounted on a printed circuit board, and may be implemented as a SOC (system on chip) depending on the design method. When the electronic device (100) is implemented as a display device, the processor (170) includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio DSP (Digital Signal Processor), an amplifier, etc. Here, some or all of these modules may be implemented as an SOC. For example, modules related to image processing such as a demultiplexer, a decoder, and a scaler may be implemented as an image processing SOC, and the audio DSP may be implemented as a chipset separate from the SOC.

프로세서(170)는 마이크로폰(150) 등에 의해 사용자 음성에 대한 음성신호를 획득하면, 음성신호를 음성데이터로 변환할 수 있다. 이 때, 음성데이터는 음성신호를 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정을 통해 얻어진 텍스트 데이터일 수 있다. 프로세서(170)는 음성데이터가 나타내는 커맨드를 식별하고, 식별된 커맨드에 따라서 동작을 수행한다. 음성데이터 처리 과정과, 커맨드 식별 및 수행 과정은, 전자장치(100)에서 모두 실행될 수도 있다. 그러나, 이 경우에 전자장치(100)에 필요한 시스템 부하 및 소요 저장용량이 상대적으로 커지게 되므로, 적어도 일부의 과정은 네트워크를 통해 전자장치(100)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행될 수 있다.When the processor (170) obtains a voice signal for a user's voice by a microphone (150), etc., the processor (170) can convert the voice signal into voice data. At this time, the voice data may be text data obtained through a STT (Speech-to-Text) processing process that converts the voice signal into text data. The processor (170) identifies a command indicated by the voice data and performs an operation according to the identified command. The voice data processing process and the command identification and execution process may both be executed in the electronic device (100). However, in this case, since the system load and required storage capacity required for the electronic device (100) become relatively large, at least a part of the process may be performed by at least one server that is communicatively connected to the electronic device (100) via a network.

본 발명에 따른 프로세서(170)는 전자장치(100)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 소프트웨어의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 전자장치(100)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.The processor (170) according to the present invention can call at least one command among the commands of software stored in a storage medium that can be read by a machine (machine), such as an electronic device (100), and execute it. This enables the machine, such as the electronic device (100), to operate to perform at least one function according to the at least one command called. The one or more commands may include code generated by a compiler or code that can be executed by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, ‘non-transitory’ only means that the storage medium is a tangible device and does not include a signal (e.g., electromagnetic wave), and this term does not distinguish between cases where data is stored semi-permanently and cases where it is stored temporarily in the storage medium.

한편, 프로세서(170)는 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누고, 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누고, 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하고, 식별된 키프레임을 이용한 프레임 간의 휘도 변화에 기초하여, 프레임 세트의 휘도 변화가 임계값 미만인 영상 내의 영역을 식별하기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.Meanwhile, the processor (170) divides an input image into a plurality of frame sets having a first number of frames, divides the first number of frames included in the frame sets into a plurality of subframe sets having a second number of frames, identifies a predefined keyframe among the frames included in each subframe set for each of the plurality of subframe sets, and identifies an area within the image in which a luminance change of the frame set is less than a threshold based on a luminance change between frames using the identified keyframe. At least a portion of the data analysis, processing, and result information generation may be performed using at least one of a machine learning, a neural network, or a deep learning algorithm as a rule-based or artificial intelligence algorithm.

일 예로, 프로세서(170)는 학습부 및 인식부의 기능을 함께 수행할 수 있다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 일 예로, 학습부는 학습 데이터를 저장부(140) 또는 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.For example, the processor (170) can perform the functions of the learning unit and the recognition unit together. The learning unit can perform the function of generating a learned neural network, and the recognition unit can perform the function of recognizing (or inferring, predicting, estimating, or judging) data using the learned neural network. The learning unit can generate or update a neural network. The learning unit can obtain learning data to generate a neural network. For example, the learning unit can obtain learning data from the storage unit (140) or the outside. The learning data can be data used for learning a neural network, and data on which the above-described operation is performed can be used as learning data to train a neural network.

학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성할 수 있다.Before training a neural network using training data, the learning unit may perform preprocessing on the acquired training data, or select data to be used for training from among a plurality of training data. For example, the learning unit may process the training data into a preset format, filter it, or add/remove noise to process it into a form of data suitable for training. The learning unit may generate a neural network set to perform the above-described operation using the preprocessed training data.

학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.The learned neural network may be composed of multiple neural networks (or layers). Nodes of the multiple neural networks have weights, and the multiple neural networks may be connected to each other so that the output value of one neural network is used as the input value of another neural network. Examples of the neural network may include models such as a convolutional neural network (CNN), a deep neural network (DNN), a recurrent neural network (RNN), a restricted boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), and deep Q-networks.

한편 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득할 수 있다. 타겟 데이터는 저장부(140) 또는 외부로부터 획득된 것일 수 있다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 출력값을 획득할 수 있다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득할 수 있다.Meanwhile, the recognition unit may obtain target data to perform the above operation. The target data may be obtained from the storage unit (140) or from the outside. The target data may be data to be recognized by the neural network. The recognition unit may perform a preprocessing operation on the obtained target data before applying the target data to the trained neural network, or select data to be used for recognition from among a plurality of target data. For example, the recognition unit may process the target data into a preset format, filter it, or add/remove noise to process it into a form of data suitable for recognition. The recognition unit may obtain an output value output from the neural network by applying the preprocessed target data to the neural network. The recognition unit may obtain a probability value or a reliability value together with the output value.

일 예로, 본 발명에 따른 전자장치(100)의 제어방법은 컴퓨터 프로그램 제품 (Computer Program Product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은, 앞서 설명한, 프로세서(170)에 의해 실행되는 소프트웨어의 명령어들을 포함할 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.For example, the control method of the electronic device (100) according to the present invention may be provided as included in a computer program product. The computer program product may include instructions of software executed by the processor (170) described above. The computer program product may be traded between a seller and a buyer as a commodity. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a CD-ROM), or may be distributed online (e.g., downloaded or uploaded) through an application store (e.g., Play StoreTM) or directly between two user devices (e.g., smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or a relay server.

도 2는 본 발명의 일 실시예에 의한 전자장치의 동작 흐름도를 도시한 블록도이다.FIG. 2 is a block diagram illustrating an operation flow diagram of an electronic device according to one embodiment of the present invention.

프로세서(170)는 입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나눌 수 있다(S210).The processor (170) can divide the input image into a plurality of frame sets each having a first number of frames (S210).

디스플레이에 표시하고자 하는 영상은 복수의 프레임으로 구성되고, 각 프레임은 복수의 픽셀로 구성될 수 있다. 전자장치(100)가 TV이고, TV에 표시되는 영상이 예컨대, 방송 프로그램인 경우, 디스플레이 상단에 프로그램 이름 혹은 해당 방송사 이름이 표시될 수 있다. 방송 프로그램 이름이나 방송사 이름(이하 로고라 한다.)은 방송이 계속되는 동안 고정된 영역에 지속적으로 표시되므로, 고정된 영역에 존재하는 픽셀들은, 계속해서 픽셀의 휘도(luminance)가 변화하는 영역과 비교하여, 열화(degradation) 등 기능이 저하될 수 있다. 혹은, 전자장치가 스마트폰인 경우, 스마트폰 상단에는 통신사 로고, 신호 강도 표시, 배터리 잔량 등이 항상 같은 위치에 표시된다. 이 때문에 비디오 등 화면 전체를 사용하는 컨텐트를 재생할 때, 스마트폰 상단 부분은 픽셀이 열화되어 얼룩이 진 형태로 보일 수 있다. 이하 이와 같은 문제를 해결하기 위한 방안을 제시한다. An image to be displayed on a display may be composed of multiple frames, and each frame may be composed of multiple pixels. If the electronic device (100) is a TV and the image displayed on the TV is, for example, a broadcast program, the program name or the name of the broadcaster may be displayed at the top of the display. Since the name of the broadcast program or the name of the broadcaster (hereinafter referred to as a logo) is continuously displayed in a fixed area while the broadcast continues, the pixels existing in the fixed area may deteriorate in function, such as degraded, compared to an area where the luminance of the pixels continuously changes. Alternatively, if the electronic device is a smartphone, the logo of the telecommunications company, the signal strength indicator, the remaining battery level, etc. are always displayed in the same position at the top of the smartphone. For this reason, when playing content that uses the entire screen, such as a video, the top part of the smartphone may appear to be stained due to degraded pixels. The following is a solution to solve this problem.

따라서, 프로세서(170)는 영상을 구성하는 복수의 프레임에서 픽셀이 일정 범위내의 휘도 값으로 고정되어 있다고 예상되는 구간, 즉, 로고가 영상에 표시될 것으로 예상되는 구간에 존재하는 복수의 프레임을 묶은 프레임 세트를 정할 수 있다. 본 발명의 일 실시예에 따르면, 프로세서(170)는 입력되는 영상을 제 1 개수의 프레임을 가지는 복수의 프레임 세트로 나눌 수 있다. 로고 등 열화 대상에 해당하는 영역(이하 로고 영역이라 한다.)은 화면 상에서 고정된 것이 아니고, 열화 방지는 지속적으로 필요하므로, 프로세서(170)는 복수의 프레임 세트에 기초하여 로고 영역을 식별할 수 있다. 프레임 세트는 길이가 길수록 프레임 내 많은 영역의 프레임 휘도 변화를 고려하여 로고 영역을 선정하는데 정확성을 높일 수 있다. 다만 프레임 세트의 길이와 로고 영역 선정 시간은 트레이드 오프(trade-off)관계에 있으므로, 양자 비교하여 적합한 길이의 구간을 정할 수 있다.Accordingly, the processor (170) can determine a frame set that groups a plurality of frames existing in a section where pixels are expected to be fixed to a luminance value within a certain range among a plurality of frames constituting an image, that is, a section where a logo is expected to be displayed in the image. According to one embodiment of the present invention, the processor (170) can divide an input image into a plurality of frame sets having a first number of frames. Since an area corresponding to a deterioration target such as a logo (hereinafter referred to as a logo area) is not fixed on the screen and deterioration prevention is continuously required, the processor (170) can identify the logo area based on a plurality of frame sets. The longer the frame set, the more accurately the logo area can be selected by considering frame luminance changes in many areas within the frame. However, since the length of the frame set and the time for selecting the logo area are in a trade-off relationship, the two can be compared to determine an area of an appropriate length.

프로세서(170)는 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나눌 수 있다(S220). 서브프레임 세트는 영상의 휘도 변화가 몇 프레임마다 갱신될 것인지를 알 수 있는 척도로써, 프레임 세트에 포함된 복수의 프레임을 제 2 개수의 프레임으로 나눈 것이다. 다만, 프레임 세트 및 서브프레임 세트의 프레임 수인 제 1 개수 및 제 2 개수는 일정한 수에 한정될 필요는 없다.The processor (170) can divide the first number of frames included in the frame set into a plurality of subframe sets having a second number of frames (S220). The subframe set is a measure of how often the luminance change of the image will be updated, and is obtained by dividing the plurality of frames included in the frame set into the second number of frames. However, the first number and the second number, which are the numbers of frames of the frame set and the subframe set, need not be limited to a certain number.

프로세서(170)는 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별할 수 있다(S230). 키프레임은 영상 내에서 로고 영역을 찾기 위한 기준으로 사용되고, 키프레임은 각 서브프레임 세트마다 식별될 수 있다. 키프레임은 로고 영역을 좀 더 정확하게 탐지하는데 기여할 수 있다. 자세한 내용은 후술한다.The processor (170) can identify a predefined key frame among the frames included in each subframe set for each of the plurality of subframe sets (S230). The key frame is used as a criterion for finding a logo area in an image, and the key frame can be identified for each subframe set. The key frame can contribute to more accurately detecting the logo area. This will be described in detail later.

프로세서(170)는 식별된 키프레임을 이용한 프레임 간의 휘도 변화에 기초하여, 프레임 세트의 휘도 변화가 임계값 미만인 영상 내의 영역을 식별할 수 있다(S240).The processor (170) can identify an area within an image where the luminance change of a set of frames is less than a threshold value based on the luminance change between frames using the identified key frames (S240).

프로세서(170)는 키프레임을 이용하여, 픽셀 단위로 영상 내 각 서브프레임 세트 간의 휘도 변화를 축적하고, 이를 이용하여 프레임 세트의 휘도 변화를 계산할 수 있다. 이 때, 픽셀의 열화에 가장 영향을 끼치는 것은 각 RGB 중 가장 큰 값이므로, R, G, B 채널의 가장 큰 값을 선정하여 휘도로 이용할 수 있으나, 이에 한정되는 것은 아니다. 계산된 프레임 세트의 휘도 변화값이 임계값(threshold)을 넘지 않는다면, 프로세서(170)는 영상 내 움직임이 없다고 판단하고, 휘도 변화가 임계값보다 낮은 영역을 로고 영역으로 식별할 수 있다. The processor (170) can accumulate luminance changes between each subframe set in the image on a pixel basis using keyframes, and use this to calculate luminance changes in the frame set. At this time, since the largest value among each RGB has the greatest influence on pixel deterioration, the largest value of the R, G, and B channels can be selected and used as luminance, but is not limited thereto. If the calculated luminance change value of the frame set does not exceed a threshold, the processor (170) can determine that there is no movement in the image, and identify an area where the luminance change is lower than the threshold as a logo area.

본 발명의 일 실시예에 따르면, 키프레임을 이용하여 불필요한 휘도 변동을 줄일 수 있어 영상에 로고가 고정적으로 표시되는 영역을 더 정확하게 식별할 수 있다. According to one embodiment of the present invention, unnecessary luminance fluctuations can be reduced by using key frames, thereby enabling more accurate identification of an area in which a logo is fixedly displayed in an image.

도 3은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 발명에서는 도 3에 도시된 바와 같이, 복수의 프레임을 시간 피라미드 형태로 구성하여 로고 영역을 선정하는 알고리즘을 제안한다. 도 3에 따르면, 제 1 개수의 프레임들로 구성된 프레임 세트(310)가 있고, 프로세서(170)는 프레임 세트(310)를 다시 제 2 개수의 프레임들로 구성된 서브프레임 세트 1, 서브프레임 세트 2, …, 서브프레임 세트 N과 같이 복수의 서브프레임 세트(320)로 나눌 수 있다. 각 서브프레임 세트(320)는 키프레임(330)을 포함하는 프레임들로 구성된다.FIG. 3 is a diagram illustrating frames processed by an electronic device according to an embodiment of the present invention. The present invention proposes an algorithm for selecting a logo area by configuring a plurality of frames in a time pyramid shape, as illustrated in FIG. 3. According to FIG. 3, there is a frame set (310) composed of a first number of frames, and the processor (170) can divide the frame set (310) into a plurality of subframe sets (320), such as subframe set 1, subframe set 2, ..., subframe set N, which are composed of a second number of frames. Each subframe set (320) is composed of frames including a keyframe (330).

본 발명에서 프로세서(170)는 시간 피라미드 형태의 프레임 세트(310)를 구성하고, 각 서브프레임 세트(320) 별로 키프레임(330)을 식별할 수 있다. 로고 영역을 식별함에 있어 키프레임(330)을 이용하는 이유는 다음에서 그 의의가 있다. 방송 환경 등에 따라 영상의 압축이 발생하였을 때, 영상 내 로고 영역의 휘도에 변동(fluctuation)이 일어날 수 있다. 이러한 변동으로 인하여 단순히 이전 프레임과 현재 프레임의 휘도 변화를 계산하게 된다면, 로고 영역임에도 불구하고 조금씩 변화하는 휘도 변화가 누적되게 되므로 로고 영역으로 탐지할 수 없게 된다. 키프레임(330)을 두게 되는 경우, 프로세서(170)는 각 서브프레임 세트(320) 내에서 키프레임(330)과 다음 프레임과의 휘도 변화를 계산하여 축적한다. 키프레임(330)을 이용하여 휘도 변화의 기준을 둠으로써 로고 영역에서의 미세한 휘도 변동에 따른 휘도 차이를 줄여 로고 영역을 좀 더 정확하게 탐지하는데 기여를 할 수 있다. 예컨대, 키프레임(330)은, 키프레임(330)이 포함된 서브프레임 세트(320)의 첫번째 프레임일 수 있다. 다만, 이에 한정되는 것은 아니다. In the present invention, the processor (170) configures a frame set (310) in the form of a time pyramid, and can identify a key frame (330) for each subframe set (320). The reason for using the key frame (330) in identifying the logo area is significant as follows. When compression of an image occurs due to a broadcast environment, etc., a fluctuation may occur in the luminance of the logo area within the image. If the luminance change between the previous frame and the current frame is simply calculated due to this fluctuation, the luminance change that changes slightly is accumulated despite being a logo area, so that it cannot be detected as a logo area. When a key frame (330) is placed, the processor (170) calculates and accumulates the luminance change between the key frame (330) and the next frame within each subframe set (320). By using the key frame (330) to set a standard for luminance change, the luminance difference due to the subtle luminance change in the logo area can be reduced, contributing to more accurate detection of the logo area. For example, a key frame (330) may be the first frame of a set of subframes (320) that includes the key frame (330), but is not limited thereto.

또한, 영상 내 로고가 일정하게 있을 때 안정적인 로고 영역을 선정하기 위해서, 프로세서(170)는 시간 피라미드 형태의 프레임 세트(310)를 설정한 후, 이를 활용하여 휘도 변화가 발생하는 로고 이외의 배경을 제외하면서 로고 영역을 안정적으로 보장할 수 있다. In addition, in order to select a stable logo area when the logo is constant in the video, the processor (170) sets a frame set (310) in the form of a time pyramid and then uses this to stably guarantee the logo area while excluding a background other than the logo where brightness changes occur.

따라서, 본 발명의 일 실시예에 따르면, 로고 영역에 대한 노이즈, 압축으로 인한 로고 영역 손실이 발생하는 경우에도 안정적으로 로고 영역을 선정할 수 있다.Therefore, according to one embodiment of the present invention, even when noise or loss of the logo area due to compression occurs in the logo area, the logo area can be stably selected.

도 4는 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 예컨대, 영상이 30fps, 즉, 1초에 30장의 이미지(프레임)를 가지는 경우, 인접한 두 프레임간의 휘도 변화만을 고려하게 되면, 장면이 전환되는 경우를 제외하고는 대부분 유사한 휘도 값을 가지고 있어 로고 영역에 해당하는 픽셀을 찾는 것은 어렵다. 따라서, 여러 프레임의 휘도 변화를 축척하여 알고리즘을 설계하여야 하므로, 본 도면에서는 키프레임을 이용하여 휘도 변화를 계산하는 방법에 대해 자세히 살펴본다.FIG. 4 is a diagram illustrating frames processed by an electronic device according to an embodiment of the present invention. For example, if an image has 30 fps, that is, 30 images (frames) per second, and only the luminance change between two adjacent frames is considered, it is difficult to find a pixel corresponding to a logo area because most of them have similar luminance values except when the scene is switched. Therefore, since an algorithm must be designed by accumulating luminance changes of multiple frames, this diagram examines in detail a method of calculating luminance changes using key frames.

도 4에는 앞서 설명한 시간 피라미드 형태의 프레임 세트(310)와 이를 나눈 복수의 서브프레임 세트(320)가 도시되어 있다. 서브프레임 세트(320)는 다시 프레임들로 이루어져 있고, 그 중 제일 첫 프레임인 키프레임(330)이 존재한다. 프로세서(170)는 서브프레임 세트(320)에 포함된 키프레임(330)과 다른 프레임 간의 휘도 변화에 기초하여, 프레임 세트(310)의 휘도 변화를 식별할 수 있다. 예컨대, 프로세서(170)는 서브프레임 세트 1(320)에 포함된 키프레임 1(330)과 다른 프레임(410, 420, 430, …)간의 휘도 변화를 계산하고, 이를 각 서브프레임 세트(320) 별로 계산하여 전체 프레임 세트(310)의 휘도 변화를 계산할 수 있다. FIG. 4 illustrates a frame set (310) in the form of a time pyramid as described above and a plurality of subframe sets (320) divided therein. The subframe set (320) is again composed of frames, and among them, there is a keyframe (330) which is the very first frame. The processor (170) can identify a luminance change of the frame set (310) based on a luminance change between a keyframe (330) included in the subframe set (320) and other frames. For example, the processor (170) can calculate a luminance change between keyframe 1 (330) included in subframe set 1 (320) and other frames (410, 420, 430, ...), and calculate this for each subframe set (320) to calculate a luminance change of the entire frame set (310).

다만 본 도면에 도시된 바와 같이, 키프레임 1(330)은 서브프레임 세트 1(320)에 포함된 모든 프레임들간의 휘도 변화를 계산할 필요는 없고, 일부 프레임에 대해서만 계산할 수 있으며, 그 프레임들을 선택하는 방법에는 한정이 없다.However, as shown in this drawing, keyframe 1 (330) does not need to calculate the luminance change between all frames included in subframe set 1 (320), but can calculate it only for some frames, and there is no limitation on the method of selecting those frames.

본 발명의 다른 실시예에 따르면, 프로세서(170)는 키프레임과, 키프레임에 후속하는 프레임들 간의 휘도 변화에 기초하여, 프레임 세트의 휘도 변화를 식별할 수 있다. 이 경우 키프레임과, 키프레임에 후속하는 프레임은 동일 서브프레임 세트(320)에 속할 필요는 없다.According to another embodiment of the present invention, the processor (170) can identify luminance changes in a set of frames based on luminance changes between a key frame and frames following the key frame. In this case, the key frame and the frames following the key frame do not need to belong to the same subframe set (320).

본 발명에서는, 연속된 두 프레임 간의 휘도 변화를 이용하는 것이 아닌, 시간 피라미드 형태의 프레임을 구성하고, 키프레임을 활용함으로써 안정적인 로고 영역을 보장할 수 있다.In the present invention, rather than utilizing the luminance change between two consecutive frames, a frame in the shape of a time pyramid is configured and a stable logo area is ensured by utilizing a key frame.

도 5는 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 도면은 키프레임을 이용하여 휘도 변화를 계산하는 또 다른 방법에 관한 것이다. 본 실시예에서는 앞서 설명한 것과 마찬가지로 프레임 세트(310)는 시간 피라미드 형태로 구성된다.FIG. 5 is a diagram illustrating a frame processed by an electronic device according to one embodiment of the present invention. This diagram relates to another method of calculating a luminance change using a key frame. In this embodiment, as described above, the frame set (310) is configured in the form of a time pyramid.

프로세서(170)는 키프레임들(330, 520, …) 간의 휘도 변화에 기초하여, 프레임 세트(310)의 휘도 변화를 식별할 수 있다. 로고 영역을 선정하기 위해, 연속된 프레임간의 휘도 변화만을 사용한다면, 영상 내에서 밝은 배경이 지속될 경우 프레임 세트 내에서 밝은 배경 부분의 휘도 변화가 일정하므로 이를 로고 부분으로 인식하는 문제점이 발생할 수 있다. 또한, 영상 내 로고가 일정하게 있을 때 안정적인 로고 영역을 선정하는 것이 중요한데, 프레임 세트의 휘도 변화값에 따라 로고 영역이 많은 차이를 나타내게 된다. 따라서 프레임 세트 내에서 일정 프레임 수로 나누어진 서브프레임 세트마다 키프레임을 선정하고, 픽셀 단위로 선정된 키프레임간의 휘도 변화를 계산할 수 있다. 이 때, 서브프레임 세트로 나누는 프레임 수는 영상의 압축 등으로 인한 휘도 변동 등 에러가 발생하는 빈도와 관계가 있을 수 있다. 예컨대, 영상에서 에러가 일정 프레임 수마다 한번씩 발생하는 경우, 휘도 변화를 계산하게 되는 기준인 키프레임이 이 에러 주기에 해당되지 않도록 서브프레임 세트에 포함되는 프레임의 수를 적절히 나눌 수 있다. 다만, 에러는 일정 주기에 따라 발생하지 않을 수 있고, 예측하기 어려울 수 있으므로, 이를 별하기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.The processor (170) can identify the luminance change of the frame set (310) based on the luminance change between key frames (330, 520, ...). If only the luminance change between consecutive frames is used to select the logo area, if the bright background continues in the image, the luminance change of the bright background part in the frame set is constant, so a problem may occur in recognizing it as the logo part. In addition, when the logo is constant in the image, it is important to select a stable logo area, and the logo area shows a large difference depending on the luminance change value of the frame set. Therefore, a key frame can be selected for each subframe set divided into a certain number of frames in the frame set, and the luminance change between the selected key frames can be calculated on a pixel basis. At this time, the number of frames divided into the subframe set may be related to the frequency of occurrence of errors such as luminance change due to image compression, etc. For example, if an error occurs once every certain number of frames in the image, the number of frames included in the subframe set can be appropriately divided so that the key frame, which is the standard for calculating the luminance change, does not correspond to this error cycle. However, since errors may not occur at regular intervals and may be difficult to predict, at least some of the data analysis, processing, and resulting information generation to identify them may be performed using at least one of a machine learning, neural network, or deep learning algorithm as a rule-based or artificial intelligence algorithm.

본 발명의 일 실시예에 따르면, 로고 영역이 아님에도 휘도 변화가 임계값 미만인 경우, 영상에 에러가 있는 경우 등에도 로고 영역을 정확하고 안정적으로 식별할 수 있다.According to one embodiment of the present invention, a logo area can be accurately and stably identified even when a change in brightness is below a threshold value despite it not being a logo area, when there is an error in the image, etc.

도 6은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 도면에서는, 하나의 프레임 세트를 이용하여 로고 영역을 선정한 후, 이후 프레임에 따라 변화되는 로고 영역을 업데이트 하는 방안을 제시하고 있다. 프로세서(170)는 제1프레임 세트(310)를 이용하여 로고 영역을 선정할 수 있다. 그리고 프로세서(170)는, 제1프레임 세트(310)의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트(610)의 휘도 변화에 기초하여 영상 내의 영역을 식별할 수 있다. 예컨대, 프로세서(170)는 제1프레임 세트(310) 이후에 표시되는 새로운 서브프레임 세트마다 제1프레임 세트(310)의 가장 앞의 서브프레임 세트부터 휘도 변화를 빼고, 새로운 서브프레임 세트의 휘도 차이를 더하여, 로고 영역을 찾는 전체 휘도 변화를 다시 계산할 수 있다. 도 6을 참조해보면, 제1프레임 세트(310)는 두개의 서브프레임 세트만큼 이동하여 제2프레임 세트(610)를 이룬다. 따라서, 프로세서(170)는 제1프레임 세트(310)의 계산된 휘도값에서 서브프레임 세트 1과 서브프레임 세트 2의 휘도 변화를 빼고, 새로 추가된 두개의 서브프레임 세트의 휘도 변화를 더하여 제2프레임 세트(610)의 휘도 변화를 구할 수 있다. 그 후, 프로세서(170)는 다시 계산된 휘도 변화가 임계값을 넘지 않는 영역을 새로운 로고 영역으로 업데이트 할 수 있다. 이를 통해 영상 내의 로고 영역의 변화가 있는 경우, 로고 영역의 탐지가 가능하게 된다.FIG. 6 is a diagram illustrating frames processed by an electronic device according to an embodiment of the present invention. In this diagram, a method is proposed to select a logo area using one frame set and then update a logo area that changes according to subsequent frames. The processor (170) can select a logo area using the first frame set (310). In addition, the processor (170) can identify an area in an image based on a luminance change of a second frame set (610) in a section moved by a predefined number of subframe sets from the section of the first frame set (310). For example, the processor (170) can recalculate the total luminance change for finding a logo area by subtracting the luminance change from the first subframe set of the first frame set (310) for each new subframe set displayed after the first frame set (310) and adding the luminance difference of the new subframe set. Referring to FIG. 6, the first frame set (310) moves by two subframe sets to form the second frame set (610). Accordingly, the processor (170) can obtain the luminance change of the second frame set (610) by subtracting the luminance changes of the subframe set 1 and the subframe set 2 from the calculated luminance value of the first frame set (310) and adding the luminance changes of the two newly added subframe sets. Thereafter, the processor (170) can update the area where the recalculated luminance change does not exceed the threshold value as a new logo area. This enables detection of the logo area when there is a change in the logo area within the image.

프로세서(170)는 제1프레임 세트(310)의 휘도 변화에 기초하여 영상 내의 영역을 식별하고, 전체 영역이 아닌 식별된 영역을 기준으로 제2프레임 세트(610)의 휘도 변화에 기초한 영역의 변화를 식별할 수 있다. 제1프레임 세트(310)를 통해 식별한 영역을 기준으로 로고 영역의 변화를 식별하므로, 프로세스를 처리하는 속도가 빨라지고 효율이 높아질 수 있다.The processor (170) can identify an area within an image based on the luminance change of the first frame set (310), and identify a change in the area based on the luminance change of the second frame set (610) based on the identified area rather than the entire area. Since the change in the logo area is identified based on the area identified through the first frame set (310), the speed of processing can be increased and the efficiency can be improved.

그리고, 프로세서(170)는 제1프레임 세트(310) 및 제2프레임 세트(610)의 휘도 변화들 간의 계산에 기초하여 영상 내의 영역을 식별할 수 있다. 프로세서(170)는 제1프레임 세트(310)를 통해 영상 내의 영역을 식별한 후, 제1프레임 세트(310)와 기 정의된 개수의 서브프레임 세트만큼 이동된 제2서브프레임 세트(610)의 휘도 변화들을 종합적으로 고려하여 영상 내의 영역을 식별할 수 있다. 이를 통해, 식별된 영역을 더욱 정교하게 구별할 수 있을 것이다.And, the processor (170) can identify an area within the image based on calculations between luminance changes of the first frame set (310) and the second frame set (610). After identifying an area within the image through the first frame set (310), the processor (170) can identify an area within the image by comprehensively considering luminance changes of the first frame set (310) and the second sub-frame set (610) shifted by a predefined number of sub-frame sets. Through this, the identified area can be distinguished more precisely.

본 발명의 일 실시예에 따르면, 로고 영역을 식별하고 난 뒤, 시간의 흐름에 따라 로고 영역이 이동하는 등의 변동 상황을 지속적으로 반영시킬 수 있으므로, 계속해서 로고 영역에 따른 픽셀의 열화를 방지할 수 있고, 처리속도 및 효율을 증가시킬 수 있다.According to one embodiment of the present invention, after identifying a logo area, it is possible to continuously reflect changes in the logo area, such as movement of the logo area over time, so that deterioration of pixels according to the logo area can be continuously prevented, and processing speed and efficiency can be increased.

도 7은 본 발명의 일 실시예에 따른 전자장치가 처리하는 프레임을 도시한 도면이다. 본 도면에서는, 상위 서브프레임 세트를 복수의 하위 서브프레임 세트로 다시 나누어 휘도 변화를 연산하는 것을 도시한다.FIG. 7 is a diagram illustrating a frame processed by an electronic device according to one embodiment of the present invention. In this diagram, a set of upper subframes is divided into a plurality of lower subframe sets to calculate a change in brightness.

도 7에 도시된 바에 따르면, 프로세서(170)는 복수의 제1서브프레임 세트 중에서 어느 하나의 제1서브프레임 세트(710)에 포함되는 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나눌 수 있다. 그리고 프로세서(170)는 복수의 제2서브프레임 세트(720) 별로 각 제2서브프레임 세트(720)에 포함된 프레임 중 기 정의된 제2키프레임(730)을 식별하고, 식별된 제2키프레임(730)을 이용한 프레임 간의 휘도 변화에 기초하여 영상 내의 영역을 식별할 수 있다. 예컨대, 프로세서(170)는 제2서브프레임 세트 1의 휘도 변화는 제2키프레임 1을 기준으로 제2서브프레임 세트 1에 포함된 프레임들간의 연산을 통해 계산할 수 있고, 이는 각 제2서브프레임 세트 별로 연산이 가능하다.As illustrated in FIG. 7, the processor (170) may divide a second number of frames included in one first sub-frame set (710) among a plurality of first sub-frame sets into a plurality of second sub-frame sets having a third number of frames. In addition, the processor (170) may identify a predefined second key frame (730) among the frames included in each second sub-frame set (720) among the plurality of second sub-frame sets (720), and may identify an area within the image based on a luminance change between frames using the identified second key frame (730). For example, the processor (170) may calculate a luminance change of the second sub-frame set 1 through an operation between the frames included in the second sub-frame set 1 based on the second key frame 1, and this operation may be performed for each second sub-frame set.

도 7에서 설정된 제2서브프레임 세트(720)에서 제2키프레임(730)을 이용한 휘도 변화를 통해 휘도 변화가 임계값을 넘지 않는다면 이를 통해 로고 영역을 식별하여, 전체 프레임 세트(310)가 아닌 일정 제2서브프레임 세트(720)의 휘도 차이를 이용하여 로고 영역을 선정할 수 있다. 이에 전체 프레임 세트(310)의 휘도 변화를 이용하는 것보다 짧은 프레임을 고려할 수 있으며, 이후 프로세서(170)는 각 제2서브프레임 세트(720)의 연산을 통하면, 배경부분과 같이 휘도가 변화하는 부분은 필터링하게 되어 원하는 로고 영역만 선정할 수 있다. 다만, 앞선 실시예와 같이 제1서브프레임 세트 및 제2서브프레임 세트의 프레임 수인 제 2 개수 및 제 3 개수는 일정한 수에 한정될 필요는 없다.In the second sub-frame set (720) set in FIG. 7, if the luminance change does not exceed the threshold value through the luminance change using the second key frame (730), the logo area can be identified through this, and the logo area can be selected by using the luminance difference of a certain second sub-frame set (720) rather than the entire frame set (310). Accordingly, a shorter frame can be considered rather than using the luminance change of the entire frame set (310), and thereafter, the processor (170) can filter out the part where the luminance changes, such as the background part, through the operation of each second sub-frame set (720), so that only the desired logo area can be selected. However, as in the previous embodiment, the second number and the third number, which are the numbers of frames of the first sub-frame set and the second sub-frame set, need not be limited to a certain number.

본 발명의 일 실시예에 따르면, 시간 피라미드 형태의 프레임을 구성함으로써 한 단계의 서브프레임 세트만 사용할 때 보다 노이즈 제거에 효과적으로 작용하고, 로고 영역을 탐지하는데 있어서 강인한 성질을 가지게 된다.According to one embodiment of the present invention, by configuring a frame in the form of a time pyramid, it is more effective in removing noise than when using only a set of subframes at one stage, and has a robust property in detecting a logo area.

또한, 본 명세서 전반에 걸쳐 언급되는 로고 및 로고 영역은 픽셀의 열화가 일어날 수 있는 하나의 예시로써, 본 발명은 이에 한정되지 않고, 지속적으로 임계값 미만의 휘도 변화를 가짐으로 써 픽셀의 성능저하를 유발하는 모든 실시예에 적용이 가능할 것이다. Additionally, the logo and logo area mentioned throughout this specification are only one example of where pixel degradation may occur, and the present invention is not limited thereto, and may be applied to all embodiments that cause pixel performance degradation by continuously having a luminance change below a threshold value.

100: 전자장치
110: 인터페이스부
120: 디스플레이부
130: 사용자입력부
140: 저장부
150: 마이크로폰
160: 스피커
170: 프로세서
100: Electronic devices
110: Interface section
120: Display section
130: User Input
140: Storage
150: Microphone
160: Speaker
170: Processor

Claims (20)

전자장치에 있어서,
디스플레이와;
입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누고,
상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누고,
상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하고,
상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하고,
상기 식별된 영역을 소정 시간 주기로 이동시키는 프로세서를 포함하는 전자장치.
In electronic devices,
Display and;
Divide the input video into multiple frame sets each having a first number of frames,
Dividing a first number of frames included in the above frame set into a plurality of subframe sets having a second number of frames,
Identifying a predefined key frame among the frames included in each subframe set for each of the above multiple subframe sets,
Based on the luminance change between the frames using the identified key frames, an area within the image where the luminance change of the frame set is less than a threshold value is identified,
An electronic device comprising a processor that moves the identified area at predetermined time intervals.
제1항에 있어서,
상기 프로세서는,
상기 서브프레임 세트에 포함된 상기 키프레임과 상기 다른 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 전자장치.
In the first paragraph,
The above processor,
An electronic device that identifies a luminance change in the frame set based on a luminance change between the key frame included in the subframe set and the other frames.
제2항에 있어서,
상기 프로세서는,
상기 키프레임과, 상기 키프레임에 후속하는 상기 프레임 간의 순차적인 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 전자장치.
In the second paragraph,
The above processor,
An electronic device that identifies luminance changes in a set of frames based on sequential luminance changes between said keyframe and said frame subsequent to said keyframe.
제1항에 있어서,
상기 키프레임은, 상기 키프레임이 포함된 상기 서브프레임 세트의 첫번째 프레임인 전자장치
In the first paragraph,
The above keyframe is an electronic device that is the first frame of the set of subframes that includes the above keyframe.
제1항에 있어서,
상기 프로세서는,
상기 키프레임들 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화를 식별하는 전자장치.
In the first paragraph,
The above processor,
An electronic device that identifies luminance changes in a set of frames based on luminance changes between said key frames.
삭제delete 제1항에 있어서,
상기 프레임 세트는 제1프레임 세트이고,
상기 프로세서는,
상기 제1프레임 세트의 구간에서 기 정의된 개수의 서브프레임 세트만큼 이동된 구간의 제2프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 전자장치.
In the first paragraph,
The above frame set is the first frame set,
The above processor,
An electronic device that identifies an area within the image based on a change in luminance of a second frame set in an area shifted by a predefined number of subframe sets from an area of the first frame set.
제7항에 있어서,
상기 프로세서는,
상기 제1프레임 세트의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하고,
상기 식별된 영역을 기준으로 상기 제2프레임 세트의 휘도 변화에 기초한 상기 영역의 변화를 식별하는 전자장치.
In Article 7,
The above processor,
Identifying an area within the image based on the luminance change of the first frame set,
An electronic device that identifies a change in the area based on a change in luminance of the second frame set relative to the identified area.
삭제delete 제1항에 있어서,
상기 서브프레임 세트는 제1서브프레임 세트, 상기 키프레임은 제1키프레임이고,
상기 프로세서는,
상기 서브프레임 세트에 포함된 제 2 개수의 프레임들을 제 3 개수의 프레임들을 가지는 복수의 제 2서브프레임 세트로 나누고,
상기 복수의 제2서브프레임 세트 별로 각 제2서브프레임 세트에 포함된 프레임 중 기 정의된 제2키프레임을 식별하고,
상기 식별된 제2키프레임을 이용한 프레임 간의 휘도 변화에 기초하여 상기 영상 내의 영역을 식별하는 전자장치.
In the first paragraph,
The above subframe set is the first subframe set, the above keyframe is the first keyframe,
The above processor,
Dividing the second number of frames included in the above subframe set into a plurality of second subframe sets having a third number of frames,
Identifying a predefined second key frame among the frames included in each second subframe set for each of the above plurality of second subframe sets,
An electronic device that identifies an area within an image based on luminance changes between frames using the identified second key frame.
전자장치의 제어방법에 있어서,
입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계;
상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계;
상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계;
상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계; 및
상기 식별된 영역을 소정 시간 주기로 이동시키는 단계를 포함하는 전자장치의 제어방법.
In a method for controlling an electronic device,
A step of dividing an input image into a plurality of frame sets each having a first number of frames;
A step of dividing a first number of frames included in the above frame set into a plurality of subframe sets having a second number of frames;
A step of identifying a predefined keyframe among the frames included in each subframe set for each of the plurality of subframe sets;
A step of identifying an area within the image where the luminance change of the frame set is less than a threshold value based on the luminance change between the frames using the identified key frames; and
A method for controlling an electronic device, comprising the step of moving the identified area at a predetermined time cycle.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은,
입력되는 영상을 제 1 개수의 프레임들을 가지는 복수의 프레임 세트로 나누는 단계;
상기 프레임 세트에 포함된 제 1 개수의 프레임들을 제 2 개수의 프레임들을 가지는 복수의 서브프레임 세트로 나누는 단계;
상기 복수의 서브프레임 세트 별로 각 서브프레임 세트에 포함된 프레임 중 기 정의된 키프레임을 식별하는 단계;
상기 식별된 키프레임을 이용한 상기 프레임 간의 휘도 변화에 기초하여, 상기 프레임 세트의 휘도 변화가 임계값 미만인 상기 영상 내의 영역을 식별하는 단계; 및
상기 식별된 영역을 소정 시간 주기로 이동시키는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.
A computer program including a code that performs a method of controlling an electronic device as a computer-readable code is stored on a recording medium, wherein the method of controlling the electronic device is:
A step of dividing an input image into a plurality of frame sets each having a first number of frames;
A step of dividing a first number of frames included in the above frame set into a plurality of subframe sets having a second number of frames;
A step of identifying a predefined keyframe among the frames included in each subframe set for each of the plurality of subframe sets;
A step of identifying an area within the image where the luminance change of the frame set is less than a threshold value based on the luminance change between the frames using the identified key frames; and
A computer-readable recording medium having recorded thereon a computer-readable program, characterized by including a step of moving the identified area at a predetermined time cycle.
KR1020200020339A 2020-02-19 2020-02-19 Electronic apparatus and the method thereof Active KR102739527B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200020339A KR102739527B1 (en) 2020-02-19 2020-02-19 Electronic apparatus and the method thereof
PCT/KR2020/019035 WO2021167230A1 (en) 2020-02-19 2020-12-23 Electronic device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200020339A KR102739527B1 (en) 2020-02-19 2020-02-19 Electronic apparatus and the method thereof

Publications (2)

Publication Number Publication Date
KR20210105635A KR20210105635A (en) 2021-08-27
KR102739527B1 true KR102739527B1 (en) 2024-12-09

Family

ID=77391034

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200020339A Active KR102739527B1 (en) 2020-02-19 2020-02-19 Electronic apparatus and the method thereof

Country Status (2)

Country Link
KR (1) KR102739527B1 (en)
WO (1) WO2021167230A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116739014B (en) * 2022-09-15 2024-09-17 荣耀终端有限公司 Code scanning method and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733228B1 (en) 2016-04-28 2017-05-08 주식회사 메디트 Apparatus for three dimensional scanning with structured light
US20170372126A1 (en) 2014-10-14 2017-12-28 Microsoft Technology Licensing, Llc Depth From Time of Flight Camera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101947125B1 (en) * 2012-11-27 2019-02-13 엘지디스플레이 주식회사 Timing controller, driving method thereof, and display device using the same
KR102512487B1 (en) * 2015-12-30 2023-03-23 엘지디스플레이 주식회사 Organic light emitting display device and driving method thereof
KR102370442B1 (en) * 2017-08-17 2022-03-03 엘지전자 주식회사 Image display apparatus
KR102439155B1 (en) * 2017-09-21 2022-08-31 엘지디스플레이 주식회사 Display device and driving method thereof
JP7172055B2 (en) * 2018-02-27 2022-11-16 沖電気工業株式会社 Processing device, processing program and processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170372126A1 (en) 2014-10-14 2017-12-28 Microsoft Technology Licensing, Llc Depth From Time of Flight Camera
KR101733228B1 (en) 2016-04-28 2017-05-08 주식회사 메디트 Apparatus for three dimensional scanning with structured light

Also Published As

Publication number Publication date
WO2021167230A1 (en) 2021-08-26
KR20210105635A (en) 2021-08-27

Similar Documents

Publication Publication Date Title
KR102764822B1 (en) Image display apparatus
US11122245B2 (en) Display apparatus, method for controlling the same and image providing apparatus
US11601705B2 (en) Electronic apparatus and controlling method thereof
KR20150104347A (en) Display apparatus and method of controlling thereof
US10191712B2 (en) Display apparatus and recording medium
CN106133817B (en) Image processing apparatus, image processing method, and program
KR20200063303A (en) Image processing apparatus and controlling method thereof
US11881139B2 (en) Electronic apparatus and control method thereof
KR102739527B1 (en) Electronic apparatus and the method thereof
KR102650138B1 (en) Display apparatus, method for controlling thereof and recording media thereof
US10593289B2 (en) Information processing system, image processing apparatus, image processing method, and program for color conversion of an image by selecting an electricity consumption minimum value
US11424845B2 (en) Electronic apparatus and control method thereof
KR102722495B1 (en) Electronice device and control method thereof
US20210211535A1 (en) Electronic apparatus and control method thereof
US10771846B2 (en) Electronic apparatus for playing substitutional advertisement and method for controlling method thereof
KR102796655B1 (en) Electronic apparatus and the method thereof
KR20210088400A (en) Electronic apparatus and the method thereof
KR102802967B1 (en) Electronic apparatus and the method thereof
US20220353362A1 (en) Electronic device and control method therefor
KR102724326B1 (en) Electronic apparatus and the method thereof
WO2021118032A1 (en) Electronic device and control method therefor
KR20250075918A (en) Electronic apparatus and image processing method
US10313715B2 (en) Transmission method for video data and device employing same
KR20240117282A (en) Electronic apparatus and image processing method
KR20250011762A (en) Electronic apparatus and method for controlling thereof

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200219

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240121

Patent event code: PE09021S01D

PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240927

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20241203

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20241204

End annual number: 3

Start annual number: 1

PG1601 Publication of registration