KR102879095B1 - LED Display Board with Pixel Sharing Technology - Google Patents
LED Display Board with Pixel Sharing TechnologyInfo
- Publication number
- KR102879095B1 KR102879095B1 KR1020240181754A KR20240181754A KR102879095B1 KR 102879095 B1 KR102879095 B1 KR 102879095B1 KR 1020240181754 A KR1020240181754 A KR 1020240181754A KR 20240181754 A KR20240181754 A KR 20240181754A KR 102879095 B1 KR102879095 B1 KR 102879095B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- change
- subpixel
- subpixels
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/22—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
- G09G3/30—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
- G09G3/32—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
- G09F9/30—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
- G09F9/33—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being semiconductor devices, e.g. diodes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
본 발명은 픽셀 공유 기술이 적용된 LED 안내 전광판에 대한 것으로서, 전광판에 출력되는 영상의 프레임에서 적어도 하나의 객체를 식별하고 각 객체의 타입을 결정하며, 각 객체의 상태 변화를 검출하여 각 객체에 포함된 픽셀들의 복수 개의 서브픽셀의 공유 여부를 제어함으로써, 전력 소모를 감소시키고 영상 품질을 향상시키는 LED 안내 전광판에 대한 것이다.The present invention relates to an LED guide signboard to which pixel sharing technology is applied, and relates to an LED guide signboard that identifies at least one object in a frame of an image output to the signboard, determines the type of each object, detects a change in the state of each object, and controls whether to share a plurality of subpixels of pixels included in each object, thereby reducing power consumption and improving image quality.
Description
서브픽셀 공유를 제어하는 기술이 적용된 LED 안내 전광판에 관한 것이다.This relates to an LED signboard with technology applied to control subpixel sharing.
LED 안내 전광판은 공항, 기차역, 버스 정류장, 대형 쇼핑몰 등 다양한 공공장소에서 정보 전달 및 광고 목적으로 널리 사용되고 있다. 기존의 LED 안내 전광판은 전력 소비량이 크고, 고해상도 영상을 지속적으로 표시하는 경우 과도한 에너지 소비와 열 발생 문제가 발생한다. 이러한 문제는 전광판의 유지비용 증가뿐만 아니라, 환경적 측면에서도 개선이 필요한 부분으로 지적되고 있다.LED information signs are widely used for information and advertising purposes in various public places, such as airports, train stations, bus stops, and large shopping malls. Conventional LED information signs consume significant power, and continuous display of high-resolution images can lead to excessive energy consumption and heat generation. These issues not only increase maintenance costs, but also highlight the need for improvement from an environmental perspective.
또한, 전광판의 영상 품질을 향상시키기 위해 서브픽셀의 정확한 제어가 요구되며, 특정 장면이나 객체를 보다 선명하게 표시하기 위한 기술적 발전이 필요하다. 하지만, 전광판의 픽셀 간 거리가 고정된 구조로 되어 있어, 모든 객체에 대해 동일한 픽셀 및 서브픽셀 제어 방식을 적용하는 경우, 모든 객체가 동일한 수준의 처리로 인해 불필요한 자원이 낭비되는 한계가 있다.Furthermore, precise subpixel control is required to improve the image quality of electronic billboards, and technological advancements are needed to display specific scenes or objects more clearly. However, because the pixel spacing of electronic billboards is fixed, applying the same pixel and subpixel control method to all objects has the limitation that all objects must be processed at the same level, resulting in unnecessary waste of resources.
본 발명은 객체 인식 기술을 전광판에 적용하여, 전광판에 표시되는 영상에서 객체를 식별하고, 각 객체의 중요도 및 상태 변화에 따라 서브픽셀 제어 방식을 최적화하고자 한다.The present invention applies object recognition technology to an electronic display board to identify objects in an image displayed on the electronic display board and optimize a subpixel control method according to the importance and status change of each object.
또한, 본 발명은 전광판의 영상 품질을 유지하거나 향상시킬 수 있는 에너지 효율적인 제어 기술을 구현하고, 핵심 객체가 더욱 선명하고 정확하게 표현될 수 있도록 서브픽셀 제어를 최적화하여 전체 전광판 화면에서 전력 소비를 최소화하면서도 영상의 해상도와 밝기를 효과적으로 관리하고자 한다.In addition, the present invention implements an energy-efficient control technology capable of maintaining or improving the image quality of an electronic display board, and optimizes subpixel control so that key objects can be expressed more clearly and accurately, thereby effectively managing the resolution and brightness of the image while minimizing power consumption on the entire electronic display board screen.
또한, 전광판의 열 발생 문제를 해결하기 위해 서브픽셀 제어 방식을 더욱 정교하게 설계하여, 불필요한 전력 소모를 줄이고, 이로 인해 발생하는 열을 최소화하며, 결과적으로는 전광판의 수명을 연장할 수 있는 과제를 해결하고자 한다. 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 설명으로부터 또 다른 기술적 과제가 도출될 수도 있다.Furthermore, to address the issue of heat generation in the display board, the subpixel control method is designed to be more sophisticated. This reduces unnecessary power consumption, minimizes the resulting heat generation, and ultimately extends the display board's lifespan. The technical challenges described above are not limited to these, and additional technical challenges may be derived from the following description.
본 발명의 일 측면에 따른 LED 안내 전광판은, 서브픽셀 공유를 제어하는 LED 안내 전광판으로서, 복수 개의 서브픽셀을 포함하는 다수의 픽셀들이 배열되고 상기 서브픽셀을 이용하여 복수 개의 프레임이 포함된 영상을 출력하는 디스플레이부를 포함하고, 상기 서브픽셀의 공유 여부를 제어하는 제어부를 포함한다. 상기 제어부는 상기 디스플레이부에 출력되는 영상의 각 프레임에 포함된 적어도 하나의 객체를 식별하고, 식별된 각 객체의 타입을 결정하는 객체 인식부; 상기 복수 개의 프레임 중 검출 대상 프레임의 각 객체의 타입에 기초하여, 상기 검출 대상 프레임의 적어도 하나의 객체의 상태 변화를 검출하는 객체 상태 변화 검출부; 상기 각 객체에 포함된 복수 개의 서브픽셀의 공유 여부를 상기 각 객체의 타입에 기초하여 결정하는 서브픽셀 공유 설정부를 포함하고, 상기 서브픽셀의 공유는 상기 각 픽셀값의 결정 시 이웃하는 픽셀의 서브픽셀을 함께 고려함으로써 수행된다.According to one aspect of the present invention, an LED guide display board controls subpixel sharing, and includes a display unit in which a plurality of pixels including a plurality of subpixels are arranged and an image including a plurality of frames is output using the subpixels, and a control unit controls whether or not the subpixels are shared. The control unit includes an object recognition unit that identifies at least one object included in each frame of the image output to the display unit and determines a type of each identified object; an object state change detection unit that detects a state change of at least one object in a detection target frame based on the type of each object in the detection target frame among the plurality of frames; and a subpixel sharing setting unit that determines whether or not the plurality of subpixels included in each object are shared based on the type of each object, wherein the sharing of the subpixels is performed by taking into account the subpixels of neighboring pixels when determining each pixel value.
본 발명은 객체 인식 기술을 전광판에 적용하여, 전광판에 표시되는 영상에서 객체를 식별하고, 각 객체의 중요도 및 상태 변화에 따라 최적화된 서브픽셀 제어 방식을 제공한다.The present invention applies object recognition technology to an electronic display board to identify objects in an image displayed on the electronic display board and provides an optimized subpixel control method according to the importance and status change of each object.
이에 더해, 전광판의 영상 품질을 유지하거나 향상시킬 수 있는 에너지 효율적인 제어 기술을 제공하고, 핵심 객체가 더욱 선명하고 정확하게 표현될 수 있도록 서브픽셀 제어를 최적화하여 전체 전광판 화면에서 전력 소비를 최소화하면서도 영상의 해상도와 밝기를 효과적으로 관리할 수 있다.In addition, it provides energy-efficient control technology that can maintain or improve the image quality of the display screen, and optimizes subpixel control so that key objects can be expressed more clearly and accurately, thereby effectively managing the resolution and brightness of the image while minimizing power consumption on the entire display screen.
또한, 서브픽셀 제어 방식을 더욱 정교하게 설계하여, 불필요한 전력 소모를 줄이고, 이로 인해 발생하는 열을 최소화하며, 전광판의 수명을 연장할 수 있다. 상기된 바와 같은 효과로 한정되지 않으며, 이하의 설명으로부터 또 다른 효과가 도출될 수도 있다.Furthermore, by designing a more sophisticated subpixel control method, unnecessary power consumption can be reduced, resulting heat generation minimized, and the lifespan of the display board can be extended. The effects described above are not limited to these, and additional effects may be derived from the following description.
도 1은 본 발명의 실시예에 따른 LED 안내 전광판(10)의 구성도이다.
도 2는 본 발명의 실시예에 따른 LED 안내 전광판(10)의 제어 방법의 흐름도이다.
도 3은 본 발명의 실시예에 따른 디스플레이부(11)에 출력되는 영상에 포함된 프레임의 예시도이다.
도 4는 본 발명의 실시예에 따른 객체 상태 변화 검출부(132), 서브픽셀 공유 설정부(133)의 제어방법의 흐름도이다.
도 5는 본 발명의 일 실시예에 따르는 객체 상태 변화 검출부(132)의 위치 변화 검출 설명을 위한 예시도이다.Figure 1 is a configuration diagram of an LED guide display board (10) according to an embodiment of the present invention.
Figure 2 is a flowchart of a control method of an LED guide signboard (10) according to an embodiment of the present invention.
FIG. 3 is an example of a frame included in an image output to a display unit (11) according to an embodiment of the present invention.
FIG. 4 is a flowchart of a control method of an object state change detection unit (132) and a subpixel sharing setting unit (133) according to an embodiment of the present invention.
FIG. 5 is an exemplary diagram for explaining the detection of a change in position of an object state change detection unit (132) according to one embodiment of the present invention.
본 발명은 이하에서 서술되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 내용을 예를 들어 설명한 것이고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 자세히 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The present invention is not limited to the embodiments described below, but can be implemented in various different forms. These embodiments are merely illustrative of the contents of the present invention and are provided to provide those skilled in the art with a detailed understanding of the scope of the invention. The present invention is defined solely by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
본 명세서에서 기술하는 실시 예들은 본 발명의 이상적인 예시 도면들을 참고하여 설명될 것이다. 도면들에 있어서, 예시된 영역들은 기술적 내용의 효과적인 설명을 위해 표현된 것이다. 따라서, 도면에서 예시된 영역들은 개략적인 속성을 가지며, 도면에서 예시된 영역들의 모양은 소자 영역의 특정 형태를 예시하기 위한 것이며 발명의 범주를 제한하기 위한 것이 아니다. 본 명세서의 다양한 실시 예들에서 제1, 제2, 제3 등의 용어가 다양한 구성 요소들을 기술하기 위해서 사용되었지만, 이들 구성 요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성 요소를 다른 구성 요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시 예들은 그것의 상보적인 실시 예들도 포함한다.The embodiments described herein will be described with reference to ideal exemplary drawings of the present invention. In the drawings, the illustrated regions are expressed for the effective explanation of the technical contents. Therefore, the regions illustrated in the drawings have a schematic nature, and the shapes of the regions illustrated in the drawings are intended to illustrate specific forms of the device regions and are not intended to limit the scope of the invention. Although terms such as first, second, and third are used to describe various components in various embodiments of the present specification, these components should not be limited by such terms. These terms are used only to distinguish one component from another. The embodiments described and illustrated herein also include complementary embodiments thereof.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자에 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing embodiments only and is not intended to be limiting of the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise. As used herein, the terms "comprises" and/or "comprising" do not exclude the presence or addition of one or more other components, steps, operations, and/or elements to the mentioned components, steps, operations, and/or elements.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used in their common sense to those of ordinary skill in the art to which the present invention pertains. Furthermore, terms defined in commonly used dictionaries are not to be interpreted ideally or excessively unless explicitly and specifically defined otherwise.
이하에서 설명되는 본 발명의 실시예는 LED 안내 전광판에 관한 것이다. 이하, 도면을 참조하여, 본 발명의 개념 및 이에 따른 실시 예들에 대해 상세히 설명하기로 한다.The embodiments of the present invention described below relate to an LED guide signboard. Hereinafter, with reference to the drawings, the concept of the present invention and embodiments thereof will be described in detail.
도 1은 본 발명의 실시예에 따른 LED 안내 전광판(10)의 구성도이다. 도 1을 참조하여 살펴보면, 본 실시예에 따른 LED 안내 전광판(10)은 디스플레이부(11), 저장부(12) 및 제어부(13)로 구성된다.Fig. 1 is a configuration diagram of an LED guide display board (10) according to an embodiment of the present invention. Referring to Fig. 1, the LED guide display board (10) according to the present embodiment is composed of a display unit (11), a storage unit (12), and a control unit (13).
디스플레이부(11)는 복수 개의 픽셀로 구성되며, 각 픽셀은 복수 개의 서브픽셀을 포함한다. 각 서브픽셀은 R(Red), G(Green), B(Blue) 중 하나의 색상을 가지며, 디스플레이부(11)는 각각의 픽셀에 포함된 복수개의 서브픽셀의 색상 강도 조절을 통해 원하는 색상의 빛을 방출한다. 본 실시예에 따른 픽셀은 기존의 기술 RGB 배열에서 G 서브픽셀이 추가된 RGBG 배열로 구성될 수 있다. 추가된 G 서브픽셀은 픽셀의 색상 및 명도의 정확성을 보완하며, 상하좌우에 위치한 R 서브픽셀 또는 B 서브픽셀과 서로 데이터를 공유할 수 있다.The display unit (11) is composed of a plurality of pixels, and each pixel includes a plurality of subpixels. Each subpixel has one color among R (Red), G (Green), and B (Blue), and the display unit (11) emits light of a desired color by adjusting the color intensity of the plurality of subpixels included in each pixel. The pixel according to the present embodiment may be composed of an RGBG array in which a G subpixel is added to the existing RGB array. The added G subpixel complements the accuracy of the color and brightness of the pixel, and can share data with the R subpixels or B subpixels located up, down, left, and right.
이처럼, 하나의 G 서브픽셀이 인접한 픽셀에 공유됨으로써 각 서브픽셀이 동작하는 빈도를 줄여 전력 소모를 감소할 수 있다. 또한, 서브픽셀 공유는 디스플레이부(11)의 불필요한 에너지 소모를 줄임으로써 열 발생을 감소시킬 수 있다. 더불어, 본 실시예에 따른 디스플레이부(11)는 픽셀 간의 간격을 0.9mm 이하로 최소화하여 실화소보다 2~4배 더 높은 고해상도 디스플레이를 구현할 수 있다.In this way, by sharing a single G subpixel with adjacent pixels, the frequency at which each subpixel operates can be reduced, thereby reducing power consumption. In addition, subpixel sharing can reduce unnecessary energy consumption of the display unit (11), thereby reducing heat generation. In addition, the display unit (11) according to the present embodiment can implement a high-resolution display that is 2 to 4 times higher than the actual pixel by minimizing the gap between pixels to 0.9 mm or less.
본 발명의 일 실시예에서 디스플레이부(11)는 영상을 프레임 단위로 출력하며, 각 프레임은 디스플레이부(11)를 구성하는 복수 개의 픽셀을 이용해 출력한다. 각 프레임이 출력될 때, 각 픽셀의 서브픽셀은 입력된 영상에 따라 각기 다른 강도로 빛을 발산하며, 이를 통해 특정 색상이 구현된다. 프레임 단위로 출력되는 영상은 초당 일정한 수의 프레임으로 교체되며, 이를 통해 부드러운 움직임이 표현된다.In one embodiment of the present invention, the display unit (11) outputs images in frame units, and each frame is output using a plurality of pixels constituting the display unit (11). When each frame is output, the subpixels of each pixel emit light at different intensities depending on the input image, thereby implementing a specific color. The images output in frame units are replaced by a fixed number of frames per second, thereby expressing smooth movement.
본 발명의 일 실시예에서, 저장부(12)는 디스플레이부(11)에 출력될 영상 데이터를 저장한다.In one embodiment of the present invention, the storage unit (12) stores image data to be output to the display unit (11).
제어부(13)는 저장부(12)에 저장된 영상이 디스플레이부(11)에 출력될 때, 각 프레임에 포함된 객체를 인식하고 객체의 변화를 검출하여 해당 프레임의 출력 시 각 객체의 서브픽셀 공유 여부를 결정하는 동작을 수행한다. 디스플레이부(11)에 의해 출력될 영상의 각 프레임은 제어부(13)에서 처리된 이후 디스플레이부(11)에 출력된다. 도 1을 참조하여 살펴보면, 본 실시예에 따른 제어부(13)는 객체 인식부(131), 객체 상태 변화 검출부(132), 서브픽셀 공유 설정부(133), 프레임 비교 간격 설정부(134)를 포함한다. When an image stored in a storage unit (12) is output to a display unit (11), the control unit (13) performs an operation of recognizing an object included in each frame, detecting a change in the object, and determining whether to share subpixels of each object when outputting the corresponding frame. Each frame of an image to be output by the display unit (11) is output to the display unit (11) after being processed by the control unit (13). Referring to FIG. 1, the control unit (13) according to the present embodiment includes an object recognition unit (131), an object state change detection unit (132), a subpixel sharing setting unit (133), and a frame comparison interval setting unit (134).
본 발명의 일 실시예에 따른 객체 인식부(131)는, 디스플레이부(11)에 출력되는 영상의 각 프레임을 분석하여 각 프레임에 포함된 적어도 하나 이상의 객체를 식별할 수 있다. 객체는 사람, 동물, 사물, 텍스트, 배경 등 디스플레이부(11)에 출력되는 영상의 모든 시각적 요소를 의미할 수 있다. 객체 인식부(131)는 영상에서 특정 형태나 특징을 가진 영역을 찾고, 이 영역을 객체로 인식할 수 있다. 예를 들어, 사람 얼굴, 동물 형체, 텍스트 영역과 같이 구분이 가능한 독립적인 형태가 객체로 인식될 수 있다. 적어도 하나 이상의 객체가 식별되면, 객체 인식부(131)는 각 객체의 중요도를 분석할 수 있다. 또한, 객체 인식부(131)는 분석된 각 객체의 중요도에 기초하여, 객체의 타입을 결정할 수 있으며, 각 객체의 타입은 핵심 요소, 배경 또는 텍스트 중 어느 하나일 수 있다.The object recognition unit (131) according to one embodiment of the present invention can analyze each frame of an image output to the display unit (11) to identify at least one object included in each frame. An object may refer to all visual elements of an image output to the display unit (11), such as a person, an animal, an object, text, or a background. The object recognition unit (131) can find an area having a specific shape or characteristic in the image and recognize this area as an object. For example, a distinguishable independent shape, such as a human face, an animal shape, or a text area, can be recognized as an object. When at least one object is identified, the object recognition unit (131) can analyze the importance of each object. In addition, the object recognition unit (131) can determine the type of the object based on the importance of each analyzed object, and the type of each object may be any one of a core element, a background, or text.
본 실시예에서, 핵심 요소 타입의 객체는 영상의 중요한 정보나 의미를 시청자에게 전달하고, 텍스트 타입의 객체는 문자 형태로 이루어진 객체의 타입으로 영상에서 정보 설명, 레이블 또는 메시지로 사용되며, 배경 타입의 객체는 영상의 시각적인 맥락을 제공할 수 있다. In this embodiment, an object of the core element type conveys important information or meaning of the image to the viewer, an object of the text type is a type of object in the form of characters and is used as an information description, label, or message in the image, and an object of the background type can provide a visual context of the image.
본 실시예에서, 객체 인식부(131)는 출력되는 영상의 각 프레임에서 차지하는 각 객체 크기의 비중을 비교하여 비중이 큰 객체를 핵심 요소의 타입으로 결정할 수 있다. 화면에서 차지하는 면적이 큰 객체는 시각적으로 눈에 띄기 쉽고, 화면에서 주요한 역할을 할 가능성이 높다. 예컨대, 영화나 광고에서 화면 중심의 인물이나 큰 사물은 이야기의 주요 흐름을 설명하는데 중요한 역할을 한다. In this embodiment, the object recognition unit (131) can compare the proportion of each object's size in each frame of the output image and determine the object with the largest proportion as the core element type. Objects that occupy a large area on the screen are more likely to be visually noticeable and play a key role on the screen. For example, in movies or advertisements, characters or large objects at the center of the screen play a crucial role in explaining the main flow of the story.
본 실시예에서, 각 객체의 크기는 전체 프레임 크기에 대한 비율로 표현될 수 있다. 예를 들어, 프레임 크기가 1920 x 1080 (2073600 픽셀)이고, 객체 A의 크기가 1242 x 486 (603612 픽셀)로 전체 프레임의 약 30%를 차지하며, 객체 B의 크기가 312 x 180 (56160 픽셀)로 전체 프레임의 약 5%를 차지한다고 계산될 수 있다. 이때, 객체 A는 객체 B에 비해 약 6배 정도 큰 면적을 점유함으로써 객체 A가 상대적으로 더 중요한 정보로 간주되어 핵심 요소로 분류될 수 있다. In this embodiment, the size of each object can be expressed as a ratio to the entire frame size. For example, if the frame size is 1920 x 1080 (2073600 pixels), the size of object A can be calculated to be 1242 x 486 (603612 pixels), which occupies about 30% of the entire frame, and the size of object B can be calculated to be 312 x 180 (56160 pixels), which occupies about 5% of the entire frame. In this case, object A occupies an area that is about 6 times larger than object B, so object A can be considered relatively more important information and can be classified as a key element.
또한, 객체 인식부(131)는 전체 프레임 크기에 대한 각 객체의 크기 비중이 일정 비율을 넘어서면 핵심 요소로 결정할 수 있다. 예컨대, 10% 이상의 비중을 넘어갈 경우 핵심 요소로 결정하고, 객체 A의 비중이 15%, 객체 B의 비중이 20%, 객체 C의 비중이 5%일 수 있다. 이때, 비중이 10% 이상인 객체 A, 객체 B 가 핵심 요소로 분류될 수 있다.In addition, the object recognition unit (131) can determine that an object is a key element if its size proportion with respect to the entire frame size exceeds a certain ratio. For example, if it exceeds 10% or more, it is determined as a key element, and the proportion of object A may be 15%, the proportion of object B may be 20%, and the proportion of object C may be 5%. In this case, objects A and B with proportions of 10% or more may be classified as key elements.
본 실시예에서, 객체 인식부(131)는 출력되는 영상의 각 프레임에 직선, 곡선 또는 폐곡선의 조합으로 구성된 문자 구조를 포함하는 영역은 텍스트 타입으로 분류할 수 있다. 예컨대, 영화 자막, 뉴스 헤드라인, 스포츠 경기의 점수판 등 과 같이 문자 형태를 포함하는 객체가 텍스트 타입으로 분류될 수 있다.In this embodiment, the object recognition unit (131) can classify an area containing a character structure composed of a combination of straight lines, curves, or closed curves in each frame of an output image as a text type. For example, objects containing character shapes, such as movie subtitles, news headlines, and a scoreboard of a sports game, can be classified as a text type.
본 실시예에서, 객체 인식부(131)는 핵심 요소 또는 텍스트 타입의 객체의 뒤에 배치된 객체는 배경으로 분류할 수 있다. 배경 타입의 객체는 장면의 분위기나 환경 설정을 전달되는데 사용된다. 예컨대, 구름이 떠 있는 하늘, 숲 속 풍경의 나무, 차들이 지나가는 도시의 거리 등 장면의 환경을 구성하는 요소는 배경 타입으로 분류될 수 있다. In this embodiment, the object recognition unit (131) can classify objects placed behind core elements or text-type objects as background. Background-type objects are used to convey the atmosphere or environmental settings of a scene. For example, elements that constitute the environment of a scene, such as a cloudy sky, trees in a forest landscape, or a city street with cars passing by, can be classified as background-type.
본 실시예에서, 객체 인식부(131)는 핵심 요소, 텍스트, 배경을 포함하는 복수 개의 이미지 또는 영상과, 각 객체의 타입을 지정한 레이블을 활용하여 학습된 인공지능 모델을 이용하여 각 프레임으로부터 객체를 감지하고, 각 객체의 타입을 분류할 수 있다. 이러한 인공지능 모델로는 Faster R-CNN (Region-based Convolutional Neural Networks), DeepLab, SORT와 같은 인공지능 알고리즘이 사용될 수 있다.In this embodiment, the object recognition unit (131) can detect objects from each frame and classify the type of each object using an artificial intelligence model learned by utilizing multiple images or videos containing key elements, text, and backgrounds, and labels specifying the type of each object. Artificial intelligence algorithms such as Faster R-CNN (Region-based Convolutional Neural Networks), DeepLab, and SORT can be used as such artificial intelligence models.
본 발명의 일 실시예에서, 객체 상태 변화 검출부(132)는 각 객체의 타입에 기초하여, 각 객체에서 발생하는 상태 변화를 검출할 수 있다. 본 실시예에서, 각 객체의 타입이 핵심 요소 또는 텍스트일 경우, 객체 상태 변화 검출부(132)는 각 객체의 상태 변화 검출을 수행한다. 한편, 각 객체의 타입이 배경인 경우는, 객체 상태 변화 검출부(132)는 각 객체의 상태 변화 검출을 수행하지 않을 수 있다.In one embodiment of the present invention, the object state change detection unit (132) can detect a state change occurring in each object based on the type of each object. In this embodiment, if the type of each object is a core element or text, the object state change detection unit (132) performs state change detection for each object. On the other hand, if the type of each object is background, the object state change detection unit (132) may not perform state change detection for each object.
객체에서 발생하는 상태 변화는 서로 다른 프레임에서 객체의 위치 변화, 크기 변화 및 픽셀 값 변화를 포함할 수 있다. 각 객체의 상태 변화는 검출 대상 프레임과, 검출 대상 프레임보다 이후에 출력될 어느 하나의 프레임을 비교함으로써 결정된다. 이때, 검출 대상 프레임과 비교되는 어느 하나의 프레임은 검출 대상 프레임으로부터 프레임 비교 간격 이후의 프레임일 수 있다.State changes occurring in an object may include changes in the object's position, size, and pixel value across different frames. The state changes for each object are determined by comparing the detection target frame with a frame that will be output after the detection target frame. The frame being compared with the detection target frame may be a frame that occurs after the frame comparison interval from the detection target frame.
본 실시예에서, 핵심 요소 타입의 객체 및 텍스트 타입의 객체의 상태 변화는 영상의 의미와 정보를 실시간으로 변화시키므로, 배경 타입의 객체보다 상대적으로 중요도가 높을 수 있다. 따라서, 객체 상태 변화 검출부(132)는 영상의 의미 전달에 주요한 역할을 하는 핵심 요소 및 텍스트의 타입으로 분류된 객체에 대해서 상태 변화 검출을 수행하고, 배경 타입으로 분류된 객체에 대해서는 상태 변화 검출을 수행하지 않을 수 있다. In the present embodiment, state changes of objects of the core element type and objects of the text type may be relatively more important than objects of the background type because they change the meaning and information of the image in real time. Accordingly, the object state change detection unit (132) may perform state change detection on objects classified as core elements and text types that play a major role in conveying the meaning of the image, and may not perform state change detection on objects classified as the background type.
본 발명의 일 실시예에서, 서브픽셀 공유 설정부(133)는 객체의 타입에 기초하여 각 객체에 포함된 복수 개의 서브픽셀들의 공유 여부를 결정할 수 있다.In one embodiment of the present invention, the subpixel sharing setting unit (133) can determine whether to share a plurality of subpixels included in each object based on the type of the object.
서브픽셀 공유란, 특정 픽셀이 필요로 하는 픽셀 값을 계산할 때, 주변 서브픽셀의 데이터를 함께 사용하는 것이다. 예를 들어, 한 픽셀이 정확한 녹색을 표현해야 한다면, 그 픽셀의 녹색 서브픽셀뿐만 아니라, 인접 픽셀의 녹색 서브픽셀 데이터도 사용할 수 있다. 서브픽셀 데이터를 주변 픽셀에 공유함으로써, 특정 픽셀이 원래 자체 서브픽셀만으로는 표현 할 수 없는 색상을 더 정확하게 표현할 수 있다. 또한, 서브픽셀 공유를 활성화함으로써, 서브픽셀의 역할을 분산하여 더 적은 전력으로 동일한 효과를 낼 수 있다. 예컨대, 넓은 녹색 잔디를 표현할 때 각 픽셀이 개별적으로 색상을 계산하고 표현한다면, 유사한 색상 정보를 불필요하게 반복 처리해 전류 소모량이 크게 증가하게 된다. 반면, 서브픽셀 공유를 활성화할 경우, 인접한 픽셀들 사이에서 색상 정보를 공유함으로써 중복된 계산 작업을 줄여 소비 전력을 줄여 에너지 효율을 높일 수 있다.Subpixel sharing refers to using data from surrounding subpixels when calculating the pixel value required by a specific pixel. For example, if a pixel needs to express the exact color green, it can use not only its own green subpixel data, but also the green subpixel data from adjacent pixels. By sharing subpixel data with surrounding pixels, a specific pixel can more accurately express colors that its own subpixels cannot express on their own. Furthermore, by enabling subpixel sharing, the work of subpixels can be distributed, achieving the same effect with less power. For example, if each pixel individually calculates and displays a color when expressing a large green lawn, similar color information would be unnecessarily repeated, significantly increasing current consumption. On the other hand, enabling subpixel sharing can share color information between adjacent pixels, reducing redundant calculations and power consumption, thereby improving energy efficiency.
또한, 서브픽셀 공유 기술을 통해, 색상 환원도가 높고, 손상이 적은 화질 및 10000:1의 명암비를 구현할 수 있다는 효과가 있다In addition, through subpixel sharing technology, it is possible to achieve high color reproduction, low damage picture quality, and a contrast ratio of 10000:1.
본 실시예에서, 객체 인식부(131)에서 판별한 배경 타입의 객체는 영상의 부가적인 요소로서, 서브픽셀 공유 설정부(133)는 배경 타입의 객체에 포함되는 복수 개의 서브픽셀에 대하여 서브픽셀 공유를 활성화하여 전력 소모량을 감소시킬 수 있다. 본 실시예에서, 객체에 포함되는 복수 개의 서브픽셀이란 해당 객체를 표현하기 위해 사용되는 서브픽셀들, 즉 해당 객체의 외곽선 및 외곽선 내측 영역을 표현하는 서브픽셀을 지칭한다.In this embodiment, the object of the background type determined by the object recognition unit (131) is an additional element of the image, and the subpixel sharing setting unit (133) can reduce power consumption by activating subpixel sharing for a plurality of subpixels included in the object of the background type. In this embodiment, the plurality of subpixels included in the object refer to subpixels used to express the object, i.e., subpixels expressing the outline and the inner area of the outline of the object.
또한, 서브픽셀 공유 설정부(133)는 객체 상태 변화 검출부(132)에 의해 검출된 핵심 요소 및 텍스트 타입의 객체의 상태 변화 검출 결과를 기초로 각 프레임 내의 각 객체에 포함된 서브픽셀의 공유 여부를 설정한다.In addition, the subpixel sharing setting unit (133) sets whether to share subpixels included in each object in each frame based on the key elements detected by the object status change detection unit (132) and the status change detection result of the text type object.
본 발명의 일 실시예에서, 프레임 비교 간격 설정부(134)는 객체 인식부(131)에서 식별된 객체의 개수에 따라 객체 상태 변화를 검출할 때 적용되는 프레임 비교 간격을 설정할 수 있다.In one embodiment of the present invention, the frame comparison interval setting unit (134) can set the frame comparison interval applied when detecting a change in object status according to the number of objects identified by the object recognition unit (131).
본 발명의 제어부(13)의 각 구성에 대해서는, 본 발명의 실시예에 따른 LED 안내 전광판의 제어 방법의 흐름도를 나타내는 도 2 및 디스플레이부(11)에 출력되는 영상의 각 프레임을 나타내는 도 3을 참조하여 보다 구체적으로 설명하도록 한다. Each component of the control unit (13) of the present invention will be described in more detail with reference to FIG. 2, which shows a flow chart of a control method of an LED guide display board according to an embodiment of the present invention, and FIG. 3, which shows each frame of an image output to the display unit (11).
도 2를 참조하여 살펴보면 610 단계에서 제어부(13)의 객체 인식부(131)는 디스플레이부(11)에 출력되는 영상의 각 프레임에서 적어도 하나 이상의 객체를 식별할 수 있다.Referring to FIG. 2, at step 610, the object recognition unit (131) of the control unit (13) can identify at least one object in each frame of the image output to the display unit (11).
도 3을 참조하여 살펴보면, 도 3a는 제어부(13)에 의해 서브픽셀 공유 여부가 결정되는 대상인 검출 대상 프레임을 나타내고, 도 3b는 검출 대상 프레임에서 사전에 정해진 프레임 비교 간격을 더한 시점의 비교 프레임을 나타낸다. 도 3a의 검출 대상 프레임에서 코끼리, 나무, Africa 문구가 적힌 푯말은 객체 인식부(131)로부터 각각의 객체로 식별될 수 있다. 또한, 도 3b의 비교 프레임에서 코끼리, 나무, Africa 문구가 적힌 푯말은 객체 인식부(131)로부터 각각의 객체로 식별될 수 있다.Referring to FIG. 3, FIG. 3a shows a detection target frame for which subpixel sharing is determined by the control unit (13), and FIG. 3b shows a comparison frame at a point in time when a predetermined frame comparison interval is added to the detection target frame. In the detection target frame of FIG. 3a, an elephant, a tree, and a sign with the phrase “Africa” written on them can be identified as respective objects by the object recognition unit (131). In addition, in the comparison frame of FIG. 3b, an elephant, a tree, and a sign with the phrase “Africa” written on them can be identified as respective objects by the object recognition unit (131).
620 단계에서, 제어부(13)의 객체 인식부(131)는 각 프레임에 식별된 객체 의 중요도를 기초로 각 객체의 타입을 핵심 요소, 텍스트 또는 배경으로 결정할 수 있다. At step 620, the object recognition unit (131) of the control unit (13) can determine the type of each object as a core element, text, or background based on the importance of the object identified in each frame.
도 3a에 도시된 바와 같이, 코끼리는 중앙에 위치하여 주요 시각적 요소로 작용하며, 나무는 코끼리 뒤쪽에서 배경으로서 장면의 맥락을 형성한다. 푯말은 프레임의 배경이 아프리카라는 국가 정보를 전달하며 코끼리와 연결된 의미를 보강한다. 한편, 나무와 푯말은 장면의 구성 요소로서 서로 개별적인 의미를 가진다. 이와 같이 객체 인식부(131)는 각 객체의 중요도를 기초로 객체의 타입을 결정할 수 있다. 객체 인식부(131)는 시각적 관심을 끄는 주된 대상인 코끼리는 핵심 요소 타입으로, 나무는 배경 타입으로, 푯말은 텍스트 타입으로 각 객체의 타입을 결정할 수 있다. As illustrated in Figure 3a, the elephant is positioned in the center and serves as the primary visual element, while the tree, positioned behind the elephant as a background, forms the context of the scene. The signpost conveys the country information that the frame's background is Africa and reinforces the meaning associated with the elephant. Meanwhile, the tree and the signpost have individual meanings as components of the scene. In this way, the object recognition unit (131) can determine the type of each object based on the importance of each object. The object recognition unit (131) can determine the type of each object as follows: the elephant, which is the main object that attracts visual attention, is a core element type; the tree is a background type; and the signpost is a text type.
630 단계에서, 제어부(13)의 객체 인식부(131)는 620 단계에서 결정된 객체의 타입이 배경 타입인지 여부를 판단할 수 있다. 배경 타입의 객체는 장면에서 보조적인 역할을 하며 장면의 주요 의미를 바꾸지 않기 때문에 서브픽셀을 공유하더라도 영상의 품질에 큰 영향을 미치지 않는다.At step 630, the object recognition unit (131) of the control unit (13) can determine whether the type of object determined at step 620 is a background type. Since objects of the background type play a supporting role in the scene and do not change the main meaning of the scene, even if they share subpixels, they do not have a significant impact on the quality of the image.
이러한 배경 타입 객체에 해당하는 픽셀의 서브픽셀을 공유함으로써 연산 비용을 절감할 수 있다. 또한, 제어부(13)의 처리 성능을 핵심 요소 타입과 텍스트 타입의 객체에 집중시킬 수 있는 효과가 있다. 예컨대, 코끼리가 등장하는 장면에서 배경에 있는 나무나 하늘이 움직이는 것은 장면의 주요 의미를 바꾸지 않으므로 배경의 서브픽셀을 공유하는 것이 적합하다. By sharing subpixels of pixels corresponding to these background-type objects, computational costs can be reduced. Furthermore, this has the effect of allowing the processing performance of the control unit (13) to be focused on core element-type and text-type objects. For example, in a scene featuring an elephant, the movement of trees or the sky in the background does not change the main meaning of the scene, so sharing background subpixels is appropriate.
따라서, 객체의 타입이 배경인 경우, 제어부(13)의 서브픽셀 공유 설정부(133)는 640 단계를 수행하여 해당 객체에 포함된 픽셀들의 서브픽셀 공유를 활성화하도록 설정할 수 있다. 서브픽셀 공유가 활성화되면, 배경 타입을 가지는 객체에 포함된 각 서브픽셀의 데이터를 각 인접 픽셀의 픽셀 값을 표현할 때 참조하여 사용할 수 있다. Accordingly, if the type of the object is background, the subpixel sharing setting unit (133) of the control unit (13) can perform step 640 to activate subpixel sharing of pixels included in the object. When subpixel sharing is activated, the data of each subpixel included in the object having the background type can be used as a reference when expressing the pixel value of each adjacent pixel.
한편, 630 단계에서 객체의 타입이 핵심 요소 또는 텍스트인 경우, 프레임 비교 간격 설정부(134)는 650 단계를 수행할 수 있다.Meanwhile, if the type of the object is a core element or text in step 630, the frame comparison interval setting unit (134) can perform step 650.
핵심 요소 또는 텍스트 타입의 객체는 장면에서 주요한 역할을 하며 시청자가 영상 속의 이야기를 파악하는데 중요한 역할을 수행한다. 이러한 핵심 요소 또는 텍스트 타입의 객체가 영상의 흐름에서 어떻게 변하는지 파악하기 위해 각 객체 상태 변화를 검출하고, 이를 기반으로 서브픽셀 공유 여부를 결정할 수 있다.Key elements or text-type objects play a key role in a scene and play a crucial role in helping viewers understand the story within the video. To understand how these key elements or text-type objects change throughout the video, we can detect changes in the state of each object and determine whether to share subpixels based on this change.
650 단계에서, 제어부(13)의 프레임 비교 간격 설정부(134)는 각 프레임에서 식별된 객체의 개수를 기준으로 프레임 비교 간격을 설정할 수 있다. 즉, 각 프레임에서 적용되는 프레임 비교 간격은 서로 상이할 수 있다.At step 650, the frame comparison interval setting unit (134) of the control unit (13) can set the frame comparison interval based on the number of objects identified in each frame. That is, the frame comparison interval applied to each frame may be different from each other.
본 실시예에서, 각 프레임에 많은 객체가 동시에 존재할 경우, 모든 객체의 상태 변화를 검출하려면, 연산 비용이 증가할 수 있으므로 검출 빈도를 낮추는 것이 바람직하다. 반면, 각 프레임에서 적은 수의 객체가 존재할수록 화면상에서 각 객체 상태 변화의 중요도가 상대적으로 높으므로 각 객체의 상태 변화의 검출 빈도를 높이는 것이 바람직하다. In this embodiment, when multiple objects exist simultaneously in each frame, detecting state changes for all objects can increase computational costs, so it is desirable to lower the detection frequency. Conversely, when fewer objects exist in each frame, the significance of each object's state change on the screen is relatively high, so it is desirable to increase the detection frequency for each object's state change.
따라서, 프레임 비교 간격 설정부(134)는 각 프레임에 적용될 프레임 비교 간격을 각 프레임에서 식별된 객체의 개수와 동일하게 설정함으로써, 연산 처리 부담을 줄이고, 효율성을 높일 수 있다. 예컨대, 검출 대상 프레임인 제1 프레임에서 객체의 개수가 3개가 식별되었다면, 제1 프레임의 객체의 상태와 변화를 비교할 비교 프레임은 제1 프레임으로부터 뒤로 3프레임이 더해진 제4 프레임이 될 수 있다. 이때, 각 프레임에서 식별된 객체가 없거나 객체의 개수와 동일한 프레임이 각 프레임 뒤에 존재하지 않을 경우, 사전에 설정해 놓은 최소값과 최대값 범위 내에서 결정될 수 있다.Accordingly, the frame comparison interval setting unit (134) can reduce the computational processing burden and increase efficiency by setting the frame comparison interval to be applied to each frame to be the same as the number of objects identified in each frame. For example, if three objects are identified in the first frame, which is the detection target frame, the comparison frame to compare the state and change of the objects in the first frame can be the fourth frame, which is three frames added behind the first frame. At this time, if there is no object identified in each frame or a frame with the same number of objects does not exist behind each frame, it can be determined within the range of the minimum and maximum values set in advance.
이후, 객체 상태 변화 검출부(132)는 710 단계를 수행하여 객체 상태 변화를 검출할 수 있다.Thereafter, the object state change detection unit (132) can detect the object state change by performing step 710.
710 단계 이후의 설명은 도 4를 참조하여 구체적으로 살펴보도록 한다. 도 4는 본 발명의 일 실시예에 따르는 객체 상태 변화 검출부(132), 서브픽셀 공유 설정부(133)의 제어방법의 흐름도이고, 도 5는 본 발명의 일 실시예에 따르는 객체 상태 변화 검출부(132)의 객체 위치 변화 검출을 설명하기 위한 예시도이다.The description after step 710 will be examined in detail with reference to FIG. 4. FIG. 4 is a flowchart of a control method of an object state change detection unit (132) and a subpixel sharing setting unit (133) according to one embodiment of the present invention, and FIG. 5 is an exemplary diagram for explaining object position change detection of an object state change detection unit (132) according to one embodiment of the present invention.
710 단계에서, 객체 상태 변화 검출부(132)는 720 단계, 730 단계 및 740 단계를 각각 거치며 객체의 타입이 핵심 요소 또는 텍스트인 객체의 세가지 상태 변화를 검출할 수 있다.In step 710, the object state change detection unit (132) can detect three state changes of an object whose type is a core element or text by going through steps 720, 730, and 740, respectively.
720 단계에서, 제어부(13)의 객체 상태 변화 검출부(132)는 객체의 위치 변화를 검출할 수 있다. 도 5를 참조하여 살펴보면, 도 5a는 검출 대상 프레임을 나타내고, 도 5b는 서브픽셀 공유 여부 결정 대상인 검출 대상 프레임에서 사전에 정해진 프레임 비교 간격을 더한 시점의 비교 프레임을 나타낸다. 각각의 검출 대상 프레임 및 비교 프레임에서 코끼리 객체의 경계 박스를 설정할 수 있다. 코끼리 객체의 경계 박스는 코끼리 객체를 포함하는 최소 크기의 직사각형(S1, S2)으로 설정할 수 있다. 두 프레임 간 객체의 위치변화는 검출 대상 프레임의 코끼리 객체의 경계 박스의 중심 좌표 P1과 비교 프레임에서 코끼리 객체의 경계의 중심 좌표 P2 사이의 거리로 계산될 수 있다. In step 720, the object state change detection unit (132) of the control unit (13) can detect a change in the position of the object. Referring to FIG. 5, FIG. 5a shows a detection target frame, and FIG. 5b shows a comparison frame at a point in time when a predetermined frame comparison interval is added to the detection target frame, which is a target for determining whether to share subpixels. A bounding box of an elephant object can be set in each of the detection target frame and the comparison frame. The bounding box of the elephant object can be set as a minimum-sized rectangle (S1, S2) that includes the elephant object. The change in the position of the object between the two frames can be calculated as the distance between the center coordinate P1 of the bounding box of the elephant object in the detection target frame and the center coordinate P2 of the boundary of the elephant object in the comparison frame.
예컨대, 검출 대상 프레임의 코끼리 객체 중심 좌표가 이고, 비교 프레임의 코끼리 객체 심 좌표가 라고 가정할 수 있다. 이 때 코끼리 객체 위치 변화는, 두 중심 좌표 간 거리로, 으로 계산될 수 있다.For example, the center coordinates of the elephant object in the detection target frame , and the coordinates of the elephant object in the comparison frame are It can be assumed that the change in the position of the elephant object at this time is the distance between the two central coordinates, can be calculated as
730 단계에서, 제어부(13)의 객체 상태 변화 검출부(132)는 객체의 크기 변화를 검출할 수 있다. 두 프레임 간 객체의 크기 변화는 검출 대상 프레임의 객체 면적과 비교 프레임의 객체 면적 변화율로 산출될 수 있다.At step 730, the object state change detection unit (132) of the control unit (13) can detect a change in the size of the object. The change in the size of the object between two frames can be calculated as the object area of the detection target frame and the object area change rate of the comparison frame.
크기 변화율은 비교 프레임에서의 객체의 면적에서 검출 대상 프레임에서의 객체의 면적을 뺀 값을 검출 대상 프레임에서의 객체의 면적으로 나눈 값을 활용해서 계산할 수 있다.The rate of change in size can be calculated by using the value obtained by subtracting the area of the object in the detection target frame from the area of the object in the comparison frame and dividing it by the area of the object in the detection target frame.
740 단계에서, 제어부(13)의 객체 상태 변화 검출부(132)는 객체 픽셀 값 변화를 검출할 수 있다. 정확한 픽셀 값을 비교하려면 두 프레임에서 객체를 크기를 동일하게 맞추는 정규화 작업이 필요할 수 있다. 두 프레임에서 동일한 위치를 비교하기 위해, 정규화된 객체에서 동일한 좌표에 해당하는 픽셀 값을 추출할 수 있다. At step 740, the object state change detection unit (132) of the control unit (13) can detect changes in object pixel values. To compare accurate pixel values, a normalization operation may be required to adjust the size of the objects in both frames to the same size. To compare the same location in both frames, pixel values corresponding to the same coordinates can be extracted from the normalized object.
즉, 객체 상태 변화 검출부(132)는 동일한 크기로 정규화 된 검출 대상 프레임의 객체에 포함되는 제1 픽셀의 제1 픽셀 값 과 제1 픽셀과 동일한 좌표를 갖는 비교 프레임의 제2 픽셀의 제2 픽셀 값 의 차이를 계산할 수 있다. 이후, 두 프레임의 객체에 포함된 모든 픽셀의 픽셀 값의 차이를 합산하여 두 프레임 간의 픽셀 변화를 검출할 수 있다. That is, the object state change detection unit (132) detects the first pixel value of the first pixel included in the object of the detection target frame normalized to the same size. and the second pixel value of the second pixel of the comparison frame having the same coordinates as the first pixel. The difference can be calculated. Afterwards, the pixel values of all pixels contained in the objects of the two frames can be added up to detect pixel changes between the two frames.
따라서, 객체 픽셀 값 변화 D는 다음과 같은 수식으로 산출될 수 있다.Therefore, the object pixel value change D can be calculated using the following formula.
위의 수식에서,는 검출 대상 프레임에서 객체에 포함된 픽셀 값들을, 는 비교 프레임에서 객체에 포함된 픽셀 값들을 의미한다.In the above formula, is the pixel values contained in the object in the detection target frame, refers to the pixel values contained in the object in the comparison frame.
앞서 설명한 바와 같이, 본 발명의 일 실시예에서, 각 픽셀은 G(Green) 색상의 서브픽셀이 두 개가 배치될 수 있다. 즉, 하나의 픽셀에 G 색상을 나타내는 서브픽셀이 두 개 존재하여, 각각의 색상 값은 서로 다를 수 있다. 이 경우, 객체 상태 변화 검출부(132)는 픽셀의 최종 색상 값을 결정하기 위해 두 개의 G 서브픽셀의 값의 평균을 계산하여 사용할 수 있다. 이를 통해, 서로 다른 색상 값을 가진 G 서브픽셀 간의 차이를 보정할 수 있다.As described above, in one embodiment of the present invention, each pixel may have two subpixels of the color G (Green). That is, since there are two subpixels representing the color G in one pixel, the color values of each may be different. In this case, the object state change detection unit (132) may calculate and use the average of the values of the two G subpixels to determine the final color value of the pixel. Through this, the difference between G subpixels having different color values can be compensated for.
750 단계에서, 제어부(13)의 객체 상태 변화 검출부(132)는 720 단계에서 검출한 객체 위치 변화, 730 단계에서 검출한 객체 크기 변화 및 740 단계에서 검출한 객체 픽셀 값 변화의 각각의 값이 사전에 설정된 각각의 임계값을 초과하는지 여부에 따라 각 객체의 모션 상태를 판별할 수 있다. 모든 단계에서 임계값을 초과하면, 영상에서 움직임이 있거나 변화가 있는 장면으로 모션 상태는 동적이라고 결정될 수 있다. 예컨대, 액션 영화의 추격 신, 스포츠 경기의 하이라이트, 혹은 빠르게 전환되는 화면 등이 동적 상태에 해당할 수 있다. 반면에, 어느 한 단계라도 임계값을 초과하지 않는다면, 영상에서 움직임이나 변화가 거의 없는 고요한 장면으로, 모션 상태가 정적이라고 결정할 수 있다. 예컨대, 자연 풍경의 정지화면, 고정된 카메라 앵글로 촬영된 인터뷰 장면 등이 정적 상태에 해당할 수 있다.In step 750, the object state change detection unit (132) of the control unit (13) can determine the motion state of each object based on whether each value of the object position change detected in step 720, the object size change detected in step 730, and the object pixel value change detected in step 740 exceeds each threshold value set in advance. If the threshold value is exceeded in all steps, the motion state can be determined to be dynamic as a scene in which there is movement or change in the video. For example, a chase scene in an action movie, a highlight of a sports game, or a screen with rapid transitions can correspond to a dynamic state. On the other hand, if no threshold value is exceeded in any step, the motion state can be determined to be static as a quiet scene in the video with little movement or change. For example, a still image of a natural landscape or an interview scene filmed with a fixed camera angle can correspond to a static state.
이와 같이, 모든 단계에서 임계값을 초과한 경우는, 760 단계가 수행되고, 어느 하나라도 임계값을 초과하지 않은 경우에는, 770 단계가 수행될 수 있다.Thus, if the threshold is exceeded at any step, step 760 may be performed, and if the threshold is not exceeded at any step, step 770 may be performed.
760 단계에서, 제어부(13)의 서브픽셀 공유 설정부(133)는 모션 상태가 동적 상태로 판별된 객체에 포함된 픽셀들의 서브픽셀 공유를 활성화하도록 설정할 수 있다. 동적인 장면에서는 시청자의 눈이 빠르게 움직이는 동적인 장면의 세부 사항보다는 전체적인 흐름에 더 민감하기 때문에, 서브픽셀을 공유해도 시각적인 품질 손상이 크지 않다. 서브픽셀 공유를 통해 전력 소비와 연산 부담을 줄이고 디스플레이의 수명을 늘릴 수 있다. At step 760, the subpixel sharing setting unit (133) of the control unit (13) can be configured to activate subpixel sharing of pixels included in objects whose motion state is determined to be dynamic. In dynamic scenes, the viewer's eyes are more sensitive to the overall flow of the scene than to the details of rapidly moving dynamic scenes. Therefore, subpixel sharing does not significantly impair visual quality. Subpixel sharing can reduce power consumption and computational burden, and extend the lifespan of the display.
770 단계에서, 제어부(13)의 서브픽셀 공유 설정부(133)는 모션 상태가 정적 상태로 판별된 객체에 포함된 픽셀들의, 서브픽셀 공유를 비활성화하도록 설정할 수 있다. 정적인 장면에서는 시청자의 눈이 디테일을 더 잘 인지하기 때문에, 서브픽셀을 공유하지 않음으로써 선명도와 정확한 색상을 유지할 수 있다.At step 770, the subpixel sharing setting unit (133) of the control unit (13) can be set to disable subpixel sharing for pixels included in objects whose motion state is determined to be static. Since the viewer's eyes are better able to perceive details in static scenes, clarity and accurate colors can be maintained by not sharing subpixels.
본 실시예에 따르는 LED 안내 전광판(10)에 의하면, 영상의 각 프레임에서 각각의 객체를 식별하여 객체의 타입을 판별하고, 객체의 상태 변화를 검출하여 객체의 모션 상태를 결정하며, 모션 상태에 따라 객체에 해당하는 서브픽셀의 공유 여부가 결정됨으로써, LED 안내 전광판(10)의 에너지를 절감시킬 수 있다.According to the LED guide display board (10) according to the present embodiment, each object is identified in each frame of the image to determine the type of the object, a change in the state of the object is detected to determine the motion state of the object, and whether or not to share a subpixel corresponding to the object is determined based on the motion state, thereby saving the energy of the LED guide display board (10).
한편, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.Meanwhile, even though all components constituting the embodiments of the present invention have been described as being combined or operating in combination, the present invention is not necessarily limited to such embodiments. That is, within the scope of the purpose of the present invention, all of the components may be selectively combined and operated one or more times. In addition, although all of the components may be implemented as individual independent hardware, some or all of the components may be selectively combined and implemented as a computer program having program modules that perform some or all of the functions of the combined hardware in one or more pieces. The codes and code segments constituting the computer program can be easily inferred by those skilled in the art of the present invention. Such a computer program may be stored in a non-transitory computer-readable storage medium and read and executed by a computer, thereby implementing the embodiments of the present invention.
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable storage medium refers to a medium that permanently stores data and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, the above-described programs may be stored and provided on a non-transitory readable storage medium, such as a CD, DVD, hard disk, Blu-ray disc, USB, memory card, or ROM.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.Although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and various modifications may be made by those skilled in the art without departing from the spirit or scope of the present invention as claimed in the claims. Furthermore, such modifications should not be understood individually from the technical idea or prospect of the present invention.
10 : LED 안내 전광판
11 : 디스플레이부
12 : 저장부
13 : 제어부
131 : 객체 인식부
132 : 객체 상태 변화 검출부
133 : 서브픽셀 공유 설정부
134 : 프레임 비교 간격 설정부10: LED information board
11: Display section
12: Storage
13: Control unit
131: Object recognition unit
132: Object state change detection unit
133: Subpixel sharing settings
134: Frame comparison interval setting section
Claims (8)
상기 서브픽셀의 공유 여부를 제어하는 제어부를 포함하고,
상기 제어부는
상기 디스플레이부에 출력되는 영상의 각 프레임에 포함된 적어도 하나의 객체를 식별하고, 식별된 각 객체의 타입을 결정하는 객체 인식부;
상기 복수 개의 프레임 중 검출 대상 프레임의 각 객체의 타입에 기초하여, 상기 검출 대상 프레임의 각 객체의 상태 변화를 검출하는 객체 상태 변화 검출부; 및
상기 각 객체에 포함된 복수 개의 서브픽셀의 공유 여부를 상기 각 객체의 타입에 기초하여 결정하는 서브픽셀 공유 설정부를 포함하며,
상기 서브픽셀은 R, G, B 중 하나의 색상을 가지고,
상기 픽셀은 상기 복수 개의 서브픽셀에 해당하는 RGBG 배열로 구성되며,
상기 서브픽셀 공유의 활성화가 결정된 경우, 상기 서브픽셀 공유 설정부는, G 서브픽셀의 데이터를 이웃하는 R 서브픽셀 또는 B 서브픽셀과 서로 공유하도록 하고,
상기 서브픽셀 공유의 비활성화가 결정된 경우, 상기 서브픽셀 공유 설정부는, 상기 G 서브픽셀의 데이터를 이웃하는 서브픽셀과 공유하지 않으며,
상기 객체 인식부는 인공지능 알고리즘을 통해 상기 각 프레임의 각 객체의 타입을 핵심 요소, 텍스트 또는 배경으로 분류하고,
상기 객체 상태 변화 검출부는 상기 검출 대상 프레임의 적어도 하나의 객체 중 타입이 핵심 요소 또는 텍스트로 분류된 각 객체에 대해서 상태 변화를 검출하며,
상기 서브픽셀 공유 설정부는 상기 검출 대상 프레임의 적어도 하나의 객체 중 타입이 배경으로 분류된 각 객체에 포함된 픽셀들의 복수 개의 서브픽셀은 인접 픽셀에 공유하는 것을 특징으로 하는 LED 안내 전광판.A display unit in which a plurality of pixels including a plurality of subpixels are arranged and an image including a plurality of frames is output using the subpixels;
Includes a control unit that controls whether to share the above subpixels,
The above control unit
An object recognition unit that identifies at least one object included in each frame of an image output to the display unit and determines the type of each identified object;
An object state change detection unit that detects a state change of each object in the detection target frame based on the type of each object in the detection target frame among the plurality of frames; and
Includes a subpixel sharing setting unit that determines whether to share multiple subpixels included in each of the above objects based on the type of each of the above objects,
The above subpixel has one of the colors R, G, and B,
The above pixel is composed of an RGBG array corresponding to the plurality of subpixels,
If the activation of the above subpixel sharing is determined, the subpixel sharing setting unit shares the data of the G subpixel with the neighboring R subpixel or B subpixel,
If the above subpixel sharing is determined to be disabled, the subpixel sharing setting unit does not share the data of the G subpixel with the neighboring subpixel.
The above object recognition unit classifies the type of each object in each frame into a core element, text, or background through an artificial intelligence algorithm,
The above object state change detection unit detects a state change for each object classified as a core element or text type among at least one object of the detection target frame,
An LED guide display board characterized in that the subpixel sharing setting unit shares a plurality of subpixels of pixels included in each object classified as a background type among at least one object of the detection target frame with adjacent pixels.
상기 객체 상태 변화 검출부는 상기 검출 대상 프레임의 적어도 하나의 객체와
비교 프레임의 상기 적어도 하나의 객체를 비교함으로써 상기 검출 대상 프레임의 각 객체의 상태 변화를 검출하고,
상기 비교 프레임은 상기 검출 대상 프레임에서 프레임 비교 간격을 더한 시점의 프레임인 것을 특징으로 하는 LED 안내 전광판.In the first paragraph,
The above object state change detection unit detects at least one object of the detection target frame and
Detecting a change in the state of each object of the detection target frame by comparing at least one object of the comparison frame,
An LED guide display board characterized in that the above comparison frame is a frame at a point in time when a frame comparison interval is added to the above detection target frame.
상기 제어부는
상기 각 객체의 상태 변화를 검출할 때 적용되는 프레임 비교 간격을 설정하는 프레임 비교 간격 설정부를 더 포함하고,
상기 프레임 비교 간격 설정부는 상기 객체 인식부에서 식별한 객체의 개수에 기초하여 상기 프레임 비교 간격을 설정하는 것을 특징으로 하는 LED 안내 전광판.In the second paragraph,
The above control unit
Further comprising a frame comparison interval setting unit that sets a frame comparison interval applied when detecting a change in the status of each object above,
An LED guide display board characterized in that the frame comparison interval setting unit sets the frame comparison interval based on the number of objects identified by the object recognition unit.
상기 객체 상태 변화 검출부는
상기 검출 대상 프레임과 상기 비교 프레임에서 각 객체의 위치, 각 객체의 크기 및 각 객체에 포함된 픽셀 값을 비교함으로써 각 객체의 상태변화를 검출하고,
상기 각 객체의 위치 변화값, 상기 각 객체의 크기 변화값 및 상기 각 객체에 포함된 픽셀 값의 변화값의 각각이
사전에 설정된 각각의 임계값을 초과하는지 여부에 따라 각 객체에 포함된 픽셀들의 복수 개의 서브픽셀의 공유 여부를 결정하는 것을 특징으로 하는 LED 안내 전광판.In the second paragraph,
The above object status change detection unit
By comparing the position of each object, the size of each object, and the pixel value included in each object in the detection target frame and the comparison frame, the state change of each object is detected,
Each of the change in position of each object, the change in size of each object, and the change in pixel value included in each object
An LED guide signboard characterized in that it determines whether to share multiple subpixels of pixels included in each object based on whether each exceeds a preset threshold value.
상기 각 객체에 포함된 픽셀 값의 변화값은
상기 검출 대상 프레임에서 각 객체의 크기와 상기 비교 프레임에서 각 객체의 크기를 동일하게 정규화한 상태에서,
정규화된 두 프레임의 각 객체에 포함된 픽셀들 중 서로 동일한 좌표를 갖는 픽셀의 픽셀 값 차이를 계산하고,
정규화된 두 프레임의 각 객체에 포함된 모든 픽셀의 픽셀 값 차이를 합산한 값으로 결정하는 것을 특징으로 하는 LED 안내 전광판.In paragraph 5,
The change in pixel values contained in each of the above objects is
In the above detection target frame, the size of each object is normalized to be the same as the size of each object in the above comparison frame,
Calculate the difference in pixel values of pixels with the same coordinates among the pixels contained in each object of the two normalized frames,
An LED guide signboard characterized in that the difference in pixel values of all pixels included in each object of two normalized frames is determined by adding them up.
상기 객체 상태 변화 검출부는
상기 각 객체의 위치 변화값, 상기 각 객체의 크기 변화값 및 상기 각 객체에 포함된 픽셀 값의 변화값의 각각이 사전에 설정된 상기 각각의 임계값을 모두 초과하는 경우, 각 객체의 모션 상태를 동적 상태로 결정하고,
상기 각 객체의 위치 변화값, 상기 각 객체의 크기 변화값 및 상기 각 객체에 포함된 픽셀 값의 변화값 중 적어도 하나의 변화값이 상기 각각의 임계값을 초과하지 않는 경우, 각 객체의 모션 상태를 정적 상태로 결정하는 것을 특징으로 하는 LED 안내 전광판.In paragraph 5,
The above object status change detection unit
If each of the change in position of each object, the change in size of each object, and the change in pixel value included in each object exceeds each of the preset threshold values, the motion state of each object is determined as a dynamic state,
An LED guide signboard characterized in that, if at least one change value among the change value of the position of each object, the change value of the size of each object, and the change value of the pixel value included in each object does not exceed the respective threshold values, the motion state of each object is determined to be a static state.
상기 서브픽셀 공유 설정부는
상기 모션 상태가 상기 동적 상태로 판별된 각 객체는 각 객체에 포함된 픽셀들의 복수 개의 서브픽셀을 인접 픽셀에 공유하는 것으로 결정하고,
상기 모션 상태가 상기 정적 상태로 판별된 각 객체는 각 객체에 포함된 픽셀들의 복수 개의 서브픽셀을 인접 픽셀에 공유하지 않는 것으로 결정하는 것을 특징으로 하는 LED 안내 전광판.In paragraph 7,
The above subpixel sharing setting section
Each object determined to be in the above motion state as the above dynamic state is determined to share multiple subpixels of pixels included in each object with adjacent pixels,
An LED guide signboard characterized in that each object in which the motion state is determined to be the static state is determined not to share multiple subpixels of pixels included in each object with adjacent pixels.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240181754A KR102879095B1 (en) | 2024-12-09 | 2024-12-09 | LED Display Board with Pixel Sharing Technology |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240181754A KR102879095B1 (en) | 2024-12-09 | 2024-12-09 | LED Display Board with Pixel Sharing Technology |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102879095B1 true KR102879095B1 (en) | 2025-11-05 |
Family
ID=97717873
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020240181754A Active KR102879095B1 (en) | 2024-12-09 | 2024-12-09 | LED Display Board with Pixel Sharing Technology |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102879095B1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030085906A1 (en) * | 2001-05-09 | 2003-05-08 | Clairvoyante Laboratories, Inc. | Methods and systems for sub-pixel rendering with adaptive filtering |
| US20160240593A1 (en) * | 2013-11-04 | 2016-08-18 | Shenzhen Yunyinggu Technology Co., Ltd. | Subpixel arrangements of displays and method for rendering the same |
| EP3297279B1 (en) * | 2016-08-29 | 2020-10-21 | Christie Digital Systems USA, Inc. | Device, system and method for content-adaptive resolution-enhancement |
| KR102279177B1 (en) | 2019-07-04 | 2021-07-20 | 경북대학교 산학협력단 | Apparatus and method for subpixel line localization |
| KR20240157542A (en) * | 2023-04-25 | 2024-11-01 | 엑시스 에이비 | Methods, systems and non-transitory computer-readable storage mediums for detecting an object of a first object type in a video sequence |
-
2024
- 2024-12-09 KR KR1020240181754A patent/KR102879095B1/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030085906A1 (en) * | 2001-05-09 | 2003-05-08 | Clairvoyante Laboratories, Inc. | Methods and systems for sub-pixel rendering with adaptive filtering |
| US20160240593A1 (en) * | 2013-11-04 | 2016-08-18 | Shenzhen Yunyinggu Technology Co., Ltd. | Subpixel arrangements of displays and method for rendering the same |
| EP3297279B1 (en) * | 2016-08-29 | 2020-10-21 | Christie Digital Systems USA, Inc. | Device, system and method for content-adaptive resolution-enhancement |
| KR102279177B1 (en) | 2019-07-04 | 2021-07-20 | 경북대학교 산학협력단 | Apparatus and method for subpixel line localization |
| KR20240157542A (en) * | 2023-04-25 | 2024-11-01 | 엑시스 에이비 | Methods, systems and non-transitory computer-readable storage mediums for detecting an object of a first object type in a video sequence |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11606853B2 (en) | Light control method and apparatus based on boundary identification, and storage medium | |
| CN111444919B (en) | A Method for Arbitrarily Shaped Text Detection in Natural Scenes | |
| US12243561B2 (en) | Method and apparatus for generating video with 3D effect, method and apparatus for playing video with 3D effect, and device | |
| US8396296B2 (en) | Brand image detection | |
| US20160379575A1 (en) | Display device and control method therefor | |
| KR20170006969A (en) | Display apparatus and control method thereof | |
| CN109977779B (en) | A method for identifying advertisements inserted in video creatives | |
| Gao et al. | The invisible QR code | |
| CN113516609B (en) | Split-screen video detection method and device, computer equipment and storage medium | |
| CN103092930A (en) | Method of generation of video abstract and device of generation of video abstract | |
| US20250148957A1 (en) | Display device for reducing power consumption, and method for controlling same | |
| US8577141B2 (en) | Method of enhancing contrast using bezier curve | |
| US20200302573A1 (en) | Display method, display device, virtual reality display device, virtual reality device, and storage medium | |
| CN110720224B (en) | Image processing method and device | |
| KR102879095B1 (en) | LED Display Board with Pixel Sharing Technology | |
| CN106407899B (en) | Crowd Density Spectrum Estimation Method Based on Local Texture Features | |
| US10937343B2 (en) | Display device | |
| KR102596308B1 (en) | Electronic apparatus and method for intelligent video conversion | |
| JP2014229314A (en) | Method and device for text detection | |
| KR102874701B1 (en) | High-Contrast Energy-Efficient Electronic Whiteboard | |
| KR102220917B1 (en) | LED Display Board System, Method and Computer-Readable Medium with the Function of Transmitting Disaster Images | |
| KR102838919B1 (en) | LED Display Board with COB Flip-chip and RGBG Pixel Sharing Technology | |
| US20190371363A1 (en) | Television Broadcast System for Generating Augmented Images | |
| CN112215235B (en) | Scene text detection method aiming at large character spacing and local shielding | |
| WO2016112535A1 (en) | Screen power-saving mode display method, device and mobile terminal |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| D22 | Grant of ip right intended |
Free format text: ST27 STATUS EVENT CODE: A-1-2-D10-D22-EXM-PE0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| P14 | Amendment of ip right document requested |
Free format text: ST27 STATUS EVENT CODE: A-5-5-P10-P14-NAP-X000 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| P14-X000 | Amendment of ip right document requested |
St.27 status event code: A-5-5-P10-P14-nap-X000 |