KR102784696B1 - Image processing device and image analyzing method - Google Patents
Image processing device and image analyzing method Download PDFInfo
- Publication number
- KR102784696B1 KR102784696B1 KR1020160168714A KR20160168714A KR102784696B1 KR 102784696 B1 KR102784696 B1 KR 102784696B1 KR 1020160168714 A KR1020160168714 A KR 1020160168714A KR 20160168714 A KR20160168714 A KR 20160168714A KR 102784696 B1 KR102784696 B1 KR 102784696B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- resolution
- subframes
- analysis
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 실시예들은 영상처리장치 및 그의 영상분석방법을 개시한다.
본 발명의 일 실시예에 다른 영상분석방법은 입력되는 일련의 영상프레임들에서 기준 프레임레이트에 대응하도록 영상프레임을 선택하는 단계; 상기 선택된 영상프레임을 복수의 서브프레임들로 분할하는 단계; 상기 서브프레임들 각각의 해상도를 기준 해상도에 대응하도록 스케일링하는 단계; 및 상기 스케일링된 서브프레임들을 시분할 분석하는 단계;를 포함할 수 있다.The present embodiments disclose an image processing device and an image analysis method thereof.
Another image analysis method according to one embodiment of the present invention may include the steps of: selecting an image frame corresponding to a reference frame rate from a series of input image frames; dividing the selected image frame into a plurality of subframes; scaling the resolution of each of the subframes to correspond to the reference resolution; and time-division analyzing the scaled subframes.
Description
본 실시예들은 영상처리장치 및 그의 영상분석방법에 관한 것이다. These embodiments relate to an image processing device and an image analysis method thereof.
카메라에서 제공하는 Motion Detection 이나 Cross, Entering 등의 기능을 제공하는 영상 분석(Video Analytics) 기능은 장치가 제공할 수 있는 VA 기능, 즉, CPU 또는 Codec에 의해 제한되는 경우가 있다. 이러한 영상 분석 기능은 입력 영상의 데이터 크기인 해상도와 프레임레이트(Framerate)에 따라 성능이 크게 좌우되고, 해상도가 크고 영상 분석할 프레임레이트가 높을수록 필요로 하는 CPU와 Memory도 높아진다.Video analytics, which provides functions such as Motion Detection, Cross, and Entering provided by the camera, may be limited by the VA function that the device can provide, i.e., CPU or Codec. The performance of these video analytics functions is greatly affected by the resolution and frame rate, which are the data sizes of the input video, and the larger the resolution and the higher the frame rate for video analysis, the higher the CPU and memory required.
본 실시예들은 장치에 장착되어 있는 제한된 VA 자원(CPU, Memory 등)을 이용하여 고해상도 영상을 분석할 수 있는 방법을 제공한다.These embodiments provide a method for analyzing high-resolution images using limited VA resources (CPU, memory, etc.) equipped in a device.
본 발명의 일 실시예에 따른 영상처리장치의 영상분석방법은, 입력되는 일련의 영상프레임들에서 기준 프레임레이트에 대응하도록 영상프레임을 선택하는 단계; 상기 선택된 영상프레임을 복수의 서브프레임들로 분할하는 단계; 상기 서브프레임들 각각의 해상도를 기준 해상도에 대응하도록 스케일링하는 단계; 및 상기 스케일링된 서브프레임들을 시분할 분석하는 단계;를 포함한다. An image analysis method of an image processing device according to one embodiment of the present invention comprises: a step of selecting an image frame corresponding to a reference frame rate from a series of input image frames; a step of dividing the selected image frame into a plurality of subframes; a step of scaling the resolution of each of the subframes to correspond to the reference resolution; and a step of time-division analyzing the scaled subframes.
일 실시예에서, 가중치가 높은 영역의 서브프레임일수록 상기 기준 해상도와 유사할 수 있다. In one embodiment, subframes in areas with higher weights may be more similar to the reference resolution.
일 실시예에서, 가중치가 높은 영역의 서브프레임일수록 분석 시간이 증가할 수 있다.In one embodiment, subframes in higher weighted regions may require increased analysis time.
일 실시예에서, 상기 시분할 분석 결과에 따라 상기 서브프레임의 분할 비율 및 분석 시간이 결정될 수 있다. In one embodiment, the division ratio and analysis time of the subframe can be determined based on the time division analysis results.
본 발명의 일 실시예에 따른 영상처리장치는, 입력되는 일련의 영상프레임들에서 기준 프레임레이트에 대응하도록 영상프레임을 선택하는 프레임스킵부; 상기 선택된 영상프레임을 복수의 서브프레임들로 분할하고, 상기 서브프레임들 각각의 해상도를 기준 해상도에 대응하도록 스케일링하는 스케일링부; 및 상기 스케일링된 서브프레임들을 시분할 분석하는 분석부;를 포함한다.An image processing device according to one embodiment of the present invention includes a frame skipping unit for selecting an image frame corresponding to a reference frame rate from a series of input image frames; a scaling unit for dividing the selected image frame into a plurality of subframes and scaling the resolution of each of the subframes to correspond to the reference resolution; and an analysis unit for time-divisionally analyzing the scaled subframes.
본 실시예들은 영상 분석 기능을 처리하는 제한된 리소스(CPU, Memory)를 가지고 있는 경우에 입력 영상의 시분할을 통해 고해상도에서 영상 분석 기능을 제공할 수 있다.These embodiments can provide image analysis functions at high resolution through time division of input images in cases where there are limited resources (CPU, memory) for processing image analysis functions.
도 1은 본 발명의 일 실시예에 따른 영상처리장치를 개략적으로 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 영상프로세서의 구성을 개략적으로 도시한 블록도이다.
도 3 내지 도 5는 본 발명의 실시예에 따른 영상 분석을 설명하는 예이다.
도 6은 본 발명의 일 실시예에 따른 영상분석방법을 개략적으로 설명하는 흐름도이다. FIG. 1 is a block diagram schematically illustrating an image processing device according to one embodiment of the present invention.
FIG. 2 is a block diagram schematically illustrating the configuration of an image processor according to one embodiment of the present invention.
Figures 3 to 5 are examples explaining image analysis according to an embodiment of the present invention.
Figure 6 is a flowchart schematically explaining an image analysis method according to one embodiment of the present invention.
이하, 첨부된 도면을 참조하여 바람직한 실시예에 따른 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail according to a preferred embodiment with reference to the attached drawings.
고해상도 카메라는 4K, 12MP 이상의 영상을 입력으로 인코딩하여 출력하는 등, 해상도와 프레임레이트가 크게 높아지고 있다. 하지만, 카메라에 장착되어 있는 영상 분석 엔진에 필요로 하는 CPU 자원과 메모리 자원을 해상도와 프레임레이트에 맞추어 향상시키려면 보다 많은 비용이 발생하게 된다.High-resolution cameras are greatly increasing their resolution and frame rates, such as encoding and outputting images of 4K, 12MP, and higher as input. However, increasing the CPU and memory resources required by the image analysis engine mounted on the camera to match the resolution and frame rate incurs greater costs.
예를 들어, 만약 640x480@10FPS 영상에 대하여 10개의 얼굴 검출(Face Detection)을 할 수 있는 영상 분석 자원을 Ra라고 할 때, 12MP의 해상도인 4000x3000@30FPS 영상에 대하여 얼굴 검출을 하려면, 약 40배의 해상도와 3배의 FPS 처리 능력이 필요하기 때문에 120xRa의 자원이 필요하게 된다. 그리고 그 결과는 1200개의 얼굴 검출 결과를 만들어 낼 수 있다. 그러나 이렇게 많은 리소스를 카메라와 같은 임베디드(Embedded System)에 적용하는 것은 많은 비용을 필요로 하기 때문에 적합하지 않다.For example, if the image analysis resource that can detect 10 faces for a 640x480@10FPS image is Ra, then to detect faces for a 4000x3000@30FPS image with a resolution of 12MP, about 40 times the resolution and 3 times the FPS processing capability are required, so 120xRa resources are required. As a result, 1200 face detection results can be produced. However, applying this many resources to an embedded system such as a camera is not suitable because it requires a lot of cost.
본 발명의 실시예는 카메라에 장착되어 있는 제한된 VA 자원(CPU, Memory)를 이용하여 고해상도 영상을 분석할 수 있다. 예를 들어, VA 엔진이 10FPS 처리능력 밖에 없는 경우에 30FPS가 입력된다면, 2개의 영상프레임을 버리고 3번째 영상프레임을 선택하여 VA 엔진이 처리할 수 있도록 동작한다. 그리고 입력되는 해상도가 높을수록 VA 처리를 위하여 많은 CPU 자원이 필요하기 때문에 스케일 다운(Scaling Down)을 통해 작은 크기의 영상으로 변환한다. 스케일 다운으로 열화되는 영역이 작을수록 정확도는 높아지게 된다. 따라서 입력 영상이 VA 엔진이 처리하는 영상의 크기와 유사할수록 영상 분석 결과 오차율이 줄어들게 된다. The embodiment of the present invention can analyze high-resolution images using limited VA resources (CPU, Memory) equipped in a camera. For example, if a VA engine has only 10FPS processing capability and 30FPS is input, two image frames are discarded and the third image frame is selected so that the VA engine can process it. In addition, since the higher the input resolution, the more CPU resources are required for VA processing, so it is converted into a small-sized image through scaling down. The smaller the area deteriorated by scaling down, the higher the accuracy. Therefore, the more similar the input image is to the size of the image processed by the VA engine, the lower the error rate in the image analysis result.
본 발명의 실시예는 입력 영상을 VA 엔진이 처리 가능한 시분할 즉, 시간 기반으로 크랍(Crop)하여 VA 엔진의 입력으로 적용한다. 줄어든 영상 입력은 스케일 다운되는 비율이 작아지기 때문에 영상 분석 결과 오차율이 줄어드는 효과를 발생시킬 수 있다. An embodiment of the present invention crops an input image into time-based, i.e., time-based, portions that can be processed by the VA engine and applies the cropped image to the VA engine as input. Since the scaled-down ratio of the reduced image input is smaller, the error rate of the image analysis result can be reduced.
그러나 한 영역에서 10FPS 로 처리할 수 있었던 영상 분석 결과물이 1FPS 로 줄어들게 되는 문제가 발생할 수 있다. 이에 본 발명에서는 발생 결과에 대한 가중치를 이용하여 VA 엔진으로 입력되는 영상의 영역을 조정함으로써 영상 분석 시차에 대한 결과 오차를 줄일 수 있도록 한다.However, a problem may occur in which the image analysis results that could be processed at 10 FPS in one area are reduced to 1 FPS. Accordingly, the present invention adjusts the area of the image input to the VA engine using the weight for the occurrence result, thereby reducing the result error due to the image analysis parallax.
도 1은 본 발명의 일 실시예에 따른 영상처리장치를 개략적으로 도시한 블록도이다. FIG. 1 is a block diagram schematically illustrating an image processing device according to one embodiment of the present invention.
도 1을 참조하면, 영상처리장치(1)는 영상센서(10) 및 영상프로세서(30)를 포함할 수 있다. 영상처리장치(1)는 디스플레이(50)를 더 포함할 수 있다. 다른 실시예에서 영상처리장치(1)는 디스플레이(50)와 유선 또는 무선으로 연결될 수 있다. Referring to FIG. 1, the image processing device (1) may include an image sensor (10) and an image processor (30). The image processing device (1) may further include a display (50). In another embodiment, the image processing device (1) may be connected to the display (50) by wire or wirelessly.
영상처리장치(1)는 비쥬얼 카메라, 열상 카메라, 특수 목적 카메라 등을 포함하는 감시용 카메라, 무선 통신 디바이스, PDA(personal digital assistant), 랩탑 컴퓨터, 데스크탑 컴퓨터, 캠코더, 디지털 카메라, CCTV, 액션 카메라, 디지털 기록 장치, 네트워크-인에이블 디지털 텔레비전, 휴대 전화, 셀룰러 폰, 위성 텔레폰, 카메라 폰, 양방향 통신 장치 등과 같은 다양한 장치일 수 있다. 또는, 영상처리장치(1)는 영상센서(10) 및 영상프로세서(30) 중 적어도 하나가 별도로 구현되고, 유선 또는 무선으로 연결되어 데이터를 송수신하는 영상처리시스템일 수 있다. The image processing device (1) may be various devices such as a surveillance camera including a visual camera, a thermal imaging camera, a special-purpose camera, a wireless communication device, a PDA (personal digital assistant), a laptop computer, a desktop computer, a camcorder, a digital camera, a CCTV, an action camera, a digital recording device, a network-enabled digital television, a mobile phone, a cellular phone, a satellite telephone, a camera phone, a two-way communication device, etc. Alternatively, the image processing device (1) may be an image processing system in which at least one of an image sensor (10) and an image processor (30) is implemented separately and is connected by wire or wirelessly to transmit and receive data.
영상센서(10)는 CCD(Charge Coupled Device)나 CMOS(Complementary Metal Oxide Semiconductor) 등의 광전변환소자를 포함할 수 있다. 영상센서(10)는 전방의 장면을 촬영하여 영상 정보를 획득한다. 영상 센서(10) 전단에는 광신호를 수신하는 렌즈(미도시)가 구비될 수 있다. The image sensor (10) may include a photoelectric conversion element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The image sensor (10) captures a scene in front to obtain image information. A lens (not shown) that receives an optical signal may be provided at the front of the image sensor (10).
영상프로세서(30)는 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 영상프로세서(50)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The image processor (30) may be implemented with a variety of hardware and/or software configurations that execute specific functions. For example, the image processor (50) may mean a hardware-embedded data processing device having a physically structured circuit to execute a function expressed by a code or command included in a program. As an example of such a hardware-embedded data processing device, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), and the like may be included, but the scope of the present invention is not limited thereto.
영상프로세서(30)는 영상프레임의 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 신호 처리를 수행할 수 있다. 또한, 영상프로세서(30)는 화질 개선을 위한 신호 처리를 하여 생성한 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 상기 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식을 포함한다. 또한, 영상프로세서(30)에서는 기능적으로 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 행할 수 있다. 영상프로세서(50)는 영상 처리된 영상프레임을 메모리 및/또는 디스플레이로 출력할 수 있다. The image processor (30) can reduce noise in an image frame and perform signal processing for improving image quality, such as gamma correction, color filter array interpolation, color matrix, color correction, and color enhancement. In addition, the image processor (30) can compress image data generated by performing signal processing for improving image quality to generate an image file, or can restore image data from the image file. The compression format of the image includes a reversible format or an irreversible format. In addition, the image processor (30) can also functionally perform color processing, blur processing, edge emphasis processing, image interpretation processing, image recognition processing, and image effect processing. The image processor (50) can output an image frame that has undergone image processing to a memory and/or a display.
영상프로세서(30)는 영상프레임을 분석한 메타데이터를 생성할 수 있다. 영상프로세서(30)는 영상센서(10)의 프레임레이트에 따라 입력되는 일련의 프레임들을 복수의 서브프레임들로 분할하고, 서브프레임들을 시분할 분석할 수 있다. 영상프로세서(30)는 영상프레임에 영역별 가중치를 설정하여 대응하는 서브프레임의 중요도를 결정함으로써 서브프레임의 해상도 및 분석시간을 가변할 수 있다. The image processor (30) can generate metadata that analyzes the image frame. The image processor (30) can divide a series of frames input according to the frame rate of the image sensor (10) into a plurality of subframes and analyze the subframes in a time-division manner. The image processor (30) can change the resolution and analysis time of the subframe by setting weights for each region of the image frame and determining the importance of the corresponding subframe.
도시되지 않았으나, 영상처리장치(1)는 저장수단 및 통신부를 더 포함할 수 있다. Although not shown, the image processing device (1) may further include a storage means and a communication unit.
저장수단은 영상프로세서(30)가 처리하는 데이터, 명령어(instructions), 프로그램, 프로그램 코드, 또는 이들의 결합 등을 일시적 또는 영구적으로 저장하는 기능을 수행한다. 저장수단은 영상프로세서(30)로부터 출력되는 영상프레임 및 메타데이터를 저장할 수 있다. 저장수단은 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체, 인터넷 상에서 저장 기능을 수행하는 웹 스토리지(web storage)일 수 있다. The storage means performs a function of temporarily or permanently storing data, instructions, programs, program codes, or a combination thereof processed by the image processor (30). The storage means can store image frames and metadata output from the image processor (30). The storage means may be a storage medium of at least one type among a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, an SD or XD memory, etc.), a RAM, a ROM, and web storage that performs a storage function on the Internet.
통신부는 외부 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The communication unit may be a device including hardware and software necessary to transmit and receive signals, such as control signals or data signals, through wired or wireless connections with external devices, but the scope of the present invention is not limited thereto.
디스플레이(50)는 영상프로세서(30)로부터 출력되는 일련의 영상프레임들인 결과 영상(예를 들어, 비디오 시퀀스)을 사용자에게 제공함으로써, 사용자가 표시되는 영상을 모니터링할 수 있도록 한다. 디스플레이(50)는 시각적인 정보 및/또는 청각적인 정보를 사용자에게 제공할 수 있다. The display (50) provides the user with a result image (e.g., a video sequence) that is a series of image frames output from the image processor (30), thereby allowing the user to monitor the displayed image. The display (50) can provide the user with visual information and/or auditory information.
도 2는 본 발명의 일 실시예에 따른 영상프로세서의 구성을 개략적으로 도시한 블록도이다. FIG. 2 is a block diagram schematically illustrating the configuration of an image processor according to one embodiment of the present invention.
도 2를 참조하면, 영상프로세서(30)는 제1 영상처리부(20) 및 제2 영상처리부(40)를 포함할 수 있다. Referring to FIG. 2, the image processor (30) may include a first image processing unit (20) and a second image processing unit (40).
제1 영상처리부(20)는 입력되는 영상프레임을 분석하여 설정된 이벤트 발생 조건에 만족하는 경우 이벤트를 발생시킬 수 있다. 이벤트는 객체의 출현, 사용자가 특정한 영상(예를 들어, 얼굴 인식이 불가능한 얼굴 등장) 발생, 설정된 영역에서 움직임 발생한 경우, 음원의 경우에 비정상적인 음원(예를 들어, 자동차 타이어 마찰음(스키드), 유리 깨지는 소리, 경보음, 충돌음 등) 발생, 사용자가 특정한 음원(예를 들어, 고함, 비명, 울음소리 등) 발생, 임계값 이상의 음성이 발생한 경우 등과 같이 사용자에 의해 설정된 이벤트를 포함할 수 있으며, 이에 한정되지 않는다. 제1 영상처리부(20)는 이벤트 정보를 포함하는 메타데이터를 생성할 수 있다. The first image processing unit (20) can analyze the input image frame and generate an event if the event occurrence condition set is satisfied. The event can include events set by the user, such as the appearance of an object, occurrence of a specific image (e.g., appearance of a face that cannot be recognized), occurrence of movement in a set area, occurrence of an abnormal sound source (e.g., car tire friction sound (skid), glass breaking sound, alarm sound, collision sound, etc.) in the case of a sound source, occurrence of a specific sound source (e.g., shouting, screaming, crying, etc.) by the user, occurrence of a sound exceeding a threshold value, etc., but is not limited thereto. The first image processing unit (20) can generate metadata including event information.
제1 영상처리부(20)는 프레임 스킵부(201), 제1 스케일링부(203) 및 분석부(205)를 포함할 수 있다. The first image processing unit (20) may include a frame skip unit (201), a first scaling unit (203), and an analysis unit (205).
프레임 스킵부(201)는 입력되는 일련의 영상프레임들의 일부를 스킵함으로써 입력 프레임레이트를 기준 프레임레이트로 변환할 수 있다. 입력 프레임레이트는 영상센서(10)가 출력하는 프레임레이트일 수 있다. 기준 프레임레이트는 분석부(205)의 영상분석 능력에 의해 결정될 수 있다. 프레임 스킵부(201)는 입력 프레임레이트가 기준 프레임레이트보다 높으면 소정 간격으로 영상프레임들을 스킵함으로써 입력 프레임레이트를 기준 프레임레이트로 낮출 수 있다. 프레임 스킵부(201)는 스킵되지 않은 영상프레임들을 선택하여 출력할 수 있다. The frame skip unit (201) can convert the input frame rate to a reference frame rate by skipping a portion of a series of input image frames. The input frame rate may be a frame rate output by the image sensor (10). The reference frame rate may be determined by the image analysis capability of the analysis unit (205). The frame skip unit (201) can lower the input frame rate to the reference frame rate by skipping image frames at a predetermined interval if the input frame rate is higher than the reference frame rate. The frame skip unit (201) can select and output image frames that have not been skipped.
제1 스케일링부(203)는 프레임 스킵부(201)로부터 출력되는 영상프레임을 복수의 서브프레임들로 분할하고, 각 서브프레임을 스케일링할 수 있다. 해상도(크기)가 높을수록 분석을 위한 많은 자원이 필요하므로, 제1 스케일링부(203)는 해상도가 높은 영상프레임을 해상도가 낮은 복수의 서브프레임들로 분할한다. The first scaling unit (203) can divide the image frame output from the frame skip unit (201) into a plurality of subframes and scale each subframe. Since the higher the resolution (size), the more resources are required for analysis, the first scaling unit (203) divides the image frame with a high resolution into a plurality of subframes with a low resolution.
제1 스케일링부(203)는 영상프레임을 크랍(crop)하여 소정 개수의 서브프레임들을 생성할 수 있다. 제1 스케일링부(203)는 분석부(205)가 처리 가능한 시간 기반으로 영상프레임을 크랍할 수 있다. 예를 들어, 제1 스케일링부(203)는 분석부(205)가 정해진 시간 내에 처리할 수 있는 프레임의 수를 최대값으로 하고, 최대값 이하의 개수의 서브프레임들을 생성할 수 있다. 서브프레임들 각각은 동일 또는 상이한 해상도를 가질 수 있다. 서브프레임의 해상도는 영상프레임에서 서브프레임으로 크랍된 영역에 설정된 가중치에 대응하는 중요도에 따라 결정될 수 있다. 가중치가 높은 영역의 서브프레임일수록 중요도가 높아지므로 해상도는 후술하는 스케일 다운 비율이 적어지도록 결정될 수 있다. The first scaling unit (203) can crop the image frame to generate a predetermined number of subframes. The first scaling unit (203) can crop the image frame based on a time that the analysis unit (205) can process. For example, the first scaling unit (203) can set the number of frames that the analysis unit (205) can process within a predetermined time as a maximum value and generate subframes having a number less than or equal to the maximum value. Each of the subframes can have the same or different resolution. The resolution of the subframe can be determined according to the importance corresponding to the weight set in the region cropped from the image frame to the subframe. The importance increases as the weight of the subframe in the region increases, so the resolution can be determined so that the scale down ratio described later is reduced.
제1 스케일링부(203)는 서브프레임들 각각을 소정의 해상도로 스케일 다운(scale down) 처리할 수 있다. 제1 스케일링부(203)는 분석부(205)의 영상 분석에 최적인 기준 해상도로 서브프레임을 스케일링할 수 있다. 제1 스케일링부(203)는 스케일 다운된 서브프레임들을 분석부(205)로 차례로 출력할 수 있다. The first scaling unit (203) can scale down each of the subframes to a predetermined resolution. The first scaling unit (203) can scale the subframes to a reference resolution that is optimal for image analysis by the analysis unit (205). The first scaling unit (203) can sequentially output the scaled down subframes to the analysis unit (205).
분석부(205)는 입력되는 서브프레임들을 정해진 시간 내에 시분할 분석하고, 분석 결과를 출력할 수 있다. 분석부(205)는 서브프레임들 각각에 할당된 분석 시간 및 분석 순서에 따라 서브프레임들을 시분할 분석할 수 있다. 서브프레임들에 할당된 분석 시간은 서브프레임이 대응하는 영역의 가중치에 따라 결정될 수 있다. 가중치가 높은 영역의 서브프레임일수록 중요도가 높아지므로 분석 시간이 증가하여 정해진 시간 내에서 분석 횟수가 증가할 수 있다. 분석 결과는 메타데이터로 출력될 수 있다. 가중치는 이벤트 발생 빈도 또는 사용자 지정에 의해 결정될 수 있다. 예를 들어, 이벤트 발생 빈도가 높은 영역일수록 가중치가 높게 설정될 수 있다. The analysis unit (205) can time-division analyze the input subframes within a given time period and output the analysis results. The analysis unit (205) can time-division analyze the subframes according to the analysis time and analysis order allocated to each of the subframes. The analysis time allocated to the subframes can be determined according to the weight of the area to which the subframe corresponds. The importance of a subframe in an area with a higher weight increases, so the analysis time increases and the number of analyses can increase within a given time period. The analysis results can be output as metadata. The weight can be determined by the event occurrence frequency or user specification. For example, the weight can be set higher in an area with a higher event occurrence frequency.
사용자는 분석부(205)의 분석결과에 의한 영상프레임의 이벤트 분포를 기초로 영상프레임의 분할 비율(즉, 서브프레임의 해상도) 및/또는 서브프레임별 분석 시간을 변경할 수 있다. The user can change the video frame division ratio (i.e., the resolution of the subframe) and/or the analysis time per subframe based on the event distribution of the video frame according to the analysis result of the analysis unit (205).
스케일 다운에 의해 열화되는 영역이 적을수록 영상 분석의 정확도가 높아지므로, 서브프레임의 해상도가 기준 해상도와 유사할수록 스케일 다운되는 비율이 낮아져 영상 분석 오차율이 줄어든다. 따라서 영상프레임에서 가중치가 높은 영역은 기준 해상도와 유사한 해상도로 크랍되고, 및/또는 분석 시간이 증가할 수 있다. The smaller the area degraded by scale down, the higher the accuracy of image analysis, so the closer the resolution of the subframe is to the reference resolution, the lower the scale down rate, which reduces the error rate of image analysis. Therefore, areas with high weights in the image frame may be cropped to a resolution similar to the reference resolution, and/or the analysis time may increase.
제2 영상처리부(40)는 입력 영상프레임을 인코딩하여 데이터 스트림을 생성할 수 있다. The second image processing unit (40) can encode an input image frame to generate a data stream.
제2 영상처리부(40)는 제2 스케일링부(401), 인코더(403) 및 스트림 생성부(405)를 포함할 수 있다. The second image processing unit (40) may include a second scaling unit (401), an encoder (403), and a stream generation unit (405).
제2 스케일링부(401)는 리사이저(resizer)를 이용하여 입력되는 영상프레임을 원하는 해상도(크기)로 스케일 다운(scale down) 처리할 수 있다. 제2 스케일링부(401)의 스케일 다운 비율은 제1 스케일링부(401)의 스케일 다운 비율과 동일 또는 상이할 수 있다. The second scaling unit (401) can scale down the input image frame to a desired resolution (size) using a resizer. The scale down ratio of the second scaling unit (401) can be the same as or different from the scale down ratio of the first scaling unit (401).
인코더(403)는 스케일 다운된 영상프레임을 압축하여 압축 영상을 생성할 수 있다. 압축 정도는 스케일 다운 비에 비례할 수 있다. 압축 방식은 JPEG, MJPEG, H.264, H.265 등 다양한 압축 방식이 적용될 수 있다. The encoder (403) can compress scaled down image frames to generate compressed images. The degree of compression can be proportional to the scale down ratio. Various compression methods such as JPEG, MJPEG, H.264, and H.265 can be applied.
스트림 생성부(405)는 압축 영상의 데이터스트림(DS)을 생성할 수 있다. The stream generation unit (405) can generate a data stream (DS) of a compressed image.
영상처리장치(1)는 분석부(205)에서 출력되는 메타데이터 및 스트림 생성부(405)에서 출력되는 데이터스트림을 포함하는 패킷을 생성하여 출력할 수 있다. The image processing device (1) can generate and output a packet including metadata output from the analysis unit (205) and a data stream output from the stream generation unit (405).
도 3 내지 도 5는 본 발명의 실시예에 따른 영상 분석을 설명하는 예이다. Figures 3 to 5 are examples explaining image analysis according to an embodiment of the present invention.
이하에서는, 640x480의 해상도를 갖는 영상프레임이 10FPS로 입력될 때 영상프레임에서 10개의 얼굴 검출을 수행할 수 있는 영상프로세서(30)로 4000x3000의 해상도를 갖는 영상프레임이 30FPS로 입력되는 경우를 예로서 설명한다. Below, an example is described in which a video frame having a resolution of 4000x3000 is input at 30FPS to an image processor (30) capable of performing 10 face detections in a video frame when a video frame having a resolution of 640x480 is input at 10FPS.
도 3을 참조하면, 프레임 스킵부(201)는 영상프로세서(30)의 분석 프레임레이트에 대응하도록 3개의 영상프레임에서 2개의 영상프레임을 버리고 1개의 영상프레임을 선택할 수 있다. Referring to FIG. 3, the frame skipping unit (201) can discard two video frames from three video frames and select one video frame to correspond to the analysis frame rate of the video processor (30).
제1 스케일링부(203)는 선택된 영상프레임을 3x3으로 나누어 9개의 서브프레임들을 생성할 수 있다. 서브프레임들은 1340x1000의 해상도를 갖는 6개의 서브프레임들과 1320x1000의 해상도를 갖는 3개의 서브프레임들을 포함할 수 있다. 제1 스케일링부(203)는 서브프레임들을 640x480의 해상도로 스케일 다운하여 화소수를 약 1/5 이하로 줄일 수 있다. 제1 스케일링부(203)는 스케일 다운된 9개의 서브프레임들을 Scene1, Scene2, ..., Scene9로 구분하여 차례로 분석부(205)로 출력할 수 있다. The first scaling unit (203) can divide the selected image frame into 3x3 to generate 9 subframes. The subframes can include 6 subframes having a resolution of 1340x1000 and 3 subframes having a resolution of 1320x1000. The first scaling unit (203) can scale down the subframes to a resolution of 640x480 to reduce the number of pixels to about 1/5 or less. The first scaling unit (203) can divide the 9 scaled-down subframes into Scene1, Scene2, ..., Scene9 and output them to the analysis unit (205) in sequence.
분석부(205)는 영상프로세서(30)의 분석 프레임레이트를 기초로 정해진 시간을 서브프레임의 개수에 따라 시간 분할하여 서브프레임을 분석함으로써 얼굴 검출을 수행할 수 있다. 예를 들어, 분석부(205)는 9개의 서브프레임에 대응하여 시간 t를 t1 내지 t9로 분할하고, 각 시간 구간 동안 해당 서브프레임을 분석함으로써 얼굴 검출을 수행할 수 있다. 여기서, t1 내지 t9는 각각 1/9초일 수 있다. 즉, 분석부(205)는 초당 90개의 얼굴 검출 결과를 메타데이터(MD)로서 출력할 수 있다. The analysis unit (205) can perform face detection by dividing a set time based on the analysis frame rate of the image processor (30) into time periods according to the number of subframes and analyzing the subframes. For example, the analysis unit (205) can perform face detection by dividing time t into t1 to t9 corresponding to nine subframes and analyzing the corresponding subframes during each time interval. Here, t1 to t9 can each be 1/9 second. That is, the analysis unit (205) can output 90 face detection results per second as metadata (MD).
디스플레이(50)는 영상프로세서(30)로부터 출력되는 데이터스트림을 디코딩하여 복원한 영상프레임이 표시되고, 영상프레임에는 9개의 서브프레임들에 대응하는 각 영역에 메타데이터에 포함된 얼굴 검출 정보가 표시될 수 있다. The display (50) decodes the data stream output from the image processor (30) and displays a restored image frame, and the image frame can display face detection information included in the metadata in each area corresponding to nine subframes.
도 4를 참조하면, 영상프레임의 A영역에서 얼굴 검출이 많고, B영역에서 얼굴 검출이 적은 경우, 사용자는 B영역보다 A영역의 얼굴 검출 정확도를 높이도록 영상프레임의 분할 비율을 변경할 수 있다. 이에 따라, 제1 스케일링부(203)는 영상프레임의 A영역을 1000x1000의 해상도를 갖는 3개의 영역으로 크랍하여 3개의 서브프레임들(Scene2, Scene3, Scene7)을 생성하고, B영역을 3000x3000의 해상도를 갖는 1개의 영역으로 크랍하여 1개의 서브프레임(Scene1)을 생성하고, 나머지 영역을 1000x1000의 해상도를 갖는 3개의 영역으로 크랍하여 3개의 서브프레임들(Scene4, Scene5, Scene6)을 생성할 수 있다. Referring to FIG. 4, when there are many face detections in area A of a video frame and few face detections in area B, the user can change the split ratio of the video frame to increase the face detection accuracy in area A more than area B. Accordingly, the first scaling unit (203) can crop area A of the video frame into three areas with a resolution of 1000x1000 to generate three subframes (Scene2, Scene3, Scene7), crop area B into one area with a resolution of 3000x3000 to generate one subframe (Scene1), and crop the remaining areas into three areas with a resolution of 1000x1000 to generate three subframes (Scene4, Scene5, Scene6).
또한, 사용자는 A영역의 분석 시간을 나머지 영역의 분석 시간보다 높게 설정할 수 있다. 이에 따라, A영역에 대응하는 3개의 서브프레임들(Scene2, Scene3, Scene7)은 나머지 서브프레임들의 분석 시간의 2배가 할당되어, 분석부(205)는 Scene1, Scene4, Scene5, Scene6의 서브프레임들은 각각 t1, t4, t5, t6 동안(각각 1/9초) 얼굴 검출을 수행하고, Scene2의 서브프레임은 t2 및 t8 동안(총 2/9초) 얼굴 검출을 수행하고, Scene3의 서브프레임은 t3 및 t9 동안(총 2/9초) 얼굴 검출을 수행하고, Scene7의 서브프레임은 t7 및 t10 동안(총 2/9초) 얼굴 검출을 수행할 수 있다. In addition, the user can set the analysis time of area A to be higher than the analysis time of the remaining areas. Accordingly, the three subframes (Scene2, Scene3, and Scene7) corresponding to area A are allocated twice the analysis time of the remaining subframes, so that the analysis unit (205) can perform face detection for the subframes of Scene1, Scene4, Scene5, and Scene6 during t1, t4, t5, and t6 (each 1/9 second), perform face detection for the subframe of Scene2 during t2 and t8 (total 2/9 seconds), perform face detection for the subframe of Scene3 during t3 and t9 (total 2/9 seconds), and perform face detection for the subframe of Scene7 during t7 and t10 (total 2/9 seconds).
즉, 이전 영상프레임에서는 9개의 서브프레임들로 분할되어 동일한 시간 간격으로 얼굴 검출이 수행되었다가, 현재 영상프레임에서는 7개의 서브프레임들로 분할되어 일부 서브프레임들은 2회의 얼굴 검출에 의해 2배 증가한 시간 동안 얼굴 검출이 수행될 수 있다. That is, in the previous video frame, it was divided into 9 subframes and face detection was performed at equal time intervals, but in the current video frame, it is divided into 7 subframes and face detection can be performed for twice the time in some subframes due to two face detections.
도 5를 참조하면, 영상프레임의 C영역과 E영역에서는 얼굴 검출이 없고, D영역에서는 얼굴 검출이 많다. 사용자는 D영역의 가중치를 0.8로 설정하고 C영역과 E영역에는 각각 가중치를 0.1로 설정할 수 있다. 이에 따라 C영역과 E영역은 각각 1FPS로 얼굴 검출이 수행되도록 분할되고, D영역은 8FPS로 얼굴 검출이 수행되도록 분할될 수 있다. Referring to Fig. 5, there is no face detection in areas C and E of the video frame, and there are many face detections in area D. The user can set the weight of area D to 0.8, and set the weights of areas C and E to 0.1, respectively. Accordingly, areas C and E can be divided so that face detection is performed at 1 FPS, and area D can be divided so that face detection is performed at 8 FPS.
본 발명의 영상 분석 방법은 얼굴 검출뿐만 아니라 ANPR(automatic number-plate recognition), People Counting, Queue Length Counting, Loitering 등의 다양한 영상 분석 기능에 적용 가능하다.The image analysis method of the present invention can be applied to various image analysis functions such as face detection, automatic number-plate recognition (ANPR), People Counting, Queue Length Counting, and Loitering.
도 6은 본 발명의 일 실시예에 따른 영상분석방법을 개략적으로 설명하는 흐름도이다. 도 6에 도시된 영상분석방법은 도 1에 도시된 영상처리장치에 의해 수행될 수 있으며, 전술된 내용과 중복하는 내용의 상세한 설명은 생략한다.Fig. 6 is a flow chart schematically explaining an image analysis method according to one embodiment of the present invention. The image analysis method illustrated in Fig. 6 can be performed by the image processing device illustrated in Fig. 1, and detailed descriptions of contents overlapping with those described above are omitted.
도 6을 참조하면, 영상처리장치(1)는 영상센서(10)로부터 입력되는 일련의 영상프레임들을 압축하여 데이터스트림으로 생성함과 동시에 영상프레임의 분석을 통해 메타데이터를 생성할 수 있다. Referring to FIG. 6, the image processing device (1) can compress a series of image frames input from an image sensor (10) to create a data stream and simultaneously create metadata through analysis of the image frames.
메타데이터 생을 위해, 영상처리장치(1)는 입력되는 일련의 영상프레임들의 일부를 스킵함으로써 입력 프레임레이트를 기준 프레임레이트로 변환할 수 있다(S61). 입력 프레임레이트가 분석 엔진이 처리할 수 있는 기준 프레임레이트보다 크면 많은 분석 자원을 필요로 하므로, 기준 프레임레이트에 따라 영상프레임을 스킵하여 분석되는 영상프레임의 개수를 줄일 수 있다. 스킵될 영상프레임의 개수는 기준 프레임레이트에 의해 결정될 수 있다. For metadata generation, the image processing device (1) can convert the input frame rate into a reference frame rate by skipping a portion of a series of input image frames (S61). If the input frame rate is greater than the reference frame rate that the analysis engine can process, a lot of analysis resources are required, so the number of image frames to be analyzed can be reduced by skipping the image frames according to the reference frame rate. The number of image frames to be skipped can be determined by the reference frame rate.
영상처리장치(1)는 스킵되지 않은 영상프레임을 복수의 서브프레임들로 분할하고, 각 서브프레임을 스케일링할 수 있다(S63). 스케일링은, 서브프레임의 해상도가 분석 엔진이 처리할 수 있는 기준 해상도보다 크면 많은 분석 자원이 필요하므로, 서브프레임의 해상도를 기준 해상도로 스케일 다운하는 동작이다. 스케일 다운의 비율이 낮을수록 영상의 열화율이 낮아지므로, 가중치가 높은 영역에 대응하는 서브프레임일수록 해상도는 기준 해상도와 유사할 수 있다. The image processing device (1) can divide a non-skipped image frame into a plurality of subframes and scale each subframe (S63). Scaling is an operation of scaling down the resolution of the subframe to the reference resolution, since a large amount of analysis resources are required when the resolution of the subframe is greater than the reference resolution that the analysis engine can process. The lower the scale down ratio, the lower the image deterioration rate, so the resolution of the subframe corresponding to the area with a high weight can be similar to the reference resolution.
영상처리장치(1)는 스케일링된 서브프레임들을 차례로 분석할 수 있다(S65). 영상처리장치(1)는 서브프레임들 각각에 할당된 분석 시간 및 분석 순서에 따라 서브프레임들을 분석할 수 있다. 따라서 영상프레임은 영역별로 분석 시간 및 분석 정확도가 상이하다. 사용자는 현재 영상프레임의 분석 결과 또는 영상프레임의 분석 결과의 누적 정보를 기초로 다음 영상프레임의 분할 비율(즉, 서브프레임의 해상도) 및 분할에 의해 생성된 각 서브프레임의 분석 시간을 조절할 수 있다. The image processing device (1) can analyze the scaled subframes in sequence (S65). The image processing device (1) can analyze the subframes according to the analysis time and analysis order allocated to each of the subframes. Therefore, the image frames have different analysis times and analysis accuracy for each region. The user can adjust the division ratio of the next image frame (i.e., the resolution of the subframe) and the analysis time of each subframe generated by the division based on the analysis result of the current image frame or the accumulated information of the analysis result of the image frame.
본 발명의 실시예들은 발생되는 이벤트 결과의 분포를 이용하여 특정 영역의 정확도를 향상(즉, 스케일 다운 비율을 감소)시키거나, 혹은 시간 배분을 증가 또는 감소시킴으로써 이벤트에 대한 정확도를 향상시킬 수 있다.Embodiments of the present invention can improve the accuracy of a specific area (i.e., reduce the scale down ratio) by utilizing the distribution of the event results that occur, or improve the accuracy for an event by increasing or decreasing the time distribution.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, these are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be determined by the technical idea of the appended claims.
Claims (5)
상기 선택된 영상프레임을 해상도를 갖는 복수의 서브프레임들로 분할하는 단계;
상기 서브프레임들 각각의 해상도를 기준 해상도로 스케일 다운하는 단계; 및
상기 기준 해상도로 스케일 다운된 서브프레임들을 시분할 분석하는 단계;를 포함하고,
중요도가 높은 서브프레임일수록 스케일 다운 비율이 적어지도록, 상기 선택된 영상프레임을 복수의 서브프레임들로 분할하는 단계에서 상기 서브프레임들 각각의 해상도가 결정되는, 영상처리장치의 영상분석방법.A step of selecting a video frame from a series of input video frames so as to correspond to a reference frame rate;
A step of dividing the selected image frame into a plurality of subframes having a resolution;
A step of scaling down the resolution of each of the above subframes to a reference resolution; and
A step of time-division analyzing subframes scaled down to the above reference resolution;
An image analysis method of an image processing device, wherein the resolution of each subframe is determined in a step of dividing the selected image frame into a plurality of subframes so that the scale down ratio of a subframe with a higher importance is lower.
가중치가 높은 영역의 서브프레임일수록 상기 기준 해상도와 유사한 해상도를 갖는, 영상처리장치의 영상분석방법.In the first paragraph,
An image analysis method of an image processing device, wherein a subframe in an area with a high weight has a resolution similar to the reference resolution.
가중치가 높은 영역의 서브프레임일수록 분석 시간이 증가하는, 영상처리장치의 영상분석방법.In the first paragraph,
An image analysis method of an image processing device, in which the analysis time increases as the subframe of the area with a high weight increases.
상기 시분할 분석 결과에 따라 상기 서브프레임의 분할 비율 및 분석 시간이 결정되는, 영상처리장치의 영상분석방법.In the first paragraph,
An image analysis method of an image processing device, wherein the division ratio and analysis time of the subframe are determined based on the results of the above time division analysis.
상기 선택된 영상프레임을 해상도를 갖는 복수의 서브프레임들로 분할하고, 상기 서브프레임들 각각의 해상도를 기준 해상도로 스케일 다운하는 스케일링부; 및
상기 기준 해상도로 스케일 다운된 서브프레임들을 시분할 분석하는 분석부;를 포함하고,
중요도가 높은 서브프레임일수록 스케일 다운 비율이 적어지도록, 상기 선택된 영상프레임을 복수의 서브프레임들로 분할하는 단계에서 상기 서브프레임들 각각의 해상도가 결정되는, 영상처리장치.A frame skipping unit that selects a video frame from a series of input video frames so as to correspond to a reference frame rate;
A scaling unit that divides the selected image frame into a plurality of subframes having a resolution and scales down the resolution of each of the subframes to a reference resolution; and
An analysis unit for time-divisionally analyzing subframes scaled down to the above reference resolution is included;
An image processing device, wherein the resolution of each subframe is determined in a step of dividing the selected image frame into a plurality of subframes so that the scale down ratio of a subframe with a higher importance is lower.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160168714A KR102784696B1 (en) | 2016-12-12 | 2016-12-12 | Image processing device and image analyzing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160168714A KR102784696B1 (en) | 2016-12-12 | 2016-12-12 | Image processing device and image analyzing method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180067223A KR20180067223A (en) | 2018-06-20 |
KR102784696B1 true KR102784696B1 (en) | 2025-03-21 |
Family
ID=62769629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160168714A Active KR102784696B1 (en) | 2016-12-12 | 2016-12-12 | Image processing device and image analyzing method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102784696B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011223598A (en) | 2011-05-30 | 2011-11-04 | Toshiba Corp | Image quality adjustment device and image quality adjustment method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120131450A (en) * | 2011-05-25 | 2012-12-05 | 에스엘 주식회사 | Image processing system |
KR20150029265A (en) * | 2013-09-10 | 2015-03-18 | 주식회사 시티캣 | Mass in the input image processing methods for the detection of multiple targets |
KR20160131673A (en) * | 2015-05-08 | 2016-11-16 | 삼성전자주식회사 | Display apparatus consisting a multi display system and control method thereof |
-
2016
- 2016-12-12 KR KR1020160168714A patent/KR102784696B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011223598A (en) | 2011-05-30 | 2011-11-04 | Toshiba Corp | Image quality adjustment device and image quality adjustment method |
Also Published As
Publication number | Publication date |
---|---|
KR20180067223A (en) | 2018-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10096082B2 (en) | Upscaling and downscaling in a camera architecture | |
US11558549B2 (en) | Methods and devices for capturing high-speed and high-definition videos | |
WO2022111198A1 (en) | Video processing method and apparatus, terminal device and storage medium | |
US20110064129A1 (en) | Video capture and generation at variable frame rates | |
EP4195166A1 (en) | Apparatus and method for transmitting images and apparatus and method for receiving images | |
US8699750B2 (en) | Image processing apparatus | |
JP4561649B2 (en) | Image compression apparatus, image compression program and image compression method, HDR image generation apparatus, HDR image generation program and HDR image generation method, image processing system, image processing program and image processing method | |
US20130156343A1 (en) | System for communicating relationship data associated with image characteristics | |
US20250119511A1 (en) | Apparatus and method for transmitting images and apparatus and method for receiving images | |
WO2018037665A1 (en) | Information-processing device, information-processing system, control method, and program | |
KR102784696B1 (en) | Image processing device and image analyzing method | |
JP2009100259A (en) | Monitoring camera and image monitoring system | |
JP7017223B2 (en) | Video compression method | |
JP2015080048A (en) | Camera device, monitoring system, program used for them, and imaging method | |
KR102201241B1 (en) | Apaptive Object Recognizing Apparatus and Method for Processing Data Real Time In Multi Channel Video | |
JP4759740B2 (en) | Image processing apparatus and image processing method | |
WO2023149188A1 (en) | Signal processing device, method, and program | |
CN115314731A (en) | Video processing system, method, computer device and storage medium | |
KR20140148249A (en) | Method of transmitting moving image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20161212 |
|
PG1501 | Laying open of application | ||
PN2301 | Change of applicant |
Patent event date: 20180927 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20210907 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20161212 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240329 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20241024 Comment text: Decision to Refuse Application Patent event code: PE06012S01D |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09012R01I Patent event date: 20250121 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20250217 Comment text: Decision to Grant Registration Patent event code: PX07013S01D |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250317 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20250318 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |