[go: up one dir, main page]

KR101793790B1 - Apparatus and method for detecting entity in pen - Google Patents

Apparatus and method for detecting entity in pen Download PDF

Info

Publication number
KR101793790B1
KR101793790B1 KR1020150180702A KR20150180702A KR101793790B1 KR 101793790 B1 KR101793790 B1 KR 101793790B1 KR 1020150180702 A KR1020150180702 A KR 1020150180702A KR 20150180702 A KR20150180702 A KR 20150180702A KR 101793790 B1 KR101793790 B1 KR 101793790B1
Authority
KR
South Korea
Prior art keywords
depth
threshold value
entities
area
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020150180702A
Other languages
Korean (ko)
Other versions
KR20170072491A (en
Inventor
박대희
정용화
이종욱
최장민
노병준
Original Assignee
고려대학교 세종산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 세종산학협력단 filed Critical 고려대학교 세종산학협력단
Priority to KR1020150180702A priority Critical patent/KR101793790B1/en
Publication of KR20170072491A publication Critical patent/KR20170072491A/en
Application granted granted Critical
Publication of KR101793790B1 publication Critical patent/KR101793790B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K1/00Housing animals; Equipment therefor
    • A01K1/02Pigsties; Dog-kennels; Rabbit-hutches or the like
    • A01K1/035Devices for use in keeping domestic animals, e.g. fittings in housings or dog beds
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • H04N13/02
    • H04N13/0271

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Zoology (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)

Abstract

축사 내 개체 탐지 시, 깊이 카메라를 통해 촬영된 축사 내부 영상을 깊이 정보에 기초하여 복수의 개체를 검출하고 이진화 영상을 생성하고, 복수의 개체 별 면적 값에 기초하여 둘 이상의 개체가 하나로 인식되는 개체 겹침 영역을 검출하고, 기설정된 깊이 임계값을 변경 적용하여 겹침 개체를 분리하고, 분리한 개체들을 포함하는 복수의 개체들에 대해 색인화 처리를 통해 트래킹 처리한다.A method for detecting an object in a housing, the method comprising: detecting a plurality of objects based on depth information on a house internal image imaged through a depth camera; generating a binarized image; The overlapping region is detected, the predetermined depth threshold value is changed to separate the overlapping entity, and the plurality of entities including the separated entities are tracked through the indexing process.

Description

축사 개체 탐지 장치 및 방법{APPARATUS AND METHOD FOR DETECTING ENTITY IN PEN }[0001] APPARATUS AND METHOD FOR DETECTING ENTITY IN PEN [0002]

본 발명은 축사 내의 개체를 탐지하는 장치 및 방법에 관한 것으로, 더욱 상세하게는 축사 내 근접 개체를 구분하는 개체 탐지 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for detecting an object in a house, and more particularly, to an apparatus and method for detecting an object in a house.

소수의 관리자가 많은 개체를 관리해야 하는 축사/돈사의 특성상, 현실적으로 가축의 행동 특성을 실시간으로 파악하는 것은 매우 어렵다. 이에 따라, 최근에는 소규모 농장에서도 정보통신기술(Information Communication Technology, ICT)을 기반으로 저비용 구축이 가능한 개체 탐지 시스템에 대한 연구가 활발히 진행되고 있다. 그중에서도 카메라 센서를 통해 지속적으로 가축의 행동을 추적 및 분석하는 개체 탐지 시스템이 개발되고 있다.It is very difficult to grasp the behavior characteristics of livestock in real time due to the characteristics of the barn / pig farm where a few administrators have to manage many objects. Recently, researches on object detection system that can construct low cost based on ICT (Information Communication Technology) have been actively carried out in small scale farms. Among them, object detection systems are being developed that continuously track and analyze livestock behavior through camera sensors.

기존에는 차영상(Frame Difference) 기법을 이용하여 축사 내 이상 상황을 탐지하는 개체 탐지 기술이 제안되었다. 차영상을 이용한 방식은, 이전 프레임(또는 배경 프레임)과 현재 프레임 간의 픽셀 변화를 계산하고 움직임을 탐지한다. 이러한 차영상 기법을 이용하여, 움직임이 탐지된 픽셀을 이동하는 개체로 구분하여 번호를 부여하고 이를 통해 움직임을 추적할 수 있다.In the past, object detection technology has been proposed to detect abnormal conditions in a house using a frame difference technique. The difference image method calculates the pixel change between the previous frame (or background frame) and the current frame and detects motion. By using this difference image technique, the detected pixels can be divided into moving objects, numbered, and motion can be tracked through them.

이와 관련하여, 대한민국 공개특허 제 10-1998-031927 호(발명의 명칭: 이동 물체의 위치를 경보하는 감시 카메라 및 감시 방법)는, 이동 물체의 거리에 따라 렌즈 상태를 조절하기 위한 렌즈 상태 조절부와, 소정 시간 간격을 갖는 감시 영역에 대한 제1 및 제2영상 데이타를 각각 저장하기 위한 저장부와, 저장부로부터 입력되는 제1 및 제2영상 데이타의 차영상을 계산하고, 계산된 차영상의 크기에 따라 이동 물체 여부를 검출하고, 그 검출 여부에 따라 이동 물체 검출신호를 발생하는 이동 물체 검출부를 구비하여, 이동 물체의 탐지 거리에 따라 구별 가능한 경보음을 발생시키는 감시 카메라 및 감시 방법을 개시하고 있다.In this regard, Korean Patent Laid-Open No. 10-1998-031927 entitled "Surveillance camera and monitoring method for alarming the position of a moving object" has a lens state adjusting unit A storage unit for storing first and second image data for a surveillance region having a predetermined time interval, and a storage unit for storing a difference image between the first and second image data input from the storage unit, And a moving object detection unit for detecting a moving object depending on the size of the moving object and generating a moving object detection signal in accordance with the detected moving object, Lt; / RTI >

그러나 이러한 차영상 기법을 이용한 개체 탐지 기술은 프레임 단위로 개체 개별의 행동을 탐지하는데 효과적이지만, 지속적인 개체 추적 시에는 개체 간 겹침 문제를 해결할 수 없다는 한계가 있다. 또한, 다른 카메라 센서들의 경우 날씨와 시간에 따라서 달라지는 빛의 영향을 많이 받는 동영상 카메라를 이용한다는 점에서, 개체에 대한 지속적인 모니터링 시 추출하는 특징 정보들이 왜곡될 수 있어 개체 간 겹침 문제에 취약하다는 문제가 있었다.However, the object detection technique using this differential image technique is effective in detecting the behavior of each individual object on a frame basis, but there is a limitation in that it can not solve the overlap problem between the objects in continuous object tracking. In addition, in the case of other camera sensors, since the video camera, which is influenced by the light and which is influenced by the weather and the time, is used, characteristic information extracted during continuous monitoring of the object may be distorted, .

이러한 문제점을 극복하여 지속적으로 개별 개체의 움직임을 정확하게 탐지하고 추적할 수 있는 개체 탐지 기술이 요구된다. There is a need for an object detection technology that can accurately detect and track the movement of individual objects overcoming these problems.

본 발명의 일 실시예는 깊이 정보에 기반하여 축사 내에서 겹침이 발생된 개체를 구분하는 개체 탐지 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide an apparatus and method for detecting objects that are overlapped in a housing based on depth information.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상기와 같은 기술적 과제를 달성하기 위한 본 발명의 일 측면에 따른 축사 개체 탐지 장치는, 깊이 카메라를 통해 촬영된 축사 내부 영상으로부터 깊이 정보에 기초하여 복수의 개체를 검출하고 이진화 영상을 생성하는 개체 검출부; 상기 복수의 개체 별 면적 값에 기초하여 둘 이상의 개체가 하나로 인식되는 개체 겹침 영역을 검출하고, 상기 개체 겹침 영역에 대해 기설정된 깊이 임계값을 변경 적용하여 겹침 개체를 분리하는 개체 겹침 분석부; 및 상기 분리한 개체들을 포함하는 상기 복수의 개체들에 대해 색인화 처리를 통해 트래킹을 처리하는 개체 추적부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for detecting a cage of a housing, which detects a plurality of objects based on depth information from a housing internal image imaged through a depth camera and generates a binarized image, ; An object overlapping analyzing unit for detecting an object overlapping region in which two or more objects are recognized as one based on the area values of the plurality of objects and applying a predetermined depth threshold value to the object overlapping region to separate the overlapping objects; And an entity tracking unit for processing tracking through the indexing process on the plurality of entities including the separated entities.

또한 본 발명의 다른 측면에 따른 축사 개체 탐지 방법은, 깊이 카메라를 통해 촬영된 축사 내부 영상을 깊이 정보에 기초하여 복수의 개체를 검출하고 이진화 영상을 생성하는 단계; 상기 복수의 개체 별 면적 값에 기초하여 둘 이상의 개체가 하나로 인식되는 개체 겹침 영역을 검출하는 단계; 상기 개체 겹침 영역에 대해 상기 깊이 임계값을 변경 적용하여 겹침 개체를 분리하는 단계; 및 상기 분리한 개체들을 포함하는 상기 복수의 개체들에 대해 색인화 처리를 통해 트래킹 처리하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for detecting a crawling object, comprising: detecting a plurality of objects based on depth information and generating a binarized image; Detecting an object overlap region in which two or more objects are recognized as one based on the plurality of object area values; Dividing the overlapping entity by applying the depth threshold value to the object overlapping region; And tracking the plurality of entities including the separated entities through an indexing process.

전술한 본 발명의 과제 해결 수단에 의하면, 밀집 사육 환경인 축사/돈사 내에서 개체 간 겹침을 실시간으로 정확하게 탐지하여 개별 개체를 구별 및 추적할 수 있다.According to the above-mentioned problem solving means of the present invention, it is possible to accurately detect the overlap between individuals in a housing / pig house, which is a dense breeding environment, in real time to distinguish and track individual objects.

본 발명의 과제 해결 수단에 의하면, 깊이 카메라를 통해 획득된 축사 내 깊이 정보를 이용하여 실시간으로 움직이는 개체를 탐지함으로써, 가축 행동 분석을 위해 개별 개체에 센서를 부착하는 것과 같은 사전 처리가 불필요하다. 또한, RGB 영상이 아닌 깊이 정보 영상을 이용함으로써, 빛에 의한 왜곡에 강한 성능을 보이며 개체의 색상으로 인해 발생할 수 있는 오탐지를 방지할 수 있다.According to the object of the present invention, it is unnecessary to perform pre-processing such as attaching sensors to individual objects for livestock behavior analysis by detecting moving objects in real time using the in-housing depth information obtained through the depth camera. In addition, by using the depth information image instead of the RGB image, it is possible to prevent false detection due to the color of the object, showing strong performance against the distortion caused by the light.

본 발명의 과제 해결 수단에 의하면, 개체 별 식별 정보 및 위치 정보를 제공할 수 있어 개별 개체의 행동 특성을 용이하게 분석할 수 있다.According to an embodiment of the present invention, individual identification information and location information can be provided, so that behavior characteristics of individual entities can be easily analyzed.

본 발명의 과제 해결 수단에 의하면, 사육 환경의 구조적 특성 상 축사/돈사 천장의 중앙이 아닌 측면 등의 일 영역에 깊이 카메라가 설치되더라도 깊이 정보 보정을 통해 깊이 정보의 일관성을 유지함으로써 정확한 개체 겹침 탐지 및 개체 추적이 가능하다.According to the object of the present invention, even if a camera is installed in a certain area such as the side of the ceiling of a barn / pedestrian ceiling due to the structural characteristics of the breeding environment, even if a camera is installed in depth, accurate depth- And object tracking.

도 1은 본 발명의 일 실시예에 따른 축사 개체 탐지 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 축사 내 개체가 표시된 이진화 영상의 일례이다.
도 3은 본 발명의 일 실시예에 따른 개체 겹침 분석 처리 알고리즘의 일례이다.
도 4는 본 발명의 일 실시예에 따른 개체 겹침 분석 처리 결과 영상의 일례이다.
도 5는 본 발명의 일 실시예에 따른 축사 개체 탐지 방법을 설명하기 위한 순서도이다.
1 is a block diagram of a housing detection apparatus according to an embodiment of the present invention.
2 is an example of a binarized image showing an entity in a house according to an embodiment of the present invention.
3 is an example of an object overlap analysis processing algorithm according to an embodiment of the present invention.
4 is an example of a result image of the overlapping analysis process according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a method for detecting a crawling object according to an embodiment of the present invention. Referring to FIG.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해 도면에서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한, 도면을 참고하여 설명하면서, 같은 명칭으로 나타낸 구성일지라도 도면에 따라 도면 번호가 달라질 수 있고, 도면 번호는 설명의 편의를 위해 기재된 것에 불과하고 해당 도면 번호에 의해 각 구성의 개념, 특징, 기능 또는 효과가 제한 해석되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description in the drawings are omitted, and like parts are denoted by similar reference numerals throughout the specification. In the following description with reference to the drawings, the same reference numerals will be used to designate the same names, and the reference numerals are merely for convenience of description, and the concepts, features, and functions Or the effect is not limited to interpretation.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when a component is referred to as "comprising ", it is understood that it may include other components as well as other components, But do not preclude the presence or addition of a feature, a number, a step, an operation, an element, a component, or a combination thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다.In this specification, the term " part " means a unit realized by hardware or software, a unit realized by using both, and one unit may be realized by using two or more hardware, The above units may be realized by one hardware.

도 1은 본 발명의 일 실시예에 따른 축사 개체 탐지 장치의 구성도이다.1 is a block diagram of a housing detection apparatus according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 축사 개체 탐지 장치(100)는 깊이 카메라(Depth Camera)(110), 개체 검출부(120), 개체 겹침 분석부(130) 및 개체 추적부(140)를 포함한다.1, the housing detection apparatus 100 includes a depth camera 110, an object detection unit 120, an object overlap analysis unit 130, and an object tracking unit 140.

본 발명의 일 실시예에서는, 축사 개체 탐지 장치(100)가 축사의 일 예로서, 돈사에서 밀집 사육되고 있는 돼지 개체를 탐지 및 추적하는 것을 설명하도록 한다.In one embodiment of the present invention, the housing detection apparatus 100 will illustrate, as an example of housekeeping, the detection and tracking of pigs being densely maintained in pigs.

깊이 카메라(110)는 축사의 일 위치에 축사 내부 전체를 촬영할 수 있는 각도로 설치되며, 축사 내부를 촬영한 영상을 실시간으로 개체 검출부(120)로 전송한다. 예를 들어, 도 1에 도시한 바와 같이, 깊이 카메라(110)는 축사의 상부(예: 천장) 일 영역에 설치될 수 있다.The depth camera 110 is installed at an angle at which the entire interior of the housing can be photographed at one position of the housing, and transmits an image photographed inside the housing to the object detection unit 120 in real time. For example, as shown in FIG. 1, the depth camera 110 may be installed in one area (e.g., ceiling) of the housing.

깊이 카메라(110)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 이러한 깊이 카메라(110)를 통해 촬영된 영상에는 깊이 정보가 포함된다. 본 발명의 일 실시예에서는 깊이 카메라(110)가 키넥트 센서인 것을 예로 설명하도록 한다. The depth camera 110 may be driven by any one of various depth recognition methods, and depth information is included in an image photographed through the depth camera 110. In an embodiment of the present invention, it is assumed that the depth camera 110 is a Kinect sensor.

키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득하는 카메라이다.The Kinect sensor is a structured light projection type depth camera that projects a defined pattern image using a projector or a laser and obtains a projected image through a camera to acquire three-dimensional information of a scene.

이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 틸트 모터가 더 구성될 수 있다. Such a Kinect sensor includes an infrared radiator for irradiating a pattern using an infrared laser, and an infrared camera for capturing an infrared image, and an RGB camera functioning as a general web cam is disposed between the infrared radiator and the infrared camera. In addition, the Kinect sensor can be further configured with a tilt motor that adjusts the microphone array and angle of the camera.

키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. The basic principle of a Kinect sensor is that when a laser pattern irradiated from an infrared radiator is projected and reflected on an object, the distance to the object surface is obtained using the position and size of the pattern at the reflection point.

이러한 원리에 따라, 깊이 카메라(110)는 축사 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상을 생성한다. According to this principle, the depth camera 110 irradiates the laser pattern with the space inside the housing, and senses the laser pattern reflected from the object, thereby generating an image including the depth information per object.

개체 검출부(120)는 깊이 카메라(110)로부터 수신된 개체 별 깊이 정보가 포함된 영상을 이진화 영상으로 변환한다. 이때, 개체 검출부(120)는 기설정된 깊이 임계값 이상의 레이저 패턴에 대한 반사 크기(즉, 깊이 값)을 갖는 영역을 개체로서 검출하여 이진화 영상으로 나타낸다. 참고로, 깊이 임계값은 깊이 카메라(110)를 통해 투영된 적외선 패턴이 물체로부터 반사된 크기 값에 대한 임계값으로서, 본 발명의 일 실시예에서 깊이 임계값이 커진다는 것은 축사 바닥으로부터의 높이가 높아지는 것(즉, 반사된 적외선 크기 값이 커지는 것)을 의미한다.The object detection unit 120 converts the image including the object-specific depth information received from the depth camera 110 into a binary image. At this time, the entity detector 120 detects a region having a reflection magnitude (i.e., depth value) of a laser pattern of a predetermined depth threshold value or more as an entity and displays the region as a binary image. For reference, the depth threshold is a threshold value for a magnitude value reflected from an object, the infrared pattern projected through the depth camera 110. In one embodiment of the present invention, the greater the depth threshold is the height from the bottom of the house (I. E., The reflected infrared light value increases).

그리고 개체 검출부(120)는 검출된 개체들을 각각 관심영역(ROI)으로 설정하고, 각 개체의 행동 패턴을 분석하기 위해 ROI의 위치 및 면적을 추출하여 특성 정보로서 매칭 저장한다.Then, the entity detector 120 sets the detected entities as ROIs, extracts the positions and areas of the ROIs to analyze the behavior patterns of the respective entities, and stores them as property information.

도 2는 본 발명의 일 실시예에 따른 축사 내 개체가 표시된 이진화 영상의 일례이다.2 is an example of a binarized image showing an entity in a house according to an embodiment of the present invention.

도 2에서, 회색으로 표시되어 음영 영역과 구분되며, 숫자가 넘버링된 영역들은 각각 개체(즉, 돼지)를 나타내고, 개체들 외에 흑색으로 표시된 배경(즉, 음영 영역)은 개체라고 판단되지 않은 부분(예: 돈사 바닥)을 나타낸다. 이때, 개체로 표시된 부분은 기설정된 깊이 임계값 이상의 깊이 값을 갖는 영역이며, 배경 영역은 깊이 임계값 미만의 깊이 값을 갖는 영역이다. In FIG. 2, the areas marked with gray are distinguished from the shaded areas, and the areas in which numbers are numbered represent individual objects (i.e., pigs). In addition to the objects, the background (For example, pile bottom). In this case, the portion indicated by the object is a region having a depth value equal to or greater than a predetermined depth threshold value, and the background region is a region having a depth value less than a depth threshold value.

즉, 개체 검출부(120)는 깊이 카메라(110)로부터 수신된 영상 데이터로부터 깊이 임계값 이상의 반사 크기를 갖는 픽셀을 검출하고, 검출된 픽셀들에 대해 일정 값을 할당하여 배경 영역과 구분되도록 표시한다. 참고로, 검출된 픽셀들 중 연속되거나 인접한 픽셀들의 집합은 하나의 개체로서 표현될 수 있다.That is, the object detecting unit 120 detects a pixel having a reflection magnitude equal to or greater than a depth threshold value from the image data received from the depth camera 110, assigns a predetermined value to the detected pixels, and displays the pixel to be distinguished from the background region . For reference, a set of consecutive or adjacent pixels among the detected pixels may be represented as one entity.

참고로, 깊이 카메라(110)가 돈사의 천장 중앙이 아닌 위치(예: 측면)에 설치되어 임의의 각도에서 영상을 촬영한 경우, 개체 검출부(120)는 개체의 돈사 내 위치에 따라 깊이 정보가 달라지는 문제를 해결하기 위해 깊이 정보를 보정한 후 개체를 검출할 수 있다. 이때, 개체 검출부(120)는 영상 촬영 각도에 기초하여 개체 별 위치에 따른 깊이 값을 보상함으로써 깊이 정보를 보정한다.For example, when the depth camera 110 is installed at a position (e.g., a side) other than the center of the ceiling of the python so that the image is taken at an arbitrary angle, the object detection unit 120 detects depth information To solve the problem, we can detect the object after correcting the depth information. At this time, the object detection unit 120 corrects the depth information by compensating the depth value according to the position of each object based on the image photographing angle.

다시 도 1로 돌아가서, 개체 겹침 분석부(130)는 둘 이상의 개체가 구분이 불가능하게 근접되어 있어 하나의 관심 영역으로 표시된 “개체 겹침” 영역을 검출한다. 즉, “개체 겹침”은, 개체들이 매우 인접하거나 서로 붙어 있음으로 인해, 흑백으로 표현되는 이진화 영상에서 개체들의 윤곽선 또는 개체 간의 경계면이 불분명하여 하나의 개체로 인식되는 현상을 의미한다.Referring back to FIG. 1, the object overlap analyzing unit 130 detects an " object overlapping " region indicated by one region of interest because two or more objects can not be distinguished from each other. That is, "overlapping objects" refers to a phenomenon in which the contours of objects or the boundary between objects are unclear and recognized as one object in a binarized image expressed in black and white due to the fact that the objects are very adjacent to each other.

이때, 개체 겹침 분석부(130)는, 하기 도 3에서와 같은 적응적 임계값 알고리즘을 수행하여, 개체 겹침이 검출된 위치에 대해 깊이 임계값을 순차적으로 변경 적용함으로써 겹침 개체들을 별도의 개체로 구분할 수 있다.In this case, the object overlap analyzing unit 130 performs the adaptive threshold value algorithm as shown in FIG. 3 to sequentially apply the depth threshold values to the positions where the object overlaps are detected, .

도 3은 본 발명의 일 실시예에 따른 개체 겹침 분석 처리 알고리즘을 슈도 코드(pseudocode)로 표현하였다.FIG. 3 is a graph showing an algorithm for processing an overlapping analysis according to an embodiment of the present invention in a pseudocode.

개체 겹침 분석 처리 시, 입력 데이터는 영상 프레임 내 움직임 개체(즉, 움직이기 위해 서있는 돼지)들의 위치 정보인 {(X1, Y1), (X2, Y2), (X3, Y3)......(Xn, Yn)}로 설정된다. 참고로, 움직임 개체(즉, 서있는 돼지)는 기설정된 깊이 임계값 이상의 깊이 값을 갖는 영역으로 검출된다. 그리고 출력 데이터는 입력 데이터 중 개체 겹침 문제가 검출된 움직임 개체들의 위치 정보인 {(Xa, Ya), (Xb, Yb)}이다. 예를 들어, 입력 데이터인 {(X1, Y1), (X2, Y2), (X3, Y3)......(Xn, Yn)} 중 n 번째 움직임 개체가 두 개체의 겹침에 의한 것이면, n 번째 움직임 개체의 위치 정보인 (Xn, Yn)를 {(Xa, Ya), (Xb, Yb)}로 설정할 수 있다. 여기서, 움직임 개체의 위치 정보는 도 1에서 도시한 x 및 y 축의 좌표를 나타낸다. 참고로, 개체의 ROI를 사각형으로 나타낼 경우, 위치 정보 {(Xa, Ya), (Xb, Yb)}는 개체 겹침이 발생된 ROI를 4개의 점이 아닌 사각형 상의 네 꼭지점 중 대각선에 위치한 두 점으로 간단하게 표현한 것이다. In the case of the object overlap analysis, the input data is {(X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , Y 3 ) which are the positional information of the motion object ) (X n , Y n )}. For reference, the motion entity (i.e., standing pig) is detected as a region having a depth value equal to or greater than a predetermined depth threshold value. In addition, the output data is the position information of the detected moving object on the stacking problem of the input data {(X a, Y a) , (X b, Y b)}. For example, the input data {(X 1, Y 1) , (X 2, Y 2), (X 3, Y 3) ...... (X n, Y n)} of the (n) th motion object (X n , Y n ), which is the position information of the nth motion entity, can be set to {(X a , Y a ), (X b , Y b )}. Here, the position information of the motion entity represents the coordinates of the x and y axes shown in Fig. For reference, to indicate an ROI in the object as a rectangle, the location information {(X a, Y a) , (X b, Y b)} is the ROI of the object overlap occurs in the four squares on the four corners rather than point diagonally It is simply represented by two points located.

도 3에서는, 개체 겹침 분석부(130)가 움직임 개체(즉, 서있는 개체)들에 대해서 개체 겹침 분석을 처리하는 것을 나타내었다. 그러나, 입력 데이터는 {(X1, Y1), (X2, Y2), (X3, Y3)......(Xn, Yn)} 외에도 축사 내에는 또 다른 개체들(즉, 깊이 임계값 이하의 깊이 값을 갖는 누워있는 개체 등)의 위치 정보가 더 포함될 수도 있다. 즉, 도 3에서는 깊이 임계값이 서있는 개체들을 검출할 수 있을 정도의 크기로 설정된 것을 나타내었으나, 깊이 임계값은 모든 개체들을 검출할 수 있을 정도로 설정될 수도 있다.In FIG. 3, it is shown that the object overlap analysis unit 130 processes the object overlap analysis for the motion object (i.e., standing object). However, the input data {(X 1, Y 1) , (X 2, Y 2), (X 3, Y 3) ...... (X n, Y n)} In addition, another object within the housing (I.e., a lying object having a depth value equal to or less than a depth threshold value) may be further included. That is, although the depth threshold value is set to be large enough to detect the standing entities in FIG. 3, the depth threshold value may be set so as to detect all entities.

구체적으로, 개체 겹침 분석 처리 알고리즘은 다음과 같은 단계로 구현될 수 있다.Specifically, the object overlap analysis processing algorithm can be implemented in the following steps.

첫 번째 단계(Step 1)로, 개체 겹침 분석부(130)는 움직임 개체들의 위치 정보 데이터를 입력 데이터로 설정한다.In the first step (Step 1), the object overlap analyzing unit 130 sets the position information data of the motion objects as input data.

두 번째 단계(Step 2)로, 개체 겹침 분석부(130)는 각각의 움직임 개체들의 위치 정보에 기초하여 관심영역의 면적(ROI size)인 S를 산출한다.In the second step (Step 2), the object overlap analyzing unit 130 calculates the area S (ROI size) of the ROI based on the position information of each motion entity.

마지막 단계(Step 3)로, 다음과 같은 개체 겹침 분석 및 처리 절차를 수행한다.In the final step (Step 3), the following object overlap analysis and processing procedure is performed.

먼저, 입력된 움직임 개체에 대한 관심영역의 면적이 기설정된 면적 임계값(ROI size threshold) 이상이면, 개체 겹침 문제가 발생한 것(즉, 개체 겹침 영역)으로 판단한다. 참고로, 면적 임계값은, 개별 개체가 모두 구별된 경우에 추출된 관심 영역의 면적 값에 기초하여 설정될 수 있다. First, if the area of the ROI of the input motion object is equal to or greater than a predetermined ROI size threshold, it is determined that an object overlapping problem has occurred (i.e., an object overlap region). For reference, the area threshold value can be set based on the area value of the extracted region of interest when all of the individual entities are distinguished.

다음으로, 개체 겹침이 발생된 영역에 대해 기설정된 깊이 임계값(Depth_threshold)을 기설정된 단위 값씩 순차적으로 높여 적용한다. 즉, 개체 겹침 분석부(130)는 개체 탐지부(120)가 이전의 깊이 임계값보다 높은 깊이 임계값을 적용하여 생성한 이진화 영상을 획득하여, 해당 위치(즉, 개체 겹침이 발생한 것으로 판단된 위치)의 개체의 위치 정보를 재확인한다.Next, the predetermined depth threshold value (Depth_threshold) is sequentially increased by a predetermined unit value for the region where the object overlap occurs. That is, the object overlapping analyzer 130 obtains the binarization image generated by applying the depth threshold value higher than the previous depth threshold value to the object detection unit 120, Location) of the object.

참고로, 개체 탐지부(120)는 개체 겹침 분석부(130)의 제어에 따라, 개체 겹침이 발생된 해당 위치에 대해서만 깊이 임계값을 변경하여 적용할 수 있다. 즉, 개체 탐지부(120)는 개체 겹침 분석부(130)를 통해 개체 겹침이 판단된 경우, 다시 깊이 카메라(110)가 축사(예: 돈사) 내부를 촬영한 영상을 획득한다. 그리고, 개체 탐지부(120)는 개체 겹침 영역으로 판단된 위치에 대해 변경된 깊이 임계값을 적용하고 나머지 영역들에 대해서는 원래의 깊이 임계값을 유지할 수 있다. 개체 검출부(120)는 변경된 깊이 임계값을 적용하여 개체 겹침이 발생된 영역에서 개체를 재검출한 이진화 영상을 생성하고, 그 결과를 개체 겹침 분석부(130)로 제공할 수 있다. For reference, the object detection unit 120 may apply the depth threshold value only to the corresponding position where the object overlap occurs, under the control of the object overlap analysis unit 130. That is, when the object overlapping is determined through the object overlapping analysis unit 130, the object detection unit 120 acquires an image of the interior of the house (e.g., a nursery) taken by the depth camera 110 again. Then, the object detection unit 120 may apply the modified depth threshold value to the position determined as the object overlap region and maintain the original depth threshold value for the remaining regions. The entity detector 120 may generate a binarized image by re-detecting the entity in the region where the object overlap occurs by applying the changed depth threshold, and provide the result to the object overlap analyzer 130.

다음으로, 재획득된 이진화 영상에서, 개체의 깊이 값 “(x, y).pig_depth”으로부터 돈사 바닥의 깊이 값 “(x, y).floor_depth”을 차감한 값이 깊이 임계값보다 클 경우, 개체로서 재검출한다. Next, in the re-acquired binarized image, if the value obtained by subtracting the depth value "(x, y) .floor_depth" of the pile bottom from the depth value "(x, y) .pig_depth" of the object is larger than the depth threshold value, And re-detected as an individual.

그런 다음, 재검출된 개체에 대한 관심 영역을 지정하고, 해당 관심 영역의 면적 S’를 재산출한다. 이상의 과정은, 재검출된 관심 영역의 면적 S’가 면적 임계값 이하가 될 때까지 반복된다.Then, a region of interest for the re-detected entity is designated, and the area S 'of the region of interest is re-calculated. The above process is repeated until the area S 'of the re-detected region of interest becomes equal to or smaller than the area threshold value.

재검출된 관심 영역의 면적 S’가 면적 임계값 이하이면, 하나의 관심 영역으로 표시되었던 개체가 둘 이상으로 분리된 것을 의미한다. 즉, 개체 검출부(120)는 깊이 임계값의 변경에 따라 분리된 둘 이상의 개체를 포함하는 복수의 개체를 검출하여 이진화 영상으로 생성한다. 이에 따라, 개체 겹침 분석부(130)를 통해 검출되었던 개체 겹침 영역이었던 좌표 {(Xa, Ya), (Xb, Yb)}는, 개체 검출부(120)를 통해 각각 면적 임계값 이하의 면적을 갖는 임의의 관심 영역으로 분리 검출되어 그 위치 정보가 저장될 수 있다. If the area S 'of the re-detected region of interest is below the area threshold value, it means that two or more individuals that have been displayed as one region of interest are separated. That is, the entity detector 120 detects a plurality of entities including two or more separated entities according to the change of the depth threshold value, and generates a binarized image. Accordingly, the object coordinates overlapping analysis unit 130, the former object overlap region was detected by {(X a, Y a), (X b, Y b)} is less than each of the area threshold value from the object detection unit 120 And the position information thereof can be stored.

좀 더 상세히 설명하자면, 이상의 과정은 개체의 신체 특성 중 ‘등’ 부분의 굴곡진 형상을 이용한 것이다. 즉, 임의의 깊이 임계값에서는 맞닿아 겹쳐지게 검출되던 둘 이상의 개체가, 깊이 임계값이 커짐에 따라(즉, 개체에 대한 검출 위치가 바닥으로부터 높아짐에 따라) 개체 간의 경계면이 구분되도록 하는 것이다. 이는, 깊이 임계값이 커짐에 따라, 이전에 개체로서 검출되던 영역 중 깊이 임계값 미만의 값을 갖는 위치 영역(즉, 개체의 ‘등’ 부분 중 상대적으로 낮은 위치인 가장자리 부분)이 음영 영역으로 처리되기 때문이다. More specifically, the above process utilizes the curved shape of the 'iso' portion of an individual's body characteristics. That is, two or more entities that are detected overlapping at arbitrary depth threshold values are distinguished from each other as the depth threshold value increases (i.e., the detection position of the entity increases from the bottom). This is because, as the depth threshold value becomes larger, a position area having a value less than a depth threshold value (i.e., an edge part of a relatively lower position of the 'iso' part of the object) It is processed.

예를 들어, 도 1에서 나타낸 XYZ축을 기준으로 살펴보면, 깊이 임계값이 커짐에 따라 축사 상의 수직 축(Z)을 기준으로 개체의 단면(XY축)의 높이가 점차 위로 상승하게 된다. 이에 따라, 굴곡진 형상을 갖는 개체의 ‘등’ 영역 중 검출되는 영역의 면적(즉, 관심 영역)이 변경된다. 즉, 개체 겹침 영역에 포함된 둘 이상의 개체 별로 검출되는 '등' 면적이 점점 좁아지게 됨으로써, 겹쳐있던 개체 영역이 분리되어 경계가 분명해지게 된다. For example, referring to the XYZ axis shown in FIG. 1, as the depth threshold increases, the height of the section (XY axis) of the object gradually increases with respect to the vertical axis Z on the housing. Thus, the area of the detected region (i.e., the region of interest) among the 'iso' regions of the object having the curved shape is changed. That is, the 'iso' area detected for each of two or more objects included in the object overlapping area is gradually narrowed, so that the overlapped entity area is separated and the boundary becomes clear.

이처럼, 개체 겹침 분석부(130)는 움직임 개체의 관심 영역의 면적에 기초하여 개체 겹침을 검출하고, 개체 겹침이 검출된 위치에서 개체 분리가 가능할 때까지 깊이 임계값을 순차적으로 변경 적용하여 개체들을 재검출한다.As described above, the object overlapping analyzer 130 detects overlapping of objects based on the area of the ROI of the MO, sequentially changes the depth threshold value until the object separation is possible at the position where overlapping of the object is detected, Again.

이상의 과정을 처리한 결과는 도 4에서와 같이 나타날 수 있다.The result of the above process can be shown in FIG.

도 4는 본 발명의 일 실시예에 따른 개체 겹침 분석 처리 결과 영상의 일례이다.4 is an example of a result image of the overlapping analysis process according to an embodiment of the present invention.

도 4의 왼쪽에 도시된 영상은 개체 겹침 분석을 처리하기 이전에 움직임 개체를 검출하여 이진화 영상으로 표시한 것이다. 이때, 상단에 두 마리의 돼지가 겹쳐진 듯한 영역을 확인할 수 있다. 이와 같은 경우, 해당 영역의 면적이 기설정된 면적 임계값보다 크면, 개체 겹침이 발생된 것으로 판단한다. 이에 따라, 깊이 임계값이 점차 커지도록 변경 적용하면, 도 4의 오른쪽에 도시된 영상과 같이 해당 위치의 개체가 둘로 분리되는 것을 알 수 있다.The image shown on the left side of FIG. 4 is detected as a binary image before the object overlap analysis is performed. At this time, you can see the area where two pigs are superimposed on the top. In this case, if the area of the area is larger than the predetermined area threshold value, it is determined that the object overlapping occurs. Accordingly, when the depth threshold value is gradually increased, it can be seen that the objects at the corresponding positions are separated into two as shown in the image shown on the right side of FIG.

이상에서와 같은 개체 겹침 분석을 통해 개체 겹침이 해결되면, 개체 추적부(140)는 개별 개체들에 대해 색인화 처리를 수행한다.When the object overlapping is resolved through the object overlap analysis as described above, the object tracking unit 140 performs an indexing process on individual objects.

즉, 도 3을 통해 설명한 개체 겹침 분석 처리 시, 입력된 움직임 개체에 대한 관심영역의 면적이 기설정된 면적 임계값(ROI size threshold)보다 작은 경우, 겹침이 발생되지 않은 개체로 판단하여, 각각 이전 위치 정보와의 관련도를 산출하여 해당 개체를 트래킹할 수 있다. That is, when the area of the ROI of the input motion entity is smaller than the predetermined ROI size threshold in the OBI analysis process described with reference to FIG. 3, it is determined that the ROI is not an overlapping object, It is possible to calculate the degree of association with the position information and to track the corresponding object.

다시 도 1로 돌아가서, 개체 추적부(140)는 개체 겹침 분석부(130)를 통해 분리된 개체들을 포함하는 복수의 개체들에 대해 색인화 처리를 통해 트래킹을 처리한다. 이때, 개체 추적부(140)는 개체의 현재 위치 정보와 직전 위치 정보 간의 유클라디안 거리를 산출하여, 개체 별로 이전 위치에서 부여되었던 식별 정보와 대응되도록 색인화 처리할 수 있다. 이를 통해, 여러 개의 개체가 동시에 움직이는 상황에서도 개체 겹침을 분석 및 해결하여, 한 영상 내에서 개별 개체에 대한 트래킹을 동시에 처리할 수 있다.Referring again to FIG. 1, the entity tracking unit 140 processes the plurality of entities including the separated entities through the entropy analysis unit 130 through the indexing process. At this time, the entity tracking unit 140 may calculate an Euclidean distance between the current location information and the previous location information of the entity, and may perform the indexing process so as to correspond to the identification information assigned at the previous location. Through this, it is possible to analyze and solve the overlapping of objects even in the case where several objects move at the same time, and to simultaneously process the tracking of individual objects in one image.

한편, 이상의 도 1 내지 도 4를 참조하여 설명한 축사 개체 탐지 장치(100)는, 깊이 카메라(110)와 연동된 메모리 및 프로세서로 구현될 수 있다. 즉, 도 1에 도시된 개체 검출부(120), 개체 겹침 분석부(130) 및 개체 추적부(140)가 처리하는 각 알고리즘 또는 실행 동작들은 하나의 프로그램 또는 서로 연동된 둘 이상의 프로그램의 형태로서 메모리(미도시)에 저장될 수 있다. 이처럼 메모리(미도시)에 저장된 하나 이상의 프로그램은 프로세서(미도시)에 의해 수행되며, 프로세서(미도시)는 각 프로그램이 실행됨에 따라 기설정된 처리들을 수행할 수 있다.Meanwhile, the housing detection apparatus 100 described with reference to FIGS. 1 to 4 may be implemented by a memory and a processor interlocked with the depth camera 110. That is, each algorithm or execution operation processed by the entity detection unit 120, the object overlap analysis unit 130, and the entity tracking unit 140 shown in FIG. 1 may be a program or a form of two or more programs linked to each other, (Not shown). One or more programs stored in the memory (not shown) are executed by a processor (not shown), and a processor (not shown) may perform predetermined processes as each program is executed.

이하, 도 5를 참조하여 축사 개체 탐지 장치(100)를 통해 깊이 정보에 기반한 축사 내 개체 겹침 처리를 수행하는 개체 탐지 방법에 대해서 상세히 설명하도록 한다.Hereinafter, referring to FIG. 5, an object detection method for performing object overlap processing in a house based on depth information through the housing detection apparatus 100 will be described in detail.

도 5는 본 발명의 일 실시예에 따른 축사 개체 탐지 방법을 설명하기 위한 순서도이다.FIG. 5 is a flowchart illustrating a method for detecting a crawling object according to an embodiment of the present invention. Referring to FIG.

먼저, 깊이 카메라를 통해 촬영된 축사 내부 영상을 깊이 정보에 기초하여 복수의 개체를 검출하고 이진화 영상으로 변환한다(S510).First, a plurality of objects are detected based on the depth information and converted into a binarized image (S510).

이때, 깊이 임계값은 개체와 배경을 구분하기 위해 설정된 깊이 값의 기준이다. 이에 따라, 이진화 영상에 포함된 깊이 정보에 따라 깊이 임계값 이상의 반사 크기(즉, 깊이 값)을 갖는 영역은 개체로서 검출되고, 깊이 임계값 미만의 반사 크기를 갖는 영역은 배경(또는 개체가 아닌 영역)으로 처리된다.At this time, the depth threshold value is a criterion of the depth value set to distinguish the object and the background. Accordingly, an area having a reflection size (i.e., depth value) greater than or equal to the depth threshold value is detected as an object and a region having a reflection size smaller than the depth threshold value is detected as a background Region).

다음으로, 검출된 복수의 개체 별 면적 값에 기초하여 둘 이상의 개체가 하나로 인식되는 개체 겹침 영역을 검출한다(S520).Next, an object overlap region in which two or more objects are recognized as one is detected based on the detected plurality of object area values (S520).

이때, 개체 별 면적값이 기설정된 면적 임계값보다 클 경우 개체 겹침 영역으로 판단할 수 있다.At this time, if the area value per object is larger than the preset area threshold value, it can be determined as the object overlap region.

참고로, 영상 촬영 각도에 기초하여 개체 별 위치에 따른 깊이 값을 보상함으로써 깊이 정보를 보정하는 단계를 먼저 수행한 후, 개체 겹침 영역을 검출할 수 있다.For reference, the step of correcting the depth information by compensating the depth value according to the position of each object based on the image capturing angle may be performed first, and then the object overlapping region may be detected.

그런 다음, 검출된 개체 겹침 영역에 대해 기설정된 깊이 임계값을 변경 적용하여 겹침 개체를 분리한다(S530).Then, the overlapped objects are separated by applying a predetermined depth threshold value to the detected object overlap region (S530).

구체적으로, 개체 겹침 영역의 위치에서 둘 이상의 개체가 분리 검출될 때까지 깊이 임계값을 변경하고, 깊이 임계값을 변경 적용하여 재생성된 이진화 영상으로부터 분리된 둘 이상의 개체를 검출한 후, 분리된 둘 이상의 개체 별로 위치 정보를 생성할 수 있다.Specifically, the depth threshold value is changed until two or more entities are separated from each other at the position of the object overlap region, and the depth threshold value is changed to detect two or more entities separated from the regenerated binarized image, The location information can be generated for each of the above objects.

이때, 개체 겹침 영역의 면적 값이 기설정된 면적 임계값보다 작아질 때까지 깊이 임계값을 점점 커지도록 변경 적용한다.At this time, the depth threshold value is gradually increased until the area value of the object overlapping area becomes smaller than the predetermined area threshold value.

다음으로, 상기 분리한 개체들을 포함하는 복수의 개체들에 대해 색인화 처리를 통해 트래킹 처리한다(S540).Next, a plurality of entities including the separated entities are tracked through an indexing process (S540).

이때, 복수의 개체들에 대해 이전 위치와의 관련도를 산출하여, 한 영상 내 개별 개체들을 동시에 트래킹할 수 있다.At this time, it is possible to calculate the degree of association with a previous position of a plurality of entities, and to track individual entities in one image at the same time.

이상에서 설명한 본 발명의 일 실시예에 따른 깊이 정보에 기반한 축사 개체 탐지 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The method for detecting a cradle based on depth information according to an embodiment of the present invention described above may be implemented in the form of a recording medium including instructions executable by a computer such as a program module executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. The computer readable medium may also include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 축사 내 개체 탐지 장치
110: 깊이 카메라
120: 개체 검출부
130: 개체 겹침 분석부
140: 개체 추적부
100: object detection device in a house
110: Depth camera
120:
130: Object Overlap Analysis Unit
140:

Claims (13)

축사 개체 탐지 장치에 있어서,
깊이 카메라를 통해 촬영된 축사 내부 영상을 깊이 정보에 기초하여 복수의 개체를 검출하고 이진화 영상을 생성하는 개체 검출부;
상기 복수의 개체 별 면적 값에 기초하여 둘 이상의 개체가 하나로 인식되는 개체 겹침 영역을 검출하고, 상기 개체 겹침 영역에 대해 기설정된 깊이 임계값을 변경 적용하여 겹침 개체를 분리하는 개체 겹침 분석부; 및
상기 분리한 개체들을 포함하는 상기 복수의 개체들에 대해 색인화 처리를 통해 트래킹을 처리하는 개체 추적부를 포함하며,
상기 개체 겹침 분석부는, 상기 개체 겹침 영역의 위치에서 둘 이상의 개체가 분리 검출될 때까지 상기 깊이 임계값을 변경하되,
상기 개체 검출부는, 상기 깊이 임계값의 변경에 따라 분리된 상기 둘 이상의 개체를 포함하는 복수의 개체를 재검출하여 이진화 영상을 생성하는, 축사 개체 탐지 장치.
A housing animal detection device,
An object detector for detecting a plurality of entities based on depth information and generating a binarized image of a housing internal image photographed through a depth camera;
An object overlapping analyzing unit for detecting an object overlapping region in which two or more objects are recognized as one based on the area values of the plurality of objects and applying a predetermined depth threshold value to the object overlapping region to separate the overlapping objects; And
And an entity tracking unit for processing tracking through the indexing process on the plurality of entities including the separated entities,
Wherein the object overlapping analyzing unit changes the depth threshold value until two or more objects are separated and detected at a position of the object overlapping region,
Wherein the entity detection unit detects a plurality of entities including the two or more entities separated according to the change of the depth threshold value to generate a binarized image.
제 1 항에 있어서,
상기 개체 겹침 분석부는,
상기 개체 별 면적값이 기설정된 면적 임계값보다 클 경우 개체 겹침 영역으로 판단하는 축사 개체 탐지 장치.
The method according to claim 1,
Wherein the object overlap analyzing unit comprises:
And determining the object overlap area if the area value of each object is greater than a preset area threshold value.
제 1 항에 있어서,
상기 개체 추적부는,
상기 복수의 개체들에 대해 이전 위치와의 관련도를 산출하여, 한 영상 내 개별 개체들을 동시에 트래킹하는 축사 개체 탐지 장치.
The method according to claim 1,
The object-
And calculates the degree of association of the plurality of entities with respect to the previous location, and simultaneously tracks individual entities in one image.
제 1 항에 있어서,
상기 개체 겹침 분석부는,
상기 개체 겹침 영역의 면적 값이 기설정된 면적 임계값보다 작아질 때까지 상기 깊이 임계값을 점점 커지도록 변경 적용하는 축사 개체 탐지 장치.
The method according to claim 1,
Wherein the object overlap analyzing unit comprises:
And changing the depth threshold value until the area value of the object overlap region becomes smaller than a predetermined area threshold value.
제 1 항에 있어서,
상기 개체 검출부는,
상기 깊이 카메라의 영상 촬영 각도에 기초하여 개체 별 위치에 따른 깊이 값을 보상함으로써 깊이 정보를 보정하는 축사 개체 탐지 장치.
The method according to claim 1,
Wherein the entity detecting unit comprises:
And corrects the depth information by compensating the depth value according to the position of each object based on the imaging angle of the depth camera.
제 1 항에 있어서,
상기 개체 검출부는,
상기 깊이 임계값 이상의 깊이 값을 갖는 영역을 개체로 검출하고, 상기 깊이 임계값 미만의 깊이 값을 갖는 영역을 배경으로 처리하는 축사 개체 탐지 장치.
The method according to claim 1,
Wherein the entity detecting unit comprises:
Detecting an area having a depth value equal to or greater than the depth threshold value as an object and processing an area having a depth value less than the depth threshold value as a background.
축사 개체 탐지 장치를 통한 축사 개체 탐지 방법에 있어서,
깊이 카메라를 통해 촬영된 축사 내부 영상을 깊이 정보에 기초하여 복수의 개체를 검출하고 이진화 영상을 생성하는 단계;
상기 복수의 개체 별 면적 값에 기초하여 둘 이상의 개체가 하나로 인식되는 개체 겹침 영역을 검출하는 단계;
상기 개체 겹침 영역에 대해 상기 깊이 임계값을 변경 적용하여 겹침 개체를 분리하는 단계; 및
상기 분리한 개체들을 포함하는 상기 복수의 개체들에 대해 색인화 처리를 통해 트래킹 처리하는 단계를 포함하며,
상기 겹침 개체를 분리하는 단계는,
상기 개체 겹침 영역의 위치에서 둘 이상의 개체가 분리 검출될 때까지 상기 깊이 임계값을 변경하는 단계; 및
상기 개체 겹침 영역에 상기 깊이 임계값을 변경 적용하여 분리된 둘 이상의 개체를 포함하는 복수의 개체를 재검출하는 단계를 포함하는, 축사 개체 탐지 방법.
1. A method for detecting a crawling object via a crawler object detection device,
Detecting a plurality of entities based on depth information and generating a binarized image of a housing internal image photographed through a depth camera;
Detecting an object overlap region in which two or more objects are recognized as one based on the plurality of object area values;
Dividing the overlapping entity by applying the depth threshold value to the object overlapping region; And
And tracking the plurality of entities including the separated entities through an indexing process,
The step of separating the overlapping entity comprises:
Changing the depth threshold value until at least two entities are separately detected at the position of the object overlapping region; And
And re-detecting a plurality of entities including two or more entities separated by applying the depth threshold value to the entity overlapping region.
제 7 항에 있어서,
상기 개체 겹침 영역을 검출하는 단계는,
상기 개체 별 면적값이 기설정된 면적 임계값보다 클 경우 개체 겹침 영역으로 판단하는 축사 개체 탐지 방법.
8. The method of claim 7,
Wherein the step of detecting the object overlap region comprises:
And if the area value of each object is greater than a preset area threshold value, it is determined to be an object overlap region.
삭제delete 제 7 항에 있어서,
상기 복수의 개체들에 대해 색인화 처리를 통해 트래킹 처리하는 단계는,
상기 복수의 개체들에 대해 이전 위치와의 관련도를 산출하여, 한 영상 내 개별 개체들을 동시에 트래킹하는 축사 개체 탐지 방법.
8. The method of claim 7,
Wherein the step of tracking the plurality of entities through an indexing process comprises:
Calculating a degree of association between the plurality of entities and a previous location, and tracking individual entities in a single image at the same time.
제 7 항에 있어서,
상기 겹침 개체를 분리하는 단계는,
상기 개체 겹침 영역의 면적 값이 기설정된 면적 임계값보다 작아질 때까지 상기 깊이 임계값을 점점 커지도록 변경 적용하는 축사 개체 탐지 방법.
8. The method of claim 7,
The step of separating the overlapping entity comprises:
And changing the depth threshold value until the area value of the object overlapping area becomes smaller than a predetermined area threshold value.
제 7 항에 있어서,
상기 개체 겹침 영역을 검출하는 단계는,
영상 촬영 각도에 기초하여 개체 별 위치에 따른 깊이 값을 보상함으로써 깊이 정보를 보정하는 단계를 포함하는 축사 개체 탐지 방법.
8. The method of claim 7,
Wherein the step of detecting the object overlap region comprises:
And correcting the depth information by compensating the depth value according to the position of each object based on the image photographing angle.
제 7 항에 있어서,
상기 복수의 개체를 검출하는 단계는,
상기 깊이 임계값 이상의 깊이 값을 갖는 영역을 개체로 검출하고, 상기 깊이 임계값 미만의 깊이 값을 갖는 영역을 배경으로 처리하는 축사 개체 탐지 방법.
8. The method of claim 7,
Wherein the detecting the plurality of entities comprises:
Detecting an area having a depth value greater than or equal to the depth threshold value as an entity and processing an area having a depth value less than the depth threshold value as a background.
KR1020150180702A 2015-12-17 2015-12-17 Apparatus and method for detecting entity in pen Active KR101793790B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150180702A KR101793790B1 (en) 2015-12-17 2015-12-17 Apparatus and method for detecting entity in pen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150180702A KR101793790B1 (en) 2015-12-17 2015-12-17 Apparatus and method for detecting entity in pen

Publications (2)

Publication Number Publication Date
KR20170072491A KR20170072491A (en) 2017-06-27
KR101793790B1 true KR101793790B1 (en) 2017-11-20

Family

ID=59514733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150180702A Active KR101793790B1 (en) 2015-12-17 2015-12-17 Apparatus and method for detecting entity in pen

Country Status (1)

Country Link
KR (1) KR101793790B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102172347B1 (en) * 2019-11-11 2020-10-30 (주)이지팜 Method and system for determining health status of farm livestock
KR20240133322A (en) 2023-02-28 2024-09-04 국립한밭대학교 산학협력단 Livestock number counting system and its method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102009677B1 (en) * 2017-09-13 2019-08-12 (주)제이케이데이터시스템즈 System and Method for measuring weight of poultry based on pattern recognition
CN113449638B (en) * 2021-06-29 2023-04-21 北京新希望六和生物科技产业集团有限公司 Pig image ideal frame screening method based on machine vision technology
CN116758017A (en) * 2023-06-02 2023-09-15 北京工业大学 A visual real-time detection method for the precise quantity and abnormality of bagged foods densely arranged vertically on the assembly line

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336139B1 (en) 2012-06-11 2013-12-05 동의대학교 산학협력단 System and method for motion estimating using depth camera
KR101568979B1 (en) 2014-05-22 2015-11-13 고려대학교 산학협력단 Cattle monitoring system and method using depth information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336139B1 (en) 2012-06-11 2013-12-05 동의대학교 산학협력단 System and method for motion estimating using depth camera
KR101568979B1 (en) 2014-05-22 2015-11-13 고려대학교 산학협력단 Cattle monitoring system and method using depth information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102172347B1 (en) * 2019-11-11 2020-10-30 (주)이지팜 Method and system for determining health status of farm livestock
KR20240133322A (en) 2023-02-28 2024-09-04 국립한밭대학교 산학협력단 Livestock number counting system and its method

Also Published As

Publication number Publication date
KR20170072491A (en) 2017-06-27

Similar Documents

Publication Publication Date Title
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
JP6825569B2 (en) Signal processor, signal processing method, and program
KR101793790B1 (en) Apparatus and method for detecting entity in pen
US7684590B2 (en) Method of recognizing and/or tracking objects
KR101766603B1 (en) Image processing apparatus, image processing system, image processing method, and computer program
US9934442B2 (en) Passenger counting device, passenger counting method, and program recording medium
US20190197667A1 (en) Computing high-resolution depth images using machine learning techniques
US6956469B2 (en) Method and apparatus for pedestrian detection
JP6125188B2 (en) Video processing method and apparatus
KR100879623B1 (en) Automated Wide Area Surveillance System Using PTZ Camera and Its Method
US20110116684A1 (en) System and method for visually tracking with occlusions
US10692225B2 (en) System and method for detecting moving object in an image
EP2602761A1 (en) Object detection device, object detection method, and program
CA3066502A1 (en) Determining positions and orientations of objects
US9619895B2 (en) Image processing method of vehicle camera and image processing apparatus using the same
CN106228570B (en) A kind of Truth data determines method and apparatus
US9747507B2 (en) Ground plane detection
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
KR20170120010A (en) Image acquiring device and methid of the same
Naser et al. Shadowcam: Real-time detection of moving obstacles behind a corner for autonomous vehicles
KR102424098B1 (en) Drone detection apparatus using deep learning and method thereof
CN109784315B (en) Tracking detection method, device and system for 3D obstacle and computer storage medium
Korkalo et al. Auto-calibration of depth camera networks for people tracking
JP6275022B2 (en) Image monitoring device
KR101827114B1 (en) Apparatus and method for detecting proximal entity in pen

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20151217

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20170420

Patent event code: PE09021S01D

PG1501 Laying open of application
N231 Notification of change of applicant
PN2301 Change of applicant

Patent event date: 20170721

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170929

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20171030

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20171030

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20201026

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20211018

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20230209

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee