[go: up one dir, main page]

KR20130022878A - An enhanced system for measuring flying position and velocity of globe shaped object using the infrared sensor and the camera sensor - Google Patents

An enhanced system for measuring flying position and velocity of globe shaped object using the infrared sensor and the camera sensor Download PDF

Info

Publication number
KR20130022878A
KR20130022878A KR1020110085868A KR20110085868A KR20130022878A KR 20130022878 A KR20130022878 A KR 20130022878A KR 1020110085868 A KR1020110085868 A KR 1020110085868A KR 20110085868 A KR20110085868 A KR 20110085868A KR 20130022878 A KR20130022878 A KR 20130022878A
Authority
KR
South Korea
Prior art keywords
flying object
camera sensor
flight
flying
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020110085868A
Other languages
Korean (ko)
Inventor
김경래
Original Assignee
김경래
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김경래 filed Critical 김경래
Priority to KR1020110085868A priority Critical patent/KR20130022878A/en
Publication of KR20130022878A publication Critical patent/KR20130022878A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/10Positions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/30Speed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/805Optical or opto-electronic sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/807Photo cameras

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 비행물체가 자신의 비행경로와 교차되도록 형성된 카메라센서부의 촬영영역을 통과하면서 촬영되는 영상내의 비행물체 투영영상을 분석하여 비행물체의 비행위치와 비행속도를 계산하고 이를 통하여 비행물체의 비행궤도를 파악할 수 있도록 하는 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템에 관한 것으로 비행물체의 출발시점을 감지하는 적외선센서를 포함하는 적외선센서부; 비행물체의 비행경로와 교차되는 영역을 조사하는 카메라센서를 포함하는 카메라센서부; 및 카메라센서부에서 촬영된 영상을 분석하여 비행물체의 비행위치와 비행속도를 계산하는 컴퓨터처리부를 포함한다.The present invention calculates the flight position and flight speed of the flying object by analyzing the flying object projection image in the image taken while passing through the shooting area of the camera sensor unit formed so that the flying object intersects the flight path of the flying object It relates to a flight position and flight speed measurement system of the flying object using an infrared sensor and a camera sensor to determine the orbit, the infrared sensor unit including an infrared sensor for detecting the starting point of the flying object; A camera sensor unit including a camera sensor for inspecting an area intersecting the flight path of the flying object; And a computer processing unit for calculating a flying position and a flying speed of the flying object by analyzing the image photographed by the camera sensor unit.

Description

적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템{An Enhanced System for Measuring Flying Position and Velocity of Globe Shaped Object Using the Infrared Sensor and the Camera Sensor}{An Enhanced System for Measuring Flying Position and Velocity of Globe Shaped Object Using the Infrared Sensor and the Camera Sensor}

본 발명은 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템에 관한 것으로, 더욱 상세하게는 비행물체가 자신의 비행경로와 교차되도록 형성된 카메라센서부의 촬영영역을 통과하면서 발생시키는 비행물체 투영영상을 분석하여 비행물체의 비행위치 및 비행속도를 계산하고 이를 통하여 비행물체의 비행궤도를 파악할 수 있도록 하는 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템에 관한 것이다.The present invention relates to a flight position and flight speed measurement system of a flying object using an infrared sensor and a camera sensor, and more particularly, a flight generated while passing through a photographing area of the camera sensor unit formed so that the flying object intersects with its own flight path. The present invention relates to a flight position and flight speed measurement system of a flying object using an infrared sensor and a camera sensor that calculates the flying position and the flying speed of the flying object by analyzing the projection image of the flying object.

일반적으로 비행하는 물체의 비행궤도를 파악하기 위해서는 비행물체의 순간 비행위치 및 비행속도를 측정한 후 이를 분석하여 비행물체의 전체적인 비행궤도를 파악하게 된다. In general, in order to determine the flight trajectory of the flying object, the overall flight trajectory of the flying object is obtained by measuring the instantaneous flight position and the flying speed of the flying object and analyzing the same.

비행물체의 순간 비행위치 및 비행속도를 측정하기 위한 방법으로는 다수의 광센서를 이용하는 방법이 많이 사용되는데 이러한 광센서를 이용하여 비행물체의 비행궤도를 예측하는 시스템은 예를 들면 골프 시뮬레이션 시스템과 같이 비행물체의 비행궤도를 정확히 예측하여야 하는 분야에서 많이 이용된다.As a method for measuring the instantaneous flight position and flight speed of a flying object, a number of optical sensors are used. A system for predicting the flight trajectory of a flying object using the optical sensor is, for example, a golf simulation system. Likewise, it is widely used in the field that must accurately predict the flight trajectory of the flying object.

이러한 수발광센서를 이용하여 비행물체의 비행궤도를 측정하는 시스템의 일례로 대한민국 공개특허 제0483666호의 광막을 이용한 원형물체의 비행속도 및 위치 측정시스템이 있는데 도 1은 이 시스템의 구조를 나타낸 것이다.An example of a system for measuring flight trajectory of a flying object using such a light emitting sensor is a flight speed and position measuring system of a circular object using a light curtain of Korean Patent Laid-Open Publication No. 0483666. FIG. 1 shows the structure of the system.

도 1에 도시된 바와 같이 이 시스템은 원형물체의 비행경로와 교차되는 광막을 조사하는 광막발생기를 포함하는 광막발생부(100); 광막발생부(100)로부터 조사되는 광막과 광막을 통과하는 원형물체에 의해 형성되는 광막의 그림자를 감지하는 수광센서를 포함하는 수광센서부(200); 및 수광센서부(200)로부터 출력되는 신호 정보를 분석하여 원형물체의 순간 비행위치와 비행속도를 계산하는 컴퓨터처리부(300) 등으로 구성된다.As shown in FIG. 1, the system includes: a film generator 100 including a film generator for irradiating a film film that intersects a flight path of a circular object; A light receiving sensor unit 200 including a light receiving sensor for detecting a shadow of the light film formed by the light film emitted from the light film generating unit 100 and a circular object passing through the light film; And a computer processor 300 for analyzing the signal information output from the light receiving sensor unit 200 and calculating the instantaneous flight position and flight speed of the circular object.

앞에서 말한 수광센서는 광막발생기로부터 조사된 광막을 수신할 수 있도록 각각의 광막발생기와 대응되도록 설치된다. 따라서, 설치된 다수의 광막발생기 중 하나라도 조사하는 광막의 위치가 틀어져서 수광센서에 대응되지 않으면 원형물체의 비행경로를 감지할 수 없어 시스템 동작에 어려움이 있다.The above-mentioned light receiving sensor is installed to correspond to each film generator so as to receive the light film irradiated from the film generator. Therefore, if one of the plurality of film generators installed is not matched with the light receiving sensor because the position of the film is irradiated, it is difficult to detect the flight path of the circular object, which makes it difficult to operate the system.

또한, 수광센서부(200)는 각 센서 크기가 가지는 제약점으로 인하여 수광센서부당 200개 미만의 수광센서가 설치된다. 이는 비행하는 원형물체의 높이에 따라 수광센서로부터 출력되는 원형물체의 그림자 신호 정보의 차이가 크지 않아 비행경로 감지에 오차를 가져오는 문제점이 있다.In addition, the light receiving sensor unit 200 is provided with less than 200 light receiving sensors per light receiving sensor unit due to the limitations of each sensor size. This has a problem that the difference in the shadow signal information of the circular object output from the light receiving sensor according to the height of the flying circular object does not have a large error in detecting the flight path.

대한민국 공개특허 제0483666호Republic of Korea Publication No. 0483666

본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 비행물체의 비행경로에 카메라센서부를 설치하고 카메라센서부의 촬영영역을 통과하는 비행물체를 촬영하여 영상을 획득한 후 이를 분석하여 비행물체의 비행위치와 비행속도를 파악할 수 있도록 하고 측정된 비행물체의 비행위치와 비행속도를 분석하여 비행물체의 비행궤도를 예측할 수 있도록 하는 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템을 제공하는 것을 목적으로 한다.The present invention has been made in order to improve the prior art as described above, the camera sensor unit is installed in the flight path of the flying object and photographed the flying object passing through the shooting area of the camera sensor unit to obtain an image and then analyze the flying object Flight position and flight speed measurement using infrared sensor and camera sensor to predict flight trajectory and flight speed of flight object by analyzing flight position and flight speed of measured object. It is an object to provide a system.

상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여, 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템은 비행물체의 출발시점을 감지하는 적외선센서를 포함하는 적외선센서부; 상기 적외선센서부로부터 출력되는 상기 비행물체의 출발신호를 입력받아 촬영영역을 통과하는 상기 비행물체를 촬영하는 카메라센서를 포함하는 카메라센서부; 및 상기 카메라센서부로부터 출력되는 상기 비행물체의 영상신호를 분석하여 상기 비행물체의 비행위치와 비행속도를 산출하는 컴퓨터처리부를 포함한다.In order to achieve the above object and to solve the problems of the prior art, the flying position and flight speed measurement system of the flying object using the infrared sensor and the camera sensor according to an embodiment of the present invention is an infrared sensor for detecting the starting point of the flying object Infrared sensor unit comprising a; A camera sensor unit including a camera sensor for receiving the start signal of the flying object output from the infrared sensor unit and photographing the flying object passing through a shooting area; And a computer processor for analyzing a video signal of the flying object output from the camera sensor unit and calculating a flying position and a flying speed of the flying object.

또한, 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템에서 상기 카메라센서부는 상호 이격되어 배치되는 제1카메라센서와 제2카메라센서를 포함하되 상기 제1카메라센서와 제2카메라센서는 상기 제1카메라센서에서 감지되는 비행물체 투영영상의 중심점과 상기 제1카메라센서를 연결한 라인과 상기 제2카메라센서에서 감지되는 비행물체 투영영상의 중심점과 상기 제2카메라센서를 연결한 라인의 교차점이 발생될 수 있도록 좌우로 설치되는 것을 특징으로 한다.The camera sensor unit may include a first camera sensor and a second camera sensor spaced apart from each other in a flying position and a flying speed measuring system of a flying object using an infrared sensor and a camera sensor according to an embodiment of the present invention. The first camera sensor and the second camera sensor and the center point of the projection image of the flying object detected by the first camera sensor, the line connecting the first camera sensor and the center point of the projection image of the flying object detected by the second camera sensor and Characterized in that the left and right so that the intersection of the line connecting the second camera sensor can be generated.

또한, 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템에서 상기 컴퓨터처리부는 상기 카메라센서부의 각 카메라센서로부터 출력되는 영상신호를 배경영상과 비행물체 투영영상으로 분리하여 출력하는 영상전처리기; 및 상기 영상전처리기로부터 상기 비행물체 투영영상을 전달받아 상기 비행물체 투영영상의 중심점을 계산하고 상기 중심점과 해당 카메라센서를 연결하여 상기 비행물체가 위치하는 라인을 계산하며 상기 비행물체가 상기 각 라인을 통과한 시간을 측정하여 상기 비행물체의 평균속도를 계산하고 상기 각각의 라인 교차점을 계산하여 상기 비행물체의 현재위치를 파악하는 중앙처리기를 포함하는 것을 특징으로 한다.In addition, in the flight position and flight speed measurement system of the flying object using the infrared sensor and the camera sensor according to an embodiment of the present invention, the computer processing unit outputs an image signal output from each camera sensor of the camera sensor unit background image and the flying object An image preprocessor for separating and outputting the projection image; And receiving the projection object projection image from the image preprocessor, calculating a center point of the projection object projection image, and connecting the center point and the corresponding camera sensor. Calculate the location of the line and the flight object passed through each line It is characterized in that it comprises a central processor for calculating the average speed of the flying object by measuring the time and calculating the current position of the flying object by calculating the intersection of each line.

또한, 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템에서 상기 컴퓨터처리부는 상기 비행물체의 출발점과 비행위치, 비행속도를 통하여 상기 비행물체의 비행궤도를 계산하고 상기 비행궤도를 디스플레이로 출력하는 것을 특징으로 한다.In addition, the computer processing unit in the flying position and flight speed measurement system of the flying object using the infrared sensor and the camera sensor according to an embodiment of the present invention flying the flying object through the starting point and flight position, the flying speed of the flying object The trajectory is calculated and the flight trajectory is output to the display.

본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템에 따르면, 카메라센서부를 통하여 비행물체의 비행경로와 교차되는 촬영영역을 형성하고 촬영영역을 비행하는 비행물체를 감지하면 컴퓨터처리부를 통하여 비행물체 투영영상을 분석함으로써 비행물체의 비행위치 및 비행속도를 측정할 수 있고 이를 통하여 비행물체의 비행궤도를 정확히 파악할 수 있도록 하는 효과를 얻을 수 있다.According to the flying position and flight speed measurement system of a flying object using an infrared sensor and a camera sensor according to an embodiment of the present invention, forming a shooting area that intersects the flight path of the flying object through the camera sensor and flying the shooting area. When the flying object is detected, it is possible to measure the flying position and the flying speed of the flying object by analyzing the flying object projection image through the computer processing unit, thereby obtaining the effect of accurately determining the flight trajectory of the flying object.

또한, 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템은 간단한 구성으로 이루어져 저렴한 비용으로 시스템 구축이 가능함으로써 3차원 골프 시뮬레이션 시스템 등과 같은 다양한 분야에 활용될 수 있도록 하는 효과를 얻을 수 있다. In addition, the flight position and flight speed measurement system of the flying object using the infrared sensor and the camera sensor according to an embodiment of the present invention is made of a simple configuration and can be constructed at low cost to various fields such as three-dimensional golf simulation system The effect can be obtained to be utilized.

도 1은 종래기술의 구성도,
도 2는 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템의 구성도.
도 3은 본 발명의 일실시예에 따른 비행물체가 카메라센서부의 촬영영역을 비행하는 과정에서 촬영된 영상내에 형성되는 비행물체를 좌표로 나타낸 개념도.
도 4a는 본 발명의 일실시예에 따른 비행물체가 상부에 설치된 카메라센서의 촬영영역을 비행하는 과정에서 촬영된 영상내에 형성되는 비행물체를 좌표로 나타낸 개념도.
도 4b는 본 발명의 일실시예에 따른 비행물체가 상부와 측부에 설치된 카메라센서의 촬영영역을 비행하는 과정에서 촬영된 영상내에 형성되는 비행물체를 좌표로 나타낸 개념도.
도 5는 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템이 적용된 3차원 골프 시뮬레이션 시스템의 설치도.
도 6은 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템이 적용된 3차원 골프 시뮬레이션 시스템의 블록도.
도 7a는 도 6의 3차원 골프 시뮬레이션 시스템의 적외선센서부와 카메라센서부의 평면 배치도.
도 7b는 도 6의 3차원 골프 시뮬레이션 시스템의 적외선센서부의 감지영역과 카메라센서부의 촬영영역을 도시한 도면.
도 7c는 도 6의 3차원 골프 시뮬레이션 시스템의 적외선센서부와 카메라센서부의 정면 배치도.
도 8a는 본 발명의 일실시예에 따른 제1카메라센서에 의해 형성되는 촬영영역과 제2카메라센서에 의해 형성되는 촬영영역의 교차영역을 통과하는 골프공의 비행위치를 나타낸 도면.
도 8b는 도 8a의 제1카메라센서의 골프공 투영영상 중심점과 제1카메라센서를 연결한 라인과 제2카메라센서의 골프공 투영영상 중심점과 제2카메라센서를 연결한 라인을 Y축상에서 이동시킴으로써 발생되는 교차점을 좌표로 나타낸 도면.
도 9는 본 발명의 일실시예에 따른 3차원 골프 시뮬레이션 시스템의 동작과정을 나타낸 흐름도.
1 is a block diagram of a prior art;
2 is a block diagram of a flight position and flight speed measurement system of a flying object using an infrared sensor and a camera sensor according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a flying object formed in an image captured in a process of flying a flying object in a photographing area of a camera sensor unit according to an embodiment of the present invention with coordinates;
Figure 4a is a conceptual view showing the coordinates of the flying object formed in the image taken in the process of flying the shooting area of the camera sensor is installed above the flying object according to an embodiment of the present invention.
Figure 4b is a conceptual view showing the coordinates of the flying object formed in the image taken in the process of flying the flying object in the photographing area of the camera sensor installed in the upper and side according to an embodiment of the present invention.
Figure 5 is an installation of a three-dimensional golf simulation system applied to the flight position and flight speed measurement system of the flying object using the infrared sensor and the camera sensor according to an embodiment of the present invention.
Figure 6 is a block diagram of a three-dimensional golf simulation system applied to the flight position and flight speed measurement system of the flying object using an infrared sensor and a camera sensor according to an embodiment of the present invention.
Figure 7a is a plan view of the infrared sensor unit and the camera sensor of the three-dimensional golf simulation system of FIG.
FIG. 7B is a diagram illustrating a sensing region of an infrared sensor unit and a photographing region of a camera sensor unit of the 3D golf simulation system of FIG. 6.
7C is a front layout view of the infrared sensor unit and the camera sensor unit of the 3D golf simulation system of FIG. 6.
8A is a view showing a flight position of a golf ball passing through an intersection area of a photographing area formed by a first camera sensor and a photographing area formed by a second camera sensor according to an embodiment of the present invention.
8B illustrates a line connecting the golf ball projection image center point and the first camera sensor of the first camera sensor of FIG. 8A and a line connecting the golf ball projection image center point and the second camera sensor of the second camera sensor on the Y axis. A diagram showing coordinates generated by the coordinates.
9 is a flow chart showing the operation of the three-dimensional golf simulation system according to an embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템의 구성도이다.2 is a block diagram of a flight position and flight speed measurement system of a flying object using an infrared sensor and a camera sensor according to an embodiment of the present invention.

본 발명은 비행물체의 출발시점을 감지하는 적외선센서를 포함하는 적외선센서부(100); 적외선센서부(100)로부터 출력되는 비행물체의 출발신호를 입력받아 촬영영역을 통과하는 비행물체를 촬영하는 카메라센서를 포함하는 카메라센서부(200); 및 카메라센서부(200)로부터 출력되는 비행물체의 영상신호를 분석하여 비행물체의 비행위치와 비행속도를 산출하는 컴퓨터처리부(300)를 포함한다.The present invention is an infrared sensor unit 100 including an infrared sensor for detecting the starting point of the flying object; A camera sensor unit 200 including a camera sensor receiving a start signal of the flying object output from the infrared sensor unit 100 and photographing the flying object passing through the photographing area; And a computer processor 300 analyzing the image signal of the flying object output from the camera sensor unit 200 to calculate the flying position and the flying speed of the flying object.

적외선센서부(100)는 비행물체의 출발과 함께 카메라센서부(200)에서 촬영을 시작할 수 있게 비행물체의 출발점과 가장 가까운 카메라센서부(200)의 영역 시작점에 설치될 수 있다. The infrared sensor unit 100 may be installed at an area starting point of the camera sensor unit 200 that is closest to the starting point of the flying object so that the camera sensor unit 200 starts shooting with the start of the flying object.

카메라센서부(200)는 상호 이격되어 배치되는 제1카메라센서(210)와 제2카메라센서(220)를 포함한다. 제1카메라센서(210)와 제2카메라센서(220)는 제1카메라센서(210)에서 감지되는 비행물체 투영영상의 중심점을 제1카메라센서(210)와 연결한 라인과 제2카메라센서(220)에서 감지되는 비행물체 투영영상의 중심점을 제2카메라(220)와 연결한 라인의 교차점이 발생될 수 있도록 좌우로 설치될 수 있다. The camera sensor unit 200 includes a first camera sensor 210 and a second camera sensor 220 spaced apart from each other. The first camera sensor 210 and the second camera sensor 220 are connected to the center point of the projection image of the flying object detected by the first camera sensor 210 with the first camera sensor 210 and the second camera sensor ( The center point of the projection image of the flying object detected by 220 may be installed to the left and right so that an intersection point of a line connecting the second camera 220 may be generated.

컴퓨터처리부(300)는 카메라센서부(200)로부터 출력되는 영상신호를 배경영상과 비행물체 투영영상으로 분리하는 영상전처리기(310); 영상전처리기(310)에서 전달받은 비행물체 투영영상을 분석하여 비행물체 투영영상의 중심점을 두 개의 카메라센서(210)(220)에 대하여 각각 계산하고 이 중심점과 해당 카메라센서(210)(220)를 연결하여 비행물체가 위치하는 두 개의 라인을 계산하며 비행물체가 각 라인을 통과한 시간을 측정하여 비행물체의 평균속도를 계산하고 각각의 라인 교차점을 계산하여 비행물체의 정확한 현재위치를 파악하는 중앙처리기(320)를 포함할 수 있다.The computer processing unit 300 includes an image preprocessor 310 which separates an image signal output from the camera sensor unit 200 into a background image and a flying object projection image; By analyzing the flying object projection image transmitted from the image preprocessor 310, the center point of the flying object projection image is calculated for each of the two camera sensors 210 and 220, and the center point and the corresponding camera sensor 210 and 220 are calculated. Calculate the two lines where the flying object is located by connecting them, calculate the average speed of the flying object by measuring the time that the flying object has passed through each line, and calculate the intersection of each line to determine the exact current position of the flying object. May include a processor 320.

컴퓨터처리부(300)는 비행물체의 출발점과 비행위치, 비행속도를 통하여 비행물체의 비행궤도를 계산하고 이를 디스플레이(400)로 출력할 수 있다.The computer processor 300 may calculate a flight trajectory of the flying object based on the starting point, the flying position, and the flying speed of the flying object, and output the same to the display 400.

도 3은 본 발명의 일실시예에 따른 비행물체가 카메라센서부의 촬영영역을 비행하는 과정에서 촬영된 영상내에 형성되는 비행물체를 좌표로 나타낸 개념도이다. 3 is a conceptual view showing coordinates of a flying object formed in an image captured in the process of flying a flying object in a photographing area of a camera sensor unit according to an exemplary embodiment of the present invention.

도 3에 도시된 Y축은 비행물체의 출발점으로부터의 거리를 나타내는 것으로 비행물체의 출발점과 카메라센서부(200)의 촬영영역과의 거리를 의미한다. X축은 비행물체의 좌우측 비행방향을 나타내는 것으로 카메라센서부(200)의 촬영영역 폭을 의미한다. Z축은 비행물체의 비행높이를 나타낸다. 도 3에서 알 수 있듯이 비행물체는 원형물체일 수 있다.The Y axis shown in FIG. 3 represents the distance from the starting point of the flying object and means the distance between the starting point of the flying object and the photographing area of the camera sensor unit 200. The X axis represents the left and right flight directions of the flying object, and means the width of the photographing area of the camera sensor unit 200. The Z axis represents the flight height of the flying object. As can be seen in Figure 3 the flying object may be a circular object.

도 3에 도시된 바와 같이, 카메라센서부(200)의 카메라센서(A)로부터 바닥면(B~C)으로 형성되는 촬영영역을 비행물체가 통과하는 경우 비행물체는 영상내에 투영되며 발생된 비행물체 투영영상(D~E)은 컴퓨터처리부(300)로 전송될 수 있다.As shown in Figure 3, when the flying object passes through the shooting area formed from the camera sensor (A) of the camera sensor unit 200 to the bottom (B ~ C), the flying object is projected in the image and generated flight The object projection images D to E may be transmitted to the computer processor 300.

이 비행물체 투영영상(D~E)을 통하여 컴퓨터처리부(300)는 비행물체의 비행위치를 파악하게 되는데, 즉, 컴퓨터처리부(300)는 비행물체가 감지되는 영상내의 비행물체 투영영역(D~E)의 중심점(F)을 계산하게 되며 이 중심점(F)을 해당 카메라센서(A)와 연결한 라인에 비행물체가 위치하는 것을 파악할 수 있다. The computer processing unit 300 determines the flying position of the flying object through the flying object projection images D through E. That is, the computer processing unit 300 determines the flying object projection area D through the image in which the flying object is detected. The center point F of E) is calculated and the flying object is located on the line connecting the center point F with the corresponding camera sensor A.

또한, 컴퓨터처리부(300)는 비행물체의 직경(F)을 미리 알고 있다면 비행물체의 직경에 따라 비행물체 투영영상(D~E)의 크기가 달라지고 이를 통하여 비행물체의 높이까지 계산할 수 있게 되어 비행물체의 정확한 위치((Xe,Ze))를 파악할 수 있다. In addition, if the computer processing unit 300 knows the diameter (F) of the flying object in advance, the size of the flying object projection image (D ~ E) is changed according to the diameter of the flying object, through which it is possible to calculate the height of the flying object. Know the exact position ((Xe, Ze)) of the flying object.

또한, 비행물체의 비행속도를 계산하는 방법은 상술한 Y축에 대하여 상호 이격되어 형성되는 두 개 이상의 카메라센서(210)(220)의 촬영영역을 통하여 계산될 수 있는데 비행물체가 촬영영역을 각각 통과하는 시간을 측정한 후 두 촬영영역 사이의 거리를 측정된 시간으로 나누게 되면 비행물체의 평균속도가 계산된다.In addition, the method of calculating the flying speed of the flying object may be calculated through the shooting areas of two or more camera sensors 210 and 220 which are formed spaced apart from each other with respect to the above-described Y axis. After measuring the passing time, the distance between the two shooting areas is divided by the measured time to calculate the average speed of the flying object.

도 4a는 본 발명의 일실시예에 따른 비행물체가 상부에 설치된 카메라센서의 촬영영역을 비행하는 과정에서 촬영된 영상내에 형성되는 비행물체를 좌표로 나타낸 개념도이다. 도 4b는 본 발명의 일실시예에 따른 비행물체가 상부와 측부에 설치된 카메라센서의 촬영영역을 비행하는 과정에서 촬영된 영상내에 형성되는 비행물체를 좌표로 나타낸 개념도이다. 4A is a conceptual diagram illustrating coordinates of a flying object formed in an image photographed in a process of flying a photographing area of a camera sensor installed at an upper portion of a flying object according to an embodiment of the present invention. Figure 4b is a conceptual diagram showing the coordinates of the flying object formed in the image taken during the flight of the flying object in the photographing area of the camera sensor installed in the upper and side according to an embodiment of the present invention.

도 3에서 설명한 바와 같이, 컴퓨터처리부(300)는 비행물체의 직경을 미리 알고 있으면 비행물체에 의해 형성되는 비행물체 투영영상의 크기를 분석하여 비행물체의 정확한 위치를 파악할 수 있으나 이를 위해서는 정밀한 계산을 통하여 오차의 범위를 최소화하여야 하기 때문에 카메라센서(210)(220)간의 위치 구성이 복잡해지고 제어가 어려워지는 문제점이 발생된다. 따라서, 본 발명의 일실시예를 따르면 교차영역이 형성되는 두 개의 촬영영역을 통하여 비행물체의 정확한 위치를 파악할 수 있도록 한다.As described in FIG. 3, the computer processing unit 300 may determine the exact position of the flying object by analyzing the size of the flying object projection image formed by the flying object if the diameter of the flying object is known in advance. Since the range of the error must be minimized, the positional configuration between the camera sensors 210 and 220 becomes complicated and control becomes difficult. Therefore, according to an embodiment of the present invention, it is possible to determine the exact position of the flying object through the two photographing areas in which the cross region is formed.

도 4a에 도시된 바와 같이, 두 개의 카메라센서(A1)(A2)는 바닥면(X축)에 대하여 소정의 거리로 이격되어 배치됨으로써 각각의 촬영영역에 교차영역이 형성되는데 바닥면(B~C)에는 이 교차영역을 통과하는 비행물체에 의한 비행물체 투영영역(D1 ~E1)(D2 ~E2)이 발생하게 된다. As shown in FIG. 4A, two camera sensors A 1 and A 2 are spaced apart from each other by a predetermined distance with respect to the bottom surface (X axis) to form an intersection area in each photographing area. In B to C), the flying object projection area D 1 to E 1 (D 2 to E 2 ) generated by the flying object passing through the intersection area is generated.

따라서, 바닥면(B~C)에 발생되는 각 비행물체 투영영상(D1~E1)(D2~E2)의 중심점(F1)(F2)을 계산한 후 이 두 중심점(F1)(F2)을 각각 카메라센서(A1)(A2)와 연결하면 비행물체가 위치하는 두 개의 라인이 형성되며 이 두 라인이 교차되는 지점을 계산하면 비행물체의 정확한 위치를 파악할 수 있다.Therefore, after calculating the center point (F 1 ) (F 2 ) of each projection object image D 1 ~ E 1 (D 2 ~ E 2 ) generated on the floor (B ~ C), these two center points (F) 1 ) (F 2 ) is connected to camera sensor (A 1 ) (A 2 ) respectively to form two lines where the flying objects are located. By calculating the intersection of these two lines, you can determine the exact location of the flying objects. have.

교차영역이 형성되도록 각각의 촬영영역을 형성하는 카메라센서(A1)(A2)는 도 4b와 같이 위치를 변경하여 구성할 수도 있는데 이때에는 동일 Y축상에 X축과 Z축에 각각의 바닥면(B1~C1)(B2~C2)을 바라보게 카메라센서(A1)(A2)를 설치해야 한다. 이를 통하여 비행물체의 위치를 파악하는 과정은 도 4a의 과정과 마찬가지로 바닥면(B1-C1)(B2-C2)에 투영되는 비행물체 투영영상(D1-E1)(D2-E2)의 각 중심점(F1)(F2)을 계산한 후 이를 카메라센서(A1)(A2)와 각각 연결하여 교차되는 지점을 계산함으로써 파악될 수 있다. Camera sensors A 1 and A 2 , which form the respective photographing areas so as to form an intersecting area, may be configured by changing positions as shown in FIG. 4B. In this case, each floor is located on the same Y axis on the X and Z axes. The camera sensor (A 1 ) (A 2 ) should be installed facing the surface (B 1 ~ C 1 ) (B 2 ~ C 2 ). Through this process, like the process of Figure 4a to determine the position of the flying object bottom surface (B 1 -C 1) (B 2 -C 2) flying object projection images (D 1 -E 1) it is projected (D 2 After calculating each of the center point (F 1 ) (F 2 ) of -E 2 ) can be identified by connecting the camera sensor (A 1 ) (A 2 ) and calculating the intersection point.

도 5는 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템이 적용된 3차원 골프 시뮬레이션 시스템의 설치도이다. 도 6은 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템이 적용된 3차원 골프 시뮬레이션 시스템의 블록도이다.5 is an installation diagram of a three-dimensional golf simulation system to which the flight position and flight speed measurement system of a flying object using an infrared sensor and a camera sensor according to an embodiment of the present invention. FIG. 6 is a block diagram of a three-dimensional golf simulation system to which a flight position and flight speed measurement system of a flying object is applied using an infrared sensor and a camera sensor according to an embodiment of the present invention.

본 발명의 일실시예에 따른 3차원 골프 시뮬레이션 시스템은 적외선센서부(100), 카메라센서부(200), 컴퓨터처리부(300), 및 디스플레이(400)를 포함하여 이루어질 수 있다. 적외선센서부(100)는 적외선센서(110)를 포함하고 골프공의 출발점을 향하게 설치될 수 있다. 카메라센서부(200)는 제1카메라센서(210)와 제2카메라센서(220)를 포함하고 적외선센서부(100)로부터 골프공의 출발신호를 전달받아 골프공을 촬영하기 시작한다.3D golf simulation system according to an embodiment of the present invention may include an infrared sensor 100, a camera sensor 200, a computer processing unit 300, and a display 400. The infrared sensor unit 100 may include an infrared sensor 110 and may be installed to face the starting point of the golf ball. The camera sensor unit 200 includes a first camera sensor 210 and a second camera sensor 220 and receives the start signal of the golf ball from the infrared sensor unit 100 to start shooting the golf ball.

도 7a는 도 6의 3차원 골프 시뮬레이션 시스템의 적외선센서부와 카메라센서부의 평면 배치도이다. 도 7b는 도 6의 3차원 골프 시뮬레이션 시스템의 적외선센서부의 감지영역과 카메라센서부의 촬영영역이다. 도 7c는 도 6의 3차원 골프 시뮬레이션 시스템의 적외선센서부와 카메라센서부의 정면 배치도이다.FIG. 7A is a plan layout view of an infrared sensor unit and a camera sensor unit of the 3D golf simulation system of FIG. 6. 7B is a sensing area of an infrared sensor part and a photographing area of a camera sensor part of the 3D golf simulation system of FIG. 6. FIG. 7C is a front layout view of the infrared sensor unit and the camera sensor unit of the 3D golf simulation system of FIG. 6.

적외선센서부(100)는 카메라센서부(200)의 상부에 위치되는데 적외선센서(110)와 제1카메라센서(210), 제2카메라센서(220)는 각각 소정의 거리로 이격되어 설치되어 제1카메라센서(210)와 제2카메라센서(220) 사이에서 골프공의 비행경로와 교차되는 촬영영역을 형성한다. The infrared sensor unit 100 is positioned above the camera sensor unit 200, and the infrared sensor 110, the first camera sensor 210, and the second camera sensor 220 are spaced apart by a predetermined distance, respectively. Between the first camera sensor 210 and the second camera sensor 220 forms a shooting area that intersects the flight path of the golf ball.

예를 들어, 적외선센서(110)의 감지영역 폭(a)을 533mm로 설정하고 제1카메라센서(210)와 제2카메라센서(220)의 촬영영역 폭(b)을 1066mm로 설정할 수 있다. 또한, 적외선센서(110)와 제1카메라센서(210)의 촬영영역 간격(c)은 500mm로 설정하고 제1카메라센서(210)와 제2카메라센서(220)의 촬영영역 간격(d)은 60mm로 설정할 수 있다.For example, the sensing area width a of the infrared sensor 110 may be set to 533 mm, and the shooting area width b of the first camera sensor 210 and the second camera sensor 220 may be set to 1066 mm. In addition, the photographing area spacing c of the infrared sensor 110 and the first camera sensor 210 is set to 500 mm, and the photographing area spacing d of the first camera sensor 210 and the second camera sensor 220 is set to 500 mm. It can be set to 60mm.

이에 따라, 감지영역과 촬영영역에 대응되도록 상부에 설치되는 적외선센서(110)와 각 카메라센서(210)(220)간의 길이간격(c)(d)이 설정되며 각 카메라센서(210)(220)의 폭간격(e)은 적외선센서(110)를 기준으로 제1카메라센서(210)와 제2카메라센서(220)가 좌우로 200mm씩 이격되어 설치될 수 있다. 또한, 적외선센서부(100)와 카메라센서부(200)의 바닥면의 높이간격(h)은 3000mm로 설정할 수 있다. Accordingly, the length interval (c) (d) between the infrared sensor 110 and each camera sensor 210, 220 is installed on the upper portion so as to correspond to the sensing area and the photographing area is set and each camera sensor 210, 220 Width interval (e) of the) may be installed by the first camera sensor 210 and the second camera sensor 220 spaced 200mm to the left and right relative to the infrared sensor 110. In addition, the height interval h of the bottom surface of the infrared sensor unit 100 and the camera sensor unit 200 may be set to 3000 mm.

상술한 적외선센서부(100)와 카메라센서부(200)의 설치간격을 나타내는 각 수치는 본 발명을 한정하는 것이 아니며 3차원 골프 시뮬레이션 시스템의 규모나 특징에 따라 적절히 변형되어 설치될 수 있다.The numerical values representing the installation intervals of the infrared sensor unit 100 and the camera sensor unit 200 are not limited to the present invention and may be modified and installed according to the scale or characteristics of the three-dimensional golf simulation system.

컴퓨터처리부(300)는 영상처리기(310)와 중앙처리기(320)를 포함할 수 있다. 영상전처리기(310)는 제1카메라센서(210)와 제2카메라센서(220)의 출력영상을 배경영상과 골프공 투영영상으로 분리하여 중앙처리기(320)로 전송한다. 중앙처리기(320)는 영상전처리기(310)로부터 전송되는 골프공 투영영상을 분석하여 골프공의 비행위치 및 비행속도를 계산하게 된다.The computer processor 300 may include an image processor 310 and a central processor 320. The image preprocessor 310 separates the output image of the first camera sensor 210 and the second camera sensor 220 into a background image and a golf ball projection image, and transmits the output image to the central processor 320. The central processor 320 analyzes the golf ball projection image transmitted from the image preprocessor 310 to calculate the flight position and flight speed of the golf ball.

중앙처리기(320)는 골프공의 비행속도를 계산하기 위하여 제1카메라센서(210)와 제2카메라센서(220)로부터 획득된 골프공 투영영상의 중심점을 구하고 골프공이 그 중심점을 통과한 시간을 측정하여 평균시간을 구한다. 즉, 적외선센서(110)와 제1카메라센서(210) 사이를 통과하는 골프공의 평균속도를 구하고 제1카메라센서(210)와 제2카메라센서(220) 사이를 통과하는 골프공의 평균속도를 구한 후, 두 평균속도의 평균를 구함으로써 전체 평균속도를 구한다.The central processor 320 obtains the center point of the golf ball projection image obtained from the first camera sensor 210 and the second camera sensor 220 to calculate the flight speed of the golf ball, and calculates the time that the golf ball passes through the center point. Measure and find the average time. That is, the average speed of the golf ball passing between the infrared sensor 110 and the first camera sensor 210 is obtained and the average speed of the golf ball passing between the first camera sensor 210 and the second camera sensor 220. After calculating, calculate the average of two average speeds to find the total average speed.

이를 수식으로 표현하면 수학식 1 내지 수학식 3과 같다.This may be expressed as an equation (1) through (3).

수학식 1Equation 1

Figure pat00001
Figure pat00001

여기서, V1 -2은 적외선센서(110)와 제1카메라센서(210) 사이의 평균속도이고 S1은 적외선센서(110)와 제1카메라센서(120)간의 간격(c+d)이다. 또한, T1은 골프공이 적외선센서(110)를 통과한 시간이고 T2은 골프공이 제1카메라센서(210)를 통과한 시간이다.Here, V 1 -2 is the distance (c + d) between the infrared sensor 110 and the first average velocity and the S 1 between the camera sensor 210 is an infrared sensor 110 and a first camera sensor 120. In addition, T 1 is the time the golf ball passed the infrared sensor 110 and T 2 is the time the golf ball passed the first camera sensor 210.

수학식 2Equation 2

Figure pat00002
Figure pat00002

여기서, V2 -3은 제1카메라센서(210)와 제2카메라센서(220) 사이의 평균속도이고 S2은 제1카메라센서(210)와 제2카메라센서(220)간의 간격(d)이다. 또한, T2은 골프공이 제1카메라센서(210)를 통과한 시간이고 T3은 골프공이 제2카메라센서(220)를 통과한 시간이다.Here, V 2 -3 first camera sensor 210 and the second camera sensor an average speed of between 220 and the distance between the sensor S 2, the first camera 210 and the second camera sensor 220 (d) to be. In addition, T 2 is the time that the golf ball passed through the first camera sensor 210 and T 3 is the time when the golf ball passed through the second camera sensor 220.

따라서, 골프공의 평균속도는 수학식 3과 같다.Therefore, the average speed of the golf ball is as shown in equation (3).

수학식 3Equation 3

Figure pat00003
.
Figure pat00003
.

중앙처리기(320)는 골프공의 비행속도뿐만 아니라 골프클럽의 이동속도도 계산할 수 있는데 골프클럽의 이동속도는 골프공의 비행속도 계산과정과 동일한 과정을 통하여 획득된다. 또한, 상술한 과정으로 계산되는 골프클럽과 골프공의 이동속도는 촬영영역을 통과하는 물체의 투영영상 크기를 계산함으로써 구분될 수 있다.The central processor 320 may calculate the moving speed of the golf club as well as the flying speed of the golf ball. The moving speed of the golf club is obtained through the same process as that of calculating the flying speed of the golf ball. In addition, the moving speeds of the golf club and the golf ball calculated by the above-described process can be distinguished by calculating the projected image size of the object passing through the shooting area.

도 8a는 본 발명의 일실시예에 따른 제1카메라센서에 의해 형성되는 촬영영역과 제2카메라센서에 의해 형성되는 촬영영역의 교차영역을 통과하는 골프공의 비행위치를 나타낸 것이다.8A illustrates a flight position of a golf ball passing through an intersection area between a photographing area formed by a first camera sensor and a photographing area formed by a second camera sensor according to an embodiment of the present invention.

골프공은 도 8a에 도시된 바와 같이, 제1카메라센서(A1)의 골프공 투영영상 중심점과 제1카메라센서(A1)를 연결하는 라인과 제2카메라센서(A2)의 골프공 투영영상 중심점과 제2카메라센서(A2)를 연결하는 라인에 위치하게 된다. 따라서, 골프공이 위치하는 각 라인의 교차점을 찾게 되면 골프공의 공간상 위치를 정확히 파악할 수 있다.A golf ball as shown in Figure 8a, the first of the camera sensor (A 1) a golf ball projection image center point and first camera sensor (A 1) line and the second camera sensor (A 2) for connecting the golf ball It is positioned on the line connecting the projection image center point and the second camera sensor (A 2 ). Therefore, if the intersection of each line where the golf ball is located can be found accurately the spatial position of the golf ball.

도 4b에서 설명한 바와 같이 골프공이 위치하는 각 라인이 동일한 Y축값을 갖도록 제1카메라센서(210)와 제2카메라센서(220)가 구성되어야만 정확한 교차점이 발생되나 제1카메라센서(210)와 제2카메라센서(220)의 Y축값이 소정의 차이가 발생되도록 제1카메라센서(210)와 제2카메라센서(220)가 상호 이격되어 설치되는 경우 각각의 라인 교차점이 발생하지 않는다. As described in FIG. 4B, the first camera sensor 210 and the second camera sensor 220 must be configured so that each line on which the golf ball is located has the same Y-axis value, but an accurate intersection is generated. When the first camera sensor 210 and the second camera sensor 220 are spaced apart from each other so that a predetermined difference occurs in the Y-axis value of the two camera sensors 220, each line crossing point does not occur.

하지만, 본 발명의 일실시예에 따르면 제1카메라센서(210)와 제2카메라센서(220)의 촬영영역 간격(d)이 60mm로 충분히 작아 두 위치 사이에서 골프공의 궤적 변화가 미미하게 발생함으로 양 라인을 Y축에 대하여 상호 30mm씩 이동시키면 교차점이 발생되어 이 교차점를 계산할 수 있다. However, according to the exemplary embodiment of the present invention, the distance between the first camera sensor 210 and the second camera sensor 220 is sufficiently small as 60 mm, so that the trajectory change of the golf ball occurs slightly between the two positions. Therefore, if both lines are moved by 30mm with respect to the Y axis, an intersection point is generated and this intersection point can be calculated.

도 8b는 도 8a의 제1카메라센서의 골프공 투영영상 중심점과 제1카메라센서를 연결한 라인과 제2카메라센서의 골프공 투영영상 중심점과 제2카메라센서를 연결한 라인을 Y축상에서 이동시킴으로써 발생되는 교차점을 좌표로 나타낸 것이다.8B illustrates a line connecting the golf ball projection image center point and the first camera sensor of the first camera sensor of FIG. 8A and a line connecting the golf ball projection image center point and the second camera sensor of the second camera sensor on the Y axis. It represents the intersection point generated by the coordinates.

도 8b에 도시된 바와 같이, 제1카메라센서(A1)의 좌표점((X3,Z3))과 제2카메라센서(A2)의 좌표점((X4,Z4))은 설치시 미리 알 수 있으며 제1카메라센서(A1)의 골프공 투영영상 중심점((X1,Z1))과 제2카메라센서(A2)의 골프공 투영영상 중심점((X2,Z2)) 또한 계산할 수 있으므로 각각의 라인 교차점은 수학식 4 내지 수학식 5와 같다. As shown in Figure 8b, the first coordinates of the camera sensor (A 1) point ((X3, Z3)) and the second camera sensor coordinate point ((X4, Z4)) of (A 2) is in advance at installation al number, and the first camera sensor (a 1) a golf ball projection image center point ((X1, Z1)) and the second camera sensor golf ball projection image center point ((X2, Z2)) of (a 2) may also be calculated for each The line intersection of is as in Equation 4 to Equation 5.

수학식 4Equation 4

Figure pat00004
Figure pat00004

수학식 5Equation 5

Figure pat00005
Figure pat00005

여기서, 해당 좌표값 중 Y축값은 적외선센서부(100)와 카메라센서부(200)의 설치시 미리 정해지므로 상술한 계산에 어떠한 영향도 미치지 않는다. 따라서, 두 개의 방정식에 의하여 각각의 라인 교차점인 골프공의 중심위치가 결정되어 골프공의 정확한 위치를 파악할 수 있다. Here, since the Y-axis value of the coordinate value is predetermined when the infrared sensor unit 100 and the camera sensor unit 200 are installed, it does not affect any of the above calculations. Therefore, the center position of the golf ball, which is the line intersection point, is determined by the two equations, so that the exact position of the golf ball can be determined.

상술한 과정을 통하여 계산된 골프공의 비행위치와 비행속도를 통하여 중앙처리기(320)는 골프공의 비행궤도를 계산하는데 골프공의 비행전 초기위치는 미리 알 수 있으므로 이값을 일반적인 공력수식에 대입하면 골프공의 비행궤도를 계산할 수 있다.The central processor 320 calculates the flight trajectory of the golf ball through the flight position and flight speed of the golf ball calculated through the above-described process. Then, the trajectory of the golf ball can be calculated.

중앙처리기(320)에 의해 계산된 골프공의 비행궤도는 골프공의 타격지점을 제공하며 골프장과 골프공의 영상을 디스플레이하는 디스플레이(400)에 실시간으로 전송되어 골프공의 3차원 이동영상이 디스플레이(400)에 실시간으로 디스플레이되도록 할 수 있다.The flight trajectory of the golf ball calculated by the central processor 320 is transmitted in real time to the display 400 which provides the hitting point of the golf ball and displays the golf course and the image of the golf ball to display the three-dimensional moving image of the golf ball. The display may be displayed at 400 in real time.

도 9는 본 발명의 일실시예에 따른 3차원 골프 시뮬레이션 시스템의 동작과정을 나타낸 흐름도이다. 9 is a flow chart showing the operation of the three-dimensional golf simulation system according to an embodiment of the present invention.

먼저 3차원 골프 시뮬레이션 시스템의 각 구성부에 전원이 인가되어 시스템이 턴온되면 적외선센서부(100)의 적외선센서(110)는 적외선을 조사하여 바라보고 있는 바닥면으로부터 돌아온 신호를 수신한다(단계(S110)).first When power is applied to each component of the three-dimensional golf simulation system and the system is turned on, the infrared sensor 110 of the infrared sensor unit 100 receives a signal returned from the bottom surface to be irradiated with infrared rays (step S110). )).

적외선센서부(100)는 바닥면을 감지하는 중에 단계(S110)과 다른 신호가 입력이 되면(단계(S120)) 골프공이 출발한 것으로 인식하고 카메라센서부(200)를 동작시킨다(단계(S130)).The infrared sensor unit 100 recognizes that the golf ball has started and operates the camera sensor unit 200 (step S130) when a signal different from step S110 is input (step S120) while sensing the bottom surface. )).

영상전처리기(310)는 카메라센서부(200)로부터 전송되는 영상신호를 배경영상과 골프공 투영영상으로 분리한 후 이를 중앙처리기(320)로 전송한다(단계(S140)). The image preprocessor 310 separates the image signal transmitted from the camera sensor unit 200 into the background image and the golf ball projection image, and transmits the image signal to the central processor 320 (step S140).

중앙처리기(320)는 영상전처리기(310)로부터 전송되는 골프공 투영영상을 분석하여 골프공과 골프클럽을 구분하며(단계(S150)) 구분된 골프공의 비행위치와 비행속도를 계산한다(단계(S160)).The central processor 320 analyzes the golf ball projection image transmitted from the image preprocessor 310 to classify the golf ball and the golf club (step S150) and calculates the flight position and flight speed of the divided golf ball (step ( S160)).

또한, 중앙처리기(320)는 단계(S160)를 통하여 획득되는 골프공의 비행위치와 비행속도, 초기위치를 일반적인 공력수식에 대입하여 골프공의 3차원 궤적을 계산한다(단계(S170)).In addition, the central processor 320 calculates the three-dimensional trajectory of the golf ball by substituting the flight position, the flight speed, and the initial position of the golf ball obtained through the step S160 into a general aerodynamic equation (step S170).

중앙처리기(320)에 의해 계산된 골프공의 3차원 궤적을 통하여 골프공의 비행위치에 따른 골프장 배경영상이 조합되고(단계(S180)) 조합된 골프공 비행영상은 실시간으로 골프공의 타격지점을 제공하는 디스플레이(400)로 전송되어 디스플레이되게 된다(단계(S190)). 상술한 과정은 골프 연습자가 골프 연습을 종료할 때까지 반복하여 진행된다(단계(S200)). Through the three-dimensional trajectory of the golf ball calculated by the central processor 320, the golf course background image according to the golf ball's flight position is combined (step S180). The display 400 is transmitted to and displayed on the display (step S190). The above-described process is repeated until the golf practitioner finishes golf practice (step S200).

상술한 바와 같이, 본 발명의 일실시예에 따른 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템은 비행물체의 비행경로와 교차되게 형성되는 카메라센서부(200)의 촬영영역을 통하여 비행물체 투영영상을 획득한 후 이를 분석하여 비행물체의 비행위치와 비행속도를 계산할 수 있으며 비행물체의 비행위치와 비행속도를 통하여 비행물체의 비행궤적을 계산할 수 있다.As described above, the flying position and flight speed measurement system of the flying object using the infrared sensor and the camera sensor according to an embodiment of the present invention is the photographing area of the camera sensor unit 200 is formed to cross the flight path of the flying object After the flight object projection image is obtained, the flight position and flight speed of the flying object can be calculated by analyzing it, and the flight trajectory of the flying object can be calculated through the flight position and flight speed of the flying object.

본 명세서에서는 적외선센서와 카메라센서를 이용한 비행물체의 비행위치 및 비행속도 측정시스템이 적용된 3차원 골프 시뮬레이션 시스템을 예로 들어 설명하였지만 이는 비행물체의 비행위치와 비행속도를 측정하는 다양한 장치 및 시스템에 적용되어 활용될 수 있는 것으로 본 발명은 상술한 일실시예에 한정되는 것은 아니며 본 발명이 속하는 기술분야에서 통상의 지식을 갖는 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위내에서 다양한 수정 및 변형이 가능함은 물론이다. In the present specification, a three-dimensional golf simulation system using an infrared sensor and a camera sensor has been described using an example of a flight position and flight speed measurement system of a flying object, but this is applied to various devices and systems for measuring a flying position and a flying speed of a flying object. The present invention is not limited to the above-described exemplary embodiment, but can be utilized by those skilled in the art to which the present invention pertains, and the equivalent scope of the technical spirit of the present invention and the claims to be described below. Of course, various modifications and variations are possible.

100 : 적외선센서부
110 : 적외선센서
200 : 카메라센서부
210 : 제1카메라센서
220 : 제2카메라센서
300 : 컴퓨터처리부
310 : 영상전처리기
320 : 중앙처리기
400 : 디스플레이
100: infrared sensor unit
110: infrared sensor
200: camera sensor
210: first camera sensor
220: second camera sensor
300: computer processing unit
310: image preprocessor
320: central processor
400: display

Claims (4)

비행물체의 출발시점을 감지하는 적외선센서를 포함하는 적외선센서부(100);
상기 적외선센서부(100)로부터 출력되는 상기 비행물체의 출발신호를 입력받아 촬영영역을 통과하는 상기 비행물체를 촬영하는 카메라센서를 포함하는 카메라센서부(200); 및
상기 카메라센서부(200)로부터 출력되는 상기 비행물체의 영상신호를 분석하여 상기 비행물체의 비행위치와 비행속도를 산출하는 컴퓨터처리부(300)
를 포함하는 것을 특징으로 하는 비행물체의 비행위치 및 비행속도 측정시스템.
An infrared sensor unit 100 including an infrared sensor for detecting a starting point of a flying object;
A camera sensor unit 200 including a camera sensor for receiving the start signal of the flying object output from the infrared sensor unit 100 and photographing the flying object passing through a shooting area; And
Computer processing unit 300 for calculating the flying position and the flying speed of the flying object by analyzing the image signal of the flying object output from the camera sensor unit 200
Flight position and flight speed measurement system of the flying object, characterized in that it comprises a.
제1항에 있어서,
상기 카메라센서부(200)는 상호 이격되어 배치되는 제1카메라센서(210)와 제2카메라센서(220)를 포함하되
상기 제1카메라센서(210)와 제2카메라센서(220)는 상기 제1카메라센서(210)에서 감지되는 비행물체 투영영상의 중심점과 상기 제1카메라센서(210)를 연결한 라인과 상기 제2카메라센서(220)에서 감지되는 비행물체 투영영상의 중심점과 상기 제2카메라센서(220)를 연결한 라인의 교차점이 발생될 수 있도록 좌우로 설치되는 것을 특징으로 하는 비행물체의 비행위치 및 비행속도 측정시스템.
The method of claim 1,
The camera sensor unit 200 includes a first camera sensor 210 and a second camera sensor 220 are spaced apart from each other.
The first camera sensor 210 and the second camera sensor 220 may include a line connecting the center point of the projection image of the flying object detected by the first camera sensor 210 and the first camera sensor 210 and the first camera sensor 210. Flight position and flight of the flying object, characterized in that it is installed to the left and right so that the intersection of the center point of the projection image of the flying object detected by the camera sensor 220 and the line connecting the second camera sensor 220 can be generated. Speed measurement system.
제1항에 있어서,
상기 컴퓨터처리부(300)는
상기 카메라센서부(200)의 각 카메라센서(210)(220)로부터 출력되는 영상신호를 배경영상과 비행물체 투영영상으로 분리하여 출력하는 영상전처리기(310); 및
상기 영상전처리기(310)로부터 상기 비행물체 투영영상을 전달받아 상기 비행물체 투영영상의 중심점을 계산하고 상기 중심점과 해당 카메라센서(210)(220)를 연결하여 상기 비행물체가 위치하는 라인을 계산하며 상기 비행물체가 상기 각 라인을 통과한 시간을 측정하여 상기 비행물체의 평균속도를 계산하고 상기 각각의 라인 교차점을 계산하여 상기 비행물체의 현재위치를 파악하는 중앙처리기(320)
를 포함하는 것을 특징으로 하는 비행물체의 비행위치 및 비행속도 측정시스템.
The method of claim 1,
The computer processing unit 300
An image preprocessor 310 for separating and outputting an image signal output from each of the camera sensors 210 and 220 of the camera sensor unit into a background image and a projection image of a flying object; And
The flying object projection image is received from the image preprocessor 310, the center point of the flying object projection image is calculated, and the flying object is connected by connecting the center point and the corresponding camera sensor 210, 220. Calculate the location of the line and the flight object passed through each line The central processor 320 to determine the current position of the flying object by measuring the time to calculate the average speed of the flying object and calculate the intersection of each line.
Flight position and flight speed measurement system of the flying object, characterized in that it comprises a.
제1항에 있어서,
상기 컴퓨터처리부(300)는
상기 비행물체의 출발점과 비행위치, 비행속도를 통하여 상기 비행물체의 비행궤도를 계산하고 상기 비행궤도를 디스플레이(400)로 출력하는 것을 특징으로 하는 비행물체의 비행위치 및 비행속도 측정시스템.
The method of claim 1,
The computer processing unit 300
The flight position and flight speed measurement system of the flying object, characterized in that for calculating the flight trajectory of the flying object based on the starting point, the flight position, the flying speed of the flying object and outputs the flying trajectory to the display (400).
KR1020110085868A 2011-08-26 2011-08-26 An enhanced system for measuring flying position and velocity of globe shaped object using the infrared sensor and the camera sensor Ceased KR20130022878A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110085868A KR20130022878A (en) 2011-08-26 2011-08-26 An enhanced system for measuring flying position and velocity of globe shaped object using the infrared sensor and the camera sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110085868A KR20130022878A (en) 2011-08-26 2011-08-26 An enhanced system for measuring flying position and velocity of globe shaped object using the infrared sensor and the camera sensor

Publications (1)

Publication Number Publication Date
KR20130022878A true KR20130022878A (en) 2013-03-07

Family

ID=48175448

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110085868A Ceased KR20130022878A (en) 2011-08-26 2011-08-26 An enhanced system for measuring flying position and velocity of globe shaped object using the infrared sensor and the camera sensor

Country Status (1)

Country Link
KR (1) KR20130022878A (en)

Similar Documents

Publication Publication Date Title
KR102268151B1 (en) Method for three-dimensional measurement of moving objects during known movement
EP3262439B1 (en) Using intensity variations in a light pattern for depth mapping of objects in a volume
KR100871595B1 (en) Flight information measuring system of spherical object using high speed camera
CN111161358B (en) A camera calibration method and device for structured light depth measurement
CN106382946B (en) Parameter calibrating method and device
CN105593633B (en) System and method for determining position of the bullet bullet on objective plane
JP6753107B2 (en) Distance measuring device, distance measuring method and program
JP6862751B2 (en) Distance measuring device, distance measuring method and program
US11346666B2 (en) System and method for measuring a displacement of a mobile platform
CN107014296B (en) Comprehensive inspection car OCS inspecting system high speed orientation triggering method and device
KR100483666B1 (en) A System for Measuring Flying Position and Velocity of Globe-Shaped Object Using the Light Fan Screen
CN106645799B (en) Parameter calibrating method and device
JP2014211404A (en) Motion capture method
CN110268221A (en) Cord measuring device and cord measuring method
JP2021515881A (en) Positioning methods, positioning devices, and computer program products
JP2010249589A (en) Method and device for measuring strain
KR20120058802A (en) Apparatus and method for calibrating 3D Position in 3D position/orientation tracking system
CN102401901A (en) Ranging system and ranging method
CN204944449U (en) Depth data measuring system
JP7441463B2 (en) alarm system
KR101070378B1 (en) Apparatus and method for measuring initial position and velocity of a object which moves on plane
KR20130022878A (en) An enhanced system for measuring flying position and velocity of globe shaped object using the infrared sensor and the camera sensor
KR101388400B1 (en) putting device the compensation function, with starting point
JP2018179654A (en) Imaging apparatus for detecting an abnormality in a distance image
CN111504269A (en) Underwater scale measuring method and device

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20110826

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20121217

Patent event code: PE09021S01D

PG1501 Laying open of application
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20130610

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20121217

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I