[go: up one dir, main page]

KR20160033329A - System and Method for Translating Sign Language - Google Patents

System and Method for Translating Sign Language Download PDF

Info

Publication number
KR20160033329A
KR20160033329A KR1020140123614A KR20140123614A KR20160033329A KR 20160033329 A KR20160033329 A KR 20160033329A KR 1020140123614 A KR1020140123614 A KR 1020140123614A KR 20140123614 A KR20140123614 A KR 20140123614A KR 20160033329 A KR20160033329 A KR 20160033329A
Authority
KR
South Korea
Prior art keywords
sign language
information
unit
photographing
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020140123614A
Other languages
Korean (ko)
Inventor
홍인식
박다은
송우성
조은희
박수현
Original Assignee
순천향대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 순천향대학교 산학협력단 filed Critical 순천향대학교 산학협력단
Priority to KR1020140123614A priority Critical patent/KR20160033329A/en
Publication of KR20160033329A publication Critical patent/KR20160033329A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 수화 번역 시스템 및 방법에 관한 것으로서, 사용자의 명령을 입력 받는 키 입력부, 수화 동작을 촬영하는 촬영부, 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 동작 인식부, 수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스, 상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 동작 해석부 및 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 출력부를 포함함으로써, 수화자가 자신의 의사를 비수화자에게 전달하는 것이 가능하다.The present invention relates to a sign language translation system and method, and more particularly, to a sign language translation system and method, which includes a key input unit for inputting a command of a user, a photographing unit for photographing a sign language, an operation recognition unit for converting the image information of sign language, A database storing character information and voice information corresponding to the sign language information value of the action and the sign language information corresponding to the sign language information of the operation, a database for comparing the sign language information value converted in the action recognition unit with the sign language information value stored in the database, An operation analyzing unit for retrieving information and an output unit for outputting character and / or voice information as a result of retrieval from the operation analyzing unit, whereby the listener can transmit his or her intention to the non-speaker.

Description

수화 번역 시스템 및 방법{System and Method for Translating Sign Language}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sign language translation system,

본 발명은 수화 번역 시스템 및 방법에 관한 것으로, 더욱 상세하게는 동작 인식을 이용하여 수화인의 수화 동작에 대한 번역 문자 또는 음성 정보를 출력하는 수화 번역 시스템 및 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sign language translation system and method, and more particularly, to a sign language translation system and method for outputting a translation character or voice information for a sign language sign language operation using motion recognition.

현대사회에서 장애우를 위한 복지정책은 나날이 커져가고 있는데 그에 비하여 장애우와 비장애우 간의 의사소통은 원활하게 이루어지지 않아 불편함을 겪는 추세이다.In modern society, the welfare policy for the disabled is getting bigger day by day, but the communication between the disabled and the non - disabled is not smooth and inconvenient.

이런 점들을 고려하여 장애우들 중 청각장애우를 위해 그들이 하는 수화동작을 인식하여 수화를 잘 모르는 비장애우에게도 장애우가 의사를 전달할 수 있도록 하는 수화 번역 시스템을 제안한다.
Considering these points, we propose a sign language translation system that enables the handicapped to communicate the handicap even to the non-handicapped who are not familiar with sign language by recognizing the sign language of the handicapped.

대한민국 공개특허공보 제10-2000-0017756호(공개일 2000.04.06.)Korean Patent Laid-Open Publication No. 10-2000-0017756 (published Apr. 2000, 2000)

따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 수화 동작을 손의 개수, 손가락의 개수, 손 및 손가락 움직임의 방위각 등으로 변환하고, 이를 문자 및/또는 음성과 매칭함으로써 수화 동작에 대한 문자 및/또는 음성 정보를 출력하는 수화 번역 시스템 및 방법을 제공하는데 있다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior arts, and it is an object of the present invention to provide a handwriting recognition apparatus and a handwriting recognition apparatus which convert a handwriting operation into a number of hands, a number of fingers, And outputting a character and / or voice information about a sign language operation by matching the speech with the speech.

상기와 같은 목적을 달성하기 위한 본 발명의 수화 번역 시스템은, 사용자의 명령을 입력 받는 키 입력부, 수화 동작을 촬영하는 촬영부, 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 동작 인식부, 수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스, 상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 동작 해석부 및 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 출력부를 포함한다.According to another aspect of the present invention, there is provided a sign language translation system including a key input unit for inputting a command of a user, a photographing unit for photographing a sign language operation, an operation for converting the image information of the sign language image captured by the photographing unit into sign language information A database for storing sign language information corresponding to the sign language information value of the sign language and the sign language information corresponding to the sign language information value, a database for comparing the sign language information converted in the action recognition unit with the sign language information value stored in the database, And / or audio information, and an output unit for outputting character and / or audio information as a search result from the operation analysis unit.

한편, 본 발명의 수화 번역 방법은, 키 입력부로부터 수화 동작 촬영 및 번역 시작 기능키를 입력 받는 단계, 촬영부가 수화 동작을 촬영하는 단계, 동작 인식부가 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 단계, 동작 해석부가 상기 동작 인식부에서 변환된 수화 정보를 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 단계 및 출력부가 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 단계를 포함한다.
On the other hand, the sign language translation method of the present invention includes a step of receiving a sign language operation and a translation start function key from a key input unit, a step of photographing a sign language operation operation of a photographing unit, The operation analyzing unit compares the sign language information converted by the action recognition unit with the sign language information value stored in the database to search for the corresponding character and / or voice information, and the output unit searches the operation interpretation unit And outputting the resultant character and / or voice information.

상술한 바와 같이, 본 발명에 의한 수화 번역 시스템 및 방법에 따르면, 수화 동작을 손의 개수, 손가락의 개수, 손 및 손가락 움직임의 방위각 등으로 변환하고, 이를 문자 및/또는 음성과 매칭하여 수화 동작에 대한 문자 및/또는 음성 정보를 출력함으로써, 수화자가 자신의 의사를 비수화자에게 전달하는 것이 가능하다.
As described above, according to the sign language translation system and method of the present invention, the sign language operation is converted into the number of hands, the number of fingers, the azimuth angle of the hand and finger movements, etc., It is possible for the receiver to transmit his / her own opinion to the non-receiver.

도 1은 본 발명의 일 실시예에 따른 수화 번역 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 수화 번역 시스템의 동작 인식부가 인식한 수화 정보를 나타내는 실행화면이다.
도 3은 본 발명의 일 실시예에 따른 수화 번역 시스템의 운영 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 수화 번역 시스템에 대한 디스플레이 결과의 일례이다.
1 is a block diagram schematically showing a sign language translation system according to an embodiment of the present invention.
2 is an execution screen showing the sign language information recognized by the action recognition unit of the sign language translation system according to the embodiment of the present invention.
3 is an operational flowchart of a sign language translation system according to an embodiment of the present invention.
4 is an example of a display result for a sign language translation system according to an embodiment of the present invention.

각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

이하, 본 발명의 수화 번역 시스템에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, a sign language translation system of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 수화 번역 시스템을 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically showing a sign language translation system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 수화 번역 시스템(100)은, 수화 번역 시스템(100)의 전반적인 동작을 제어하는 제어부(110), 사용자의 명령을 입력 받는 키 입력부(120), 수화 동작을 촬영하는 촬영부(130), 상기 촬영부가 촬영한 수화 동작의 영상 정보를 좌표값, 방위각 등의 수화 정보로 변환하여 수화 동작을 인식하는 동작 인식부(140), 수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스(150), 상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 또는 음성 정보를 검색하는 동작 해석부(160) 및 상기 동작 해석부로부터의 검색 결과인 문자 또는 음성 정보를 출력하는 출력부(170)를 포함하여 이루어진다.1, a sign language translation system 100 according to an embodiment of the present invention includes a control unit 110 that controls the overall operation of the sign language translation system 100, a key input unit 120 that receives a user's command, An operation recognition unit 140 for converting the image information of the sign language operation of the sign language operation into the sign language information such as coordinate value and azimuth angle and recognizing the sign language operation, A database 150 for storing information and character and voice information corresponding to the sign language information value, and a display unit for comparing the sign language information converted in the operation recognition unit with the sign language information value stored in the database, And an output unit 170 for outputting character or voice information as a search result from the operation analyzing unit.

제어부(110)는 위와 같은 수화 번역 시스템(100)의 구성 요소들의 전반적인 제어를 담당하는 프로세서에 해당하고, 위와 같은 구성 요소들의 일부 또는 전부를 포함하도록 구성할 수도 있다.The control unit 110 corresponds to a processor that controls overall control of the components of the sign language translation system 100, and may be configured to include some or all of the above components.

키 입력부(120)는 사용자의 명령을 입력 받기 위한 수단으로서, 예컨대, 수화 동작 촬영 및 번역 시작/종료, 번역 정보 출력 수단 등을 선택하기 위한 각종 기능키 등으로 구성된다.The key input unit 120 includes various function keys for selecting a sign language operation, a translation start / end, a translation information output unit, and the like.

촬영부(130)는 수화 동작을 촬영하여 수화 동작의 움직임을 동작 인식부(140)에 영상 신호로 출력하는데, 본 발명의 실시예에서는 2개의 적외선 카메라(또는 적외선 인식 모듈), 3개의 적외선 LED 광원 등을 포함하여 이루어질 수 있다.In the embodiment of the present invention, two infrared cameras (or an infrared ray recognition module), three infrared ray LEDs A light source, and the like.

동작 인식부(140)는 촬영부(130)로부터 출력되는 영상 신호를 좌표값, 방위각 등의 수화 정보로 변환하여 수화 동작을 인식하고 이를 동작 해석부(160)에 출력한다.The motion recognition unit 140 converts a video signal output from the photographing unit 130 into sign language information such as coordinate values and azimuth angle, recognizes a sign language operation, and outputs the sign language sign to the operation analysis unit 160.

본 발명의 일 실시예에서 동작 인식부(140)는 촬영부(130)의 적외선 카메라를 사용해서 손이 움직임을 추적하고 그것을 3D 지도로 그려 손의 움직임을 인식한다. 즉, 촬영부(130)를 통하여 입력되는 영상을 x, y축 뿐만 아니라 깊이 정보인 z축 정보로 나누어 인식하고 좌표값으로 변환함으로써 영상 속 손의 위치를 분석하고, 거리를 측정함으로써 손의 동작 및 손가락 하나하나의 움직임을 세밀하게 인식한다.In one embodiment of the present invention, the motion recognizing unit 140 tracks the movement of the hand using the infrared camera of the photographing unit 130 and draws it in a 3D map to recognize the movement of the hand. That is, the image input through the photographing unit 130 is divided into x-axis and y-axis as well as z-axis information as depth information and converted into coordinate values to analyze the position of the hand in the image, And recognizes the movement of each finger in detail.

보다 구체적으로 설명하면, 동작 인식부(140)는 먼저 촬영부(130)로부터 영상 정보를 받아들이면서 x, y, z축을 결정하고, 다음으로 화면상의 특정점을 추출하여 이 점이 움직이는 궤도를 연속적으로 추적한 뒤 추적된 점들을 분석해 움직임을 인식한다. 이어, 동작 인식부(140)는 촬영부(130)로부터 출력되는 수화 동작의 영상 정보를 x, y, z 좌표값, 방위각 등의 수치로 변환하게 된다.More specifically, the motion recognition unit 140 first receives the image information from the photographing unit 130, determines the x, y, and z axes, and then extracts specific points on the screen to continuously orbit the moving point After tracking, analyze the tracked points to recognize the motion. Then, the motion recognition unit 140 converts the image information of the hydration operation output from the photographing unit 130 into numerical values such as x, y, z coordinate values, azimuth angle, and the like.

도 2는 본 발명의 일 실시예에 따른 수화 번역 시스템의 동작 인식부가 인식한 수화 정보를 나타내는 실행화면으로서, 예컨대, 손의 개수(hands)는 수화자의 양 손 중 한 손이 사용된 경우 1, 두 손이 사용된 경우 2가 된다. 그리고, 손가락의 개수(finger)는 펴진 손가락의 개수를 인식하며, 도구(tools)는 수화자의 손 이외의 도구가 인식되는 경우 사용되며, 제스처(gesture)는 손의 움직임으로서 예컨대, 원을 그리는 제스처인 경우 TYPECIRCLE, 손을 위 아래로 흔드는 제스처인 경우 TYPESWIPE로 정의된다.FIG. 2 is an execution screen showing the sign language information recognized by the action recognition unit of the sign language translation system according to the embodiment of the present invention. For example, the number of hands is 1 when both hands of the hand- If two hands are used, it becomes 2. In addition, the number of fingers recognizes the number of fingers extended, the tools are used when a tool other than the hand of the listener is recognized, and the gesture is a movement of a hand, for example, Is defined as TYPECIRCLE, and TYPESWIPE for gestures that shake hands up and down.

또한, 평균 손 끝 위치(average finger tip position) 및 손바닥 위치(palm position)는 구성된 3D 지도로부터 x, y, z축 값으로 나타나고, 손 반경(hand sphere radius)은 구성된 3D 지도로부터 단위 mm의 값으로 나타난다.In addition, the average finger tip position and palm position are represented by x, y, z axis values from the constructed 3D map, and the hand sphere radius is the value from the configured 3D map in mm .

마지막으로, 동작 인식부(140)는 촬영부(130)로부터 인가되는 영상 신호에서 방위각 정보를 근거로 손의 이동 방향에 대한 수직의 수평면에 있는 축 주위의 회전 즉, x축 회전 방위각(hand pitch), 손의 이동 방향에 대한 평행한 수평면에 있는 축 주위의 회전 즉, y축 회전 방위각(hand roll), 손의 이동 방향에 대한 수직의 수직면에 있는 축 주위의 회전 즉, z축 회전 방위각(hand yaw)을 인식하게 된다.Finally, the motion recognizing unit 140 rotates about an axis in a horizontal plane perpendicular to the moving direction of the hand based on the azimuth angle information in the image signal applied from the photographing unit 130, that is, the x-axis rotation azimuth ), A rotation around an axis in a parallel horizontal plane with respect to the direction of movement of the hand, that is, a y-axis rotation azimuth (hand roll), a rotation about an axis in a vertical plane perpendicular to the movement direction of the hand, hand yaw).

데이터베이스(150)는 각 구성 요소에서 처리되는 각종 데이터를 일시 저장하기 위한 구성으로서, 수화 동작에 대한 좌표값, 방위각 등의 수화 정보값과 그러한 수화 정보값에 대응되는 문자와 음성 정보를 데이터베이스화하기 위하여 수화 동작을 데이터베이스화한다.The database 150 is a structure for temporarily storing various data to be processed by each component, and includes a sign language information value such as a coordinate value and an azimuth for the sign language operation, a character and voice information corresponding to the sign language information value, For this purpose, the hydration operation is converted into a database.

본 발명의 일 실시예에서는 손 동작을 임의로 정의하여 데이터베이스화할 수도 있다. 예컨대, 손가락 개수에 따라 편 손가락 개수가 한 개일 때에는 '안녕하세요', 두 개일 때에는 '길 좀 알려주시겠어요?'로 정의하거나, 손가락으로 원을 그릴 때에는 '사랑합니다' 등으로 정의할 수 있다.In an embodiment of the present invention, the hand motion may be arbitrarily defined and converted into a database. For example, according to the number of fingers, it may be defined as "Hello" when the number of fingers is one, and "Would you tell me a way if you have two fingers", or "I love you" when you draw a circle with your fingers.

동작 해석부(160)는 동작 인식부(140)에서 변환된 수화 동작에 대한 수화 정보와 데이터베이스(150)에 저장된 수화 정보값을 비교하여 동일한 수화 정보가 있는지를 검색하고 동일한 수화 정보가 있는 경우 해당되는 문자 또는 음성 정보를 검색한다. 이에 따라, 검색된 해당 문자 또는 음성 정보를 출력부(170)에서 표시하거나 재생할 수 있다.The operation analyzing unit 160 compares the sign language information about the sign language conversion operation performed by the action recognition unit 140 and the sign language information value stored in the database 150 to search for the same sign language information, And searches for character or audio information. Accordingly, the searched character or voice information can be displayed or reproduced on the output unit 170.

출력부(170)는 수화자가 일반인이 의사소통에 필요한 문자를 보거나 음성을 들을 수 있도록 출력하기 위한 수단으로서, 동작 해석부(160)로부터의 검색 결과인 문자 또는 음성 정보를 출력하는데, 문자 정보 출력을 위한 모니터이거나 음성 정보 출력을 위한 스피커 형식일 수 있다.The output unit 170 outputs the character or voice information as a search result from the operation analysis unit 160. The character output unit 170 outputs character information Or a speaker type for outputting audio information.

한편, 수화 번역 시스템(100)은 휴대가능하도록 소형으로 구성되며, 그 내부 구성요소로 소정의 동작 전원(Vcc)을 공급하기 위한 전원부를 포함하여 구성될 수 있다.
On the other hand, the sign language translation system 100 may be configured to be portable so as to be portable, and may include a power source unit for supplying a predetermined operation power source Vcc to its internal components.

그러면, 여기서 상기와 같이 구성된 시스템을 이용한 본 발명의 수화 번역 방법에 대해 설명하기로 한다.Hereinafter, the sign language translation method of the present invention using the system configured as above will be described.

도 3은 본 발명의 일 실시예에 따른 수화 번역 시스템의 운영 흐름도이다.3 is an operational flowchart of a sign language translation system according to an embodiment of the present invention.

우선, 데이터베이스(150)에 수화 동작에 대한 좌표값, 방위각 등의 수화 정보와 그에 대응되는 각종 문자 또는 음성 등의 해석 정보가 저장된 상태에서, 사용자가 수화 번역 시스템(100)의 동작 상태를 온시킨 후 키 입력부(120)의 시작 기능키를 입력하게 되면(S201), 제어부(110)는 이를 근거로 각 구성 요소로 전원부로부터의 동작 전원을 공급하도록 제어하게 된다.First, in a state in which the sign language information such as the coordinate value and the azimuth for the sign language and the interpretation information such as various characters or voices corresponding thereto are stored in the database 150, the user turns on the operation state of the sign language translation system 100 When the start function key of the post-key input unit 120 is input (S201), the control unit 110 controls the respective components to supply the operation power from the power unit.

또한, 제어부(110)는 키 입력부(120)로부터 출력 종류 선택 기능키가 입력되었는지, 즉 수화 번역된 정보를 출력부(170)를 통해 문자 출력한 것인지, 음성 출력할 것인지 또는 문자 및 음성 출력할 것인지에 대한 선택 정보가 입력되는지를 확인하여, 키 입력부(120)로부터 선택된 출력 종류 정보가 인가된 경우 그 선택 출력 종류 정보를 데이터베이스(150)에 저장하게 된다. 한편, 키 입력부(120)로부터 소정 시간 동안 출력 종류 정보가 인가되지 않게 되면, 제어부(110)는 출력 종류 정보를 기본으로 설정된 문자 출력으로 자동 설정할 수 있다. 이때, 출력 종류 정보의 기본 설정 모드는 사용자에 의해 임의로 설정되거나 또는 수화 번역 시스템의 제작시 제작자에 의해 설정되는 것이 가능하다.The control unit 110 determines whether the output type selection function key is input from the key input unit 120, that is, whether the character type information is output through the output unit 170, voice output, If the selected output type information is input from the key input unit 120, the selected output type information is stored in the database 150. [ On the other hand, if the output type information is not applied from the key input unit 120 for a predetermined time, the control unit 110 can automatically set the output type information to the character output set by default. At this time, the basic setting mode of the output type information can be arbitrarily set by the user or can be set by the manufacturer at the time of manufacturing the sign language translation system.

한편, 촬영부(130)는 제1 및/또는 제2 카메라로부터 인가되는 영상 신호를 동작 인식부(140)로 송출하게 된다(S202).Meanwhile, the photographing unit 130 transmits the image signal applied from the first and / or the second camera to the motion recognizing unit 140 (S202).

이어, 동작 인식부(140)는 촬영부(130)로부터 출력되는 수화 동작의 영상 신호를 좌표값, 방위각 등의 수치로 변환하여 조합함으로써 수화 동작에 대응되는 수화 정보를 생성하고(S203), 생성된 수화 정보를 동작 해석부(160)로 송출한다.Next, the motion recognition unit 140 generates sign language information corresponding to the sign language operation by converting the video signal of the sign language output from the photographing unit 130 into numerical values such as a coordinate value and an azimuth angle (S203) And sends the sign language information to the operation analysis unit 160.

그리고, 동작 해석부(160)는 동작 인식부(140)로부터 인가되는 수화 정보를 근거로 데이터베이스(150)에서 해당 정보를 추출하여 동작 해석을 수행하게 된다(S204).Then, the operation analyzing unit 160 extracts corresponding information from the database 150 based on the sign language information applied from the action recognition unit 140, and performs an operation analysis (S204).

사용자에 의해 키 입력부(120)의 종료 기능키 정보가 입력되면, 해당 문자 및/또는 음성을 출력부(170)로 제공하게 된다(S205).When the user inputs the end function key information of the key input unit 120, the character and / or voice is provided to the output unit 170 (S205).

한편, 출력부(170)는 동작 해석부(160)로부터 소정의 문자 및/또는 음성 데이터가 수신되는 경우, 해당 문자 및/또는 음성 데이터를 출력한다(S206).On the other hand, when predetermined character and / or voice data is received from the operation analyzing unit 160, the output unit 170 outputs the corresponding character and / or voice data (S206).

따라서, 수화자는 자유로운 자세로 수화를 이용하여 비수화자에게 자신의 의사를 용이하게 전달할 수 있게 된다.Therefore, the receiver can easily communicate his / her wish to the non-receiver by using sign language in a free posture.

한편, 본 발명의 수화 번역 시스템은 다양한 통신 시스템에 적용하여 수화자가 통신기기를 편리하게 이용할 수 있도록 제공하는 것이 가능하다.
Meanwhile, the sign language translation system of the present invention can be applied to various communication systems to provide a receiver with convenient use of communication devices.

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention.

100 : 수화 번역 시스템 110 : 제어부
120 : 키 입력부 130 : 촬영부
140 : 동작 인식부 150 : 데이터베이스
160 : 동작 해석부 170 : 출력부
100: Sign language translation system 110:
120: key input unit 130:
140: motion recognition unit 150: database
160: Operation analysis unit 170: Output unit

Claims (4)

사용자의 명령을 입력 받는 키 입력부,
수화 동작을 촬영하는 촬영부,
상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 동작 인식부,
수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스,
상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 동작 해석부 및
상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 출력부를 포함하는 수화 번역 시스템.
A key input unit for inputting a user command,
A photographing unit for photographing a sign language operation,
An operation recognition unit for converting the image information of the sign language operation captured by the image capturing unit into sign language information,
A database storing sign language information values of sign language operations and character and voice information corresponding to such sign language information values,
An operation analyzer for comparing the sign language information converted by the action recognition unit with the sign language information value stored in the database and searching for the corresponding character and / or voice information;
And an output unit for outputting character and / or voice information which is a search result from the operation analysis unit.
청구항 제1항에서,
상기 동작 인식부는,
상기 촬영부로부터 상기 영상 정보를 받아들이면서 x, y, z축을 결정하고, 상기 영상 정보에서 손의 개수, 편 손가락의 개수, 손 끝의 평균 위치, 손바닥 위치를 x, y, z 좌표값 수치로 변환하며, 손의 이동 방향에 대한 수직의 수평면에 있는 축 주위의 회전 방위각, 손의 이동 방향에 대한 평행한 수평면에 있는 축 주위의 회전 방위각 및 손의 이동 방향에 대한 수직의 수직면에 있는 축 주위의 회전 방위각을 인식하여 수화 정보로 변환함으로써 수화 동작을 인식하는 수화 번역 시스템.
The method according to claim 1,
Wherein the motion recognition unit comprises:
The x, y, and z axes are determined while receiving the image information from the photographing unit, and the number of hands, the number of fingers, the average position of the fingertip, and the palm position are determined as x, y, The rotational azimuth angle around the axis in the horizontal plane perpendicular to the direction of movement of the hand, the rotational azimuth angle about the axis in the parallel horizontal plane relative to the direction of movement of the hand, And recognizes the hydration operation by converting the azimuth angle into the sign language information.
키 입력부로부터 수화 동작 촬영 및 번역 시작 기능키를 입력 받는 단계,
촬영부가 수화 동작을 촬영하는 단계,
동작 인식부가 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 단계,
동작 해석부가 상기 동작 인식부에서 변환된 수화 정보를 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 단계 및
출력부가 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 단계를 포함하는 수화 번역 방법.
Receiving a sign language operation photographing and a translation start function key from a key input unit,
A step of photographing a shooting operation of the shooting unit,
Wherein the operation recognition unit converts the image information of the sign language operation captured by the image capturing unit into sign language information,
Comparing the sign language information converted by the action recognition unit with the sign language information value stored in the database and searching for the corresponding character and / or voice information;
And outputting a character and / or voice information which is a search result from the operation analyzing unit.
청구항 제3항에서,
상기 수화 동작의 영상 정보를 수화 정보로 변환하는 단계는,
상기 동작 인식부가 상기 촬영부로부터 상기 영상 정보를 받아들이면서 x, y, z축을 결정하고, 상기 영상 정보에서 손의 개수, 편 손가락의 개수, 손 끝의 평균 위치, 손바닥 위치를 x, y, z 좌표값 수치로 변환하며, 손의 이동 방향에 대한 수직의 수평면에 있는 축 주위의 회전 방위각, 손의 이동 방향에 대한 평행한 수평면에 있는 축 주위의 회전 방위각 및 손의 이동 방향에 대한 수직의 수직면에 있는 축 주위의 회전 방위각을 인식하여 수화 정보로 변환하는 수화 번역 방법.
4. The method of claim 3,
Wherein the step of converting the video information of the sign language operation into sign language information comprises:
Wherein the motion recognition unit recognizes the x, y, and z axes while receiving the image information from the photographing unit, and determines the number of hands, the number of fingers, the average position of the fingertips, and the palm position as x, y, z Coordinate value values, and includes a rotational azimuth angle around the axis in a horizontal plane perpendicular to the moving direction of the hand, a rotational azimuth angle around the axis in a parallel horizontal plane with respect to the hand moving direction, and a vertical plane perpendicular to the moving direction of the hand And converting the azimuth angle into sign language information.
KR1020140123614A 2014-09-17 2014-09-17 System and Method for Translating Sign Language Ceased KR20160033329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140123614A KR20160033329A (en) 2014-09-17 2014-09-17 System and Method for Translating Sign Language

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140123614A KR20160033329A (en) 2014-09-17 2014-09-17 System and Method for Translating Sign Language

Publications (1)

Publication Number Publication Date
KR20160033329A true KR20160033329A (en) 2016-03-28

Family

ID=57007458

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140123614A Ceased KR20160033329A (en) 2014-09-17 2014-09-17 System and Method for Translating Sign Language

Country Status (1)

Country Link
KR (1) KR20160033329A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101958201B1 (en) * 2018-02-14 2019-03-14 안동과학대학교 산학협력단 Apparatus and method for communicating through sigh language recognition
CN112329451A (en) * 2020-12-03 2021-02-05 云知声智能科技股份有限公司 Sign language action video generation method, device, equipment and storage medium
CN112699758A (en) * 2020-12-23 2021-04-23 平安银行股份有限公司 Sign language translation method and device based on dynamic gesture recognition, computer equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000017756A (en) 1999-11-12 2000-04-06 황병익 Apparatus for Translating of Finger Language

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000017756A (en) 1999-11-12 2000-04-06 황병익 Apparatus for Translating of Finger Language

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101958201B1 (en) * 2018-02-14 2019-03-14 안동과학대학교 산학협력단 Apparatus and method for communicating through sigh language recognition
CN112329451A (en) * 2020-12-03 2021-02-05 云知声智能科技股份有限公司 Sign language action video generation method, device, equipment and storage medium
CN112329451B (en) * 2020-12-03 2024-02-02 云知声智能科技股份有限公司 Sign language action video generation method, device, equipment and storage medium
CN112699758A (en) * 2020-12-23 2021-04-23 平安银行股份有限公司 Sign language translation method and device based on dynamic gesture recognition, computer equipment and storage medium
CN112699758B (en) * 2020-12-23 2023-11-17 平安银行股份有限公司 Sign language translation method, device, computer equipment and medium for dynamic gesture recognition

Similar Documents

Publication Publication Date Title
EP3559935B1 (en) Hands-free navigation of touch-based operating systems
EP3258423B1 (en) Handwriting recognition method and apparatus
US11087637B2 (en) Finger reading method and device based on visual gestures
US11947752B2 (en) Customizing user interfaces of binary applications
US20100280983A1 (en) Apparatus and method for predicting user's intention based on multimodal information
US20130155237A1 (en) Interacting with a mobile device within a vehicle using gestures
CN104090652A (en) Voice input method and device
US20100090945A1 (en) Virtual input system and method
US10747499B2 (en) Information processing system and information processing method
US20210158031A1 (en) Gesture Recognition Method, and Electronic Device and Storage Medium
US20210233529A1 (en) Imaging control method and apparatus, control device, and imaging device
US20220114367A1 (en) Communication system, display apparatus, and display control method
KR20160033329A (en) System and Method for Translating Sign Language
JP2024516570A (en) Data processing method, device, computer device and computer program
CN111291539B (en) File editing control method, device, computer device and storage medium
Jamaludin et al. Dynamic hand gesture to text using leap motion
CN105955698A (en) Voice control method and apparatus
Hasan et al. Implementation smart gloves for deaf and dumb disabled
Shree et al. A Virtual Assistor for Impaired People by using Gestures and Voice
Le et al. Multimodal smart interactive presentation system
KR20220082477A (en) System for providing automatic sign language translation using motion recognition and its methods
KR101915182B1 (en) Appratus for computing platform robust to environmental noises
KR20250029544A (en) Method for processing non-powered input and device therefor
Amonoy et al. Gesture-Controlled Device for Speakers Using Machine Learning
CN121302232A (en) Interactive intent recognition method, apparatus, wearable device and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20140917

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20151021

Patent event code: PE09021S01D

PG1501 Laying open of application
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20160531

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20151021

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I