KR20160033329A - System and Method for Translating Sign Language - Google Patents
System and Method for Translating Sign Language Download PDFInfo
- Publication number
- KR20160033329A KR20160033329A KR1020140123614A KR20140123614A KR20160033329A KR 20160033329 A KR20160033329 A KR 20160033329A KR 1020140123614 A KR1020140123614 A KR 1020140123614A KR 20140123614 A KR20140123614 A KR 20140123614A KR 20160033329 A KR20160033329 A KR 20160033329A
- Authority
- KR
- South Korea
- Prior art keywords
- sign language
- information
- unit
- photographing
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 수화 번역 시스템 및 방법에 관한 것으로서, 사용자의 명령을 입력 받는 키 입력부, 수화 동작을 촬영하는 촬영부, 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 동작 인식부, 수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스, 상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 동작 해석부 및 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 출력부를 포함함으로써, 수화자가 자신의 의사를 비수화자에게 전달하는 것이 가능하다.The present invention relates to a sign language translation system and method, and more particularly, to a sign language translation system and method, which includes a key input unit for inputting a command of a user, a photographing unit for photographing a sign language, an operation recognition unit for converting the image information of sign language, A database storing character information and voice information corresponding to the sign language information value of the action and the sign language information corresponding to the sign language information of the operation, a database for comparing the sign language information value converted in the action recognition unit with the sign language information value stored in the database, An operation analyzing unit for retrieving information and an output unit for outputting character and / or voice information as a result of retrieval from the operation analyzing unit, whereby the listener can transmit his or her intention to the non-speaker.
Description
본 발명은 수화 번역 시스템 및 방법에 관한 것으로, 더욱 상세하게는 동작 인식을 이용하여 수화인의 수화 동작에 대한 번역 문자 또는 음성 정보를 출력하는 수화 번역 시스템 및 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sign language translation system and method, and more particularly, to a sign language translation system and method for outputting a translation character or voice information for a sign language sign language operation using motion recognition.
현대사회에서 장애우를 위한 복지정책은 나날이 커져가고 있는데 그에 비하여 장애우와 비장애우 간의 의사소통은 원활하게 이루어지지 않아 불편함을 겪는 추세이다.In modern society, the welfare policy for the disabled is getting bigger day by day, but the communication between the disabled and the non - disabled is not smooth and inconvenient.
이런 점들을 고려하여 장애우들 중 청각장애우를 위해 그들이 하는 수화동작을 인식하여 수화를 잘 모르는 비장애우에게도 장애우가 의사를 전달할 수 있도록 하는 수화 번역 시스템을 제안한다.
Considering these points, we propose a sign language translation system that enables the handicapped to communicate the handicap even to the non-handicapped who are not familiar with sign language by recognizing the sign language of the handicapped.
따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 수화 동작을 손의 개수, 손가락의 개수, 손 및 손가락 움직임의 방위각 등으로 변환하고, 이를 문자 및/또는 음성과 매칭함으로써 수화 동작에 대한 문자 및/또는 음성 정보를 출력하는 수화 번역 시스템 및 방법을 제공하는데 있다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior arts, and it is an object of the present invention to provide a handwriting recognition apparatus and a handwriting recognition apparatus which convert a handwriting operation into a number of hands, a number of fingers, And outputting a character and / or voice information about a sign language operation by matching the speech with the speech.
상기와 같은 목적을 달성하기 위한 본 발명의 수화 번역 시스템은, 사용자의 명령을 입력 받는 키 입력부, 수화 동작을 촬영하는 촬영부, 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 동작 인식부, 수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스, 상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 동작 해석부 및 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 출력부를 포함한다.According to another aspect of the present invention, there is provided a sign language translation system including a key input unit for inputting a command of a user, a photographing unit for photographing a sign language operation, an operation for converting the image information of the sign language image captured by the photographing unit into sign language information A database for storing sign language information corresponding to the sign language information value of the sign language and the sign language information corresponding to the sign language information value, a database for comparing the sign language information converted in the action recognition unit with the sign language information value stored in the database, And / or audio information, and an output unit for outputting character and / or audio information as a search result from the operation analysis unit.
한편, 본 발명의 수화 번역 방법은, 키 입력부로부터 수화 동작 촬영 및 번역 시작 기능키를 입력 받는 단계, 촬영부가 수화 동작을 촬영하는 단계, 동작 인식부가 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 단계, 동작 해석부가 상기 동작 인식부에서 변환된 수화 정보를 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 단계 및 출력부가 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 단계를 포함한다.
On the other hand, the sign language translation method of the present invention includes a step of receiving a sign language operation and a translation start function key from a key input unit, a step of photographing a sign language operation operation of a photographing unit, The operation analyzing unit compares the sign language information converted by the action recognition unit with the sign language information value stored in the database to search for the corresponding character and / or voice information, and the output unit searches the operation interpretation unit And outputting the resultant character and / or voice information.
상술한 바와 같이, 본 발명에 의한 수화 번역 시스템 및 방법에 따르면, 수화 동작을 손의 개수, 손가락의 개수, 손 및 손가락 움직임의 방위각 등으로 변환하고, 이를 문자 및/또는 음성과 매칭하여 수화 동작에 대한 문자 및/또는 음성 정보를 출력함으로써, 수화자가 자신의 의사를 비수화자에게 전달하는 것이 가능하다.
As described above, according to the sign language translation system and method of the present invention, the sign language operation is converted into the number of hands, the number of fingers, the azimuth angle of the hand and finger movements, etc., It is possible for the receiver to transmit his / her own opinion to the non-receiver.
도 1은 본 발명의 일 실시예에 따른 수화 번역 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 수화 번역 시스템의 동작 인식부가 인식한 수화 정보를 나타내는 실행화면이다.
도 3은 본 발명의 일 실시예에 따른 수화 번역 시스템의 운영 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 수화 번역 시스템에 대한 디스플레이 결과의 일례이다.1 is a block diagram schematically showing a sign language translation system according to an embodiment of the present invention.
2 is an execution screen showing the sign language information recognized by the action recognition unit of the sign language translation system according to the embodiment of the present invention.
3 is an operational flowchart of a sign language translation system according to an embodiment of the present invention.
4 is an example of a display result for a sign language translation system according to an embodiment of the present invention.
각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.
이하, 본 발명의 수화 번역 시스템에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, a sign language translation system of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 수화 번역 시스템을 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically showing a sign language translation system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 수화 번역 시스템(100)은, 수화 번역 시스템(100)의 전반적인 동작을 제어하는 제어부(110), 사용자의 명령을 입력 받는 키 입력부(120), 수화 동작을 촬영하는 촬영부(130), 상기 촬영부가 촬영한 수화 동작의 영상 정보를 좌표값, 방위각 등의 수화 정보로 변환하여 수화 동작을 인식하는 동작 인식부(140), 수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스(150), 상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 또는 음성 정보를 검색하는 동작 해석부(160) 및 상기 동작 해석부로부터의 검색 결과인 문자 또는 음성 정보를 출력하는 출력부(170)를 포함하여 이루어진다.1, a sign
제어부(110)는 위와 같은 수화 번역 시스템(100)의 구성 요소들의 전반적인 제어를 담당하는 프로세서에 해당하고, 위와 같은 구성 요소들의 일부 또는 전부를 포함하도록 구성할 수도 있다.The
키 입력부(120)는 사용자의 명령을 입력 받기 위한 수단으로서, 예컨대, 수화 동작 촬영 및 번역 시작/종료, 번역 정보 출력 수단 등을 선택하기 위한 각종 기능키 등으로 구성된다.The
촬영부(130)는 수화 동작을 촬영하여 수화 동작의 움직임을 동작 인식부(140)에 영상 신호로 출력하는데, 본 발명의 실시예에서는 2개의 적외선 카메라(또는 적외선 인식 모듈), 3개의 적외선 LED 광원 등을 포함하여 이루어질 수 있다.In the embodiment of the present invention, two infrared cameras (or an infrared ray recognition module), three infrared ray LEDs A light source, and the like.
동작 인식부(140)는 촬영부(130)로부터 출력되는 영상 신호를 좌표값, 방위각 등의 수화 정보로 변환하여 수화 동작을 인식하고 이를 동작 해석부(160)에 출력한다.The
본 발명의 일 실시예에서 동작 인식부(140)는 촬영부(130)의 적외선 카메라를 사용해서 손이 움직임을 추적하고 그것을 3D 지도로 그려 손의 움직임을 인식한다. 즉, 촬영부(130)를 통하여 입력되는 영상을 x, y축 뿐만 아니라 깊이 정보인 z축 정보로 나누어 인식하고 좌표값으로 변환함으로써 영상 속 손의 위치를 분석하고, 거리를 측정함으로써 손의 동작 및 손가락 하나하나의 움직임을 세밀하게 인식한다.In one embodiment of the present invention, the
보다 구체적으로 설명하면, 동작 인식부(140)는 먼저 촬영부(130)로부터 영상 정보를 받아들이면서 x, y, z축을 결정하고, 다음으로 화면상의 특정점을 추출하여 이 점이 움직이는 궤도를 연속적으로 추적한 뒤 추적된 점들을 분석해 움직임을 인식한다. 이어, 동작 인식부(140)는 촬영부(130)로부터 출력되는 수화 동작의 영상 정보를 x, y, z 좌표값, 방위각 등의 수치로 변환하게 된다.More specifically, the
도 2는 본 발명의 일 실시예에 따른 수화 번역 시스템의 동작 인식부가 인식한 수화 정보를 나타내는 실행화면으로서, 예컨대, 손의 개수(hands)는 수화자의 양 손 중 한 손이 사용된 경우 1, 두 손이 사용된 경우 2가 된다. 그리고, 손가락의 개수(finger)는 펴진 손가락의 개수를 인식하며, 도구(tools)는 수화자의 손 이외의 도구가 인식되는 경우 사용되며, 제스처(gesture)는 손의 움직임으로서 예컨대, 원을 그리는 제스처인 경우 TYPECIRCLE, 손을 위 아래로 흔드는 제스처인 경우 TYPESWIPE로 정의된다.FIG. 2 is an execution screen showing the sign language information recognized by the action recognition unit of the sign language translation system according to the embodiment of the present invention. For example, the number of hands is 1 when both hands of the hand- If two hands are used, it becomes 2. In addition, the number of fingers recognizes the number of fingers extended, the tools are used when a tool other than the hand of the listener is recognized, and the gesture is a movement of a hand, for example, Is defined as TYPECIRCLE, and TYPESWIPE for gestures that shake hands up and down.
또한, 평균 손 끝 위치(average finger tip position) 및 손바닥 위치(palm position)는 구성된 3D 지도로부터 x, y, z축 값으로 나타나고, 손 반경(hand sphere radius)은 구성된 3D 지도로부터 단위 mm의 값으로 나타난다.In addition, the average finger tip position and palm position are represented by x, y, z axis values from the constructed 3D map, and the hand sphere radius is the value from the configured 3D map in mm .
마지막으로, 동작 인식부(140)는 촬영부(130)로부터 인가되는 영상 신호에서 방위각 정보를 근거로 손의 이동 방향에 대한 수직의 수평면에 있는 축 주위의 회전 즉, x축 회전 방위각(hand pitch), 손의 이동 방향에 대한 평행한 수평면에 있는 축 주위의 회전 즉, y축 회전 방위각(hand roll), 손의 이동 방향에 대한 수직의 수직면에 있는 축 주위의 회전 즉, z축 회전 방위각(hand yaw)을 인식하게 된다.Finally, the
데이터베이스(150)는 각 구성 요소에서 처리되는 각종 데이터를 일시 저장하기 위한 구성으로서, 수화 동작에 대한 좌표값, 방위각 등의 수화 정보값과 그러한 수화 정보값에 대응되는 문자와 음성 정보를 데이터베이스화하기 위하여 수화 동작을 데이터베이스화한다.The
본 발명의 일 실시예에서는 손 동작을 임의로 정의하여 데이터베이스화할 수도 있다. 예컨대, 손가락 개수에 따라 편 손가락 개수가 한 개일 때에는 '안녕하세요', 두 개일 때에는 '길 좀 알려주시겠어요?'로 정의하거나, 손가락으로 원을 그릴 때에는 '사랑합니다' 등으로 정의할 수 있다.In an embodiment of the present invention, the hand motion may be arbitrarily defined and converted into a database. For example, according to the number of fingers, it may be defined as "Hello" when the number of fingers is one, and "Would you tell me a way if you have two fingers", or "I love you" when you draw a circle with your fingers.
동작 해석부(160)는 동작 인식부(140)에서 변환된 수화 동작에 대한 수화 정보와 데이터베이스(150)에 저장된 수화 정보값을 비교하여 동일한 수화 정보가 있는지를 검색하고 동일한 수화 정보가 있는 경우 해당되는 문자 또는 음성 정보를 검색한다. 이에 따라, 검색된 해당 문자 또는 음성 정보를 출력부(170)에서 표시하거나 재생할 수 있다.The
출력부(170)는 수화자가 일반인이 의사소통에 필요한 문자를 보거나 음성을 들을 수 있도록 출력하기 위한 수단으로서, 동작 해석부(160)로부터의 검색 결과인 문자 또는 음성 정보를 출력하는데, 문자 정보 출력을 위한 모니터이거나 음성 정보 출력을 위한 스피커 형식일 수 있다.The
한편, 수화 번역 시스템(100)은 휴대가능하도록 소형으로 구성되며, 그 내부 구성요소로 소정의 동작 전원(Vcc)을 공급하기 위한 전원부를 포함하여 구성될 수 있다.
On the other hand, the sign
그러면, 여기서 상기와 같이 구성된 시스템을 이용한 본 발명의 수화 번역 방법에 대해 설명하기로 한다.Hereinafter, the sign language translation method of the present invention using the system configured as above will be described.
도 3은 본 발명의 일 실시예에 따른 수화 번역 시스템의 운영 흐름도이다.3 is an operational flowchart of a sign language translation system according to an embodiment of the present invention.
우선, 데이터베이스(150)에 수화 동작에 대한 좌표값, 방위각 등의 수화 정보와 그에 대응되는 각종 문자 또는 음성 등의 해석 정보가 저장된 상태에서, 사용자가 수화 번역 시스템(100)의 동작 상태를 온시킨 후 키 입력부(120)의 시작 기능키를 입력하게 되면(S201), 제어부(110)는 이를 근거로 각 구성 요소로 전원부로부터의 동작 전원을 공급하도록 제어하게 된다.First, in a state in which the sign language information such as the coordinate value and the azimuth for the sign language and the interpretation information such as various characters or voices corresponding thereto are stored in the
또한, 제어부(110)는 키 입력부(120)로부터 출력 종류 선택 기능키가 입력되었는지, 즉 수화 번역된 정보를 출력부(170)를 통해 문자 출력한 것인지, 음성 출력할 것인지 또는 문자 및 음성 출력할 것인지에 대한 선택 정보가 입력되는지를 확인하여, 키 입력부(120)로부터 선택된 출력 종류 정보가 인가된 경우 그 선택 출력 종류 정보를 데이터베이스(150)에 저장하게 된다. 한편, 키 입력부(120)로부터 소정 시간 동안 출력 종류 정보가 인가되지 않게 되면, 제어부(110)는 출력 종류 정보를 기본으로 설정된 문자 출력으로 자동 설정할 수 있다. 이때, 출력 종류 정보의 기본 설정 모드는 사용자에 의해 임의로 설정되거나 또는 수화 번역 시스템의 제작시 제작자에 의해 설정되는 것이 가능하다.The
한편, 촬영부(130)는 제1 및/또는 제2 카메라로부터 인가되는 영상 신호를 동작 인식부(140)로 송출하게 된다(S202).Meanwhile, the photographing
이어, 동작 인식부(140)는 촬영부(130)로부터 출력되는 수화 동작의 영상 신호를 좌표값, 방위각 등의 수치로 변환하여 조합함으로써 수화 동작에 대응되는 수화 정보를 생성하고(S203), 생성된 수화 정보를 동작 해석부(160)로 송출한다.Next, the
그리고, 동작 해석부(160)는 동작 인식부(140)로부터 인가되는 수화 정보를 근거로 데이터베이스(150)에서 해당 정보를 추출하여 동작 해석을 수행하게 된다(S204).Then, the
사용자에 의해 키 입력부(120)의 종료 기능키 정보가 입력되면, 해당 문자 및/또는 음성을 출력부(170)로 제공하게 된다(S205).When the user inputs the end function key information of the
한편, 출력부(170)는 동작 해석부(160)로부터 소정의 문자 및/또는 음성 데이터가 수신되는 경우, 해당 문자 및/또는 음성 데이터를 출력한다(S206).On the other hand, when predetermined character and / or voice data is received from the
따라서, 수화자는 자유로운 자세로 수화를 이용하여 비수화자에게 자신의 의사를 용이하게 전달할 수 있게 된다.Therefore, the receiver can easily communicate his / her wish to the non-receiver by using sign language in a free posture.
한편, 본 발명의 수화 번역 시스템은 다양한 통신 시스템에 적용하여 수화자가 통신기기를 편리하게 이용할 수 있도록 제공하는 것이 가능하다.
Meanwhile, the sign language translation system of the present invention can be applied to various communication systems to provide a receiver with convenient use of communication devices.
이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention.
100 : 수화 번역 시스템 110 : 제어부
120 : 키 입력부 130 : 촬영부
140 : 동작 인식부 150 : 데이터베이스
160 : 동작 해석부 170 : 출력부100: Sign language translation system 110:
120: key input unit 130:
140: motion recognition unit 150: database
160: Operation analysis unit 170: Output unit
Claims (4)
수화 동작을 촬영하는 촬영부,
상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 동작 인식부,
수화 동작의 수화 정보값과 그러한 수화 정보값에 대응하는 문자와 음성 정보를 저장하고 있는 데이터베이스,
상기 동작 인식부에서 변환된 수화 정보를 상기 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 동작 해석부 및
상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 출력부를 포함하는 수화 번역 시스템.
A key input unit for inputting a user command,
A photographing unit for photographing a sign language operation,
An operation recognition unit for converting the image information of the sign language operation captured by the image capturing unit into sign language information,
A database storing sign language information values of sign language operations and character and voice information corresponding to such sign language information values,
An operation analyzer for comparing the sign language information converted by the action recognition unit with the sign language information value stored in the database and searching for the corresponding character and / or voice information;
And an output unit for outputting character and / or voice information which is a search result from the operation analysis unit.
상기 동작 인식부는,
상기 촬영부로부터 상기 영상 정보를 받아들이면서 x, y, z축을 결정하고, 상기 영상 정보에서 손의 개수, 편 손가락의 개수, 손 끝의 평균 위치, 손바닥 위치를 x, y, z 좌표값 수치로 변환하며, 손의 이동 방향에 대한 수직의 수평면에 있는 축 주위의 회전 방위각, 손의 이동 방향에 대한 평행한 수평면에 있는 축 주위의 회전 방위각 및 손의 이동 방향에 대한 수직의 수직면에 있는 축 주위의 회전 방위각을 인식하여 수화 정보로 변환함으로써 수화 동작을 인식하는 수화 번역 시스템.
The method according to claim 1,
Wherein the motion recognition unit comprises:
The x, y, and z axes are determined while receiving the image information from the photographing unit, and the number of hands, the number of fingers, the average position of the fingertip, and the palm position are determined as x, y, The rotational azimuth angle around the axis in the horizontal plane perpendicular to the direction of movement of the hand, the rotational azimuth angle about the axis in the parallel horizontal plane relative to the direction of movement of the hand, And recognizes the hydration operation by converting the azimuth angle into the sign language information.
촬영부가 수화 동작을 촬영하는 단계,
동작 인식부가 상기 촬영부가 촬영한 수화 동작의 영상 정보를 수화 정보로 변환하는 단계,
동작 해석부가 상기 동작 인식부에서 변환된 수화 정보를 데이터베이스에 저장된 수화 정보값과 비교하여 해당되는 문자 및/또는 음성 정보를 검색하는 단계 및
출력부가 상기 동작 해석부로부터의 검색 결과인 문자 및/또는 음성 정보를 출력하는 단계를 포함하는 수화 번역 방법.
Receiving a sign language operation photographing and a translation start function key from a key input unit,
A step of photographing a shooting operation of the shooting unit,
Wherein the operation recognition unit converts the image information of the sign language operation captured by the image capturing unit into sign language information,
Comparing the sign language information converted by the action recognition unit with the sign language information value stored in the database and searching for the corresponding character and / or voice information;
And outputting a character and / or voice information which is a search result from the operation analyzing unit.
상기 수화 동작의 영상 정보를 수화 정보로 변환하는 단계는,
상기 동작 인식부가 상기 촬영부로부터 상기 영상 정보를 받아들이면서 x, y, z축을 결정하고, 상기 영상 정보에서 손의 개수, 편 손가락의 개수, 손 끝의 평균 위치, 손바닥 위치를 x, y, z 좌표값 수치로 변환하며, 손의 이동 방향에 대한 수직의 수평면에 있는 축 주위의 회전 방위각, 손의 이동 방향에 대한 평행한 수평면에 있는 축 주위의 회전 방위각 및 손의 이동 방향에 대한 수직의 수직면에 있는 축 주위의 회전 방위각을 인식하여 수화 정보로 변환하는 수화 번역 방법.4. The method of claim 3,
Wherein the step of converting the video information of the sign language operation into sign language information comprises:
Wherein the motion recognition unit recognizes the x, y, and z axes while receiving the image information from the photographing unit, and determines the number of hands, the number of fingers, the average position of the fingertips, and the palm position as x, y, z Coordinate value values, and includes a rotational azimuth angle around the axis in a horizontal plane perpendicular to the moving direction of the hand, a rotational azimuth angle around the axis in a parallel horizontal plane with respect to the hand moving direction, and a vertical plane perpendicular to the moving direction of the hand And converting the azimuth angle into sign language information.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020140123614A KR20160033329A (en) | 2014-09-17 | 2014-09-17 | System and Method for Translating Sign Language |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020140123614A KR20160033329A (en) | 2014-09-17 | 2014-09-17 | System and Method for Translating Sign Language |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20160033329A true KR20160033329A (en) | 2016-03-28 |
Family
ID=57007458
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020140123614A Ceased KR20160033329A (en) | 2014-09-17 | 2014-09-17 | System and Method for Translating Sign Language |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20160033329A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101958201B1 (en) * | 2018-02-14 | 2019-03-14 | 안동과학대학교 산학협력단 | Apparatus and method for communicating through sigh language recognition |
| CN112329451A (en) * | 2020-12-03 | 2021-02-05 | 云知声智能科技股份有限公司 | Sign language action video generation method, device, equipment and storage medium |
| CN112699758A (en) * | 2020-12-23 | 2021-04-23 | 平安银行股份有限公司 | Sign language translation method and device based on dynamic gesture recognition, computer equipment and storage medium |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20000017756A (en) | 1999-11-12 | 2000-04-06 | 황병익 | Apparatus for Translating of Finger Language |
-
2014
- 2014-09-17 KR KR1020140123614A patent/KR20160033329A/en not_active Ceased
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20000017756A (en) | 1999-11-12 | 2000-04-06 | 황병익 | Apparatus for Translating of Finger Language |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101958201B1 (en) * | 2018-02-14 | 2019-03-14 | 안동과학대학교 산학협력단 | Apparatus and method for communicating through sigh language recognition |
| CN112329451A (en) * | 2020-12-03 | 2021-02-05 | 云知声智能科技股份有限公司 | Sign language action video generation method, device, equipment and storage medium |
| CN112329451B (en) * | 2020-12-03 | 2024-02-02 | 云知声智能科技股份有限公司 | Sign language action video generation method, device, equipment and storage medium |
| CN112699758A (en) * | 2020-12-23 | 2021-04-23 | 平安银行股份有限公司 | Sign language translation method and device based on dynamic gesture recognition, computer equipment and storage medium |
| CN112699758B (en) * | 2020-12-23 | 2023-11-17 | 平安银行股份有限公司 | Sign language translation method, device, computer equipment and medium for dynamic gesture recognition |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3559935B1 (en) | Hands-free navigation of touch-based operating systems | |
| EP3258423B1 (en) | Handwriting recognition method and apparatus | |
| US11087637B2 (en) | Finger reading method and device based on visual gestures | |
| US11947752B2 (en) | Customizing user interfaces of binary applications | |
| US20100280983A1 (en) | Apparatus and method for predicting user's intention based on multimodal information | |
| US20130155237A1 (en) | Interacting with a mobile device within a vehicle using gestures | |
| CN104090652A (en) | Voice input method and device | |
| US20100090945A1 (en) | Virtual input system and method | |
| US10747499B2 (en) | Information processing system and information processing method | |
| US20210158031A1 (en) | Gesture Recognition Method, and Electronic Device and Storage Medium | |
| US20210233529A1 (en) | Imaging control method and apparatus, control device, and imaging device | |
| US20220114367A1 (en) | Communication system, display apparatus, and display control method | |
| KR20160033329A (en) | System and Method for Translating Sign Language | |
| JP2024516570A (en) | Data processing method, device, computer device and computer program | |
| CN111291539B (en) | File editing control method, device, computer device and storage medium | |
| Jamaludin et al. | Dynamic hand gesture to text using leap motion | |
| CN105955698A (en) | Voice control method and apparatus | |
| Hasan et al. | Implementation smart gloves for deaf and dumb disabled | |
| Shree et al. | A Virtual Assistor for Impaired People by using Gestures and Voice | |
| Le et al. | Multimodal smart interactive presentation system | |
| KR20220082477A (en) | System for providing automatic sign language translation using motion recognition and its methods | |
| KR101915182B1 (en) | Appratus for computing platform robust to environmental noises | |
| KR20250029544A (en) | Method for processing non-powered input and device therefor | |
| Amonoy et al. | Gesture-Controlled Device for Speakers Using Machine Learning | |
| CN121302232A (en) | Interactive intent recognition method, apparatus, wearable device and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20140917 |
|
| PA0201 | Request for examination | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20151021 Patent event code: PE09021S01D |
|
| PG1501 | Laying open of application | ||
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20160531 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20151021 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |