[go: up one dir, main page]

KR102480556B1 - 교육용 로봇의 동작보정 시스템 및 동작보정 방법 - Google Patents

교육용 로봇의 동작보정 시스템 및 동작보정 방법 Download PDF

Info

Publication number
KR102480556B1
KR102480556B1 KR1020200160784A KR20200160784A KR102480556B1 KR 102480556 B1 KR102480556 B1 KR 102480556B1 KR 1020200160784 A KR1020200160784 A KR 1020200160784A KR 20200160784 A KR20200160784 A KR 20200160784A KR 102480556 B1 KR102480556 B1 KR 102480556B1
Authority
KR
South Korea
Prior art keywords
correction
emotion
unit
value
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200160784A
Other languages
English (en)
Other versions
KR20220073067A (ko
Inventor
정지우
Original Assignee
주식회사 제페토로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제페토로보틱스 filed Critical 주식회사 제페토로보틱스
Priority to KR1020200160784A priority Critical patent/KR102480556B1/ko
Priority to PCT/KR2020/016933 priority patent/WO2022114263A1/ko
Publication of KR20220073067A publication Critical patent/KR20220073067A/ko
Application granted granted Critical
Publication of KR102480556B1 publication Critical patent/KR102480556B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

본 발명은 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버(30) 및 데이터베이스(40)를 가지며, 컴퓨팅 수단에 의해 수행되는 교육용 로봇(10)의 동작보정 시스템으로서, 사용자(20)의 질문정보를 수신하는 질문정보 수신부(100); 상기 질문정보 수신부(100)에서 수신된 질문정보에 대한 답변정보를 생성하는 답변정보 생성부(200); 기 설정된 기준에 따라, 상기 답변정보 생성부(200)에서 산출된 답변정보의 감정 및 강도를 판정하는 감정보정 판정부(300); 상기 감정보정 판정부(300)에서 산출된 감정 및 감정의 정도에 따라, 교육용 로봇의 신체의 동작 움직임을 보정하는 신체동작 보정연산부(400); 및 상기 신체동작 보정연산부(400)에서 산출된 보정값을 적용하여 신체를 구동시키는 구동부(500)를 포함하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템이다.

Description

교육용 로봇의 동작보정 시스템 및 동작보정 방법{Operational Calibration System and Method of Training Robot}
본 발명은 교육용 로봇의 동작보정 시스템 및 동작보정 방법에 관한 것이다. 구체적으로 감정보정을 통해 교육용 로봇의 신체 동작을 보정하는 기술에 관한 것이다.
종래의 교육용 로봇은 미리 정해진 대화문에 따라서만 대화가 가능한 경우가 일반적이었다.
이에, 자연어 처리(natural language processing) 방법에 의해 미리 정해진 대화문이 아니라, 미지정된 대화문이 생성되는 방법이 교육용 로봇에 도입되는 추세에 있다.
자연어(natural language)란 우리가 일상 생활에서 사용하는 언어를 의미한다. 자연어 처리(natural language processing)란 이러한 자연어의 의미를 분석하여 컴퓨터가 처리할 수 있도록 하는 것을 의미한다.
자연어 처리는 음성 인식, 내용 요약, 번역, 사용자의 감성 분석, 텍스트 분류 작업(스팸 메일 분류, 뉴스 기사 카테고리 분류), 질의 응답 시스템, 챗봇과 같은 곳에서 사용되는 분야이다.
하지만, 자연어 처리에 의해 대화내용은 감정이 표현된 문장이 생성되는 장점이 있었지만, 감정과 무관하게 대화만 주고 받는 형태로 운용되었기에, 사용자 특히 어린 학생 사용자의 경우 교육용 로봇과 감정이입이 되지 못하여 교육 효과가 저하되는 문제점이 있었다.
(문헌 1) 한국등록특허공보 제10-1882585호 (2018.07.20)
본 발명에 따른 교육용 로봇의 동작보정 시스템 및 동작보정 방법은 다음과 같은 해결과제를 가진다.
첫째, 당해 문장과 직전 문장의 관계를 고려하여, 교육용 로봇의 답변을 생성하고자 한다.
둘째, 교육용 로봇이 답변을 할 때, 교육용 로봇의 표정과 신체 변화를 통해 사용자와 교감을 이루고자 한다.
본 발명의 해결과제는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명은 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버 및 데이터베이스를 가지며, 컴퓨팅 수단에 의해 수행되는 교육용 로봇의 동작보정 시스템으로서, 사용자의 질문정보를 수신하는 질문정보 수신부; 상기 질문정보 수신부에서 수신된 질문정보에 대한 답변정보를 생성하는 답변정보 생성부; 기 설정된 기준에 따라, 상기 답변정보 생성부에서 산출된 답변정보의 감정 및 강도를 판정하는 감정보정 판정부; 상기 감정보정 판정부에서 산출된 감정 및 감정의 정도에 따라, 교육용 로봇의 신체의 동작 움직임을 보정하는 신체동작 보정연산부; 및 상기 신체동작 보정연산부에서 산출된 보정값을 적용하여 신체를 구동시키는 구동부를 포함할 수 있다.
본 발명에 있어서, 상기 답변정보 생성부는 당해 질문정보 이전에 수신된 질문정보로부터 문맥을 파악하여 당해 질문정보의 답변정보를 산출하는 문맥보정 판정부를 더 구비할 수 있다.
본 발명에 있어서, 답변정보 생성부, 문맥보정 판정부 및 감정보정 판정부는 자연어처리 기법 또는 딥러닝 기법으로 정보를 분석할 수 있다.
본 발명에 있어서, 상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하면, 당해 질문정보 또는 답변정보를 문맥보정 판정부로 보내며, 상기 문맥보정 판정부가 당해 질문정보와 이전에 수신된 대화정보를 상기 데이터베이스에 저장된 문맥정보와 대비하여, 당해 질문정보와 이전 대화정보의 문맥이 기 설정된 문맥범위 내에 속한다고 판정한 때에는, 상기 문맥보정 판정부는 기 설정된 문백범위 내의 문맥 키워드를 포함하는 답변정보를 생성할 수 있다.
본 발명에 있어서, 상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 없다고 판정한 때 또는 상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하여 당해 질문정보를 문맥보정 판정부로 보내고, 상기 문맥보정 판정부가 당해 질문정보와 이전에 수신된 대화정보 및 상기 데이터베이스에 저장된 문백정보를 대비하여, 당해 질문정보와 이전 질문정보의 문맥이 기 설정된 문맥범위내에 속한다고 판정한 때에는, 상기 답변정보 생성부는 데이터베이스에서 당해 질문정보의 키워드가 속한 키워드 그룹의 키워드를 포함하는 답변정보를 생성할 수 있다.
본 발명에 있어서, 상기 감정보정 판정부는 감정의 유형을 수치화하는 감정유형 판정부 및 감정의 강도를 수치화하는 감정강도 판정부로 구비될 수 있다.
본 발명에 있어서, 상기 감정유형 판정부는 상기 답변정보를 분석하여 감정유형을 긍정유형, 중립유형 및 부정유형으로 구분하고, 기 설정된 범위내의 감정유형값으로 산출할 수 있다.
본 발명에 있어서, 상기 감정강도 판정부는 상기 답변정보를 분석하여 상기 각 유형의 강도를 기 설정된 범위내의 감정강도값으로 산출할 수 있다.
본 발명에 있어서, 상기 신체동작 보정연산부는 감정보정 판정부가 산출한 감정유형값 및 감정강도값에 따른 신체동작 보정값을 산출할 수 있다.
본 발명에 있어서, 상기 신체동작 보정연산부는 감정유형이 긍정유형이면 보정값은 (+)값으로 증가되고, 감정유형이 중립유형이면 보정값은 미부여되고, 감정유형이 부정유형이면 보정값은 (-)값으로 증가될 수 있다.
본 발명에 있어서, 상기 신체동작 보정연산부는 감정강도가 없을때의 값과 감정강도가 가장 강할때의 값의 범위 내에서 측정값을 가질 수 있다.
본 발명에 있어서, 상기 구동부는 상기 감정유형값에 있어서, 상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 눈썹이 수평상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 눈썹의 안쪽 단부가 상승하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 눈썹의 바깥쪽 단부가 상승하도록 대응 구동시킬 수 있다.
본 발명에 있어서, 상기 구동부는 상기 감정강도값이 증가하면, 긍정유형 및 부정유형에서의 상기 보정값이 대응하여 더욱 증가하며, 상기 교육용 로봇의 눈썹의 안쪽 단부의 구동 범위도 대응하여 증가할 수 있다.
본 발명에 있어서, 상기 구동부는 상기 감정유형값에 있어서, 상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 팔이 일반 상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 팔이 몸체 앞쪽으로 이동하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 팔이 몸체 뒷쪽으로 이동하도록 대응 구동시킬 수 있다.
본 발명은 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버 및 데이터베이스를 가지며, 컴퓨터에 의해 수행되는 교육용 로봇의 동작보정 방법으로서, 질문정보 수신부가 사용자의 질문정보를 수신하는 S1 단계; 답변정보 생성부가 상기 질문정보 수신부에서 수신된 질문정보에 대한 답변정보를 생성하는 S2 단계; 감정보정 판정부가 기 설정된 기준에 따라, 상기 답변정보 생성부에서 산출된 답변정보의 감정 및 강도를 판정하는 S3 단계; 신체동작 보정연산부가 상기 감정보정 판정부에서 산출된 감정유형값과 감정강도값에 따라, 교육용 로봇의 신체의 적어도 일부의 동작보정값을 계산하는 S4 단계; 및 구동부가 상기 신체동작 보정연산부에서 산출된 보정값을 적용하여 신체를 구동시키는 S5 단계를 포함할 수 있다.
본 발명에 있어서, S3 단계의 감정보정 판정부는 감정의 유형을 수치화하는 감정유형 판정부 및 감정의 강도를 수치화하는 감정강도 판정부로 구비될 수 있다.
본 발명에 있어서, S3 단계의 감정유형 판정부는 상기 답변정보를 분석하여 감정유형을 긍정유형, 중립유형 및 부정유형으로 구분하고, 기 설정된 범위내의 감정유형값으로 산출할 수 있다.
본 발명에 있어서, S3 단계의 감정강도 판정부는 상기 답변정보를 분석하여 상기 각 유형의 강도를 기 설정된 범위내의 감정강도값으로 산출할 수 있다.
본 발명에 있어서, S4 단계의 신체동작 보정연산부는 감정보정 판정부가 산출한 감정유형값 및 감정강도값에 따른 신체동작 보정값을 산출할 수 있다.
본 발명에 있어서, S4 단계의 신체동작 보정연산부는 감정유형이 긍정유형이면 보정값은 (+)값으로 증가되고, 감정유형이 중립유형이면 보정값은 미부여되고, 감정유형이 부정유형이면 보정값은 (-)값으로 증가될 수 있다.
본 발명에 있어서, S4 단계의 신체동작 보정연산부는 감정강도가 없을 때의 값과 감정강도가 가장 강할 때의 값의 범위 내에서 측정값을 가질 수 있다.
본 발명에 있어서, S5 단계의 구동부는 상기 감정유형값에 있어서, 상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 눈썹이 수평상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 눈썹의 안쪽 단부가 상승하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 눈썹의 바깥쪽 단부가 상승하도록 대응 구동시킬 수 있다.
본 발명에 있어서, S5 단계의 구동부는 상기 감정강도값이 증가하면, 긍정유형 및 부정유형에서의 상기 보정값이 대응하여 더욱 증가하며, 상기 교육용 로봇의 눈썹의 안쪽 단부의 구동 범위도 대응하여 증가할 수 있다.
본 발명에 있어서, S5 단계의 구동부는 상기 감정유형값에 있어서, 상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 팔이 일반 상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 팔이 몸체 앞쪽으로 이동하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 팔이 몸체 뒷쪽으로 이동하도록 대응 구동시킬 수 있다.
본 발명은 하드웨어와 결합되어, 청구항 15에 따른 교육용 로봇의 동작보정 방법을 컴퓨터에 의해 실행시키기 위하여 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.
본 발명에 따른 교육용 로봇의 동작보정 시스템 및 동작보정 방법은 다음과 같은 효과를 가진다.
첫째, 자연어 처리 및 문맥 보정을 통해, 당해 문장과 직전 문장의 문맥을 고려한 교육용 로봇의 답변을 생성하는 효과가 있다.
둘째, 교육용 로봇이 답변을 할 때, 교육용 로봇의 표정과 신체의 동작 보정을 하여, 사용자와 언어적 교감 및 제스처 등을 통한 비언어적 교감을 이루고자 한다.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 교육용 로봇의 동작보정 시스템의 개요도이다.
도 2는 본 발명에 따른 본 발명에 따른 교육용 로봇의 동작보정 시스템의 주요 구성부이다.
도 3 및 도 4는 본 발명에 따른 교육용 로봇의 동작보정 방법의 순서도이다.
도 5 및 도 6은 본 발명에서 교육용 로봇의 눈썹이 구동되는 것을 나타내는 일 실시예이다.
도 7 내지 도 9는 본 발명에서 교육용 로봇의 팔이 구동되는 것을 나타내는 일 실시예이다.
도 10은 본 발명에 따른 컴퓨팅 장치를 나타내는 도면이다.
이하, 첨부한 도면을 참조하여, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 설명한다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 이해할 수 있는 바와 같이, 후술하는 실시예는 본 발명의 개념과 범위를 벗어나지 않는 한도 내에서 다양한 형태로 변형될 수 있다. 가능한 한 동일하거나 유사한 부분은 도면에서 동일한 도면부호를 사용하여 나타낸다.
본 명세서에서 사용되는 전문용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지는 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다.
본 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특정 특성, 영역, 정수, 단계, 동작, 요소, 성분 및/또는 군의 존재나 부가를 제외시키는 것은 아니다.
본 명세서에서 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.
이하에서는 도면을 참고하여 본 발명을 설명하고자 한다. 참고로, 도면은 본 발명의 특징을 설명하기 위하여, 일부 과장되게 표현될 수도 있다. 이 경우, 본 명세서의 전 취지에 비추어 해석되는 것이 바람직하다.
본 발명은 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버(30) 및 데이터베이스(40)를 가지며, 컴퓨팅 수단에 의해 수행되는 교육용 로봇(10)의 동작보정 시스템에 관한 것이다.
도 1은 본 발명에 따른 교육용 로봇의 동작보정 시스템의 개요도이다.
도 1에 도시된 바와 같이, 교육용 로봇(10)과 사용자(20)는 대화를 할 수 있으며, 사용자(2)의 대화정보를 수신한 교육용 로봇(10)은 서버(30)를 통해 자연어 처리 알고리즘 등이 수행될 수 있다.
여기서, 서버(30)는 컴퓨팅 수단으로 연산기능을 수행하며, 무선 네트워크 또는 유선 네트워크로 교육용 로봇과 교신할 수 있다. 서버(30)는 교육용 로봇(10) 내부에 배치될 수도 있고, 별도로 클라우드 서버 형태 등으로 독립된 공간에 배치될 수도 있다. 데이터베이스(40)는 서버(30)의 연산에 필요한 정보를 저장하며, 또한 새로 생성되는 정보도 저장하게 된다. 데이터베이스(40)는 서버(30)와 교신한다. 이러한 각 행위는 컴퓨터에 의해 수행될 수 있다.
도 2는 본 발명에 따른 본 발명에 따른 교육용 로봇의 동작보정 시스템의 주요 구성부이다.
본 발명에 따른 교육용 로봇의 동작보정 시스템은 사용자(20)의 질문정보를 수신하는 질문정보 수신부(100); 상기 질문정보 수신부(100)에서 수신된 질문정보에 대한 답변정보를 생성하는 답변정보 생성부(200); 기 설정된 기준에 따라, 상기 답변정보 생성부(200)에서 산출된 답변정보의 감정 및 강도를 판정하는 감정보정 판정부(300); 상기 감정보정 판정부(300)에서 산출된 감정유형값과 감정강도값에 따라, 교육용 로봇의 신체의 적어도 일부의 동작보정값을 계산하는 신체동작 보정연산부(400); 및 상기 신체동작 보정연산부(400)에서 산출된 보정값을 적용하여 신체를 구동시키는 구동부(500)를 포함한다.
본 발명에 따른 답변정보 생성부(200)는 당해 질문정보 이전에 수신된 질문정보로부터 문맥을 파악하여 당해 질문정보의 답변정보를 산출하는 문맥보정 판정부(210)를 구비할 수 있다.
본 발명에 있어서, 답변정보 생성부(200), 문맥보정 판정부(210) 및 감정보정 판정부(300)는 자연어처리 기법 및 딥러닝 기법으로 정보를 분석할 수 있다.
이하에서는, 답변정보 생성부(200)에 관하여 설명하고자 한다.
본 발명에 따른 답변정보 생성부(200) 질문정보 수신부(100)에서 수신된 질문정보에 대한 답변정보를 생성할 수 있다.
본 발명에 따른 답변정보 생성부(200)는 사용자(20)의 질문에 대하여 교육용 로봇(10)이 답변을 하는 것을 의미한다.
교육용 로봇(10)의 답변정보는 사용자(20)의 당해 질문이 최초인 경우와 당해 질문 전에 관련된 대화정보가 있는 경우로 구분될 수 있다.
대화정보는 질문정보와 답변정보를 포함한다. 일반적으로 사용자가 먼저 질문을 하고 교육용 로봇이 답변을 하지만, 경우에 따라 교육용 로봇이 먼저 질문을 하는 실시예도 구현될 수 있을 것이다.
본 발명에 있어서, 상기 답변정보 생성부(200)가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하면, 당해 질문정보 또는 답변정보를 문맥보정 판정부(210)로 보낼 수 있다.
이때, 상기 문맥보정 판정부(210)가 당해 질문정보와 이전에 수신된 대화정보를 상기 데이터베이스에 저장된 문맥정보와 대비하여, 당해 질문정보와 이전 대화정보의 문맥이 기 설정된 문맥범위 내에 속한다고 판정한 때에는, 상기 문맥보정 판정부(210)는 기 설정된 문백범위 내의 문맥 키워드를 포함하는 답변정보를 생성할 수 있다.
본 발명에 있어서, 상기 답변정보 생성부(200)가 당해 질문정보 이전에 수신된 대화정보가 없다고 판정한 때 또는 상기 답변정보 생성부(200)가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하여 당해 질문정보를 문맥보정 판정부(210)로 보내고, 상기 문맥보정 판정부(210)가 당해 질문정보와 이전에 수신된 대화정보 및 상기 데이터베이스에 저장된 문백정보를 대비하여, 당해 질문정보와 이전 질문정보의 문맥이 기 설정된 문맥범위내에 속한다고 판정한 때에는, 상기 답변정보 생성부(200)는 데이터베이스에서 당해 질문정보의 키워드가 속한 키워드 그룹의 키워드를 포함하는 답변정보를 생성할 수 있다.
이하에서는, 감정보정 판정부(300)에 관하여 설명하고자 한다.
본 발명에 따른 감정보정 판정부(300)는 기 설정된 기준에 따라, 상기 답변정보 생성부(200)에서 산출된 답변정보의 감정 및 강도를 판정할 수 있다.
이와 같이 판정되는 감정 및 강도는 후술할 교육용 로봇의 표정 내지 신체의 동작 보정에 활용될 수 있다.
전술한 답변정보 생성부(200)에서 생성된 답변만 제시하면, 사용자와의 감정교감이 부족하므로, 본 감정보정 판정부(300)에서 답변에 내포된 감정을 수치화하여, 이를 교육용 로봇의 표정 내지 신체의 동작 움직임에 반영하면, 사용자는 교육용 로봇과 더욱 교감이 가능할 것이다.
본 발명에 따른 감정보정 판정부(300)는 감정의 유형을 수치화하는 감정유형 판정부(310) 및 감정의 강도를 수치화하는 감정강도 판정부(320)로 구비될 수 있다.
감정유형 판정부(310)는 답변정보를 분석하여 감정유형을 긍정유형, 중립유형 및 부정유형으로 구분하고, 기 설정된 범위내의 감정유형값으로 산출할 수 있다.
감정강도 판정부(320)는 답변정보를 분석하여 상기 각 유형의 강도를 기 설정된 범위내의 감정강도값으로 산출할 수 있다.
이하에서는, 신체동작 보정연산부(400)에 관하여 설명하고자 한다.
본 발명에 따른 신체동작 보정연산부(400)는 감정보정 판정부(300)에서 산출된 감정 및 감정의 정도에 따라, 교육용 로봇의 신체의 동작 움직임을 보정할 수 있다.
신체동작 보정연산부(400)는 감정보정 판정부(300)가 산출한 감정유형값 및 감정강도값에 따른 신체동작 보정값을 산출할 수 있다.
신체동작 보정연산부(400)는 감정유형이 긍정유형이면 보정값은 (+)값으로 증가되고, 감정유형이 중립유형이면 보정값은 미부여되고, 감정유형이 부정유형이면 보정값은 (-)값으로 증가될 수 있다.
신체동작 보정연산부(400)는 감정강도가 없을 때의 값과 감정강도가 가장 강할 때의 값의 범위 내에서 측정값을 가질 수 있다. 예를 들어, 감정강도가 없을때를 0점으로 하고, 감정강도가 가장 강할 때를 1점으로 하여, 감정강도는 0~1의 범위내의 값을 가질 수 있다.
이하에서는, 신체동작 보정연산부(400)에 관하여 설명하고자 한다.
본 발명에 따른 구동부(500)는 신체동작 보정연산부(400)에서 산출된 보정값을 적용하여 신체를 구동시킬 수 있다.
본 발명에 있어서, 신체구동은 교육용 로봇의 표정과 몸짓을 구동하는 것이 예시될 수 있다.
본 발명에서는 얼굴 표정을 통해 교육용 로봇의 감정을 용이하게 표현할 수 있는 부분으로 '눈썹'을 선택할 수 있다. 또한, 몸짓을 통해 교육용 로봇의 감정을 용이하게 표현하는 부분으로 '팔'을 선택할 수 있다.
도 5 및 도 6은 본 발명에서 교육용 로봇의 눈썹이 구동되는 것을 나타내는 일 실시예이다.
본 발명에 따른 구동부(500)는 감정유형값에 있어서, 상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 눈썹이 수평상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 눈썹(11)의 안쪽 단부(12)가 상승하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 눈썹(11)의 바깥쪽 단부(12)가 상승하도록 대응 구동시킬 수 있다.
긍정유형인 답변정보와 함께, 교육용 로봇의 눈썹(11)의 안쪽 단부(12)가 상승하면, 사용자(20)는 교육용 로봇의 긍정적 표현을 더욱 교감할 수 있을 것이다.
부정유형인 답변정보와 함께, 교육용 로봇의 눈썹(11)의 안쪽 단부(12)가 하강하면, 사용자(20)는 교육용 로봇의 부정적 표현을 더욱 교감할 수 있을 것이다.
본 발명에 따른 구동부(500)는 감정강도값이 증가하면, 긍정유형 및 부정유형에서의 상기 보정값이 대응하여 더욱 증가하며, 상기 교육용 로봇의 눈썹의 안쪽 단부(12)의 구동 범위도 대응하여 증가할 수 있다.
예로, 긍정감정 또는 부정감정의 강도값이 다른 경우, 이를 눈썹의 구동범위에 반영하는 구성이다. 사용자는 이러한 구성을 통한 눈썹의 구동과 교육용 로봇의 답변을 함께 받게 되므로, 사용자의 교감은 더욱 증가될 수 있을 것이다.
도 7 내지 도 9는 본 발명에서 교육용 로봇의 팔이 구동되는 것을 나타내는 일 실시예이다.
본 발명에 따른 상기 구동부(500)는 상기 감정유형값에 있어서, 중립유형으로 보정값이 미부여되면, 교육용 로봇의 팔(13)이 일반 상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 팔(13)이 몸체(14) 앞쪽으로 이동하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 팔(13)이 몸체(14) 뒷쪽으로 이동하도록 대응 구동시킬 수 있다.
한편, 본 발명은 교육용 로봇의 동작보정 방법으로 구현될 수도 있다. 전술한 동작보정 시스템과 실질적 내용은 동일하며, 발명의 카테고리가 상이한 것에 해당된다.
이에, 발명의 내용은 공통되므로, 공통되는 설명은 생략하고, 동작보정 방법에 대한 주요 단계를 설명하고자 한다.
도 3 및 도 4는 본 발명에 따른 교육용 로봇의 동작보정 방법의 순서도이다.
본 발명은 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버(30) 및 데이터베이스(40)를 가지며, 컴퓨터에 의해 수행되는 교육용 로봇(10)의 동작보정 방법에 관한 것이다.
본 발명에 따른 는 교육용 로봇의 동작보정 방법은 질문정보 수신부(100)가 사용자(20)의 질문정보를 수신하는 S1 단계; 답변정보 생성부(200)가 상기 질문정보 수신부(100)에서 수신된 질문정보에 대한 답변정보를 생성하는 S2 단계; 감정보정 판정부(300)가 기 설정된 기준에 따라, 상기 답변정보 생성부(200)에서 산출된 답변정보의 감정 및 강도를 판정하는 S3 단계; 신체동작 보정연산부(400)가 상기 감정보정 판정부(300)에서 산출된 감정유형값과 감정강도값에 따라, 교육용 로봇의 신체의 적어도 일부의 동작보정값을 계산하는 S4 단계; 및 구동부(500)가 상기 신체동작 보정연산부(400)에서 산출된 보정값을 적용하여 신체를 구동시키는 S5 단계를 포함한다.
각 세부 단계의 구성은 동작보정 시스템과 공통된다. 주된 특징은 다음과 같다.
S3 단계의 감정보정 판정부(300)는 감정의 유형을 수치화하는 감정유형 판정부(310) 및 감정의 강도를 수치화하는 감정강도 판정부(320)로 구비될 수 있다.
S3 단계의 감정유형 판정부(310)는 상기 답변정보를 분석하여 감정유형을 긍정유형, 중립유형 및 부정유형으로 구분하고, 기 설정된 범위내의 감정유형값으로 산출할 수 있다.
S3 단계의 감정강도 판정부(320)는 상기 답변정보를 분석하여 상기 각 유형의 강도를 기 설정된 범위내의 감정강도값으로 산출할 수 있다.
S4 단계의 신체동작 보정연산부(400)는 감정보정 판정부(300)가 산출한 감정유형값 및 감정강도값에 따른 신체동작 보정값을 산출할 수 있다.
S4 단계의 신체동작 보정연산부(400)는 감정유형이 긍정유형이면 보정값은 (+)값으로 증가되고, 감정유형이 중립유형이면 보정값은 미부여되고, 감정유형이 부정유형이면 보정값은 (-)값으로 증가될 수 있다.
S4 단계의 신체동작 보정연산부(400)는 감정강도가 없을 때의 값과 감정강도가 가장 강할 때의 값의 범위 내에서 측정값을 가질 수 있다.
S5 단계의 구동부(500)는 상기 감정유형값에 있어서, 상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 눈썹이 수평상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 눈썹(11)의 안쪽 단부(12)가 상승하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 눈썹(11)의 바깥쪽 단부(12)가 상승하도록 대응 구동시킬 수 있다.
S5 단계의 구동부(500)는 상기 감정강도값이 증가하면, 긍정유형 및 부정유형에서의 상기 보정값이 대응하여 더욱 증가하며, 상기 교육용 로봇의 눈썹의 안쪽 단부(12)의 구동 범위도 대응하여 증가할 수 있다.
S5 단계의 구동부(500)는 상기 감정유형값에 있어서, 상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 팔(13)이 일반 상태를 유지하도록 하며, 상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 팔(13)이 몸체(14) 앞쪽으로 이동하도록 대응 구동시키며, 상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 팔(13)이 몸체(14) 뒷쪽으로 이동하도록 대응 구동시킬 수 있다.
한편, 본 발명은 컴퓨터프로그램으로 구현될 수도 있다. 구체적으로, 하드웨어와 결합되어, 본 발명에 따른 교육용 로봇의 동작보정 방법을 컴퓨터에 의해 실행시키기 위하여 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.
이하에서는, 가상의 질의와 답변을 통해 본 발명의 특징을 더욱 구체적으로 설명하고자 한다.
먼저, 문맥보정을 설명한다.
대화가 여러마디 이상 진행되고 있을 경우, 그전 대화의 문맥에 관한 정보를 수신하는것이 가능하다. 대화의 유형에 따라서, 데이터베이스의 연관구동 보정정보를 참조해서, [표정 모터, 몸 모터, led 구동 ] 에 보정치가 더해질 수 있다.
예를 들어, 아래 표 1과 같은 질문정보와 답변정보를 가진 대화정보가 있다고 가정하면, 'Q1' 의 질의에 대해서, 로봇은 'A1' 의 답변을 시작하면서, 앞으로 추가적으로 대화를 이어나가기 위한 문맥 키워드를 생성을 하게 된다. 표 1과 같이 "산책", "긍정"이라는 문맥 키워드가 생성될 수 있다.
그리고 사용자가 'Q2'의 질의를 했을때, 로봇은 'A2'의 답변을 하게되는데, 이때 상기 문맥 키워드를 참조할 수 있다.
[Q1] (사용자 질문) 오늘 날씨 어때?
[A1] (로봇의 답변) 아주 좋은 날이야, 산책을 나가고 싶어~!
: 문맥 키워드(context)-산책, 긍정, 정보전달
[Q2] (사용자 질문) 어디로 산책 나가면 좋을까?
[A2] (로봇의 답변) 근처 공원이든 어디든 좋지 않을까?
문맥 키워드가 "긍정"이므로, 전체적인 대화 분위기가 긍정적임을 알게 된다. 미리 설정된 프리셋 정보에 따라(예로, "긍정" : [표정+1]) 표정에서 눈썹의 각도에 +1 도를 추가할 수 있다. 따라서 로봇의 눈썹은 올라가고 로봇의 표정은 더 웃는상이 될 수 있다.
또한, 문맥 키워드가 "정보전달"이므로, 전체적인 대화 분위기가 정보전달정 분위기임을 알게 된다. 미리 설정된 프리셋 정보에 따라(예로, "정보전달" : [제스처 회수 +1] ) 팔을 흔드는 제스처 회수가 원래 2회이었는데 1회를 추가해서 총 3회로 팔을 위아래로 왔다갔다하게, 궤적을 수정할 수 있다.
다음으로, 감정보정을 설명한다.
현재 로봇이 이야기할 대화문에서 감정의 정도 [부정]-1~1[긍정] 를 받아서 보정할 수 있고, [표정 모터, 몸 모터, led 구동] 에 보정치가 더해질 수 있다.
Figure 112020127461197-pat00001
또한, 아래 표 3의 대화문의 경우, 로봇이 대답할 " 아주 좋은날이야, 산책을 나가고싶어~! " 에 대해서 딥러닝 기술을 통해서 감정평가를 진행하게 된다.
[Q] (사용자 질문) 오늘 날씨 어때?
[A] (로봇의 답변) 아주 좋은 날이야, 산책을 나가고 싶어~!
감정판정 결과는 감정 유형과 감정 강도의 2가지로 수행될 수 있다.
감정 유형의 경우, 다음 표 4와 같이 구분될 수 있다.
[0.25 ~ +1] 긍정
[-0.25 ~ +0.25] 중립
[-1 ~ -0.25] 부정
예를 들어, 표 3에서 아주 좋은날이야, 산책을 나가고 싶어~! " 같은 경우, 긍정에 가까운 감정이며, 0.9 의 값이 나올 수 있다.
감정 강도의 경우, 위와 같은 감정의 긍정과 부정을 얼마나 강하게 느끼고 있는지 그 강도가 측정되는 것이다. 예를 들어, 0~1 사이 값으로 측정될 수 있다.
표 3에서 " 아주 좋은날이야, 산책을 나가고 싶어~! " 같은 경우, 0.9라는 매우 강렬한 감정으로 평가될 수 있을 것이다.
먼저, 감정유형값과 감정강도값이 다음과 같이 예시되는 경우를 설명하고자 한다.
[감정유형값: +0.9점, 감정강도값: +0.9점]
감정유형값이 +0.9점인 경우, 표정에서 눈썹의 각도에 3(최대보정)*09, +27도를 추가하게 될 것이다. 따라서 로봇의 눈썹은 올라가고 로봇의 표정은 더 웃는상이 될 것이다.
또한, 감정강도값이 +0.9점인 경우, 구동부(모터)에 의해 눈썹과 팔 목 등이 20% * 09 = 18%, 만큼 더 많이 움직이게 될 것이다.
다음으로, 감정유형값과 감정강도값이 다음과 같이 예시되는 경우를 설명하고자 한다.
[감정유형값: -0.7점, 감정강도값: +0.5점]
감정유형값이 -0.7점인 경우, 표정에서 눈썹의 각도에 3(최대보정)*-07, 21도를 삭감하게 될 것이다. 따라서 로봇의 눈썹은 내려가고 로봇의 표정은 화난 느낌을 주게 될 것이다.
또한, 감정강도값이 +0.5점인 경우, 구동부(모터)에 의해 눈썹과 팔, 목 등 이 20% * 05 = 10%, 만큼 더 많이 움직이게 될 것이다.
다음으로, 얼굴궤적 보정에 관하여 설명한다.
궤적 계산전 물리적 한계를 확인한 다음, 얼굴모터의 궤적을 계산할 수 있다. 얼굴 모터의 궤적을 확인해서, 특정구간에 있을 경우 [몸체 모터, led 구동 ] 에 보정치가 더해질 수 있다.
예를 들어, 눈썹의 각도가 0도 이하인 구간에 진입했을 경우, 눈썹의 각도가 0도 이하이면, 부정적이고 화난 표정을 가지게 될 것이다. 이때 몸의 동작에서 팔이 가만히 있는 상황이었다면, 화난 감정을 표시하기 위해서 팔을 앞으로 흔드는 제스처를 한번 추가해줄 수 있다. 또한, led 램프의 원래 색상이 약한 노란색이엇다면, 빨간색을 추가하여, 약한 주황색으로 변경할 수 있을 것이다.
다음으로, 몸체 궤적 보정을 설명한다.
궤적 계산전 물리적 한계를 확인한 다음, 몸체 모터의 궤적을 계산한다. 몸체 모터의 궤적을 확인해서, 특정 구간에 있을 경우, [ led 구동 ] 에 보정치가 더해지고, [얼굴모터]는 이미 만들어진 궤적을 보정하게 된다.
예를 들어, 팔이 회전을 하다가 등 뒤쪽으로 넘어간 구간에 진입했을 경우(0도 이하), 불편한 자세임으로 표정을 찡그리게 보정을 추가(눈썹의 각도에 -3도를 추가)할 수 있다. 또한, led 램프의 원래 색상이 약한 흰색이었다면, 빨간색을 추가해서, 약한 빨간색으로 변경할 수 있다.
다음으로, LED 구동 보정을 설명한다.
궤적 계산전 물리적 한계를 확인한 다음, LED 램프의 동작 정보를 계산한다. LED 램프의 동작 정보를 확인해서, 특정 구간에 있을 경우, [얼굴모터,및 몸 모터에]는 이미 만들어진 궤적을 보정하게 된다.
예를 들어, LED 램프가 파란색 계열( R G B, LED 값중 R+G <B 값인 경우)으로 동작하는 구간에서는 파란색은 차분한 느낌을 줌으로, 전체 궤적값을 10% 감소해서 움직이게 된다.
다음으로, 최종 궤적 검사를 설명한다.
모든 궤적을 계산한 이후 최종적으로 물리적 한계를 넘어서 모터를 손상시키거나 충돌하는 구간이 있는지 검사한 뒤에, 구동부 모터 및 LED 램프를 동작시킬 수 있다.
도 10은 본 발명에 따른 컴퓨팅 장치를 나타내는 도면이다.
본 발명에 따른 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다.
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.
한편, 앞서 설명된 본 발명의 실시예에 따른 방법들은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
본 명세서에서 설명되는 실시예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10 : 교육용 로봇 11 : 눈썹
12 : 눈썹 안쪽 단부 13 : 팔
14 : 몸체
20 : 사용자 30 : 서버
40 : 데이터베이스
100 : 질문정보 수신부 200 : 답변정보 생성부
210 : 문맥보정 판정부 300 : 감정보정 판정부
310 : 감정유형 판정부 320 : 감정강도 판정부
400 : 신체동작 보정연산부 500 : 구동부

Claims (26)

  1. 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버 및 데이터베이스를 가지며, 컴퓨팅 수단에 의해 수행되는 교육용 로봇의 동작보정 시스템으로서,
    사용자의 질문정보를 수신하는 질문정보 수신부; 상기 질문정보 수신부에서 수신된 질문정보에 대한 답변정보를 생성하는 답변정보 생성부; 기 설정된 기준에 따라, 상기 답변정보 생성부에서 산출된 답변정보의 감정 및 강도를 판정하는 감정보정 판정부; 상기 감정보정 판정부에서 산출된 감정 및 감정의 정도에 따라, 교육용 로봇의 신체의 동작 움직임을 보정하는 신체동작 보정연산부; 및 상기 신체동작 보정연산부에서 산출된 보정값을 적용하여 신체를 구동시키는 구동부를 포함하며,
    상기 답변정보 생성부는 당해 질문정보 이전에 수신된 질문정보로부터 문맥을 파악하여 당해 질문정보의 답변정보를 산출하는 문맥보정 판정부를 더 구비하며,
    상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하면, 당해 질문정보 또는 답변정보를 문맥보정 판정부로 보내며, 상기 문맥보정 판정부가 당해 질문정보와 이전에 수신된 대화정보를 상기 데이터베이스에 저장된 문맥정보와 대비하여, 당해 질문정보와 이전 대화정보의 문맥이 기 설정된 문맥범위 내에 속한다고 판정한 때에는, 상기 문맥보정 판정부는 기 설정된 문백범위 내의 문맥 키워드를 포함하는 답변정보를 생성하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  2. 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버 및 데이터베이스를 가지며, 컴퓨팅 수단에 의해 수행되는 교육용 로봇의 동작보정 시스템으로서,
    사용자의 질문정보를 수신하는 질문정보 수신부; 상기 질문정보 수신부에서 수신된 질문정보에 대한 답변정보를 생성하는 답변정보 생성부; 기 설정된 기준에 따라, 상기 답변정보 생성부에서 산출된 답변정보의 감정 및 강도를 판정하는 감정보정 판정부; 상기 감정보정 판정부에서 산출된 감정 및 감정의 정도에 따라, 교육용 로봇의 신체의 동작 움직임을 보정하는 신체동작 보정연산부; 및 상기 신체동작 보정연산부에서 산출된 보정값을 적용하여 신체를 구동시키는 구동부를 포함하며,
    상기 답변정보 생성부는 당해 질문정보 이전에 수신된 질문정보로부터 문맥을 파악하여 당해 질문정보의 답변정보를 산출하는 문맥보정 판정부를 더 구비하며,
    상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 없다고 판정한 때 또는 상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하여 당해 질문정보를 문맥보정 판정부로 보내고, 상기 문맥보정 판정부가 당해 질문정보와 이전에 수신된 대화정보 및 상기 데이터베이스에 저장된 문백정보를 대비하여, 당해 질문정보와 이전 질문정보의 문맥이 기 설정된 문맥범위내에 속한다고 판정한 때에는, 상기 답변정보 생성부는 데이터베이스에서 당해 질문정보의 키워드가 속한 키워드 그룹의 키워드를 포함하는 답변정보를 생성하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  3. 청구항 1 또는 청구항 2에 있어서,
    상기 답변정보 생성부는 당해 질문정보 이전에 수신된 질문정보로부터 문맥을 파악하여 당해 질문정보의 답변정보를 산출하는 문맥보정 판정부를 더 구비하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  4. 청구항 3에 있어서,
    답변정보 생성부, 문맥보정 판정부 및 감정보정 판정부는 자연어처리 기법 또는 딥러닝 기법으로 정보를 분석하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  5. 삭제
  6. 청구항 1 또는 청구항 2에 있어서,
    상기 감정보정 판정부는 감정의 유형을 수치화하는 감정유형 판정부 및 감정의 강도를 수치화하는 감정강도 판정부로 구비되는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  7. 청구항 6에 있어서,
    상기 감정유형 판정부는 상기 답변정보를 분석하여 감정유형을 긍정유형, 중립유형 및 부정유형으로 구분하고, 기 설정된 범위내의 감정유형값으로 산출하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  8. 청구항 7에 있어서,
    상기 감정강도 판정부는 상기 답변정보를 분석하여 상기 각 유형의 강도를 기 설정된 범위내의 감정강도값으로 산출하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  9. 청구항 8에 있어서,
    상기 신체동작 보정연산부는 감정보정 판정부가 산출한 감정유형값 및 감정강도값에 따른 신체동작 보정값을 산출하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  10. 청구항 9에 있어서,
    상기 신체동작 보정연산부는 감정유형이 긍정유형이면 보정값은 (+)값으로 증가되고, 감정유형이 중립유형이면 보정값은 미부여되고, 감정유형이 부정유형이면 보정값은 (-)값으로 증가되는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  11. 청구항 10에 있어서,
    상기 신체동작 보정연산부는 감정강도가 없을때의 값과 감정강도가 가장 강할때의 값의 범위 내에서 측정값을 가지는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  12. 청구항 11에 있어서,
    상기 구동부는 상기 감정유형값에 있어서,
    상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 눈썹이 수평상태를 유지하도록 하며,
    상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 눈썹의 안쪽 단부가 상승하도록 대응 구동시키며,
    상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 눈썹의 바깥쪽 단부가 상승하도록 대응 구동시키는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  13. 청구항 12에 있어서,
    상기 구동부는 상기 감정강도값이 증가하면,
    긍정유형 및 부정유형에서의 상기 보정값이 대응하여 더욱 증가하며, 상기 교육용 로봇의 눈썹의 안쪽 단부의 구동 범위도 대응하여 증가하는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  14. 청구항 11에 있어서,
    상기 구동부는 상기 감정유형값에 있어서,
    상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 팔이 일반 상태를 유지하도록 하며,
    상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 팔이 몸체 앞쪽으로 이동하도록 대응 구동시키며,
    상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 팔이 몸체 뒷쪽으로 이동하도록 대응 구동시키는 것을 특징으로 하는 교육용 로봇의 동작보정 시스템.
  15. 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버 및 데이터베이스를 가지며, 컴퓨터에 의해 수행되는 교육용 로봇의 동작보정 방법으로서,
    질문정보 수신부가 사용자의 질문정보를 수신하는 S1 단계; 답변정보 생성부가 상기 질문정보 수신부에서 수신된 질문정보에 대한 답변정보를 생성하는 S2 단계; 감정보정 판정부가 기 설정된 기준에 따라, 상기 답변정보 생성부에서 산출된 답변정보의 감정 및 강도를 판정하는 S3 단계; 신체동작 보정연산부가 상기 감정보정 판정부에서 산출된 감정유형값과 감정강도값에 따라, 교육용 로봇의 신체의 적어도 일부의 동작보정값을 계산하는 S4 단계; 및 구동부가 상기 신체동작 보정연산부에서 산출된 보정값을 적용하여 신체를 구동시키는 S5 단계를 포함하며,
    상기 답변정보 생성부는 당해 질문정보 이전에 수신된 질문정보로부터 문맥을 파악하여 당해 질문정보의 답변정보를 산출하는 문맥보정 판정부를 더 구비하며,
    상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하면, 당해 질문정보 또는 답변정보를 문맥보정 판정부로 보내며,
    상기 문맥보정 판정부가 당해 질문정보와 이전에 수신된 대화정보를 상기 데이터베이스에 저장된 문맥정보와 대비하여, 당해 질문정보와 이전 대화정보의 문맥이 기 설정된 문맥범위 내에 속한다고 판정한 때에는, 상기 문맥보정 판정부는 기 설정된 문백범위 내의 문맥 키워드를 포함하는 답변정보를 생성하는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  16. 답변정보 생성부, 문맥보정 판정부, 감정보정 판정부 및 신체동작 보정연산부를 포함하는 서버 및 데이터베이스를 가지며, 컴퓨터에 의해 수행되는 교육용 로봇의 동작보정 방법으로서,
    질문정보 수신부가 사용자의 질문정보를 수신하는 S1 단계; 답변정보 생성부가 상기 질문정보 수신부에서 수신된 질문정보에 대한 답변정보를 생성하는 S2 단계; 감정보정 판정부가 기 설정된 기준에 따라, 상기 답변정보 생성부에서 산출된 답변정보의 감정 및 강도를 판정하는 S3 단계; 신체동작 보정연산부가 상기 감정보정 판정부에서 산출된 감정유형값과 감정강도값에 따라, 교육용 로봇의 신체의 적어도 일부의 동작보정값을 계산하는 S4 단계; 및 구동부가 상기 신체동작 보정연산부에서 산출된 보정값을 적용하여 신체를 구동시키는 S5 단계를 포함하며,
    상기 답변정보 생성부는 당해 질문정보 이전에 수신된 질문정보로부터 문맥을 파악하여 당해 질문정보의 답변정보를 산출하는 문맥보정 판정부를 더 구비하며,
    상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 없다고 판정한 때 또는 상기 답변정보 생성부가 당해 질문정보 이전에 수신된 대화정보가 있다고 판정하여 당해 질문정보를 문맥보정 판정부로 보내고, 상기 문맥보정 판정부가 당해 질문정보와 이전에 수신된 대화정보 및 상기 데이터베이스에 저장된 문백정보를 대비하여, 당해 질문정보와 이전 질문정보의 문맥이 기 설정된 문맥범위내에 속한다고 판정한 때에는, 상기 답변정보 생성부는 데이터베이스에서 당해 질문정보의 키워드가 속한 키워드 그룹의 키워드를 포함하는 답변정보를 생성하는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  17. 청구항 15 또는 청구항 16에 있어서,
    S3 단계의 감정보정 판정부는 감정의 유형을 수치화하는 감정유형 판정부 및 감정의 강도를 수치화하는 감정강도 판정부로 구비되는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  18. 청구항 17에 있어서,
    S3 단계의 감정유형 판정부는 상기 답변정보를 분석하여 감정유형을 긍정유형, 중립유형 및 부정유형으로 구분하고, 기 설정된 범위내의 감정유형값으로 산출하는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  19. 청구항 18에 있어서,
    S3 단계의 감정강도 판정부는 상기 답변정보를 분석하여 상기 각 유형의 강도를 기 설정된 범위내의 감정강도값으로 산출하는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  20. 청구항 19에 있어서,
    S4 단계의 신체동작 보정연산부는 감정보정 판정부가 산출한 감정유형값 및 감정강도값에 따른 신체동작 보정값을 산출하는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  21. 청구항 20에 있어서,
    S4 단계의 신체동작 보정연산부는 감정유형이 긍정유형이면 보정값은 (+)값으로 증가되고, 감정유형이 중립유형이면 보정값은 미부여되고, 감정유형이 부정유형이면 보정값은 (-)값으로 증가되는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  22. 청구항 21에 있어서,
    S4 단계의 신체동작 보정연산부는 감정강도가 없을 때의 값과 감정강도가 가장 강할 때의 값의 범위 내에서 측정값을 가지는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  23. 청구항 22에 있어서,
    S5 단계의 구동부는 상기 감정유형값에 있어서,
    상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 눈썹이 수평상태를 유지하도록 하며,
    상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 눈썹의 안쪽 단부가 상승하도록 대응 구동시키며,
    상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 눈썹의 바깥쪽 단부가 상승하도록 대응 구동시키는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  24. 청구항 23에 있어서,
    S5 단계의 구동부는 상기 감정강도값이 증가하면,
    긍정유형 및 부정유형에서의 상기 보정값이 대응하여 더욱 증가하며, 상기 교육용 로봇의 눈썹의 안쪽 단부의 구동 범위도 대응하여 증가하는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  25. 청구항 22에 있어서,
    S5 단계의 구동부는 상기 감정유형값에 있어서,
    상기 중립유형으로 보정값이 미부여되면, 교육용 로봇의 팔이 일반 상태를 유지하도록 하며,
    상기 긍정유형으로 보정값이 (+)값으로 증가하면, 교육용 로봇의 팔이 몸체 앞쪽으로 이동하도록 대응 구동시키며,
    상기 부정유형으로 보정값이 (-)값으로 증가하면, 교육용 로봇의 팔이 몸체 뒷쪽으로 이동하도록 대응 구동시키는 것을 특징으로 하는 교육용 로봇의 동작보정 방법.
  26. 하드웨어와 결합되어, 청구항 15 또는 청구항 16에 따른 교육용 로봇의 동작보정 방법을 컴퓨터에 의해 실행시키기 위하여 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
KR1020200160784A 2020-11-26 2020-11-26 교육용 로봇의 동작보정 시스템 및 동작보정 방법 Active KR102480556B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200160784A KR102480556B1 (ko) 2020-11-26 2020-11-26 교육용 로봇의 동작보정 시스템 및 동작보정 방법
PCT/KR2020/016933 WO2022114263A1 (ko) 2020-11-26 2020-11-26 교육용 로봇의 동작보정 시스템 및 동작보정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200160784A KR102480556B1 (ko) 2020-11-26 2020-11-26 교육용 로봇의 동작보정 시스템 및 동작보정 방법

Publications (2)

Publication Number Publication Date
KR20220073067A KR20220073067A (ko) 2022-06-03
KR102480556B1 true KR102480556B1 (ko) 2022-12-23

Family

ID=81755765

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200160784A Active KR102480556B1 (ko) 2020-11-26 2020-11-26 교육용 로봇의 동작보정 시스템 및 동작보정 방법

Country Status (2)

Country Link
KR (1) KR102480556B1 (ko)
WO (1) WO2022114263A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119476313B (zh) * 2025-01-10 2025-05-27 北京卓越未来国际医药科技发展有限公司 一种虚拟数字人交互问答的方法、系统、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006289508A (ja) 2005-04-05 2006-10-26 Sony Corp ロボット装置及びその表情制御方法
JP2016193466A (ja) * 2015-03-31 2016-11-17 シャープ株式会社 ロボット
KR101997072B1 (ko) * 2018-02-21 2019-10-02 한성대학교 산학협력단 자연어를 이용한 로봇 제어시스템 및 그 동작 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101882585B1 (ko) 2016-11-29 2018-07-26 한양대학교 산학협력단 인간-로봇 상호작용을 위한 교육 환경에서의 자연어 문장/문단 가독성 분류 방법 및 시스템
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
JP6420514B1 (ja) * 2018-04-04 2018-11-07 一般社団法人It&診断支援センター・北九州 会話ロボット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006289508A (ja) 2005-04-05 2006-10-26 Sony Corp ロボット装置及びその表情制御方法
JP2016193466A (ja) * 2015-03-31 2016-11-17 シャープ株式会社 ロボット
KR101997072B1 (ko) * 2018-02-21 2019-10-02 한성대학교 산학협력단 자연어를 이용한 로봇 제어시스템 및 그 동작 방법

Also Published As

Publication number Publication date
KR20220073067A (ko) 2022-06-03
WO2022114263A1 (ko) 2022-06-02

Similar Documents

Publication Publication Date Title
US11314921B2 (en) Text error correction method and apparatus based on recurrent neural network of artificial intelligence
KR101925440B1 (ko) 가상현실 기반 대화형 인공지능을 이용한 화상 대화 서비스 제공 방법
CN106985137B (zh) 用于智能机器人的多模态交互方法及系统
CN112101045B (zh) 一种多模态语义完整性识别方法、装置及电子设备
CN109858555A (zh) 基于图像的数据处理方法、装置、设备及可读存储介质
CN109308353B (zh) 词嵌入模型的训练方法及装置
US20020178005A1 (en) System and method for adaptive language understanding by computers
CN107368572A (zh) 多功能智能人机交互方法及系统
CN114995657B (zh) 一种智能机器人的多模态融合自然交互方法、系统及介质
US20070250464A1 (en) Historical figures in today&#39;s society
CN115329779A (zh) 一种多人对话情感识别方法
CN113592251B (zh) 一种多模态融合的教态分析系统
CN109271636B (zh) 词嵌入模型的训练方法及装置
CN106502382B (zh) 用于智能机器人的主动交互方法和系统
KR20120064563A (ko) 이질적 정보를 이용하여 가상 휴먼의 표정을 제어하기 위한 장치 및 그 방법
CN114821744A (zh) 基于表情识别的虚拟人物驱动方法、装置及设备
CN114020906A (zh) 基于孪生神经网络的中文医疗文本信息匹配方法及系统
CN117251057A (zh) 一种基于aigc构建ai数智人的方法及系统
CN117521771A (zh) 模型训练方法、装置、电子设备和存储介质
KR102480556B1 (ko) 교육용 로봇의 동작보정 시스템 및 동작보정 방법
CN117972434A (zh) 文本处理模型的训练方法、装置、设备、介质和程序产品
Cafaro et al. Selecting and expressing communicative functions in a SAIBA-compliant agent framework
CN114969195A (zh) 对话内容挖掘方法和对话内容评估模型的生成方法
Yang et al. User behavior fusion in dialog management with multi-modal history cues
CN112084788A (zh) 一种影像字幕隐式情感倾向自动标注方法及系统

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20201126

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20220331

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20220926

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20221220

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20221220

End annual number: 3

Start annual number: 1

PG1601 Publication of registration