KR20240059075A - Machine learning-based online vocal analysis service system - Google Patents
Machine learning-based online vocal analysis service system Download PDFInfo
- Publication number
- KR20240059075A KR20240059075A KR1020220139857A KR20220139857A KR20240059075A KR 20240059075 A KR20240059075 A KR 20240059075A KR 1020220139857 A KR1020220139857 A KR 1020220139857A KR 20220139857 A KR20220139857 A KR 20220139857A KR 20240059075 A KR20240059075 A KR 20240059075A
- Authority
- KR
- South Korea
- Prior art keywords
- analysis
- unit
- machine learning
- vocal
- based online
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Primary Health Care (AREA)
- General Engineering & Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Strategic Management (AREA)
- Computing Systems (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 음성을 제외한 악기 및 소음을 제거하고, 음성 신호를 세분화하여 프레임별 특징을 추출하고, 추출된 특징과 원곡을 비교하고 비교 결과를 출력하고, 사용자 유형에 따라 분석, 가창, 녹음, 커뮤니티, 수업, 통계, 교육, 콘테스트, 경험, 공유 서비스를 제공하고, 음성 시계열 데이터, STFT 신호, 프레임 신호, 음정, 세기, 발성, 호흡, 발음, 감정 특징, 벡터 신호, 분석 결과를 포함하는 샘플링 데이터에 기반한 데이터 오류를 검증한다.The present invention removes instruments and noise other than voice, extracts features for each frame by segmenting voice signals, compares the extracted features with the original song, outputs the comparison result, and performs analysis, singing, recording, and community activities according to user type. , provides classes, statistics, training, contests, experiences, sharing services, and sampling data including voice time series data, STFT signals, frame signals, pitch, intensity, vocalization, breathing, pronunciation, emotional features, vector signals, and analysis results. Verify data errors based on
Description
본 발명은 기계학습 기반 온라인 보컬 분석 서비스 시스템에 관한 것으로, 보다 상세하게는 다각화된 가창 분석을 통한 일반화된 통계적 분석을 수행하고, 사용자에게 전문 교육을 제공하고, 강의 제공자에게는 교육 과정의 검증 및 홍보의 수단으로, 수강자에게는 효율적으로 실력을 향상하고, 시스템의 동작 신뢰성을 높이는 기계학습 기반 온라인 보컬 분석 서비스 시스템에 관한 것이다.The present invention relates to a machine learning-based online vocal analysis service system, and more specifically, to perform generalized statistical analysis through diversified singing analysis, provide professional training to users, and provide verification and promotion of training courses to course providers. As a means, it is about a machine learning-based online vocal analysis service system that efficiently improves students' skills and increases the operation reliability of the system.
본 발명에 관련된 종래기술에는 가이드 음성 재생, 보컬 치료, 음색 분석, 보컬 평가, 발성 분석이 있다. 특허문헌 1 단말 장치, 가이드 음성 재생 방법 및 기억 매체는 합성되는 가이드 음성의 성질을 연주 데이터에 따라 변화시킨다. 또한, 특허문헌 2 보컬프랙틱 시스템은 피교정자가 교정 정도 및 교정 여부를 시각적으로 인지할 수 있다. 또한, 특허문헌 3 사용자 음색 분석 장치 및 음색 분석 방법은 사용자가 자신의 노래 음색의 기존 가수들의 음색으로부터 독창성 정도에 대한 정보를 제공받는다. 또한, 특허문헌 4 보컬 평가 시스템은 보컬 관련 입시 준비생과 보컬 관련 지망생이 본인의 보컬 능력을 보다 객관적이고 절대적인 기준에 의해 파악할 수 있고, 다각도로 표준화된 평가 정보에 의해 미비한 점을 보완할 수 있다. 또한, 특허문헌 5 사용자의 발성을 분석하는 방법 및 이를 수행하는 장치는 사용자의 발성과 매칭되는 추천 기획사를 결정하고, 결정된 추천 기획사를 나타내는 추천 기획사 데이터를 생성한다.Prior art related to the present invention includes guided voice reproduction, vocal therapy, timbre analysis, vocal evaluation, and speech analysis. Patent Document 1 A terminal device, guide voice reproduction method, and storage medium change the properties of the synthesized guide voice according to performance data. In addition, Patent Document 2's vocal practice system allows the person being corrected to visually recognize the degree of correction and whether correction has been made. In addition, in Patent Document 3, a user tone analysis device and tone analysis method, a user receives information about the degree of originality of his or her song tone from the timbres of existing singers. In addition, Patent Document 4's vocal evaluation system allows students preparing for vocal entrance exams and vocal aspirants to determine their vocal abilities based on more objective and absolute standards, and can compensate for deficiencies through standardized evaluation information from various angles. In addition, Patent Document 5, a method for analyzing a user's vocalization and a device for performing the same, determines a recommended agency that matches the user's vocalization and generates recommended agency data indicating the determined recommended agency.
그러나 종래기술은 음성을 제외한 악기 및 소음을 제거하고, 음성 신호를 세분화하여 프레임별 특징을 추출하고, 추출된 특징과 원곡을 비교하고 비교 결과를 출력하지 못하는 문제점이 있다.However, the prior art has the problem of not being able to remove instruments and noises other than voices, segment voice signals to extract features for each frame, compare the extracted features with the original song, and output the comparison results.
본 발명은 음성을 제외한 악기 및 소음을 제거하고, 음성 신호를 세분화하여 프레임별 특징을 추출하고, 추출된 특징과 원곡을 비교하고 비교 결과를 출력하는 기계학습 기반 온라인 보컬 분석 서비스 시스템을 제공하는 것을 목적으로 한다.The present invention provides a machine learning-based online vocal analysis service system that removes instruments and noises other than voices, extracts features for each frame by segmenting voice signals, compares the extracted features with the original song, and outputs the comparison results. The purpose.
또한, 본 발명은 사용자 유형에 따라 분석, 가창, 녹음, 커뮤니티, 수업, 통계, 교육, 콘테스트, 경험, 공유 서비스를 제공하는 기계학습 기반 온라인 보컬 분석 서비스 시스템을 제공하는 것을 또 다른 목적으로 한다.Another purpose of the present invention is to provide a machine learning-based online vocal analysis service system that provides analysis, singing, recording, community, classes, statistics, education, contests, experience, and sharing services depending on the user type.
또한, 본 발명은 음성 시계열 데이터, STFT 신호, 프레임 신호, 음정, 세기, 발성, 호흡, 발음, 감정 특징, 벡터 신호, 분석 결과를 포함하는 샘플링 데이터에 기반한 데이터 오류를 검증하는 기계학습 기반 온라인 보컬 분석 서비스 시스템을 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention is a machine learning-based online vocal system that verifies data errors based on sampling data including voice time series data, STFT signal, frame signal, pitch, intensity, vocalization, breathing, pronunciation, emotional characteristics, vector signal, and analysis results. Another purpose is to provide an analysis service system.
본 발명의 바람직한 일 실시예에 따른 기계학습 기반 온라인 보컬 분석 서비스 시스템은, 흡음된 소리에서 소음을 제거하고, 세분화해서 특징을 추출하고, 추출된 특징과 기준값을 비교하고, 비교 결과를 출력하는 분석부(31); 사용자 유형1(40), 사용자 유형2(60)에 따라 분석, 가창, 녹음, 커뮤니티, 수업, 통계, 교육, 콘테스트, 경험, 공유 서비스를 제공하는 사용자 서비스(32); 및 키보드(21), 마우스(22), 터치스크린(23)의 조작을 입력받고, 입력된 조작에 따라 마이크(24), 스피커(25)를 이용한 기계학습 기반 온라인 보컬 분석 서비스를 수행하고, 상기 분석부(31), 상기 사용자 서비스(32)의 동작을 제어하는 제어부(5);를 포함하는 것을 특징으로 한다.The machine learning-based online vocal analysis service system according to a preferred embodiment of the present invention is an analysis that removes noise from the absorbed sound, extracts features by segmenting them, compares the extracted features with a reference value, and outputs the comparison results. wealth (31); User service (32) that provides analysis, singing, recording, community, class, statistics, education, contest, experience, and sharing services according to user type 1 (40) and user type 2 (60); and receives input operations of the keyboard 21, mouse 22, and touch screen 23, and performs a machine learning-based online vocal analysis service using the microphone 24 and speaker 25 according to the input operations, It is characterized in that it includes an analysis unit 31 and a control unit 5 that controls the operation of the user service 32.
또한, 상기 분석부(31)는, 음성 신호 입력 단계(S201), 음성을 제외한 악기 및 소음 제거 단계(S202), 음성 신호를 일정 시간 단위로 세분 단계(S203), 각 프레임별 신호 분석 및 특징 추출 단계(S204), 원곡과의 비교를 통한 세부 분석 내용 도출 단계(S205), 분석 종료 및 결과 출력 단계(S206)를 수행하는 것을 특징으로 한다.In addition, the analysis unit 31 includes a voice signal input step (S201), a musical instrument and noise removal step (S202) excluding voices, a subdividing voice signal into certain time units (S203), and signal analysis and characteristics for each frame. It is characterized by performing an extraction step (S204), a step of deriving detailed analysis contents through comparison with the original song (S205), and a step of completing the analysis and outputting the results (S206).
또한, 상기 단계(S202)는, 음성 신호를 STFT(Short Time Fourier Transform) 변환하여 분석하는 방법, 음성 신호를 직접 분석하는 방법을 혼합하여 목소리에 해당하는 신호를 분리하는 것을 특징으로 한다.In addition, the step (S202) is characterized by separating the signal corresponding to the voice by combining a method of analyzing the voice signal by converting it to Short Time Fourier Transform (STFT) and a method of directly analyzing the voice signal.
또한, 상기 단계(S204)는, 주변 소음이 제거된 음성 신호를 프레임 단위로 세분화하여 음정, 세기, 호흡, 발성, 발음, 감정을 분석하고, 발음은 한국어 발음을 국제 발음 기호로 변환하는 것을 특징으로 한다.In addition, in the step (S204), the voice signal from which the surrounding noise has been removed is segmented into frames to analyze pitch, intensity, breathing, vocalization, pronunciation, and emotion, and the pronunciation is characterized by converting Korean pronunciation into international pronunciation symbols. Do it as
또한, 상기 단계(S205)는, 원곡 또한 단계(204)를 통해 프레임별 분석하고, 각각의 프레임의 박자에 맞추어 대응시키고, 다이나믹 타임 래핑(DTW: Dynamic Time Wraping)을 이용하여 두 개의 시계열 데이터와 각 데이터별 거리 함수를 정의하고, 거리가 최소가 되는 경로를 선택한 후, 각 요소에 맞게 프레임별 비교하고, 각 요소별로 오차를 계산하는 것을 특징으로 한다.In addition, in step S205, the original song is also analyzed frame by frame through step 204, matched to the beat of each frame, and two time series data and two time series data are generated using dynamic time wrapping (DTW). It is characterized by defining a distance function for each data, selecting the path with the minimum distance, comparing each frame for each element, and calculating the error for each element.
또한, 상기 사용자 유형1(40)은, 사용자의 녹음분에 대한 시간별, 총 7가지 가창 요소별 세분 분석을 포함하는 분석 리포트(41); 반복 연습을 원하는 경우 해당 구간만 반복 연습하는 반복 가청부(42); 가창 요소별 다양한 연습을 수행하고, 실시간으로 분석하는 실시간 분석부(43); 연습 환경을 제공하고, 녹음, 재생하는 녹음/재생부(44); 가창 실력을 가시화하고 확인하는 실력 향상부(45); 가창 요소별 원곡과의 유사 정도를 시간에 따라 비교 분석하는 비교부(46); 가창 관련 의문에 대해 전문가에게 질의하고 답변하는 커뮤니티부(47); 전문가와 비전문가의 오프라인 수업을 매칭하는 수업 매칭부(48); 피수강자의 가창 실력 변화 데이터를 바탕으로 통계 분석하는 통계 분석부(49); 사용자에게 적합한 교육을 추천하는 교육 추천부(50);를 포함하는 것을 특징으로 한다.In addition, the user type 1 (40) includes an analysis report (41) that includes a detailed analysis of the user's recording by time and a total of seven singing elements; If you want to repeat practice, repeat audible part (42) to repeatedly practice only the section; A real-time analysis unit 43 that performs various exercises for each singing element and analyzes them in real time; a recording/playback unit 44 that provides a practice environment, records, and reproduces music; Skill improvement department (45) that visualizes and confirms singing skills; A comparison unit 46 that compares and analyzes the degree of similarity to the original song for each song element over time; Community Department (47), which questions and answers experts about singing-related questions; a class matching unit (48) that matches offline classes between experts and non-experts; Statistical Analysis Department (49), which conducts statistical analysis based on data on changes in singing skills of students taking the course; It is characterized by including an education recommendation unit 50 that recommends education suitable for the user.
또한, 상기 사용자 유형2(60)는, 지인, 지역, 소속 범위 내에서 경쟁하는 경쟁부(61); 앱을 사용하는 사용자끼리 경쟁하는 콘테스트(62); 지역 또는 소속에 포함된 사용자간에 경쟁하는 경쟁 콘테스트(63); 경험치 및 업적을 제공하는 경험치부(64); 듀엣 및 화음을 분석하는 화음 분석부(65); 녹음 내용 또는 분석 결과를 공유하는 공유부(66);를 포함하는 것을 특징으로 한다.In addition, the user type 2 (60) is a competition unit (61) that competes within the scope of acquaintances, regions, and affiliations; Contests (62) where users of the app compete against each other; Competitive contests (63) between users within a region or affiliation; Experience Department (64), which provides experience points and achievements; a chord analysis unit 65 that analyzes duets and chords; It is characterized by including a sharing unit 66 that shares the recording contents or analysis results.
또한, 상기 반복 가청부(42), 상기 실시간 분석부(43), 상기 화음 분석부(65)의 결과, DB(9)를 이용하여 녹음본과 원곡을 비교 분석하여 분석 리포트를 출력하는 분석 리포트(41)를 더 포함하는 것을 특징으로 한다.In addition, the results of the repetition audible unit 42, the real-time analysis unit 43, and the chord analysis unit 65 are compared and analyzed between the recording and the original song using the DB 9, and an analysis report is output. It is characterized by further comprising (41).
본 발명은 음성을 제외한 악기 및 소음을 제거하고, 음성 신호를 세분화하여 프레임별 특징을 추출하고, 추출된 특징과 원곡을 비교하고 비교 결과를 출력함으로써 다각화된 가창 분석을 통한 일반화된 통계적 분석을 수행하는 효과를 가질 수 있다.The present invention removes instruments and noises other than voices, extracts features for each frame by segmenting voice signals, compares the extracted features with the original song, and outputs the comparison results to perform generalized statistical analysis through diversified song analysis. It can have the effect of:
또한, 본 발명은 사용자 유형에 따라 분석, 가창, 녹음, 커뮤니티, 수업, 통계, 교육, 콘테스트, 경험, 공유 서비스를 제공함으로써 사용자에게 전문 교육을 제공하고, 강의 제공자에게는 교육 과정의 검증 및 홍보의 수단으로, 수강자에게는 효율적으로 실력을 향상하는 효과를 가질 수 있다.In addition, the present invention provides professional education to users by providing analysis, singing, recording, community, classes, statistics, education, contests, experience, and sharing services depending on the user type, and provides verification and promotion of the educational course to the course provider. As a means, it can have the effect of efficiently improving students' skills.
또한, 본 발명은 음성 시계열 데이터, STFT 신호, 프레임 신호, 음정, 세기, 발성, 호흡, 발음, 감정 특징, 벡터 신호, 분석 결과를 포함하는 샘플링 데이터에 기반한 데이터 오류를 검증함으로써 시스템의 동작 신뢰성을 높이는 효과를 가질 수 있다.In addition, the present invention improves the operational reliability of the system by verifying data errors based on sampling data including voice time series data, STFT signal, frame signal, pitch, intensity, vocalization, breathing, pronunciation, emotional characteristics, vector signal, and analysis results. Height can have an effect.
또한, 분석 리포트(41)는, 반복 가청부(42), 실시간 분석부(43), 화음 분석부(65)의 결과, DB(9)를 이용하여 녹음본과 원곡을 비교 분석하여 분석 리포트를 출력하는 것을 특징으로 한다.In addition, the analysis report 41 provides an analysis report by comparing and analyzing the recording and the original song using the results of the repetition audible unit 42, the real-time analysis unit 43, and the chord analysis unit 65, and the DB 9. It is characterized by output.
도 1은 본 발명 기계학습 기반 온라인 보컬 분석 서비스 장치의 구성을 보인 블록도이다.
도 2는 도 1 기계학습 기반 온라인 보컬 분석 서비스 방법의 분석 동작을 보인 흐름도이다.
도 3은 도 2 분석 동작의 소음 제거 과정을 보인 예시도이다.
도 4는 도 2 분석 동작의 특징 추출 과정을 보인 예시도이다.
도 5는 도 2 분석 동작의 비교 과정을 보인 예시도이다.
도 6은 도 1 기계학습 기반 온라인 보컬 분석 서비스 장치의 사용자 서비스를 보인 블록도이다.
도 7은 도 1 기계학습 기반 온라인 보컬 분석 서비스 장치의 반복 가청부, 실시간 분석부, 화음 분석부의 결과, DB(9)를 이용하여 녹음본과 원곡을 비교 분석하여 분석 리포트를 출력하는 예시도이다.
도 8은 본 발명을 설명하기 위한 데이터 오류를 검증하는 구성을 설명하는 예시도이다.
도 9는 본 발명을 설명하기 위한 하드웨어 자원과 운영체제, 코어인 제어부의 동작, 제어부 동작을 실행할 권한을 부여하는 시스템 인증 구성을 설명하는 예시도이다.Figure 1 is a block diagram showing the configuration of the machine learning-based online vocal analysis service device of the present invention.
Figure 2 is a flowchart showing the analysis operation of the machine learning-based online vocal analysis service method in Figure 1.
Figure 3 is an example diagram showing the noise removal process of the analysis operation in Figure 2.
Figure 4 is an example diagram showing the feature extraction process of the analysis operation in Figure 2.
Figure 5 is an example diagram showing the comparison process of the analysis operation in Figure 2.
Figure 6 is a block diagram showing the user service of the machine learning-based online vocal analysis service device of Figure 1.
Figure 7 is an example of outputting an analysis report by comparing and analyzing the recording and the original song using DB 9, the results of the repetitive audible part, real-time analysis part, and chord analysis part of the machine learning-based online vocal analysis service device in Figure 1. .
Figure 8 is an exemplary diagram illustrating a configuration for verifying data errors for illustrating the present invention.
Figure 9 is an example diagram illustrating the hardware resources, operating system, operation of the core control unit, and system authentication configuration that grants authority to execute the control unit operation to explain the present invention.
이하, 도면을 참조하여 본 발명의 실시 예에 따른 기계학습 기반 온라인 보컬 분석 서비스 시스템에 대하여 상세히 설명하기로 한다. 이하에서 종래 주지된 사항에 대한 설명은 본 발명의 요지를 명확히 하기 위해 생략하거나 간단히 한다. 본 발명의 설명에 포함된 구성은 개별 또는 복합 결합 구성되어 동작한다.Hereinafter, a machine learning-based online vocal analysis service system according to an embodiment of the present invention will be described in detail with reference to the drawings. Below, descriptions of previously known matters are omitted or simplified to clarify the gist of the present invention. The components included in the description of the present invention operate individually or in combination.
도 1은 본 발명 기계학습 기반 온라인 보컬 분석 서비스 장치의 구성을 보인 블록도로서, 도 1을 참조하면, 단말기(6)는 키보드(21), 마우스(22), 터치스크린(23), 마이크(24), 스피커(25), 제어부(5), 분석부(31), 사용자 서비스(32)를 포함한다.Figure 1 is a block diagram showing the configuration of the machine learning-based online vocal analysis service device of the present invention. Referring to Figure 1, the terminal 6 includes a keyboard 21, a mouse 22, a touch screen 23, and a microphone ( 24), speaker 25, control unit 5, analysis unit 31, and user service 32.
단말기(6)는 기계학습 기반 온라인 보컬 분석 서비스를 수행한다.The terminal 6 performs a machine learning-based online vocal analysis service.
키보드(21)는 타자기의 자판과 유사한 모양새를 띤 컴퓨터의 입력 장치 중 하나로, 시스템에 숫자, 문자를 입력할 때 사용되고, 키를 누르면 그에 대응한 신호가 시스템에 입력된다.The keyboard 21 is one of the computer input devices that has a similar shape to the keyboard of a typewriter and is used to input numbers and letters into the system. When a key is pressed, the corresponding signal is input into the system.
마우스(22)는 화면의 커서나 아이콘을 이동시킬 때 사용되는 입력 장치로, 커서 이동, 클릭, 스크롤을 포함하는 명령을 시스템에 입력한다.The mouse 22 is an input device used to move a cursor or icon on the screen, and inputs commands including cursor movement, clicking, and scrolling into the system.
터치스크린(23)은 손으로 접촉하면 그 위치를 입력받도록 하는 입력 장치로, 키보드(21)를 사용하지 않고, 화면에 나타난 문자, 특정 위치에 손이 닿으면 그 위치를 파악하여 시스템에 입력한다.The touch screen 23 is an input device that receives the location when touched by the hand. Instead of using the keyboard 21, the touch screen 23 detects the location of the text displayed on the screen or touches a specific location and inputs it into the system. .
마이크(24)는 소리를 흡음해서 전기적인 신호로 바꾸어 믹서나 녹음기로 전송하고, 제어부(5)에서 전기 신호를 처리한다.The microphone 24 absorbs sound, converts it into an electrical signal, and transmits it to a mixer or recorder, and the control unit 5 processes the electrical signal.
스피커(25)는 전기 신호를 진동판의 진동으로 바꾸어 공기에 소밀파를 발생시켜 음파를 복사하고, 제어부(5)에서 전기 신호를 생성한다.The speaker 25 converts the electrical signal into vibration of the diaphragm, generates a small density wave in the air, copies the sound wave, and generates an electrical signal in the control unit 5.
제어부(5)는 키보드(21), 마우스(22), 터치스크린(23)의 조작을 입력받고, 입력된 조작에 따라 마이크(24), 스피커(25)를 이용한 기계학습 기반 온라인 보컬 분석 서비스를 수행하고, 분석부(31), 사용자 서비스(32)의 동작을 제어한다.The control unit 5 receives operations from the keyboard 21, mouse 22, and touch screen 23, and provides a machine learning-based online vocal analysis service using the microphone 24 and speaker 25 according to the input operations. and controls the operations of the analysis unit 31 and the user service 32.
분석부(31)는 흡음된 소리에서 소음을 제거하고, 세분화해서 특징을 추출하고, 추출된 특징과 기준값을 비교하고, 비교 결과를 출력한다.The analysis unit 31 removes noise from the absorbed sound, extracts features by segmenting them, compares the extracted features with a reference value, and outputs the comparison result.
사용자 서비스(32)는 사용자 유형에 따라 분석, 가창, 녹음, 커뮤니티, 수업, 통계, 교육, 콘테스트, 경험, 공유 서비스를 제공한다.The user service 32 provides analysis, singing, recording, community, classes, statistics, education, contests, experience, and sharing services depending on the user type.
도 2는 도 1 기계학습 기반 온라인 보컬 분석 서비스 방법의 분석 동작을 보인 흐름도로서, 도 2를 참조하면, 단말기(6)는 음성 신호 입력 단계(S201), 음성을 제외한 악기 및 소음 제거 단계(S202), 음성 신호를 일정 시간 단위로 세분 단계(S203), 각 프레임별 신호 분석 및 특징 추출 단계(S204), 원곡과의 비교를 통한 세부 분석 내용 도출 단계(S205), 분석 종료 및 결과 출력 단계(S206)를 수행한다.Figure 2 is a flowchart showing the analysis operation of the machine learning-based online vocal analysis service method of Figure 1. Referring to Figure 2, the terminal 6 performs a voice signal input step (S201) and a musical instrument and noise removal step (S202) excluding voice. ), segmenting the voice signal into certain time units (S203), analyzing the signal for each frame and extracting features (S204), deriving detailed analysis contents through comparison with the original song (S205), completing the analysis and outputting the results ( Perform S206).
도 3은 도 2 분석 동작의 악기 및 소음 제거 과정을 보인 예시도이다.Figure 3 is an example diagram showing the instrument and noise removal process of the analysis operation in Figure 2.
단계(S202)는 도 3의 91인 음성 신호를 STFT(Short Time Fourier Transform)(진동수 신호) 변환하여 분석하는 방법, 도 3의 92인 음성 신호를 직접 분석하는 방법을 혼합하여 목소리에 해당하는 신호를 분리한다. 단계(S202)는 인공지능 구조 중 부호기(91, 95), 복호기(92, 96) 구조로 구성한다. 부호기(91, 95)는 음성 신호와 진동수 신호로 구분되며, 각각의 부호기(91, 95)를 통해 음성신호와 진동수 신호는 각각의 잠재벡터(Latent Vector)로 변환된다. 두 개의 부호기를 통한 서로 다른 잠재 벡터는 서로 교차분석되어 목소리에 해당하는 신호만을 추출하기 위한 잠재벡터로 변환된다(93). 이후, 교차 분석된 목소리 추출을 위한 음성 신호에 해당하는 잠재벡터와 진동수 신호에 해당하는 잠재벡터는 다시 구분된 복호기(92, 96)를 통해 목소리 이외의 신호가 제거된 음성 신호와 진동수 신호로 반환된다(97). 각각 복호화된 두 신호는 다시 교차 분석되어 최종 목소리 신호인 음성 신호로 분리된다(98).Step (S202) combines a method of converting and analyzing the voice signal 91 in FIG. 3 into a STFT (Short Time Fourier Transform) (frequency signal) and a method of directly analyzing the voice signal 92 in FIG. 3 to obtain a signal corresponding to the voice. Separate. Step (S202) consists of an encoder (91, 95) and a decoder (92, 96) structure among the artificial intelligence structures. The encoders (91, 95) are divided into voice signals and frequency signals, and through each encoder (91, 95), the voice signals and frequency signals are converted into respective latent vectors. Different latent vectors through the two encoders are cross-analyzed and converted into latent vectors to extract only signals corresponding to voices (93). Afterwards, the potential vector corresponding to the voice signal and the frequency signal for cross-analyzed voice extraction are returned to the voice signal and frequency signal from which signals other than the voice have been removed through the separated decoder (92, 96). It becomes (97). The two decoded signals are cross-analyzed again and separated into the final voice signal, a voice signal (98).
도 4는 도 2 분석 동작의 특징 추출 과정을 보인 예시도이다.Figure 4 is an example diagram showing the feature extraction process of the analysis operation in Figure 2.
단계(S204)는 주변 소음이 제거된 음성 신호를 프레임 단위로 세분화하여 분석한다. 도 4를 참고하면, 세분된 입력 신호(85)는 CNN(Convolution Neural Network) 구조(84)를 이용하여 잠재벡터(81)를 추출한다. 이때, 유사한 입력신호는 유사한 잠재벡터(81)로 변환되어야 한다. 이를 보정하기 위해 각각의 잠재벡터(81)는 전이 구조(Transformer)(86)를 거쳐 문맥벡터(content vector)(82)로 변환된다. 또한, 잠재벡터(81)는 MLM(Masked Language Model) 기법이 적용되어 이산화 단계(Quantized representation)(83)를 거쳐 입력신호 간 유사도가 학습된다. 이후, 입력신호(85)는 학습된 기계학습 모델(86)을 통해 잠재벡터(81)로 변환된다. 일반적으로 입력신호와 잠재벡터의 변환은 모든 음성 신호를 학습 데이터로 사용하지만, 본 발명에서는 음성 신호 중 노래에 대응되는 보컬 데이터만을 학습 데이터로 사용하여 보컬 정보에 잠재벡터(81)를 추출하고, 보컬 관련 특징을 보다 높은 정확도로 추출한다.In step S204, the voice signal from which the surrounding noise has been removed is segmented and analyzed on a frame-by-frame basis. Referring to FIG. 4, a latent vector 81 is extracted from the segmented input signal 85 using a CNN (Convolution Neural Network) structure 84. At this time, similar input signals must be converted into similar latent vectors (81). To correct this, each latent vector 81 is converted into a content vector 82 through a transformer 86. In addition, the masked language model (MLM) technique is applied to the latent vector 81 and the similarity between input signals is learned through a quantized representation 83. Afterwards, the input signal 85 is converted into a latent vector 81 through the learned machine learning model 86. Generally, the conversion between an input signal and a latent vector uses all voice signals as learning data, but in the present invention, only the vocal data corresponding to the song among the voice signals is used as learning data to extract a latent vector 81 from the vocal information, Vocal-related features are extracted with higher accuracy.
도 4의 단계(S204)를 통해 추출된 잠재벡터는 추가적인 5개의 구분된 기계학습 모델을 통해 음정, 세기, 호흡, 발성, 발음, 감정으로 구분되어 각각의 요소는 분석된다. 발음은 타 가창 요소와 비교하여 한국어 만의 언어적 특성으로 인해 이에 적합한 분석 방법이 적용된다. 본 발명은 한국어 발음을 국제 발음 기호로 변환하고, 적용된 발음 규칙 및 예외 사항 처리 순서는 예외처리-유기음화(겹받침)-경음화-겹받침단순화-비음화-리을 재음절화-유음화-구개음화-유기음화(홀받침)-연음-종성중화-리을 재음절화로 진행한다. 감정은 한국지능정보사회진흥원이 운영하는 AI 통합 플랫폼 “AI-hub”의 데이터 바탕으로 '기쁨', '불안', '상처', '슬픔', '분노', '당황' 총 6가지로 분류한다.The latent vectors extracted through step S204 of FIG. 4 are divided into pitch, intensity, breathing, vocalization, pronunciation, and emotion through five additional machine learning models, and each element is analyzed. Compared to other singing elements, pronunciation is a unique linguistic characteristic of Korean, so an analysis method appropriate for it is applied. The present invention converts Korean pronunciation into international pronunciation symbols, and the applied pronunciation rules and exception processing order are exception handling - aspirated consonants (overlapping consonants) - consonant consonants - consonant simplification - nasal consonants - li re-syllabification - consonant consonants - palatal consonants - aspirated consonants. (Hole consonant) - Yeoneum - final consonant neutralization - Li is re-syllableized. Emotions are classified into six categories: ‘joy’, ‘anxiety’, ‘hurt’, ‘sadness’, ‘anger’, and ‘embarrassment’ based on data from the AI integrated platform “AI-hub” operated by the Korea Intelligence Information Society Promotion Agency. do.
도 5는 도 2 분석 동작의 비교 과정을 보인 예시도이다.Figure 5 is an example diagram showing the comparison process of the analysis operation in Figure 2.
단계(S205)는 음성 신호를 프레임별 분석 완료한 후 원곡과 비교한다. 단계(S205)는 원곡 또한 단계(204)를 통해 프레임별 분석하고, 각각의 프레임의 박자에 맞추어 대응시킨다. 본 발명은 도 5의 다이나믹 타임 래핑(DTW: Dynamic Time Wraping)을 이용한다. 다이나믹 타임 래핑은 두 개의 시계열 데이터와 각 데이터별 거리 함수를 정의하고, 거리가 최소가 되는 경로를 선택한다. 이후, 단계(S205)는 각 요소에 맞게 프레임별 비교하고, 각 요소별로 오차를 계산하는 방법은 리그레션 모델(Regression Model)인 음정, 세기 모델 Mean Squared Error(MSE)를 적용하고, Classification Model인 호흡, 발성, 발음, 감정 모델 Cross Entropy, Error(CEE)를 적용한다. 단계(S205)는 DTW, MSE, CEE를 통해 박자, 음정, 세기, 호흡, 발성, 발음, 감정의 프레임별 원곡과 음성 신호 사이의 오차를 계산하고, 이동 평균에 따라 분석 결과를 출력한다.In step S205, the audio signal is analyzed frame by frame and compared with the original song. In step S205, the original song is also analyzed for each frame through step 204, and is matched to the beat of each frame. The present invention uses dynamic time wrapping (DTW) of FIG. 5. Dynamic time wrapping defines two time series data and a distance function for each data, and selects the path with the minimum distance. Afterwards, in step S205, each element is compared frame by frame, and the method of calculating the error for each element is to apply the pitch and intensity model Mean Squared Error (MSE), which is a regression model, and the classification model, which is the Mean Squared Error (MSE). Apply the breathing, vocalization, pronunciation, and emotion model Cross Entropy, Error (CEE). Step (S205) calculates the error between the original song and the voice signal for each frame of beat, pitch, intensity, breathing, vocalization, pronunciation, and emotion through DTW, MSE, and CEE, and outputs the analysis result according to the moving average.
도 6은 도 1 기계학습 기반 온라인 보컬 분석 서비스 장치의 사용자 서비스를 보인 블록도로서, 도 6을 참조하면, 사용자 서비스(32)는 사용자 유형1(40), 사용자 유형2(60)를 포함한다.Figure 6 is a block diagram showing the user service of the machine learning-based online vocal analysis service device of Figure 1. Referring to Figure 6, the user service 32 includes user type 1 (40) and user type 2 (60). .
사용자 서비스(32)는 사용자 유형1(40), 사용자 유형2(60)에 따라 분석, 가창, 녹음, 커뮤니티, 수업, 통계, 교육, 콘테스트, 경험, 공유 서비스를 제공한다.The user service 32 provides analysis, singing, recording, community, classes, statistics, education, contests, experience, and sharing services according to user type 1 (40) and user type 2 (60).
사용자 유형1(40)은 사용자의 녹음분에 대한 시간별, 총 7가지 가창 요소별 세분 분석을 포함하는 분석 리포트(41); 반복 연습을 원하는 경우 해당 구간만 반복 연습하는 반복 가청부(42); 가창 요소별 다양한 연습을 수행하고, 실시간으로 분석하는 실시간 분석부(43); 연습 환경을 제공하고, 녹음, 재생하는 녹음/재생부(44); 가창 실력을 가시화하고 확인하는 실력 향상부(45); 가창 요소별 원곡과의 유사 정도를 시간에 따라 비교 분석하는 비교부(46); 가창 관련 의문에 대해 전문가에게 질의하고 답변하는 커뮤니티부(47); 전문가와 비전문가의 오프라인 수업을 매칭하는 수업 매칭부(48); 피수강자의 가창 실력 변화 데이터를 바탕으로 통계 분석하는 통계 분석부(49); 사용자에게 적합한 교육을 추천하는 교육 추천부(50);를 포함한다.User type 1 (40) includes an analysis report (41) that includes a detailed analysis of the user's recordings by time and a total of 7 singing elements; If you want to repeat practice, repeat audible part (42) to repeatedly practice only the relevant section; A real-time analysis unit (43) that performs various exercises for each singing element and analyzes them in real time; a recording/playback unit 44 that provides a practice environment, records, and reproduces music; Skill improvement department (45) that visualizes and confirms singing skills; A comparison unit 46 that compares and analyzes the degree of similarity to the original song for each song element over time; Community Department (47), which questions and answers experts about singing-related questions; a class matching unit (48) that matches offline classes between experts and non-experts; Statistical Analysis Department (49), which conducts statistical analysis based on data on changes in singing skills of students taking the course; It includes an education recommendation unit 50 that recommends education suitable for the user.
사용자 유형2(60)는 지인, 지역, 소속 범위 내에서 경쟁하는 경쟁부(61); 앱을 사용하는 사용자끼리 경쟁하는 콘테스트(62); 지역 또는 소속에 포함된 사용자간에 경쟁하는 경쟁 콘테스트(63); 경험치 및 업적을 제공하는 경험치부(64); 듀엣 및 화음을 분석하는 화음 분석부(65); 녹음 내용 또는 분석 결과를 공유하는 공유부(66);를 포함한다.User type 2 (60) is a competition department (61) that competes within the scope of acquaintances, region, and affiliation; Contests (62) where users of the app compete against each other; Competitive contests (63) between users within a region or affiliation; Experience Department (64), which provides experience points and achievements; a chord analysis unit 65 that analyzes duets and chords; It includes a sharing unit 66 that shares recorded content or analysis results.
도 7은 도 1 기계학습 기반 온라인 보컬 분석 서비스 장치의 반복 가청부, 실시간 분석부, 화음 분석부의 결과, DB(9)를 이용하여 녹음본과 원곡을 비교 분석하여 분석 리포트를 출력하는 예시도이다.Figure 7 is an example of outputting an analysis report by comparing and analyzing the recording and the original song using DB 9, the results of the repetitive audible part, real-time analysis part, and chord analysis part of the machine learning-based online vocal analysis service device in Figure 1. .
도 7을 참조하면, 분석 리포트(41)는 반복 가청부(42), 실시간 분석부(43), 화음 분석부(65)의 결과를 이용한다. 분석 리포트(41)는 DB(9)로부터 데이터를 제공받아, 원곡과의 시간 동기화를 이룬 뒤, 다수의 분석부(31)에서 비동기적으로 분석을 수행하고, 이를 다시 종합하는 과정을 수행한다. 분석 리포트(41)는 비동기적인 분석부(31)를 이용하여 분석 리포트 서비스를 제공하는데 소용되는 시간을 비약적으로 줄일 수 있다.Referring to FIG. 7, the analysis report 41 uses the results of the repetition audible unit 42, the real-time analysis unit 43, and the chord analysis unit 65. The analysis report 41 receives data from the DB 9, achieves time synchronization with the original song, performs analysis asynchronously in multiple analysis units 31, and performs a process of synthesizing the data again. The analysis report 41 can dramatically reduce the time required to provide the analysis report service by using the asynchronous analysis unit 31.
도 8은 본 발명을 설명하기 위한 데이터 오류를 검증하는 구성을 설명하는 예시도이다.Figure 8 is an example diagram illustrating a configuration for verifying data errors to explain the present invention.
도 8을 참조하면, 제어부(5)는 샘플링 데이터를 저장하고, 일정 시간 동안 샘플링 데이터의 크기 별로 발생 회수를 누적하여 확률 분포를 계산하고, 또 다른 일정 시간 동안의 확률 분포를 계산하고, 두 확률 분포의 차, 면적 차, 차 거리 누적을 계산해서(S101) 샘플링 회로 이상, 데이터 오류, 데이터 변화를 예측하고, 이에 대응할 수 있다(S102). 제어부(5)는 예측 결과를 사용자에게 알림으로써 사용자가 대응하거나 제어부(5)가 하드웨어 고장, 데이터 오류, 데이터 변화에 대응할 수 있다.Referring to FIG. 8, the control unit 5 stores sampling data, calculates a probability distribution by accumulating the number of occurrences for each size of the sampling data over a certain period of time, calculates a probability distribution for another period of time, and calculates two probabilities. By calculating the distribution difference, area difference, and difference distance accumulation (S101), sampling circuit abnormalities, data errors, and data changes can be predicted and responded to (S102). The control unit 5 notifies the user of the prediction result so that the user can respond, or the control unit 5 can respond to hardware failure, data error, or data change.
샘플링 데이터는 음성 시계열 데이터, STFT 신호, 프레임 신호, 음정, 세기, 발성, 호흡, 발음, 감정 특징, 벡터 신호, 분석 결과를 포함하고, 제어부(5)는 샘플링 데이터에 기반하여 하드웨어 고장, 데이터 오류, 데이터 변화에 대응한다.The sampling data includes voice time series data, STFT signal, frame signal, pitch, intensity, vocalization, breathing, pronunciation, emotional characteristics, vector signal, and analysis results, and the control unit 5 detects hardware failure and data error based on the sampling data. , responds to data changes.
제어부(5)는 일정 시간 동안 마다 각각의 확률 분포 추이를 보고, 확률 분포 중 특이 현상 이상을 예측하고, 이상 사고에 대응하고, 확률 분포에 대해 데이터 변화가 일정하면 정상 동작을 외부에 알린다. 또한, 제어부(5)는 일정 시간 간격을 조정하기 위해 데이터 변화율을 피드백한다. 예를 들어, 데이터 변화율이 크면 일정 시간 간격을 늘리고, 데이터 변화율이 작으면 일정 시간 간격을 줄인다.The control unit 5 monitors the trend of each probability distribution for a certain period of time, predicts abnormalities in the probability distribution, responds to abnormal accidents, and reports normal operation to the outside if the data change in the probability distribution is constant. Additionally, the control unit 5 feeds back the data change rate to adjust a certain time interval. For example, if the data change rate is large, the certain time interval is increased, and if the data change rate is small, the certain time interval is shortened.
도 9는 본 발명을 설명하기 위한 하드웨어 자원과 운영체제, 코어인 제어부의 동작, 제어부 동작을 실행할 권한을 부여하는 시스템 인증 구성을 설명하는 예시도로서, 도 9를 참조하면, 본 발명은 프로세서(1), 메모리(2), 입출력장치(3), 운영체제(4), 제어부(5)를 포함한다.FIG. 9 is an exemplary diagram illustrating hardware resources and an operating system for explaining the present invention, operations of a control unit as a core, and a system authentication configuration that grants authority to execute control unit operations. Referring to FIG. 9, the present invention is a processor (1). ), memory (2), input/output device (3), operating system (4), and control unit (5).
프로세서(1)는 CPU(Central Processing Units), GPU(Graphic Processing Unit), FPGA(Field Programmable Gate Array), NPU(Neural Processing Unit)로서, 메모리(2)에 탑재된 운영체제(4), 제어부(5)의 실행 코드를 수행한다.The processor (1) is a CPU (Central Processing Unit), GPU (Graphic Processing Unit), FPGA (Field Programmable Gate Array), and NPU (Neural Processing Unit), and the operating system (4) and control unit (5) mounted on the memory (2) ) executes the execution code.
메모리(2)는 RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다.Memory (2) includes permanent mass storage devices such as random access memory (RAM), read only memory (ROM), disk drives, solid state drives (SSD), and flash memory. can do.
입출력장치(3)는 입력 장치로, 오디오 센서 및/또는 이미지 센서를 포함한 카메라, 키보드, 마이크로폰, 마우스 등의 장치를, 그리고 출력 장치로, 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다.The input/output device 3 is an input device, such as a camera, keyboard, microphone, mouse, etc. including an audio sensor and/or image sensor, and an output device such as a display, speaker, haptic feedback device, etc. May include devices.
운영체제(4)는 윈도우, 리눅스, IOS, 가상 머신, 웹브라우저, 인터프리터를 포함할 수 있고, 태스크, 쓰레드, 타이머 실행, 스케줄링, 자원 관리, 그래픽, 폰트 처리, 통신 등을 지원한다.The operating system 4 may include Windows, Linux, IOS, virtual machines, web browsers, and interpreters, and supports tasks, threads, timer execution, scheduling, resource management, graphics, font processing, communication, etc.
제어부(5)는 운영체제(4)의 지원하에 입출력장치(3)의 센서, 키, 터치, 마우스 입력에 의한 상태를 결정하고, 결정된 상태에 따른 동작을 수행한다. 제어부(5)는 병렬 수행 루틴으로 타이머, 쓰레드에 의한 작업 스케줄링을 수행한다.The control unit 5 determines the state based on sensor, key, touch, and mouse input of the input/output device 3 with the support of the operating system 4 and performs operations according to the determined state. The control unit 5 performs job scheduling by timers and threads using parallel execution routines.
제어부(5)는 입출력장치(3)의 센서값을 이용하여 상태를 결정하고, 결정된 상태에 따른 알고리즘을 수행한다.The control unit 5 determines the state using the sensor value of the input/output device 3 and performs an algorithm according to the determined state.
도 9를 참조하면, 시스템 인증 구성은 제어부(5)를 포함하는 단말기(6), 인증 서버(7)를 포함한다.Referring to Figure 9, the system authentication configuration includes a terminal 6 including a control unit 5, and an authentication server 7.
단말기(6)는 데이터 채널을 이중화하고, 단말기(6)의 키값, 생체 정보를 입력받아 인증 서버(7)에 제1데이터 채널을 통해 사용자 인증을 요청하고, 단말기(6)는 생성된 킷값을 디스플레이에 표시하고, 인증 서버(7)로 전송한다.The terminal 6 duplicates the data channel, receives the key value and biometric information of the terminal 6, and requests user authentication through the first data channel to the authentication server 7, and the terminal 6 receives the generated kit value. It is displayed on the display and transmitted to the authentication server (7).
단말기(6)는 단말기(6)의 디스플레이에 표시된 킷값을 입력하고, 사용자 정보와 함께 제2데이터 채널을 통해 인증 서버(7)로 전송한다. 단말기(6)는 킷값과 사용자 정보를 이용하여 단말기(6)에 탑재된 시스템의 인증을 인증 서버(7)에 요청한다. 단말기(6)의 킷값은 컴퓨터 고유의 정보인 CPU 제조번호, 이더넷 칩의 맥주소로부터 생성될 수 있다. 단말기(6)는 카메라를 이용한 얼굴 인식, 마이크를 이용한 음성 인식, 디스플레이를 이용한 필기 인식을 통해 사용자 정보를 획득하고, 인증에 활용할 수 있다.The terminal 6 inputs the kit value displayed on the display of the terminal 6 and transmits it along with the user information to the authentication server 7 through the second data channel. The terminal 6 requests the authentication server 7 to authenticate the system mounted on the terminal 6 using the kit value and user information. The kit value of the terminal 6 can be generated from computer-specific information, such as the CPU manufacturing number and the Ethernet chip number. The terminal 6 can obtain user information through face recognition using a camera, voice recognition using a microphone, and handwriting recognition using a display, and use it for authentication.
인증 서버(7)는 단말기(6)로부터 킷값을 수신하고, 단말기(6)로부터 이중화된 데이터 채널을 통해 킷값과 사용자 정보를 수신하여 단말기(6)의 킷값과 사용자 정보를 비교하고, 사용자 정보를 대응시켜 단말기(6)의 시스템 이용에 대한 인증을 처리한다. 인증 서버(7)는 인증 결과를 단말기(6)로 전송하여 시스템에 대한 사용자의 사용을 허가한다. 단말기(6)의 이중화된 데이터 채널로 인해 킷값 손실이 최소화되는 효과를 가질 수 있다.The authentication server 7 receives the kit value from the terminal 6, receives the kit value and user information from the terminal 6 through a duplicated data channel, compares the kit value and the user information of the terminal 6, and By matching, authentication for use of the system of the terminal 6 is processed. The authentication server 7 transmits the authentication result to the terminal 6 to authorize the user's use of the system. Due to the dual data channels of the terminal 6, kit value loss can be minimized.
인증 서버(7)는 사용자 정보의 히스토리 분석을 수행하고, 시간 흐름에 따라 사용자 정보의 일관성, 변화를 비교 판단한다. 히스토리 분석에서 사용자 정보가 일관성을 나타내면 사용자의 사용을 허가하고, 변화를 나타내면 사용자의 사용을 허가하지 않는다. 사용자 정보가 일관성을 나타낼 때 사용자의 시스템 사용을 허가함으로써 사용자 정보가 변조된 사용자가 시스템에 접근하지 못하도록 보안을 강화한다.The authentication server 7 performs history analysis of user information and compares and determines consistency and changes in user information over time. In history analysis, if user information shows consistency, the user's use is permitted; if it shows changes, the user's use is not permitted. By allowing users to use the system when user information shows consistency, security is strengthened to prevent users with altered user information from accessing the system.
인증 서버(7)는 일관성, 변화, 빈도, 빈도 추이, 빈도가 높음에 가중치를 부여해서 가중치 조합으로 신뢰되지 않은 사용자의 접근을 차단한다. 예를 들어, 빈도의 임계치가 초과하면 초과 누적수에 비례하여 신뢰되지 않은 사용자의 접근을 차단하고, 장시간에 걸쳐 접근 시도하는 사용자를 인증 처리할 수 있다. 이때, 신뢰되지 않은 사용자에 대해 추가 인증을 요청한다.The authentication server 7 assigns weights to consistency, change, frequency, frequency trend, and high frequency, and blocks access by untrusted users using a combination of weights. For example, if the frequency threshold is exceeded, access by untrusted users can be blocked in proportion to the accumulated number of excesses, and users who attempt access over a long period of time can be authenticated. At this time, additional authentication is requested for untrusted users.
시스템의 사용을 인증하는 수단인 단말기(6)는 시스템과 직접 연결하지 않고, 인증 서버(7)를 통한 우회 경로를 형성함으로써 인터넷망을 이루는 네트워크가 내부망과 외부망으로 구성되어 아이피 주소 설정 과정이 번거로울 때 단말기(6)를 이용한 인증 과정이 원활히 수행되는 장점이 있다. 이때, 단말기(6)에는 시스템이 탑재되고, 단말기(6)는 인증 단말 수단이 되고, 인증 서버(7)는 인증 서버 수단이 된다.The terminal 6, which is a means of authenticating the use of the system, does not connect directly to the system, but forms a bypass route through the authentication server 7, so that the network that makes up the Internet network is composed of an internal network and an external network, and the IP address setting process There is an advantage that the authentication process using the terminal 6 is performed smoothly in this cumbersome time. At this time, the system is mounted on the terminal 6, the terminal 6 becomes an authentication terminal means, and the authentication server 7 becomes an authentication server means.
클라우드(12)는 프로세서(1), 메모리(2), 입출력장치(3), 통신부(6)를 관리하는 운영체제(4)의 지원 하에 컨테이너(7)의 모듈화로, 웹(8), DB(9), 프로토콜(10), 라이브러리(11)의 서비스를 제공하며, 제어부(5)는 컨테이너(7)의 서비스를 이용한 클라우드 애플리케이션을 실행한다. 컨테이너(7)라고 하는 표준 소프트웨어 패키지는 애플리케이션의 코드를 관련 구성 파일, 라이브러리(11) 및 앱 실행에 필요한 종속성과 함께 번들로 제공한다.The cloud (12) is a modularization of the container (7) with the support of the operating system (4) that manages the processor (1), memory (2), input/output device (3), and communication unit (6), and the web (8) and DB ( 9), provides the services of the protocol 10 and library 11, and the control unit 5 executes a cloud application using the services of the container 7. A standard software package, called a container (7), bundles an application's code with associated configuration files, libraries (11), and dependencies needed to run the app.
클라우드(12)는 다수의 단말기(6)를 통합 제어하고, 단말기(6)로부터 수신된 센서값을 저장하여 시간 흐름에 따라 모니터링하고, 단말기(6)의 동작 에러를 처리하고, 에러 메시지를 다른 단말기(6)로 알리고, 제어 대상인 단말기(6)를 스위칭 제어한다.The cloud 12 integrates control of multiple terminals 6, stores sensor values received from the terminal 6, monitors them over time, processes operation errors of the terminal 6, and sends error messages to other terminals. Notifies the terminal 6, and performs switching control on the terminal 6 that is the control target.
신경망 학습은 온도, 고도, 지문 등 각종 센서, 이미지, 적외선 등 카메라, 라이더와 같은 입력 장치로부터 수집된 시계열 데이터로부터 특징량 선택, 알고리즘 선택을 통해 모델을 선택하고, 학습, 성능 검증 과정에 의한 반복 시행 착오를 거쳐 모델 선택을 반복한다. 성능 검증이 마치면 인공지능 모델이 선택된다.Neural network learning selects features from time series data collected from input devices such as temperature, altitude, fingerprints, various sensors, images, infrared cameras, and lidar, selects a model through algorithm selection, and repeats through the learning and performance verification process. Model selection is repeated through trial and error. After performance verification is completed, an artificial intelligence model is selected.
제어부(5)는 센서값 판단에 신경망을 이용한 딥러닝 알고리즘을 수행하고, 신경망 학습에 훈련 데이터를 이용하고, 시험 데이터로 신경망 성능을 검증한다.The control unit 5 performs a deep learning algorithm using a neural network to determine sensor values, uses training data to learn the neural network, and verifies the neural network performance with test data.
본 발명은 상술한 특정의 바람직한 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 해당 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.The present invention is not limited to the specific preferred embodiments described above, and various modifications can be made by anyone skilled in the art without departing from the gist of the invention as claimed in the claims. Of course, such changes are within the scope of the claims.
1: 프로세서
2: 메모리
3: 입출력장치
4: 운영체제
5: 제어부
6: 단말기
7: 인증 서버
8: 웹
9: DB
11: 라이브러리
12: 클라우드
14: 컨테이너
16: 통신부
21: 키보드
22: 마우스
23: 터치스크린
24: 마이크
25: 스피커
31: 분석부
311: 소음 제거부
312: 세분화부
313: 특징 추출부
314: 비교부
32: 사용자 서비스
40: 사용자 유형1
41: 분석 리포트
42: 반복 가창부
43: 실시간 분석부
44: 녹음/재생부
45: 실력 향상부
46: 비교부
47: 커뮤니티부
48: 수업 매칭부
49: 통계 분석부
50: 교육 추천부
60: 사용자 유형2
61: 경쟁부
62: 콘테스트
63: 경쟁 콘테스트
64: 경험치부
65: 화음 분석부
66: 공유부1: processor
2: memory
3: Input/output device
4: Operating system
5: Control unit
6: Terminal
7: Authentication server
8: web
9: DB
11: Library
12: Cloud
14: Container
16: Department of Communications
21: keyboard
22: mouse
23: Touch screen
24: microphone
25: speaker
31: analysis unit
311: noise removal unit
312: Subdivision unit
313: feature extraction unit
314: Comparison part
32: User service
40: User type 1
41: Analysis report
42: Repeat singing part
43: Real-time analysis unit
44: Recording/playback unit
45: Skill improvement department
46: Comparison part
47: Community Department
48: Class matching department
49: Statistical analysis department
50: Education recommendation department
60: User type 2
61: Competition Department
62: Contest
63: Competitive Contest
64: Experience points
65: Chord analysis section
66: Shared section
Claims (8)
사용자 유형1(40), 사용자 유형2(60)에 따라 분석, 가창, 녹음, 커뮤니티, 수업, 통계, 교육, 콘테스트, 경험, 공유 서비스를 제공하는 사용자 서비스(32); 및
키보드(21), 마우스(22), 터치스크린(23)의 조작을 입력받고, 입력된 조작에 따라 마이크(24), 스피커(25)를 이용한 기계학습 기반 온라인 보컬 분석 서비스를 수행하고, 상기 분석부(31), 상기 사용자 서비스(32)의 동작을 제어하는 제어부(5);를 포함하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.An analysis unit 31 that removes noise from the absorbed sound, extracts features by segmenting them, compares the extracted features with a reference value, and outputs the comparison result;
User service (32) that provides analysis, singing, recording, community, class, statistics, education, contest, experience, and sharing services according to user type 1 (40) and user type 2 (60); and
It receives input operations from the keyboard 21, mouse 22, and touch screen 23, performs a machine learning-based online vocal analysis service using the microphone 24 and speaker 25 according to the input operations, and performs the analysis. A machine learning-based online vocal analysis service system comprising a unit 31 and a control unit 5 that controls the operation of the user service 32.
상기 분석부(31)는,
음성 신호 입력 단계(S201), 음성을 제외한 악기 및 소음 제거 단계(S202), 음성 신호를 일정 시간 단위로 세분 단계(S203), 각 프레임별 신호 분석 및 특징 추출 단계(S204), 원곡과의 비교를 통한 세부 분석 내용 도출 단계(S205), 분석 종료 및 결과 출력 단계(S206)를 수행하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.According to paragraph 1,
The analysis unit 31,
Voice signal input step (S201), instrument and noise removal step except voice (S202), subdividing the voice signal into certain time units (S203), signal analysis and feature extraction step for each frame (S204), comparison with the original song A machine learning-based online vocal analysis service system, characterized by performing a detailed analysis content derivation step (S205), analysis completion and result output step (S206).
상기 단계(S202)는,
음성 신호를 STFT(Short Time Fourier Transform) 변환하여 분석하는 방법, 음성 신호를 직접 분석하는 방법을 혼합하여 목소리에 해당하는 신호를 분리하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.According to paragraph 2,
In the step (S202),
A machine learning-based online vocal analysis service system that separates signals corresponding to voices by combining a method of analyzing voice signals by converting them to STFT (Short Time Fourier Transform) and a method of directly analyzing voice signals.
상기 단계(S204)는,
주변 소음이 제거된 음성 신호를 프레임 단위로 세분화하여 음정, 세기, 호흡, 발성, 발음, 감정을 분석하고, 발음은 한국어 발음을 국제 발음 기호로 변환하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.According to paragraph 2,
The step (S204) is,
Machine learning-based online vocal analysis that analyzes pitch, intensity, breathing, vocalization, pronunciation, and emotion by segmenting the voice signal with surrounding noise removed by frame, and converts Korean pronunciation into international pronunciation symbols for pronunciation. service system.
상기 단계(S205)는,
원곡 또한 단계(204)를 통해 프레임별 분석하고, 각각의 프레임의 박자에 맞추어 대응시키고, 다이나믹 타임 래핑(DTW: Dynamic Time Wraping)을 이용하여 두 개의 시계열 데이터와 각 데이터별 거리 함수를 정의하고, 거리가 최소가 되는 경로를 선택한 후, 각 요소에 맞게 프레임별 비교하고, 각 요소별로 오차를 계산하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.According to paragraph 2,
In the step (S205),
The original song is also analyzed frame by frame through step 204, corresponds to the beat of each frame, and uses dynamic time wrapping (DTW: Dynamic Time Wraping) to define two time series data and a distance function for each data, A machine learning-based online vocal analysis service system that selects the path with the minimum distance, compares each element frame by frame, and calculates the error for each element.
상기 사용자 유형1(40)은,
사용자의 녹음분에 대한 시간별, 총 7가지 가창 요소별 세분 분석을 포함하는 분석 리포트(41); 반복 연습을 원하는 경우 해당 구간만 반복 연습하는 반복 가청부(42); 가창 요소별 다양한 연습을 수행하고, 실시간으로 분석하는 실시간 분석부(43); 연습 환경을 제공하고, 녹음, 재생하는 녹음/재생부(44); 가창 실력을 가시화하고 확인하는 실력 향상부(45); 가창 요소별 원곡과의 유사 정도를 시간에 따라 비교 분석하는 비교부(46); 가창 관련 의문에 대해 전문가에게 질의하고 답변하는 커뮤니티부(47); 전문가와 비전문가의 오프라인 수업을 매칭하는 수업 매칭부(48); 피수강자의 가창 실력 변화 데이터를 바탕으로 통계 분석하는 통계 분석부(49); 사용자에게 적합한 교육을 추천하는 교육 추천부(50);를 포함하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.According to paragraph 1,
The user type 1 (40) is,
Analysis report (41) containing detailed analysis of the user's recordings by time and by a total of 7 singing elements; If you want to repeat practice, repeat audible part (42) to repeatedly practice only the relevant section; A real-time analysis unit (43) that performs various exercises for each singing element and analyzes them in real time; a recording/playback unit 44 that provides a practice environment, records, and reproduces music; Skill improvement department (45) that visualizes and confirms singing skills; A comparison unit 46 that compares and analyzes the degree of similarity to the original song for each song element over time; Community Department (47), which questions and answers experts about singing-related questions; a class matching unit (48) that matches offline classes between experts and non-experts; Statistical Analysis Department (49), which conducts statistical analysis based on data on changes in singing skills of students taking the course; A machine learning-based online vocal analysis service system comprising an education recommendation unit 50 that recommends education suitable for the user.
상기 사용자 유형2(60)는,
지인, 지역, 소속 범위 내에서 경쟁하는 경쟁부(61); 앱을 사용하는 사용자끼리 경쟁하는 콘테스트(62); 지역 또는 소속에 포함된 사용자간에 경쟁하는 경쟁 콘테스트(63); 경험치 및 업적을 제공하는 경험치부(64); 듀엣 및 화음을 분석하는 화음 분석부(65); 녹음 내용 또는 분석 결과를 공유하는 공유부(66);를 포함하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.According to paragraph 1,
The user type 2 (60) is,
Competition department (61), where people compete within their circle of acquaintances, region, and affiliation; Contests (62) where users of the app compete against each other; Competitive contests (63) between users within a region or affiliation; Experience Department (64), which provides experience points and achievements; a chord analysis unit 65 that analyzes duets and chords; A machine learning-based online vocal analysis service system, characterized in that it includes a sharing unit 66 for sharing recording contents or analysis results.
상기 반복 가청부(42), 상기 실시간 분석부(43), 상기 화음 분석부(65)의 결과, DB(9)를 이용하여 녹음본과 원곡을 비교 분석하여 분석 리포트를 출력하는 분석 리포트(41)를 더 포함하는 것을 특징으로 하는, 기계학습 기반 온라인 보컬 분석 서비스 시스템.
According to any one of paragraphs 6 or 7,
Analysis report 41 that compares and analyzes the recording and the original song using the DB 9 and outputs an analysis report based on the results of the repetition audible unit 42, the real-time analysis unit 43, and the chord analysis unit 65. ), a machine learning-based online vocal analysis service system, characterized in that it further includes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220139857A KR20240059075A (en) | 2022-10-27 | 2022-10-27 | Machine learning-based online vocal analysis service system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220139857A KR20240059075A (en) | 2022-10-27 | 2022-10-27 | Machine learning-based online vocal analysis service system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240059075A true KR20240059075A (en) | 2024-05-07 |
Family
ID=91078263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220139857A Ceased KR20240059075A (en) | 2022-10-27 | 2022-10-27 | Machine learning-based online vocal analysis service system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240059075A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102820175B1 (en) | 2024-09-01 | 2025-06-13 | 유명철 | Method for matching vocal education based on location using voice analysis artificial intelligence |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100530916B1 (en) | 2000-06-12 | 2005-11-23 | 야마하 가부시키가이샤 | Terminal device, guide voice reproducing method and storage medium |
KR101471741B1 (en) | 2012-01-27 | 2014-12-11 | 이승우 | Vocal practic system |
KR101813704B1 (en) | 2014-11-11 | 2017-12-29 | 주식회사 보쿠 | Analyzing Device and Method for User's Voice Tone |
KR101917216B1 (en) | 2017-08-08 | 2018-11-09 | (주)엠더블유스토리 | Vocal Evaluating System |
KR20220115157A (en) | 2021-02-10 | 2022-08-17 | 케이팝팩토리 주식회사 | Method of analyzing vocalization of user and device of performing the same |
-
2022
- 2022-10-27 KR KR1020220139857A patent/KR20240059075A/en not_active Ceased
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100530916B1 (en) | 2000-06-12 | 2005-11-23 | 야마하 가부시키가이샤 | Terminal device, guide voice reproducing method and storage medium |
KR101471741B1 (en) | 2012-01-27 | 2014-12-11 | 이승우 | Vocal practic system |
KR101813704B1 (en) | 2014-11-11 | 2017-12-29 | 주식회사 보쿠 | Analyzing Device and Method for User's Voice Tone |
KR101917216B1 (en) | 2017-08-08 | 2018-11-09 | (주)엠더블유스토리 | Vocal Evaluating System |
KR20220115157A (en) | 2021-02-10 | 2022-08-17 | 케이팝팩토리 주식회사 | Method of analyzing vocalization of user and device of performing the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102820175B1 (en) | 2024-09-01 | 2025-06-13 | 유명철 | Method for matching vocal education based on location using voice analysis artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10902841B2 (en) | Personalized custom synthetic speech | |
Ferrand et al. | MEGALEX: A megastudy of visual and auditory word recognition | |
CN104115221B (en) | Changed based on Text To Speech and semantic audio human interaction proof | |
US20200065612A1 (en) | Interactive artificial intelligence analytical system | |
CN112989108B (en) | Language detection method and device based on artificial intelligence and electronic equipment | |
CN113593523B (en) | Speech detection method and device based on artificial intelligence and electronic equipment | |
WO2024066920A1 (en) | Processing method and apparatus for dialogue in virtual scene, and electronic device, computer program product and computer storage medium | |
CN115803806A (en) | Systems and methods for training dual-mode machine-learned speech recognition models | |
US20220414472A1 (en) | Computer-Implemented Method, System, and Non-Transitory Computer-Readable Storage Medium for Inferring Audience's Evaluation of Performance Data | |
KR20240059075A (en) | Machine learning-based online vocal analysis service system | |
CN116611459A (en) | Translation model training method and device, electronic equipment and storage medium | |
Wang | Detecting pronunciation errors in spoken English tests based on multifeature fusion algorithm | |
CN114373443B (en) | Speech synthesis method and device, computing device, storage medium and program product | |
CN119399663A (en) | Automatic interview method, device, computer equipment and storage medium based on artificial intelligence | |
KR102680800B1 (en) | System for providing artificial intelligence based supervision service | |
Fu et al. | Audio signal-based depression level prediction combining temporal and spectral features | |
Alimuradov et al. | An adaptive speech segmentation algorithm to determine temporal patterns of human psycho-emotional states | |
Elbarougy et al. | An improved speech emotion classification approach based on optimal voiced unit | |
CN115116426B (en) | Speech generation method, device, electronic device and storage medium | |
CN118312638B (en) | Audio retrieval method, device, electronic device and storage medium | |
US20240292057A1 (en) | Method and apparatus for analyzing satisfaction of screen sports contents user | |
US12217758B2 (en) | Automated systems and methods that generate affect-annotated timelines | |
Segărceanu et al. | SPEECH RECOGNITION SYSTEM | |
Dubnov | Information dynamics and aspects of musical perception | |
Singh et al. | Prediction of Human Emotions Based on Speech Recognition System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20221027 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20250203 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20250630 Comment text: Decision to Refuse Application Patent event code: PE06012S01D |