[go: up one dir, main page]

KR950012380B1 - 뉴로-퍼지 융합 데이터처리 시스템 - Google Patents

뉴로-퍼지 융합 데이터처리 시스템 Download PDF

Info

Publication number
KR950012380B1
KR950012380B1 KR1019910701593A KR910701593A KR950012380B1 KR 950012380 B1 KR950012380 B1 KR 950012380B1 KR 1019910701593 A KR1019910701593 A KR 1019910701593A KR 910701593 A KR910701593 A KR 910701593A KR 950012380 B1 KR950012380 B1 KR 950012380B1
Authority
KR
South Korea
Prior art keywords
unit
membership function
rule
fuzzy
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1019910701593A
Other languages
English (en)
Other versions
KR920702784A (ko
Inventor
노부오 와따나베
아끼라 가와무라
류수께 마수오까
유리 오와다
가즈오 아사까와
시게노리 마쓰오까
히로유끼 오까다
Original Assignee
후지쓰 가부시끼가이샤
세끼자와 다다시
후지 화고무 세이교 가부시끼가이샤
나까오 다께시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2060257A external-priority patent/JP2744321B2/ja
Priority claimed from JP2060256A external-priority patent/JP2763366B2/ja
Priority claimed from JP2060262A external-priority patent/JP2763370B2/ja
Priority claimed from JP2060258A external-priority patent/JP2544821B2/ja
Priority claimed from JP2060261A external-priority patent/JP2763369B2/ja
Priority claimed from JP2060259A external-priority patent/JP2763367B2/ja
Priority claimed from JP2060263A external-priority patent/JP2763371B2/ja
Priority claimed from JP2060260A external-priority patent/JP2763368B2/ja
Priority claimed from JP2066851A external-priority patent/JP2501932B2/ja
Priority claimed from JP2066852A external-priority patent/JP2761569B2/ja
Priority claimed from JP2197919A external-priority patent/JPH0484356A/ja
Application filed by 후지쓰 가부시끼가이샤, 세끼자와 다다시, 후지 화고무 세이교 가부시끼가이샤, 나까오 다께시 filed Critical 후지쓰 가부시끼가이샤
Publication of KR920702784A publication Critical patent/KR920702784A/ko
Application granted granted Critical
Publication of KR950012380B1 publication Critical patent/KR950012380B1/ko
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • G06N7/04Physical realisation
    • G06N7/046Implementation by means of a neural network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Molecular Biology (AREA)
  • Fuzzy Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Algebra (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

내용 없음.

Description

[발명의 명칭]
뉴로-퍼지 융합 데이터처리 시스템
[도면의 간단한 설명]
제1도는 기본유니트의 기본구성을 나타내는 도면.
제2도는 계층 네트워크의 기본구성을 나타내는 도면.
제3도는 본 발명의 원리구성을 나타내는 도면.
제4도는 룰부 프리와이어 뉴로와 룰부 전결합 뉴로의 기본구성을 설명하는 개통도.
제5도는 룰부 프리와이어 뉴로의 일예를 설명하는 계통도.
제6도는 퍼지룰의 일실시예를 나타내는 도면.
제7도는 제6도의 퍼지룰에 대응하는 룰부 프리와이어 뉴로의 일실시예를 나타내는 도면.
제8도는 멤버쉽 함수의 설명도.
제9a 및 9b도는 전건부 멤버쉽 함수의 그레이드치를 산출하는 기능을 설명하는 제1도면.
제10a도와 10b도는 전건부 멤버쉽 함수의 그레이드치를 산출하는 기능을 설명하는 제2도면.
제11a도와 11b도는 후건부 멤버쉽 함수의 그레이드치를 출력하는 기능을 설명하는 도면.
제12도는 논리연산을 실현하기 위한 뉴론의 임계치와 가중치의 설정방법을 설명하는 도면.
제13도는 제12도의 설정방법에서 룰부의 일실시예를 나타내는 도면.
제14a도와 14b도는 X1과 X2를 사용한 논리곱연산을 나타내는 도면.
제15a~15h도는 퍼지 제어방법에서 2개의 입력 데이터를 사용한 논리연산을 나타내는 도면.
제16도는 멤버쉽 함수의 근사산출의 제1실시예를 나타내는 도면.
제17도는 감도의 상한을 구하기 위한 근사치를 얻는 처리 후로우차트.
제18도는 y=m(x)와 y=tanh(wx)를 사용한 그래프.
제19도는 오차 절대치의 적분치를 최소치로 하는 근사치를 구하는 처리의 후로우차트.
제20도는 오차의 제곱의 적분치를 갖는 근사치를 구하는 처리의 후로우차트.
제21도는 최대오차를 최소화하기 위한 근사치를 구하는 처리의 후로우차트.
제22도는 멤버쉽 함수의 근사산출의 제2실시예를 나타내는 도면.
제23도는 제22도에 도시된 멤버쉽 함수의 근사산출을 실현하기 위한 3층 네트워크를 나타내는 도면.
제24도는 감도의 상한을 구하기 위한 근사치의 임계치와 가중치를 구하는 처리의 후로우차트.
제25도는 최대오차를 최소화하기 위한 근사치의 임계치와 가중치를 구하는 처리의 후로우차트.
제26도는 특정 퍼지룰의 일예를 나타내는 도면.
제27도는 제26도에 도시된 퍼지룰에 대응하는 룰부에 후속하는 계층 네트워크의 일실시예를 나타내는 도면.
제28도는 중심결정요소 출력 유니트의 기본구성을 나타내는 도면.
제29도는 중심을 산출하는 후로우차트도.
제30도는 중심결정 요소출력 유니트의 일실시예를 나타내는 도면.
제31a와 31b도는 중심결정요소의 출력의 제1실시예를 나타내는 도면.
제32a도와 32b도는 중심결정요소의 출력의 제2실시예를 나타내는 도면.
제33a도와 33b도는 모델신호 결정장치의 기본구성을 나타내는 도면.
제34도는 모델신호 결정장치의 제1실시예의 구성을 나타내는 도면.
제35도는 모델신호 결정장치의 제2실시예의 구성을 나타내는 도면.
제36a도와 36b도는 모델신호 산출장치에 의해 실행되는 식의 예를 나타내는 도면.
제37a도와 37b도는 모델신호의 출력의 일예를 나타내는 도면.
제38도는 중심산출 실현부로서의 계층 뉴랄 네트워크의 일실시예를 나타내는 도면.
제39도는 퍼지 추론부를 포함한 중심출력장치의 전체 구성을 나타내는 도면.
제40도는 뉴랄 네트워크 제어부와 중심학습장치의 세부구성도.
제41도는 중심학습장치의 처리의 후로우챠트.
제42도는 중심출력장치의 출력예를 나타내는 도면.
제43도는 중심산출 실현부의 분할 네트워크를 나타내는 도면.
제44도는 분할 네트워크의 일실시예를 나타내는 도면.
제45도는 네트워크 구조 변환 및 퍼지모델 추출개념을 나타내는 도면.
제46도는 순 뉴로의 구성도.
제47도는 룰부 전결합 뉴로의 유니트들 만으로된 구성을 나타내는 도면.
제48도는 룰부 프리와이어 뉴로의 유니트들 만으로된 구성을 나타내는 도면.
제49도는 퍼지룰 추출전의 룰부 프리와이어 뉴로의 상태를 나타내는 도면.
제50도는 룰부가 논리소자로서 표현된 룰부 프리와이어 뉴로의 상태를 나타내는 도면.
제51도는 유니트들의 소정 퍼지룰 수가 잔존된 룰부의 상태를 나타내는 도면.
제52도는 퍼지룰 추출전의 룰부 전결합 뉴로의 상태를 나타내는 도면.
제53도는 전건부 멤버쉽 함수 출력 유니트들이 그룹화된 룰부 전결합 뉴로의 상태를 나타내는 도면.
제54도는 전건부 멤버쉽 함수 출력 유니트와 룰부간의 결합이 간략화된 룰부 전결합 뉴로의 상태를 나타내는 도면.
제55도는 룰부와 후건부 멤버쉽 함수 출력 유니트간의 결합이 간략화된 룰부 전결합 뉴로의 상태를 나타내는 도면.
제56도는 룰 유니트들이 논리소자로 표현된 룰부 전결합 뉴로의 상태를 나타내는 도면.
제57도는 룰 유니트들의 소정의 퍼지룰 수가 활동상태로 잔존된 룰부 전결합 뉴로의 상태도.
제58도는 순 뉴로의 일실시예를 나타내는 도면.
제59도는 제58도에 도시된 순 뉴로용으로 제공된 학습패턴의 일예도.
제60도는 제58도의 순 뉴로의 학습후에 결합의 가중치를 나타내는 도면.
제61도는 제58도에 도시된 순 뉴로에 대한 변환절차(1)를 나타내는 도면.
제62도는 제58도에 도시된 순 뉴로에 대한 변환절차(2)를 나타내는 도면.
제63도는 제58도에 도시된 순 뉴로에 대한 변환절차(3)를 나타내는 도면.
제64도는 제58도에 도시된 순 뉴로에 대한 변환절차(4)를 나타내는 도면.
제65도는 제58도에 도시된 순 뉴로에 대한 변환절차(5)를 나타내는 도면.
제66도는 제58도에 도시된 순 뉴로로부터 변환된 룰부 프리와이어 뉴로를 나타내는 도면.
제67도는 제66도에 도시된 제5층의 각 유니트에 대응하는 멤버쉽 함수를 나타내는 도면.
제68도는 제66도의 룰부 프리와이어 뉴로의 결합의 가중치를 나타내는 도면.
제69도는 제58도에 도시된 순 뉴로에 대한 다른 변환절차를 나타내는 도면.
제70도는 제69도의 변환후에 룰부 프리와이어 뉴로의 구성도.
제71도는 룰부 프리와이어 뉴로의 결합의 가중치를 나타내는 도면.
제72도는 룰부 전결합 뉴로의 일실시예를 나타내는 도면.
제73도는 제72도의 룰부 전결합 뉴로의 가중치를 나타내는 도면.
제74도는 네트워크 구조의 변환후의 처리의 후로우차트(1).
제75도는 네트워크 구조의 변환후의 처리의 후로우차트(2)
제76도는 네트워크 구조의 변환후의 처리의 후로우차트(3)
제77도는 네트워크 구조의 변환후의 처리의 후로우차트(4)
제78도는 네트워크 구조의 변환후의 처리의 후로우차트(5)
제79도는 뉴로 퍼지 융합 데이터처리 시스템의 전체 구성도.
제80도는 후건부 멤버쉽 함수 실현부의 초기화의 일예를 나타내는 도면.
제81도는 중심산출장치의 초기화의 일예를 나타내는 도면.
제82도는 학습유니트의 세부구성도.
제83도는 퍼지룰 추출장치의 세부구성도.
제84도는 퍼지모델 추출예의 후로우챠트.
제85a∼85f도는 1유니트에 의한 실행되는 논리연산의 일예를 나타내는 도면.
제86a∼86e도는 논리연산관리장치의 관리데이터의 예를 나타내는 도면.
제87도는 논리연산 특성 정보관리장치의 관리데이터(1)의 예를 나타내는 도면.
제88도는 논리연산 특성 정보관리장치의 관리데이터(2)의 예를 나타내는 도면.
제89도는 논리소자로 표현된. 룰부 프리와이어 뉴로의 룰부의 유니트들을 나타내는 도면.
제90도는 제1학습방법의 구성도.
제91도는 제2학습방법의 구성도.
제92도는 제3학습방법의 구성도.
제93도는 제4학습방법의 구성도.
제94도는 제5학습방법의 구성도.
제95도는 제6학습방법의 구성도.
제96도는 제7학습방법의 구성도.
제97도는 제8학습방법의 구성도.
제98도는 제9학습방법의 구성도.
제99도는 제10학습방법의 구성도.
제100도는 제1실시예에서 정보 학습동작의 후로우챠트.
제101도는 제2실시예에서 정보 학습동작의 후로우챠트.
제102도는 제3실시예에서 정보 학습동작의 후로우챠트.
제103도는 제4실시예에서 정보 학습동작의 후로우챠트.
제104도는 제5실시예에서 정보 학습동작의 후로우챠트.
제105도는 제6실시예에서 정보 학습동작의 후로우챠트.
제106도는 제7실시예에서 정보 학습동작의 후로우챠트.
제107도는 제8실시예에서 정보 학습동작의 후로우챠트.
제108도는 제9실시예에서 정보 학습동작의 후로우챠트.
제109도는 제10실시예에서 정보 학습동작의 후로우챠트.
제110도는 전건부와 후건부 룰부를 포함한 룰부 프리와이어 뉴로의 일실시예의 구성도.
제111도는 룰부 프리와이어 뉴로의 결합 그룹과 뉴론 그룹을 설명하기 위한 도면.
제112a도∼aa2K도는 페이스(phase)-그룹 대응표와 그룹-결합 대응표의 설명도.
제113도는 룰부 프리와이어 뉴로의 학습처리의 후로우챠트.
제114도는 학습 유니트의 구성도.
제115도는 학습 조정기의 구성도.
제116도는 가중치 학습처리의 후로우챠트.
제117도는 제116도에 도시된 가중치 학습시에 사용되는 각 파라미터의 설명도.
제118도는 시뮬레이션에 의해서 데이터를 구하는 데이터처리기능에 관련된 입력신호의 설명도.
제119a∼119d도는 시뮬레이션에 의해 발생된 퍼지모델에 기술된 멤버쉽 함수의 설명도.
제120도는 발생된 퍼지모델의 신호의 설명도.
제121도는 퍼지모델에 의해 발생된 계층 네트워크의 설명도.
제122도는 제121도에 도시된 계층 네트워크의 데이터처리기능에 관련된 신호의 설명도.
제123a도와 123b도는 퍼지모델에 의해 발생된 계층 네트워크의 다른 예의 설명도.
제124도는 제123도에 도시된 계층 네트워크의 학습처리에서 사용된 학습신호의 설명도(1).
제125도는 제123도에 도시된 계층 네트워크의 학습처리시에 사용되는 학습신호의 설명도(2).
제126도는 제123도에 도시된 계층 네트워크의 데이터 처리기능에 관련된 신호의 설명도.
제127도는 학습에 의해 동조된 후의 멤버쉽 함수의 설명도.
제128도는 적응형 데이터처리 장치에 의한 학습처리시에 사용되는 학습신호의 설명도.
제129도는 학습에 의해 동작되는 적응형 데이터처리 장치의 설명도
제130도는 제129도의 적응형 데이터처리 장치의 데이터처리기능에 관련된 신호의 설명도.
제131도는 퍼지룰 발생의 시뮬레이션에 사용되는 계층 네트워크의 설명도.
제132a∼132d도는 퍼지룰 발생의 시뮬레이션에 사용되는 멤버쉽 실수의 설명도.
제133도는 퍼지룰 발생의 시뮬레이션에 사용되는 학습제어데이터의 설명도.
제134도는 동조 시뮬레이션에 사용되는 퍼지제어룰의 설명도.
제135도는 동조 시뮬레이션에 사용되는 제어상태량과 제어조작량의 설명도.
제136도는 동조 시뮬레이션에 사용되는 멤버쉽 함수들을 실현키 위한 학습 데이터와 파라미터의 설명도(1).
제137도는 동조 시뮬레이션에 사용되는 멤버쉽 함수들을 실현시키기 위한 파라미터들의 설명도(2).
제138a도와 138b도는 동조 시뮬레이션에 사용되는 제어조작의 멤버쉽 함수들의 설명도(1).
제139도는 동조 시뮬레이션에 사용되는 제어조작의 멤버쉽 함수들의 설명도(2).
제140도는 동조 시뮬레이션에 사용되는 계층 네트워크의 설명도.
제141도는 동조 시뮬레이션에 사용되는 학습제어데이터의 설명도.
제142a∼142c도는 가중치 학습에 의하여 조정된 멤버쉽 함수들의 설명도.
제143도는 동조 시뮬레이션에 의해 구해진 가중치의 학습데이터의 설명도.
제144도는 기본 유니트의 하드웨어 구성의 일실시예를 나타내는 도면.
제145도는 계층 네트워크의 하드웨어 구성의 일실시예를 나타내는 도면.
[발명의 상세한 설명]
[발명의 분야]
본 발명은 데이터를 이해가능 및 실행 가능한 형태로 융통성있게 처리하기 위한 계층 네트워크 구조의 데이터처리 시스템에 관한 것이며, 보다 구체적으로는, 단시간내에 고속 고정확성의 데이터처리 기능을 갖추기 위한 뉴로-퍼지(neuro-fuzzy) 융합 계층 네트워크 구조의 뉴로 퍼지 융합 데이터처리 시스템에 관한 것이다.
[발명의 배경]
종래의 직렬처리 컴퓨터(노이만 컴퓨터)에서는, 용도와 환경에 따라서, 데이터처리 용량을 조정하기가 매우 곤란하다. 따라서, 특히 패턴 인식, 응용필터 등의 기술분야의 새로운 계층 네트워크 구조에서 병렬 분배법을 사용하여 데이터를 처리하기 위해서, 보다 유연성 있게 데이터처리 장치가 요망 및 개발돼 왔다.
이러한 계층 네트워크 데이터처리 장치에서는, 프로그램들이 명백히 기입되지는 않으나, 학습용으로 제공된 입력신호(입력패턴)에 응답해서 네트워크 구조에 의해 제공된 출력신호(출력패턴)가, 계층 네트워크 구조의 내부결합의 가중치를 결정함으로써, 상기 출력신호가 소정의 학습 앨고리듬에 의한 모뎀신호(모델패턴)와 대응하게 된다. 상기 가중치가 상기 학습 프로세스에 의해서 결정되면, 예상안된 입력신호가 입력되어도, 상기 계층 네트워크 구조가 확률있는 출력신호를 출력하게 되는 "융통성 있는"데이터처리기능이 실현될 수 있다.
상기의 계층 네트워크 구성의 데이터처리 장치에서는, 학습신호가 발생되는 경우에만 내부결합의 가중치가 자동결정될 수 있다는 이점이 있다. 그러나, 또한 가중치에 의존한 데이터처리 내용은 이해할 수 없는 결점이 있고, 이것은 상기 네트워크 구조의 데이터처리 장치를 실용화함으로써 성공적으로 해결되어야 한다. 계층 네트워크 구조의 상기 데이터처리 장치를 실용적으로 제어하기 위해서는, 단기간내에 목적 데이터를 고속으로, 고도로 정확하게 처리하기 위한 효과적수단이 제공돼야 한다.
계층 네트워크 구조로 된 데이터처리 장치에서는, 계층 네트워크가 "기본 유니트(unit)"라고 하는 일종의 노드와 내부상태량에 대응하는 가중치를 갖는 내부결선을 포함하고 있다. 제1도는 기본 유니트(1)의 기본 구성을 나타낸다. 이 기본 유니트(1)는 다중 입/출력(i/o)시스템이다. 즉, 이 유니트는 복수의 입력의 내부결합의 각각의 가중치로 증배시키기 위한 멀티플라이어(multiplier)(2)와, 이 멀티플라이어에 의해서 실행된 상기의 증배치들의 모든 적(product)을 가산하는 누산기(3)와, 얻어진 누적치에 비선형 임계치 처리 등의 함수변환을 실행하여 최종 출력을 얻을 수 있도록 하는 함수변환부(4)을 구비하고 있다.
h층을 처리전 층으로, i층을 처리후 층으로 가정하면, i층의 i번째 기본 유니트(1)의 누산기(3)는 식(1)을 사용하여 하기 연산을 실행하며, 함수변환부(4)는 하기식(2)를 사용하여 임계치 연산을 행한다.
식에서,
h : h층의 유니트수
p : 입력신호의 패턴수
i : i층의 i번째 유니트의 임계치
Wih: h층과 i층간의 내부결선의 가중치
Yph: p번째 패턴의 입력신호에 응답한 h층의 h번째 유니트의 출력
계층 네트워크 구조의 데이터처리 장치의 계층 네트워크는, 상기 복수의 기본 유니트(1)가 입력층(1')으로부터 출력, 분배된 입력신호량들과 제2도와 같이 계층적으로 결합되어, 입력신호들을 대응하는 출력신호들로 변환시킴으로써 병렬 데이터처리를 행한다.
계층 네트워크 구조의 데이터처리 장치에서는, 데이터 변환을 결정하는 계층 네트워크 구조의 가중치를 학습처리에 의해 구할 것이 필요하다. 특히, 백프로 파게이션(back propagation)법이 그 실용성으로 인해서 학습처리 앨고리듬으로 특별한 주목을 끌고 있다. 이 백프로 파게이션법에서는, 오차 피드백을 통하여, 가중치 Wih와 임계치 i를 자동조정하여 학습처리를 행한다. 식(1)과 (2)로 표시된 바와 같이, 가중치 Wih와 임계치 θi를 동시에 조정해야 하나, 이 값들은 조심스럽게 균형이 이뤄져야 하므로 그 조정이 매우 곤란하다. 그러므로, 입력층의 h층에 항상 "1"을 출력함과 동시에 출력에 대해서 임계치 θi를 가중치로서 할당하는 유니트를 설치함으로써, 임계치 θi를 가중치Wih중에 포함시켜, 임계치 θi를 가중치로서 처리한다. 따라서, 식(1)과(2)는 하기와 같이 표현된다 :
백프로 파이게이션법에서는, 제2도에서 h층, i층 및 j층으로 구성된 3층 구조에 도시된 바와 같이, 출력신호 ypj와 모델신호 dpj간의 편차(dpj-ypj)는, 학습용으로 제시된 입력신호에 응답하여 출력층으로부터 출력된 출력신호 ypj와 이 출력신호 ypj를 매칭(maching)하기 위한 모델신호 dpj가 주어질때 산출된다. 다음, 하기연산이 실행되고 ;
하기식(6)이 실행된다 :
따라서, i층과 j층간의 갱신 가중치 ΔWji(t)가 산출되며, 여기서 t는 학습 횟수이다.
다음, 얻어진 αpj를 사용하여, 하기 연산이 실행되고 :
하기 연산이 실행된다 :
따라서, h층과 i층간의 갱신 가중치 ΔWih(t)가 산출된다.
다음, 상기와 같이 산출된 갱신치에 따라서 하기 갱신 사이클들에 대해서 가중치들이 결정된다.
상기 절차를 반복함으로써, 가중치 Wjh와 Wih가 구해지면 학습이 종료되며, 여기서, 학습용으로 제시된 입력신호에 응답하여 출력층으로부터 산출된 출력신호 ypj는, 출력신호 ypj의 목표인 모델신호 dpj에 대응한다.
상기 계층 네트워크가, 층 g, h, i 및 j로 구성된 4층 구성인 경우, 하기 연산이 실행되고 :
하기 연산이 실행된다 :
따라서, g층과 h층간의 가중치의 갱신량 ΔWhg(t)를 산출할 수 있다. 즉, 선행의 층들간의 가중치의 갱신량 ΔW는, 출력측에서 최종스탭에서 구해진 값과 네트워크 출력 데이터를 사용하여 구할 수 있다.
상기 기본 유니트(1)의 함수변환부(4)가 선행변환을 실행하면, 상기 식(5)는 하기와 같이 표현되며 :
상기 식(7)은 하기와 같이 표현되고 :
상기 식(9)는 하기와 같이 표현된다 :
따라서, 계층 네트워크 구조의 데이터처리 장치에서 계층 네트워크의 내부결선에 학습된 가중치를 할당함으로써, 학습용으로 제시된 입력신호에 응답하여 상기 출력층으로부터 예상된 모델신호가 출력된다. 따라서, 예상안된 입력신호가 입력되어도, 계층 네트워크 구조가 가망성있는 출력신호를 출력하도록 하는 데이터처리기능을 실현할 수 있다.
계층 네트워크 구조의 데이터처리 장치에서, 데이터를, 바람직한 입출력함수에 의해 적절히 변환시킬 수 있고, 부가적인 학습신호를 제공하면, 내부결합의 더욱 정확한 가중치를 기계적으로 학습할 수 있음이 확실하다. 그러나, 또한 계층 네트워크 구조에서 실행되는 데이터변환내용이 이해될 수 없고, 학습신호외의 다른 데이터에 응답해서 출격신호가 제공될 수 없다는 문제점이 있다. 따라서, 비정상 상태가 정확히 교정되기가 매우 곤란하기 때문에, 오퍼레이터는, 계층 네트워크 구조의 데이터처리 장치가 정상 동작인때에도 데이터제어시 불안감을 느끼게된다. 또한, 데이터처리 장치를 계층 네트워크로 구성하기 위해서는 학습신호가 필수적이므로, 충분한 학습신호를 제공할 수 없을 경우, 원하는 데이터처리기능이 실현안될 수도 있다.
다른한편, 최근, 모델화 하기가 매우 곤란한 제어목표에 대해서 "퍼지 제어장치"가 개발되어 실용화되고 있다. 퍼지 제어장치는, 인간의 판단과 같은, 모호성(ambiguity)을 갖는 제어 앨고리듬을 "이면-이다" 형으로 표현함으로써, 검출된 제어상태량으로부터 제어동작의 정도를 산출하고, 퍼지 추정에 의하여 상기 제어 앨고리듬을 실행한 후에, 데이터를 제어한다. 퍼지 추정은, 입출력신호의 조합들을 그룹화(grouping)하고 이들을 소위 "멤버쉽 관계"(membership relation)라고 하는 속성 정보에 따라서 모호성있게 연결함으로써 복합적인 데이터처리함수로 실행가능한 모델을 확립할 수 있게 한다. 상기 퍼지 가정에 의해 발생된 퍼지모델은, 비교적 이해가능한 이점이 있으나, 멤버쉽 함수의 값을 정확히 결정할 수 없고, 멤버쉽 함수간의 정확한 결합관계를 기계적으로 결정할 수 없고, 따라서, 원하는 데이터처리용량을 실용화하는데에 막대한 노력과 시간이 소요되는 곤란한 문제점이 있다.
[발명의 개시]
본 발명은, 상기 설명한 바의 배경하에서 완성된 것이며, 본 발명의 목적은, 고도로 정확한 데이터처리용량을 실현하고, 실행형태가 이해되기 쉬운 계층 네트워크 구조의 데이터처리 장치를 제공하는데 있으며, 계층 네트워크 구조의 데이터처리 장치를 사용하여 이 데이터처리 장치와 퍼지모델을 융통성 있게 조합함으로써 단기간내에 데이터처리기능을 획득하기 위한 고속, 고정밀도의 데이터처리 시스템을 제공하는데 있다.
제3도는 본 발명의 원리의 구성을 나태는 도면이다.
제3도에서, (10)은, 퍼지가정형으로 기술된 퍼지모델을 나타내며, 이것은 입력신호의 모호한 언어적 표현을 숫자로 표현하기 위한 전건부(former) 멤버쉽 함수와, 출력신호의 모호한 언어적 표현을 숫자로 표현하기 위한 후건부(latter) 멤버쉽 함수와, 이들 멤버쉽 함수간의 결합관계를 "이면-이다"형으로 전개하기 위한 룰(rule)에 의하여, 복잡한 데이터 프로세스로 처리된다. 상기 퍼지모델(10)은, 개략적 모델인 경우 다소 용이하게 발생되는 장점이 있다. 그러나, 멤버쉽 함수의 정확치 또는 룰의 정확한 기술을 결정하기가 매우 곤란하다.
적응형 데이터처리 장치(11)는 본 발명에서 순 뉴로(pure neuro)로서 언급되는, 제2도에 도시된 전결합 계층 네트워크 구조에 의해서 데이터를 처리한다.
상기 적응형 데이터처리 장치(11)는, 계층 네트워크 구조에서의 내부결합에 기계적으로 할당된 내부상태를 상기의 백프로 파게이션법등에서 학습할 수 있다는 장점이 있다. 그러나, 이 장치에서는, 데이터변환내용을 이해할 수 없다.
제3도에서, 룰부 프리와이어 뉴로(pre-wired-rule-part neuro)(12)와 룰부 전결합 뉴로(13)는 본 발명의 특징을 나타낸다.
제4도는 룰부 프리와이어 뉴로(12)와 룰부 전결합 뉴로(13)의 기본 구성을 나타낸다. 제4도에서, 룰부 프리와이어 뉴로와 룰부 전결합 뉴로, 또는(최종출력측 부분을 제외한) 후건부 멤버쉽 함수 실현부/비퍼지부(18)가 계층 뉴랄(neural) 네트워크를 구성하고 있다. 이 네트워크의 각 부는, 계층 네트워크의 입력측으로부터 도시한 것이며, 네트워크의 각각의 동작에 의해 분할된다.
제4도에서, 입력부(15)가 제어되는 데이터의 제어상태량을 표시하는 1이상의 입력신호를 수신한다.
전건부 멤버쉽 함수 실현부(16)는, 입력부(15)에 의해 분배된 1이상의 입력신호에 응답하여 1이상의 전건부 멤버쉽 함수의 적응성을 표시하는 그레이드(grade)치를 출력한다.
룰부(17)는 통상, 복수층을 갖는 계층 뉴랄 네트워크로 구성되며, 상기 전건부 멤버쉽 함수 실현부(16)에서 출현된 전건부 멤버쉽 함수의 그레이드치를 사용해서, 1이상의 출력신호에 대응하는 2이상의 후건부 멤버쉽 함수의 확대 또는 축소율을 퍼지룰의 그레이드치로서 출력한다.
후건부 멤버쉽 함수 실현부/비퍼지(non-fuzzy)부(18)는, 비퍼지 처리를 계산하여, 룰부(17)에 의해 출력된 후건부 멤버쉽 함수의 확대율 또는 축소율을 사용하여 후건부 멤버쉽 함수를 확대 또는 축소한 후 출력신호를 출력한다. 상기 비퍼지처리의 계산은, 퍼지추정의 최종스텝에서 통상적으로 실행되는 중심계산을 구하는 것을 의미한다.
제5도는, 룰부 프리와이어 뉴로의 대표예의 구성을 나타낸다. 제5도는 거의 제4도와 대응되나, 제4도의 후건부 멤버쉽 함수 실현부/비퍼지부(18)가 후건부 멤버쉽 함수 실현부(18a)와 중심산출 실현부(18b)를 구비한 점이 다르다. 한편 제5도에서, 상기 룰부 프리와이어 뉴로는, 중심산출 실현부(18b)의 중심 산출장치(27)외에는 계층 뉴랄 네트워크로 구성돼 있다. 전건부 멤버쉽 함수 실현부(16), 룰부(17), 후건부 멤버쉽 함수 실현부(18a) 및 중심산출 실현부(18b)등의 입력 유니트들은 선행의 층내의 각각의 유니트들에 결합돼 있으나, 제5도에는 도시돼 있지 않다.
제5도에서, 상기 전건부 멤버쉽 함수 실현부(16)의 선형함수 유니트(22a∼22d)가 전건부 멤버쉽 함수의 그레이드치를 출력한다. 예를 들면, 유니트(21a)은 "입력 x는 소(小)"를 표시하는 멤버쉽 함수의 적응성을 나타내는 그레이드치를 출력한다.
룰부(17)의 시그모이드(sigmoid)함수 유니트(23a∼23e)는, 전건부 멤버쉽 함수 실현부(16)의 출력 유니트(22a∼22e)를 룰부의 출력 유니트(24a, 24b, 24c)와 연결시킨다. 예를 들어, 퍼지모델의 룰(1)이 "(x가 소)이고 (y가 소)이고 z는 중(中)"을 나타내면, 유니트(22a)와 (22d)가 유니트(23a)에 접속되고, 유니트(23a)는 유니트(24b)에 접속되고 ; 유니트들(22b, 22c, 22e)을 유니트(23a)에 결선할 필요는 없다.
상기 룰부(17)의 출력유니트(24a, 24b, 24c)는 후건부 멤버쉽 함수의 확대율 또는 축소율을 출력한다. 예를 들어, 유니트(24b)는 "Z는 중"을 나타내는 후건부 멤버쉽 함수의 확대율 또는 축율을 출력하며; 상기 후건부 멤버쉽 함수의 확대 또는 축소결과는 상기 유니트(24a, 24b, 24c)의 출력을 사용하여, 후건부 멤버쉽 함수 실현부(18a)내의 선형 유니트(25a∼25n)에 의해 출력되며, 이 결과들에 따라서, 중심결정 요소 출력장치(26)의 2개의 선형 유니트(26a)와 (26b)가, 중심산출을 위한 2개의 중심결정 요소 Za와 Zb를 출력하며; 그 결과를 사용하여 중심산출장치(27)가 시스템의 출력 Z를 중심치로서 구한다.
제5도에서, 예를 들어, 충돌은, 전건부 멤버쉽 함수 실현부(16)에서 전 결합돼 있지 않으나, 전건부 멤버쉽 함수에 대응하여 결합돼 있다. 퍼지모델의 룰이 명백한 경우, 룰부 프리와이어 뉴로를 적응할 수 있다.
룰(1)이 "(x가 소)이고 (y가 소)이면 z가 중"을 나타내는 경우, 유니트(22b), (22c) 및 (22e)가 유니트(23a)에 각각 결합될 필요가 없다. 따라서, 상기 룰부 프리와이어 뉴로는, 데이터처리 시스템으로 정의되며, 여기서는 (룰부(17)에서는 전건부 멤버쉽 함수 실현부(26)와 룰부(17)사이와 상기 룰부(17)와 후건부 멤버쉽 함수 실현부 사이에 퍼지모델의 룰들에 따라서 필요부분들만이 결합돼 있다.
제3도에서는, 퍼지모델(10)의 룰과 멤버쉽 함수가 명확하면, 필요한 부분들만 결합된 계층 프리와이어 뉴랄 네트워크에서, 퍼지모델(10)을 룰부 프리와이어 뉴로(12)로 변환하는 것이 가능하다. 룰들이 불명확하면, 퍼지모델(10)이, 예를 들면 전건부와 후건부 멤버쉽 함수 실현부만이 프리와이어된 룰부 전결합 뉴로(13)로 변환될 수 있다.
현재의 뉴로가 룰부 전결합 뉴로이므로, 전건부 멤버쉽 함수 실현부(16)의 출력유니트(22a∼22e)와, 룰부의 유니트(23a∼23e) 및 룰부의 출력유니트(24a∼24c)의 각각의 층들이 완전결합된다.
제5도에서, 전건부 멤버쉽 함수 실현부(16)와 룰부(17)의 유니트(23a∼23e)사이와, 룰부의 유니트(23a∼23e)와 룰부의 출력 유니트(24a, 24b 및 24c)사이에 전결합이 실행된다. 따라서, 계층 네트워크 구성의 데이터처리 시스템을 전결합 뉴로라고 한다.
또한, 예를 들어, 퍼지모델(10)은, 적응형 데이터처리 장치에 대해 퍼지모델(10)의 i/o 데이터를 공급함으로써 순 뉴로(11) 즉, 각 이웃층이 전결합된 계층 뉴랄 네트워크로 구성된 순 뉴로(11)로 변환될 수 있다.
다음, 상기 적응형 데이터처리 장치, 즉, 순 뉴로(11)는 제어되는 i/o데이터를 학습한다. 그 학습후에, 순 뉴로(11)에서 비교적 덜 중요한 결합(가중치가 보다 작은 결합)이 단절되거나, 또는 네트워크 구조가 변형되어, 순 뉴로(11)를 룰부 프리와이어 뉴로(12)로, 또는 룰부 전결합 뉴로(13)로 변환시킨다. 다음, 상기 룰부 프리와이어 뉴로(12)의 구조를 점검하여, 전건부 멤버쉽 함수, 후건부 멤버쉽 함수, 퍼지룰부 등의 퍼지모델(10)을 추출할 수 있다. 상기 룰부 전결합 뉴로(13)의 구조를 점검함으로써, 전건부 멤버쉽 함수와 후건부 멤버쉽 함수의 퍼지모델(10)을 추출할 수 있다.
[발명의 최량의 실시형태]
본 발명을 첨부도면을 참조하여 설명한다. 제6도는 퍼지룰의 일실시예를 나타내며, 제어상태량을 나타내는 입력 Xs 및 Ys와 제어량을 나타내는 출력 Zs간에 정의된 5의 퍼지룰(1∼5)의 예를 나타낸다.
제7도는 제6도에 도시된 퍼지룰들에 대응하는 룰부 프리와이어 뉴로의 일실시예를 나타낸다. 제7도는 전건부 멤버쉽 함수 실현부와 룰부간의 결합과, 제6도에 도시된 퍼지룰에 의한 룰부의 결합을 나타낸다.
제5도에서, 입력 결합의 가중치와 임계치의 설정을 전건부 멤버쉽 함수 실현부(16)에서 전건부 멤버쉽 함수를 실현키 위한 시그모이드 함수유니트(21a∼21d)에 관련하여 설명한다.
제8도는 멤버쉽 함수의 일예를 나타낸다. 전건부 멤버쉽 함수의 그레이드치의 산출 함수는 다음과 같다.
기본유니트(1)에 의해 제공된 출력량 y는, w<0이고 θ<0인 경우, 제8도에 도시된 "저온"을 표시하는 멤버쉽 함수와 유사한 함수형을 나타내고; w<0이고, θ<0인 경우, 제8도에 도시된 "고온"을 표시하는 멤버쉽 함수와 유사한 함수형의 그레이드치를 나타낸다. 따라서, 제9b도에 도시된 바와 같이, 기본 유니트의 입력용으로 적정한 가중치와 임계치의 설정이, 멤버쉽 함수를 제8도에 도시된 "저온"과 "고온"을 나타내는 함수형으로 실현한다.
2개의 기본부(1)에 의해 제공된 출력량들의 차이 y는 하기와 같이 얻어진다 :
제10a도에 도시된 바와 같이, y는 제8도에 도시된 "보통온도"를 나타내는 멤버쉽 함수와 유사한 함수형을 갖는다. 그러므로, 제10b도에 도시된 바와 같이, 2개의 기본유니트(1)의 출력량들에 1과 -1을 각각 곱한 결과가 입력으로서 공급된다. 다음, 임계치 처리장치(4)를 구비치 않은 기본유니트들을 구비한 감산기(1a)(이러한 구성에 의하면, 2 기본유니트(1)의 출력량간의 차이의 산출을 가능하게 한다.)를 사용하여, 2 기본유니트(1) 입력량에 대한 가중치 w1과 w2, 임계치 θ1과 θ2를 적정히 설정할 수 있으며, 따라서, "보통온도"를 나타내는 함수형으로의 멤버쉽 함수의 할당을 실현할 수 있다.
상기의 구성에서, 상기 기본유니트들(1)의 입력량들에 대한 가중치와 임계치들을 변경할 수 있고, 또한 전건부 멤버쉽 함수의 함수형들을 변경할 수 있다.
제11a도에 도시된 바와 같이, 후건부 멤버쉽 함수의 그레이드치의 출력 함수는 다음과 같이 구해진다 : 먼저, 후건부 멤버쉽 함수가 복수의 소구역으로 분할되며, 각 구역에 대해 그레이드치 yi가 특정된다. 다음, 제11b도에 도시된 바와 같이, 임계치 처리기(4)를 구비하지 않은 기본유니트들(1)의 그레이드치 출력 유니트들(1b)에 그레이드치의 수(n)가 공급되어야 한다. 다음, 상기 설명한 그레이드치 출력 유니트의 입력에 대한 가중치로서 y1이 설정된다. 제11b도에 도시된 바와 같이, 밸브 a의 개방, 제어조작량과 관련된 후건부 멤버쉽 함수의 그레이드치와 동일한 종류의 출력이 동일한 그레이드치 출력 유니트(1b)에 공급된다.
이러한 그레이드치 출력 유니트들(1b)은, 제어상태량을 나타내는 할당 량들과 관련된 축소된 멤버쉽 함수의 그레이드치들의 함수합이 출력되도록 구성돼 있다.
상기의 구성에서, 상기 그레이드치 출력 유니트들(1b)의 입력량들에 대한 가중치들이 변경됨으로써, 후건부 멤버쉽 함수들의 함수형을 더욱 변경시킨다.
다음, 제5도의 룰부(17)의 시그모이드 함수 유니트들(23a∼23e)의 함수를 설명한다 :
제6도에 도시된 룰(1)에서, 전건부 실현부는, 퍼지로직의 "X는 소"와, "Y는 소"를 곱하는 연산을 표시하며, 시그모이드 함수 유니트들(23a∼23e)은 상기와 같은 퍼지로직 연산함수를 구비한 것을 요한다.
제12도는 단일 뉴론 소자를 사용하여 논리 연산함수를 실현하는 가중치와 임계치의 설정예를 나타낸다. 제12도에 가중치 Wi와 임계치 θ의 설정방법이 나타나 있다.
제13도는 제12도에는 도시된 임계치와 가중치의 설정방법을 사용하는 룰부의 일실시예를 나타낸다. 제13도에서, 8개의 퍼지룰이 표시돼 있으며, 여기서 x(ss)는 "입력 X는 소", x(La)는 "입력 X는 대"를 나타내며, x는 x의 부정을 나타낸다. 즉, 1이 참이고 0이 거짓이면, 1-x를 나타낸다.
제14도는 2입력 x1과 x2를 사용하는 퍼지로직 연산의 한계적(limit product)의 근사산출의 일예를 나타내며, 여기서는, s=12, t=0.5를 제12도에 적용한 것이다. 제14b도는 s=10,000, t=0.5인 일예를 나타낸다. 이 예에서, 근사의 정확성은, s값이 증가하면서 입력량이 1 또는 0일때 향상될 수 있으나, 중간부 스텝의 유연성이 상실된다.
제15도는 2입력을 사용하는 연산의 퍼지로직 곱셈과 가산연산의 예를 나타내며, 제12도에 의하여 가중치와 임계치를 결정할 수 있다.
상기 전건부와 후건부 멤버쉽 함수와, 상기 룰부에서 퍼지로직 연산을 실행키 위한 뉴론은, 전술한 바의 백 프로파게이션법에서 오차제곱의 합을 최소화할 수 있도록 학습시에 사용된다. 그러나, 멤버쉽 함수등의 근사에 필요한 조건은, 오차제곱의 합의 최소화에 언제나 한정되는 것은 아니다. 예를 들어, "입력의 변화에 응답한 출력변화의 최대량이 멤버쉽 함수의 경사(oblique)에 순응해야 한다" 즉, "감도의 상한이 결정돼야 한다", "오차 합계가 최소화 돼야 한다", "최대오차가 최소화 돼야 한다" 등의 다른 조건들이 더 있다. 그러나, 백 프로파게이션법은 상기 요건들에 대해 적절한 대책을 제시할 수 없다.
먼저, 제16도에 정의된 멤버쉽 함수의 근사관계가 비선형 뉴론의 입력 X와 출력 Y간에 존재하면 (뉴론의 특성함수의 최대 경사가 멤버쉽 함수의 a와 b간의 경사 즉, 1/b-a와 동등하다는 가정하에서) 가중치와 임계치는 하기와 같이 결정된다. 이 값들을 구하는 것은, 입력변화에 응답하는 출력의 변화를 구하는 것, 즉 감도의 상한을 구하기 위한 근사를 의미하며, 이는 학습에 의해 구할 수 없다.
본 실시예에서, 비선형 뉴론의 특성들은, 하기와 같이 시그모이드함수와 쌍곡 탄젠트 함수로서 나타낼 수 있다 :
상기 f(x)를 뉴론의 시그모이드 함수라고 가정하면, 하기 식들이 성립한다 :
W이 긍정(positive)등이면, 최대 경사를 나타내고, 시그모이드 함수 X=θ/W는 하기와 같이 구해진다 :
다음은, 상기 경사가 상기 멤버쉽 함수의 중간점에서의 경사과 동등한 것으로 가정하고, 하기식을 푼다 :
따라서, 하기 값들을 얻을 수 있다 :
상기 값들은, 뉴론의 특성을 tanh 함수로서 나타낼때 구해지며, 상기 값들을 용이하게 구하기 위해서 하기식을 사용해야 한다 :
따라서, 하기의 가중치와 임계치를 구할 수 있다 :
제17도는 감도의 상한을 결정하기 위한 근사치를 구하는 처리의 후로우챠트를 나타낸다. 제17도에서, 계수 f의 값은 스텝 S30에서 결정된다. exp으로 뉴론의 특성을 나타내면, f는 2이고; tanh로 나타내면, f는 이다. 다음, 멤버쉽 함수의 속성치 a와 b가 S31에서 리드(read)되고; S32에서 가중치가 산출되고, S33에서 임계치가 산출되며, 따라서 처리를 종료한다.
다음은 오차절대치의 적분치를 최소화하기 위한 근사 산출을 설명한다 : 상기 조사는 학습에 의해서 실현할 수 없으며, 멤버쉽 함수의 형태는 제16도에 도시된 것과 동일하게 된다.
먼저 오차 절대치의 적분치를 최소화하기 위한 필요조건들을 설명한다. tanh(wx)에 관하여 하기 함수를 근사한다 :
제18도는 m(x)와 tanh(wx)의 그래프를 나타낸다.
상기 두 함수의 1사분면에서의 교차점의 x좌표를 "S"라고 하면 S는 tanh(ws)이다. 즉,
하기 함수를 최소화하는 W값을 구한다 :
제1항은 하기와 같이 표현된다. :
상기 제2항과 제3항의 합은 하기와 같이 표현된다 :
따라서,
따라서, db(w)/db가 얻어진다.
그러면, 하기식이 성립한다 :
상기 식에서 db(w)/db=0일때의 s값을 구한다 :
상기 식을 충족하는 S값은 대략 0.7799이고, 따라서 W=1.3401이다.
제16도의 멤버쉽 함수 f(x)는 f(x)로 가정하면, 하기식이 성립한다 :
상기 값은 시그모이드 함수를 사용하여 구할 수 있으나, 더욱 용이하게 구하려면, 하기식을 사용해야 한다 :
그 결과,
제19도는 오차 절대치의 적분치가 최소인 근사치를 구하는 처리의 후로우챠트를 나타낸다. 제19도의 처리는 가중치와 임계치가 각각 1.3401배씩 증배된 후 S37과 S38에서 구해지는 것외에는 제17도의 처리와 동일하다.
다음은 제3페이스로서, 오차의 제곱의 적분치가 최소인 근사치가 구해진다.
멤버쉽 함수의 형태는 제16도에 도시된 것과 동일한 것으로 한다 먼저,
이 되는 함수를 tanh(wx)로 근사한다 : 다음은, 하기 함수를 최소화하는 W의 값을 구한다.
하기 조건이 주어지면 :
따라서, 하기식이 성립한다.
인 경우의 근사에 대해 W의 값을 구하면 W=1.3253이다.
제16도의 멤버쉽 함수가 (x)이면, 하기식이 성립한다 :
상기값들은 시그모이드함수를 사용하여 구할 수 있으나, 하기식에서 용이하게 구할 수 있다 :
그 결과, 하기 값이 구해진다 :
제20도는 오차 제곱의 적분치를 최소화하는 근사를 구하는 처리의 후로우챠트를 나타낸다.
제20도는 가중치와 임계치가 S42와 S43에서 1.3253배 증배된후 구해지는 외에는 제17도와 제19도와 동일하다.
다음은, 최대오차를 최소화하기 위한 근사를 설명한다.
상기 근사는 학습에 의해서 구할 수 없으며, 멤버쉽 함수의 형태는 제16도에 도시된 것과 동일하다.
먼저, tanh(wx)에 관하여 하기 함수의 근사치를 구한다 :
제18도의 함수들의 제1사분면에서의 교차점의 X좌표를 "s"라고 하면, S=tanh(ws)이다. 즉,
오차는 포인트 태(o 태 s) 또는 포인트 1의 최대치를 표시한다.
태는 dX(tanh(wx)=X)=0의 포인트를 나타내며, 태는 하기와 같이 구할 수 있다 :
여기서, 오차는 하기식에서 구해진다 :
다음은, X-1일때의 오차는 1=tanh(w)로서 표시된다. 상기 두 함수중 전자의 것은, 단조 증가를 나타내며, 후자는 W=0의 범위에서의 단조감소를 나타내며, W는 W의 값이 하기식을 충족할때의 오차의 최소치를 표시한다 :
W=1.412일때의 근사치를 구한다.
제16도의 멤버쉽 함수가 f(x)일 때, 하기식이 성립한다 :
상기 값들은 시그모이드 함수를 사용하여 구해지나, 하기식에서 용이하게 구할 수 있다 :
그 결과, 가중치와 임계치는 하기와 같이 구해진다 :
제21도는 최대오차를 최소화하기 위한 근사치를 구하는 처리의 후로우챠트를 나타내는 도면이다.
제21도는, 가중치와 임계치가 S47과 S48에서 1.412배 증가된 후 구해지는 것외에는 제17도, 제19도 및 제20도와 동일하다.
제17도, 제19∼21도에서는 제16도에 도시된 멤버쉽 함수(즉, 제9a도에 도시된 바와 같은 :Y는 대"를 나타낸 멤버쉽 함수)가 나타나 있다. 그러나, "Y는 소"를 나타내는 멤버쉽 함수의 근사치를 구하려면 가중치와 임계치에 각각을 곱함으로써 근사치를 구할 수 있다.
S37과 S38에서, 1.3401을 곱하는데 보다 높은 정확성이 요구되지 않으면, 유효 디지트 수를 감소시킬 수 있다.
다음은, 학습을 행하지 않고 멤버쉽 함수의 근사치를 구하는 방법을, 멤버쉽 함수 형태가 제10도에 도시된 바와 같이 "Y는 보통"을 나타내는 경우에 대해서 설명한다. 제22도는 근사되는 멤버쉽 함수의 형태를 나타낸다. 이 멤버쉽 함수의 x=a에 관하여 대칭형태이다. 먼저, 감도의 한계를 결정하기 위하여 근사치를 구한다.
제23도는 상기 근사를 실현하기 위한 3층 뉴랄 네트워크의 설명도를 나타낸다.
제23도에서, 제1층은 입력량을 그대로 출력하는 하나의 뉴톤을 구비하고 있다. 제2층은, 비선형 특성을 갖는 2뉴톤을 구비하고 있고, 그 가중치와 임계치는 후술하는 후로우챠트에서 구해진다.
제3층은, 상기 제2층의 2뉴톤에 의한 출력의 합에서 1을 감산한 결과를 출력하기 위한 1뉴톤을 구비하고 있다.
다음, 상기 제2층의 가중치와 임계치가 하기와 같이 구해진다 :
하기식에서 1뉴톤의 시그모이드 하수가 구해지면 :
하기식이 유도된다 :
W가 공정이면, 시그모이드 함수이 되어 하기식으로 표현되는 최대경사가 얻어지면 :
상기 경사를, 하기와 같은 멤버쉽 함수의 상방향 경사의 중간점의 경사 c와 동등한 것으로 가정한다:
따라서, 하기 값들이 구해진다 :
이들은 상기 제2층의 제1뉴톤의 가중치와 임계치이다.
이와 마찬가지로, 제2뉴톤의 가중치와 임계치를 하기와 같이 구할 수 있다 :
따라서, 하기 값들이 구해진다 :
상기 값들은 tanh함수를 사용하여 구할 수 있으나, 하기와 같이 용이하게 산출하여야 한다 :
따라서, 하기식이 구해지고 :
하기식이 구해진다 :
제24도는 감도의 상한을 결정하기 위한, 제2층의 가중치와 임계치를 구하는 후로우챠트이다.
제24도에서, 제17도의 S30과 S31의 처리와 같이 S49와 S50에서 동일한 처리를 행한후에 S51과 S52에서 제2층의 두 유니트에 대한 가중치가 구해지고, S53에서 임계치가 구해져서, 처리가 종료된다.
다음은, 제22도에 도시된 바와같은 형태의 멤버쉽 함수의 최대오차를 최소화하는 근사치가 구해진다. 상기 최대오차를 최소화하는 근사는 제23도에 도시된 것과 동일한 3층 뉴랄 네트워크에서 실현될 수 있다.
감도의 상한을 결정하기 위한 근사의 경우에서는, 상기 제2층의 두 뉴톤의 가중치와 임계치가 구해지며, 근사는 하기와 같이 된다 :
먼저, tanh(wx)를 사용하여, 하기 함수의 근사치를 구한다 :
제18도에 도시된 바와 같이 두 하수의 제1사 분면에서의 교차점의 X좌표를 "S"라고 하면, s는 tanh(ws)이다. 즉,
오차는 포인트 XO(O<XO<S) 또는 1에서의 최대치를 나타낸다.
XO는 식을 만족하는 포인트이며, 따라서,
여기서, 오차는 하기와 같이 구해진다 :
다음, X-1일때의 오차는 1-tanh(w)이다.
상기 두 함수에서, X가 0이면, 전자의 함수는 단조 증가를 나타내며, 후자는 단조감소를 나타낸다.
오차를 최소화하는 W값은 하기와 같이 구할 수 있다.
근사치는 W=1.412를 나타낸다.
제22도의 멤버쉽 함수의 상향 경사를 f(w)라고 가정하면, 하기식이 성립한다 :
이와 마찬가지로, 하향 경사에 대해서도 하기식이 성립한다 :
다음, tanh함수에 대한 가중치와 임계치를 구할 수 있다. 상기 값들은 시그모이드 함수를 사용하여 구할 수 있으나, 하기식에서 용이하게 구해야 한다 :
따라서, 하기식이 구해지고 :
하기식이 구해진다 :
제25도는 최대 오차를 최소화하는 근사를 구하기 위해서 상기 제2층의 두 유니트의 가중치와 임계치를 구하는 후로우챠트이다.
제25도는, 감도 상한을 구하는데 사용되는 제24도에 비해서 S57과 S60에서 처리될 때 가중치와 임계치가 각각 1.412배 증배되는 점에서 다르다. 상기 증배에서 보다높은 정확성이 요구되지 않는다면, 1.412의 유효 디지트수를 감소시킬 수 있다.
제11도에 도시된 바와 같이, 상기 후건부 멤버쉽 함수 실현부(18a) 상의 선형 유니트들(25a∼25n)의 입력결합의 가중치가, 상기 멤버쉽 함수의 형태를 복수 구역으로 분할한 후, 각 횡 좌표에서 후건부 멤버쉽 함수의 그레이드치로서 설정되도록 후건부 멤버쉽 함수를 제5도에 관하여 설명한 바와 같이 실현할 수 있다.
룰부(17)와 선현 유니트들(24a,24b)에서의 시그모이드 함수 유니트(23a∼23e)간의 결합은 퍼지룰에 의해 결정된다.
그러나, 퍼지룰이 일의적(uinique)이며, 결합의 일부만이 성립하고, 다른 부분들은 성립하지 않는다.
즉, 가중치는 0(영)으로서 결정된다.
제26도는 상기와 같은 유형의 퍼지룰을 나타낸다. 제26도에서, 전건부 멤버쉽 함수의 형태는 도시된 바와 같이 예정된다.
그러나, 후건부 멤버쉽 함수는 정형화된 상태로 제공되지 않고, 출력 Z의 값으로서 특정된다.
제27도는 제26도에 도시된 퍼지룰에 대응하는 계층 네트워크의 룰부 및 후속부들의 일실시예를 나타낸다.
제27도에서는, 출력 유니트들(24a,24b)에 대응하는 유니트들이 없다. 예를 들어, 상기 유니트(23a)에 대응하는 유니트(61a)는, 제5도의 유니트(25b)에 대응하는, 후건부 멤버쉽 함수의 좌표점 0.2에서의 그레이드치를 출력하는 유니트(62b)에 결합돼 있고, 그 값은 1로서 결정된다.
이와 마찬가지로, 룰(2)에 의하여, 0.6의 횡좌표에서 후건부멤버쉽 함수의 그레이드치를 출력하기 위한 유니트(62e)와 유니트(61b)간의 결합의 가중치는 1로 되고, 룰 3에 따라서, 유니트(61c)와 횡좌표 0.6에서의 후건부의 그레이드치를 출력하는 유니트(62d)간의 결합의 가중치가 1로 설정된다.
제27도에서는, 단지 1의 입력만이 제2층의 뉴톤들(62a∼62f) 각각에 공급되나, 2의 입력이 적당히 공급될 수 있다.
이 경우, 상기 유니트들(62a∼62f)가 선형 유니트이면, 복수의 룰의 그레이드치 출력의 대수합을 출력한다. 상기 유니트들(62a∼62f)가 입력의 최대치를 출력하면, 복수의 룰의 그레이드치의 논리합을 출력한다.
다음은, 제5도에 도시된 중심산출 실현부의 중심결정요소 출력장치(26)을 설명한다.
제28도는 중심결정요소 출력장치의 기본 구성을 나타내는 도면이다.
제5도에서는, 중심 결정요소 출력장치의 입력유니트가 생략돼 있다.
그런, 제28도에서는 유니트(65a∼65n)으로서 도시돼 있다. 상기 출력층의 유니트들(66a,66b)은 제5도의 상기 유니트들(26a,26b)와 대응하며, 중심산출장치(27)에 의한 중심산출에 필요한 2개의 중심 결정요소를 출력한다.
제28도의 입력층의 유니트들(65a∼65n)은 제5도에 도시된 후건부 멤버쉽 함수의 선형(25a∼25n)에 각각 대응하므로, 후건부 멤버쉽 함수의 1구역의 각 횡좌표에서의 후건부 멤버쉽 함수의 확대 또는 축소의 결과로서 그레이드치들을 출력한다.
입력층(65)의 유니트와 출력층(66)의 유니트는 전결합돼 있다.
후술하는 식에 의해 결정되는 결합의 가중치와 입력층의 유니트들(65a∼65n)의 출력을 사용하여, 유니트(66a)와 (66b)에 의하여, 그의 중심결정요소가 출력된다.
제29도는 중심 산출실현부(18b)에서의 중심산출 방법의 후로우챠트를 나타낸다.
제29도에서는, 각 좌표와 좌표들의 최대치간의 차이로서 제1가중치가 구해지는 한편; 각 좌표와 좌표들의 최대치간의 차이로서 제2가중치가 구해진다.
다음, S69에서, 각 좌표에 대한 입력과 제1가중치의 적의 합으로서 제1중심결정 요소가 구해지는 한편, 각 좌표치와 제2가중치의 적의 합으로서 제2중심 결정요소가 구해진다.
다음은, 제5도에 도시된 중심산출장치(27)에 의해서 최종 중심산출이 실행된다.
먼저, S70에서는, 최대 좌표와 제1중심결정 요소의 적과 최초 좌표와 제2중심결정요소의 적의 차이가 구해진다. S71에서는, 제1중심 결정요소와 제2중심결정요소간의 차이에 의하여 S70의 출력을 분할함으로써, 최종적으로 중심을 구한다.
제30도는, 제28도에 도시된 출력층과 입력층간의 결합의 가중치를 구하는 방법을 설명하는 도면이다.
제30도에서, 상기 입력층의 유니트(65a∼65n)는 간략한 도시를 위하여 생략돼 있다.
유니트(66a)와 (66b)는 입력합만을 구하는 선형유니트이고, 2의 중심결정요소 y(1)과 y(2)를 출력한다.
제30도에서, 입력층의 유니트(제30도에 도시안함)와 선형 유니트들(66a,66b)간의 결합의 가중치는, 좌표의 최소치를 X(1)로, 최대치를 X(n)으로 그리고 임의 좌표를 X(i)로 가정하여, 다음과 같이 구할 수 있다 :
또는, "c"를 정수(constant)로 가정하여 하기와 같이 가중치를 구한다 :
제50도에서, 두 개의 선형 유니트(66a)와 (66b)에 의하여 출력된 중심 결정요소 y(1)과 y(2)를 사용하여 하기와 같이 가중치가 구해진다 :
상기 식(16)에서, X(1)=0, X(n)=1, y(1)=Za, y(2)=Zb로 가정하면, 제5도의 중심산출장치(27)의 블록에서의 식 Z=Za(Za-Zb)를 구할 수 있다.
제31도는 중심결정요소의 출력의 일실시예를 나타낸다. 제31a도는 각 좌표와, 하나의 좌표를 사용하여 산출된 각 결합의 가중치를 나타내며 ; 제31b도는 입력치와 이에 대응하는 중심결정요소의 출력치의 일예를 나타낸다.
상기 식(16)을 사용하여 중심이 산출되며, 그 값은 1과 같다.
제32도는 중심결정요소의 출력의 제2실시예를 나타낸다.
제32도는 정수 c를 1/15로 가정한 예를 나타낸다.
제32a도는 각 좌표와 각 결합의 가중치를 나타내며 ; 제32b도는 각 입력치와 중심 결정요소의 출력치를 나타낸다.
식(16)을 사용함으로써, 중심치는 1이 된다.
제33도는 중심 결정요소 출력장치에 대한 신호를 공급하기 위한 모델신호 결정장치의 기본 구성을 나타낸다.
제33도는, 퍼지뉴로 통합 시스템의 최종 추정 처리에서 중심산출에 필요한 두 중심 결정요소를 출력하는 뉴랄 네트워크의 중심 결정요소 출력장치에 대한 신호를 제공하기 위한 모델 신호 결정장치의 기본구성을 나타낸다. 제33a도는 후술하는 제1실시예의 기본구성을 나타내며, 중심결정요소 출력장치(75)가, 상기한 바의 수치선상의 복수의 좌표와 복수의 좌표에 응답된 입력치들을 사용하여 중심을 산출하는데 필요한 두 중심 결정요소를 출력한다.
단점(endpoint)좌표 및 경사기억수단(76)이 복수의 좌표층 두 단점좌표(최대, 최소)와 중심을 교차하는 라인의 경사를 기억한다.
모델 신호 산출장치(77)는, 중심결정 요소출력장치(75)에 대응하는 뉴랄 네트워크에서의 학습중 입력된 진(眞) 중심치와 상기 단점좌표 및 경사기억수단(76)에 기억된 중심과 교차하는 라인의 경사와 단점좌표를 사용하여 중심산출을 위한 두 중심결정요소에 대해 제공되는 모델신호를 구하여 이 신호를 중심결정요소 출력장치(75)에 출력한다.
이 산출시에, 모델신호는, 입력된 진중심치와 교차하며, 상기 단점 좌표 및 경사기억수단(76)에 기억된 경사를 갖는 라인을 나타내는 식에 의해 결정된다.
제33b도는 후술하는 제2실시예의 기본 구성을 나타낸다. 제33b도에서, 중심결정 요소 출력장치(75)의 동작은 제33a도의 것과 동일하다. 단점좌표 기억수단(78)은 복수의 좌표중 두 단점좌표(최대, 최소)를 기억하고 있다. 모델신호 산출장치(79)는 중심결정 요소 출력장치(75)에 대응하는 뉴랄 네트워크의 학습중에 입력된 진중심치와, 상기 중심결정 요소 출력장치(75)에 의해 출력된 두 중심결정요소치 및, 상기 단점 좌표기억 수단(78)에 기억된 두 단점 좌표를 사용하여 두 중심결정요소에 대한 모델 신호를 구하여 출력한다.
이 산출시에, 상기 모델신호는, 두 중심결정 요소의 출력치에 의해 결정된 라인과 경사가 같고 진중심과 교차하는 라인의 식에 의해 결정된다.
상기 산출처리중에 가중치의 부호는 서로 반대이므로, 상기 중심결정 요소들은 서로 반대부호가 할당된다. 따라서, 하나는 긍정인 반면, 하나는 부정이다.
상기 두 중심결정 요소치를 좌표측에 수직인 벡터로 가정하면, 긍정부호는 하향 벡터를 나타내고, 부정부호는 상향 벡터를 나타낸다.
제1중심결정 요소에 대응하는 벡터는, 복수의 좌표중 최소 좌표, 즉, 포인트 X(1) 벡터로 설정되는 한편, 제2중심결정요소에 대응하는 벡터는 복수의 좌표중 최대 좌표, 즉, 포인트 X(n)으로 설정된다. 따라서, 상기 벡터들의 단점을 연결하는 라인과 X축의 교차점이 중심으로서 정의된다.
제33a도에서는, 상기 중심결정 요소 출력장치(75)를 구성하는 뉴랄 네트워크의 학습중에 입력된 진중심을 교차하며, 상기 단점좌표 및 경사 기억수단(76)에 기억된 경사를 갖는 라인의 식을 사용하여 두 단점좌표에서 벡터의 그레이드와 부호가 구해진다.
제33b도에서는, 상기 중심결정 요소 출력장치(75)에 의해 출력된 두 중심결정요소에 대응하는 두 벡터의 단점을 연결하는 라인과 경사가 동일하고, 진중심을 교차하는 라인의 식을 사용하여 두 단점좌표에서, 벡터의 그레이드와 부호가 구해진다.
이 값들은, 모델 신호로서 상기 중심결정 요소 출력장치에서 제공된다.
제34도와 35도는 모델 신호 결정장치의 일실시예의 구성을 나타낸다.
제34도는 제33a도와 대응하는 한편, 제35도는 제33b도와 대응한다.
이 도면들에서, 중심결정요소 출력장치(26)의 일실시예가 제30도에 도시돼 있다.
제34도에서, 모델신호 결정장치(80a)는, 단점 좌표와 중심을 교차하는 라인의 경사를 기억하는 단점 및 경사 기억수단(81)과, 중심결정요소 출력장치(26)를 구성하는 뉴랄 네트워크의 학습 중 입력된 중심치와, 상기 단점 좌표 및 경사 기억수단(81)에 기억된 값을 사용하여 모델 신호를 출력하는 모델 신호 산출 장치(82)를 구비하고 있다.
제35도에서, 모델신호 결정장치(80b)는, 단점 좌표치를 기억하는 단점 좌표 기억수단(83)과, 두 중심결정요소의 출력치, 진중심치 및 상기 단점 좌표 기억수단(83)에 기억된 단점 좌표치를 사용하여 모델신호를 산출키 위한 모델신호 산출장치(84)를 구비하고 있고 산출된 값을 중심결정요소 출력장치(26)에 공급한다.
제36도는 상기 모델신호 산출장치에서 사용되는 산출방법의 일실시예를 나타낸다.
제36a도는 제1실시예의 방법을 나타내며: 제36b도는 제2실시예의 방법을 나타낸다.
제36a도에서, 중심 c를 교차하는 라인의 경사를 "a" ; 복수좌표의 최소좌표(즉, X1의 모델신호치를 "Z1"); 그리고 최대좌표, (즉 X2에서의 모델신호치를 "Z2")라 가정하면, 모델신호들은 하기와 같이 구해진다 :
제36b도에서, 상기 최소좌표, 즉 상기 중심결정요소 출력장치의 X1에서의 출력인 제1중심결정요소를 y1; 모델신호의 값을 Z1; 최대좌표, 즉, 상기 중심결정요소 출력장치의 X2에서의 출력인 제2중심결정요소를 y2; (모델신호의 값을 Z2)라고 가정하면, 모델신호들의 값은 하기와 같다 :
제37도는 모델신호의 출력예를 나타낸다. 제37a도에서, 단점 좌표 -5와 10, 라인의 경사 0.2가 제34도에 도시된 단점 좌표 및 경사 기억수단(81)에 기억되고, 진중심의 좌표 5가 모델신호 산출장치(82)에 입력되면, 2의 모델신호 값이 Z1=2와 Z2=-1로서 결정된다.
제37b도에서, 단점 좌표 -5와 10이 제35도에 도시된 단점 좌표 기억수단(83) 내에 기억되고, 중심결정요소 출력장치(26)의 y1=-1.5와 y2=1.5 및 진중심좌표 5가 상기 모델신호 산출장치(84)에 입력되면 두 모델신호 값들이 Z1=+2와 Z2=-1로서 결정된다.
상기의 설명에서, 퍼지 추정의 최종스텝에서 실행되는 중심출력을 구하는 계산은, 제5도와 제7도에 도시된 바와같은 계층 뉴랄 네트워크의 최종 출력인 두 중심결정요소를 사용하여 중심산출 장치(27)에 의해서 실행된다.
그러나, 중심산출 실현부(18b) 전체를 하나의 뉴랄 네트워크로서 구성할 수 있다. 이 경우, 중심산출 실현부 전체는, 중심산출 장치(27)에 의한 분할구역을 포함하는 뉴랄 네트워크이며, 출력 유니트로부터 중심치가 출력된다. 다음은, 계층 네트워크가, 예를 들면, 정확한 중심치가 계층 뉴랄 네트워크에 의하여 구해질 수 있도록 백프로파게이션법으로 학습된다.
제38도는 중심산출 실현부로서 계층 뉴랄 네트워크의 일실시예를 나타낸다.
제38도에서, 중심산출 실현부(88)는, 입력층(91), 하나 또는 복수의 중간층(92) 및 출력층(93)을 구비하고 있고, 여기서, 상기 입력층은, 제5도에 도시된 후건부 멤버쉽 함수 실현부의 선형 유니트들(25a∼25n)로부터의 값들을 수신하기 위한 유니트들(91a∼91n)을 구비하고 있으며, 출력층(93)은 단지 하나의 유니트(93a)만을 구비하고 있다.
제38도에서는, 중심산출 실현부(88)에 선행하는 입력 유니트들(91a∼91n) 각각에 대응하여 입력 정규화장치(89a∼89n)가 설치돼 있어, 후건부 멤버쉽 함수 실현부(25a∼25n)의 출력을, 상기 입력 유니트들이 민감(sensitive)하게 유지되는 범위, 즉, 시그모이드 함수의 경사치가 큰 범위(예를 들어, 유니트 특성이 시그모이드 함수 f(x)일 때 x의 범위는 {x ; 1 │f'(x)│>a}(α>0)로서 결정된다.)로 선형 변환함으로써 입력 유니트들(91a∼91n)의 동작을 민감하게 만든다. 상기 중심산출 실현부(88)에 후속하여 출력 복원장치(90)가 설치되어, 출력 유니트(93a)에 의해 출력된 출력치를 적절한 함수에 의하여 소정의 좌표치 범위내로 맵(map)시킨다. 이러한 입력 정규화 장치와 출력 복원장치는 항상 필요하지는 않다.
제39도는 퍼지 추론부를 구비한 중심출력 장치의 전체 구성을 나타낸다.
제39도에서, 상기 유니트는, 제38도에 도시된 구성외에, 퍼지 추론부(94), 뉴랄 네트워크 제어장치(95) 및 중심 학습장치(96)를 구비하고 있다. 상기 퍼지 추론부(94)는, 제5도의 후건부 멤버쉽 함수 실현부(18a)까지의 계층 뉴랄 네트워크를 나타내며, 상기 선형 유니트들(25a∼25n)의 출력 각각은 입력 정규화장치(89a∼89n)를 통하여 중심산출 뉴랄 네트워크(88)에 입력된다. 뉴랄 네트워크 제어장치(95)가 상기 중심산출 뉴랄 네트워크(88)의 유니트의 임계치와 결합의 가중치등과 같은 내부 상태량의 설정, 변경 등을 제어한다. 중심 학습장치(96)가 상기 중심산출 뉴랄 네트워크(88)의 학습시에 모델 데이터를 발생한다.
제40도는 뉴랄 네트워크 제어장치(95)와 중심 학습장치(96)를 상세히 나타낸 중심 출력장치의 일실시예를 나타낸다.
중심 학습장치(96)는, 중심 학습장치(96)에 대해 각종 제어를 행하는 제어장치(100)와 외부에서 수신된 좌표 입출력 범위, 모델 데이터의 수를 기억하는 정수 기억부(102) 및, 이 정수 기억부(102)에 기억된 정수에 의하여 학습용 모델 데이터를 발생키 위한 모델 데이터 발생부(101)를 구비하고 있다.
제40도에 도시된 바와 같이, 뉴랄 네트워크 제어장치(95)는, 모델 데이터 발생부(101)에 의해 발생된 모델 데이터를 학습 데이터로서 기억하는 학습 데이터 기억부(98)와, 뉴랄 네트워크(88)의 유니트들간의 결합 라인과 관련된 가중치와, 각 유니트의 임계치 처리에서 사용되는 임계치와 뉴랄 네트워크(88)를 학습 정수, 모멘트 등을 사용하여 제어하기 위한 내부상태 데이터를 기억하기 위한 내부상태 기억부 및, 상기 뉴랄 네트워크(88)에 의해 출력된 중심을 나타내는 출력치를 중심을 나타내는 모델 데이터와 비교하여 뉴랄 네트워크(88)의 학습 데이터 기억부(98)에 기억된 학습 데이터를 입력하고 상기 내부상태 기억부(99)에 기억된 내부 상태 변화를 제어하는 학습 제어부(97)를 구비하고 있다.
제41도의 후로우챠트에 도시된 바와 같이, 스텝 S104에서는, 중심 학습장치(96)의 제어부(100)가, 좌표, 입/출력 범위, 모델 데이터의 수를 외부 독출하여, 이들을 정수 기억부(102)에 기억시킨다.
스텝 S105에서는, 상기 제어부(100)가 모델 데이터 발생부(101)에 지시하여 모델 데이터를 발생시킨다.
스텝 S106에서는, 상기 모델 데이터 발생부(101)가 정수 기억부(102)로부터 정수 데이터를 독출한다.
스텝 S107에서는, 상기 모델 데이터 발생부(101)가, 난수(random number) 발생부(103)로부터 난수를 획득하고, 스텝 S108에서는, 모델 데이터 발생부(101)가 상기 독출된 정수와 난수에 의하여 모델 데이터를 발생한다.
다음, 모델 데이터의 출력이, 상기 난수에 의해 발생된 입력 데이터에 의하여 산출된다.
스텝 S109에서는, 상기 모델 데이터 발생부(101)가 상기 모델 데이터를 상기 뉴랄 네트워크 제어부(95)의 학습 데이터 기억부(98)에 송신하여 여기에 기억시킨다.
스텝 S110에서는, 학습장치(96)의 제어부(100)가, 뉴랄 네트워크 제어부(95)의 학습 제어부(97)에 학습 명령을 지시한다.
본 실시예에서는, 대응 데이터가 0.2t 0.8의 범위내에 맵되며, 이 범위에서는, 수 라인의 소정좌표가 {1, 2, 3, 4, 5}이고, 각 좌표에 대응하는 값의 입력범위가 ("속성") 0≤t≤10(과 동등)이고, 유니트의 입/출력 범위가 0≤t≤1이고, 좌표 및 이 좌표들에 의해 확인된 값들이 소정의 입력 범위내인 것으로 가정할때 유니트가 소정 입력 범위에서 민감하다.
다음, 정규화 장치 89i(i=1, 2, …)의 하기 선형함수가 사용되며,
출력 복원장치(90)에 의해 사용되는 적당한 선형함수는 하기와 같다 :
제42도는 일실시예에서 사용된 뉴랄 네트워크를 사용하여 중심 출력장치에 의해 출력된 중심치와 실제 중심을 나타내고 있으며, 10데이터에 대한 최대허용 오차는 0.12249, 오차 평균치는 0.036018이다.
상기 실시예들에서, 입력 정규화 장치와 출력 복원장치의 함수는 선형함수들이다. 그러나, 이들 함수는 선형함수들에 한정되지 않고, 비선형 함수일 수 있다.
다음, 중심산출 실현부(18b)의 제3실시예로서 산출 네트워크를 설명한다.
이 중심산출 실현부(18b)는 퍼지추정의 최종 스텝에서 중심치로서 시스템 출력을 하기와 같이 구한다 :
즉, 후건부 멤버쉽 함수의 횡좌표 Z와 Z에 관련된 횡좌표에서의 그레이드치의 적의 적분치를 Z에 관련된 횡좌표의 그레이드치의 적분치에 의하여 분할함으로써 중심치를 구할 수 있다.
제43도는 상기 방법에 의하여 중심을 구하는 중심산출 실현부인 분할 네트워크의 설명도를 나타낸다.
제43도에서, 퍼지룰이 제27도에 도시된 바와 같이, 제5도에 도시된 룰부(17)의 출력유니트(24a)와 (24b)가 필요치 않다. 즉, 제26도에 도시된 퍼지룰이 고려된다.
따라서, 제43도에서, 유니트들(112a∼112k)이 제5도에 도시된 룰부(17)에서 시그모이드 함수들(23a∼23e)과 대응하며, 상기 룰부에서는 상기 식(21)에서의 횡좌표 Z에서의 그레이드치가 룰의 그레이드치와 대응한다. 따라서, 분할 네트워크(111)의 제1입력유니트 a와 유니트들(112a∼112k)간의 결합의 가중치가 후건부 멤버쉽 함수의 횡좌표 값 Z1,…Z1, …Zk와 동등한 한편, 상기 유니트들(112a∼112k)과 다른 한 유니트 b간의 결합의 가중치는 항상 '1'이다. 따라서, 상기 분할 네트워크(111)에 의하여, 중심치를 구할 수 있으며, 여기서, 상기 유니트(113b)의 출력(b)에 의한 상기 유니트(113a)의 출력(b)의 분할결과치가 구해진다. 다음은, 상기 분할 네트워크(111)가 상기 백프로파게이션법의 분할을 실행하는 방법을 학습한다.
제44도는 분할 네트워크의 일실시예를 나타낸다.
제44도는 제26도에 도시된 퍼지룰과 대응한다. 유니트들(112a∼112c)과 유니트(113a)간의 결합의 가중치는 후건부 멤버쉽 함수의 횡좌표치 0.2, 0.8 또는 0.6을 나타내고 있고, 유니트들(112a∼112c)과 유니트(113b)간의 가중치는 항상 '1'이다.
다음은, 제3도에 도시된 순 뉴로(11)로부터 룰부 프리와이어 뉴로(12), 또는 룰부 전결합 뉴로로의 네트워크 구조의 변환, 또는, 제3도에 도시안된 룰부 전결합 뉴로(12)로부터 룰부 프리와이어 뉴로(13)로의 네트워크 구조의 변환을, 상기 룰부 프리와이어 뉴로(12)로부터 또는 룰부 전결합 뉴로(13)로부터의 퍼지 모델의 추출과 함께 상세히 설명한다.
제45도는 네트워크 구조의 변환과 퍼지 모델 추출의 개념도를 나타낸다.
상기 룰부 프리와이어 뉴로(12) 또는 룰부 전결합 뉴로(13)는, 네트워크 구조를 상기 순 뉴로(11)로부터 변환시킴으로써 얻어지며, 다음, 상기 룰부 프리와이어 뉴로(12)는 네트워크 구조를 상기 룰부 전결합 뉴로(13)로부터 변환시킴으로써 얻어진다.
퍼지모델(10)은, 상기 룰부 프리와이어 뉴로(12)로부터 멤버쉽 함수와 퍼지룰이 추출된 후 이 룰부 프리와이어 뉴로(12)로부터 얻을 수 있으며, 한편, 상기 룰부 전결합 뉴로(13)로부터 멤버쉽 함수가 추출된 후 이 룰부 전결합 뉴로(13)로부터 퍼지모델(10)을 구할 수 있다.
제46도는 제3도에 도시된 적응형 데이터 처리장치(11)의 구성을 나타낸다.
뉴로 퍼지 통합시스템이 상기한 바의 순 뉴로와 같은 유니트만을 구비한 경우, 퍼지 추정의 최종 스텝으로서 비퍼지 산출이 뉴랄 네트워크만을 사용하여 실행된다.
데이터를 입력하는 입력부의 입력층(제1층) 처리결과 제어조작량을 출력하는 출력층(제n층) 및 중간층(제2층∼제(n-1)층)이 제4-b도에 도시돼 있다. 상기 중간층은 복수의 층들을 포함할 수 있다. 유니트간에 상기 층들의 전결합에 의하여 순 뉴로가 형성된다.
제47도는 유니트들만을 포함한 구성의 룰부 전결합 뉴로(6)의 일예를 나타낸다.
제47도에서, 룰부 전결합 뉴로는 입력부인 입력층(제1층)과, 전건부 멤버쉽 함수를 실현하는 제2층과, 각 유니트에서의 전건부 멤버쉽 함수의 그레이드치를 나타내는 제3층 및, 상기 룰부의 제4층으로부터 제(n-2)층과, 여기서, 상기 제(n-2)층의 각 유니트들은 각 후건부 멤버쉽 함수의 확대/축소율을 나타내며, 후건부 멤버쉽 함수를 실현하기 위한 제(n-1)째층과, 비퍼지 처리의 결과를 출력하기 위한 출력부의 출력층(제n층)을 포함하고 있다. 이들중에서, 상기 룰부의 제4층으로부터 제(n-2)층까지의 층들은 전결합돼 있어서, 룰부 전결합 뉴로의 특징을 이룬다. 다음, 제48도는 유니트들 만으로된 룰부 프리와이어 뉴로(7)의 구성의 일예를 나타낸다.
제48도에서, 입력층(제1층)으로부터 출력층(제n층)까지의 계층 구성은 제47도에 도시된 구성과 동일하다. 그러나, 제47도에 도시된 룰부 전결합 뉴로와는 달리 상기 룰부의 제4층으로부터 제(n-3)층까지 전결합돼 있지 않으며, 퍼지룰에 의하여, 결선이 돼 있고 가중치가 설정됨으로써, 룰부 프리와이어 뉴로의 특징을 이룬다.
제46도의 순 뉴로와, 제47도의 룰부 전결합 뉴로 및, 제48도의 룰부 프리와이어 뉴로에서, 제1층은 제5도의 입력부(15)와 대응하며, 제2층은 전건부 멤버쉽 함수 실현부(16)의 유니트들(21a∼21d)과 대응하며, 제3층은 상기 유니트들(22a∼22d)과 대응하며 제4층은 상기 룰부의 유니트들(23a∼23e)과 대응하며, 제(n-2)층은 상기 유니트들(24a, 24b)과 대응하며, 제(n-1)층은 상기 후건부 멤버쉽 함수 실현부(18a)와 대응하나; 제n층(출력층)은, 비퍼지 처리를 위하여 산출을 행하며, 중심치를 구하기 위해서는 연산을 행하지 않는다.
제46도에서, 순 뉴로의 입력층과 제2층간의 결합의 가중치와, 제2와 제3결합간의 결합의 가중치에서(덜 중요한 쪽의) 결합을 제거함으로써, 입력을 위한 멤버쉽 함수를 명백히 할 수 있다.
후건부 멤버쉽 함수를 추출하기 위하여, 제(n-1)층의 유니트들의 결합의 가중치들과, 상기 유니트들에 결합된 제(n-2)층의 유니트들의 결합의 가중치들이, 제(n-1)층과 출력층(제n층)간의 결합의 가중치들이 오름차순으로 배열되도록, 재배열된다.
상기 설명한 절차에 의하여, 순 뉴로를 룰부 전결합 뉴로로 변환할 수 있다.
다음, 순 뉴로의 입력층과 제2층간의 결합의 가중치와, 제2결합과 제3결합간의 결합의 가중치에서 (덜 중요한 어느쪽의) 결합을 제거함으로써, 입력을 위한 멤버쉽 함수를 추출할 수 있다.
제3층에서 제(n-2)층까지의 결합에서 덜 중요한 어느쪽의 결합을 제거함으로써 퍼지룰을 추출할 수 있다.
최종적으로는, 후건부 멤버쉽 함수를 추출하기 위하여, 제(n-1)층의 유니트들의 결합의 가중치와 상기 유니트들에 결합된 제(n-2)층의 유니트들의 결합의 가중치들이, 제(n-1)층과 출력층(제n층)간의 결합의 가중치들이 오름차순으로 배열되도록 재배열된다.
상기 설명한 절차에 의하면, 순 뉴로를 룰부 프리와이어 뉴로로 변환할 수 있다. 이와 마찬가지로, 룰부 전결합 뉴로를 룰부 프리와이어 뉴로로 변환할 수 있다.
종래의 순 뉴로 구조의 계층 뉴랄 네트워크에서는, 학습되는 시스템의 내부룰들이 모든 결합에 "가중치"로서 분배된다. 그러므로, 내부룰들을 분리시키는 것이 매우 곤란하다. 본, 발명에서, 룰부 프리와이어 뉴로 또는 룰부 전결합 뉴로로의 변환은, 퍼지모델 형태의 내부룰들의 추출을 가능케 한다.
퍼지모델의 추출 : 덜 중요한 유니트 또는 결합을 제거하여 전체 네트워크의 현재 정보처리능력을 유지함으로써 행할 수 있다.
다음은, 룰부 프리와이어 뉴로, 룰부 전결합 뉴로, 또는 순 뉴로로부터의 퍼지모델의 추출을 제5도에 도시된 명칭을 사용하여 설명한다.
1. 룰부 프리와이어 뉴로로부터 퍼지룰의 추출.
룰부 프리와이어 뉴로의 분석처리는, 룰부 유니트를 논리요소의 기능을 구비하도록 변환하는 논리요소처리와 룰부 유니트 제거처리를 행한다.
1-1. 룰부 뉴로에 대한 논리요소처리 룰부의 각 유니트에 대하여 스텝(1)∼(8)을 포함하는 하기 절차가 실행된다.
스텝(1)과 (2)에서, 전 처리로서, 결합의 부정부호 가중치를 긍정부호 가중치로 적분함으로써, 논리가 부정부호로 이해 불가능해지는 것을 방지한다.
스텝(3)∼(6)에서는, 각 유니트의 입/출력 특성이 점검되고, 그의 진폭(다이나믹(dynamic) 범위)이, 후건부 멤버쉽 함수부들간의 결합의 가중치에 의해서만 결정될 수 있도록 분배율을 결정할 수 있다.
스텝(7)과 (8)에서는, 유니트들의 입/출력 특성과 매치(match)하는 논리요소를 결정할 수 있다.
(1) 룰부와 후건부 멤버쉽 함수 실현부간의 결합의 가중치가 부정이면, 스텝(a)와 (b)가 실행된다.
(a) 상기 룰부와 멤버쉽 함수 실현부간의 결합의 가중치의 부호를 긍정으로 전환해야 한다.
(b) 전건부 멤버쉽 함수 실현부와 룰부간의 결합의 가중치(임계치 포함)의 부호가 반전돼야 한다(이 처리에서 부정부호를 제거한다)
(2) 전건부 멤버쉽 함수 실현부와 룰부간의 결합의 가중치(임계치 포함) 모두에 대하여 상기 처리(a)가 실행된다.
가중치의 부호가 부정이면, 스텝(i)과 (ii)가 실행된다.
(i) 가중치(임계치 포함)의 모든 부정부호를 기록한다.
(ii) 가중치(임계치 포함)의 부호를 긍정으로 전환한다.
(3) 유니트의 입/출력 특성을 검사하기 위하여 데이터를 입력하고 그 결과 출력을 얻는다.
(4) 상기 출력의 최대 및 최소치를 검사한다.
(5) 출력치를 하기식에 의하여 정규화 한다.
X=(x-최소치)/(최대치-최소치)
상기 식에서, x는 변환전의 출력치를 나타내며, X는 변환후의 출력치를 나타낸다.
(6) 룰부와 후건부 멤버쉽 함수부 간에서의 결합의 가중치를 변환한다(이 변환된 가중치를 퍼지룰의 중요도로 간주할 수 있다).
W=z×(최대치-최소치)
상기 식에서, w는 변환전의 가중치, W는 변환후의 가중치를 나타낸다.
(7) 정규화된 입/출력 데이터와 논리요소들에 관련된 입/출력 데이터를 매치한다.
(8) 스텝(7)의 결과와, 스텝(2), (a) 및 (i)의 정보에 의하여, 유니트가 어떠한 논리연산을 실행하는지를 판정한다.
그 결과가 "항진" 또는 "항위(恒僞)임으로 판정되면, 그 유니트가 제거된다.
1-2. 룰부의 유니트의 제거
상기 룰부와 후건부 멤버쉽 함수부간의 결합의 가중치를 검사하고, 바람직한 퍼지룰 수를 위하여 상기 결선을 최대가중치로부터 내림차순으로 보존한다.
다음, 상기 보존된 결합에 결합된 룰부 유니트들과, 이 유니트들에 결합된 룰부와 전건부 멤버쉽 함수간의 결합만을 더 보존한다.
그 실시예들이 제49∼57도에 도시돼 있다. 제49∼57도에서, 제5도에 도시된 전건부 멤버쉽 함수 실현부(16)는, 전건부 멤버쉽 함수 실현부(제2층)와 전건부 멤버쉽 함수부(제3층)로 분할돼 있고; 룰부(17)는, 룰부의 제4층과 후건부 멤버쉽 함수부(제5층)로 분할돼 있다. 중심결정요소 출력장치(26)는 중심 중간치부와 대응하며, 중심산출 장치(27)가 중심산출 장치가 대응하고 있다.
제49도는 상기 논리요소처리전의 룰부 프리와이어 뉴로의 상태를 나타낸다.
제50도에 도시된 상태는 룰부의 각 유니트에 대해 논리처리를 실행함으로써 얻을 수 있다. 제50도에서, 룰부의 각 유니트의 능력은, 논리합, 평균치, X만(x only), 항진, 대수합, 대수적, 한계적 및 Y만으로 표시되는 논리요소능력으로 변환된다.
제51도에서, 룰부와 제50도의 후건부 멤버쉽 함수부간의 결합에서 최대 가중치로부터 내림 하순으로 3개의 결선(line of connection)이 선택된다. 다음, 이 선택된 결선에 결합된 룰부 유니트들이 보존된다. 그 나머지 유니트들은, 이들 유니트들 전후의 결선과 함께 제거함으로써 3개의 퍼지룰을 추출한다.
제51도에 도시된 룰부에 보존된 3유니트의 논리요소능력은, 평균치, X만 한계적이다. 퍼지룰들은 상기 논리요소능력을 사용하여 하기와 같이 나타낼 수 있다 :
평균치(x(ss), y(ss))이면, z(La)이다. x(La)이면, z(ss)이다.
한계적(x(La), y(La))이면, z(SS)이다.
2. 룰부 전결합 뉴로로부터 퍼지룰의 추출 룰부 전결합 뉴로의 분석처리는, 이 룰부 전결합 뉴로의 전건부 멤버쉽 함수부와 룰부간의 각 결선과 룰부와 후건부 멤버쉽 함수부간의 각 결선의 간소화후에 룰부 전결합 뉴로의 구조를 룰부 프리와이어 뉴로로 변환하는 처리를 행한다.
그 절차(2-1)∼(2-3)은 하기와 같다 :
2-1. 전건부 멤버쉽 함수 실현부와 룰부간의 결선의 간소화
룰부의 각 유니트에 대하여 스텝(1)∼(3)을 실행한다.
(1) 전건부 멤버쉽 함수부의 유니트들을 각 입력된 변수에 대하여 그룹화한다.
(2) 각 그룹에 대하여 스텝(a)를 실행한다.
(a) 하나의 그룹에서, 전건부 멤버쉽 함수부와 룰부간의 가중치의 최대 절대치를 갖는 결선을 선택하여 보존해야 한다(하나의 결선은, 룰부의 각 유니트에 대하여 하나의 그룹내에 보존된다).
(3) 스텝(2)에서 보존된, 전건부 멤버쉽 함수부와 룰부간의 결선에서, 가중치의 절대치가 최대인 결선과 두번째로 큰 결선이 보존된다.
2-2. 룰부와 후건부 멤버쉽 함수 실현부간의 결선의 간소화
룰부의 각 유니트에 대하여 스텝(1)과 (2)가 실행된다.
(1) 후건부 멤버쉽 함수부의 유니트들을 각각의 출력된 변수에 대하여 그룹화한다.
(2) 각 그룹에 대하여 스텝(a)를 실행한다.
(a) 하나의 그룹에서, 룰부와 후건부 멤버쉽 함수부간의 가중치 절대치가 최대인 결선을 선택하여 보존해야 한다.
2-3. 추적(trailing)스텝은 룰부 프리와이어 뉴로의 경우와 동일하다.
제52∼57도는 실시예들을 나타낸다.
제52도는 룰부 전결합 뉴로와 퍼지룰 추출전의 처리의 일예를 나타낸다.
제53도는 각 유니트의 입력변수 x와 y 각각에 대하여 전건부 멤버쉽 함수의 유니트들을 그룹화하는 처리를 나타낸다.
제54도는, 제53도에서, 룰부의 각 유니트의 각 전건부 멤버쉽 함수부의 그룹으로부터의 결선의 가중치가 검사되고 최대절대치의 가중치를 갖는 결선의 가중치가 보존된 상태를 나타낸다.
다음, 룰부의 각 유니트에서 보다 큰 가중치를 갖는 두 결선이 선택되고, 그 나머지는 모두 제거됨으로써 간소화된 상태로 된다.
제55도는 제54도에서, 후건부 멤버쉽 함수부의 유니트들이 출력변수 z에 대하여 그룹화된 상태를 나타낸다. 그러나, 이 경우에는 단지 1그룹만이 존재한다. 룰부의 각 유니트의 그룹들에 대한 결선중에서 최대가중치를 갖는 하나의 결선이 나타나 있고, 그 나머지 결선들은 전부 제거된 간소화된 상태가 도시돼 있다.
제56도는 제55도에서, 룰부의 각 유니트를 논리요소처리하는 상태를 나타낸다.
제57도는, 제56도에 도시된 바와 같이 논리요소처리되는 룰부의 유니트들중(바람직한 퍼지룰의 수에 대응하는) 3유니트가 후건부 멤버쉽 함수부에 대한 결선의 가중치에 따라서 선택된다.
제57도에서 선택된 상기 3유니트의 논리요소능력은, x만, 평균, 대수합을 포함하며, 여기서 퍼지룰은 하기와 같이 표현할 수 있다 :
x(ss)이면, x(ss)이다.
평균치(x(ss), y(La))이면, z(la)이다.
대수합(x(La), y(La))이면, z(ss)이다.
3. 순 뉴로로부터의 멤버쉽 하수와 퍼지룰의 추출 적용시스템이 온도와 습도를 제어한다.
이 시스템은 소정의 온도와 습도에서 실행하는 제어를 행한다. 이 처리에는 하기식이 필요하다 :
제어량=0.81T+0.1h(0.99T-14.3)+46.3
식에서, T는 온도(℃), h는 습도(%)를 나타낸다.
제58도는 시스템 데이터를 학습하는 계층 순 뉴로 네트워크를 나타낸다.
이 네트워크는, 입력층에서 출력층까지 7층으로 구성돼 있다. 2종의 입력으로서, 온도와 습도가 공급되고, 제어량들이 출력으로서 주어진다. 적용 시스템에 의하여 전체 54 학습 패턴이 주어진다.
이들 패턴들은 정규화되어, 제59도에 도시돼 있다. 제58도의 각 층에서, 제1층은 2유니트로 구성돼 있고, 제2층은 5유니트로 구성돼 있고, 제3층은 3유니트들로 구성돼 있고, 제4층은 4유니트로 구성돼 있고, 제5층은 3유니트로 구성돼 있고, 제6층은 5유니트들로 구성돼 있고, 제7층은 1유니트로 구성돼 있다. 이 층들은 학습을 위하여 전결합된다.
학습후, 결선의 가중치가 제60도에 도시돼 있다. 얻어진 뉴랄 네트워크로부터 퍼지 모델을 추출할 수 있다.
제58도에 도시된 상태에서, 퍼지 모델을 거의 추출할 수 없다. 따라서, 순 뉴로가 룰부 프리와이어 뉴로의 구조로 변환된다.
그 변환절차는 하기와 같다 :
(1) 상기 제2층의 유니트들중에서, 최대가중치를 갖는 결선을 제2층의 유니트로부터 제1층의 유니트로 보존한다. 다른 결선들은 전부 제거된다. 이 처리가 제61도에 도시돼 있다. 제61도에서, 파선을 제거됐음을 의미한다.
(2) 가중치가 보다 큰 소수의 결선이 제3층의 유니트들로부터 제2층의 유니트들로 보존하며, 그 나머지 결선은 제거하며, 제62도에 도시돼 있다. 제62도에 도시된 일예에서는, 각 유니트들로부터 각 2결선을 보존한다. 제62도에서, 파선은 제거된 결선을 나타낸다.
(3) 보다 큰 가중치를 갖는 소수의 결선을 제4층의 유니트들로부터 제3층의 유니트들로 보존하고, 그 나머지 결선을 제거하여, 제63도에 도시돼 있다. 제63도에 도시된 일예에서는, 각 유니트로부터 각각 2결선이 보존된다. 제63도에서, 파선은 제거된 결선을 나타낸다.
(4) 제4층의 유니트들중에서는, 최대 가중치를 갖는 결선을 제4층의 유니트로부터 제5층의 유니트로 보존한다. 그 나머지 결선은 모두 제거한다. 그 처리가 제64도에 도시돼 있다. 제64도에서, 파선은 제거된 결선을 나타낸다.
(5) 제6층과 제7층의 결선의 가중치가 최소가중치로부터 오름차순으로 배열된 결선에서는, 제6층의 유니트들 제65도에서(4∼8) 의 결선과 이 유니트들에 결합된 제5층의 유니트들의 결선의 가중치가 재배열되며, 제65도에 도시돼 있다.
제66도는 상기 절차로 처리되는 룰부 프리와이어 뉴로를 나타낸다. 제1층에서는, 온도와 습도를 표시하는 두 변수가 공급된다. 제2 및 제3층의 각 유니트는 전건부 멤버쉽 함수와 상응하며, 제4층은 룰과 상응한다. 제5 및 제6층의 각 유니트는 후건부 멤버쉽 함수와 상응한다. 제7층에서는, 비퍼지 산출을 행하여 출력치를 발생한다.
제66도에서, 전건부 멤버쉽 함수의 그레이드치를 출력하는 제3층의 각 유니트(제66도에서 3유니트)로부터의 결선의 가중치를 추적하는데 있어서, 제3층의 제1유니트가 입력변수 온도(T)에 관련된 전건부 멤버쉽 함수의 그레이드치를 출력한다.
제2 및 제3유니트는, 동일하게 추적되는 경우, 입력 변수 습도(h)에 관련된 전건부 멤버쉽 함수의 그레이드치를 출력한다.
다음은, 제4층의 각 유니트(제66도에서 4유니트)가 퍼지룰과 대응한다. 제4층 전후의 층들간의 결선의 가중치를 분석함으로써 퍼지룰을 리드할 수 있다.
제5층의 각 유니트(제66도에서 3유니트)와 관련하여, 제6과 제7층간의 결선의 가중치에 비교되는 제5층과 제6층간의 결선의 가중치가 정규화되어, 제67-①∼67-③도에 도시된 바와 같이, 그래프로서 표시된다.
제67도에서, 횡좌표는, 제6과 제7층간의 결선의 가중치를 나타낸다. 즉, 제6층의 유니트의 출력치의 그레이드치가 전건부 멤버쉽 함수의 출력치의 좌표축상에서 지시하는 위치를 나타내고 있다. 종좌표축은, 제6층의 유니트로부터 제5층의 유니트에의 결선의 가중치를 나타낸다.
즉, 상기 종좌표는, 제5층의 각 유니트와 상응하는 전건부 멤버쉽 함수의 출력치의 축상의 특정 포인트에서의 그레이드치에 상당한다.
제67도에서, 제6층의 각 유니트로부터 제7층의 유니트들에의 결선의 가중치들은 각각, d1, d2,d3, d4, 및 d5이다.
①은 제1유니트에 대응하는 후건부 멤버쉽 함수를 나타내며, 제1유니트로부터 제6층의 모든 유니트에의 결선의 가중치들은 각각 a1, a2, a3, a4, 및 a5이다. ②는 제2유니트와 상응하는 전건부 멤버쉽 함수를 나타내며, 제2유니트로부터 제6층의 모든 유니트에의 결선의 가중치들은 각각 b1, b2, b3, b4, 및 b5이다. ③은 제3유니트와 상응하는 후전건부 멤버쉽 함수를 나타내며, 제3유니트로부터 제6층의 모든 유니트들에의 결선의 가중치들은 각각 c1, c2, c3, c4, 및 c5이다.
제68도는 변환후의 룰부 프리와이어 뉴로의 결선의 가중치들을 나타낸다. 제68도에서, ******는, 제거된 결선의 가중치를 나타낸다.
상기 예에서는, 상기 변환절차(3)이 채용되나, 이 절차(3)을, 제3층의 유니트들에 대한 그레이딩(grading)으로 대체할 수 있다.
예를 들어, 제69도에 도시된 바와 같이, 제3층의 유니트들을 입력 변수에 응답하여, 온도 그룹과 습도 그룹으로 분류할 수 있다.
다음, 제4층의 유니트들로 집중하는 유니트들의 결선중에서 단하나의 유니트로부터의 결선만이 보존되고, 그 나머지 결선들은 모두 제거된다. 제69도의 파선은 제거된 결선을 나타낸다. 제70도는 상기 변환후의 룰부 프리와이어 뉴로를 나타낸다. 결선의 가중치들이 제71도에 도시돼 있다.
제71도에서, ******는 제거된 결선의 가중치를 나타낸다.
상기 설명한 순 뉴로로부터 룰부 전결합 뉴로로의 변환절차에서는, 스텝(1), (2) 및 (5)만을 실행하며, 제72도에 도시된 룰부 전결합 뉴로를 얻는다.
제1층에서는, 온도와 습도를 각각 나타내는 두 변수가 입력된다. 제2와 제3층이 전건부 멤버쉽 함수와 상응하고; 제5와 제6층의 유니트들이 후건부 멤버쉽 함수와 상응하며; 비퍼지 처리를 위하여, 제6과 제7층에서 연산이 실행됨으로써, 그 결과 출력치를 출력한다.
제72도에서, 전건부 멤버쉽 함수의 그레이드치를 출력하는 제3층의 각 유니트(제66도에서는 3유니트)로부터의 결선의 가중치를 추적하는데 있어서, 제3층의 제1유니트가, 입력 변수 온도(T)에 관련된 전건부 멤버쉽 함수의 그레이드치를 출력한다.
제2 및 제3유니트는, 동일하게 추적되는 경우, 입력 변수 습도(h)에 관련된 전건부 멤버쉽 함수의 그레이드치를 출력한다.
다음은, 제5층의 각 유니트(제66도에서 3유니트)와 관련하며, 제6과 제7층간의 결선의 가중치에 비교되는 제5층과 제6층간의 결선의 가중치가 정규화되어, 제67-①∼67-③도에 도시된 바와 같이, 그래프로서 표시된다. 제67도에서, 횡좌표는, 제6과 제7층간의 결선의 가중치를 나타낸다.
즉, 제6층의 유니트의 출력치가 후건부 멤버쉽 함수의 출력치의 좌표축상에서 지시하는 그레이드치의 위치를 나타내고 있다. 종좌표축은 제6층의 유니트로부터 제5층의 유니트에의 결선의 가중치를 나타낸다.
즉, 상기 종좌표는, 제5층의 각 유니트와 상응하는 후건부 멤버쉽 함수의 출력치의 축상의 특정 포인트에서의 그레이드치에 상당한다. 결선의 가중치들이 제73도에 도시돼 있다. 제73도에서, ******는 제거된 결선의 가중치를 나타낸다.
제74∼78도는 상기 네트워크 구조의 변환의 후로우챠트를 나타낸다.
제74도는 제61도에 도시된 변환절차(1)의 처리와 대응하며, 제1과 제2층간의 처리의 후로우 즉, 입력부와 제52도의 전건부 멤버쉽 함수부간의 변환절차를 나타내며, 이 변환절차에서는, S120에서 제2층의 1유니트가 취출되고 ; S121에서 제2층의 최후 유니트의 처리가 종료되는가 여부가 판정되고 ; 최후 유니트의 처리가 아직 종료안된 경우, S122에서, 제1층으로부터 상기 유니트에의 결선의 가중치가 취출된다.
S123에서는, 상기 결선의 가중치의 최소절대치를 0으로 간주한다. S124에서는, 단지, 결선만이 보존돼 있는가 여부가 판정되고, S123에서 처리가 재개된다.
S124에서 단지 1결선만 남은 경우, 제어가 S120으로 복귀하고; 제2층의 후속 유니트가 취출되고 ; S121에서 처리가 재개되고; 제2층의 최후 유니트의 처리 종료시 전체 변환절차가 종료된다.
제75도는 제62도에 도시된 변환절차(2)의 후로우챠트를 나타낸다.
제2와 제3층과 제52도는, 전건부 멤버쉽 함수부와 전건부 멤버쉽 함수 출력부간의 결선의 변환절차의 후로우챠트를 나타낸다. 이 처리는, 제74도와 유사하나, 제3층의 유니트에의 결선이 S129에서 남은 2결선이 제거되는 점에서, 상이하다.
제76도는 제3층과 제4층간의 변환절차의 후로우챠트, 즉, 제6도에 도시된 변환절차(3)를 나타낸다.
제52도에서, 상기 변환절차는, 전건부 멤버쉽 함수부와 룰부간의 결선의 제거와 대응한다. 본 처리는 제75도의 제2층과 제3층간의 변환절차와 본질적으로 동일하다.
제77도는 제4층과 제5층간의 처리의 후로우챠트, 즉, 룰부와 후건부 멤버쉽 함수부간의 결선의 제거를 나타낸다.
S135에서, 제4층의 1유니트가 취출되고; S136에서 제4층의 최후 유니트의 처리가 아직 종료안된 경우, S137에서 제4층의 최후유니트로부터 제5층의 유니트에의 결선의 가중치가 취출되고; S138과 S139에서 가중치가 더 큰 하나의 결선이 보존되고; S136에서 최후 유니트의 처리가 종료될때까지 상기 절차가 반복된다.
제78도는 제65도에 도시된 변환절차(5)의 후로우챠트, 즉, 제5도와 제7층간의 변환절차로서 결선의 가중치의 재배열처리를 나타낸다. 이 처리는, 제52도의 비퍼지처리 출력과 후건부 멤버쉽 함수부간의 변환절차의 후로우챠트와 대응한다.
제78도에서, S140에서, 제7층의 유니트의, 즉, 출력유니트가 취출되고; S141에서, 상기 유니트와 제6층과의 결선의 모든 가중치가 취출되고; S142에서, 상기 가중치들이 최소로부터 오름차순으로 재배열되며; S143에서 상기 재배열된 결선에 대응하여 제6층의 유니트들이 재배열되며; S144에서, 제5층으로부터 제6층에의 결선의 가중치들이 재배열되고, 상기 재배열에 대응하여, 처리가 종료된다.
다음은, 본 발명에 의한 뉴로-퍼지통합 데이터처리시스템의 시스템구성을 하기에 설명한다 :
제79도는 전체 시스템 구성을 나타낸다. 제79도에서, (150)은, 계층 뉴랄 네트워크의 실체를 기억하는 계층 네트워크 기억부(storage)를 나타내며; (151)은, 상기 계층 뉴랄 네트워크의 전건부 멤버쉽 함수 실현부와 후건부 멤버쉽 함수 실현부; 중심산출 장치와 룰부를 초기화하는 초기화 처리장치; (152)는, 계층 뉴랄 네트워크에게 목표 시스템을 학습시키는 학습처리장치; (153)은 학습된 계층 뉴랄 네트워크로부터 멤버쉽 함수와 퍼지모델의 퍼지룰을 추출하는 퍼지모델 추출처리장치; (154)는, 순 뉴로를 룰부 전결합 뉴로 또는 룰부 프리와이어 뉴로로 변환하거나, 또는 룰부 전결합 뉴로를 룰부 프리와이어 뉴로로 변환하는 네트워크 구조 변환부; (155)는, 룰부 전결합 뉴로 또는 룰부 프리와이어 뉴로로부터 퍼지모델을 추출하는 퍼지모델 추출부; (156)은, 멤버쉽 함수를 추출하는 멤버쉽 함수추출부; (157)은 퍼지룰을 추출하는 퍼지룰 추출부를 나타낸다. 제79도에 관하여 세부적으로 설명한다.
상기 계층 네트워크 기억부(150)는, 룰부 프리와이어 뉴로, 룰부 전결합 뉴로, 또는 순 뉴로 등의 네트워크를 기억하며, 이들 네트워크 구조의 변환처리시의 네트워크를 기억한다.
상기 초기화 처리에서는, 초기화 처리장치(151)가, 예를 들면 룰부 프리와이어 뉴로를 계층 네트워크로서 설정한다.
전건부 멤버쉽 함수의 설정을 위하여, 제8∼10도에 도시된 바와 같이 제5도에 도시된 시그모이드 함수 유니트(21a∼21d)에 대하여 가중치와 임계치가 결정된다.
제11도에 도시된 방법에 의하여 후건부 멤버쉽 함수가 설정된다. 제80도는, 룰부의 유니트들(24a, 24b)과 후건부 멤버쉽 함수 실현부의 유니트들(25a∼25n)간의 결선의 가중치를 설정하는 일예를 나타낸다.
상기 결선에 대하여 횡좌표의 각 값에 대하여 후건부 멤버쉽 함수의 그레이드치가 설정된다.
중심산출 실현부에서의 결선의 가중치는 제30도에 도시된 방법으로 초기화된다. 이 개념의 실시예가 제81도에 도시돼 있다. 상기 횡좌표의 각 값에 대응하는 결선의 가중치는 상기 식(14)에 의하여 결정된다.
최종적으로, 룰부에서 퍼지논리연산을 실행하기 위하여, 제5도에 도시된 룰부의 시그모이드 함수 유니트들(23a∼23e)의 가중치와 임계치들이, 각 퍼지룰에 대해 적응할 수 있는 논리연산 적용의 유형에 따라서 제12∼15도에 나타난 방법으로 결정된다.
제82도는 학습유니트(152)의 세부 설명도이다. 제82도에서, 계층 네트워크(159)의 1'-h는, 입력층을 포함하는 입력 유니트를 나타내며; 1-i는 중간층을 구성하는 처리 유니트(복수의 층을 설치할 수 있다)를 나타내며; 1-j는 출력층을 구성하는 처리유니트를 나타낸다. (160)은 층간의 결선의 가중치를 관리하는 가중치 관리부를 나타낸다.
(161)은 학습후 오차값에 따라서 백프로파게이션법에 의하여 가중치를 변경하는 가중치 변경부를 나타낸다. (164)는 목표 시스템의 입/출력 관계에 의하여 결정되는 1쌍의 입력신호 패턴과 출력신호 패턴을 포함하는 학습신호를 기억하는 학습신호 기억부를 나타낸다. 학습신호에서 dpj는 p번째 입력 파라미터에 응답하는, j번째층의 j번째 유니트에 대한 모델신호이다.
(162)는, 학습 명령에 따라서 학습신호 기억부(164)로부터 학습신호를 취출하여, 계층 네트워크(159)에 대한 입력신호를 입력으로서 공급하고, 상기 가중치 변경부(161)와 학습수속(learning collection) 판정부(163)에 모델신호 dpj를 출력하는 학습신호 제시부를 나타낸다.
(163)은, 상기 계층 네트워크부(159)의 출력신호 ypj와 학습신호 제시부(162)로부터의 모델신호 dpj를 수신하여, 상기 계층 네트워크부(159)의 데이터처리능력의 오차가 허용범위내인가 여부를 판정하고, 그 판정결과를 상기 학습신호 제시부(162)에 통지하는 학습수속판정부를 나타낸다.
다음은, 제79도에 도시된 퍼지모델 추출부(153)의 세부설명을 제83∼89도를 참조하여 설명한다.
제83도는 퍼지모델 추출부(153)의 퍼지룰 추출부(157)의 세부구성을 나타낸다.
제83도에서, (159)는, 계층 네트워크부를 나타내며; (157)은 퍼지룰 추출부; (160)은 가중치 관리부; (165)는 네트워크 구조 관리부; (166)은 네트워크 구조독취부; (167)은 가중치 독취부; (168)은 논리연산 데이터독취부; (169)는 시뮬레이터; (170)은 논리연산 해석부; (171)은 논리연산 데이터관리부; (172)는 논리연산관리부; (173)은 논리연산 입/출력 특성 정보관리를 나타낸다.
상기 퍼지룰 추출부(157)는, 상기 가중치 관리부(160)과 네트워크 구조관리부(165)에 의해 제공된 정보에 따라서 계층 네트워크부(159)의 상태를 분석하고, 논리요소처리를 위한 룰부의 유니트의 논리연산의 유형을 확인한다. 상기 논리연산 데이터관리부(171)는, 논리요소의 유형을 확인하는데 필요한 특정의 논리요소의 특정정보 등의 관리데이터를 상기 퍼지룰 추출부(157)에 제공한다.
제84도는 퍼지모델 추출부(153)의 연산절차의 후로우챠트를 나타낸다.
먼저, 상기 논리연산 데이터 관리부(171)내의 논리연산관리부(172)와 논리연산 입/출력 특성정보관리부(173)에 의해 관리되는 관리 데이터는 하기와 같다 :
유니트(1)가 두 입력 x와 y(0≥s, y≥1)를 공급하면, 유니트(1)가 제12도에 도시된 바와 같이 출력치 z를 출력한다 :
z=1/s+exp(-WxX-WyY+θ)
상기 유니트(1)는, 제85도에 도시된 바와 같이 임계치 θ, 가중치 Wx, Wy를 사용하여, 논리적 연산, 논리합연산 등의 각종 논리연산과 동등한 입/출력 처리를 행한다.
즉, 상기 논리합 연산과 동등한 연산이 실행되며, 여기서, 제85a도에 도시된 바와 같이, x 또는 y가 "1"을 나타내며, 그 결과, 하기식이 성립할 때 z가 "1"을 출력한다 :
① Wx=12.0, Wy=12.0 θ=6.0
다른한편, 논리적 연산에 동등한 연산이 실행되며, 여기서, 제85b도에 도시된 바와 같이, X는 "0"을 나타내고, y는 "1"을 출력한다 :
② Wx=-12.0, Wy=12.0, θ=6.0
제85도에 도시된 바와 같이 x와 y에 대해 임의의 값들이 채용되는 연산이 실행되고, 그 결과, 하기식이 존재할 때 z가 "0"은 출력한다.
③ Wx=-12.0, Wy=-12.0, θ=6.0
제85d도에 도시된 바와 같이 x와 y에 대해 임의의 값들이 채용되는 연산이 실행되며, 그 결과, 하기식이 성립할 때, z가 "1"을 출력한다.
④ Wx=12.0, Wy=12.0, θ=-6.0
제85e도에 도시된 바와 같이 x와 y에 대해 임의의 값들이 채용되는 연산이 실행되며, 하기식이 성립할 때, z가 x의 y에 평균에 대한 근사치를 출력한다 :
⑤ Wx=3.0, Wy=3.0, θ=3.0
제85f도에 도시된 바와 같이, x와 y에 대해 임의의 값들이 채용되는 연산(x 연산)이 실행되며, 그 결과, 하기식이 존재할 때, z가 y값에 대한 근사치를 출력한다 :
⑥ Wx=5.0, Wy=0.0, θ=2.5
상기 논산연산 데이터 관리부(171)의 논리연산 관리부(172)는, 유니트(1)에 대응하는 논리연산에 따라서 상기 유니트(1)에 의해 실행되는 논리연산의 유형을 관리하며, 상기 연산의 간소화를 위하여 상기 유니트(1)의 두입력, 가중치와 임계치의 부호를 긍정으로 조정하는 경우 가중치와 임계치의 원래 부호를 관리한다.
제86도는 논리연산 관리부(172)의 관리 데이터의 일예를 나타낸다.
제86a도는, 상기 유니트(1)의 가중치와 임계치의 부호가 긍정으로 조정된 유니트(1)에 가산연산이 부여된 경우 사용되는 관리 데이터를 나타내며; 제86b도는 유니트(1)의 가중치와 임계치의 부호가 긍정으로 조정된 유니트(1)에 대해 곱셈 연산이 부여된 경우 사용되는 관리데이터를 나타내며; 제86c도는 유니트(1)의 가중치와 임계치의 부호가 긍정으로 조정된 유니트(1)에 대해 평균산출연산이 부여된 경우 사용되는 관리데이터를 나타내며; 제86d도는, 유니트(1)의 가중치와 임계치의 부호가 긍정으로 조정된 유니트(1)에 대해서, x값이 "현재값 그대로" 출력되는 연산이 부여된 경우 사용되는 관리데이터를 나타내며; 제86e도는, 유니트(1)의 가중치와 임계치의 부호가 긍정으로 조정된 유니트(1)에 대해서 (y값이 출력되는) 연산이 부여된 경우 사용되는 관리데이터를 나타낸다.
제86도에서, "X 그리고 Y"는 제85e도에 도시된 곱연산을 나타내며; "항위"는 제85c도에 도시된 논리연산을 의미하며; "항진"은 제85d에 도시된 논리연산을 의미하며; "평균(x, y)"는 제85e도에 도시된 평균산출 연산을 의미하며; "x"는 제85f도에 도시된 연산을 의미하며; "-x"는 x의 부정, 즉, "1-x"를 의미한다.
다른한편, 예를 들면, 2입력-1 출력처리에서, 상기 논리연산 데이터관리부(171)의 논리연산 입/출력 특성정보 관리부(173)는, 상기 유니트(1)의 가중치와 임계치의 부호를 긍정으로 조정함으로써 정규호후의 매칭처리에 관련된 각종 논리연산을 위한 입/출력 데이터를 관리한다.
즉, 제87도와 제88도에 도시된 바와 같이, 상기 논리연산 입/출력 특성정보 관리부(173)가, 하기와 같은 각종 논리연산을 위한 입/출력 데이터를 관리한다 :
x와 y중 더 작은 것은 출력하는 논리적 연산; x와 y중 더 큰 것을 출력하는 논리합연산; (x Xy)를 출력하는 대수적 연산; (x+y-x xy)를 출력하는 대수합연산; (OV(x+y-1))(V는 논리합 기호이다)를 출력하는 한계적연산; (1·1x+y))(·은 논리적 기호이다)를 출력하는 한계합연산; x가 1일때는 y를 출력하고, y-가 1일때는 x를 출력하고, x도 y도 0이 아닐때에는 1을 출력하는 격결합(acuioty sum)연산; 상기 연산의 평균화연산; "x 현재값 그대로" 연산; "y 현재값 그대로" 연산; 항위 연산; 항진 연산; 다음, 상기 네트워크 구조관리부(165), 상기 퍼지룰추출부(157)를 구성하는 네트워크구조 독취부(166), 가중치 독취부(167), 논리 연산 데이터 독취부(168), 시뮬레이터(169) 및 논리연산 해석부(170)의 역할을 설명한다.
상기 네트워크 구조 관리부(165)는, 예를 들어 계층 네트워크부(159)의 네트워크 구조, 또는 유니트(1)에 할당된 함수연산 능력의 종류등에 관한, 계층 네트워크 구성에 관련된 모든 정보를 관리한다.
상기 네트워크 구조 독취부(166)는, 상기 네트워크 구조관리부(165)에 기억된 정보를 독취하여, 그 정보를 논리연산 해석부(170)에 통지한다.
상기 가중치 독취부(167)는, 상기 네트워크 구조 관리부의 관리정보를 참조하여, 가중치 관리부(160)로부터 룰부의 유니트(1)의 가중치와 임계치등의 학습지들을 독취하여, 이 값들을 논리연산 해석부(170)에 통지한다.
상기 시뮬레이터(169)는, 상기 논리연산 해석부(170)에 의하여, 각 부호가 긍정으로 조정된 가중치와 임계치 등의 학습치들이 통지되면, 상기 룰부의 유니트(1)의 함수연산 능력을 시뮬레이션하여, 상기 논리연산 입/출력 특성정보관리부(173)에 의해 관리되는 입력범위내의 입력이 공급될때의 출력치를 구함으로써, 상기 유니트(1)의 입/출력 데이터 특성정보를 구한다.
상기 논리연산 해석부(170)는, 상기 논리 연산데이터 독취부(168)에 의하여 상기 논리 연산데이터 관리부(171)의 관리데이터가 통지될 때, 상기 시뮬레이터(169)에 의해 제공된 입/출력 데이터 측성정보에 따라서, 상기 룰부의 각 유니트(1)에 의해 실행되고 있는 내용을 해석하여, 계층 네트워크부(159)로부터 퍼지룰을 추출한다.
다음, 제84도에 도시된 후로우챠트에 따라서 상기 퍼지모델 추출부(153)에 의하여 실행되는 처리의 일실시예를 설명한다.
먼저, 상기 네트워크 구조 변환부(154)가 스텝 S175에 나타난 바와 같이, 예를 들어, 제49도에 도시된 룰부와 전건부 멤버쉽 함수 출력부간의 결선(내부결선)을 제거함으로써, 계층 네트워크부(157)로부터 퍼지룰을 추출할 수 있다. 상기 결선을 여러방법으로 제거할 수 있다.
이 경우, 룰부의 유니트(1)에의 결선은, 상이한 입력변수를 수신하며, 가중치의 절대치가 최대인 것과 그 다음으로 큰 것으로서 선택된 두라인에 의하여 이루어져야 한다.
다음은, 상기 네트워크 구조 변환부(154)가 룰부와 후건부 멤버쉽 함수 출력부간의 결선을 제거한다.
이와같이 결선이 간소화되면 S177에 나타낸 바와 같이, 제83도의 논리연산 해석부(170)가 룰부의 유니트에 대하여 논리요소처리를 행한다.
먼저, 제89도에 의한 논리요소처리에 있어서, a로 표시된 룰부의 유니트와 b로 표시된 후건부 멤버쉽 함수 출력부의 유니트간의 결선의 가중치의 부호가 검사된다.
부호가 부정이면, 긍정으로 조정돼야 하며, 또한 상기 유니트 a와 상기 전건부 멤버쉽 함수 출력부의 유니트간의 결선의 가중치(임계치 포함)의 부호로 반전돼야 한다.
다음은, 유니트 a와 전건부 멤버쉽 함수출력부의 유니트간의 결선의 가중치(임계치 포함)의 부호가 기록되고, 부정이면 긍정으로 반전된다. 다음은, 상기 시뮬레이터(169)가 기동되어 유니트 a의 입력/출력 데이터 특성정보를 구한다. 상기 최대와 최소 출력치를 사용하여, 출력치들이 하기식으로 정규화된다 :
Z=(z-최소치)/(최대치-최소치)
상기 식에서, z는 변환전의 출력치를 나타내고; Z는 변환후의 출력치를 나타낸다.
상기 유니트 a와 유니트 b간의 결선의 가중치는 하기식에서 변환된다 :
W=wx(최대치-최소치)
w는 변환전의 가중치이고; W는 변환후의 가중치를 나타낸다.
다음은, 상기 정규화된 입/출력 데이터와 상기 논리연산 입/출력 특성정보관리부(173)에 의해 관리되는 입/출력 데이터간의 유사도(similarity)를 측정한 후 가장 유사한 논리연산이 특정되어야 하고 상기 논리연산과 기록된 가중치(임계치 포함)의 부호데이터에 따라서 상기 논리연산관리부(172)의 관리데이터를 참조함으로써 유니트 a에 의해 실행되고 있는 논리의 내용이 특정돼야 한다.
따라서, 항진 또는 항위로 판정되는 유니트들이 제거된다.
상기 룰부의 1유니트에서 논리요소처리가 종료되면, 스텝 2178에서 필요에 따라 상기 네트워크구조 변환부(154)가 룰부의 1유니트를 제거한다.
따라서, 제57도에 도시된 바와 같이 논리적 표현의 계층 네트워크부(159)를 얻을 수 있다.
상기 퍼지룰 추출부(157)는, 스텝 S179에서의 계층 네트워크부(159)의 데이터처리의 논리연산 기술을 퍼지룰로서 최종 출력하여, 처리를 종료한다.
상기 설명은 주로, 룰부, 프리와이어뉴로, 룰부 전결합 뉴로의 구성, 순뉴로에서 룰부프리와이어 뉴로 또는 룰부 전결합 뉴로로의 변환, 룰부 프리와이어 뉴로로부터 퍼지모델의 추출에 관한 것이었다. 룰부 순 뉴로의 학습을 하기에 설명한다.
룰부 프리와이어 뉴로의 기본구성은 제4도에 도시된 바와같다.
제4도에서는 입력부(15)만이, 입력신호를 분배하며, 학습부는, 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)등이다.
이들 3부분의 10학습절차가 제90∼99도에 도시돼 있다. 1학습처리를 구성하는 복수의 처리를 각각 하기에 설명한다 :
[제1학습절차]
(제1과정) 전건부 멤버쉽 함수 실현부(16)에 미리 기억된 지식(제90∼99도에서 "선험적 지식"으로 기재돼 있음)에 의하며 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 룰부(17)와 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 전건부 멤버쉽 함수 실현부(16)의 가중치가, 학습 데이터를 사용하여 학습된다.
(제3과정) 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습 데이터를 사용하여 학습된다.
[제2학습절차]
(제1과정) 룰부(17)에 미리 기억된 지식에 의하여, 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 전건부 멤버쉽 함수 실현부(16)와 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 룰부(17)의 가중치가, 학습 데이터를 사용하여 학습된다.
(제3과정) 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
[제3학습절차]
(제1과정) 상기 룰부(17)에 미리 기억된 지식에 의하여, 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 전건부 멤버쉽 함수 실현부(16)와 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 룰부(17)의 가중치가 학습 데이터를 사용하여 학습된다.
(제3과정) 전건부 멤버쉽 함수 실현부(16)의 가중치가 학습 데이터를 사용하여 학습된다.
(제4과정) 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
[제4학습절차]
(제1과정) 전건부 멤버쉽 함수 실현부(16)에 미리 기억된 지식에 의하여 또는 난수를 사용하여 가중치가 초기화 처리된다.
이와 마찬가지로, 상기 룰부(17)와 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 전건부 멤버쉽 함수 실현부(16)의 가중치가 학습 데이터를 사용하여 학습된다.
(제3과정) 룰부(17)의 가중치가 학습데이터를 사용하여 학습된다.
(제4과정) 전건부 멤버쉽 함수 실현부(16) 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
[제5학습절차]
(제1과정) 전건부 멤버쉽 함수 실현부(16)와 룰부(17)에 미리 기억된 지식에 의하여 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 전건부 멤버쉽 함수 실현부(16)와 룰부(17)의 가중치가 학습데이터를 사용하여 학습된다.
(제3과정) 전건부 멤버쉽 함수 실현부(16) 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체가중치가 학습 데이터를 사용하여 학습된다.
[제6학습절차]
(제1과정) 전건부 멤버쉽 함수 실현부(16)에 미리 기억된 지식에 의하여, 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 룰부(17)와 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 전건부 멤버쉽 함수 실현부(16)의 가중치가 학습데이터를 사용하여 학습된다.
(제3과정) 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 가중치가 학습 데이터를 사용하여 학습된다.
(제4과정) 전건부 멤버쉽 함수 실현부(16) 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
[제7학습절차]
(제1과정) 룰부(17)에 미리 기억된 지식에 의하여 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 전건부 멤버쉽 함수 실현부(16)와 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 룰부(17)의 가중치가 학습데이터를 사용하여 학습된다.
(제3과정) 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
(제4과정) 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
[제8학습절차]
(제1과정) 룰부(17)에 미리 기억된 지식에 의하여, 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 전건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 룰부(17)의 가중치가 학습데이터를 사용하여 학습된다.
(제3과정) 전건부 멤버쉽 함수 실현부(16)의 가중치가 학습 데이터를 사용하여 학습된다.
(제4과정) 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 가중치가 학습 데이터를 사용하여 학습된다.
(제5과정) 전건부 멤버쉽 함수 실현부(16) 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지 처리부(18)의 전체 가중치가 학습 데이터를 사용하여 학습된다.
[제9학습절차]
(제1과정) 전건부 멤버쉽 함수 실현부(16)에 미리 기억된 지식에 의하여, 또는 난수를 사용하여 가중치가 초기화 처리된다.
이와 마찬가지로, 상기 룰부(17)와 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 전건부 멤버쉽 함수 실현부(16)의 가중치가 학습 데이터를 사용하여 학습된다.
(제3과정) 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 가중치가 학습 데이터를 사용하여 학습된다.
(제4과정) 전건부 멤버쉽 함수 실현부(16) 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
[제10학습절차]
(제1과정) 전건부 멤버쉽 함수 실현부(16)와 룰부(17)에 미리 기억된 지식에 의하여, 또는 난수를 사용하여 가중치가 초기화 처리된다. 이와 마찬가지로, 상기 후건부 멤버쉽 함수 실현부/비퍼지부(18)에 미리 기억된 지식에 의하여 가중치가 초기화 처리된다.
(제2과정) 전건부 멤버쉽 함수 실현부(16)와 룰부(17)의 가중치가 학습 데이터를 사용하여 학습된다.
(제3과정) 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습 데이터를 사용하여 학습된다.
(제4과정) 전건부 멤버쉽 함수 실현부(16) 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼지부(18)의 전체 가중치가 학습데이터를 사용하여 학습된다.
상기 설명한 학습절차 1∼10에서, 상기 제1과정에서 실험적 지식을 사용하여 초기 중량치가 설정되며, 상기 과정에서는, 상기 선험적 지식이 초기 가중치를 설정하기에 충분하면, 가중치가 먼저 학습된다.
충분치 않으면, 난수를 사용하여 초기 가중치를 설정할 수 있다. 또한, 후술하는 바와 같이, 상기 제1과정의 가중치를 초기화 처리한 후의 각 과정의 학습개시시에, 학습부를 결합하는 각 결선에 대하여 설치된 학습 플래그가 상기 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수/비퍼지부(18)간에서 ON되는 한편, 비학습부를 결합하는 각 결선에 대하여 설치된 학습 플래그는 Off된다. 따라서, ON 상태 학습 플래그를 갖는 결선의 가중치들만이 상기 학습처리에 의해서 최적화될 수 있다.
룰부 프리와이어 뉴로에 관한 상기 학습 절차는 하기와 같이 실행된다 :
상기 룰부 프리와이어 뉴로의 전건부 멤버쉽 함수 실현부, 룰부와 후건부 멤버쉽 함수 실현부/비퍼지부간에서, 제1학습부를 위하여 상기 선험적 지식에 따라서 또는 난수를 사용하여 가중치가 초기화 처리되는 한편, 제2 및 그 후속 학습부를 위하여 선험적 지식에 따라서 가중치가 초기화된다.
다음은, 학습처리가 기동되고, 입력된 학습패턴 룰부 프리와이어 뉴로에 제시된 후에 상기 초기화된 가중치가 변경됨으로써, 상기 룰부 프리와이어 뉴로에 의해 제공된 출력패턴으로 간주되는 출력학습패턴(모델신호)과 대략적으로 대응하게 된다.
예를 들어, 백 프로파게이숀법에서 학습되는 가중치를 들 수 있다.
상기 룰부 프리와이어 뉴로의 전체 가중치를 학습하기 위해서 가중치 학습이 요구된다. 학습의 단계이전에, 전처리로서 가중치 학습 ①∼⑩이 하기와 같이 행하여진다 :
① 전건부 멤버쉽 함수 실현부
② 룰부
③ 룰부와 전건부 멤버쉽 함수 실현부
④ 전건부 멤버쉽 함수 실현부와 룰부
⑤ 전건부 멤버쉽 함수 실현부와 동시에 룰부
⑥ 전건부 멤버쉽 함수 실현부와 후건부 멤버쉽 함수 실현부/비퍼지부
⑦ 룰부와 후건부 멤버쉽 함수 실현부/비퍼지부
⑧ 룰부, 전건부 멤버쉽 함수 실현부 및 후건부 멤버쉽 함수 실현부/비퍼지부
⑨ 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지부
⑩ 전건부 멤버쉽 함수 실현부와 동시에 룰부 그 다음은 후건부 멤버쉽 함수 실현부/비퍼지부.
따라서, 전건부 멤버쉽 함수 실현부, 룰부 또는 후건부 멤버쉽 함수 실현부/비퍼지부중 하나의 가중치가 학습된 후, 룰부 프리와이어 뉴로의 전체 가중치가 학습됨으로써, 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지부중 적어도 하나의 가중치 학습결과에 따라서 룰부 프리와이어 뉴로의 전체 가중치를 재배열한다.
선험적 지식으로 가중치를 초기화함으로써 용이하고 효율적인 학습을 달성할 수 있다.
또한, 난수를 사용하여 가중치를 초기화 처리함으로부터 최대의 학습능력들을 유도할 수 있다.
제100∼109도는 룰부 프리와이어 뉴로의 학습방법에서 실시예 1∼10의 절차들을 설명하는 학습 후로우챠트를 나타낸다.
룰부 프리와이어 뉴로는 제100∼109도에 도시된 방법으로 학습하여, 퍼지 제어룰을 실현하기위한 계층 네트워크 구조를 갖고 있으며, 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 제110도에 예시된 후건부 멤버쉽 함수 실현부/비퍼지부(18)를 구비하고 있다.
룰부 프리와이어 뉴로의 네트워크 구조에서는, 룰부(17)의 모든 유니트들이 선행 스텝인 "전건부 멤버쉽 함수 실현부(16)"에 또는 후속 스텝 "후건부 멤버쉽 함수 실현부/비퍼지부(18)"에 내부적으로 결합돼 있지 않고, 상기 유니트들의 일부만이 상기 스텝들에 내부적으로 결합돼 있다.
그러므로, 이 구조는 룰부의 모든 유니트가 이웃하는 스텝들에 내부적으로 결합된 룰부 전결합 뉴로와 대조된다.
제100∼109도에 도시된 제1∼10 실시예의 학습절차는 하기 6스텝으로 이루어진다 :
(제1스텝)
전건부 멤버쉽 함수 실현부(16)의 가중치 cab와 cbc를, 특정 멤버쉽 함수가 실현될 수 있도록 초기 설정한다. cab와 cbc는 가중치들을 초기설정하기 위한 결선의 결선 그룹수이다.
(제2스텝)
룰부(17)의 가중치 ccd와 cde를, 특정 퍼지룰을 실현할 수 있도록 초기설정한다.
(제3스텝)
후건부 멤버쉽 함수 실현부/비퍼지부(18)의 가중치 cef를, 특정 멤버쉽 함수를 실현할 수 있도록 초기설정한다.
(제4스텝)
중심산출 실현부(186)의 가중치 clg를, 중심산출을 실현할 수 있도록 실현한다.
(제5스텝)
학습처리의 페이스당 뉴톤그룹들을 리스트(list)하기 위한 페이스-그룹 대응표와, 1뉴톤그룹에 각각 속하는 결선그룹을 리스트하기 위한 그룹-결선 대응표를 설정한다.
(제6스텝)
학습 스케줄러(scheduler)의 기동후 학습 처리를 백프로파게이션법으로 실행한다.
6스텝으로 이루어지는 상기 학습절차에서, 가중치들은 각 실시예에서 상기 제1∼3스텝에서 하기와 같이 초기 설정된다. 제6스텝의 학습 스케줄러를 기동한 후, 제1부분, 즉, 페이스(1)에서 가중치가 학습되는 부분에 대하여, 선험적 지식을 부여함으로써, 또는 랜덤 가중치들을 초기 설정하기 위한 난수들을 사용하여, 가중치를 초기설정한다. 다른한편, 제2학습절차와 그에 후속되어(제2페이스와 그에 후속되어) 가중치가 학습되는 부분들에 대해 선험적 지식을 부여함으로써만 가중치가 초기 설정된다.
모든 실시예의 제4스텝에서, 중심산출장치(186)에 대하여 가중치가 초기설정된다.
상기 페이스-그룹 대응표는, 각 실시예의 제6스텝의 학습페이스를 변경함으로써 제5스텝에서 임의적으로 작성된다. 다른한편, 그룹-결선 대응표는 모든 실시예에서 공통으로 작성된다.
또한, 제6스텝에서 가중치를 학습하는데 있어서, 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/비퍼리지부(18)를 포함한 뉴톤의 전체 가중치는, 학습절차의 최종스텝, 즉, 전 실시예의 최종 학습페이스에서 학습된다.
최종 페이스의 전체 가중치 학습과는 대조적으로, 그 선행의 가중치 학습은, 각 실시예 특유의 학습처리에서 임의적으로 실행된다. 룰부 프리와이어 뉴로(12)의 학습방법은, 제100도에 도시된 학습동작 후로우챠트를 참조하여 제 1∼6 스텝들에 관하여 각각 상세히 설명한다.
제110도에 도시된 룰부 프리와이어 뉴로에서, 룰부(17)는, 전건부 룰부(248)와 후건부 룰부(249)로 구성돼 있다. 전건부 룰부(248)는, 입력변수 X1∼Xn에 대해 멤버쉽 함수 X1(Sa)∼Xn(La)의 그레이드치(입력치)에 응답하여 각룰의 그레이드치를 출력한다. 후건부 룰부(249)는, 룰의 그레이드치 LhS-1∼LhS-n에 응답하여 출력변수의 멤버쉽함수 y(Sa)∼y(La)의 확대/축소율을 출력한다.
상기 후건부 멤버쉽 함수 실현부/비퍼리지(18)(중심산출장치를 포함)는, 출력변수의 멤버쉽 함수 y(Sa)∼y(La)의 확대/축소율에 응답하여 출력변수 Y의 값을 출력한다.
상기 입력과 출력이 멤버쉽 함수의 그레이드치를 나타내므로, 상기 전건부 룰부(248)와 후건부 룰부(249)를 구비한 룰부(17)가 케이스케이드 결선을 실행할 수 있으므로, 다단계 추론을 실행할 수 있다.
상기 모듈(module)(16,248,249,18) 각각을 결합하는 뉴톤은 공유될 수 있다.
예를 들어, 상기 전건부 멤버쉽 함수 실현부(16)의 출력 뉴톤과 상기 전건부 룰부(248)의 입력 뉴톤은 실제적으로 동일할 수 있다.
제110도에서, 각 유니트가 하나의 뉴로로서 나타나 있으나, 능력이 특정될 수 있는 유니트는, 게이트 회로, 연산장치등이 되어 뉴로가 아닌 유니트 능력을 실현할 수 있다.
제111도는 제5도의 룰부 전결합 뉴로와 유사한 룰부 프리와이어 뉴로의 학습방법을 실현하는 결선 그룹과 뉴톤그룹을 나타낸다.
제111도에서는, 7의 뉴톤그룹 ga∼gg가 있다. 이들중, 입력부의 뉴톤그룹 ga와 중심산출부(186)의 뉴톤그룹 gg는, 분할처리와 수속처리만을 각각 실행한다.
그러므로, 이들은 백프로파게이션법의 학습 처리와는 무관하다. 따라서, 백프로파게이션법에서 가중치 학습과 관련된 뉴톤그룹은, 5개 그룹 cb, gc, gd, ge 및 gf로 돼 있다. 다른한편, 각 뉴톤그룹의 입력결선을 나타내는 결선그룹들은, 6개의 상이한 결선 gab∼gfg를 포함하며, 그럼으로써, 백프로파게이션법에서 학습되는 뉴톤그룹들에 선행하는 입력결선의 가중치들의 학습이 가능케 된다.
제111도에 도시된 룰부 프리와이어 뉴로에서는, 각 부분이, 제100도에 도시된 제1∼4 스텝 S181∼S184에서 초기 설정된다. 초기화처리의 상세한 설명은 상기에서 설명하였으므로 생략한다. 이 초기화 처리 후, 제5스텝 S185가 실행된다.(학습 스케줄의 설정)
제100도에 도시된 스텝 S185에서, 학습계획 또는 학습 스케줄은, 상기 초기설정 종료후, 룰부 프리와이어 뉴로가 가중치들을 학습할 수 있도록 설정된다. 상기 학습 스케줄은, 제112a도에서 도시된 페이스그룹 대응표와 제112k도에 도시된 그룹-결선 대응표의 설정을 위하여 작성된다.
먼저, 상기 페이스-그룹 대응표는, 학습 페이스의 처리의 각 페이스에서 학습되는 뉴톤그룹을 특정한다. 제1학습방법에서는, 가중치의 초기설정후에 상기 전건부 멤버쉽 함수 실현부(16)와 전체 뉴로에서 순차로 학습처리들이 실행되고, 전건부 멤버쉽 함수 실현부(16)에 속하는 제111도의 뉴톤그룹 gb와 go가 페이스(1)에서 학습되는 그룹으로서 설정된다. 페이스(2)에서는, 상기 전체 뉴로의 가중치를 학습할 수 있으며, 그럼으로써 제111도에 도시된 5뉴톤그룹 gb, gc, gd, ge 및 gr을 설정할 수 있다.
다른한편, 그룹-결선 대응표는, 룰부와이어뉴로의 뉴톤그룹 ga∼gg와 입력결선 그룹 gab∼gfg간의 대응관계를 제112k도와 같이 설정한다.
상기 페이스-그룹 대응표와 상기 그룹 결선 대응표를 완전히 설정한 후, 제100도의 스텝 S186에서 학습 스케줄러가 기동되고, 백프로파게이션법에서 학습가중치를 학습하기 위한 학습데이터가 상기 룰부 프리와이어 뉴로에 제공된다.
(학습 스케줄러의 처리 및 구성)
제113도는 상기 룰부 프리와이어 뉴로의 학습처리의 후로우챠트를 나타낸다.
이 후로우챠트는, 예를 들면 제114도에 도시된 구성에 의하여 실현할 수 있다.
학습처리를 위한 구성에 관해서는, 제114도에 도시된 바와 같이, 상기 룰부프리와이어 뉴로(150)는, 학습 처리장치(152)와 학습유니트(261)를 구비하고 있다.
상기 학습처리장치(152)는, 제82도의 학습 선호제시부(162)에 대응하는 학습스케줄러(162a)를 구비하고 있다. 상기 학습스케줄러(162a)는, 제어입력과 이 제어입력에 응답하는 소정의 제어입력의 1쌍을 포함하는 학습신호를 기억하는 학습 신호기억부(164)와, 제112도에 도시된 페이스-그룹 대응표를 기억하는 페이스-그룹 대응표와, 그룹-결선 대응표를 기억하는 그룹-결선표(259) 및 학습수속판정부(163)를 구비하고 있다.
상기 학습장치(261)는, 학습명령독취부(262), 학습플래그설정부(263) 및 백프로파게이션법에서 가중치를 변경하는 가중치 변경부(161)를 구비하고 있다.
제114도에 도시된 구성의 특징은, 룰부 프리와이어 뉴로(150)의 유니트들을 결합하는 각 결선에 학습조정부(260)가 설정된 점에 있다.
상기 학습조정부(260)의 구성은 제115도에 도시돼 있다. 이 학습조정부(260)와 함께 가중치변경부(162)가 도시돼 있다.
상기 학습조정부(260)은, 플래그 기억부(265), 가중치 변경정보 독취부(266) 및 가중치 변경량 조정부(267)를 구비하고 있다.
상기 가중치 변경부(161)는, 백프로파게이션법에서 가중치 연산을 실행하는 가중치 연산부(268)와, 가중치 기억부(269) 및 가중치 변경량 기억부(270)를 구비하고 있다.
상기 룰부 프리와이어뉴로(150)의 각 결선에 대해 설치된 학습조정부(260)는, 상기 학습처리장치(152)의 학습스케줄러(162a)로 하여금, 상기 룰부 프리와이어뉴로(150)의 결선의 가중치를 변경할 것인가 여부를 결정하는 학습 플래그를 설정케 한다. 상기 가중치 학습처리는, 학습 플래그가 유효하거나 또는 ON 상태로 설정됐을 때만 효과적이다.
전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지부를 구비한 퍼지를 적응형 계층 네트워크 구조가 퍼지를 비적응형 구조를 갖는 공통 계층 네트워크, 예를 들어, 순 뉴로용으로 특정된 경우, 학습 조정부(260)에 대하여 플래그들이 설정된다.
하기와 같은 실제 학습처리기중에 퍼지를 적응형 계측 네트워크에 의한 백프로파게이션법에서 가중치가 조정될 수 있다.
제115도에서, 학습 조정부(260)의 가중치 변경정보 독취부(266)가, 가중치 변경량을 상기 가중치 연산부(268)에 의해서 상기 가중치 변경부(161)의 가중치 변경량 기억부(270)에 기입되는가 여부를 감사한다.
상기 가중치 변경정보 독취부(266)가 가중치 변경량을 검출하면 그 변경량을 상기 가중치 변경량 조정부(267)로 통지한다. 상기 가중치 변경량 조정부(267)는 플래그 기억부(265)의 학습 플래그를 검사하고, 학습 플래그가 ON 설정되면 아무런 동작을 행하지 않는다. 즉, 상기 가중치 변경량 기억부(270)에의 기입이 유효한 것으로 결정된다. 대조적으로, 학습 플래그가 Off 설정되면, 상기 가중치 변경량 조정부(267)가, 가중치 변경부(161)의 가중치 변경량 기억부(270)를 0(영)으로 설정함으로써, 가중치 변경량을 무효인 것으로 판정한다. 이 학습 스케줄러의 하드웨어는 일본 특원소 63-22785호의 "네트워크 구성 데이터 처리 장치의 학습방식"에 나타나 있다.
(학습 스케줄러의 처리내용)
다음은, 제113도의 학습처리 후로우챠트를 참조하여, 제114, 115도의 장치구성에 의한 학습방법의 제1실시예에서의 룰부 프리와이어 뉴로의 학습처리를 페이스1과 페이스2로 나누어 설명한다.
① 페이스 1
먼저, 학습처리장치(152)의 학습스케줄러가 기동되면, 스텝 S251(이하, 용어 "스텝"은 생략함)에서 학습 페이스의 진행을 나타내는 페이스 카운터 i를 i=로 설정하여 S252로 진행되고, 페이스-그룹 대응표(258)를 참조하여 학습 페이스 i=1에 대응하는 뉴톤그룹번호 gb, gc를 독출한다.
다음은, S253에서, 뉴톤그룹번호 gb, gc에 대응한 결선 그룹번호 cab, cbc를 그룹-결선 대응표(259)를 참조하여 독출한다.
다음, S254로 진행하여, 결선 그룹번호 cab, cbc를 출력하여 결선 그룹번호 cab, cbc에 속하는 결선에 설치된 학습 조정부(260)의 학습 플래그를 ON 시킨다.
구체적으로는, 학습처리장치(152)의 학습 스케줄러(162a)로부터 학습유니트(261)의 학습 지지독취부(262)에 결선 그룹 번호 cab, cbc를 출력시킨다. 학습지시독취부(262)로부터의 독출결과를 수신한 학습 플래그 설정부(263)는, 결선 그룹 번호 cab, cbc에 속하는 결선에 설치돼 있는 학습조절부(260)의 플래그 기억부 (265)에 대해 플래그 ON을 명령하여 학습 플래그를 설정한다.
다음, S255로 진행하여, 학습 스케줄러(162a)는 학습실행명령을 지시하여 학습처리를 개시시킨다. 이 학습처리는, 학습신호 기억부(164)에 준비된 제어입력 X와, 제어입력 X에 대한 바람직한 제어출력으로 되는 모델 신호 d를 독출하여 제어입력을 룰부 프리와이어 뉴로(150)에 제공하고, 모델신호는 가중치 변경부(161) 및 학습수속판정부(163)에 공급한다.
다음은 학습입력을 수신한 룰부 프리와이어 뉴로(150)로부터의 제어출력 Y를 가중치 변경부(161) 및 학습수속판정부(163)에 취입하며, 가중치변경부(161)에서는, 백프로파게이션법으로 가중치의 변경을 행하고, 학습수속 판정부(163)는, 교사신호 d에 대한 제어출력 Y의 오차가 규정치이하로 될때, 페이스 1의 학습종료를 판정한다.
S255의 학습실행명령에 의한 페이스1의 학습처리가 종료되면, S256에서 페이스카운터 i를 1씩 증가시키고, S257에서 학습페이스의 종료를 점검한다. 제1실시예의 학습처리에서는 페이스2에서 처리가 종료되고, 따라서 S252로 복귀하여 다음 페이스2를 개시한다.
② 페이스 2
페이스2의 학습처리에서는, 먼저 S252에서는, 페이스 그룹 대응표(258)를 참조하여 뉴톤그룹번호 gb∼gf의 5개를 독출한다. 다음, S253에서 그룹 결선 대응표(259)를 참조하여 뉴톤그룹 gb∼gf에 대응하는 결선 그룹번호 cab∼cef를 독출하고, S254에서 결선 그룹번호 cab∼def를 출력하여 결선에 설치된 학습 플래그를 ON 설정한다.
다음, 페이스2의 가중치 학습처리를 백프로파게이션법으로 실행한다. 따라서 뉴로전체의 다중치 학습이 종료되면, S256에서, 페이스카운터 i를 1씩 증가시켜, S257에서 학습 페이스의 종료를 점검함으로써, 처리가 정상적으로 종료된다.
(제1실시예의 가중치 학습처리)
제116도는 룰부 프리와이어 뉴로에 대해서 백프로파게이션법에 의해 행하는 가중치 학습의 처리 후로우챠트이다.
이 학습처리후로우에서의 각 부의 파라미터는 제117도와 같이 정해진다.
제117도는, 제111도의 룰부 프리와이어 뉴로의 계측 구조를 개략적으로 나타낸다.
이 구조는 6층으로 돼 있고, 제1∼3층이 시그모이드함수 유니트로 구성돼 있고, 나머지 층들은 선형함수 유니트로 구성돼 있다.
그러나 입력층이 빠져 있다. 또한, 백프로파게이션법에 의한 가중치의 학습대상이 되는 것은 제1∼5층 까지이고, 제6층의 중심산출 신현부(186)는 상기 가중치 학습층에서 제외돼 있다.
상기 룰부 프리와이어 뉴로에 의한 퍼지룰을 실현함으로써 출력되는 퍼지 추론치, 즉, 제어출력치는 y6으로 표현된다. 1페이스에 있어서의 학습처리는, 제6층으로 부터 제5층, 제4층, 제3층, 제2층, 제1층까지 순차로 실행된다. 이 계층 학습처리는 i카운터에 표시된다. 즉, i카운터는 i=6으로 초기설정된다.
설명을 더욱 간단히 하기 위해서, W1, i-1, ΔW1, i-1은 매트릭스(matrix)를 나타내며 그 값은 (제i층의 뉴톤수) x(i-제1층의 뉴톤수)로 된다.
Si와 yI는 벡터를 나타내며, 그 값은 제i층의 뉴톤수와 같다.
상기 제117도에 도시된 각부의 파라미터를 전제로 제116도의 학습법의 제1실시예에 의한 가중치 학습처리를 하기에 설정한다.
본 학습법의 제1실시예에서는, 페이스1에서 전건부 멤버쉽 함수 실현부(16)에 속하는 제1 및 제2층의 가중치를 학습하고, 다음의 제2페이스에서 뉴로전체, 즉, 제1∼5층 전체의 가중치를 학습한다. 페이스1의 학습처리는, S271에서 학습대상층을 설정하는 카운터 i를 i=6에서 초기 설정한다. 이 초기설정에 의하며 제6층의 유니트가 학습대상으로서 지정된다.
다음, S272에서, 시그모이드 함수 유니트 여부가 판정되고, 제6층은 선형함수 유니트로 구성돼 있으므로, 제어가 S284로 진행한다. S284에서, 제6층이 최종 스텝인가 여부가 한정되며, 제6층은 최종 스텝이므로, S285로 진행하여, 이때 얻어진 모델신호 d와 제어출력 y를 사용하여 상기 식(11)과 같은 식으로 편차δ6을 구한다. 단, δ는 α에 상당한다.
다음, 276으로 진행하여, 제6층이 가중치 학습유니트를 포함하고 있는가 여부가 판정된다.
이때 제6층은 학습대상에서 제외돼 있으므로, 구체적으로 결선에 설치된 학습조정부(260)의 학습플래그가 Off돼 있으므로, S278로 진행하여 가중치 변경량 ΔW65=0로 되어, W279로 진행하며 가중치 W65의 갱신은 행해지지 않는다. 다음은, S282에서, 카운터가 페이스 1의 학습처리 최종층을 나타내는 E=1에 도달했는가 여부가 판정되고, 카운터가 i=6이므로, S823으로 진행하여 카운터 i를 1감소시켜 i=5로 하여 272로 복귀하여 다음 제5층의 학습처리를 실행한다.
제5층은 선형함수 유니트로 구성돼 있으므로 S272로부터 S284까지 진행되나, 제5층이 최종층이 아니므로 S286으로 진행하고, 상기식(12)와 같은 식에 의하여 편차δ5를 산출한다. 다음 S276로 진행하므로, 제5층이 학습유니트들로 구성돼 있는가 여부가 판정되고, 페이스 1에 있어서 제5층은 페이스 1에 학습 유니트로부터 제외돼 있으므로, 278에서 가중치 변경량 ΔW54=0으로 하여, S279의 가중치 W54의 갱신을 무효로 한다. 마찬가지로, 제5층의 최종 유니트까지 처리를 반복하고, 제5층의 처리가 종료되면 제4층으로 진행한다.
제4층은 선형함수 유니트로 구성돼 있고, 페이스 1에서는 학습대상으로부터 제외돼 있으므로 제5층과 동일한 처리를 반복한다. 또한, 제3층의 처리로 진행하면, 제3층은 시그모이드 함수 유니트로 구성돼 있으므로, S272으로부터 S273로 진행하며, 제3층이 최종층이 아니므로, S275에서 시그모이드 함수유니트 고유의 편차δ3를 상기식(7)과 같은 식에 의하여 구한다. 제3층도 학습대상 유니트로 구성돼 있지 않으므로, S276으로부터 S278로 진행하여, 가중치 변경량 σW32=0으로하여 S279의 가중치 W32의 갱신을 무효화한다.
제3층의 처리가 종료되면, 제2층의 처리로 진행하며, 제2층은 선형함수 유니트로 구성돼 있으므로, S272으로부터 S284를 거쳐서 S286에서 편차δ2를 구하며, 제2층은 전건부 멤버쉽 함수 실현부(16)에 속하여 페이스1의 학습유니트로 구성돼 있으므로 S276부터 S277로 진행하여 상기 식(6), (8)과 같은 식에 의하여 가중치 변경향 ΔW21을 산출하고, S279에서 상기 식(8a)와 같은 식에 의하여 가중치 W21를 갱신한다. 이하 마찬가지로, 제2층의 최종 유니트까지 처리를 반복하여 제1층의 처리로 이행한다.
제1층은 시그모이드 함수 유니트로 구성돼 있으나, 최종 처리 시스템은 아니므로, S272로부터 S273을 거쳐서 S275까지 진행하여, 편차δ1를 산출한 후, S276으로부터 S277로 진행하여 가중치 변경량 ΔW10를 구하고 S279에서 가중치 W10을 갱신한다. 이하, 제1층의 최종 유니트까지 동일한 처리로 반복하여, 제1층의 최종 유니트의 처리를 종료하면 S28로 진행하며, 이때 i카운터는 페이스1의 최종 계층 e=1과 일치되므로, 페이스1의 학습처리의 종료를 판정하여 일련의 처리를 종료한다.
다음은, 뉴로전체의 가중치를 학습하는 페이스1에서는, 편차δ6만 산출하고, 가중치 W65는 갱신하지 않는다.
그러나, 제5층의 처리로 진행하면, 가중치 ΔW54의 산출이 유효하게 행해져서 W54가 갱신된다. 이하 마찬가지로, 나머지 제4층, 제3층, 제2층, 제1층의 순서로 순차적으로 가중치들이 학습된다. 따라서, 제1층의 최종유니트의 처리가 종료될때 일련의 학습 처리가 종료된다.
[제2실시예의 학습처리]
제2실시예의 가중학습은 제101도의 스텝S193에 나타낸 것과 같이 ① 룰부(17) ② 뉴로전체로서 행하고, 이 가중치의 순번에 대응해서 스텝 S189에 나타낸 것과같이 룰부(17)에 대한 가중치의 초기설정은, 선험적 지식의 도입에 의해서 가중치의 초기설정 또는 난수를 사용한 랜덤 가중치의 초기설정을 행한다. 이에 대해서 2회째 이후의 페이스(2)에서 가중치 학습을 행하는 전건부 멤버쉽 함수 실현부(16) 및 후건부 멤버쉽 함수 실현부/비퍼지회부(18)에 대해서는, 스텝 S188, S190에 나타낸 것과 같이 사전에 갖고 있는 지식을 도입한 가중치의 초기설정만을 행하고 있다.
또, 스텝 S192 페이스 그룹대응표의 설정은 제112b도에 나타낸 것과 같이 페이스 1에서 룰부(17)에 속하는 뉴톤그룹번호 gd, ge를 설정하고, 페이스 2에서 뉴로전체의 그룹번호 gb∼gf의 5개를 설정하고 있다.
이 제1실시예의 가중치학습에 있어서는, 룰부(17)의 가중치를 학습한 후에 룰부 프리와이어뉴로 전체를 학습시킴으로서 룰부의 가중치 학습의 결과에 맞는 룰부 프리와이어 뉴로전체의 가중치의 재조정을 행할 수 있다.
[제3실시예의 학습처리]
제3실시예에서 제102도의 스텝 S199에 나타낸 것과같이, ① 룰부(17) ② 전건부 멤버쉽 함수 실현부(16) ③ 뉴로전체로 되는 순번으로 가중치를 학습한다. 이 가중치 학습의 순번에 대응하여 최초에 가중치를 학습하는 룰부(17)에 대해서는, 스텝 S195에 나타낸 것과 같이 선험적 지식의 도이에 의한 가중치의 초기설정 또는 난수를 사용한 랜덤한 가중치의 초기설정 또는 양자를 병용한 가중치의 초기설정을 행한다. 이에 대해서 2회때 이후에 가중을 학습하는 전건부 멤버쉽 함수 실현부(16) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 대해서는 스텝 S194, S196에 나타낸 것과 같이, 사전에 갖고 있는 지식의 도입에 의한 가중치의 초기설정만을 행한다.
또 스텝 S198의 페이스·그룹 대응표의 설정은 제112c도에 나타낸 것과 같이 페이스(1)에서 룰부(17)에 속하는 뉴톤그룹번호 gd, ge를 설정하고, 페이스(2)에 전건부 멤버쉽 함수 실현부(16)에 페이스(2)에 전건부 멤버쉽 함수 실현부(16)에 속하는 뉴톤그룹 번호 gd, gc를 설정하고, 또 페이스 3에서 뉴로전체로서의 그룹번호 gb-gf의 5개의 실정을 행한다.
이 제3실시예에 의하면 룰부(17)과 전건부 멤버쉽 함수 실현부(16)위 가중치를 학습한 후에 룰부 프리와이어 뉴로전체를 학습시킴으로써 룰부(17) 및 전건부 멤버쉽 함수 실현부(16)의 가중치의 학습결과에 맞춘 룰부 프리와이어 뉴로전체의 가중치의 재조정을 행할 수 있다.
[제4실시예의 학습처리]
제4실시예에 있어서는, 제103도의 스텝 S206에 나타낸 것과 같이, ① 전건부 멤버쉽 함수 실현부(16) ② 룰부(17) ③ 뉴로전체로 되는 순번으론 가중치를 학습한다. 이 가중치를 학습하는 전건부 멤버쉽 함수실현부(16)에 대해서는 스텝 S201에 나타낸 것과 같이 선험적 지식의 도입에 의한 가중치의 초기설정 또는 난수를 사용한 랜덤한 가중치의 초기설정, 또는 양자를 병용한 가중치의 초기설정을 행한다. 이에 대해서 2회째 이후에 가중치를 학습하는 룰부(17) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 대해서는 스텝 S202, S203에 나타낸 것과 같이, 선험적 지식의 도입에 의한 가중치의 초기설정만을 행한다.
또 스텝 S205의 페이스 설정을 그룹 대응표의 설정은 제112(d)에 나타낸 것과 같이 페이스(1)에서 전건부 멤버쉽 함수 실현부(15)에 속하는 뉴톤그룹번호 gb, gc를 설정, 페이스(2)에서 룰부 (17)에 속하는 뉴톤그룹번호 gd, ge를 설정하고, 또 페이스(3)에서 뉴로전체로서의 뉴톤그룹 번호 gb∼gf의 5개를 설정하고 있다.
이 제4실시예에 의하면 전건부 멤버쉽 함수 실현부(16)와 룰부(17)의 가중치를 학습한 후에 룰부 프리와이어로 전체를 학습시킴으로써 전건부 멤버쉽 함수 실현부(16)와 룰부(17)의 가중치의 학습결과에 맞춘 룰부 프리와이어 뉴로전체의 가중치의 재조정을 행할 수 있다.
[제5실시예의 학습처리]
제5실시예에 있어서는, 제104도의 스텝 S213에 나타낸 것과 같이, ① 전건부 멤버쉽 함수 실현부(16)과 룰부(17) ② 뉴로전체로 되는 순번으로 가중치를 학습한다. 이 학습의 순번에 대응하여 최초에 전건부 멤버쉽 함수 실현부(16)과 룰부(17)의 가중치를 동시에 조정함으로써, 스텝 S208, S209에 나타낸 것과 같이 전건부 멤버쉽 함수 실현부(16)과 룰부(17)에 대해서는 선험적 지식이 도입한 가중치의 초기설정 또는 난수를 사용한 랜덤한 가중치의 초기설정, 또 양자를 병용한 가중치의 초기설정을 행한다. 이에 대해서 2회째의 가중치 학습으로 되는 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 대해서는, S210에 나타낸 것과 같이, 선험적 지식의 도입에 의해서 가중치의 초기설정만을 행한다.
또, 스텝 S212의 페이스·그룹 대응표의 설정은 제112e도에 나타낸 것과 같이, 페이스(1)에서 전건부 멤버쉽 함수 실현부(16) 및 룰부(17)에 속하는 뉴톤그룹번호 gb, gc, gd, ge의 4개를 설정하고 페이스(2)에서 뉴로전체로서의 뉴톤그룹번호 gb∼gf의 5개를 설정한다.
이 제5실시예에 의하면, 전건부 멤버쉽 함수 실현부(16)과 룰부(17)의 가중치를 동시에 학습한 후에 룰부 프리와이어 뉴로전체를 학습시킴으로써, 전건부 멤버쉽 함수 실현부(10)과 룰부(17)의 가중치의 동시학습에 의한 결과에 맞춘 룰부 프리와이어 뉴로전체 가중치의 재조정을 행할 수 있다.
[제6실시예의 학습처리]
제6실시예에 있어서는, 제105도의 스텝 S220에 나타낸 것과 같이,
① 전건부 멤버쉽 함수 실현부(16)
② 후건부 멤버쉽 함수 실현부/버퍼지화부(18)
③ 뉴로전체
로 되는 순번으로 가중치를 학습한다.
이 학습에 대응해서 최초에 가중치를 학습하는 전건부 멤버쉽 함수 실현부 16에 대해서는, 스텝 S215에 나타낸 것과 같이 선험적 지식의 도입에 의해서 가중치의 초기설정 또는 난수를 사용한 랜덤한 가중치의 초기설정, 또 양자를 병용한 가중치의 초기설정을 행한다. 이에 대해서 2회째 이후의 가중치 학습으로 되는 룰부(17) 및 멤버쉽 함수 실현부/버퍼지화부(18)에 대해서는 스텝 S216, S217에 나타낸 것과 같이 사전에 갖고 있는 지식의 도입에 의해서 가중치의 초기설정만을 행한다.
또, 스텝 S219의 페이스 그룹 대응표의 설정은 제112f도에 나타낸 것과 같이, 페이스(1)에서 전건부 멤버쉽 함수 실현부(16)에 속하는 뉴톤그룹번호 gb, gc를 설정하고, 페이스(2)에서 후건부 멤버쉽 함수 실현부/버퍼지화부(1b)에 속하는 뉴톤그룹번호 Gf를 설정하고, 또 페이스(3)에서 뉴로전체로서의 뉴톤그룹번호 gb∼gf의 5개를 설정한다.
이와 같은 제6실시예에 의하면, 전건부 멤버쉽 함수 실현부(16)과 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 가중치를 순차 학습한 후에, 룰부 프리와이어 뉴로전체를 학습시킴으로써. 전건부 멤버쉽 함수 실현부(16)과 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 가중치를 학습결과에 맞춘 룰부 프리와이어 뉴로 전체 가중치의 재조정을 행할 수 있다.
[제7실시예의 학습처리]
제7실시예에 있어서는, 제106도의 스텝 S226에 나타낸 것과 같이,
① 룰부(17)
② 후건부 멤버쉽 함수 실현, 버퍼지화부(18)
③ 뉴로전체
로 되는 순번으로 가중치를 학습한다.
이 학습에 대응하여 가중치를 최초로 학습하는 룰부(17)에 대해서는 스텝 S222에 나타낸 것과 같이 선험적 지식의 도입에 의한 가중치의 초기설정 또는 난수를 사용한 랜덤한 가중치의 초기설정, 또 양자를 병용한 가중치의 초기설정을 행한다. 이에 대해서 2회째 이후의 가중치 학습으로되는 전건부 멤버쉽 함수 실현부(16) 및 후건부 멤버쉽 함수 실현/버퍼지화부(18)에 대해서는 스텝 S221, S223에 나타낸 것과 같이 선험적 지식의 도입에 의한 가중치의 초기설정만을 행한다.
또 스텝 S225의 페이스 그룹 대응표의 설정은 제112도 g에 나타낸 것과 같이, 페이스(1)에서 룰부(17)에 속하는 뉴톤그룹번호 gd, ge를 설정하고, 페이스2에서 후건부 멤버쉽 함수 실현부/버퍼지화부18에 속하는 뉴톤그룹번호 gf를 설정하고, 또 페이스3에서 뉴로전체로서의 뉴톤그룹번호 gb∼gf의 5개를 설정한다.
이와같은 제7실시예에 의하면, 룰부(17)과 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 가중치를 순차 학습시킨 후에, 룰부 프리와이어 뉴로 전체를 학습시킴으로써, 룰부(17)와 후건부 멤버쉽 함수 실현부/버퍼지화부18의 가중학습의 결과에 맞춘 룰부 프리와이어 뉴로 전체의 가중치 재조정을 행할 수 있다.
[제8실시예의 학습처리]
제8실시예에 있어서는, 제107도의 스텝 S233에 나타낸 것과 같이,
① 룰부(17)
② 전건부 멤버쉽 함수 실현부(16)
③ 후건부 멤버쉽 함수 실현. 버퍼지화부(18)
④ 뉴로전체
로 되는 순번으로 가중치를 학습한다.
이 학습의 순번에 대응해서 최초로 가중치를 학습하는 룰부(17)에 대해서는 스텝 S229에 나타낸 것과 같이, 선험적 지식의 도입에 의해서 가중치의 초기설정 또는 난수를 사용한 랜덤한 가중치의 초기설정, 또는 양자를 병용한 가중치의 초기설정을 행한다. 이에 대해서 2회째 이후에 가중치를 학습하는 전건부 멤버쉽 함수 실현부(16) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 대해서는 스텝 S228, S230에 나타낸 것과 같이 선험적 지식의 도입에 의한 가중치의 초기설정을 행한다.
또, 스텝 S232의 페이스. 그룹대응표의 설정은 제112도 h에 나타낸 것과 같이, 페이스(1)에서 룰부(17)에 속하는 뉴톤그룹번호 gd, ge를 설정하고, 페이스(2)서 전건부 멤버쉽 함수 실현부(16)에 속하는 뉴톤그룹번호 gb, gc를 설정하고, 페이스(3)에서 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 속하는 뉴톤그룹번호 gf를 설정하고, 최후의 페이스(4)에서 뉴로전체로서의 뉴톤그룹번호 gb∼gf의 5개를 설정한다.
이 제8실시예에 의하면, 룰부(17), 전건부 멤버쉽 함수 실현부(16) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 순번에 가중치의 학습을 행한 후에, 룰부 프리와이어 뉴로 전체의 가중치를 학습시킴으로써, 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 가중치 학습 결과에 맞춘 룰부 프리와이어 뉴로 전체의 가중치의 재조정을 행할 수 있다.
[제9실시예의 학습처리]
제9실시예에 있어서는 제108도의 스텝 S240에 나타낸 것과 같이,
① 전건부 멤버쉽 함수 실현부(16)
② 룰부(17)
③ 후건부 멤버쉽 함수 실현부/버퍼지화부(18)
④ 뉴로전체
로 되는 순번으로 가중치를 학습한다.
이 학습순번에 대응하여 최초로 가중치를 학습하는 전건부 멤버쉽 함수 실현부(16)에 대해서는 스텝 S235에 나타낸 것과 같이 선험적 지식의 도입에 의해서 가중치의 초기설정 또는 난수를 사용한 랜덤한 가중치의 초기설정, 또는 양자를 병용한 가중치의 초기설정을 행한다. 이에 대해서 2회째 이후의 가중치 학습으로되는 룰부(17) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 대해서는 스텝 S236, S237에 나타낸 것과 같이 선험적 지식의 도입에 의한 가중치의 초기설정만을 행한다.
또 스텝 S239의 페이스, 그룹대응표의 설정은 제112i도에 나타낸 것과 같이 페이스(1)에서 전건부 멤버쉽 함수 실현부(16)에 속하는 뉴톤그룹번호 gb, gc를 설정하고, 페이스(2)에서 룰부(17)에 속하는 뉴톤그룹 번호 gd, ge를 설정하고, 페이스(3)에서 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 속하는 뉴톤그룹번호 gf를 설정하고, 또 최후의 페이스(4)에서 뉴로전체로 되는 뉴톤그룹번호 gb∼gf의 5개를 설정한다.
이와 같은 제9실시예에 있어서는 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 가중치를 순차 학습한 후에, 룰부 프리와이어 뉴로전체의 가중치를 학습시킴으로써, 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 가중치의 학습결과에 맞춘 룰부 프리와이어 뉴로전체의 가중치의 재조정을 행할 수 있다.
[제10실시예의 학습처리]
제10실시예에 있어서는 제109도의 스텝 S246에 나타낸 것과 같이,
① 전건부 멤버쉽 함수 실현부(16)과 룰부(17)
② 후건부 멤버쉽 함수 실현부/버퍼지화부(18)
③ 뉴로전체
로 되는 순번으로 가중치를 학습한다.
이 순번에 대응하여 최초에 가중치를 학습하는 전건부 멤버쉽 함수 실현부(16)와 룰부(17)에 대해서는 스텝 241, 스텝 242에 나타낸 것과 같이 선험적 지식의 도입에 준한 가중치의 초기설정 또는 난수를 사용한 랜덤 가중치의 초기설정, 또 양자를 병용한 가중치의 초기설정을 행한다.
이에 대해서 2회째의 학습으로되는 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 대해서는 스텝 243에 나타낸 바와 같이 선험적 지식의 도입에 준한 가중치의 초기설정만을 행한다.
또 스텝 245의 페이스, 그룹대응표의 설정은 제112j도에 나타낸 것과 같이 페이스(1)에서 전건부 멤버쉽 함수 실현부(16) 및 룰부(17)에 속하는 뉴톤그룹번호 gb, gc, gd, ge의 4번호를 설정하고 페이스(2)에서 후건부 멤버쉽 함수 실현부/버퍼지화부(18)에 속하는 뉴톤 그룹번호 gf를 설정하고 최후의 페이스(3)에서 뉴로전체에 대응한 뉴톤그룹번호 gb∼gf의 5개 번호를 설정한다.
이와같은 제10실시예에 있어서는 전건부 멤버쉽 함수 실현부(16)와 룰부(17)의 가중치를 동시에 학습하고 그후에 후건부 멤버쉽 실현부/버퍼지화부(18)의 가중치를 학습한 후에 최종적으로 룰부 프리와이어 뉴로전체의 가중치를 학습시킴으로써 전건부 멤버쉽 함수 실현부(16), 룰부(17) 및 후건부 멤버쉽 함수 실현부/버퍼지화부(18)의 가중치의 학습 결과에 맞춘 룰부 프리와이어 뉴로전체의 가중치의 재조정을 행할 수 있다.
다음에 퍼지모델로부터 룰부 프리와이어 뉴로, 또는 룰부 전결합 뉴로등으로의 변환의 다른 실시예에 대해서 설명하겠다. 이들의 변환을 어느 데이터처리시스템이 갖는 데이터처리기능을 프로와이어 뉴로, 전결합 뉴로 및 순 뉴로위에 구축하는 시뮬레이션으로서 설명하겠다.
이 시뮬레이션은 제118도에 나타낸 것과 같은 입출력신호관계를 갖는 데이터처리기능을 계층 네트워크부(159)에 구축함으로써 행하였다. 여기서 제118도중 횡축(x)가 입력신호, 종축(y)가 출력신호를 나타내고 있다. 이 입출력신호관계로 입력신호(x)에 대해서는 제119a도에 나타낸 [소①]과 제119b도에 나타낸 [대①]이라는 멤버쉽 함수, 출력신호에 대해서는 제119d도에 나타낸 [대②]라는 멤버쉽 함수를 정의하여 이들 멤버쉽 함수의 결합관계를 규정하는 2개의 룰로서,
L1 : x가 대①이면 y는 소②
L2 : x가 소①이면 y는 대②
에 의해서 표시되는 퍼지모델(10)이 생성될 수 있게 된다.
제120도에 이 생성된 퍼지모델(10)의 입출력신호관계를 나타냈다. 여기서 퍼지추론치인 출력신호(y)는 상술한 (21)식과 같은 식에 따라서 결정되는 것으로 하였다.
이 제120도에서 알 수 있는 바와 같이 생성된 퍼지모델(10)은 개략적이지만 제 118도에 나타낸 데이터처리 기능의 입출력신호관계를 근사한 것으로 되어 있다.
그리고 제119d도의 [대②]라는 멤버쉽 함수에 대응하여 구비되는 [6]의 유니트와 제119도의 [소②]라는 멤버쉽 함수에 대응하여 구비된다. [7]의 유니트는 입력치를 그대로 출력하도록 동작하는 선형소자가 사용된다. 이 [6]의 유니트와 [5]의 기본 유니트(1)과의 사이의 내부결합과 이 [7]의 유니트와의 사이에 내부결합의 가중치로서는 "1"이 설정된다. 또 [8]로 표시되는 중심결정 모듈과 [6] 및 [7]의 유니트와의 사이의 내부결합의 가중치도 "1"이 설정된다.
제122도에 이 구축된 제121도의 계층 네트워크부(159)의 입출력신호관계를 도시했다. 이 도면에서 알 수 있는 바와 같이 제121도에 구축할 계층 네트워크부(159), 즉 룰부 프리와이어 뉴로는 하등 학습을 제121도에 이 제120도의 퍼지모델(10)로 구축되는 계층 네트워크부(159)의 일예를 도시했다. 여기서 이 계층 네트워크부(159)는 룰부 프리와이어 뉴로(12)에 상당하는 것이다.
도면중 [2]의 기본유니트(1)에는 가중치 "12"와 임계치 "-5.4"가 할당됨으로써 제119b의 [대①]이라는 멤버쉽 함수의 그레이드치를 산출하는 구성이 채용되고 [3]의 기본유니트(1)에는 가중치 "12"와 임계치 "6.6"가 할당됨으로써 제119a도의 [소①]이라는 멤버쉽 함수의 그레이드치를 산출하는 구성이 채용되는 2개의 룰에 대응하여 구비되는 [4]와 [5]의 기본유니트(1)에는 가중치"5"와 임계치"-2.5"가 할당됨으로써 입력치의 총합과 임계치와의 관계가 대략 선형이 되는 구성이 채용된다. 그리고 제119도(d)의 [대②]라는 멤버쉽 함수에 대응하여 구비되는 [6]의 유니트와 제119도(c)의 [소②]라는 멤버쉽 함수에 대응하여 구비된다. [7]의 유니트는 입력치를 그대로 출력하도록 동작하는 선형소자가 사용된다. 이 [6]의 유니트와 [5]의 기본 유니트(1)과의 사이의 내부결합과 이[7]의 유니트와의 사이에 내부결합의 가중치로서는 "1"이 설정된다. 또 [8]로 표시되는 중심결정 모듈과 [6] 및 [7]의 유니트와의 사이의 내부결합의 가중치도 "1"이 설정된다.
제122도에 이 구축된 제121도의 계층 네트워크부(159)의 입출력신호관계를 도시했다. 이 도면에서 알 수 있는 바와 같이 제121도에 구축할 계층 네트워크부(159), 즉 룰부 프리와이어 뉴로는 하등 학습을 행하지 않아도 제118도의 입출력신호관계에 상당히 근사하는 입출력신호관계를 제공하는 데이터처리기능을 발휘할 수 있는 것이다. 이 데이터처리기능은 이에 이어 가중치 및 임계치의 학습을 실행하면 더 정도가 높은 것으로 된다.
제123a도에 제120도의 퍼지모델(10)으로 구축되는 계층 네트워크부(159) 이외의 하나의 예를 나타냈다.
여기서 이 계층 네트워크부(159)는 룰부 전결합 뉴로(13)에 상당하는 것이다.
도면중[2]의 기본유니트(1)에는 가중치 "12"와 임계치 "-5.4"가 할당됨으로써 제119b도의 [대①]이라는 멤버쉽 함수의 그레이드치를 산출하는 구성이 채용되고 [3]의 기본유니트(1)에는 가중치 "-12"와 임계치 "6.6"가 할당됨으로써 제119도(a)의 [소①]이라는 멤버쉽 함수의 그레이드치를 산출하는 구성이 채용된다.
그리고, 제119c도의 [소②]라는 멤버쉽 함수에 대응하여 구비되는 [4]의 기본유니트(1)와 [2] 및 [9]의 기본유니트(1)과의 사이는 서로 내부결합되는 구성이 채용되고 제119d도의 [대②]라는 멤버쉽 함수에 대응하여 구비된다. [5]의 유니트와 [2] 및 [3]의 기본유니트(1)과의 사이는 서로 내부결합되는 구성이 채용된다. 이 [4] 및 [5]의 기본유니트(1)의 임계치 및 입력에 의한 가중치는 학습에 의해서 구해지므로 초기치로서 함수치가 설정되게 되어 [6]으로 표시되는 중심 결정모듈과 [4] 및 [5]의 유니트와의 사이의 내부결합의 가중치로는 "1"이 설정된다.
이 [4] 및 [5]의 기본유니트(1)의 임계치 및 입력에 의한 가중치는 생성된 퍼지모델(10)으로 작성되는 입출력신호관계를 학습신호로 사용하여 작성되는 입출력신호관계를 학습신호로 사용하여 실행된다. 제124, 125도에 생성된 퍼지모델(10)인 상술한
L1 : x가 대①이면 y는 소②
L2=x가 소①이면 y는 대②
로 작성되는 학습신호를 도시했다.
여기서 학습모델신호는 [소②] 및 [대③]로의 그레이드치로서 구해져 있다.
제123b도에 이 학습신호를 사용하여 학습한 제123a도의 계층 네트워크부 159의 [4] 및 [5]의 기본유니트(1)의 임계치 및 입력에 의한 가중치의 학습치와 학습에 의해서 갱신된 [2] 및 [3]의 기본유니트(1)의 임계치 및 입력에 의한 가중치를 도시했다.
제126도에 이 학습에 의해서 구성된 제123도(b)의 계층 네트워크부(159) 즉 룰부 전결합 뉴로의 입출력 신호관계를 도시했다. 이 도면에서 알 수 있는 바와 같이 제123도(b)에 구축된 계층 네트워크부(159)는 제118도의 입출력신호관계에 상당히 근사한 입출력신호관계를 부여하는 처리기능을 발휘할 수 있는 것이다.
그리고 [2] 및 [3]의 기본유니트(1)의 새로운 임계치 및 입력에 의한 가중치에 따라 더욱 적절한 [소①] 및 [대①]의 멤버쉽 함수가 구해지게 된다. 제127도에 이 학습후의 [소①]의 멤버쉽 함수를 도시했다.
또 제118도에 나타낸 입출력신호관계를 갖는 데이터처리기능을 실행하는 적응형 데이터처리장치(11), 즉 순 뉴로에 대해서도 시뮬레이션을 행하였다. 시뮬레이션은 완전 결합하는 계층 네트워크 구조로서 10개의 기본유니트(1)로 되는 1단 구성의 중간층을 갖는 것을 상정하였다. 제128도에 이 적응형 데이터처리장치(11)의 내부결합의 가중치 및 임계치의 학습을 위하여 사용한 학습신호를 도시했다. 이 학습신호는 제118도의 입출력신호관계에 준하여 작성했으나 작성된 상술한 퍼지모델(10)로 작성할 수도 있다.
제129도에 이 학습신호를 사용하여 학습한 적응형 데이터처리장치(11)의 각 기본유니트(1)의 임계치 및 입력에 의한 가중치의 학습치를 도시하는 동시에 제130도에 이 학습에 의해서 구축된 제129도의 적응형 데이터처리장치(11)의 입출력신호관계를 도시했다. 여기서 제129도중, 각 기본유니트(1)에 대응시켜 기술되는 값이 임계치이고 각 내부결합에 대응시켜 기술되는 값이 가중치이다. 이제130도에서 알 수 있는 바와 같이 제129도에 구축된 적응형 데이터처리장치(11)는 제118도의 입출력신호관계에 상당히 근사하는 입출력신호관계를 부여하는 데이터처리기능을 발휘할 수 있는 것이다.
다음에 퍼지제어룰의 작성 시뮬레이션에 대해서 설명하겠다. 이 시뮬레이션은 제131도에 나타낸 것과 같이 전건부 멤버쉽 함수의 그레이드치를 출력하는 유니트를 2개(즉, 21a, 23b)로하여 행하였다. 또 제131도에서 전건부 멤버쉽 함수 실현부의 출력유니트(22a∼22d)는 생략되고 또 각 유니트는 블록으로 나타내 있다.
제132a도에 처리유니트(21a)에 할당되는 전건부 멤버쉽 함수, 제132b도에 처리유니트(21b)에 할당되는 전건부 멤버쉽 함수, 제132c도에 처리유니트(24a)의 출력에 대응되는 후건부 멤버쉽 함수, 제132d도에 처리유니트(24b)의 출력에 대응되는 멤버쉽 함수를 도시했다. 여기서 처리유니트(23a, 23b)에는, 예를 들면 입력치를 산출하여 출력하는 퍼지연산기능을 할당하고 처리유니트(24a, 24b)에는 입력치의 가산치를 산출하여 출력하는 퍼지연산기능을 할당하는 것으로 하였다.
제어대상으로부터 제133도에 나타낸 제어데이터가 입수된 것으로서 가중치의 학습을 행하였다. 제131도중에 나타낸 수치가 학습결과의 가중치이다. 도면중 굵은 선의 내부결합이 큰 값을 갖고 있는 것이 명백해진다.
이것에서,
x가 대이면 z는 소
x가 소이면 z는 대
라는 퍼지제어룰을 추출할 수 있게 된다.
이어서 퍼지제어룰의 멤버쉽 함수 및 그 자체의 가중치 동조의 실시예에 대해서 설명하겠다. 즉 퍼지모델로부터 변환된 룰부 프리와이어 뉴로에 대해서 제어대상으로부터 얻어진 데이터를 학습시킴으로써 전건부 멤버쉽 함수 또는 룰 그 자체의 가중치를 동조시키는 시뮬레이션을 행하였다. 제134도는 이 시뮬레이션에 사용된 퍼지제어룰을 나타냈다.
이들의 퍼지제어룰의 전건부를 기술하는 제어상태량으로서 제135도에 나타낸 [TU1, aLK, TeMP, TUSe, TUUP, fLOc, STaT]라는 7종류의 제어상태가 있고 후건부를 기술하는 제어조작량으로서 제135도에 나타낸 [ddOS]라는 1종류의 제어조작량이 있는 것을 상정했다. 제134도의 퍼지제어룰의 전건부 기술에 나타낸 바와 같이 [TU1]에 대해서는 [Sa(작다)]와 [MM(보통)]과 [La(크다)]라는 멤버쉽 함수가 사용되고 [aLK]에 대해서는 [Sa(작다)]와 [La(크다)]라는 멤버쉽 함수가 사용되어 [TeMP]에 대해서는 [IS(작지 않다)]와 [Sa(작다)]라는 멤버쉽 함수가 사용되고 [TUSe]에 대해서는 [La(크다)]와 [IL(크지 않다)]라는 멤버쉽 함수가 사용되고 [TUUP]에 대해서는 [MM(보통)]과 [ML(조금 크다)]와 [La(크다)]에 대해서는 [Sa(작다)]라는 멤버쉽 함수가 사용되고 [STaT]에 대해서는 [Sa(크다)]라는 멤버쉽 함수가 사용되는 것을 상정하고 있다.
이 시뮬레이션에서는 처리유니트(21) 즉 (21a, …)는 상술한 (단, 임계치의 부호의 정의가 다르다)바와 같이 기본유니트(1)를 사용하여,
또는
의 연산처리에 따라서 전건부 멤버쉽 함수 예를 들면, 제어상태량의 멤버쉽 함수를 실현시키는 구성을 채택했다. 제136, 137도중의 [전]의 란에 이들의 제어상태량의 멤버쉽 함수의 함수 형태를 규정하는 가중치(w1, w2)(입력유니트(12)와의 사이를 내부결합한 가중치)와 임계치(θ12)의 값을 도시하였다.
또 제134도의 퍼지제어룰의 후건부 기술에 나타낸 바와 같이 [ddOS]에 대해서는 [PM(긍정이고 중간)]와 [NM(부정이고 중간)]와 [Pb(긍정이고 크다)]와 [PS(긍정이고 작다)]라는 멤버쉽 함수가 사용되는 것을 상정하고 있다. 제138도에 이들의 멤버쉽 함수의 함수형태의 정의를 나타낸 동시에 제139도에 이들의 멤버쉽 함수가 갖는 이 함수형상의 파라미터 Pi(i=1, 2, 3)의 설정치를 도시한다.
제140도에 룰부 프리와이어 뉴로(12)에 맵된 제134도의 퍼지제어룰을 도시했다. 또 도면중 입력 유니트(20) 즉 (20a,…)에 대해서는 생략했다. 이 도면에 나타낸 것과 같이 처리유니트(21) 즉 (21a,…)는 제어상태량의 멤버쉽 함수의 수에 맞추어 15유니트 준비되어 처리유니트(23) 즉 (23a,…)는 퍼지제어룰의 수에 맞추어서 10유니트 준비되고 처리유니트(24) 즉(24a,…)는 제어조작량에 멤버쉽 함수의 수에 맞추어 4유니트 준비되게 된다.
여기서 처리유니트(23)에는 예를 들면 입력치의 평균치를 산출하는 퍼지연산기능을 할당하여 처리유니트(24)에는 입력치의 가산치를 산출하는 퍼지연산기능을 할당했다.
이 시뮬레이션에서는 제어대상에서 제141도에 나타낸 30개의 제어데이터가 입수된 것으로하여 학습정수(ε)의 값을 0.5, 모멘텀(ξ)의 값을 0.4로 설정하여 가중치의 학습을 행하였다.
시뮬레이션에 의해서 학습된 입력유니트(20)과 처리유니트(21)과의 사이의 내부결합 가중치(w1, w2와 θ12값을 제136, 137도중의 [후건부]의 란에 기재되는 값에 의해서 규정되는 멤버쉽 함수가 제어대상의 제어데이터를 사용하는 학습처리에 의해서 이 [후건부]의 란에 기재되는 값에 의해서 규정되는 멤버쉽 함수에 동조되는 것이다. 제142도에 이 동조된 멤버쉽 함수의 함수형태의 변화의 일예를 도시하였다. 여기서 도면중의 파선은 동조전의 멤버쉽 함수의 함수형태를 나타낸 것이고, 실선은 동조후의 멤버쉽 함수의 함수형태를 나타낸 것이다. 제142a도는 [TeMP(수온)]의 IS(작지 않다)]라는 멤버쉽 함수의 동조전과 후의 함수변화, 제142b도는 [fLOc(플록형성 상태)]의 Sa(작다)]라는 멤버쉽 함수의 동조전과 후의 함수변화 제142c도는 [TUUP(탁도상승)의 MM(보통)]이라는 멤버쉽 함수의 동조전과 후의 함수변화를 도시했다. 이와 같이 본 발명에 의하면 계층 네트워크부(159)위에 퍼지제어룰을 맵핑하여 제어대상으로부터 얻어지는 제어데이터군을 학습신호를 사용하여 계층 네트워크의 가중치를 학습하는 동시에 학습된 계층 네트워크의 가중치를 가지고 퍼지제어룰 중에 기술되는 멤버쉽 함수의 함수형태의 동조를 실현하는 것에서 퍼지제어룰의 멤버쉽 함수의 동조를 기계적으로 또한 객관적으로 실행될 수 있게 되는 것이다.
이와 같은 전건부 멤버쉽 함수의 동조시에는 전건부 멤버쉽 함수에 대응하는 유니트에 대해서 제114도에서 설명한 학습조정부(260)내의 학습 플래그를 ON으로 함으로써 학습이 행해지지만 룰의 가중치 동조를 행하는 경우에는 제140도에서 유니트(21)로부터 전건부 룰부의 유니트(23)까지 또 유니트(23)으로부터 후건부 룰부의 유니트(24)까지의 결합에 대한 학습조정부의 학습 플래그를 ON으로 함으로써 동조가 행해진다. 전술한 제141도의 데이터를 사용하여 룰가중치 동조 시뮬레이션을 학습 정수 및 모멘텀을 전술한 것과 같이 설정하여 실행했다.
제143도에 가중 오차치가 작아진 갱신 사이클회수가 1000회시의 가중치 학습 데이터를 도시하였다. 이 도면에서는 예를 들면 No.2의 퍼지제어룰중의 "1.667528"은 제134도에 나타낸 No.2의 퍼지제어룰[TU1의 MM]를 취급하는 처리유니트(21)와 No.2의 퍼지제어룰의 전건부 연산을 취급하는 처리유니트(23)과의 사이의 내부결합의 가중치의 학습데이터라는 것과 같이 제134도의 퍼지제어룰의 If부에 나타나는 순번에 따라서 처리유니트(21)와 처리유니트(23)과의 사이의 내부 결합의 가중치의 학습데이터를 나타내는 동시에 예를 들면 No.2의 퍼지제어룰중의 "0.640026"은 No.2의 퍼지제어룰의 퍼지연산을 취급하는 처리유니트(23)와 No.2의 퍼지제어룰의 퍼지연산을 취급하는 처리유니트(24)와의 사이의 가중치 학습데이터라는 것과 같이 처리유니트(23)과 처리유니트(24)와의 사이의 내부결합의 가중치의 학습데이터를 나타내고 있다. 이 제143도에서 제134도에 나타낸 No.4의 퍼지제어룰을 적용시키는 경우에는 [aLK의 Sa]라는 멤버쉽 함수로 그레이드치를 "0.417323"배하여 [TU1의 La]라는 멤버쉽 함수로 구해지는 그레이드치를 "2.0101990"배하여 작은쪽의 값들을 특정시키는 동시에 그 특정치를 "2.166885"배하여 No.2의 퍼지제어룰로 구해지는 값과의 큰 쪽의 값들로 [ddOS의 NM]라는 멤버쉽 함수의 그레이드치를 산출한다는 것과 같이 처리하면 된다는 것을 나타내고 있다. 또 이 도면에서 No.7이나 No.10의 퍼지제어룰은 다른 퍼지제어룰에 비해서 제어량의 추론치에 대해서 비교적 작은 기여밖에 하지 않는다는 것이나 No.3의 퍼지제어룰에 있어서의 [TU1의 Sa]의 그레이드는 [aLK의 La]의 그레이드치에 비해서 제어량의 추론치에 대해서 비교적 적은 기여밖에 하고 있지 않다는 등이 일목요연하게 된다.
이 학습된 가중치를 퍼지제어룰의 가중치로서 사용함으로써 퍼지제어룰을 제어대상으로 충실한 것으로 할 수 있게 되는 것이다.
계층 네트워크부(159)는 소프트웨어 수단에 의해서 실현시키는 것이라도 좋고 하드웨어 수단에 의해서 실현시키는 것이라도 좋다. 하드웨어 수단에 의한 구성방법을 채용하는 경우에는 본 출원인이 출원한 [특원소63-216865호(소화 63년 8월 31일 출원 "네트워크 구성 데이터처리장치")로 개시한 것을 사용할 수 있다.
즉, 기본유니트(1)는 제144도에 나타낸 것과 같이 입력스위치부(301)를 거쳐서 입력되는 전단층으로부터의 출력과 가중치 보지부(308)가 보지하는 가중치를 나눗셈하는 나눗셈형 d/a 콘버터(302)와 나눗셈형 d/a 콘버터(302)의 출력치와 전회의 누계치를 가산하여 새로운 누계치를 산출하는 아날로그 가산기(303a)와 아날로그 가산기(303a)의 가산결과를 보지하는 샘플홀드회로(303b)와 누계처리가 종료했을 때에 샘플 홀드회로(303b)의 보지데이터를 비선형 변환하는 비선형 함수 발생회로(304)와 후단층으로의 출력이 되는 비선형 함수 발생회로(304)의 아날로그 신호치를 홀드하는 출력보지부(305)와 출력보지부(306)와 이들의 각 처리부를 제어하는 제어회로(30)를 구비함으로써 실현된다.
그리고 계층 네트워크부(159)는 이 구성을 채용하는 기본유니트(1)가 제145도에 나타낸 것과 같이 1개의 공통아날로그버스(310)로 전기적으로 접속되는 구성으로 실현된다. 여기서 도면중 311은 기본유니트(1)의 가중치 보지부(308)에 가중치를 부여하는 가중치 출력회로, 312는 입력유니트(1')에 대응하는 초기신호출력회로, 313은 데이터 전송의 제어신호인 동기제어신호를 가중치 출력회로(311), 초기신호출력회로(312) 및 제어회로(309)에 전달하는 동기제어신호선(314)은 동기제어신호를 송출하는 주제어회로이다.
이 구성의 계층 네트워크부(159)에 있어서, 주제어회로(314)는 전단층의 기본유니트(1)를 시계열적으로 순차 선택하는 동시에 이 선택처리와 동기시켜서 선택된 기본유니트(1)의 출력보지부(305)가 보지하는 최종 출력을 아날로그버스(310)를 거쳐서 시분할의 송신형식에 따라서 후단층의 기본유니트(1)의 나눗셈형 D/A콘버터(302)에 대해서 출력하도록 처리한다. 이 입력을 수취하면 후단층의 기본유니트(1)의 나눗셈형 d/a콘버터(302)는 대응하는 가중치를 순차 선택하여 입력치와 가중치와의 나눗셈처리를 행하고 아날로그 가산기(303a)와 샘플홀드회로(303b)에 의해서 구성되는 누계처리부(303)은 이 나눗셈치를 순차 누계해간다. 이어서 전단층의 기본유니트(1)에 관해서의 모든 누계처리가 종료되면 주제어회로(314)는 후단층의 기본유니트(1)의 비선형 함수발생회로(304)를 기동시켜 최종출력의 산출을 행하고 출력보지부(305)가 이 변환처리결과의 최종 출력을 보지하도록 처리한다. 그리고 주제어회로(314)는 이 후단을 새로운 전단층으로 하고 다음 후단층에 대해서 같은 처리를 반복해감으로써 입력패턴에 대응하는 출력패턴이 출력되도록 처리하는 것이다.
도시한 실시예에 대해서 설명하였으나 본 발명은 이에 한정되는 것은 아니다. 예를 들면 본 출원인은 이전에 출원한 [일본국 특원소 63-227825호(소화 63년 9월 12일 출원 "네트워크 구성 데이터처리장치의 학습처리방식")]로 백 프로파게이숀법의 개량을 도모함으로써 단시간에 가중치의 학습 처리를 실현시킬 수 있도록 하는 발명을 개시하였으나 본 발명은 이와같은 개량된 백 프로파게이숀법이나 백 프로파게이숀법이외의 다른 가중치의 학습방식도 이용할 수 있는 것이다.
이상 상세하게 설명한 바와 같이 본 발명에 의하면 이해가 용이한 퍼지모델의 틀을 싸는 것으로 해석할 수 있고 또 뉴로의 정도와 학습능력을 이용할 수 있는 뉴로, 퍼지 융합데이터시스템을 구축할 수 있다.
따라서 본 발명은 퍼지제어를 포함하는 제어시스템의 분야는 물론, 모든 분야에서의 데이터처리시스템에 응용할 수 있다.

Claims (71)

1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 상기 1이상의 입력신호들에 대응하는 전건부 멤버쉽 함수의 적합도를 표시하는 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성돼 있고, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치로서 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지 처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지처리부로 구성된 것을 특징으로 하는 뉴로-퍼지 융합 데이터 처리 시스템.
제1항에 있어서, 상기 룰부가, 상기 룰부내의 이웃 층들 사이와, 상기 전건부 멤버쉽 함수 실현부와 상기 룰부사이, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지처리부 사이에서 프리와이어 돼있고, 이들 부위에서, 결선의 유무, 가중치의 일부 또는 전부가 퍼지룰에 의해 설정되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1항에 있어서, 상기 룰부가, 상기 룰부내의 이웃 층들 사이와, 상기 전건부 멤버쉽 함수 실현부와 상기 룰부사이, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지처리부 사이에서 전결합 돼 있고, 이들 부위에서, 결선의 유무, 가중치의 일부 또는 전부가 퍼지룰에 의해 설정되는 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 전건부 멤버쉽 함수 실현부가, 상기 룰부와 마찬가지로, 계층 네트워크로 구성된 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제4항에 있어서, 상기 전건부 멤버쉽 함수 실현부가, 전건부 멤버쉽 함수의 적응 능력의 그레이드치를 출력하는 유니트의 일부를 포함하며, 이 유니트는 이 유니트에 대한 입력결선의 가중치의 부호와 임계치의 부호를 부정으로 하여 , "입력신호는 소"를 나타내는 멤버쉽 함수의 그레이드치를 출력할 수 있는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제4항에 있어서, 상기 전건부 멤버쉽 함수 실현부가, 전건부 멤버쉽 함수의 적합도를 나타내는 그레이드치를 출력하는 유니트의 일부를 포함하며, 이 유니트는 이 유니트에 대한 입력결선의 가중치의 부호와 임계치의 부호를 긍정으로하여, "입력신호는 대"를 나타내는 멤버쉽 함수의 그레이드치를 출력할 수 있는 것이 특징인 뉴로-퍼지 융합 데이터 처리시스템.
제4항에 있어서, 상기 전건부 멤버쉽 함수 실현부가 "입력신호는 보통"을 나타내는 멤버쉽 함수의 그레이드치를 출력할 수 있는 유니트를 구비하며, 이 유니트는 상기 입력신호를 수신하여, 각 입력 신호의 가중치와 임계치에 대응하는 입력신호의 시그모이드 함수를 출력하는 2유니트와 상기 2유니트의 출력의 차이를 구하고 상기 전건부 멤버쉽 함수의 상기 그레이드치를 출력하는 유니트를 포함한 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 룰부가 두 입력치 응답하여, 논리적, 논리합, 격렬적, 격렬합, 평균, 항진 및 항위 등의 논리연산을 행할 수 있거나, 또는 두 입력치중 어느 하나에 응답하여 논리연산을 행할 수 있는 유니트의 일부를 구비한 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 룰부가 복수의 입력치 X1, X2, …Xn에 응답해서, s를 긍정으로, 그리고 t를 0과 1사이에 설정하고 상기 복수의 입력치에 응답하여 결선의 각 가중치 W1, W2, …Wn과 암계치θ를 하기와 같이 구하고 :
식에서,
그럼으로써, 하기와 같이 상기 복수의 입력치들의 가산을 실생하는 유니트의 일부를 구비한 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템 :
제1∼3항중 임의의 1항에 있어서, 상기 룰부의 유니트의 일부가 복수의 입력치 X1, X2, …Xn에 응답해서, s를 공정으로, 그리고 t를 0과 1 사이에 설정하고 상기 복수의 입력치에 응답하는 결선의 각 가중치 W1, W2, …Wn과 암계치θ를 하기와 같이 구하고 :
식에서,
그럼으로써 하기와 같이 상기 복수의 입력치들의 곱연산을 실행하는 유니트의 일부를 구비한 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템 :
제1∼3항중 임의의 1항에 있어서, 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부가 상기 룰부에 의해 제공된 후건부 멤버쉽 함수의 상기 확대/축소율에 따라서 1 이상의 시스템 출력신호를 각각에 대응하는 상기 후건부 멤버쉽 함수를 확대/축소하는 1이상의 상기 후건부 멤버쉽 함수 실현부와; 상기 1 이상의 후건부 멤버쉽 함수 실현부에 의해 제공된 출력치들을 사용하여, 상기 대응하는 시스템 출력신호로서 대표치를 산출하는 1이상의 비퍼지처리산출 실현부를 구비한 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제11항에 있어서, 상기 1이상의 후건부 멤버쉽 함수 실현부가, 1이상의 층을 갖는 계층 뉴랄 네트워크로 구성돼 있고 상기 계층 뉴랄 네트워크의 이웃층간의 결합과 이 결선의 가중치가 후건부 멤버쉽 함수에 대응하여 설정되는 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제12항에 있어서, 상기 후건부 멤버쉽 함수 실현부 각각이, 상기 후건부 멤버쉽 함수의 곡선의 복수의 횡좌표치에 각각 대응하는 복수의 유니트를 포함하고 있고, 상기 각 횡좌표치에서 상기 후건부 멤버쉽 함수의 그레이드치가, 상기 룰부에서, 상기 대응하는 시스템 출력신호들에 관련된 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 각 유니트와 복수의 유니트간의 각각의 결선의 가중치로서 설정되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제12항에 있어서, 상기 후건부 멤버쉽 함수 실현부 각각이, 상기 후건부 멤버쉽 함수의 곡선의 복수의 횡좌표치들에 각각 대응하는 복수의 유니트를 포함하고 있고, 상기룰부에서, 상기 퍼지룰 각각의 후부에 의해 측정된 후건부 멤버쉽 함수 곡선의 횡좌표치에 대응하는 유니트에 대한 결선에 대해서는 1의 값이 설정되고, 상기 대응하는 시스템 출력신호에 관련된 1이상의 후건부 멤버쉽 함수의 퍼지룰의 그레이드치를 출력하는 각 유니트와 복수의 유니트간의 다른 결선에 대해서는 0의 값이 설정되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제14항에 있어서, 상기 후건부 멤버쉽 함수 실현부에 설치된 복수의 유니트중 일부가, 유니트들에 공급된 복수의 입력치의 논리합을 출력하는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제14항에 있어서, 상기 후건부 멤버쉽 함수 실현부에 설치된 복수의 유니트들의 일부가 유니트들에 공급된 복수의 입력치들의 대수 합을 출력하는 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제11항에 있어서, 상기 버퍼지처리 산출 실현부 각각이; 상기 후건부 멤버쉽 함수 실현부에 의해 제공된 후건부 멤버쉽 함수의 확대/축소의 결과인 복수의 신호를 수신하는 두 유니트를 포함한 중심결정요소 출력부와, 상기 중심결정요소 출력부에 의해 제공된 두 중심결정요소를 사용하여, 상기 시스템 출력신호 즉, 대표치로서 중심치를 출력하는 중심산출부를 구비한 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제17항에 있어서, 상기 중심결정요소출력부의 두 유니트중 제1유니트가, 상기 후건부 멤버쉽 함수의 확대/축소 결과인 복수의 출력치에 대응하는 후건부 멤버쉽 함수 곡선의 횡좌표치의 최소치(①)와 상기 복수의 출력치 각각에 대응하는 값(②)간의 편차, 즉, 가중치(=②-①)를, 상기복수의 출력치중의 출력치와 곱하여 얻어진 적의 합(④)을 출력하고, 상기 두 유니트중 제2유니트가, 복수의 출력치에 대응하는 횡좌표치들중 최대치(③)와 복수의 출력치 각각에 대응하는 값들(③)간의 편차, 즉, 가중치(=②-③)를, 상기 복수의 출력치중의 출력치들과 곱하여 얻어진 적의 합을 출력(⑤)함으로써, 하기식
와 같이 상기 중심치들을 구하는 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제18항에 있어서, 상기 제1과 제2유니트가, 상기 각각의 합에 정수를 곱하여 그 결과치를 출력하는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제17∼19항중 임의의 1항에 있어서, 상기 중심결정요소 출력부인 중심결정요소 출력장치가; 상기 후건부 멤버쉽 함수 곡선의 복수의 횡좌표치에서 둘 단점좌표, 즉 최대치와 최소치의 좌표를 기억하고, 상기 중심을 통과하는 라인의 경사를 기억하는 단점좌표 및 경사 기억수단과; 진중심치, 상기 단점좌표 및 경사 기억수단에 기억된 상기 단점 좌표치, 및 중심을 통과하는 라인의 경사를 사용하여, 중심치들을 구하는데 사용되는 두 중심결정요소에 대한 모델신호들을 구하여 출력하는 모델신호 산출수단과; 일정 경사를 갖고 중심을 통과하는 라인의 식에 의하여 상기 모델신호들을 판정하는 모델신호판정부를 구비한 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제17∼19항중 임의의 1항에 있어서, 상기 중심결정요소 출력부인 중심결정요소 출력장치가 상기 후건부 멤버쉽 함수 곡선의 두 단점좌표, 즉 최대치와 최소치의 좌표를 기억하는 단점좌표 기억수단과 진중심치, 두 중심결정요소값, 상기 단점좌표 기억수단에 기억된 상기 단점 좌표치를 사용하여, 중심치들을 구하는데 사용되는 두 중심결정요소에 대한 모델 신호들을 구하여 출력하는 모델신호 산출수단과; 상기 두 중심결정요소의 출력치들에 의해 결정된 라인과 동일한 경사를 갖고 중심을 통과하는 라인의 식에 의하여 상기 모델신호들을 판정하는 모델신호 판정부를 구비한 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부가 복수층을 갖는 계층 뉴랄 네트워크로 구성된 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제22항에 있어서, 상기 후건부 멤버쉽 함수 실현부/버퍼지 처리부가 상기 후건부 멤버쉽 함수를 확대/축소하는 후건부 멤버쉽 함수 실현부와, 여기서 상기 후건부 멤버쉽 함수에 대응하여 이웃층들간의 결선이 설정돼 있고, 1이상의 중간층을 갖는 계층 뉴랄 네트워크로서, 상기 후건부 멤버쉽 함수 실현부의 출력에 따라서 상기 출력신호인 중심치를 산출하는 중심산출계산부를 구비한 것이 특징인 뉴로-퍼지 융합 데이터 처리시스템.
제23항에 있어서, 상기 후건부 멤버쉽 함수 실현부와 상기 중심산출 실현부간에 입력 정규화장치가 설치되어, 상기 후건부 멤버쉽 함수 실현부의 출력을 적절한 함수를 사용하여 상기 중심산출 실현부의 입력유니트의 소정범위내로 맵핑하고, 상기 중심산출 실현부의 후스텝간에 출력복원장치가 설치되어, 상기 중심산출 실현부의 출력인 중심좌표를 적정좌표범위 내로 복사하는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제24항에 있어서, 상기 입력정규화 장치가 선형함수를 사용하여 하기식에 의하여 맵핑하고 :
함수값=0.6×(후건부 멤버쉽 함수 실현부의 출력)/10+0.2
상기 출력복원장치가 다른 선형 함수들을 사용하여 하기식에 의하여 맵핑하는 것이 특징인 뉴로-퍼지통합 데이터 처리 시스템.
함수값=4×(중심산출실현부의 출력-0.2)/0.6+1
제23∼25항중 임의의 1항에 있어서, 상기 후건부 멤버쉽 함수 곡선의 횡좌표에 대응하는 값들로서 난수들이 사용되고, 상기 난수들을 선형함수에 의하여, 상기 중심산출 실현부인 계층 뉴랄 네트워크의 입력범위내로 맵핑되어 모델 데이터가 발생되어, 학습데이터로서 공급되고, 중심학습장치가 설치되어 상기 계층 뉴랄 네트워크를 학습하는 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제26항에 있어서, 상기 중심학습장치가 상기 후건부 멤버쉽 함수 곡선의 횡좌표에 대응하는 값들로서 난수들을 발생하는 난수발생부와 상기 후건부 멤버쉽 함수 곡선의 복수의 횡좌표치와 모델 데이터치를 포함한 정수들을 기억하는 정수기억부와; 상기 정수기억부에 기억된 정수와 상기 난수발생부에 의해 발생된 난수에 따라서, 상기 난수를 선형함수에 의하여, 상기 중심산출실현부의 계층 뉴랄 네트워크의 입력범위내로 맵핑함으로써 모델데이터를 발생하는 모델 데이터 발생부를 구비한 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 후건부 멤버쉽 함수 실현부/비퍼지부가, 하나의 출력 유니트와 1이상의 중간층을 구비함으로써 분할 네트워크를 형성하고; 상기 룰부에 의해 출력되는 1이상의 후건부 멤버쉽 함수의 확대/축소율로서 퍼지룰의 그레이드치를 출력하는 유니트와 상기 두 입력 유니트중 제1유니트간의 결선의 가중치가 각 퍼지룰의 후부에서 특정되는 후건부 멤버쉽 함수 곡선의 횡좌표값으로서 설정되며, 상기 퍼지룰의 그레이드치를 출력하는 유니트와 상기 두 입력유니트중 제2유니트간의 결선의 가중치는 1로 설정되며; 상기 분할 네트워크가, 상기 제1유니트의 입력의 합을 상기 제2유니트의 입력의 합에 의하여 분할한 결과를 출력하는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제28항에 있어서, 상기 분할 네트워크의 두 입력유니트의 입력간의 결선의 가중치가, 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 학습처리중에 백프로게이션법으로 학습될 수 있는 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 결정된 감도의 상한과 하기와 같이 정의되는 가중치 W와 임계치θ로써 실현될 수 있고 :
W=4/(b-a), θ=2(a+b)/(b-a)
여기서, 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고; y=0(x≤a일때), Y=(x-a)/(b-a)(a<x<b일때), Y=1(x≤b일때), 뉴톤의 특성이 하기식 Y=1/(1+exp(-WX+θ))과 같이 정의되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 결정된 감도의 상한과 하기와 같이 정의되는 가중치 W와 임계치 θ로써 실현될 수 있고 :
W=2/(b-a), θ=(a+b)/(b-a)
여기서, 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(x≤a일때), Y=(x-a)/(b-a)(a<x<b일때), Y=1(x≤b일때), 뉴톤의 특성이 하기식 Y=0.5+0.5tanh(WX-θ)과 같이 정의되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 결정된 감도의 상한과 하기와 같이 정의되는 가중치 W와 임계치θ로써 실현될 수 있고 :
W=5.3605/(b-a), θ=2.6802(a+b)/(b-a)
여기서 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(x≤a일 때), Y=(X-a)/(b-a)(a<x<b일 때), Y=1(x=b일 때), 뉴톤의 특성이 하기식
Y=1/(1+exp(-WX+θ))
과 같이 정의되는 것이 특징인 뉴로-퍼지융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 최소화된 오차절대치의 적분과 하기와 같이 정의되는 가중치 W와 임계치 θ로써 실현될 수 있고 :
W=2.6802/(b-a), θ=1.3401(a+b)/(b-a)
여기서, 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(x≤a일 때), Y=(x-a)/(b-a)(a<x<b일 때), Y=1(x=b일 때), 뉴톤의 특성이 하기식
Y=0.5+0.5tanh(WX-θ)
과 같이 정의되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 최소화된 최대오차의 2제곱의 적분과 하기와 같이 정의되는 가중치 W와 임계치 θ로써 실현될 수 있고 :
W=5.3012/(b-a), θ=2.6506(a+b)/(b-a)
여기서, 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(X≤a일 때), Y=(x-a)/(b-a)(a<x<b일 때), Y=1(x≤b일 때), 뉴톤의 특성이 하기식
Y=1/(1+exp(-WX+θ))
과 같이 정의되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 최소화된 최대오차의 2제곱의 적분과 하기와 같이 정의되는 가중치 W와 임계치 θ로써 실현될 수 있고 :
W=2.6506/(b-a), θ=1.3253(a+b)/(b-a)
여기서, 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(x≤a일 때), Y=(x-a)/(b-a)(a<x<b일 때), Y=1(x≤b일 때), 뉴톤의 특성이 하기식
Y=0.5+0.5tanh(WX-θ)
과 같이 정의되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 최소화된 최대오차와 하기와 같이 정의되는 가중치 W와 임계치 θ로써 실현될 수 있고 :
W=5.648(b-a), θ=2.824(a+b)/(b-a)
여기서, 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(x≤a일 때), Y=(x-a)/(b-a)(a<x<b일 때), Y=1(x≤b일 때), 뉴톤의 특성이 하기식
Y=1/(1+exp(-WX+θ))
과 같이 정의되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 뉴로처리에 의하여 구해진 멤버쉽 함수의 근사가, 최소화된 최대오차와 하기와 같이 정의되는 가중치 W와 임계치 θ로써 실현될 수 있고 :
W=2.824(b-a), θ=1.412(a+b)/(b-a)
여기서, 상기 전건부 멤버쉽 함수가 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(x≤a일 때), Y=(x-a)/(b-a)(a<x<b일 때), Y=1(x≤b일 때), 뉴톤의 특성이 하기식
Y=0.5+0.5tanh(WX-θ)
과 같이 정의되는 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 제2층의 두 유니트중 하나의 가중치 W와 임계치 θ가 하기와 같이 정의되고 :
W=4/c, θ=2(2a-2b-c)/c
상기 다른 유니트의 가중치 W와 임계치 θ는 하기와 같이 정의되고 :
W=-4/c, θ=-2(2a+2b+c)/c
여기서, 상기 전건부 멤버쉽 함수가, 하기와 같은 입력 X와 출력 Y간의 관계로서 정의되고 : Y=0(x≤a-b-c일 때), Y=(x-(a-b-c))/c(a-b-c-<x≤a-b일 때), Y=1(a-b<x≤a+일 때), Y=-(x-(a+b+c))/c(a+b<x≤a+b+c일 때), Y=0(a+b+c<x일 때)
3층 계층 뉴랄 네트워크가, 1/c로서 결정된 감도의 상한으로써 상기 멤버쉽 함수의 근사를 실현하며, 이 네트워크는; 입력치를 그대로 출력하는 1유니트를 갖는 제1층과, 비선형 특성을 갖는 두 유니트를 갖는 제2층 및 상기 제2층의 두 뉴톤의 출력의 합에서 1을 감산하여 얻어진 결과를 출력하는 1뉴톤을 갖는 제3층으로 구성돼 있고, 상기 제2층의 유니트의 특성이 하기식
Y=1/(1+exp(-WX+θ))
과 같은 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 제2층의 두 유니트중 하나의 가중치 W와 임계치 θ가 하기와 같이 정의되고 :
W=2/c, θ=(2a-2b-2c)/c
상기 다른 유니트의 가중치 W와 임계치 θ는 하기와 같이 정의되고 :
W=-2/c, θ=-(2a+2b+c)/c
여기서, 상기 전건부 멤버쉽 함수가, 하기와 같이 입력 X와 출력 Y의 관계로서 정의되고 : Y=0(x≤a-b-c일 때) Y=(x-(a-b-c))/c(a-b-c-<x≤a-b일 때), Y=1(a-b<x≤a+b일 때), Y=-(x-(a-b-c))/c(a+b<x≤a+b+c일 때), Y=0(a+b+c<x일 때)
3층 계층 뉴랄 네트워크가, 1/c로서 결정된 감도의 상한으로써 상기 멤버쉽 함수를 근사하며 : 이 네트워크는 : 입력치를 그대로 출력하는 1유니트를 갖는 제1층과, 비선형 특성을 갖는 두 유니트를 갖는 제2층 및 상기 제2층의 두 뉴톤의 출력의 합에서 1을 감산하여 얻어진 결과를 출력하는 1뉴톤을 갖는 제3층으로 구성돼 있고, 상기 제2층의 유니트의 특성이 하기식
Y=0.5+0.5tanh(WX-θ)
과 같은 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 제2층의 두 유니트중 하나의 가중치 W와 임계치 θ가 하기와 같이 정의되고 :
W=5.468/, θ=2.824(2a-2b-c)/c,
상기 다른 유니트의 가중치 W와 임계치 θ는 하기와 같이 정의되고 :
W=-5.468/c, θ=-2.824(2a+2b+c)/c,
여기서, 상기 전건부 멤버쉽 함수가, 하기와 같이 입력 X와 출력 Y의 관계로서 정의되고 : Y=0(x≤a-b-c-일 때), Y=(x-(a-b-c))/c(a-b-c-<x≤a-b일 때), Y=1(a-b<x≤a+b일 때), Y=-(x-(a+b+c))/c(a+b+x≤a+b+c일 때), Y=0(a+b+c<x일 때)
3층 계층 뉴랄 네트워크가, 최소화된 최대오차로써 상기 멤버쉽 함수의 근사를 실현하며, 이 네트워크는 : 입력치를 그대로 출력하는 1유니트를 갖는 제1층과, 비선형 특성을 갖는 두 유니트를 갖는 제2층 및 상기 제2층의 두 뉴톤의 출력의 합에서 1을 감산하여 얻어진 결과를 출력하는 1뉴톤을 갖는 제3층으로 구성돼 있고, 상기 제2층의 유니트의 특성이 하기식
Y=1/(1+exp(-WX+θ))
과 같은 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
제1∼3항중 임의의 1항에 있어서, 상기 제2층의 두 유니트중 하나의 가중치 W와 임계치 θ가 하기식과 같이 정의되고 :
W=2.824/c, θ=1.412(2a-2b-c)/c,
상기 다른 유니트의 가중치 W와 임계치 θ는 하기와 같이 정의되고 :
W=-2.824/c, θ=1.412(2a+2b-c)/c
여기서, 상기 전건부 멤버쉽 함수가, 하기와 같이 입력 X와 출력 Y의 관계로서 정의되고 : Y=0(x≤a-b-c-일 때), Y=(x-(a-b-c))/c(a-b-c-<x≤a-b일 때), Y=1(a-b<x≤a+b일 때), Y=-(x-(a+b+c))/c(a+b+x≤a+b+c일 때), Y=0(a+b+c<x일 때)
3층 계층 뉴랄 네트워크가, 최소화된 최대오차로써 상기 멤버쉽 함수의 근사를 실현하며, 이 네트워크는 : 입력치를 그대로 출력하는 1유니트를 갖는 제1층과, 비선형 특성을 갖는 두 유니트를 갖는 제2층 및 상기 제2층의 두 뉴톤의 출력의 합에서 1을 감산하여 얻어진 결과를 출력하는 1뉴톤을 갖는 제3층으로 구성돼 있고, 상기 제2층의 유니트의 특성이 하기식
Y=0.5+0.5tanh(WX-θ)
과 같은 것이 특징인 뉴로-퍼지 융합 데이터 처리 시스템.
입력된 제어상태량에 대응하는 제어조작량을, 퍼지제어룰에 따라서 산출 및 출력하는 뉴로퍼지 융합데이터 처리 시스템의 계층 네트워크에서의 네트워크 구조 변환 시스템에서; 1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되며, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치를 입력으로하여 1이상의 시스템 출력 신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지 처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지 처리부로 구성돼 있고 적어도 상기 룰부가 계층 뉴랄 네트워크로 구성돼 있으며; 상기 네트워크구조는, 상기 계층 뉴랄 네트워크의 특정 층들간의 전체 데이터 처리에 대한 중요치 않은 결선을 검출 및 제거함으로써, 간소화할 수 있는 것이 특징인 네트워크 구조변환 시스템.
제42항에 있어서, 상기 계층 뉴랄 네트워크가 최초에는 모든 이웃층들이 전결합된 순 뉴로이고; 상기 순 뉴로가 룰부 전결합 순 뉴로로 변환되며, 이 뉴로에서는 상기 전건부 멤버쉽 함수 실현부와 상기 룰부간, 상기 룰부내의 이웃하는 부분간, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에만 전결합되는 한편; 전체 데이터 처리에 대한 중요치 않은 결선은, 상기 전건부 멤버쉽 함수 실현부의 나머지 부분 전부와 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에서는 제거되는 것이 특징인 네트워크 구조변환 시스템.
제42항에 있어서, 상기 계층 뉴랄 네트워크가 최초에는 모든 이웃층들이 전결합된 순 뉴로이고; 상기 순 뉴로가 룰부 전결합 순 뉴로로 변환되며, 이 뉴로에서는 상기 전건부 멤버쉽 함수 실현부와 상기 룰부간, 상기 룰부내의 이웃하는 부분간, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에만 전결합되는 한편; 전체 데이터 처리에 대한 중요치 않은 결선은, 상기 전건부 멤버쉽 함수 실현부의 나머지 부분 전부와 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에서는 제거되는 것이 특징인 네트워크 구조변환 시스템.
제42항에 있어서, 상기 계층 뉴랄 네트워크가 최초에는 적어도 상기 룰부내의 뉴랄 네트워크를 포함하며, 상기 전건부 멤버쉽 함수 실현부와, 상기 룰부간, 상기 룰부의 이웃하는 부분간, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에만 전결합된 룰부 전결합 뉴로이고; 상기 룰부 전결합 뉴로는, 상기 전건부 멤버쉽 함수 실현부와 상기 룰부간, 상기 룰부내의 이웃 부분간, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에서, 전체 처리에 대한 중요치 않은 결선이 제거된 롤부 프리와이어 뉴로로 변환되는 것이 특징인 계층 네트워크 구조 변환방법.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 전건부 멤버쉽 함수의 1이상의 그레이드치를 출력하기 위한 건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되며, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드를 입력으로하여 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지 처리부를 구비하며; 입력되는 제어상태량에 대한 제어조작량을 퍼지제어룰에 따라서 산출하여 출력하는 뉴로퍼지 융합 데이터 처리시스템에 있어서; 적어도 룰부가 계층형 뉴랄 네트워크를 구성하고 있고, 상기 계층형 뉴랄 네트워크가, 룰부 프리와이어 뉴로이고, 상기 룰부 프리와이어 뉴로의 각 유니트의 기능을 해석하여 특정 논리요소의 기능에 대응시킴으로써, 룰부 프리와이어 뉴로로부터 퍼지룰을 추출하는 것이 특징인 퍼지모델 추출방법.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고 전건부 멤버쉽 함수의 적합도를 표시하는 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되며, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치를 입력으로하여 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지 처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지 처리부를 구비하고 있고, 입력되는 제어상태량에 대한 제어조작량을 퍼지제어룰에 따라서 산출하여 출력하는 뉴로퍼지 융합 데이터 처리시스템에서; 입력부, 전건부 멤버쉽 함수 실현부, 룰부 및 적어도 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 일부가 계층 뉴랄 네트워크를 구성하고 있고, 상기 계층 뉴랄 네트워크가, 전건부 멤버쉽 함수 실현부와 룰부간, 룰부내의 이웃층간 룰부와 후건부 멤버쉽 함수 실현부/버퍼지 처리부간에만 전결합되고, 나머지 전건부 멤버쉽 함수 실현부 및 후건부 멤버쉽 함수 실현부/비퍼지 처리부내에서는 전체 데이터 처리에 대해 중요치 않은 결선이 제거된 룰부 전결합 뉴로이고, 상기 룰부 전결합 뉴로를 해석하여 멤버쉽 함수를 추출하는 것이 특징인 퍼지모델 추출방법.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 전건부 멤버쉽 함수의 적합도를 표시하는 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되며, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치를 입력으로하여 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지 처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지 처리부를 구비하고 있고, 입력되는 제어상태량에 대한 제어조작량을 퍼지제어룰에 따라서 산출하여 출력하는 뉴로퍼지 융합 데이터 처리시스템에서; 입력부, 전건부 멤버쉽 함수 실현부, 룰부 및 적어도 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 일부가 계층 뉴랄 네트워크를 구성하고 있고, 상기 계층 뉴랄 네트워크가 최초에는 모든 이웃층들이 전결합된 순 뉴로이고; 상기 순 뉴로가 룰부 전결합 순뉴로로 변환되며, 이 뉴로에서는, 상기 전건부 멤버쉽 함수 실현부와 상기 룰부간, 상기 룰부내의 이웃하는 부분간, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에만 전결합되는 한편; 전체 데이터 처리에 대한 중요치 않은 결선은, 상기 전건부 멤버쉽 함수 실현부의 나머지 부분 전부와 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에서는 제거되고, 상기 룰부 전결합 뉴로를 해석하여 멤버쉽 함수를 추출하는 것이 특징인 퍼지모델 추출방법.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 전건부 멤버쉽 함수의 적합도를 표시하는 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되며 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치를 입력으로하여 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지 처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지 처리부를 구비하고 있고, 입력되는 제어상태량에 대한 제어조작량을 퍼지제어룰에 따라서 산출하여 출력하는 뉴로 퍼지 융합 데이터 처리시스템에서; 입력부, 전건부 멤버쉽 함수 실현부, 룰부 및 적어도 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 일부가 계층 뉴랄 네트워크를 구성하고 있고, 상기 계층 뉴랄 네트워크가 최초에는 모든 이웃층들이 전결합된 순 뉴로이고; 상기 순 뉴로가 룰부 프리와이어 뉴로로 변환되며, 이 뉴로에서는, 전체 데이터 처리에 대한 중요치 않은 결선은, 상기 전건부 멤버쉽 함수 실현부의 층들과 룰부간 상기 룰부와 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에서는 제거되고, 상기 룰부 프리와이어 뉴로를 해석하여 멤버쉽 함수를 추출하는 것이 특징인 퍼지모델 추출방법.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 전건부 멤버쉽 함수의 적합도를 표시하는 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되며, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드를 입력으로하여 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한후 비퍼지 처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지 처리부를 구비하고 있고, 입력되는 제어상태량에 대한 제어조작량을 퍼지제어룰에 따라서 산출하여 출력하는 뉴로-퍼지 융합 데이터 처리시스템에서; 입력부, 전건부 멤버쉽 함수 실현부, 룰부 및 적어도 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 일부가 계층 뉴랄 네트워크를 구성하고 있고, 상기 계층 뉴랄 네트워크가 최초에는 모든 이웃층들이 전결합된 순 뉴로이고,; 상기 순 뉴로가 룰부 프리와이어 뉴로로 변환되며, 이 뉴로에서는, 전체 데이터 처리에 대한 중요치 않은 결선은, 상기 전건부 멤버쉽 함수 실현부의 층들과 룰부간, 룰부와 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에서는 제거되고, 상기 룰부 프리와이어 뉴로를 해석하여 퍼지룰을 추출하는 것이 특징인 퍼지 모델 추출방법.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 전건부 멤버쉽 함수의 적합도를 표시하는 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되며, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치를 입력으로하여 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지 처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지 처리부를 구비하고 있고, 입력되는 제어상태량에 대한 제어조작량을 퍼지제어룰에 따라서 산출하여 출력하는 퍼지 융합 데이터 처리시스템에서; 입력부, 전건부 멤버쉽 함수 실현부, 룰부 및 적어도 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 일부가 계층 뉴랄 네트워크를 구성하고 있고, 적어도 룰부가 계층 뉴랄 네트워크를 구성하며, 상기 계층 뉴랄 네트워크가, 상기 전건부 멤버쉽 함수 실현부와 상기 룰부간, 상기 룰부내의 이웃하는 부분간, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에만 전결합된 룰부 전결합 뉴로이고; 상기 룰부 전결합 뉴로는, 상기 전건부 멤버쉽 함수 실현부와 상기 룰부간, 상기 룰부내의 이웃 부분간, 그리고 상기 룰부와 상기 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 전체 처리에 대한 중요치 않은 결선이 제거된 룰부 프리와이어 뉴로로 변환되며, 상기 룰부 프리와이어 뉴로를 해석하여 퍼지룰을 추출하는 것이 특징인 퍼지모델 추출방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지 처리부에 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후 속의 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에는, 그리고 룰부내의 이웃층간에서 전유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고, 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 전건부 멤버쉽 함수 실현부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기 설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 선험적 지식에 의하여 가중치를 초기 설정하는 제1과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부의 가중치를 학습시키는 제2과정과; 학습데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지 처리부의 전체 가중치를 학습시키는 제3과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로 된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후속의 후건부 멤버쉽 함수 실현부/비퍼지 처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고, 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 룰부의 선험적 지식에 의하여, 또는, 난수를 사용하여 가중치를 초기 설정함과 동시에 상기 룰부 빛 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기 설정하는 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제3과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후 속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고, 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 룰부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정하는 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부의 가중치를 학습시키는 제3과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실험부/비퍼지처리부의 전체 가중치를 학습시키는 제4과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후 속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고, 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 전건부 멤버쉽 함수 실현부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정하는 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과; 학습데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부의 가중치를 학습시키는 제3과정과; 학습데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제4과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로 된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후 속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 전건부 멤버쉽 함수 실현부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 빛 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정하는 제1과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부와 룰부의 가중치를 동시에 학습시키는 제2과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제3과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로된 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후 속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고, 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 전건부 멤버쉽 함수 실현부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과; 학습 데이터를 사용하여 상기 후건부 멤버쉽 함수 실현부의 가중치를 학습시키는 제3과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제4과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로 된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고, 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 룰부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정하는 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부의 가중치를 학습시키는 제3과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제4과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후 속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고, 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 룰부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과 학습 데이터를 사용하여 상기전건부 멤버쉽 함수 실현부의 가중치를 학습시키는 제3과정과 l 학습 데이터를 사용하여 상기 후건부 멤버쉽 함수 실현부/비퍼지처리부의 가중치를 학습시키는 제4과정과; 학습 데이터를 사용하여 사이 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제5과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 전건부 멤버쉽 함수 실현부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정하는 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과; 학습데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제3과정과; 학습 데이터를 사용하여 상기 후건부 멤버쉽 함수 실현부/비퍼지처리부의 가중치를 학습시키는 제4과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제5과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
전건부 멤버쉽 함수 실현부, 1이상의 계층으로 된 룰부, 및 후건부 멤버쉽 함수 실현부/비퍼지처리부로 된 계층 네트워크를 갖으며, 상기 룰부는 선행의 전건부 멤버쉽 함수 실현부 및/또는 후 속의 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서, 그리고 룰부내의 이웃층간에서 전 유니트간을 내부 결합시키지 않고 제어룰에 따라서 일부가 내부 결합돼 있고 입력되는 제어상태량(X1, X2, …Xn)에 대응하는 1이상의 제어조작량(Y)을 출력하는 룰부 프리와이어 뉴로의 학습방법에 있어서, 상기 전건부 멤버쉽 함수 실현부 및 룰부의 선험적 지식에 의하여, 또는 난수를 사용하여 가중치를 초기설정함과 동시에, 상기 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 선험적 지식에 의하여 가중치를 초기설정 하는 제1과정과; 학습 데이터를 사용하여 상기 룰부의 가중치를 학습시키는 제2과정과; 학습 데이터를 사용해서 상기 후건부 멤버쉽 함수 실현부/비퍼지처리부의 가중치를 학습시키는 제3과정과; 학습 데이터를 사용하여 상기 전건부 멤버쉽 함수 실현부, 룰부 및 후건부 멤버쉽 함수 실현부/비퍼지처리부의 전체 가중치를 학습시키는 제4과정을 실행하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
제52∼61항중 임의의 1항에 있어서, 최초로 가중치의 학습을 행하는 부분의 상기 제1과정에서의 초기 가중치의 설정은, 선험적 지식으로 설정가능한 가중치는 상기 지식으로 초기설정하고, 그 외에는 난수를 사용하여 초기설정하는 것이 특징인 룰부 프리와이어 뉴로의 학습방법.
데이터 처리대상의 입출력 신호관계를 퍼지추론형식으로 기술하는 퍼지모델의 전건부 멤버쉽 함수, 퍼지룰 및 후건부 멤버쉽 함수에 따라서, 전건부 멤버쉽 함수 실현부내, 전건부 멤버쉽 함수 실현부와 룰부간, 룰부내, 룰부와 후건부 멤버쉽 함수 실현부/비퍼지처리부간 및 후건부 멤버쉽 함수 실현부/비퍼지처리부내의 결합의 가중치와 임계치를 설정하고, 상기 퍼지모델을 룰부 프리와이어 뉴로로 변환하는 것이 특징인 퍼지모델로부터 룰부 프리와이어 뉴로에의 변환방법.
제63항에 있어서, 상기 룰부 프리와이어 뉴로에, 상기 퍼지모델의 입출력 데이터를 학습시킴으로써, 상기 룰부 프리와이어 뉴로를 동조시키는 것이 특징인 퍼지모델로부터 룰부 프리와이어 뉴로에의 변환방법.
데이터 처리대상의 입출력 신호관계를 퍼지추론 형식으로 기술하는 퍼지모델의 전건부 멤버쉽 함수 및 후건부 멤버쉽 함수에 따라서, 전건부 멤버쉽 함수 실현부내 및 후건부 멤버쉽 함수 실현부/비퍼지처리부내의 결합의 가중치와 임계치를 설정하고, 상기 퍼지모델을 전건부 멤버쉽 함수 실현부와 룰부간, 룰부내 및 룰부와 후건부 멤버쉽 함수 실현부/비퍼지처리부간에서 각각 이웃층들이 완전결합된 룰부 전결합 뉴로로 변환하는 것이 특징인 퍼지모델로부터 룰부 전결합 뉴로에의 변환방법.
제65항에 있어서, 상기 룰부 전결합 뉴로에 상기 퍼지모델의 입출력 데이터를 학습시킴으로써, 상기 룰부 전결합 뉴로를 동조시키는 것이 특징인 퍼지모델로부터 룰부 전결합 뉴로에의 변환방법.
데이터 처리대상의 입출력 신호관계를 퍼지추론 형식으로 기술하는 퍼지모델과, 전체의 인접하는 계층간이 전결합돼 있는 계층 뉴랄 네트워크인 순 뉴로를 구비하며, 상기 퍼지모델의 입출력데이터를 순 뉴로에 학습시킴으로써, 상기 퍼지 모델의 데이터처리기능을 순 뉴로상에 맵핑하는 것이 특징인 퍼지모델로부터 순 뉴로에의 변환방법.
전체의 인접하는 계층간이 완전결합돼 있는 계층 뉴랄 네트워크인 순 뉴로와, 전건부 멤버쉽 함수 실현부와 룰부간, 룰부내의 이웃층간 및 룰부와 후건부 멤버쉽 함수 실현부/비퍼지처리부간의 각각의 계층에서의 전체 처리에 대해서 중요치 않은 결선이 제거된 룰부 프리와이어 뉴로를 구비하며, 상기 순 뉴로의 입출력 데이터를 룰부 프리와이어 뉴로에 학습시킴으로써, 순 뉴로의 데이터처리기능을 룰부 프리와이어 뉴로상에 맵핑하는 것이 특징인 순뉴로로부터 룰부 프리와이어 뉴로에의 변환방법.
전체의 인접하는 계층간이 완전결합돼 있는 계층 뉴랄 네트워크인 순 뉴로와; 전건부 멤버쉽 함수 실현부와 룰부간, 룰부내의 이웃층간 및 룰부와 후건부 멤버쉽 함수 실현부/비퍼지처리부간에만 각각 완전 결합되고, 나머지의 전건부 멤버쉽 함수 실현부 및 후견부 멤버쉽 함수 실현부/비퍼지처리부내에서는 전체 데이터처리에 중요치 않은 결선이 제거돼 있는 룰부 전결합 뉴로를 구비하며, 상기 순 뉴로의 입출력데이터를 룰부 전결합 뉴로에 학습시킴으로써, 순 뉴로의 데이터처리기능을 룰부 전결합 뉴로상에 맵핑하는 것이 특징인 순 뉴로로부터 룰부 전결합 뉴로에의 변환방법.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 전건부 멤버쉽 함수의 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성돼 있고, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치로서 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수의 확대/축소율을 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 확대/축소율을 수신하고, 이 확대/축소율에 따라서 후건부 멤버쉽 함수를 확대/축소한 후 비퍼지처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지처리부를 구비하며; 상기 룰부가 뉴톤에 의해서 구성된 것을 특징으로 하는 뉴로-퍼지융합 데이터 처리 시스템.
1이상의 입력신호들을 수신하는 입력부와; 상기 입력부에 후속돼 있고, 상기 1이상의 입력 신호들에 대응해서, 멤버쉽 함수의 적합도를 표시하는 1이상의 그레이드치를 출력하기 위한 전건부 멤버쉽 함수 실현부와; 상기 전건부 멤버쉽 함수 실현부에 후속돼 있고, 1이상의 층을 갖는 네트워크로 구성되고, 상기 멤버쉽 함수의 그레이드치를 수신하며, 퍼지룰의 그레이드치로서 1이상의 시스템 출력신호에 대응하는 1이상의 후건부 멤버쉽 함수를 변형하기 위한 변형정보를 퍼지룰의 그레이드치로서 출력하는 룰부와; 상기 룰부에 후속돼 있고, 상기 후건부 멤버쉽 함수의 변형정보를 수신하고, 이 변형정보에 따라서 후건부 멤버쉽 함수의 변형을 행한 후, 비퍼지처리를 연산하고, 시스템 출력신호를 출력하는 후건부 멤버쉽 함수 실현부/비퍼지처리부를 구비한 것을 특징으로 하는 뉴로-퍼지융합 데이터 처리 시스템.
KR1019910701593A 1990-03-12 1991-03-12 뉴로-퍼지 융합 데이터처리 시스템 Expired - Fee Related KR950012380B1 (ko)

Applications Claiming Priority (23)

Application Number Priority Date Filing Date Title
JP90-60260 1990-03-12
JP90-60256 1990-03-12
JP90-60259 1990-03-12
JP2060261A JP2763369B2 (ja) 1990-03-12 1990-03-12 ファジィ制御ルールのチューニング方法
JP90-60263 1990-03-12
JP2060259A JP2763367B2 (ja) 1990-03-12 1990-03-12 ファジィ制御ルールの生成方法
JP2060263A JP2763371B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成ファジィ制御器
JP90-60257 1990-03-12
JP90-60261 1990-03-12
JP90-60262 1990-03-12
JP2060260A JP2763368B2 (ja) 1990-03-12 1990-03-12 ファジィ制御におけるメンバーシップ関数のチューニング方法
JP2060257A JP2744321B2 (ja) 1990-03-12 1990-03-12 適応型データ処理装置の解析処理方法
JP2060256A JP2763366B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム
JP90-60258 1990-03-12
JP2060258A JP2544821B2 (ja) 1990-03-12 1990-03-12 階層ネットワ―ク構成デ―タ処理装置
JP2060262A JP2763370B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成ファジィ制御器
JP90-66851 1990-03-19
JP2066851A JP2501932B2 (ja) 1990-03-19 1990-03-19 ニュ―ラルネットワ―クによる重心決定要素出力装置
JP2066852A JP2761569B2 (ja) 1990-03-19 1990-03-19 重心決定要素出力装置の教師信号決定装置
JP90-66852 1990-03-19
JP2197919A JPH0484356A (ja) 1990-07-27 1990-07-27 ニューラルネットワークによる重心出力装置
JP90-197919 1990-07-27
PCT/JP1991/000334 WO1991014226A1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system

Publications (2)

Publication Number Publication Date
KR920702784A KR920702784A (ko) 1992-10-06
KR950012380B1 true KR950012380B1 (ko) 1995-10-17

Family

ID=27582038

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019910701593A Expired - Fee Related KR950012380B1 (ko) 1990-03-12 1991-03-12 뉴로-퍼지 융합 데이터처리 시스템

Country Status (5)

Country Link
US (2) US5875284A (ko)
EP (1) EP0471857B1 (ko)
KR (1) KR950012380B1 (ko)
CA (1) CA2057078C (ko)
WO (1) WO1991014226A1 (ko)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5875284A (en) * 1990-03-12 1999-02-23 Fujitsu Limited Neuro-fuzzy-integrated data processing system
JP2605505B2 (ja) * 1991-07-04 1997-04-30 株式会社日立製作所 プロセス運転支援ルール獲得システム、プロセス運転支援システム、プロセス運転制御システム及びプロセス運転支援ルール獲得方法
WO1993020530A1 (de) * 1992-04-06 1993-10-14 Siemens Aktiengesellschaft Strukturierung von neuronalen netzen durch regelbasiertes wissen
EP0635152B1 (en) * 1992-04-09 1998-07-01 Omron Corporation Neural network/fuzzy conversion device
EP0740256A3 (en) * 1994-05-03 1996-11-06 Yamatake-Honeywell Co. Ltd. Building management set value decision support apparatus, set value learning apparatus, set value determining apparatus, and neural network operation apparatus
JP3129932B2 (ja) * 1995-05-16 2001-01-31 シャープ株式会社 ファジィ・ニューラルネットワーク装置およびその学習方法
EP0935784A2 (en) * 1996-11-04 1999-08-18 3-Dimensional Pharmaceuticals, Inc. System, method and computer program product for identifying chemical compounds having desired properties
US6289329B1 (en) * 1997-11-26 2001-09-11 Ishwar K. Sethi System for converting neural network to rule-based expert system using multiple-valued logic representation of neurons in feedforward network
NZ503882A (en) * 2000-04-10 2002-11-26 Univ Otago Artificial intelligence system comprising a neural network with an adaptive component arranged to aggregate rule nodes
US6269306B1 (en) * 2000-06-13 2001-07-31 Ford Global Tech. System and method for estimating sensor errors
JP2003308427A (ja) * 2002-02-15 2003-10-31 Fujitsu Ltd モデル構築プログラム、モデル構築方法およびモデル構築装置
EP1395080A1 (en) * 2002-08-30 2004-03-03 STMicroelectronics S.r.l. Device and method for filtering electrical signals, in particular acoustic signals
US20080255684A1 (en) * 2002-11-18 2008-10-16 Universiti Putra Malaysia Artificial intelligence device and corresponding methods for selecting machinability data
MY141127A (en) * 2002-11-18 2010-03-15 Univ Putra Malaysia Artificial intelligence device and corresponding methods for selecting machinability data
US8374974B2 (en) * 2003-01-06 2013-02-12 Halliburton Energy Services, Inc. Neural network training data selection using memory reduced cluster analysis for field model development
US20050102303A1 (en) * 2003-11-12 2005-05-12 International Business Machines Corporation Computer-implemented method, system and program product for mapping a user data schema to a mining model schema
US20050114277A1 (en) * 2003-11-21 2005-05-26 International Business Machines Corporation Method, system and program product for evaluating a data mining algorithm
US7349919B2 (en) * 2003-11-21 2008-03-25 International Business Machines Corporation Computerized method, system and program product for generating a data mining model
US7523106B2 (en) * 2003-11-24 2009-04-21 International Business Machines Coporation Computerized data mining system, method and program product
US7292245B2 (en) * 2004-01-20 2007-11-06 Sensitron, Inc. Method and apparatus for time series graph display
US20060036453A1 (en) * 2004-08-11 2006-02-16 Allan Williams Bias compensated method and system for patent evaluation
US8145639B2 (en) * 2004-08-11 2012-03-27 Allan Williams System and methods for patent evaluation
US8161049B2 (en) * 2004-08-11 2012-04-17 Allan Williams System and method for patent evaluation using artificial intelligence
US7840460B2 (en) * 2004-08-11 2010-11-23 Allan Williams System and method for patent portfolio evaluation
US8145640B2 (en) * 2004-08-11 2012-03-27 Allan Williams System and method for patent evaluation and visualization of the results thereof
US20070112695A1 (en) * 2004-12-30 2007-05-17 Yan Wang Hierarchical fuzzy neural network classification
US7587373B2 (en) * 2005-06-24 2009-09-08 Halliburton Energy Services, Inc. Neural network based well log synthesis with reduced usage of radioisotopic sources
US7613665B2 (en) 2005-06-24 2009-11-03 Halliburton Energy Services, Inc. Ensembles of neural networks with different input sets
GB2462380B (en) * 2007-03-14 2012-02-15 Halliburton Energy Serv Inc Neural-network based surrogate model construction methods and applications thereof
US8112372B2 (en) * 2007-11-20 2012-02-07 Christopher D. Fiorello Prediction by single neurons and networks
US9514388B2 (en) * 2008-08-12 2016-12-06 Halliburton Energy Services, Inc. Systems and methods employing cooperative optimization-based dimensionality reduction
US8352495B2 (en) 2009-12-15 2013-01-08 Chalklabs, Llc Distributed platform for network analysis
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
CN120068980A (zh) 2015-01-28 2025-05-30 谷歌有限责任公司 批次归一化层

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0682396B2 (ja) * 1985-10-22 1994-10-19 オムロン株式会社 メンバーシップ関数合成装置およびファジィ・システム
JPH0797284B2 (ja) * 1986-09-03 1995-10-18 株式会社日立製作所 ファジー推論によるディジタル制御方法
JPH01183763A (ja) * 1988-01-18 1989-07-21 Fujitsu Ltd ネットワーク構成データ処理装置学習処理方式
EP0378689B1 (en) * 1988-05-20 1998-03-18 Matsushita Electric Industrial Co., Ltd. Inference rule determination method and inference apparatus
US5255344A (en) * 1988-05-20 1993-10-19 Matsushita Electric Industrial Co., Ltd. Inference rule determining method and inference device
JP2682060B2 (ja) * 1988-09-29 1997-11-26 オムロン株式会社 コントローラ、及びコントローラの出力範囲の決定方法
JPH0293904A (ja) * 1988-09-30 1990-04-04 Omron Tateisi Electron Co ファジィ制御装置およびファジィ制御方法
US5343553A (en) * 1988-11-04 1994-08-30 Olympus Optical Co., Ltd. Digital fuzzy inference system using logic circuits
JPH02189635A (ja) * 1989-01-18 1990-07-25 Yamaha Corp ファジィ推論装置
JPH02208787A (ja) * 1989-02-09 1990-08-20 Yasuo Nagazumi フアジイ演算回路および該回路を用いたファジイ計算機
JPH02231670A (ja) * 1989-03-03 1990-09-13 Sharp Corp ニューラル・ネットワークの学習装置
US5303385A (en) * 1989-03-17 1994-04-12 Hitachi, Ltd. Control system having optimality decision means
US5191638A (en) * 1989-03-31 1993-03-02 Matsushita Electric Industrial Co., Ltd. Fuzzy-boolean multi-stage inference apparatus
JPH02260001A (ja) * 1989-03-31 1990-10-22 Matsushita Electric Ind Co Ltd ファジィ同定器
JPH02292602A (ja) * 1989-05-02 1990-12-04 Nkk Corp 人工神経回路網型ファジィ制御装置
JPH0690668B2 (ja) * 1989-10-20 1994-11-14 三菱電機株式会社 ファジイ演算装置
JP2561162B2 (ja) * 1990-01-29 1996-12-04 三菱電機株式会社 演算処理用半導体装置
US5875284A (en) * 1990-03-12 1999-02-23 Fujitsu Limited Neuro-fuzzy-integrated data processing system

Also Published As

Publication number Publication date
WO1991014226A1 (en) 1991-09-19
KR920702784A (ko) 1992-10-06
US5875284A (en) 1999-02-23
CA2057078C (en) 2000-04-11
CA2057078A1 (en) 1991-09-13
US6456989B1 (en) 2002-09-24
EP0471857A4 (en) 1993-04-28
EP0471857A1 (en) 1992-02-26
EP0471857B1 (en) 2000-02-02

Similar Documents

Publication Publication Date Title
KR950012380B1 (ko) 뉴로-퍼지 융합 데이터처리 시스템
US6119112A (en) Optimum cessation of training in neural networks
Flood et al. Neural networks in civil engineering. I: Principles and understanding
EP1515270A1 (en) An artificial neural network
WO1989011684A1 (en) Inference rule determination method and inference apparatus
Zhukovskyy et al. Neural network clustering technology for cartographic images recognition
CN113625753A (zh) 一种由专家规则引导神经网络学习无人机机动飞行的方法
Alvanitopoulos et al. Neuro-fuzzy techniques for the classification of earthquake damages in buildings
Papageorgiou et al. Introducing interval analysis in fuzzy cognitive map framework
Anderson et al. Reinforcement learning with modular neural networks for control
Dedeakayogullari et al. The determination of mean and/or variance shifts with artificial neural networks
Li et al. Design and development of a data structure visualisation system using the ant colony algorithm
CN109872334A (zh) 一种图像分割方法及装置
JPH04291662A (ja) 階層ネットワーク構成演算素子
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JPH06119175A (ja) 階層ネットワーク構成ファジイモデル実行装置の構造変換方式およびファジィモデル抽出方式
JPH03268077A (ja) ニューラルネットワークによる重心決定要素出力装置
JPH04275632A (ja) ニューラルネットワークによるミディアム型メンバシップ関数の構成方式
JP2761569B2 (ja) 重心決定要素出力装置の教師信号決定装置
Sawaragi et al. Integrated cognitive architecture for image understanding using fuzzy clustering and structured neural network
JP3085312B2 (ja) 文字認識学習方法、および文字認識装置
JP3292495B2 (ja) ニューロ・ファジィ融合システム
JP2559877B2 (ja) ファジィ制御器
JP2559881B2 (ja) ファジィ制御器
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク

Legal Events

Date Code Title Description
A201 Request for examination
PA0105 International application

St.27 status event code: A-0-1-A10-A15-nap-PA0105

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

G160 Decision to publish patent application
PG1605 Publication of application before grant of patent

St.27 status event code: A-2-2-Q10-Q13-nap-PG1605

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U12-oth-PR1002

Fee payment year number: 1

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

FPAY Annual fee payment

Payment date: 20031013

Year of fee payment: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20041018

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20041018

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000