KR101039874B1 - Information Communication Integrated Platform Test System - Google Patents
Information Communication Integrated Platform Test System Download PDFInfo
- Publication number
- KR101039874B1 KR101039874B1 KR1020110030527A KR20110030527A KR101039874B1 KR 101039874 B1 KR101039874 B1 KR 101039874B1 KR 1020110030527 A KR1020110030527 A KR 1020110030527A KR 20110030527 A KR20110030527 A KR 20110030527A KR 101039874 B1 KR101039874 B1 KR 101039874B1
- Authority
- KR
- South Korea
- Prior art keywords
- test
- information
- integrated platform
- module
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012360 testing method Methods 0.000 title claims abstract description 298
- 238000004891 communication Methods 0.000 title claims abstract description 62
- 238000013515 script Methods 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000012038 vulnerability analysis Methods 0.000 claims abstract description 5
- 230000010354 integration Effects 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 47
- 239000003795 chemical substances by application Substances 0.000 description 21
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Prevention of errors by analysis, debugging or testing of software
- G06F11/3668—Testing of software
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Prevention of errors by analysis, debugging or testing of software
- G06F11/3668—Testing of software
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Prevention of errors by analysis, debugging or testing of software
- G06F11/3668—Testing of software
- G06F11/3672—Test management
- G06F11/3692—Test management for test results analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Abstract
본 발명은 정보통신 통합플랫폼의 개별 입력 매체에 대해 수동으로 수행한 테스트 내역을 입력 데이터, 출력 데이터, 호출 메서드(Method), 및 수행sql정보로 세분화하여 데이터를 획득하고 이를 통합해서 저장하며, 저장한 데이터를 기반으로 테스트를 자동 재현하고 FP(Function Point) 형태로 소프트웨어의 규모를 분석하기 위한 정보통신 통합플랫폼 테스트 시스템에 관한 것으로,
정보를 수집하는 정보 수집부(100)와, 상기 정보 수집부(100)로부터 수집된 정보를 제공받고 테스트 마스터 서버(400)로 정보통신 통합플랫폼(200)을 테스트하기 위한 정보를 제공하여 상기 테스트 마스터 서버(400)가 상기 정보통신 통합플랫폼(200)의 테스트를 수행하도록 하는 정보통신 통합플랫폼(200)과, 및 상기 정보통신 통합플랫폼(200)으로부터 제공되는 정보를 소비하는 정보 소비부(300)를 구비하는 정보통신 통합플랫폼 테스트 시스템으로서,
상기 정보통신 통합플랫폼(200)은,
상기 정보 수집부(100)와의 통신에 따른 데이터 및 내부 호출관계 정보를 획득하는 소켓 에이전트(210);
상기 정보 소비부(300)와의 통신에 따른 데이터 및 내부 호출관계 정보를 획득하는 Http 에이전트(220);
상기 소켓 에이전트(210) 및 상기 Http 에이전트(220)가 획득한 정보를 수집하는 수집정보큐(230); 및
상기 수집정보큐(230)로부터 제공되는 정보를 상기 테스트 마스터 서버(400)로 전송하는 마스터 연계모듈(240);
을 포함하고,
상기 테스트 마스터 서버(400)는,
상기 마스터 연계모듈(240)로부터 수신한 테스트정보를 테스트정보저장소(412)에 저장하는 에이전트 연계모듈(410);
복수의 테스트정보를 그룹핑하여 테스트 단위로 생성하는 테스트시나리오 생성모듈(420);
테스트시나리오를 재현하는 테스트 재현모듈(430);
자유로운 재현을 위한 스크립트 생성모듈(440);
스크립트를 이용하여 부하를 발생시키는 부하발생모듈(450);
테스트 재현을 통하여 보안 취약점을 분석하는 보안취약점 분석모듈(460);
테스트 시 호출한 거래명과 메서드명 및 sql을 통해 규모를 산정하는 FP분석모듈(470);
저장한 테스트시나리오를 일괄 실행하는 회귀테스트모듈(480);
테스트 시스템의 데이터를 저장하는 테스트정보저장소(412); 및
테스트 수행 및 결과 분석 정보를 제공하는 분석서비스부(414);
를 포함하는 것을 특징으로 한다.
이와 같은 본 발명은 정보통신 통합플랫폼(200)과 연계하는 입출력 매체의 개별적인 테스트 데이터의 발생 없이 기 수행한 테스트 정보를 기반으로 전체 매체의 테스트를 일괄적으로 수행할 수 있으므로 정보통신 통합플랫폼(200)의 단위테스트, 통합테스트, 회귀테스트, 및 부하테스트의 효율성이 향상되는 효과가 있다.The present invention obtains data by dividing the test history manually performed on the individual input media of the information communication integration platform into input data, output data, method, and performance sql information, and stores the data by integrating and storing the data. ICT integrated platform test system for automatically reproducing a test based on one data and analyzing the size of the software in the form of a function point (FP),
The test is provided by receiving information collected from the information collecting unit 100 and the information collecting unit 100 and collecting information from the information collecting unit 100 to test the information communication integrated platform 200 to the test master server 400. Information communication unit 300 and the information consumption unit 300 for consuming the information provided from the information communication integrated platform 200 to the master server 400 to perform the test of the information communication integrated platform 200. ICT integrated platform test system having a
The information communication integrated platform 200,
A socket agent 210 for acquiring data and internal call relation information according to communication with the information collecting unit 100;
An Http agent 220 for acquiring data and internal call relation information according to communication with the information consuming unit 300;
A collection information queue 230 for collecting information obtained by the socket agent 210 and the Http agent 220; And
A master association module 240 for transmitting the information provided from the collection information queue 230 to the test master server 400;
Including,
The test master server 400,
An agent linkage module 410 for storing test information received from the master linkage module 240 in a test information store 412;
A test scenario generation module 420 for generating a test unit by grouping a plurality of test information;
A test reproduction module 430 for reproducing a test scenario;
A script generation module 440 for free reproduction;
A load generation module 450 for generating a load using a script;
Security vulnerability analysis module 460 for analyzing the security vulnerability through the test reproduction;
An FP analysis module 470 for calculating a size through a transaction name and a method name and sql called during a test;
A regression test module 480 for collectively executing the stored test scenarios;
A test information store 412 storing data of a test system; And
An analysis service unit 414 which provides test performance and result analysis information;
Characterized in that it comprises a.
As such, the present invention can collectively perform a test of the entire medium based on previously performed test information without generating individual test data of the input / output medium associated with the information communication integrated platform 200. The efficiency of unit tests, integration tests, regression tests, and load tests can be improved.
Description
본 발명은 정보통신 통합플랫폼(Integration Platform) 테스트 시스템에 관한 것으로, 특히, 정보통신 통합플랫폼의 개별 입력 매체에 대해 수동으로 수행한 테스트 내역을 입력 데이터, 출력 데이터, 호출 메서드(Method), 및 수행sql정보로 세분화하여 데이터를 획득하고 이를 통합해서 저장하며, 저장한 데이터를 기반으로 테스트를 자동 재현하고 규모를 분석하기 위한 정보통신 통합플랫폼 테스트 시스템에 관한 것이다.
The present invention relates to an ICT Integration Platform test system, and more particularly, to input data, output data, method, and performing test details manually performed on individual input media of the ICT Integration Platform. Data communication integrated platform test system for acquiring data, integrating and storing it by sql information, and automatically reproducing and analyzing the test based on the stored data.
일반적으로 정보통신 통합 플랫폼은 RFID(Radio Frequency Identification), USN(Ubiquitous Sensor Network), 및 ITS(intelligent transport system) 등 다양한 입력 매체로부터 정보를 수집하여 출력매체인 통합관제, 의료, 보안, 방범 등의 용도로 활용하기 위한 기반이 되는 시스템이다.
In general, the information and communication integration platform collects information from various input media such as Radio Frequency Identification (RFID), Ubiquitous Sensor Network (USN), and intelligent transport system (ITS), and integrates output control such as integrated control, medical, security, and security. It is the base system to use for the purpose.
그러나 이와 같은 종래의 정보통신 통합 플랫폼에 있어, 다양한 입력 매체와 정보를 소비하는 형태에 따른 출력 단말의 다양성을 반영한 테스트를 수행하기 위해서는 각각의 입력 매체 및 출력 단말에 대해 테스트가 가능하도록 개별적으로 시뮬레이터를 기동시키거나 혹은 직접 해당 매체를 이용하여 테스트를 수행하여야 하므로 전체 입출력 매체를 연계하는 통합 관점의 회귀테스트 및 부하테스트의 수행이 매우 어렵고 구축 시스템이 시스템 설계 시 소프트웨어 규모 산정 기법에 의해 산정한 기능점수(Function Point)와 동일한지 확인하기 위해서는 수동으로 소스를 분석하여야 하는 번거로움이 있었다.
However, in such a conventional information and communication integration platform, in order to perform a test reflecting the diversity of output terminals according to various input media and types of information consumption, each of the input media and output terminals can be individually tested so that a test can be performed. It is very difficult to perform the regression test and load test from the integrated point of view that connect the entire input / output media because the test should be performed by using the corresponding media or directly. There was a hassle to manually analyze the source to see if it was equal to the Function Point.
본 발명은 전술한 과제를 해결하기 위하여 안출한 것으로, 정보통신 통합플랫폼의 개별 입력 매체에 대해 수동으로 수행한 테스트 내역을 입력 데이터, 출력 데이터, 호출 메서드(Method), 및 수행sql정보로 세분화하여 데이터를 획득하고 이를 통합해서 저장하며, 저장한 데이터를 기반으로 테스트를 자동 재현하고 테스트 결과에 기반하여 기능점수(Function Point)를 측정하기 위한 정보통신 통합플랫폼 테스트 방법 및 시스템을 제공하는 데 그 목적이 있다.
The present invention has been made to solve the above-mentioned problems, and the test history manually performed on the individual input medium of the information communication integrated platform is divided into input data, output data, method, and performance sql information. To provide an information and communication integrated platform test method and system for acquiring data, integrating and storing it, and automatically reproducing the test based on the stored data and measuring the function point based on the test result. There is this.
이와 같은 목적을 달성하기 위하여,In order to achieve this object,
본 발명의 일 형태에 따르면,According to one embodiment of the present invention,
정보를 수집하는 정보 수집부(100)와, 상기 정보 수집부(100)로부터 수집된 정보를 제공받고 테스트 마스터 서버(400)로 정보통신 통합플랫폼(200)을 테스트하기 위한 정보를 제공하여 상기 테스트 마스터 서버(400)가 상기 정보통신 통합플랫폼(200)의 테스트를 수행하도록 하는 정보통신 통합플랫폼(200)과, 및 상기 정보통신 통합플랫폼(200)으로부터 제공되는 정보를 소비하는 정보 소비부(300)를 구비하는 정보통신 통합플랫폼 테스트 시스템으로서,The test is provided by receiving information collected from the
상기 정보통신 통합플랫폼(200)은,The information communication integrated
상기 정보 수집부(100)와의 통신에 따른 데이터 및 내부 호출관계 정보를 획득하는 소켓 에이전트(210);A
상기 정보 소비부(300)와의 통신에 따른 데이터 및 내부 호출관계 정보를 획득하는 Http 에이전트(220);An
상기 소켓 에이전트(210) 및 상기 Http 에이전트(220)가 획득한 정보를 수집하는 수집정보큐(230); 및A
상기 수집정보큐(230)로부터 제공되는 정보를 상기 테스트 마스터 서버(400)로 전송하는 마스터 연계모듈(240);A
을 포함하고,
Including,
상기 테스트 마스터 서버(400)는,The
상기 마스터 연계모듈(240)로부터 수신한 테스트정보를 테스트정보저장소(412)에 저장하는 에이전트 연계모듈(410);An
복수의 테스트정보를 그룹핑하여 테스트 단위로 생성하는 테스트시나리오 생성모듈(420);A test
테스트시나리오를 재현하는 테스트 재현모듈(430);A
자유로운 재현을 위한 스크립트 생성모듈(440);A
스크립트를 이용하여 부하를 발생시키는 부하발생모듈(450);A
테스트 재현을 통하여 보안 취약점을 분석하는 보안취약점 분석모듈(460);Security
테스트 시 호출한 거래명과 메서드명 및 sql을 통해 규모를 산정하는 FP분석모듈(470);An
저장한 테스트시나리오를 일괄 실행하는 회귀테스트모듈(480);A
테스트 시스템의 데이터를 저장하는 테스트정보저장소(412); 및A
테스트 수행 및 결과 분석 정보를 제공하는 분석서비스부(414);An
를 포함하는 것을 특징으로 한다.
Characterized in that it comprises a.
상기 테스트시나리오 생성모듈(420)은 상기 연계모듈(410)로부터 수신한 정보를 이용하여 테스트 내역을 복수로 선택하여 하나의 테스트시나리오로 생성하는 것을 특징으로 한다.
The test
상기 보안취약점 분석 모듈(460)은 수집한 정보를 기반으로 입력 데이터에 보안 취약점을 분석하기 위한 시험 데이터를 대체 삽입하여 테스트 대상 시스템에 전송하고 그 결과로 수신한 출력 데이터를 분석하여 보안 취약점이 존재하는지 확인하는 것을 특징으로 한다.
The security
상기 FP분석모듈(470)은 테스트 수행시 획득한 정보와 통합플랫폼 구축 시 일관성을 확보하기 위해 생성한 네이밍 룰(Naming Rule)을 기반으로 거래명, 내부 메서드명과 sql 및 sql수행결과 정보를 이용하여 FP의 EI, EQ, EO, DET, RET를 추출하여 산정한 규모가 타당한지를 확인 가능하도록 하는 것을 특징으로 한다.
The
상기 테스트 마스터 서버(400)는 테스트 수행시 획득한 정보를 기반으로 프로그램별 테스트 성공/실패 횟수를 일자별로 조회하여 자동으로 테스트진척관리가 가능하도록 하는 것을 특징으로 한다.
The
본 발명은, 담당자가 수동 테스트를 수행하지 않더라도 정보통신 통합플랫폼(200)과 연계하는 입출력 매체에서 기 수행한 테스트 정보를 저장하여 전체 매체의 테스트를 일괄적으로 수행할 수 있으므로 정보통신 통합플랫폼(200)의 단위테스트, 통합테스트, 회귀테스트, 및 부하테스트의 효율성이 향상되는 효과가 있다.According to the present invention, even if a person in charge does not perform a manual test, the test information stored in the input / output medium associated with the ICT integrated
또한 보안 취약점을 점검하기 위한 입력 데이터를 사전에 정의하여 이를 테스트 대상 시스템에 전송하고 출력 데이터를 수신하여 보안 취약점이 존재하는지 분석하고 메서드의 네이밍 룰을 이용하여 소프트웨어 규모 산정 기법인 FP의 측정 요소를 식별함으로써 테스트 결과에 기반하여 구축 시스템의 규모를 분석할 수 있다.
In addition, input data to check for security vulnerabilities is defined in advance, transmitted to the system under test, and output data is received to analyze whether there is a security vulnerability. By identifying, you can analyze the scale of the build system based on the test results.
도 1은 본 발명에 따른 정보통신 통합플랫폼 테스트 시스템의 일 실시 예를 나타낸 블록도이다.
도 2는 도 1에 도시된 정보통신 통합플랫폼 테스트 시스템의 동작을 나타낸 도면이다.
도 3a는 도 1에 도시된 정보통신 통합플랫폼(200)과 테스트 마스터 서버(400) 간 통신 프로토콜을 나타낸 도면이다.
도 3b는 도 3a에 따른 통신 데이터의 구분자의 설명을 나타낸 도면이다.
도 3c는 도 3a에 따른 통신 데이터의 예를 나타낸 도면이다.
도 4는 도 1에 도시된 정보통신 통합플랫폼(200) 내의 에이전트(210, 220)가 소켓통신과 Http 통신의 입출력 데이터를 획득하는 것을 나타낸 블록도이다.
도 5는 도 1에 도시된 정보통신 통합플랫폼(200) 내의 에이전트(210, 220)가 서비스명, 메서드명, 수행sql을 수집하는 실시 예를 나타낸 도면이다.
도 6은 도 1에 도시된 테스트 마스터 서버(400)의 에이전트 연계모듈(410)이 수신한 데이터를 테스트 정보 저장소(412)에 저장하는 과정을 단계별로 나타낸 도면이다.
도 7a는 전체테스트수행내역 화면으로, 거래명, IP, 출처, 테스트시나리오, 프로젝트/회차, 결과, 시작일시, 수행시간을 조회하는 것을 나타낸 도면이다.
도 7b는 테스트정보상세 화면으로, 메서드 간 호출관계, 메서드별 수행시간(ms), 메서드에서 호출한 sql 및 바인드(bind) 변수 값을 조회하는 것을 나타낸 도면이다.
도 7c는 입출력 데이터 조회 화면으로, 테스트한 프로그램의 입력데이터를 조회하고 출력 데이터를 화면 형태로 표시하는 것을 나타낸 도면이다.
도 7d는 테스트 통계 정보로, 테스트 진척관리 정보를 자동으로 생성하는 화면을 나타낸 도면이다.
도 8a는 테스트 수행내역 화면에서 시나리오 생성 대상을 선택하여 테스트 시나리오를 생성하는 실시 예를 나타낸 도면이다.
도 8b는 테스트 수행내역 화면에서 시나리오 생성 대상을 복수로 선택하는 모습을 나타낸 화면이다.
도 8c는 테스트 시나리오를 등록하는 관리화면을 나타낸 도면이다.
도 8d는 테스트시나리오를 목록 형태로 조회하는 화면을 나타낸 도면이다.
도 9a는 테스트시나리오를 선택하여 자동으로 재현하는 실시 예를 나타낸 도면이다.
도 9b는 재현할 테스트시나리오를 선택하는 화면을 나타낸 도면이다.
도 9c는 테스트시나리오를 재현한 결과 화면을 나타낸 도면이다.
도 10a는 테스트수행내역화면에서 스크립트 생성 대상을 복수로 선택하여 스크립트를 생성하는 실시 예를 나타낸 도면이다.
도 10b는 스크립트 생성 대상을 복수로 선택한 테스트수행내역화면을 나타낸 도면이다.
도 10c는 스크립트 생성 결과를 나타낸 화면을 나타낸 도면이다.
도 10d는 스크립트 템플릿을 표시한 화면을 나타낸 도면이다.
도 11은 스크립트를 복수로 선택하여 부하를 발생시키는 실시 예를 나타낸 도면이다.
도 12는 테스트 입력 데이터를 가공하여 테스트 후 보안 취약점을 분석하는 실시 예를 나타낸 도면이다.
도 13은 테스트정보를 기반으로 거래명, 메서드명, sql을 분석하여 소프트웨어 규모 산정 기법인 FP의 측정항목을 식별하는 실시 예를 나타낸 도면이다.
도 14a는 저장한 테스트시나리오를 일괄 실행하는 회귀테스트 수행을 나타낸 도면이다.
도 14b는 회귀테스트 시작시간을 설정하는 관리 화면을 나타낸 도면이다.
도 14c는 회귀테스트 결과 요약정보를 표시하는 화면을 나타낸 도면이다.
도 14d는 회귀테스트 결과 상세정보를 표시하는 화면을 나타낸 도면이다.1 is a block diagram showing an embodiment of an information communication integrated platform test system according to the present invention.
2 is a view showing the operation of the information communication integrated platform test system shown in FIG.
3A is a diagram illustrating a communication protocol between the information communication integrated
FIG. 3B is a diagram illustrating a delimiter of communication data according to FIG. 3A. FIG.
3C is a diagram illustrating an example of communication data according to FIG. 3A.
FIG. 4 is a block diagram showing that the
FIG. 5 is a diagram illustrating an embodiment in which
6 is a diagram illustrating a step-by-step process of storing data received by the
FIG. 7A is a view showing the entire test performance screen, inquiring a transaction name, IP, source, test scenario, project / time, result, start date and time.
FIG. 7B is a test information detail screen showing a query relationship between methods, execution time per method (ms), and sql and bind variable values called by methods.
FIG. 7C is an input / output data inquiry screen, which shows input data of a tested program and displays output data in a screen form.
FIG. 7D is a diagram illustrating a screen for automatically generating test progress management information as test statistics information.
8A is a diagram illustrating an embodiment of generating a test scenario by selecting a scenario generation target on a test execution history screen.
8B is a screen illustrating a plurality of scenario generation targets selected on a test execution history screen.
8C is a diagram illustrating a management screen for registering a test scenario.
8D illustrates a screen for inquiring test scenarios in a list form.
9A is a diagram illustrating an example of automatically selecting and reproducing a test scenario.
9B is a diagram illustrating a screen for selecting a test scenario to be reproduced.
9C is a diagram illustrating a result screen of reproducing a test scenario.
10A is a diagram illustrating an embodiment of generating a script by selecting a plurality of script generation targets on a test execution history screen.
10B is a diagram illustrating a test execution history screen in which a plurality of script generation targets are selected.
10C is a diagram illustrating a screen showing a script generation result.
10D is a diagram illustrating a screen displaying a script template.
11 is a diagram illustrating an embodiment of generating a load by selecting a plurality of scripts.
12 is a diagram illustrating an embodiment of analyzing a security vulnerability after testing by processing test input data.
FIG. 13 is a diagram illustrating an embodiment of identifying a measurement item of FP, which is a software scaling technique, by analyzing transaction name, method name, and sql based on test information.
14A is a diagram illustrating a regression test performed by collectively executing stored test scenarios.
14B is a diagram illustrating a management screen for setting a regression test start time.
14C is a diagram illustrating a screen displaying regression test result summary information.
14D is a diagram illustrating a screen displaying detailed information of a regression test result.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세히 설명하면 다음과 같다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 정보통신 통합플랫폼 테스트 시스템의 일 실시 예를 나타낸 블록도로, 정보 수집부(100), 정보통신 통합플랫폼(200), 정보 소비부(300), 테스트 마스터 서버(400), 및 테스트 수행 담당(500)으로 구성된다.1 is a block diagram showing an embodiment of the information communication integrated platform test system according to the present invention, the
도 1에 있어서, 정보 수집부(100)는 다양한 입력매체를 의미하며, 정보 소비부(300)는 정보통신 통합플랫폼(200)의 정보를 사용하는 유형을 나타낸다.In FIG. 1, the
정보통신 통합플랫폼(200) 내부에 소스 수정 없이 테스트 정보를 획득하는 에이전트를 설치하는데 에이전트는 TCP/IP 입출력 데이터를 획득하는 소켓 에이전트(Socket agent)(210)와 Http 입출력 정보를 획득하는 Http 에이전트(220)로 구분한다. 에이전트(210, 220)에서 획득한 정보는 내부 자료 구조인 수집정보큐(230)에 저장되며 이는 주기적으로 마스터 연계모듈(240)에서 포울(poll)하여 테스트 마스터 서버(400)에 전송한다.An agent for acquiring test information without modifying a source is installed in the information
테스트 마스터 서버(400)에서는 수신한 테스트정보를 테스트정보저장소(412)에 저장하는 에이전트 연계모듈(410)이 존재하며, 복수의 테스트정보를 그룹핑하여 테스트 단위로 생성하는 테스트시나리오 생성모듈(420), 테스트시나리오를 재현하는 테스트 재현모듈(430), 자유로운 재현을 위한 스크립트 생성모듈(440), 스크립트를 이용하여 부하를 발생시키는 부하발생모듈(450), 테스트 재현을 통하여 보안 취약점을 분석하는 보안취약점 분석모듈(460), 테스트 시 호출한 거래명과 메서드명 및 sql을 통해 규모를 산정하는 FP분석모듈(470), 저장한 테스트시나리오를 일괄 실행하는 회귀테스트모듈(480), 테스트 시스템의 데이터를 저장하는 테스트정보저장소(412), 테스트 수행 및 결과 분석 정보를 제공하는 분석서비스부(414)로 구성된다.
In the
도 2는 도 1에 도시된 정보통신 통합플랫폼 테스트 시스템의 동작을 나타낸 도면으로, 먼저 정보 수집부(100)는 정보통신 통합플랫폼(200)으로 TCP/IP 프로토콜을 사용하여 정보를 제공한다.FIG. 2 is a diagram illustrating an operation of the information communication integrated platform test system shown in FIG. 1. First, the
정보통신 통합플랫폼(200)은 테스트 마스터 서버(400)로 HTTP 프로토콜을 사용하여 테스트 정보를 전송한다.The information
정보통신 통합플랫폼(200)은 정보 소비부(300)로 HTTP 프로토콜을 사용하여 정보를 전송한다.The information
테스트 마스터 서버(400)는 테스트 수행담당(500)에게 HTTP 프로토콜을 사용하여 분석서비스를 제공한다.
The
도 3a는 도 1에 도시된 정보통신 통합플랫폼(200)과 테스트 마스터 서버(400) 간 통신 프로토콜을 나타낸 도면으로, 대분류 항목은 요청유형, 테스트정보요약, 테스트정보상세, 및 입출력데이터 항목으로 구성되며 거래명, 클라이언트정보, 쓰레드id, 전체시작일시, 전체종료일시, 데이터베이스 연결정보, SQL 수행정보, 및 전체 수행시간 등 총 23개 항목으로 구성된다.
FIG. 3A is a diagram illustrating a communication protocol between the information communication integrated
도 3b는 도 3a에 따른 통신 데이터의 구분자의 설명을 나타낸 도면으로, 정보통신 통합플랫폼(200)과 테스트 마스터 서버(400) 간 통신 프로토콜에 따른 통신 데이터는 구분자에 의해 구분되는데 대분류 항목은 '$·'로 구분하고 반복항목은 '|'로 구분하며 최하위 항목은 '^'로 구분한다.
3B is a diagram illustrating the delimiter of the communication data according to FIG. 3A. Communication data according to the communication protocol between the information communication integrated
도 3c는 도 3a에 따른 통신 데이터의 예를 나타낸 도면으로, 실제 통신 데이터는 해당 항목의 값이 일렬로 채워진 바이트 스트림(Byte Stream) 형태이다.
FIG. 3C is a diagram illustrating an example of communication data according to FIG. 3A. The actual communication data is in the form of a byte stream in which a value of the corresponding item is filled in a line.
도 4는 도 1에 도시된 정보통신 통합플랫폼(200) 내의 에이전트(210, 220)가 소켓통신과 Http 통신의 입출력 데이터를 획득하는 것을 나타낸 블록도로, 물리적인 클래스 파일(Class File)이 메모리에 로딩되는 시점에 BCI(Byte Code Instrument) 기법을 사용하여 소켓 에이전트(210), Http 에이전트(220)는 통신 프로토콜별 입출력 데이터를 획득하는 코드를 동적으로 삽입하고 획득한 입출력 데이터를 수집정보큐(230)에 제공한다.
FIG. 4 is a block diagram showing that the
도 5는 도 1에 도시된 정보통신 통합플랫폼(200) 내의 에이전트(210, 220)가 서비스명, 메서드명, 수행sql을 수집하는 실시 예를 나타낸 도면으로, BCI 기법을 통하여 메서드 내부의 시작 시점에 모니터링 정보를 획득하고 이를 거래 단위의 메서드 정보 보관 소켓에 푸시(push)하고 메서드 종료시점에 획득한 종료정보를 반영하기 위하여 시작시점에 저장한 정보를 팝(pop)하여 변경 정보를 갱신하고 다시 푸시한다.FIG. 5 is a diagram illustrating an embodiment in which
거래가 종료되면 메서드 정보보관 스택(Stack)에 존재하는 데이터를 일괄 팝하여 거래 단위의 테스트 정보를 일련의 스트링(String) 정보로 일괄 정렬하여 수집정보큐(230)에 제공한다.When the transaction is completed, the data existing in the method information storage stack is collectively popped, and the test information of the transaction unit is collectively sorted into a series of string information and provided to the
마스터 연계모듈(240)은 주기적으로 수집정보큐(230)에 존재하는 데이터를 일괄로 추출하여 테스트 마스터 서버(400)의 에이전트 연계모듈(410)에 전송한다.
The
도 6은 도 1에 도시된 테스트 마스터 서버(400)의 에이전트 연계모듈(410)이 수신한 데이터를 테스트 정보 저장소(412)에 저장하는 과정을 단계별로 나타낸 도면으로, 정보통신 통합플랫폼(200)의 마스터 연계모듈(240)에서 송신한 테스트 정보를 테스트 마스터 서버(400)의 에이전트 연계모듈(410)이 수신하여 입력데이터의 유효성을 체크하여 유효하지 않은 전문은 로그를 남기고 스킵하며, 유효한 전문은 도 3b와 같은 구분자를 기반으로 파싱하여 테스트정보저장소(412)에 저장한다.FIG. 6 is a diagram illustrating a step-by-step process of storing data received by the
테스트정보저장소(412)는 일반적으로 데이터베이스를 의미하여 테스트 자동화를 위한 임베디드 데이터베이스(embbeded database)형태를 이용한다.
The
도 7a는 전체테스트수행내역화면으로, 거래명, IP, 출처, 테스트시나리오, 시나리오, 프로젝트/회차, 결과, 시작일시, 수행시간을 조회하는 것을 나타낸 도면으로, 데이터베이스 커넥션 연결횟수가 데이터베이스 커넥션 반환횟수보다 크거나 SQL수행을 의미하는 스테이트먼트 열기 횟수가 스테이트먼트 닫기 횟수보다 크면 데이터베이스 리소스의 유출이 발생함을 의미한다.
FIG. 7A is a view showing the entire test performance screen, which shows the transaction name, IP, source, test scenario, scenario, project / time, result, start date, execution time, and database connection connection count. If the number of statement open that is larger or means to execute SQL is greater than the number of statement close, it means that the database resource leak occurs.
도 7b는 테스트정보상세 화면으로, 메서드 간 호출관계, 메서드별 수행시간(ms), 메서드에서 호출한 sql 및 바인드 변수 값을 조회하는 것을 나타낸 도면으로, 화면을 통하여 수행시간이 긴 메서드를 식별하여 병목 분석에 활용이 가능하며 sql의 수행시간을 분석하여 지연 sql을 식별하여 튜닝할 수 있도록 정보를 제공할 수 있다. DB 열기 횟수가 데이터베이스 DB닫기 횟수보다 크거나 SQL 열기 횟수가 SQL 닫기 횟수보다 크면 데이터베이스 리소스의 유출이 발생함을 의미한다.
FIG. 7B is a test information detail screen. It is a view showing query relationships between methods, execution time for each method (ms), and sql and bind variable values called by the method. The method with long execution time is identified through the screen. It can be used for bottleneck analysis and can provide information to identify and tune the delayed sql by analyzing the execution time of the sql. If the number of open DB is greater than the number of database closes or the number of SQL open is greater than the number of SQL closes, it means that a database resource leak occurs.
도 7c는 입출력 데이터 조회 화면으로, 테스트한 프로그램의 입력데이터를 조회하고 출력 데이터를 화면 형태로 표시하는 것을 나타낸 도면으로, 입력 데이터는 HTTP 및 TCP 요청 데이터를 표시하며 출력 데이터는 TCP/IP의 경우 전문 형태로 표시하고 HTTP의 경우 화면으로 표시한다.
FIG. 7C is an input / output data inquiry screen, which shows input data of a tested program and displays output data in a screen form. Input data represents HTTP and TCP request data, and output data is TCP / IP. It is displayed in full form and in the case of HTTP.
도 7d는 테스트 통계 정보로, 테스트 진척관리 정보를 자동으로 생성하는 화면을 나타낸 도면으로, 일반적으로 테스트 진척관리는 개발자, 테스터, 관리자가 수동으로 테스트하고 테스트 관리 시스템에 등록하는 방식을 사용하나 본 발명에서는 테스트를 하면 실시간으로 자동 집계하여 테스트 진척 정보를 확인할 수 있도록 한다.
FIG. 7D is a view illustrating a screen for automatically generating test progress management information as test statistics information. In general, test progress management uses a method in which developers, testers, and administrators manually test and register a test management system. In the present invention, when the test is performed, the test progress information can be checked by automatically counting in real time.
도 8a는 테스트수행내역화면에서 테스트시나리오 생성 대상을 선택하여 테스트시나리오를 생성하는 실시 예를 나타낸 도면으로, 기 수행한 테스트 정보를 기반으로 클릭을 통해 간편하게 복수의 테스트 대상을 선택하여 논리적인 테스트시나리오로 그룹핑하여 테스트시나리오 단위로 재현이 가능하도록 기본 정보를 생성한다.
FIG. 8A is a diagram illustrating an embodiment of generating a test scenario by selecting a test scenario generation target on a test execution history screen, and selecting a plurality of test targets simply by clicking on the basis of the previously performed test information to perform a logical test scenario Create basic information to be reproduced in test scenario unit by grouping.
도 8b는 테스트 수행내역에서 테스트시나리오 대상을 복수로 선택하는 모습을 나타낸 화면으로, 기 수행한 테스트 거래 중 테스트시나리오 단위로 그룹핑하고자 하는 대상을 선택한다.
FIG. 8B is a screen illustrating a plurality of test scenario targets selected from a test execution history, and selects targets to be grouped by test scenario units among test transactions.
도 8c는 테스트시나리오를 등록하는 테스트시나리오 관리화면을 나타낸 도면으로, 테스트시나리오ID, 테스트시나리오명, 자동로그인 여부 등을 입력한다.8C is a diagram illustrating a test scenario management screen for registering a test scenario. The test scenario ID, a test scenario name, and whether to automatically log in a test scenario are input.
자동로그인여부를 Y로 설정하면 시나리오를 실행하기 전에 로그인을 수행하고 N으로 설정하면 시나리오의 최초 거래를 로그인 처리한다.
If you set auto login to Y, log in before executing the scenario. If set to N, the first transaction of the scenario is logged in.
도 8d는 생성한 테스트시나리오를 목록 형태로 조회하는 화면을 나타낸 도면으로, 테스트시나리오ID, 테스트시나리오명, 업무시스템을 기본 정보로 포함하고 테스트시나리오ID를 클릭한 경우 상세 화면으로 이동할 수 있다.
FIG. 8D illustrates a screen for inquiring the generated test scenarios in a list form. When the test scenario ID, the test scenario name, and the business system are included as basic information, and the test scenario ID is clicked, FIG.
도 9a는 테스트시나리오를 선택하여 자동으로 재현하는 실시 예를 나타낸 도면으로, 테스트시나리오 화면에서 테스트시나리오를 재현하면 테스트정보저장소의 테스트시나리오정보를 추출하여 입력데이터, 타겟 ip와 port 정보를 식별하여 이를 테스트 대상 시스템에 송신하고 결과전문을 수신하여 성공/실패를 분석하여 테스트 결과 정보를 테스트정보저장소(412)에 저장한다.
FIG. 9A is a diagram illustrating an exemplary embodiment in which a test scenario is automatically reproduced by selecting a test scenario. When the test scenario is reproduced on the test scenario screen, the test scenario information of the test information store is extracted to identify input data, target ip, and port information. The test result information is transmitted to the test target system and the result message is received to analyze the success / failure and store the test result information in the
도 9b는 재현할 테스트시나리오를 선택하는 화면을 나타낸 도면으로, 테스트시나리오 재현 화면에서 테스트시나리오명의 링크에 마우스를 올려놓으면 테스트시나리오 재현이라는 메시지가 뜨고 클릭하면 해당 시나리오가 재현된다.
9B is a diagram illustrating a screen for selecting a test scenario to be reproduced. When a mouse is placed on a link of a test scenario name on a test scenario reproducing screen, a message of reproducing a test scenario is displayed and a corresponding scenario is reproduced.
도 9c는 테스트시나리오를 재현한 결과 화면을 나타낸 도면으로, 호출순서, 거래명, 테스트결과 성공/실패 여부, 시작시간, 종료시간, 입력데이터, 출력 화면을 표시한다.
FIG. 9C is a diagram illustrating a result screen of reproducing a test scenario, and displays a calling order, a transaction name, a test result success / failure, a start time, an end time, input data, and an output screen.
도 10a는 테스트정보요약화면에서 스크립트 생성 대상을 복수로 선택하여 스크립트를 생성하는 실시 예를 나타낸 도면으로, 다양한 테스트 정보 데이터를 스크립트로 생성하기 위해 유형별 스크립트 템플릿을 작성하고 이를 저장한다. 테스트 정보 요약 화면에서 스크립트를 생성할 대상을 선택하고 스크립트 생성 버튼을 클릭하면 스크립트 생성대상의 테스트정보를 이용하기 위하여 테스트정보저장소(412)의 입력데이터를 추출하고 추출한 입력데이터에서 ip, port, 입력 데이터 등의 정보를 식별하여 스크립트 템플릿에 기재된 @*@항목을 대체하는 반영작업을 수행하여 생성한 스크립트를 테스트정보저장소(412)에 저장한다.
FIG. 10A illustrates an embodiment of generating a script by selecting a plurality of script generation targets from a test information summary screen. A script template for each type is created and stored in order to generate various test information data as a script. In the test information summary screen, select a target to generate a script and click the script generation button to extract the input data of the
도 10b는 스크립트 생성 대상을 복수로 선택한 테스트정보요약화면을 나타낸 도면으로, 테스트 정보를 복수로 선택하고 상단의 스크립트 생성버튼을 클릭하면 스크립트가 생성된다.
10B is a diagram illustrating a test information summary screen in which a plurality of script generation targets are selected. When a plurality of test information is selected and a script generation button is clicked on, a script is generated.
도 10c는 스크립트 생성 결과를 나타낸 화면을 나타낸 도면으로, 스크립트는 자바(java) 소스 형태로 생성되어 개발자 도구에서 컴파일 및 재현이 가능하고 컴파일한 클래스를 서버에 올려서 서버에서 테스트시나리오의 SCRIPT 유형으로 등록하여 재현이 가능하다.
10c is a diagram showing a screen showing a result of generating a script. The script is generated in the form of a Java source, which can be compiled and reproduced by a developer tool, and the compiled class is uploaded to a server and registered as a SCRIPT type of a test scenario on the server. Can be reproduced.
도 10d는 스크립트 템플릿을 표시한 화면을 나타낸 도면으로, 입력 매체의 유형별로 작성하여 관리할 수 있으며 @*@처럼 @로 둘러싸인 부분은 입력 데이터에서 해당항목을 식별하여 스크립트로 파싱하는 영역이다.
FIG. 10D illustrates a screen on which a script template is displayed. The script template may be created and managed for each type of input medium. A portion enclosed by @, such as @ * @, is an area for identifying a corresponding item in input data and parsing it with a script.
도 11은 스크립트를 복수로 선택하여 부하를 발생시키는 실시 예를 나타낸 도면으로, 도 9를 통해 테스트시나리오를 재현하는 실시 예 및 관련 화면을 제시하였으며 도 10에서 테스트시나리오를 스크립트로 생성하는 실시 예를 제시하였다.FIG. 11 is a diagram illustrating an embodiment of generating a load by selecting a plurality of scripts. An embodiment of reproducing a test scenario and a related screen are presented through FIG. 9, and an embodiment of generating a test scenario as a script in FIG. 10. Presented.
본 도면에서는 이를 응용하여 생성한 스크립트를 복수로 동시에 재현하는 실시 예를 설명한다. 저장소에 존재하는 복수의 스크립트를 컴파일하여 클래스로 생성하고 이를 복수의 쓰레드(Thread)를 생성하여 쓰레드마다 컴파일한 스크립트 클래스를 실행하도록 하여 테스트 대상시스템에 부하를 발생한다. 쓰레드 별로 부하에 대한 결과를 수신하여 테스트정보저장소(412)에 저장한다. 테스트결과 테스트정보저장소(412)에 저장한 부하발생결과를 이용하여 TPS(Transaction Per Second), 거래별 평균응답시간을 분석하여 시스템 성능을 확인할 수 있다.
In the drawing, an embodiment of simultaneously reproducing a plurality of scripts generated by applying the same will be described. Compiles a plurality of scripts existing in the repository and creates them as classes, and creates a plurality of threads to execute the compiled script classes for each thread, causing a load on the test target system. The result of the load for each thread is received and stored in the
도 12는 테스트 입력 데이터를 가공하여 테스트 후 보안 취약점을 분석하는 실시 예를 나타낸 도면으로, 원리는 특정 입력데이터에 대한 결과를 분석하여 보안취약점이 존재하는지 확인하는 방식이다.12 is a diagram illustrating an embodiment of analyzing a security vulnerability after testing by processing test input data, and a principle is a method of checking whether a security vulnerability exists by analyzing a result of specific input data.
예로, sql 인젝션(injection) 보안 취약점의 경우 로그인 계정 입력란에 admin'--를 입력하였는데 출력데이터에 로그인 성공 화면이 포함될 경우 보안 취약점이 존재하고 cross site script 보안 취약점은 자주 사용하는 검색 폼 변수명인 searchkeyword 값에 <script>alert(document.cookie);</script>를 입력할 경우 출력 데이터에 동일한 구문이 포함된 경우 보안 취약점이 존재한다.For example, in the case of sql injection security vulnerability, if you input admin '-in the login account input box, and the output data includes the login success screen, a security vulnerability exists and the cross site script security vulnerability is a frequently used search form variable name searchkeyword. If you enter <script> alert (document.cookie); </ script> as the value, a security vulnerability exists when the output data contains the same syntax.
이러한 원리를 이용하여 테스트정보저장소(412)에서 입력데이터를 추출(12-2)하고 테스트정보저장소(412)의 보안취약점체크입력데이터를 추출(12-5)하여 12-2에서 추출한 입력데이터의 특정 파라미터의 값을 12-5에서 추출한 보안취약점 식별 값으로 변경(12-4)하고 테스트대상시스템에 전송하고 출력데이터를 분석하여 보안취약점 점검 결과를 테스트정보저장소(412)에 저장한다.
Using this principle, the input data extracted from the test information store 412 (12-2) and the security vulnerability check input data of the test information store 412 (12-5) are extracted from the input data extracted from 12-2. The value of the specific parameter is changed to the security vulnerability identification value extracted in 12-5 (12-4), transmitted to the test target system, the output data is analyzed, and the security vulnerability check result is stored in the
도 13은 테스트정보를 기반으로 거래명, 메서드명, sql을 분석하여 소프트웨어 규모 산정 기법인 FP의 측정항목을 식별하는 실시 예를 나타낸 도면으로, FP를 측정하기 위해서는 EI, EO, EQ, DET, RET 등을 식별해서 해당 항목의 갯수에 기반하여 점수를 산정한다.FIG. 13 is a diagram illustrating an embodiment of identifying measurement items of FP, which is a software scaling technique, by analyzing transaction names, method names, and sql based on test information. In order to measure FP, EI, EO, EQ, DET, The RET is identified and the score is calculated based on the number of items.
수동으로 FP를 측정하는 경우 네이밍 룰에 기반하여 시퀀스 다이어그램(Sequence Diagram)과 메서드명을 분석하여 ILF, EIF를 식별하고 ERD를 분석하여 DET, RET를 식별하고 거래명을 분석하여 EI, EO, EQ를 식별한다.In case of measuring FP manually, ILF, EIF is identified by analyzing sequence diagram and method name based on naming rule, and DET, RET is identified by analyzing ERD, and EI, EO, EQ is analyzed by analyzing transaction name. Identifies
본 발명에서는 이를 응용하여 네이밍 룰에 기반하여 테스트 수행 내역을 분석하고 자동으로 FP를 측정하는 실시 예를 제시한다.The present invention proposes an embodiment of analyzing the test performance history and automatically measuring the FP based on the naming rule by applying this.
예로, 거래명이 'retrieve'로 시작하는 경우 단순 조회인 EQ를 의미하고 'regist'로 시작하는 경우 입력 유형인 EI를 의미하며 'calculate'로 시작하면 계산조회인 EO를 의미함을 유추할 수 있다. 또한 SQL의 칼럼 및 테이블과 조인조건을 분석하여 DET와 RET를 식별할 수 있다.For example, if the trading name starts with 'retrieve', it means EQ, which is a simple query, and if it starts with 'regist', it means EI, which is an input type, and if it starts with 'calculate', it means EO, which is a calculation query. . In addition, DET and RET can be identified by analyzing SQL and column and table and join conditions.
테스트정보저장소(412)에서 거래명, 메서드명, sql을 모두 포함한 테스트정보 상세항목을 추출하고 FP 네이밍 맵핑정보와 비교하여 FP분석을 수행하여 결과를 테스트정보저장소(412)에 저장하여 구축한 시스템의 정량적인 규모를 테스트 결과를 통해 산정할 수 있다.
The
도 14a는 저장한 테스트시나리오를 일괄 실행하는 회귀테스트 수행을 나타낸 도면으로, 테스트정보저장소(412)에 회귀테스트시작시간을 등록하면 잡(Job) 스케줄러에 등록한 작업 프로그램이 주기적으로 시간을 체크하여 회귀테스트 수행시간이 도래하면 테스트정보저장소(412)에서 회귀테스트 목록을 추출하여 테스트 재현 모듈을 실행한다. 테스트 재현은 테스트 대상시스템에 전문을 송신하고 테스트 결과 출력 데이터를 수신하여 테스트정보저장소(412)에 저장한다.
FIG. 14A is a diagram illustrating a regression test performed by collectively executing stored test scenarios. When a regression test start time is registered in the
도 14b는 회귀테스트 시작시간을 설정하는 관리 화면을 나타낸 도면으로, 'hhmm형태'로 기재하며 ;를 구분자로 하여 하루에도 여러 번 회귀테스트를 수행할 수 있도록 설정한다.
14B is a diagram illustrating a management screen for setting a regression test start time, which is described as 'hhmm' and is set to perform regression tests several times a day with; as a separator.
도 14c는 회귀테스트 결과 요약정보를 표시하는 화면을 나타낸 도면으로, 회귀테스트 회차별 전체시나리오, 성공/실패 시나리오 수를 표시하고 회귀테스트 시작/종료 시간과 전체 수행시간을 기재한다.14C is a diagram showing a screen for displaying summary information of regression test results. The total scenarios for each regression test cycle, the number of success / failure scenarios are displayed, and the regression test start / end time and the total execution time are described.
회귀테스트 회차에 걸린 링크를 클릭하면 회귀테스트 결과 상세정보 조회화면으로 이동할 수 있다.
Regression test If you click on the link, you can go to the regression test result detail screen.
도 14d는 회귀테스트 결과 상세정보를 표시하는 화면을 나타낸 도면으로, 테스트회차별 테스트시나리오ID, 테스트 순번, 거래명, 성공/실패여부, 시작시간, 종료시간, 거래별 수행시간을 확인할 수 있다.
FIG. 14D is a diagram illustrating a screen displaying detailed information of a regression test result. The test scenario ID, test sequence number, transaction name, success / failure, start time, end time, and execution time of each transaction can be checked.
이와 같은 본 발명은 정보통신 통합플랫폼(200)과 연계하는 입출력 매체에 대해 담당자가 개별적으로 테스트를 수행하지 않더라도 기 수행한 테스트 정보를 기반으로 전체 매체의 테스트를 일괄적으로 재현할 수 있으므로 정보통신 통합플랫폼(200)의 단위테스트, 통합테스트, 회귀테스트, 및 부하테스트의 효율성을 향상시키는 장점이 있다.In the present invention as described above, even if the person in charge does not individually test the input / output medium associated with the information communication integrated
또한 보안 취약점을 점검하기 위한 입력 데이터를 사전에 정의하여 이를 테스트 대상 시스템에 전송하고 출력 데이터를 수신하여 보안 취약점이 존재하는지 분석하고 메서드의 네이밍 룰을 이용하여 소프트웨어 규모 산정 기법인 FP의 측정 요소를 식별함으로써 테스트 결과에 기반하여 구축 시스템의 규모를 분석할 수 있다.
In addition, input data to check for security vulnerabilities is defined in advance, transmitted to the system under test, and output data is received to analyze whether there is a security vulnerability. By identifying, you can analyze the scale of the build system based on the test results.
이상에서 본 발명에 대한 기술사상을 첨부도면과 함께 서술하였지만 이는 본 발명의 바람직한 실시 예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한, 이 기술분야의 통상의 지식을 가진 자라면 누구나 본 발명의 기술사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.
Although the preferred embodiments of the present invention have been disclosed for illustrative purposes, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. In addition, it is obvious that any person skilled in the art can make various modifications and imitations without departing from the scope of the technical idea of the present invention.
100: 정보 수집부
200: 정보통신 통합플랫폼
300: 정보 소비부
400: 테스트 마스터 서버
500: 테스트 수행 담당100: information collector
200: ICT integrated platform
300: information consumer
400: test master server
500: responsible for testing
Claims (5)
상기 정보통신 통합플랫폼(200)은,
상기 정보 수집부(100)와의 통신에 따른 데이터 및 내부 호출관계 정보를 획득하는 소켓 에이전트(210);
상기 정보 소비부(300)와의 통신에 따른 데이터 및 내부 호출관계 정보를 획득하는 Http 에이전트(220);
상기 소켓 에이전트(210) 및 상기 Http 에이전트(220)가 획득한 정보를 수집하는 수집정보큐(230); 및
상기 수집정보큐(230)로부터 제공되는 정보를 상기 테스트 마스터 서버(400)로 전송하는 마스터 연계모듈(240);
을 포함하고,
상기 테스트 마스터 서버(400)는,
상기 마스터 연계모듈(240)로부터 수신한 테스트정보를 테스트정보저장소(412)에 저장하는 에이전트 연계모듈(410);
복수의 테스트정보를 그룹핑하여 테스트 단위로 생성하는 테스트시나리오 생성모듈(420);
테스트시나리오를 재현하는 테스트 재현모듈(430);
자유로운 재현을 위한 스크립트 생성모듈(440);
스크립트를 이용하여 부하를 발생시키는 부하발생모듈(450);
테스트 재현을 통하여 보안 취약점을 분석하는 보안취약점 분석모듈(460);
테스트 시 호출한 거래명과 메서드명 및 sql을 통해 규모를 산정하는 FP분석모듈(470);
저장한 테스트시나리오를 일괄 실행하는 회귀테스트모듈(480);
테스트 시스템의 데이터를 저장하는 테스트정보저장소(412); 및
테스트 수행 및 결과 분석 정보를 제공하는 분석서비스부(414);
를 포함하는 것을 특징으로 하는 정보통신 통합플랫폼 테스트 시스템.
The test is provided by receiving information collected from the information collecting unit 100 and the information collecting unit 100 and collecting information from the information collecting unit 100 to test the information communication integrated platform 200 to the test master server 400. Information communication unit 300 and the information consumption unit 300 for consuming the information provided from the information communication integrated platform 200 to the master server 400 to perform the test of the information communication integrated platform 200. ICT integrated platform test system having a
The information communication integrated platform 200,
A socket agent 210 for acquiring data and internal call relation information according to communication with the information collecting unit 100;
An Http agent 220 for acquiring data and internal call relation information according to communication with the information consuming unit 300;
A collection information queue 230 for collecting information obtained by the socket agent 210 and the Http agent 220; And
A master association module 240 for transmitting the information provided from the collection information queue 230 to the test master server 400;
Including,
The test master server 400,
An agent linkage module 410 for storing test information received from the master linkage module 240 in a test information store 412;
A test scenario generation module 420 for generating a test unit by grouping a plurality of test information;
A test reproduction module 430 for reproducing a test scenario;
A script generation module 440 for free reproduction;
A load generation module 450 for generating a load using a script;
Security vulnerability analysis module 460 for analyzing the security vulnerability through the test reproduction;
An FP analysis module 470 for calculating a size through a transaction name and a method name and sql called during a test;
A regression test module 480 for collectively executing the stored test scenarios;
A test information store 412 storing data of a test system; And
An analysis service unit 414 which provides test performance and result analysis information;
ICT integrated platform test system comprising a.
상기 테스트시나리오 생성모듈(420)은 상기 연계모듈(410)로부터 수신한 테스트 내역 정보를 이용하여 테스트 내역을 복수로 선택하여 하나의 테스트시나리오로 생성하는 것을 특징으로 하는 정보통신 통합플랫폼 테스트 시스템.
The method according to claim 1,
The test scenario generation module (420) is an information communication integrated platform test system, characterized in that for generating a single test scenario by selecting a plurality of test details using the test history information received from the linkage module (410).
상기 보안취약점 분석 모듈(460)은 수집한 테스트 내역 정보를 기반으로 입력 데이터에 보안 취약점을 분석하기 위한 시험 데이터를 대체 삽입하여 테스트 대상 시스템에 전송하고 그 결과로 수신한 출력 데이터를 분석하여 보안 취약점이 존재하는지 확인하는 것을 특징으로 하는 정보통신 통합플랫폼 테스트 시스템.
The method according to claim 1,
The security vulnerability analysis module 460 inserts test data for analyzing a security vulnerability into input data based on the collected test history information, transmits the test data to a test target system, and analyzes the output data received as a result. ICT integrated platform test system, characterized in that the presence.
상기 FP분석모듈(470)은 테스트 수행시 획득한 정보와 통합플랫폼 구축 시 일관성을 확보하기 위해 생성한 네이밍 룰을 기반으로 거래명, 내부 메서드명과 sql 및 sql수행결과 정보를 이용하여 FP의 EI, EQ, EO, DET, RET를 추출하여 산정한 규모가 타당한지를 확인 가능하도록 하는 것을 특징으로 하는 정보통신 통합플랫폼 테스트 시스템.
The method according to claim 1,
The FP analysis module 470 uses the transaction name, internal method name and sql and sql execution result information based on the information obtained during the test and the naming rules generated to ensure consistency when the integrated platform is built, and the EI of the FP. ICT integrated platform test system, characterized in that it is possible to check whether the estimated scale by extracting the EQ, EO, DET, RET.
상기 테스트 마스터 서버(400)는 테스트 수행시 획득한 정보를 기반으로 프로그램별 테스트 성공/실패 횟수를 일자별로 조회하여 자동으로 테스트진척관리가 가능하도록 하는 것을 특징으로 하는 정보통신 통합플랫폼 테스트 시스템.
The method according to claim 1,
The test master server 400 is an information communication integrated platform test system, characterized in that to automatically test progress management by querying the number of test success / failure for each program based on the information obtained when performing the test.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110030527A KR101039874B1 (en) | 2011-04-04 | 2011-04-04 | Information Communication Integrated Platform Test System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110030527A KR101039874B1 (en) | 2011-04-04 | 2011-04-04 | Information Communication Integrated Platform Test System |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101039874B1 true KR101039874B1 (en) | 2011-06-09 |
Family
ID=44405233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110030527A Expired - Fee Related KR101039874B1 (en) | 2011-04-04 | 2011-04-04 | Information Communication Integrated Platform Test System |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101039874B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101958933B1 (en) * | 2018-12-18 | 2019-03-18 | 주식회사 웨어밸리 | Apparatus for and method of acquiring inner information of database by socket injection |
KR20190083512A (en) * | 2018-01-04 | 2019-07-12 | 국방과학연구소 | Apparatus and method for software validation |
CN116708551A (en) * | 2022-09-27 | 2023-09-05 | 荣耀终端有限公司 | Proxy internet surfing method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100428070B1 (en) | 2000-07-05 | 2004-04-30 | 삼성에스디에스 주식회사 | System and method for checking operation state of information system and media for storing program source thereof |
KR100603585B1 (en) | 2004-11-26 | 2006-07-24 | 삼성전자주식회사 | Network Diagnostic Device and Method |
US7096502B1 (en) | 2000-02-08 | 2006-08-22 | Harris Corporation | System and method for assessing the security posture of a network |
-
2011
- 2011-04-04 KR KR1020110030527A patent/KR101039874B1/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7096502B1 (en) | 2000-02-08 | 2006-08-22 | Harris Corporation | System and method for assessing the security posture of a network |
KR100428070B1 (en) | 2000-07-05 | 2004-04-30 | 삼성에스디에스 주식회사 | System and method for checking operation state of information system and media for storing program source thereof |
KR100603585B1 (en) | 2004-11-26 | 2006-07-24 | 삼성전자주식회사 | Network Diagnostic Device and Method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190083512A (en) * | 2018-01-04 | 2019-07-12 | 국방과학연구소 | Apparatus and method for software validation |
KR102128004B1 (en) * | 2018-01-04 | 2020-06-29 | 국방과학연구소 | Apparatus and method for software validation |
KR101958933B1 (en) * | 2018-12-18 | 2019-03-18 | 주식회사 웨어밸리 | Apparatus for and method of acquiring inner information of database by socket injection |
CN116708551A (en) * | 2022-09-27 | 2023-09-05 | 荣耀终端有限公司 | Proxy internet surfing method and device |
CN116708551B (en) * | 2022-09-27 | 2024-04-02 | 荣耀终端有限公司 | Proxy Internet access methods and devices |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12124358B2 (en) | System and method for continuous testing and delivery of software | |
CN105760286B (en) | Application database dynamic property detection method and detection device | |
US9632906B2 (en) | Automated software system validity testing | |
CN102164045B (en) | Parameterized computer monitor system and method | |
US10185650B1 (en) | Testing service with control testing | |
CN109002391A (en) | The method of automatic detection embedded software interface testing data | |
Corradini et al. | Restats: A test coverage tool for RESTful APIs | |
CN110297760A (en) | Building method, device, equipment and the computer readable storage medium of test data | |
CN110750458A (en) | Big data platform testing method and device, readable storage medium and electronic equipment | |
CN111813655B (en) | Buried point test method and device, buried point management system and storage medium | |
CN110134583A (en) | Software test and data processing method and device | |
CN117370203B (en) | Automatic test method, system, electronic equipment and storage medium | |
CN112395184A (en) | Information acquisition method, equipment and computer storage medium | |
WO2025140748A2 (en) | Link stress testing method and system based on micro-service architecture, and device and storage medium | |
KR101039874B1 (en) | Information Communication Integrated Platform Test System | |
Grambow et al. | Using application benchmark call graphs to quantify and improve the practical relevance of microbenchmark suites | |
CN112199275B (en) | Component interface test analysis method and device, server and storage medium | |
CN112311679B (en) | State detection method, device, electronic device and readable storage medium | |
CN115576831A (en) | Test case recommendation method, device, equipment and storage medium | |
CN110769076A (en) | DNS (Domain name System) testing method and system | |
Harrer et al. | A pattern language for workflow engine conformance and performance benchmarking | |
Satrijandi et al. | Efficiency measurement of Java Android code | |
CN113742244B (en) | A big data testing platform and data processing method | |
CN114840406B (en) | Multi-environment monitoring test method and system based on online traffic script generation | |
CN111078538B (en) | JMH-based rule automation test method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20110404 |
|
PA0201 | Request for examination | ||
A302 | Request for accelerated examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20110412 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20110404 Patent event code: PA03021R01I Comment text: Patent Application |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20110429 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20110601 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20110602 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20140328 Start annual number: 4 End annual number: 4 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |