KR100267762B1 - Software test system - Google Patents
Software test system Download PDFInfo
- Publication number
- KR100267762B1 KR100267762B1 KR1019980001224A KR19980001224A KR100267762B1 KR 100267762 B1 KR100267762 B1 KR 100267762B1 KR 1019980001224 A KR1019980001224 A KR 1019980001224A KR 19980001224 A KR19980001224 A KR 19980001224A KR 100267762 B1 KR100267762 B1 KR 100267762B1
- Authority
- KR
- South Korea
- Prior art keywords
- test
- unit
- file
- software
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012360 testing method Methods 0.000 claims abstract description 88
- 238000013142 basic testing Methods 0.000 claims abstract description 16
- 238000011084 recovery Methods 0.000 claims abstract description 9
- 238000010998 test method Methods 0.000 claims abstract description 7
- 238000010586 diagram Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Prevention of errors by analysis, debugging or testing of software
- G06F11/3668—Testing of software
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Prevention of errors by analysis, debugging or testing of software
- G06F11/3668—Testing of software
- G06F11/3672—Test management
- G06F11/3692—Test management for test results analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Abstract
본 발명은 소프트웨어(Software)를 자동적으로 테스트 하므로 테스트의 소요시간 및 경제적 손실을 최소화하기 위한 소프트웨어 테스트 시스템(Software Test System)에 관한 것이다.The present invention relates to a software test system for automatically testing software and thus minimizing test time and economic losses.
본 발명의 소프트웨어 테스트 시스템은 소프트웨어를 자동적으로 테스트하기 위해, 테스트 대상이 되는 동작 프로파일, 상기 동작 프로파일을 테스트 하기 위한 명령어 조합을 생성하는 테스트 생성부, 상기 테스트 생성부의 명령어 조합을 저장하는 기초 테스트 파일부, 상기 기초 테스트 파일부에 저장된 명령어중 상기 동작 프로파일을 테스트 하기 위한 파일과 명령어를 선택하여 프로파일하는 테스트 선택부, 상기 동작 프로파일과 테스트 생성부 그리고 기초 테스트 파일부와 테스트 선택부의 모든 경로를 저장하는 경로 로그 파일부, 상기 테스트 선택부에서 선택한 파일과 명령어를 시뮬레이션하는 시뮬레이터, 상기 시뮬레이터의 결과를 분석하는 테스트 분석부, 상기 테스트 분석부의 분석 결과를 기록하여 저장시키는 테스트 로그부, 상기 테스트 분석부의 분석 결과를 화면에 출력시키는 화면 출력부, 상기 테스트 분석부의 분석 결과중 에러가 있으면 테스트 프로시듀어를 재시작하게 하는 에러복구부를 포함하여 구성됨을 특징으로 한다.Software test system of the present invention, to automatically test the software, a test test unit for generating an operation profile to be tested, a command combination for testing the operation profile, a basic test file for storing the command combination of the test generator And a test selector for selecting and profiling a file and a command for testing the operation profile among the commands stored in the basic test file unit, and storing all paths of the operation profile and test generator and the basic test file unit and the test selector. A path log file unit configured to simulate a file and a command selected by the test selector, a test analyzer to analyze the results of the simulator, a test log unit to record and store the analysis results of the test analyzer, Characterized by configured to include error recovery unit that, if an error of the display output unit, wherein the test analysis part analyzing a result of outputting a bit analysis unit results in the display to restart the test procedure.
Description
본 발명은 소프트웨어 테스트 시스템(Software Test System)에 관한 것으로, 특히 테스트 소요시간을 최소화하는 소프트웨어 테스트 시스템에 관한 것이다.TECHNICAL FIELD The present invention relates to a software test system, and more particularly, to a software test system for minimizing test time.
종래의 소프트웨어 테스트 방법은 다양하지만 가장 보편화된 방법이 베타(Beta) 테스트 방법이다.Conventional software test methods vary, but the most common method is the beta test method.
상기 베타 테스트는 신기종 혹은 최신 컴퓨터의 소프트웨어나 하드웨어(Hardware)의 성능을 제품 출하전에 사용하고 에러 발견시 이를 리포트(Report)해주는 베타 버전(Version) 사용자에 의해 미리 테스트하는 것이다.The beta test is a pre-test by a beta version user who uses the performance of new or new computer software or hardware (Hardware) before shipping the product and reports it when an error is found.
그러나 종래의 소프트웨어 테스트 시스템인 베타 테스트는 베타 버전 사용자들을 많이 확보하여야 하며, 상기 베타 버전 사용자들에 의해 오랜기간동안 검증을 받고 에러(Error)를 수정한 후 소프트웨어로서 가치를 인정받으므로 개발보다 테스트에 더 많은 시간이 소요되고 경제적 손실이 크다는 문제점이 있었다.However, the beta test, which is a conventional software test system, needs to secure a large number of beta users, and is tested more than development because it has been verified by the beta users for a long time, corrected errors, and recognized as a software. The problem is that it takes more time and economic losses.
본 발명은 상기의 문제점을 해결하기 위해 안출한 것으로 소프트웨어를 자동적으로 테스트 하므로 테스트의 소요시간 및 경제적 손실을 최소화하는 소프트웨어 테스트 시스템을 제공하는데 그 목적이 있다.An object of the present invention is to provide a software test system that minimizes the time required and economic loss of the test because the software is automatically tested to solve the above problems.
도 1은 본 발명의 실시예에 따른 소프트웨어 테스트 시스템을 나타낸 블록도1 is a block diagram illustrating a software test system according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 소프트웨어 테스트 시스템의 동작을 나타낸 플로우 챠트2 is a flowchart illustrating the operation of a software test system according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 소프트웨어 테스트 시스템의 화면 출력부의 화면 표시를 나타낸 도면3 is a diagram illustrating a screen display of a screen output unit of a software test system according to an exemplary embodiment of the present invention.
도면의 주요부분에 대한 부호의 설명Explanation of symbols for main parts of the drawings
31: 동작 프로파일 32: 테스트 생성부31: motion profile 32: test generator
33: 기초 테스트 파일부 34: 테스트 선택부33: basic test file section 34: test selection section
35: 경로 로그 파일부 36: 시뮬레이터35: path log file part 36: simulator
37: 테스트 분석부 38: 테스트 로그부37: test analysis unit 38: test log unit
39: 화면 출력부 40: 에러복구부39: screen output section 40: error recovery section
본 발명의 소프트웨어 테스트 시스템은 소프트웨어를 자동적으로 테스트하기 위해, 테스트 대상이 되는 동작 프로파일, 상기 동작 프로파일을 테스트 하기 위한 명령어 조합을 생성하는 테스트 생성부, 상기 테스트 생성부의 명령어 조합을 저장하는 기초 테스트 파일부, 상기 기초 테스트 파일부에 저장된 명령어중 상기 동작 프로파일을 테스트 하기 위한 파일과 명령어를 선택하여 프로파일하는 테스트 선택부, 상기 동작 프로파일과 테스트 생성부 그리고 기초 테스트 파일부와 테스트 선택부의 모든 경로를 저장하는 경로 로그 파일부, 상기 테스트 선택부에서 선택한 파일과 명령어를 시뮬레이션하는 시뮬레이터, 상기 시뮬레이터의 결과를 분석하는 테스트 분석부, 상기 테스트 분석부의 분석 결과를 기록하여 저장시키는 테스트 로그부, 상기 테스트 분석부의 분석 결과를 화면에 출력시키는 화면 출력부, 상기 테스트 분석부의 분석 결과중 에러가 있으면 테스트 프로시듀어를 재시작하게 하는 에러복구부를 포함하여 구성됨을 특징으로 한다.Software test system of the present invention, to automatically test the software, a test test unit for generating an operation profile to be tested, a command combination for testing the operation profile, a basic test file for storing the command combination of the test generator And a test selector for selecting and profiling a file and a command for testing the operation profile among the commands stored in the basic test file unit, and storing all paths of the operation profile and test generator and the basic test file unit and the test selector. A path log file unit configured to simulate a file and a command selected by the test selector, a test analyzer to analyze the results of the simulator, a test log unit to record and store the analysis results of the test analyzer, Characterized by configured to include error recovery unit that, if an error of the display output unit, wherein the test analysis part analyzing a result of outputting a bit analysis unit results in the display to restart the test procedure.
상기와 같은 본 발명에 따른 소프트웨어 테스트 시스템의 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다.A preferred embodiment of the software test system according to the present invention as described above will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 소프트웨어 테스트 시스템을 나타낸 블록도이고, 도 2는 본 발명의 실시예에 따른 소프트웨어 테스트 시스템의 동작을 나타낸 플로우 챠트이며, 도 3은 본 발명의 실시예에 따른 소프트웨어 테스트 시스템의 화면 출력부의 화면 표시를 나타낸 도면이다.1 is a block diagram illustrating a software test system according to an embodiment of the present invention, FIG. 2 is a flowchart illustrating an operation of a software test system according to an embodiment of the present invention, and FIG. 3 is an embodiment of the present invention. It is a figure which shows the screen display of the screen output part of a software test system.
본 발명의 실시예에 따른 소프트웨어 테스트 시스템은 도 1에서와 같이, 테스트 대상이 되는 동작 프로파일(Profile)(31), 테스트 생성부(32), 기초 테스트 파일부(33), 테스트 선택부(34), 경로 로그(Log) 파일부(35), 시뮬레이터(Simulator)(36), 테스트 분석부(37), 테스트 로그부(38), 화면 출력부(39)와, 에러복구부(40)로 구성된다.In the software test system according to an exemplary embodiment of the present invention, as shown in FIG. 1, an operation profile 31, a test generator 32, a basic test file unit 33, and a test selector 34 as a test target are illustrated. ), The path log file unit 35, the simulator 36, the test analyzer 37, the test log unit 38, the screen output unit 39, and the error recovery unit 40. It is composed.
여기서, 상기 테스트 생성부(32)는 상기 동작 프로파일(31)을 테스트 하기 위한 명령어 조합을 생성한다.Here, the test generator 32 generates a command combination for testing the operation profile 31.
상기 기초 테스트 파일부(33)는 상기 테스트 생성부(32)의 명령어 조합을 저장한다.The basic test file unit 33 stores a command combination of the test generator 32.
상기 테스트 선택부(34)는 상기 기초 테스트 파일부(33)에 저장된 명령어중 상기 동작 프로파일(31)을 테스트 하기 위한 파일과 명령어를 선택하여 프로파일한다.The test selector 34 selects and profiles a file and a command for testing the operation profile 31 among the commands stored in the basic test file unit 33.
상기 경로 로그 파일부(35)는 상기 동작 프로파일(31), 테스트 생성부(32), 기초 테스트 파일부(33)와, 테스트 선택부(34)의 모든 경로를 저장한다.The path log file unit 35 stores all the paths of the operation profile 31, the test generator 32, the basic test file unit 33, and the test selector 34.
상기 시뮬레이터(36)는 상기 테스트 선택부(34)에서 선택한 파일과 명령어를 시뮬레이션(Simulation)한다.The simulator 36 simulates a file and a command selected by the test selector 34.
상기 테스트 분석부(37)는 상기 시뮬레이터(36)의 결과를 분석한다.The test analyzer 37 analyzes the results of the simulator 36.
상기 테스트 로그부(38)는 상기 테스트 분석부(37)의 분석 결과를 기록하여 디스크에 저장시킨다.The test log unit 38 records the analysis result of the test analysis unit 37 and stores the analysis result on the disk.
상기 화면 출력부(39)는 상기 테스트 분석부(37)의 분석 결과를 화면에 출력시킨다.The screen output unit 39 outputs the analysis result of the test analyzer 37 on the screen.
상기 에러복구부(40)는 상기 테스트 분석부(37)의 분석 결과중 에러가 있으면 그 에러만 입력 받아 상기 에러복구부(40)내에 구성된 테스트 프로시듀어(Procedure)(도면에 도시하지 않음)를 재시작하게 한다.The error recovery unit 40 receives only the error if there is an error in the analysis result of the test analysis unit 37, and a test procedure (not shown) configured in the error recovery unit 40. To restart it.
여기서, 상기 테스트 프로시듀어는 재시뮬레이션 여부를 결정한다.Here, the test procedure determines whether to resimulate.
상기와 같이 구성된 본 발명의 실시예에 따른 소프트웨어 테스트 시스템의 동작 설명은 다음과 같다.Operation of the software test system according to the embodiment of the present invention configured as described above is as follows.
먼저, 상기 테스트 대상인 동작 프로파일(31)이 상기 테스트 선택부(34)에 입력된 상태에서 도 2에서와 같이, 상기 테스트 선택부(34)에서 상기 기초 테스트 파일부(33)에 저장된 명령어중 상기 동작 프로파일(31)을 테스트 하기 위한 파일과 명령어를 선택(101,102)한다.First, as shown in FIG. 2, when the operation profile 31, which is the test object, is input to the test selector 34, the test selector 34 of the command stored in the basic test file unit 33 is included. Files and instructions for testing the motion profile 31 are selected (101, 102).
이때, 상기 기초 테스트 파일부(33)에 상기 동작 프로파일(31)을 테스트 하기 위한 파일과 명령어가 없을 경우(101)에는 상기 테스트 생성부(32)에서 상기 동작 프로파일(31)을 테스트 하기 위한 파일과 명령어를 생성(103)하고, 상기 테스트 생성부(32) 포인터(Pointer)가 증가(104)하며, 상기 테스트 선택부(34)에서 선택한다.In this case, when there is no file and a command for testing the operation profile 31 in the basic test file unit 33 (101), the file for testing the operation profile 31 in the test generator 32 And generate a command 103, the test generator 32 increases the pointer 104, and selects the command from the test selector 34.
그리고, 상기 시뮬레이터(36)에서 상기 테스트 선택부(34)가 선택한 파일과 명령어를 시뮬레이션(105)한다.In addition, the simulator 36 simulates a file and a command selected by the test selector 34.
이어, 상기 테스트 분석부(37)에서 상기 시뮬레이터(36)의 결과를 분석(106)한 후, 그 분석결과를 상기 테스트 로그부(38), 화면 출력부(39)와, 에러복구부(40)에 출력한다.Subsequently, the test analysis unit 37 analyzes the results of the simulator 36 and transmits the analysis results to the test log unit 38, the screen output unit 39, and the error recovery unit 40. )
그리고, 상기 테스트 로그부(38)에서 상기 테스트 분석부(37)의 모든 분석 결과를 기록하여 디스크에 저장시킨다.The test log unit 38 records all the analysis results of the test analyzer 37 and stores the analysis results on the disk.
상기 화면 출력부(39)에서 상기 테스트 분석부(37)의 분석 결과를 화면에 출력시킨다.The screen output unit 39 outputs the analysis result of the test analyzer 37 on the screen.
예를 들어, 도 3에서와 같이, 컴퓨터(Conputer) 마우스(Mouse)의 동작으로 커서(Cursor)(140)를 움직여서 "FILE"명령 메뉴(Menu)에 위치시켜 마우스를 클릭하게 되면 상기 "FILE"메뉴 아래 포함되어 있던 풀-다운(Pull-down) 메뉴안의 다른 명령어들이 나타나게 된다.For example, as shown in FIG. 3, when the cursor 140 is moved by the operation of a computer mouse, the cursor 140 is positioned on the "FILE" command menu, and the mouse is clicked. The other commands in the pull-down menu contained below the menu will appear.
이때, 본 발명의 실시예에 따른 소프트웨어 테스트 시스템은 상기 마우스 동작이나 키보드 입력에 의한 명령어의 선택을 같은 형태의 동작으로 간주하여 시뮬레이션하게 되는데, 이와 같이 여러 다른 형태의 명령어 입력을 그것이 아닌 다른 입력 방법으로 시뮬레이션한다.In this case, the software test system according to an embodiment of the present invention simulates the selection of the command by the mouse operation or the keyboard input as the same type of operation, and thus inputs various types of commands other than that. To simulate.
상기 에러복구부(40)에서 상기 테스트 분석부(37)의 분석 결과중 에러가 있으면 임의의 테스트 프로시듀어를 재시작하게 한다.The error recovery unit 40 restarts any test procedure if there is an error in the analysis result of the test analysis unit 37.
본 발명의 소프트웨어 테스트 시스템은 베타 버전 사용자들을 많이 확보하여야 하며, 상기 베타 버전 사용자들에 의해 오랜기간동안 검증을 받고 에러를 수정한 후 소프트웨어로서 가치를 인정받는 베타 테스트대신에 소프트웨어를 자동적으로 테스트 하므로 테스트의 소요시간 및 경제적 손실을 최소화하는 효과가 있다.The software test system of the present invention should secure a large number of beta users, and after the beta users have been verified for a long time and corrected errors, the software is automatically tested instead of beta tests that are recognized as valuable software. This has the effect of minimizing test time and economic losses.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980001224A KR100267762B1 (en) | 1998-01-16 | 1998-01-16 | Software test system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980001224A KR100267762B1 (en) | 1998-01-16 | 1998-01-16 | Software test system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19990065780A KR19990065780A (en) | 1999-08-05 |
KR100267762B1 true KR100267762B1 (en) | 2000-10-16 |
Family
ID=19531650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019980001224A Expired - Fee Related KR100267762B1 (en) | 1998-01-16 | 1998-01-16 | Software test system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100267762B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100369252B1 (en) * | 2000-05-09 | 2003-01-24 | 삼성에스디에스 주식회사 | Software test system and method |
KR20020031509A (en) * | 2000-10-20 | 2002-05-02 | 김영돈, 정춘보 | Method for managementing data at program prodution-tool |
KR100433549B1 (en) * | 2002-05-11 | 2004-05-31 | 삼성전자주식회사 | Method and apparatus for analyzing software |
KR100949875B1 (en) * | 2008-05-19 | 2010-03-25 | 정병수 | 3D application software framework based automatic test system and method |
KR102635847B1 (en) * | 2016-12-27 | 2024-02-08 | 주식회사 넥슨코리아 | Apparatus and method for application test automation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5708774A (en) * | 1996-07-23 | 1998-01-13 | International Business Machines Corporation | Automated testing of software application interfaces, object methods and commands |
-
1998
- 1998-01-16 KR KR1019980001224A patent/KR100267762B1/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5708774A (en) * | 1996-07-23 | 1998-01-13 | International Business Machines Corporation | Automated testing of software application interfaces, object methods and commands |
Also Published As
Publication number | Publication date |
---|---|
KR19990065780A (en) | 1999-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5513315A (en) | System and method for automatic testing of computer software | |
US5548718A (en) | Method and system for determining software reliability | |
EP1504347B1 (en) | Automated software testing system and method | |
US6061643A (en) | Method for defining durable data for regression testing | |
US4696003A (en) | System for testing interactive software | |
US6895578B1 (en) | Modularizing a computer program for testing and debugging | |
US9348731B2 (en) | Tracing the execution path of a computer program | |
US6959431B1 (en) | System and method to measure and report on effectiveness of software program testing | |
AU2004233548B2 (en) | Method for Computer-Assisted Testing of Software Application Components | |
US6408403B1 (en) | Method for integrating automated software testing with software development | |
US20020091968A1 (en) | Object-oriented data driven software GUI automated test harness | |
US20030028856A1 (en) | Method and apparatus for testing a software component using an abstraction matrix | |
Marchetto et al. | A case study-based comparison of web testing techniques applied to AJAX web applications | |
KR100267762B1 (en) | Software test system | |
US10579761B1 (en) | Method and system for reconstructing a graph presentation of a previously executed verification test | |
KR100511870B1 (en) | Software testing device and method thereof | |
WO2004068347A1 (en) | Method and apparatus for categorising test scripts | |
US20020178402A1 (en) | System and method for software diagnosis | |
Ivory et al. | Comparing performance and usability evaluation: new methods for automated usability assessment | |
JPH0926897A (en) | Program analyzer and program analyzing method | |
Li et al. | A scalable tool for efficient protocol validation and testing | |
CN118227472A (en) | Method for testing abnormal compatibility of application program of terminal equipment and computing equipment | |
CN116858381A (en) | Spectrometer testing method and system | |
Li et al. | /spl chi/SUDS-SDL: a tool for diagnosis and understanding software specifications | |
Melody | State of the Art in Automated Usability Evaluation of User Interfaces (DRAFT) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 19980116 |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 19980116 Comment text: Request for Examination of Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20000131 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20000531 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20000707 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20000708 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20030620 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20040618 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20050620 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20050620 Start annual number: 6 End annual number: 6 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |