[go: up one dir, main page]

KR102205906B1 - 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템 - Google Patents

이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템 Download PDF

Info

Publication number
KR102205906B1
KR102205906B1 KR1020130152246A KR20130152246A KR102205906B1 KR 102205906 B1 KR102205906 B1 KR 102205906B1 KR 1020130152246 A KR1020130152246 A KR 1020130152246A KR 20130152246 A KR20130152246 A KR 20130152246A KR 102205906 B1 KR102205906 B1 KR 102205906B1
Authority
KR
South Korea
Prior art keywords
touch
points
outline
point
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020130152246A
Other languages
English (en)
Other versions
KR20150071722A (ko
Inventor
김예훈
우경구
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130152246A priority Critical patent/KR102205906B1/ko
Priority to US14/511,486 priority patent/US10042531B2/en
Publication of KR20150071722A publication Critical patent/KR20150071722A/ko
Application granted granted Critical
Publication of KR102205906B1 publication Critical patent/KR102205906B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템이 개시된다. 이미지 내 오브젝트의 윤곽선이 화면에 표시되면 사용자로부터 복수의 터치 포인트를 수신할 수 있다. 수신된 터치 포인트에 대해 윤곽선 내에서 각각 대응 윤곽선 포인트를 매칭시킨다. 이후 사용자가 터치 포인트를 이동시키면, 각각의 터치 포인트가 이동하는 경로를 추적하여 터치 포인트 이동 데이터를 생성할 수 있다. 터치 포인트 이동 데이터에 기초하여 대응 윤곽선 포인트 각각의 변화량을 계산한다. 또한 터치 포인트 이동 데이터에 기초하여 윤곽선의 곡률 변화량을 결정한다. 대응 윤곽선 포인트의 변화량 및 윤곽선의 곡률 변화량을 반영하여 윤곽선을 수정하고 화면에 표시한다.

Description

이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템 {METHOD AND SYSTEM FOR MODIFYING CONTOUR OF OBJECT IN IMAGE}
이미지 내 오브젝트의 윤곽선을 수정하는 방법 및 시스템이 개시된다.
근래 의료 진단 분야에서 인체 내부의 관심 영역에 대한 병변을 조기 발견할 수 있는 수단으로서 방사선 또는 초음파를 이용하는 영상진단 기술이 발전하고 있다. 영상진단 기술에 의해 생성되는 진단용 이미지에는 발견하고자 하는 병변이 인체의 다양한 해부학적 구조들과 혼합되어 있다. 따라서 정확한 진단을 위해 이미지 내에서 병변의 경계를 정확하게 분리하는 것이 중요하다. 다시 말해서 이미지 내의 오브젝트(예컨대, 병변)의 윤곽선(즉, 경계선)을 구별하는 것이 중요하다.
CAD(computer-aided diagnosis) 시스템은, 예컨대 초음파 영상과 같은 진단용 이미지를 프로세싱하고 이미지 내에서 관심 있는 병변을 확정함으로써 진단을 보조하기 시스템이다. CAD 시스템에 의해 확정된 병변은 단순히 이미지 프로세싱에 의해 추출된 오브젝트일 수 있으며, 이 병변이 악성인지 양성인지의 판단은 사용자에 의해 이루어질 필요가 있다. 따라서, CAD 시스템에서 확정한 병변의 윤곽선을 사용자가 생성 및/또는 수정하게 하는 인터페이스를 제공할 필요가 있다.
멀티 터치를 이용하여 이미지 내 윤곽선의 형태를 수정할 수 있도록 함으로써 직관적이고 빠른 조작이 가능한 이미지 내 오브젝트의 윤곽선을 수정하는 방법 및 시스템을 제안한다.
일 양상에 따라 제공되는 이미지 내 오브젝트 윤곽선의 수정 방법은, 이미지 내 오브젝트의 윤곽선을 화면에 표시하는 단계; 복수의 터치 포인트를 수신하는 단계; 수신된 각각의 터치 포인트에 대해 상기 윤곽선 내에서 대응 윤곽선 포인트를 매칭하는 단계; 상기 수신된 각각의 터치 포인트가 이동하는 경로를 추적하여 터치 포인트 이동 데이터를 생성하는 단계; 상기 터치 포인트 이동 데이터에 기초하여 상기 대응 윤곽선 포인트 각각의 변화량을 계산하는 단계; 상기 터치 포인트 이동 데이터에 기초하여 상기 윤곽선의 곡률 변화량을 결정하는 단계; 및 상기 대응 윤곽선 포인트 각각의 변화량을 반영하여 각각의 상기 대응 윤곽선 포인트를 이동시키고, 이동된 각각의 상기 대응 윤곽선 포인트 사이의 연결 부위를 상기 윤곽선의 곡률 변화량을 반영하여 형성함으로써, 상기 윤곽선을 수정하고 화면에 표시하는 단계를 포함할 수 있다.
일 실시예에 있어서, 상기 대응 윤곽선 포인트는, 상기 윤곽선 내의 포인트들 중에서 각각의 터치 포인트의 좌표값에 대해 거리상으로 가장 가까운 좌표값을 가지는 포인트로 결정될 수 있다.
다른 실시예에 있어서, 상기 터치 포인트 이동 데이터는, 각각의 터치 포인트의 입력시 위치인 시작점으로부터 터치 상태로 드래그되어 이동하다가 터치가 중단되는 위치인 종단점까지 연속되는 각 터치 포인트의 이동 경로 상에 포함되는 포인트들 중 적어도 2개의 포인트의 좌표값, 각각의 터치 포인트 사이의 거리, 및 상기 터치 포인트의 개수를 포함할 수 있다.
또 다른 실시예에 있어서, 상기 터치 포인트 이동 데이터는, 각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력, 및 이동할 때의 평균 속도 중 적어도 하나를 포함할 수 있다.
또 다른 실시예에 있어서, 상기 대응 윤곽선 포인트 각각의 변화량은, 각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력 및 이동할 때의 평균 속도 중 적어도 하나에 기초하여 계산될 수 있다.
또 다른 실시예에 있어서, 상기 윤곽선의 곡률 변화량은, 변화량 설정값에 의해 결정될 수 있다.
또 다른 실시예에 있어서, 상기 윤곽선의 곡률 변화량은, 각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력 및 이동할 때의 평균 속도 중 적어도 하나에 따라 결정될 수 있다.
또 다른 실시예에 있어서, 상기 윤곽선의 곡률 변화량은, 각각의 터치 포인트가 입력된 위치와 각각의 터치 포인트를 위한 대응 윤곽선 포인트의 위치 사이의 거리에 따라 결정될 수 있다.
또 다른 실시예에 있어서, 상기 윤곽선의 곡률 변화량은, 수신된 터치 포인트들 사이 거리의 크기에 따라 결정될 수 있다.
또 다른 실시예에 있어서, 상기 윤곽선의 곡률 변화량은, 수신된 터치 포인트의 개수에 따라 결정될 수 있다.
다른 양상에 따라 제공되는 이미지 내 오브젝트 윤곽선의 수정 시스템은, 프로세서; 터치 입력 장치; 디스플레이; 및 컴퓨터 실행가능한 인스트럭션을 저장하고 있는 컴퓨터 판독가능 매체를 포함하며, 상기 인스트럭션은 상기 프로세서에 의해 실행되면 상기 프로세서가, 이미지 내 오브젝트의 윤곽선을 상기 디스플레이를 통해 표시하는 액션; 상기 터치 입력 장치를 통해 복수의 터치 포인트를 수신하는 액션; 수신된 각각의 터치 포인트에 대해 상기 디스플레이에 표시된 윤곽선 내에서 대응 윤곽선 포인트를 매칭하는 액션; 수신된 각각의 터치 포인트가 이동하는 경로를 추적하여 터치 포인트 이동 데이터를 생성하는 액션; 상기 터치 포인트 이동 데이터에 기초하여 상기 대응 윤곽선 포인트 각각의 변화량을 계산하는 액션; 상기 터치 포인트 이동 데이터에 기초하여 상기 윤곽선의 곡률 변화량을 결정하는 액션; 및 계산된 상기 대응 윤곽선 포인트 각각의 변화량 및 결정된 상기 윤곽선의 곡률 변화량을 반영하여, 상기 대응 윤곽선 포인트 각각의 변화량을 반영하여 각각의 상기 대응 윤곽선 포인트를 이동시키고, 이동된 각각의 상기 대응 윤곽선 포인트 사이의 연결 부위를 상기 윤곽선의 곡률 변화량을 반영하여 형성함으로써, 상기 윤곽선을 수정하고 상기 디스플레이에 표시하는 액션을 포함하는 동작을 수행하도록 할 수 있다.
일 실시예에 있어서, 상기 터치 입력 장치와 상기 디스플레이는 하나의 터치 스크린 장치에 통합되어 있는 것일 수 있다.
상술한 양상들 및 실시예들과 그 외 다른 실시예들에 대한 더 상세한 설명이 아래에서 도면을 참조하여 제공될 것이다.
멀티 터치를 이용하여 이미지 내 윤곽선의 형태를 수정할 수 있도록 함으로써 직관적이고 빠른 조작을 통해 섬세하고 정교하면서 손쉬운 윤곽선 조정이 가능하도록 한 이미지 내 오브젝트의 윤곽선을 수정하는 방법 및 시스템을 구현할 수 있는 효과가 있다.
도 1은 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법을 설명하기 위한 흐름도,
도 2는 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 다루는 윤곽선의 예를 보여주는 도면,
도 3은 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 윤곽선 내부에서 멀티 터치 포인트를 이용하여 윤곽선을 수정하는 예를 보여주는 도면,
도 4는 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 윤곽선 외부에서 멀티 터치 포인트를 이용하여 윤곽선을 수정하는 다른 예를 보여주는 도면,
도 5는 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 윤곽선 내부에서 멀티 터치 포인트를 이용하여 윤곽선을 수정하는 또 다른 예를 보여주는 도면,
도 6은 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 터치 포인트와 윤곽선 포인트 사이의 매칭 과정을 설명하기 위한 도면,
도 7은 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 윤곽선의 곡률 변화량을 설명하기 위한 도면,
도 8은 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 시스템을 설명하기 위한 블록도이다.
이하에서는 첨부한 도면을 참조하여 실시예들을 상세히 설명한다. 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 명세서에서 설명하는 기술에서 각각의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 실질적으로 그 정의는 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
CAD 시스템에 있어서, 예컨대 초음파 영상과 같은 이미지 내에서 추출한 병변과 같은, 오브젝트의 윤곽선을 수정하여 정확한 형태로 완성하는 인터페이스가 요구된다. 이를 위해, 실시예에 따라, 사용자가 멀티 터치를 이용하여 섬세하고 정교하면서 손쉬운 조작을 통해 직관적이면서 빠르게 작업할 수 있도록 하는 이미지 내 오브젝트 윤곽선 수정 방법 및 시스템이 제공된다.
여기서 "멀티 터치"라는 용어는, 두 개 이상의 입력 도구(예컨대, 사용자의 손가락, 또는 터치 펜과 같은 도구 등)를 이용하여, 터치 패널 또는 터치 스크린과 같은 터치 입력 장치를 통해, 동시에 두 개 이상의 포인트를 터치(접촉)하는 것을 의미한다. 여기서 "동시에 ... 터치하는 것"의 의미는 글자 그대로 시간적으로 동시에 터치하는 것을 포함하지만, 이에만 제한되는 것은 아니다. 예컨대, 0.1초 또는 0.5초와 같은, 미리 결정된 시간 간격 내에서 동시 및/또는 순차적으로 터치되는 복수의 포인트들도 역시 동시에 터치된다고 정의될 수 있다.
도 1은, 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법(100)의 전체적인 프로세스를 설명하기 위한 흐름도이다.
실시예에 따라, 이미지 내 오브젝트 윤곽선의 수정 방법(100)은 예컨대, 초음파 진단 영상 장치, 데스크탑, 랩탑, 타블렛, 스마트폰과 같은 컴퓨팅 장치에 설치되고 실행되는 CAD 시스템의 일부 내장되어 구현되거나 또는 컴퓨터에 의해 실행될 수 있는 별도의 애드-인(add-in), 유틸리티, 루틴, 모듈, 컴퓨터 실행가능 인스트럭션(instructions), 소프트웨어 프로그램으로서 구현될 수 있지만, 이에만 제한되는 것은 아니다. 이와 같이 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법(100)을 컴퓨터-실행가능한 애드-인(add-in), 유틸리티, 루틴, 모듈, 컴퓨터 실행가능 인스트럭션, 소프트웨어 프로그램으로 구현했을 때, 구현된 이미지 내 오브젝트 윤곽선의 수정 방법(100)을 실행하는 컴퓨팅 장치는 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 시스템으로서 제공될 수 있다.
실시예에 따라, 이미지 내 오브젝트 윤곽선의 수정 시스템은 프로세서, 터치 입력 장치, 디스플레이 장치, 및 이미지 내 오브젝트 윤곽선의 수정 방법(100)을 프로세서가 실행할 수 있도록 구현한 컴퓨터 실행가능한 인스트럭션을 포함할 수 있다. 터치 입력 장치 및 디스플레이 장치는 하나의 터치 스크린으로서 통합된 것일 수 있다.
도 1을 참조하면, 일 실시예에 따라, 이미지 내 오브젝트 윤곽선의 수정 방법(100)은, 윤곽선을 화면에 표시하는 단계(110), 터치 포인트 입력 단계(120), 대응 윤곽선 포인트 매칭 단계(130), 터치 포인트 이동 단계(140), 대응 윤곽선 포인트 변화량 계산 단계(150), 모드 확인 단계(160), 윤곽선의 곡률 변화량 결정 단계(170, 180), 및 윤곽선 수정표시 단계(190)를 포함할 수 있다.
윤곽선을 화면에 표시하는 단계(110)는 프로세서가 이미지 내 오브젝트의 윤곽선을 디스플레이 화면에 표시하는 단계이다. 도 2는 일 실시예에 따라 이미지 내 오브젝트 윤곽선의 수정 방법(100)의 윤곽선을 화면에 표시하는 단계(110)에서 표시된 윤곽선의 예를 보여준다. 도 2를 참조하면, 예컨대 터치 스크린과 같은 디스플레이 상에서, 이미지(10) 위에 윤곽선(13)이 겹쳐서(overlaid, 또는 superimposed) 표시된다. 윤곽선(13)은, 예컨대 CAD 시스템에 포함되어 있는 윤곽선 분할 알고리즘과 시드 포인트(seed point) 또는 시드 도형 등을 이용하여 자동으로 또는 수동으로 생성된 것일 수 있다.
일단 윤곽선(13)이 이미지(10) 내의 특정 오브젝트의 경계선을 따라 생성되어 표시되면, 사용자는 화면에 표시된 윤곽선(13) 위나 인접한 위치를 터치함으로써 터치 포인트(151)를 입력할 수 있다. 실시예에 따라 사용자는 손(15)의 손가락 중 2개 내지 5개의 손가락을 사용하여 화면을 멀티 터치할 수 있다.
예를 들어, 이미지(10)는 유방암을 진단하기 위해 유방의 일부를 촬영한 초음파 영상일 수 있다. 이 경우, 윤곽선(13)이 표시된 오브젝트는 유방암으로 진단될 가능성이 있는 병변일 수 있다. 이 단계(110)에서 표시된 윤곽선(13)은 보다 정확한 진단을 위해 오브젝트의 경계선에 정확하게 들어맞도록 섬세하고 정교하게 조정될 필요가 있다. 실시예에 따라, 윤곽선을 오브젝트의 경계선에 맞추어 수정하기 위한 멀티 터치 기술이 제공된다.
도 3 내지 도 5는 사용자가 손가락을 이용한 멀티 터치에 의해 윤곽선을 수정하는 예들을 직관적으로 보여준다.
도 3은 일 실시예에 따라 윤곽선 내부에서 멀티 터치 포인트를 이용하여 윤곽선을 수정하는 예를 보여주는 도면이다. 도 3의 (a)는 이미지(20)의 윤곽선(23) 내부에서 사용자가 한 손(15)의 검지와 엄지를 이용하여 2개의 터치 포인트(151, 152)를 입력하는 모습을 보여준다. 사용자는 검지와 엄지로 터치한 터치 포인트(151, 152)를 오므리는 방향으로 즉 윤곽선(23) 내부를 향하여 드래그하고 있다. 그 결과, 도 3의 (b)에서 보여주는 바와 같이, 윤곽선(23)이 두 개의 터치 포인트(151, 152) 근처에서 안쪽으로 오므려진 형상으로 수정될 수 있다.
도 4는 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 윤곽선 외부에서 멀티 터치 포인트를 이용하여 윤곽선을 수정하는 다른 예를 보여주는 도면이다. 도 4의 (a)는 이미지(30)의 윤곽선(23) 외부에서 사용자가 한 손(15)의 을 이용하여 두 개의 터치 포인트(151, 152)를 터치하는 모습을 보여준다. 사용자는 엄지와 검지를 두 개의 포인트에 터치한 상태에서 윤곽선(33)으로부터 멀어지는 방향으로 즉 윤곽선(33) 외부를 향하여 드래그하고 있다. 그 결과, 도 4의 (b)에서 보여주는 바와 같이, 윤곽선(33)이 드래그한 부분으로 길게 늘어난 형상으로 수정될 수 있다.
도 5는 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 윤곽선 내부에서 멀티 터치 포인트를 이용하여 윤곽선을 수정하는 또 다른 예를 보여주는 도면이다. 도 5의 (a)는 이미지(40)의 윤곽선(43) 내부에서 사용자가 한 손(15)의 손가락 다섯 개 즉 엄지, 검지, 중지, 약지, 및 소지를 모두 이용하여 다섯 개의 터치 포인트(151, 152, 153, 154, 155)를 터치하는 모습을 보여준다. 사용자는 모든 손가락을 오므리는 방향으로 즉 윤곽선(43) 내부를 향하여 드래그하고 있다. 그 결과, 도 5의 (b)에서 보여주는 바와 같이, 윤곽선(43)이 다섯 개의 터치 포인트(151, 152, 153, 154, 155)와 인접한 부분에서 안쪽으로 오므려진 형상으로 수정될 수 있다.
다시 도 1을 참조하면, 일 실시예에 따라, 이미지 내 오브젝트 윤곽선의 수정 방법(100)의 윤곽선을 화면에 표시하는 단계(110) 이후, 프로세서는 예컨대 터치 스크린을 통해 사용자의 2개 이상의 손가락에 의해 입력되는 복수의 터치 포인트를 수신할 수 있다.
일단 사용자가 2개 이상의 손가락 또는 터치 펜과 같은 터치 입력 도구를 사용하여 터치하면, 터치 스크린과 같은 터치 입력 장치로부터 각각의 터치 포인트의 좌표값이 프로세서에 제공될 수 있다.
그 다음 대응 윤곽선 포인트 매칭 단계(130)에서, 프로세서는 수신된 터치 포인트 각각에 대해 이미 화면에 표시되어 있는 윤곽선에 포함되어 있는 포인트들 중 하나씩을 매칭시킬 수 있다. 하나의 터치 포인트에 대하여 하나의 대응 윤곽선 포인트가 매칭될 수 있다. 다른 방식으로 하나의 터치 포인트에 대하여 복수의 대응 윤곽선 포인트가 매칭될 수 있다.
실시예에 따라, 특정 터치 포인트에 대해 대응 윤곽선 포인트를 매칭시키는 기준은 둘 사이의 거리일 수 있다. 다시 말해서, 특정 터치 포인트와 가장 가까운 거리에 위치하는 윤곽선 내의 포인트를 이 특정 터치 포인트에 대한 대응 윤곽선 포인트로서 결정되어 매칭될 수 있다. 터치 포인트와 윤곽선 포인트 사이의 거리는 각각의 좌표값에 의해 계산될 수 있다.
여기서 "포인트"라 함은 이미지 내의 하나의 픽셀 및/또는 한 덩어리의 픽셀들을 의미할 수 있다. 만약 터치 포인트가 하나의 픽셀을 포함한다면, 터치 포인트의 좌표값은 해당 픽셀의 이미지 내의 좌표값을 의미할 수 있다. 이미지는 통상적으로 4각형의 화면에 2차원적으로 디스플레이되며, 각각의 픽셀은 이미지 내에서 특정한 위치를 가진다. 따라서 픽셀의 위치는 예컨대 이미지의 좌측 하단을 기준점으로 하여 (X, Y)의 2차원적인 좌표를 사용하여 나타낼 수 있다. 만약 터치 포인트가 한 덩어리의 픽셀들을 포함한다면, 터치 포인트의 좌표값은 한 덩어리의 픽셀들 중 미리 결정된 기준에 따라 선택되는 하나의 픽셀을 기준으로 결정될 수 있다. 예컨대 한 덩어리의 픽셀들 중 가장 중앙에 위치하는 픽셀이 기준으로 선택될 수 있다.
윤곽선의 두께는 하나의 픽셀 두께일 수도 있고, 복수의 픽셀 두께일 수도 있으며, 위치에 따라 서로 다른 수의 픽셀을 가질 수 있다. 윤곽선 포인트의 좌표값은, 터치 포인트의 좌표값과 유사하게, 윤곽선 포인트를 이루는 픽셀을 기준으로 또는 픽셀들 중 선택된 하나의 픽셀을 기준으로 결정될 수 있다.
예컨대, 윤곽선 포인트의 좌표값이 (x1, y1)이고, 터치 포인트의 좌표값이 (x2, y2)라면, 둘 사이의 거리(S)는 수학식 1에 의해 결정될 수 있다.
Figure 112013112431280-pat00001
도 6은 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 터치 포인트와 윤곽선 포인트 사이의 매칭 과정을 설명하기 위한 도면이다. 도 6을 참조하면, 예컨대, 사용자가 한 손(50)의 엄지와 검지를 사용하여 터치 스크린을 통해 표시되어 있는 윤곽선(60)의 내부에서 두 개의 위치를 터치함으로써 두 개의 터치 포인트(51, 52)를 입력하였다고 하자. 그러면, 프로세서는 터치 스크린으로부터 두 개의 터치 포인트(51, 52)에 대한 좌표값을 제공받을 수 있다. 또한 프로세서는 표시된 윤곽선(60)에 대한 데이터를 조회하여, 두 개의 터치 포인트(51, 52)와 가장 가까운 거리를 가지는 두 개의 대응 윤곽선 포인트(61, 62)를 결정할 수 있다.
다시 도 1을 참조하면, 사용자가 윤곽선 위나 근처에서 복수의 터치 포인트를 입력하기 위해 예컨대 2개의 손가락을 터치 스크린에 접촉하면(120), 프로세서는 각각의 터치 포인트에 대응 윤곽선 포인트를 매칭시키는 프로세스를 진행시킨다(130). 이와 동시에 또는 이후에, 사용자는, 손가락들을 터치 스크린에서 떼지 않고 드래그함으로써, 원하는 방향으로, 원하는 거리만큼, 및/또는 원하는 속도로 이동시킬 수 있다. 그러면, 프로세서는 복수의 터치 포인트가 이동하는 경로를 추적하여 터치 포인트 이동 데이터를 생성할 수 있다(140).
생성되는 터치 포인트 이동 데이터는, 터치 포인트가 드래그되는 궤적에 포함된 포인트 좌표값을 포함할 수 있다. 터치 포인트가 드래그되는 동안 그려지는 궤적은 시작점과 종단점 및 그 사이를 포함한다. 시작점은 터치 포인트의 입력시 위치이다. 종단점은 시작점으로부터 터치 상태로 드래그되어 이동하다가 터치가 중단되는 위치이다.
터치 포인트 이동 데이터는 터치 포인트가 이동하는 궤적에 속하는 포인트들 중 적어도 2개의 포인트의 좌표값을 포함하는 것이 바람직하다. 예컨대, 시작점 및 종단점의 좌표값들을 포함할 수 있다. 또는 시작점과 종단점 및 그 중간의 포인트의 좌표값들을 포함할 수 있다.
이외에 터치 포인트 이동 데이터는 각각의 터치 포인트 사이의 거리, 및 터치 포인트의 개수를 포함할 수 있다. 터치 포인트 사이의 거리는 각 터치 포인트 궤적의 시작점 사이의 거리 및/또는 종단점 사이의 거리일 수 있다. 터치 포인트의 개수는 입력된 터치 포인트의 개수이다. 예컨대 사용자의 손 하나가 터치 입력 도구일 경우, 터치 포인트의 개수는 2개 내지 5개일 수 있다.
또한 터치 포인트 이동 데이터는, 각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력, 또는 평균 속도 중 적어도 하나를 포함할 수 있다. 이동한 거리는, 터치 포인트의 궤적의 두 포인트 즉 시작점과 종단점 사이의 거리를 계산하여 산출될 수 있다. 또는 터치 포인트가 드래그되는 곡선의 길이를 직접 계산하여 산출될 수도 있다. 이동하는데 걸린 시간은 예컨대 프로세서 내에 내장된 타이머를 이용하여 터치 포인트의 궤적의 시작점이 생성된 시점부터 종단점이 생성된 시점까지 경과된 시간으로서 산출될 수 있다. 이동한 방향은 터치 포인트의 궤적의 두 포인트 즉 시작점과 종단점 사이의 2차원 벡터를 구하여 산출될 수 있다. 이동할 때의 평균 속력 및 평균 속도는, 이동 거리, 시간 및 방향을 이용하여 기본적인 역학 방정식(속력 = 거리/시간)을 이용하여 계산될 수 있다.
터치 포인트 이동 데이터가 생성되면, 이것에 기초하여, 각 대응 윤곽선 포인트의 이동량이 윤곽선 포인트의 변화량으로서 계산된다(150). 즉 특정 터치 포인트가 이동된 양에 기초하여 이 특정 터치 포인트에 매칭되어 있는 대응 윤곽선 포인트가 이동된 양이 계산된다. 대응 윤곽선 포인트가 이동된 양은 대응 윤곽선 포인트의 변화량이다. 예를 들면, 터치 포인트가 이동된 거리 및 방향과 동일한 거리 및 방향만큼 대응 윤곽선 포인트가 이동될 수 있다. 다른 예를 들면, 대응 윤곽선 포인트는 터치 포인트가 이동된 거리보다 작은 거리만큼 및 터치 포인트가 이동된 방향과 동일한 방향으로 이동될 수 있다. 또 다른 예를 들면, 대응 윤곽선 포인트는 터치 포인트가 이동된 거리보다 더 큰 거리만큼 및 터치 포인트가 이동된 방향과 동일한 방향으로 이동될 수 있다.
윤곽선은 포인트들이 연속되어 있는 곡선의 형태인 반면에 대응 윤곽선 포인트는 2개 내지 5개 정도의 띄엄띄엄 떨어져 있는 포인트들이다. 따라서 대응 윤곽선 포인트 주변의 다른 윤곽선 포인트들의 위치도 변화되어야 비로소 윤곽선의 형태가 변화될 수 있다. 대응 윤곽선 포인트 주변의 다른 윤곽선 포인트들의 위치 변화는 "윤곽선의 곡률 변화량"으로서 표현될 수 있다.
도 7의 (a) 내지 (c)는 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법에서 윤곽선의 곡률을 조정하는 과정을 예시한 도면이다. 도 7의 (a)는 곡률(curvature)의 정도가 상대적으로 작은, 즉 뾰족한 형태의 윤곽선(70)을 보여준다. 도 7의 (b)는 곡률의 정도가 도 7의 (a)에 도시된 것보다는 더 크지만 도 7의 (c)에 도시된 것보다는 작은 형태의 윤곽선(71)를 보여준다. 도 7의 (c)는 곡률 정도가 상대적으로 큰, 즉 둥근 형태의 윤곽선(72)을 보여준다.
도 7의 (a) 내지 (c)에 보여지는 바와 같은 윤곽선 곡률의 다양한 변화를 멀티 터치를 이용하여 수행하는 과정의 디테일은, 아래의 도 1의 곡률 변화량을 결정하는 단계(160, 170, 180)과 관련하여 기술된다.
다시 도 1을 참조하면, 실시예에 따라, 윤곽선 포인트의 변화량이 계산(150)되는 것과 동시에 또는 순차적으로, 터치 포인트 이동 데이터에 기초하여 윤곽선의 곡률 변화량을 결정하는 단계(160, 170, 180)가 진행될 수 있다.
먼저 윤곽선의 곡률 변화량을 정적모드에 의해 결정할 것으로 설정되어 있는지, 동적모드에 의해 결정할 것으로 설정되어 있는지가 판단된다(160). 정적모드에 의해 결정될 것으로 설정되어 있다면, 정적 접근법(static approach) 즉 정적모드 파라미터에 따라 윤곽선의 곡률 변화량이 결정된다(170). 동적모드에 의해 결정될 것으로 설정되어 있다면, 동적인 접근법(dynamic approach), 즉 동적모드 파라미터에 따라 윤곽선 곡률 변화량이 결정된다(180).
설정 모드가 정적모드라면, 윤곽선 곡률 변화량은, 정적모드 파라미터에 따라 결정될 수 있다(170). 정적모드 파라미터는, 예를 들어, 터치 포인트의 이동방향으로 10% 증가, 20% 증가, 30% 증가 등과 같이 미리 변화될 윤곽선의 곡률 변화량의 정도를 지정하는 변화량 설정값일 수 있다. 사용자는 예컨대 모드 설정 및 정적모드 파라미터 설정 과정에서 여러 개의 정적모드 파라미터들 중에서 하나를 선택함으로써 원하는 곡률 변화량을 반영할 수 있는 정적모드 파라미터를 설정할 수 있다. 이 경우, 사용자가 터치 포인트를 드래그하여 이동하면, 예컨대 터치 포인트가 드래그된 이동 방향으로 설정된 정적모드 파라미터에 의해 곡률 변화량이 결정될 수 있다.
설정 모드가 동적 모드라면, 대응 윤곽선 곡률 변화량은 동적모드 파라미터에 따라 결정될 수 있다(180). 동적모드 파라미터는 각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력, 또는 이동할 때의 평균 속도 중 적어도 하나에 따라 윤곽선 곡률 변화량이 결정되도록 지정하는 것일 수 있다. 사용자는 예컨대 모드 설정 및 정적모드 파라미터 설정 과정에서 여러 개의 동적모드 파라미터들 중에서 하나를 선택함으로써 원하는 윤곽선 곡률 변화량을 반영할 수 있는 동적모드 파라미터를 설정할 수 있다.
일 예에서, 동적모드 파라미터는 윤곽선의 곡률 변화량을, 예컨대, 손가락의 드래그 속도가 빠르면 빠를수록 더 날카롭게 윤곽선 형태가 변화되고, 속도가 느리면 느릴수록 더 뭉툭하게 모양이 변화하도록 지정할 수 있다. 이것은 실제 세계에서 붓으로 선을 그릴 때 빠르게 그리면 선이 날카로와지고 천천히 선을 그리면 더 부드럽고 뭉퉁한 선을 그릴 수 있는 사용자의 경험과 유사할 수 있다.
다른 예에서, 동적모드 파라미터는 윤곽선의 곡률 변화량을, 각각의 터치 포인트가 입력된 위치와 각각의 터치 포인트를 위한 대응 윤곽선 포인트 사이의 거리의 크기에 따라 지정할 수 있다. 이것은 사용자가 직관적으로 윤곽선의 뾰족함 정도를 입력 터치 포인트와 윤곽선 사이의 거리에 따라 조절할 수 있게 한다. 예컨대, 터치 포인트를 윤곽선과 가까운 곳에 입력하면 윤곽선 곡률이 작게 즉 더 뾰족하게 또는 덜 둥글게 변화하도록 할 수 있고, 반면에 터치 포인트를 윤곽선과 먼 곳에 입력하면 윤곽선 곡률이 크게 즉, 더 둥글게 변화하도록 할 수 있다.
또 다른 예에서, 동적모드 파라미터는 윤곽선의 곡률 변화량을, 입력된 터치 포인트들 사이 거리의 크기에 따라 지정할 수 있다. 예컨대, 엄지와 검지 사이의 거리를 좁게 하여 터치하면 윤곽선이 덜 둥글게 변화하도록 할 수 있고, 반면에 엄지와 검지 사이의 거리를 넓게 하여 터치하면 더 둥글게 변화하도록 할 수 있다.
또 다른 예에서, 동적모드 파라미터는 윤곽선의 곡률 변화량을, 입력된 터치 포인트들의 개수에 따라 지정할 수 있다. 예컨대, 두 개의 손가락으로만 터치하면 윤곽선이 덜 둥글게 변화하도록 할 수 있고, 반면에 다섯 개의 손가락으로 터치하면 더 둥글게 변화하도록 할 수 있다.
다시 도 1을 참조하면, 실시예에 따라, 각각의 윤곽선 포인트 변화량 및 각각의 윤곽선 포인트들 사이의 윤곽선의 곡률 변화량이 결정되면, 대응 윤곽선 포인트 변화량 및 윤곽선의 곡률 변화량을 반영하여 윤곽선을 수정하고 화면에 표시하는 단계(190)가 진행될 수 있다. 윤곽선의 수정은, 각각의 대응 윤곽선 포인트 변화량을 반영하여 대응 윤곽선 포인트들을 이동시키고, 이동된 대응 윤곽선 포인트들 사이의 윤곽선 부분을 윤곽선의 곡률 변화량을 반영하여 형성함으로써, 이루어질 수 있다.
상술한 바와 같은 실시예에 따르면, 멀티 터치 포인트 즉 복수의 터치 포인트를 이용하기 때문에, 기존에 마우스와 같은 포인팅 장치를 이용하여 윤곽선을 수정하는 작업에 비하여 작업 시간이 단축될 수 있다. 마우스와 같은 입력 장치는 동시에 다수의 포인트를 입력할 수 없기 때문에 조작 기술에 한계가 있었다. 실시예에 따르면 예컨대 두 개 이상의 손가락을 이용하여 터치 스크린에 동시에 다수의 포인트를 입력하여 윤곽선을 조작할 수 있다. 따라서 마우스에 의한 작업에 비하여 다양한 윤곽선 수정 방법이 제공될 수 있다.
도 8은 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 시스템을 설명하기 위한 블록도이다.
도 8을 참조하면, 일 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 시스템(800)은, 터치 스크린(820), 프로세서(840), 타이머(860) 및 메모리(880)를 포함한다.
터치 스크린(820)은 터치 입력 수단(822)과 디스플레이(821)가 통합되어 있는 장치이다. 사용자는 터치 스크린(820)에 표시된 이미지의 특정 위치를 손가락이나 터치 펜을 이용하여 두들기거나 밀거나 긋는 등의 행동을 통해 원하는 명령을 입력할 수 있다. 비록 도시된 예에서, 이미지 내 오브젝트 윤곽선의 수정 시스템(800)이 터치 입력 수단(822)과 디스플레이(821)가 통합되어 있는 터치 스크린(820)을 포함하고 있지만, 실시예가 이러한 구성으로 제한되지 않는다. 예를 들어, 이미지 내 오브젝트 윤곽선의 수정 시스템(800)은 터치 입력 수단으로서 터치패널을 포함할 수 있고, 디스플레이로서 터치패널과는 별도로 연결되어 있는 모니터를 포함할 수 있다.
프로세서(840)는 상술한 실시예에 따른 이미지 내 오브젝트 윤곽선의 수정 방법을 구현하는 소프트웨어 프로그램을 탑재하여 실행할 수 있으며, 예컨대, 마이크로프로세서, CPU, 프로그래머블 ROM, EEPROM 등을 포함할 수 있지만, 이에만 제한되는 것은 아니다.
도시된 예에서, 프로세서(840), 타이머(860) 및 메모리(880)가 각각 별개의 컴포넌트로서 보여지고 있으나, 실시예가 이러한 구성으로만 제한되지 않는다. 예컨대 프로세서(840)는 타이머(860) 및/또는 메모리(880)를 포함할 수 있다.
또한 도시된 예에서, 프로세서(840)는 단일한 컴포넌트로서 도시되어 있으나, 실시예가 이러한 구성으로만 제한되지 않는다. 프로세서(840)는 하나의 컴포넌트가 아니라 두 개 이상의 별개의 컴포넌트로서 구현될 수 있다. 프로세서(840)가 두 개 이상의 컴포넌트로서 구현될 경우, 이들 컴포넌트들은 하나의 단일 장치 내에 포함되는 형태로 구현될 수 있고, 또한 통신 네트워크를 통해 서로 협력하는 분산형 시스템 형태로서도 구현될 수 있다.
타이머(860)는 통상적으로 프로세서(840)에 필수적으로 내장되는 컴포넌트일 수 있다.
메모리(880)는, 휘발성 및/또는 비휘발성 메모리, 리무버블 및 논-리무버블 메모리를 포함하며, 상술한 실시예들에 따른 방법을 구현하는 소프트웨어 프로그램을 구현한 인스트럭션(instructions)을 저장하는 컴퓨터 판독가능 매체이다. 메모리(880)에는 예컨대, ROM, RAM, 플로피 디스크, 하드 디스크, 고체 디스크, 광 디스크, CD, DVD, USB, 플래시 메모리, 자기 디스크, 자기 테이프 등이 포함될 수 있지만 이에만 제한되는 것은 아니다.
일 실시예에 따라, 이미지 내 오브젝트 윤곽선의 수정 시스템(800)은 컴퓨터 실행가능한 인스트럭션(instructions)을 저장하고 있는 컴퓨터 판독가능 매체를 포함할 수 있다. '컴퓨터 판독가능 매체'라 함은 인스트럭션을 저장하는 스토리지 매체 및 인스트럭션을 포함하고 있는 통신용 신호 매체를 포함할 수 있다.
스토리지 매체라 함은, 도 8의 메모리(880)를 포함할 수 있고, 그 이외에도 도 8의 프로세서(840) 내에 내장되어 있는 캐쉬 메모리를 포함할 수 있고, 휘발성 및/또는 비휘발성 메모리, 리무버블 및 논-리무버블 매체를 포함한다. 통신용 신호 매체라 함은, 반송파와 같이 변조된 통신용 신호 형태로 구성된 매체로서 유선 및/또는 무선을 통하여 컴퓨팅 장치가 로컬적으로 및/또는 원격으로 소통하기 위하여 사용하는 임의의 신호 형태로 컴퓨터 실행가능한 인스트럭션을 코딩하는 것을 의미할 수 있다.
10, 20, 30, 40 : 이미지
13, 23, 33. 43, 60, 70, 71, 72 : 윤곽선
15, 50 : 손
151, 152, 153, 154, 155, 51, 52 : 터치 포인트
61, 62 : 윤곽선 포인트
800 : 이미지 내 오브젝트 윤곽선 수정 시스템
820 : 터치 스크린
840 : 프로세서
860 : 타이머
880 : 메모리

Claims (20)

  1. 진단용 이미지 내 오브젝트의 윤곽선을 화면에 표시하는 단계;
    복수의 터치 포인트를 수신하는 단계;
    수신된 각각의 터치 포인트에 대해 상기 윤곽선 내에서 대응 윤곽선 포인트들 각각을 매칭하는 단계;
    상기 수신된 각각의 터치 포인트가 이동하는 경로를 추적하여 터치 포인트 이동 데이터를 생성하는 단계;
    상기 터치 포인트 이동 데이터에 기초하여 상기 대응 윤곽선 포인트들 각각의 변화량을 계산하는 단계;
    상기 터치 포인트 이동 데이터에 기초하여 상기 대응 윤곽선 포인트들 사이의 윤곽선의 곡률 변화량을 결정하는 단계; 및
    상기 대응 윤곽선 포인트들 각각의 변화량 및 상기 곡률 변화량을 반영하여 상기 윤곽선을 수정하고 화면에 표시하는 단계를 포함하고,
    상기 곡률 변화량을 결정하는 단계는,
    상기 수신된 각각의 터치 포인트가 이동할 때의 속도, 상기 수신된 각각의 터치 포인트가 입력된 위치와 상기 수신된 각각의 터치 포인트를 위한 대응 윤곽선 포인트 사이의 거리, 상기 수신된 각각의 터치 포인트 사이의 거리, 및 상기 수신된 복수의 터치 포인트의 개수 중 적어도 하나에 기초하여 상기 곡률 변화량을 결정하는 단계를 포함하는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  2. 제 1 항에 있어서,
    상기 대응 윤곽선 포인트들 각각은,
    상기 윤곽선 내의 포인트들 중에서 각각의 터치 포인트의 좌표값에 대해 거리상으로 가장 가까운 좌표값을 가지는 포인트로 결정되는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  3. 제 1 항에 있어서,
    상기 터치 포인트 이동 데이터는,
    각각의 터치 포인트의 입력시 위치인 시작점으로부터 터치 상태로 드래그되어 이동하다가 터치가 중단되는 위치인 종단점까지 연속되는 각 터치 포인트의 이동 경로 상에 포함되는 포인트들 중 적어도 2개의 포인트의 좌표값,
    각각의 터치 포인트 사이의 거리, 및
    상기 터치 포인트의 개수
    를 포함하는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  4. 제 1 항에 있어서,
    상기 터치 포인트 이동 데이터는,
    각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력, 및 이동할 때의 평균 속도 중 적어도 하나를 포함하는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  5. 제 1 항에 있어서,
    상기 대응 윤곽선 포인트들 각각의 변화량은,
    각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력 및 이동할 때의 평균 속도 중 적어도 하나에 기초하여 계산되는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  6. 삭제
  7. 삭제
  8. 제 1 항에 있어서,
    상기 곡률 변화량은,
    각각의 터치 포인트가 입력된 위치와 각각의 터치 포인트를 위한 대응 윤곽선 포인트의 위치 사이의 거리에 따라 결정되는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  9. 제 1 항에 있어서,
    상기 곡률 변화량은,
    수신된 터치 포인트들 사이 거리의 크기에 따라 결정되는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  10. 제 1 항에 있어서,
    상기 곡률 변화량은,
    수신된 터치 포인트의 개수에 따라 결정되는, 이미지 내 오브젝트 윤곽선의 수정 방법.
  11. 프로세서;
    터치 입력 장치;
    디스플레이; 및
    컴퓨터 실행가능한 인스트럭션(instructions)을 저장하고 있는 컴퓨터 판독가능 매체를 포함하며,
    상기 인스트럭션은 상기 프로세서에 의해 실행되면 상기 프로세서가,
    진단용 이미지 내 오브젝트의 윤곽선을 상기 디스플레이를 통해 표시하는 액션;
    상기 터치 입력 장치를 통해 복수의 터치 포인트를 수신하는 액션;
    수신된 각각의 터치 포인트에 대해 상기 디스플레이에 표시된 윤곽선 내에서 대응 윤곽선 포인트들 각각을 매칭하는 액션;
    수신된 각각의 터치 포인트가 이동하는 경로를 추적하여 터치 포인트 이동 데이터를 생성하는 액션;
    상기 터치 포인트 이동 데이터에 기초하여 상기 대응 윤곽선 포인트들 각각의 변화량을 계산하는 액션;
    상기 터치 포인트 이동 데이터에 기초하여 상기 대응 윤곽선 포인트들 사이의 윤곽선의 곡률 변화량을 결정하는 액션; 및
    계산된 상기 대응 윤곽선 포인트들 각각의 변화량 및 상기 곡률 변화량을 반영하여 상기 윤곽선을 수정하고 상기 디스플레이에 표시하는 액션을 포함하는 동작을 수행하도록 하고,
    상기 곡률 변화량을 결정하는 액션은,
    상기 수신된 각각의 터치 포인트가 이동할 때의 속도, 상기 수신된 각각의 터치 포인트가 입력된 위치와 상기 수신된 각각의 터치 포인트를 위한 대응 윤곽선 포인트 사이의 거리, 상기 수신된 각각의 터치 포인트 사이의 거리, 및 상기 수신된 복수의 터치 포인트의 개수 중 적어도 하나에 기초하여 상기 곡률 변화량을 결정하는 액션을 포함하는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
  12. 제 11 항에 있어서,
    상기 터치 입력 장치와 상기 디스플레이는 하나의 터치 스크린 장치에 통합되어 있는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
  13. 제 11 항에 있어서,
    상기 터치 포인트 이동 데이터는,
    각각의 터치 포인트의 입력시 위치인 시작점으로부터 터치 상태로 드래그되어 이동하다가 터치가 중단되는 위치인 종단점까지 연속되는 각 터치 포인트의 이동 경로 상에 포함되는 포인트들 중 적어도 2개의 좌표값, 각각의 터치 포인트 사이의 거리, 및 터치 포인트의 개수를 포함하는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
  14. 제 11 항에 있어서,
    상기 터치 포인트 이동 데이터는,
    각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력, 또는 평균 속도 중 적어도 하나를 포함하는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
  15. 제 11 항에 있어서,
    상기 대응 윤곽선 포인트들 각각의 변화량은,
    각각의 터치 포인트가 이동한 거리, 이동하는데 걸린 시간, 이동한 방향, 이동할 때의 평균 속력, 또는 평균 속도 중 적어도 하나에 기초하여 계산되는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
  16. 삭제
  17. 삭제
  18. 제 11 항에 있어서,
    상기 곡률 변화량은,
    각각의 터치 포인트가 입력된 위치와 각각의 터치 포인트를 위한 대응 윤곽선 포인트 사이의 거리의 크기에 따라 결정되는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
  19. 제 11 항에 있어서,
    상기 곡률 변화량은,
    입력된 터치 포인트들 사이 거리의 크기에 따라 결정되는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
  20. 제 11 항에 있어서,
    상기 곡률 변화량은,
    입력된 터치 포인트들의 개수에 따라 결정되는, 이미지 내 오브젝트 윤곽선의 수정 시스템.
KR1020130152246A 2013-12-09 2013-12-09 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템 Active KR102205906B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130152246A KR102205906B1 (ko) 2013-12-09 2013-12-09 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템
US14/511,486 US10042531B2 (en) 2013-12-09 2014-10-10 Method and apparatus of modifying contour line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130152246A KR102205906B1 (ko) 2013-12-09 2013-12-09 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20150071722A KR20150071722A (ko) 2015-06-29
KR102205906B1 true KR102205906B1 (ko) 2021-01-22

Family

ID=53271191

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130152246A Active KR102205906B1 (ko) 2013-12-09 2013-12-09 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템

Country Status (2)

Country Link
US (1) US10042531B2 (ko)
KR (1) KR102205906B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US10001898B1 (en) 2011-07-12 2018-06-19 Domo, Inc. Automated provisioning of relational information for a summary data visualization
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
WO2018195821A1 (zh) * 2017-04-26 2018-11-01 深圳迈瑞生物医疗电子股份有限公司 一种图像数据调节方法及设备
WO2019087766A1 (ja) 2017-10-31 2019-05-09 東レ株式会社 炭素繊維束およびその製造方法
KR102486967B1 (ko) * 2022-07-04 2023-01-10 주식회사 데이터메이커 인공지능 학습용 라벨 데이터 수정 방법
CN115291789B (zh) * 2022-08-03 2024-04-26 青岛海信移动通信技术有限公司 一种笔迹拟合方法、装置、终端设备和介质

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5577176A (en) * 1994-11-23 1996-11-19 Computervision Corporation Method and apparatus for displaying a cursor along a two dimensional representation of a computer generated three dimensional surface
US6911980B1 (en) * 1999-12-10 2005-06-28 Adobe Systems Incorporated Manipulation of curves and surfaces
US7408560B2 (en) * 2003-03-05 2008-08-05 Siemens Product Lifecycle Management Software Inc. System and method for dynamic propagation and display of graphical edits
US7397936B2 (en) * 2003-08-13 2008-07-08 Siemens Medical Solutions Usa, Inc. Method and system for wavelet based detection of colon polyps
US20050240882A1 (en) * 2004-04-21 2005-10-27 Ge Medical Systems Information Technologies, Inc. Method and system for displaying regions of pathological interest
JP4260060B2 (ja) * 2004-05-12 2009-04-30 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X線ct装置および画像再構成装置
WO2006042077A2 (en) * 2004-10-09 2006-04-20 Viatronix Incorporated Sampling medical images for virtual histology
US20060119578A1 (en) * 2004-11-11 2006-06-08 Thenkurussi Kesavadas System for interfacing between an operator and a virtual object for computer aided design applications
CN102083387A (zh) * 2008-01-23 2011-06-01 森瑟博科技有限公司 能触觉操作的齿科建模系统
US20090208409A1 (en) * 2008-02-15 2009-08-20 The Government Of The United States Of America, As Represented By The Secretary, Dhhs Encapsulated nanoparticles for computed tomography imaging
US8331685B2 (en) * 2008-05-28 2012-12-11 Apple Inc. Defining a border for an image
KR100975869B1 (ko) * 2008-10-17 2010-08-13 삼성모바일디스플레이주식회사 터치 포인트 검출 방법 및 장치
US8749497B2 (en) * 2008-12-12 2014-06-10 Apple Inc. Multi-touch shape drawing
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress
US8400472B2 (en) * 2009-02-25 2013-03-19 Technion Research & Development Foundation Limited Method and system of geometric deformation
US8712119B2 (en) * 2009-09-11 2014-04-29 Siemens Medical Solutions Usa, Inc. Systems and methods for computer-aided fold detection
US20110087999A1 (en) * 2009-09-30 2011-04-14 International Business Machines Corporation Set definition in data processing systems
US8957918B2 (en) * 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
US8390600B2 (en) * 2009-11-13 2013-03-05 Microsoft Corporation Interactive display system with contact geometry interface
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
KR101136486B1 (ko) * 2010-01-28 2012-04-23 서울대학교산학협력단 적응적 세미 퍼시스턴트 스케쥴링 방법 및 장치
GB2478329B (en) * 2010-03-03 2015-03-04 Samsung Electronics Co Ltd Medical image processing
US8693744B2 (en) * 2010-05-03 2014-04-08 Mim Software, Inc. Systems and methods for generating a contour for a medical image
KR20120057394A (ko) * 2010-11-26 2012-06-05 엘지이노텍 주식회사 포토 커플러의 전류전송비를 개선하는 보상회로 및 상기 보상회로를 구비하는 전압제어시스템
US9116609B2 (en) * 2011-03-30 2015-08-25 Mckesson Financial Holdings Methods, apparatuses and computer program products for generating regions of interest using gestures via a user interface
US8972295B2 (en) * 2011-05-23 2015-03-03 Visible Market, Inc. Dynamic visual statistical data display and method for limited display device
US9201666B2 (en) * 2011-06-16 2015-12-01 Microsoft Technology Licensing, Llc System and method for using gestures to generate code to manipulate text flow
US9678644B2 (en) * 2011-06-29 2017-06-13 Koninklijke Philips N.V. Displaying a plurality of registered images
KR20130052753A (ko) * 2011-08-16 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기
US9292195B2 (en) * 2011-12-29 2016-03-22 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
US10831936B2 (en) * 2012-03-30 2020-11-10 Regents Of The University Of Minnesota Virtual design
US9383895B1 (en) * 2012-05-05 2016-07-05 F. Vinayak Methods and systems for interactively producing shapes in three-dimensional space
JP5912065B2 (ja) * 2012-06-01 2016-04-27 株式会社Pfu 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
US9111357B2 (en) * 2012-06-07 2015-08-18 Medsnap, Llc System and method of pill identification
GB201210172D0 (en) * 2012-06-08 2012-07-25 Siemens Medical Solutions Navigation mini-map for structured reading
JP6188288B2 (ja) * 2012-07-20 2017-08-30 キヤノン株式会社 情報処理装置及びその制御方法
US20140098142A1 (en) * 2012-10-09 2014-04-10 School Yourself, Inc. System and method for generation and manipulation of a curve in a dynamic graph based on user input
US9317893B2 (en) * 2013-03-26 2016-04-19 Sharp Laboratories Of America, Inc. Methods and systems for correcting a document image
US9542093B2 (en) * 2013-05-07 2017-01-10 FiftyThree, Inc. Methods and apparatus for providing partial modification of a digital illustration
CA2918295A1 (en) * 2013-07-15 2015-01-22 Tel Hashomer Medical Research, Infrastructure And Services Ltd. Mri image fusion methods and uses thereof
US9940709B2 (en) * 2013-10-12 2018-04-10 H. Lee Moffitt Cancer Center And Research Institute, Inc. Systems and methods for diagnosing tumors in a subject by performing a quantitative analysis of texture-based features of a tumor object in a radiological image

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
국제공개특허 제2012-057394호(2012.05.03.) 1부.*
미국공개특허 제2011-0087999호(2011.04.14.) 1부.*
미국공개특허 제2012-0324332호(2012.12.20.) 1부.*
한국공개특허 제10-2010-0042900호(2010.04.27.) 1부.*

Also Published As

Publication number Publication date
US20150160843A1 (en) 2015-06-11
KR20150071722A (ko) 2015-06-29
US10042531B2 (en) 2018-08-07

Similar Documents

Publication Publication Date Title
KR102205906B1 (ko) 이미지 내 오브젝트 윤곽선의 수정 방법 및 시스템
US10186062B2 (en) Contour segmentation apparatus and method based on user interaction
US20230335262A1 (en) Three-dimensional cardiac representation
US11163158B2 (en) Skin-based approach to virtual modeling
EP2751779B1 (en) A workflow for ambiguity guided interactive segmentation of lung lobes
JP2017536873A (ja) 注視追跡駆動による関心領域セグメンテーション
WO2013148369A1 (en) Virtual design
KR101693808B1 (ko) 3d기반의 비강 수술 시뮬레이션 방법 및 그 장치
CN111656402B (zh) 用于与血管图像交互的设备、系统和方法
US20140184587A1 (en) Apparatus and method for supporting 3d ultrasound image analysis
US10636184B2 (en) Methods and systems for interactive 3D segmentation
JP7340927B2 (ja) 3dオブジェクトの設計のための描画平面を定義するための方法
KR101167784B1 (ko) 단말기의 후면부 손가락 움직임에 따른 포인터 인식 방법 및 제어 명령어 인식 방법
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
JP7020636B2 (ja) 光干渉断層撮影スキャン制御
US11004195B2 (en) Image processing device, image processing method, program, and recording medium
EP2779116B1 (en) Smooth manipulation of three-dimensional objects
JP6790274B2 (ja) 画像上に配置された点のシーケンスを含む輪郭を修正する方法及び装置
CN112328164B (zh) 操控方法和电子设备
JP2015114762A (ja) 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
JP2006055402A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2006174949A (ja) 医用画像処理装置
WO2024246020A1 (en) A computer-implemented method and image processing device for marking objects on 3d images
US20130314418A1 (en) System for Erasing Medical Image Features

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20131209

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20181120

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20131209

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200313

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201026

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210115

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210118

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20231228

Start annual number: 4

End annual number: 4