KR20100085328A - 디스플레이장치 및 영상표시방법 - Google Patents
디스플레이장치 및 영상표시방법 Download PDFInfo
- Publication number
- KR20100085328A KR20100085328A KR1020090004545A KR20090004545A KR20100085328A KR 20100085328 A KR20100085328 A KR 20100085328A KR 1020090004545 A KR1020090004545 A KR 1020090004545A KR 20090004545 A KR20090004545 A KR 20090004545A KR 20100085328 A KR20100085328 A KR 20100085328A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- animation
- user
- still image
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
본 발명은 디스플레이장치 및 영상표시방법에 관한 것으로서, 보다 상세하게는 애니메이션을 수행하는 디스플레이장치 및 영상표시방법에 관한 것이다.
최근 텔레비전과 같은 디스플레이장치는 다양한 데이터 정보를 표시하거나 서버 등으로부터 수신한 다양한 컨텐츠를 표시할 수 있다. 특히, 디지털 매체가 급속도로 발전하면서 사용자가 직접 촬상한 사진이나 명화 등을 디스플레이장치에 표시하여 마치 액자와 같이 이용하는 전자액자 기능이 활성화되고 있다.
이처럼, 디스플레이장치에서 구현되는 기능이 다양화 될수록 사용자가 디스플레이장치에 표시되는 컨텐츠를 제어하기 위하여 다양한 인터페이스 역시 점차 발전하고 있다.
본 발명의 일 실시예는 사용자 흥미를 유발하고, 다양한 애니메이션을 수행할 수 있는 디스플레이장치 및 영상표시방법을 제공한다.
또한, 본 발명의 일 실시예는 사용자의 동작에 대응하여 복수의 애니메이션 동작을 수행할 수 있는 디스플레이장치 및 영상표시방법을 제공한다.
또한, 본 발명의 일 실시예는 애니메이션에 대응하는 음향을 출력하는 디스플레이장치 및 영상표시방법을 제공한다.
본 발명에 따른 디스플레이부를 갖는 디스플레이장치는 사용자 동작을 감지하는 감지부와; 신호처리부와; 정지영상이 상기 디스플레이부에 표시되어 있고 상기 감지부를 통하여 사용자 동작이 감지되는 경우, 상기 정지영상과 관련된 애니메이션 동작이 상기 디스플레이부에 표시되도록 상기 신호처리부를 제어하는 제어부를 포함할 수 있다.
상기 애니메이션 동작은 특정 객체의 움직임, 배경의 움직임 및 색상의 변화 중 적어도 하나를 포함할 수 있다.
상기 정지영상은 적어도 하나의 객체를 포함하고, 상기 객체마다 사용자 동작을 감지할 수 있는 감지영역이 설정되어 있으며, 사용자 동작이 상기 감지영역에서 감지된 경우, 상기 객체가 움직이는 애니메이션 동작이 수행될 수 있다.
상기 감지영역은 복수의 세부감지영역을 포함하고, 사용자 동작이 감지된 상기 세부감지영역 별로 상이한 애니메이션 동작이 수행될 수 있다.
상기 정지영상은 복수의 객체를 포함하고, 사용자 동작이 감지된 경우, 상기 복수의 객체 중 적어도 두 개의 객체가 순차적으로 또는 동시에 움직이는 애니메이션 동작이 수행될 수도 있다.
소정 방향으로 이동하는 사용자 동작이 상기 감지영역에서 감지된 경우, 상기 방향에 대응하여 상이한 애니메에션 동작이 수행될 수 있다.
상기 애니메이션 동작은 서로 다른 복 수개의 애니메이션 모드를 포함하며, 사용자 동작이 감지될 때마다 기설정된 순서에 따라 또는 랜덤하게 또는 바로 이전에 수행된 애니메이션 모드와 다른 애니메이션 모드가 선택되어 수행될 수 있다.
상기 애니메이션 동작이 완료되는 경우, 상기 신호처리부는 사용자 동작이 감지되기 전의 정지영상을 상기 디스플레이부에 표시한다.
음향을 출력하는 스피커를 더 포함하고, 상기 신호처리부는 애니메이션에 수반되는 음향을 처리하여 상기 스피커로 출력할 수 있다.
상기 감지부는 상기 정지영상에 가해지는 접촉을 감지하는 접촉 감지부와, 상기 정지영상 상에서 행해지는 사용자의 비접촉 동작을 감지하는 비접촉 감지부 중 적어도 하나를 포함하는 것이 바람직하다.
이 때, 상기 비접촉 감지부는 사용자 동작을 촬상하는 카메라, 사용자 동작에 대응하는 빛을 감지하는 수광 감지부 중 적어도 하나를 포함할 수 있다.
상기 제어부는 특정 시간 동안 사용자 동작이 감지되지 않는 경우, 상기 애니메이션 동작이 상기 디스플레이부에 표시되도록 상기 신호처리부를 제어한다.
상기 정지영상 및 상기 정지영상과 관련된 애니메이션 동작에 대한 영상데이터가 저장되어 있는 저장부를 더 포함할 수 있다.
상기 영상데이터가 수신되는 신호수신부를 더 포함할 수 있다.
상기 제어부는 상기 신호수신부를 통하여 기존 영상데이터에 관련된 새로운 영상데이터가 수신되는 경우, 상기 저장부에 저장되어 있던 기존 영상데이터를 갱신할 수 있다.
한편, 본 발명의 일 실시예에 따른 디스플레이부를 갖는 디스플레이장치의 영상표시방법은 소정 정지영상을 표시하는 단계와; 사용자 동작을 감지하는 단계와; 상기 사용자 동작에 대응하여 상기 정지영상과 관련된 애니메이션 동작을 표시하는 단계를 포함할 수 있다.
이상 설명한 바와 같이, 본 발명의 일 실시예에 따르면 사용자 흥미를 유발하고, 다양한 애니메이션을 수행할 수 있는 디스플레이장치 및 영상표시방법이 제공된다.
또한, 본 발명의 다른 실시예에 따르면 사용자의 동작에 대응하여 복수의 애니메이션 동작을 수행할 수 있는 디스플레이장치 및 영상표시방법이 제공된다.
또한, 본 발명의 또 다른 실시예에 따르면 애니메이션에 대응하는 음향을 출력하는 디스플레이장치 및 영상표시방법이 제공된다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 붙이도록 한다.
도 1은 본 발명의 일 실시예에 따른 디스플레이장치의 제어블럭도이다.
도시되어 있는 바와 같이, 디스플레이장치(100)는 감지부(10), 신호수신 부(20), 저장부(30), 신호처리부(40), 디스플레이부(50) 및 이들을 제어하는 제어부(60)를 포함한다. 본 실시예에 따른 디스플레이장치(100)는 정지영상 및 동영상을 표시할 수 있는 각종 디스플레이 디바이스, 예를 들어 전자액자 또는 휴대용 단말기 등을 포함할 수 있고. 텔레비전 또는 컴퓨터 본체와 연결되어 있는 모니터 등으로 구현될 수 있다. 또한, 디스플레이장치(100)는 명화 또는 사진과 같은 정지영상을 디스플레이부(50)에 고정으로 표시하거나 복수의 정지영상을 슬라이드쇼로 표시하는 전자액자 기능을 수행할 수 있다.
감지부(10)는 사용자의 동작을 감지하여 제어부(60)가 사용자의 동작에 대응하는 애니메이션 동작을 수행할 수 있도록 한다. 사용자의 동작이란 디스플레이부(50) 앞에서 이루어지는 사용자에 의한 모든 동작을 포함한다. 감지부(10)는 정지영상에 가해지는 접촉을 감지하는 접촉 감지부와 정지영상에 접촉을 가하지 않는 상태에서 사용자의 움직임을 감지하는 비접촉 감지부를 포함할 수 있다. 본 실시예에 따른 감지부(10)는 도 2와 같이 디스플레이부(50)에 결합되어 있는 터치패널로 마련될 수 있다. 이러한 터치패널은 디스플레이부(50)의 상부에 배치될 수도 있고, 디스플레이부(50)의 내부에 내장될 수도 있으며, 사용자의 손가락 또는 포인팅 디바이스에 의한 가압을 감지하기 위한 다양한 구성을 포함할 수 있다. 예컨대, 터치패널은 외부 자극에 대하여 전기적 신호를 발생시키는 전극을 포함할 수도 있고, 디스플레이부(50) 전면에 걸쳐 형성되어 있는 광섬유를 포함할 수도 있다. 터치패널이 광섬유를 포함할 경우, 광섬유를 내부에서 전반사 되는 광은 외부의 터치에 의하여 경로가 변경되고, 경로가 변경된 광을 감지함으로써 외부 자극을 감지할 수 있다. 사용자는 디스플레이부(50) 상에서 손가락 또는 포인팅 디바이스를 이용하여 애니메이션 동작을 실행하기 위한 다양한 제어신호를 입력할 수 있다.
신호수신부(20)는 정지영상 및 정지영상과 관련되어 있는 다양한 애니메이션 동작에 대한 영상데이터를 수신한다. 신호수신부(20)는 방송신호와 같은 다양한 컨텐츠를 수신할 할 수 있는 방송수신부로 구현될 수도 있고, 인터넷과 같은 네트워크에 접속할 수 있는 네트워크 인터페이스로 마련될 수도 있다. 또한 신호수신부(20)는 USB 메모리 또는 외장형 하드디스크와 같은 이동식 저장매체가 연결될 수 있는 접속부로 마련될 수도 있다. 신호수신부(20)로 수신된 영상데이터는 저장부(30)에 저장된다. 기존에 저장되어 있던 영상데이터에 관련한 새로운 영상데이터가 수신되는 경우, 제어부(60)는 저장부(30)에 저장되어 있던 기존 영상데이터를 갱신할 수 있다. 또는 제어부(60)는 동일한 정지영상에 대응하여 새로운 영상데이터가 수신될 때마다 이를 순차적으로 저장하여 사용자에게 영상데이터의 히스토리 검색을 제공할 수도 있다.
저장부(30)에는 상술한 바와 같이 정지영상 및 정지영상과 관련되어 있는 다양한 애니메이션 동작에 대한 영상데이터가 저장되어 있다. 저장부(30)는 후술할 제어부(60)에 포함될 수도 있고, 별도의 메모리 소자로 마련될 수도 있다. 한편, 저장부(30)는 디스플레이부(50)에 내장될 수도 있지만 접속부로 마련되는 신호수신부(20)에 연결되는 외부 저장매체로 구현될 수도 있다.
신호처리부(40)는 저장부(30)에 저장되어 있는 영상데이터를 처리하여 디스플레이부(50)에 표시한다. 신호처리부(40)는 코덱, 스케일러 등과 같은 영상처리블 럭을 포함할 수 있다. 정지영상이 디스플레이부(50)에 표시되어 있을 때, 감지부(10)를 통하여 사용자 동작이 감지되는 경우, 신호처리부(40)는 제어부(60)의 제어에 따라 현재 표시되어 있는 정지영상과 관련되어 있는 애니메이션 동작이 디스플레이부(50)에 표시되도록 영상데이터를 처리한다. 애니메이션 동작이란 정지영상이 포함하고 있는 객체의 움직임, 객체가 아닌 배경의 움직임 또는 영상을 구성하는 색상의 변화 등과 같이 영상이 처음 상태에서 다른 형태로 변화되는 모든 것을 의미한다.
디스플레이부(50)는 신호처리부(40)에서 처리된 정지영상과 정지영상에 관련된 애니메이션 동작을 표시한다. 디스플레이부(50)는 액정을 포함하는 LCD 패널, 유기발광소자를 포함하는 OLED(organic light emitting diode) 패널 또는PDD(plasma display panel)을 포함할 수 있으며, 상기 패널을 구동하는 패널 구동부를 포함한다.
제어부(60)는 사용자의 선택에 따라 정지영상을 디스플레이부(50)에 표시하는 전자액자 기능을 수행하고, 전자액자 기능이 수행되는 동안 감지되는 사용자 동작에 대응하여 애니메이션 동작이 수행되도록 신호처리부(40)를 제어한다. 이하, 도 2 내지 도 4를 참조하여 본 실시예에서 구현되는 애니메이션 동작을 구체적으로 설명한다.
도 2는 본 실시예에 따른 애니메이션 동작을 설명하기 위한 디스플레이부(50)이다. 도시된 바와 같이 디스플레이부(50)에는 “비행기”(A), “버스”(B) 및 “사람이 타고 있는 자전거”(C)와 같은 객체를 포함하는 정지영상이 표시되어 있다. 각 객체(A, B, C)는 사용자의 동작에 대응하여 이동하거나 상태가 변할 수 있다. 이러한 객체(A, B, C)마다 사용자 동작을 감지할 수 있는 감지영역(Ⅰ, Ⅱ, Ⅲ)이 설정되어 있다. 즉, 감지영역(Ⅰ, Ⅱ, Ⅲ)에서 사용자 동작, 즉 사용자의 터치가 감지되는 경우, 신호처리부(40)는 기 설정되어 있는 객체에 대한 애니메이션 동작을 수행한다. 사용자가 “사람이 타고 있는 자전거”(C)에 할당되어 있는 감지영역(Ⅲ)에 터치를 가하면, 자전거가 버스를 향해 이동할 수 있다. 이러한 감지영역(Ⅰ, Ⅱ, Ⅲ)은 객체(A, B, C)의 외곽선으로 설정될 수도 있고, 객체(A, B, C)를 포함하는 다각형 모양으로 설정될 수도 있다. 사용자가 감지영역(Ⅰ, Ⅱ, Ⅲ)에 자극을 가할 경우 발생할 수 있는 애니메이션 동작은 하나의 동작일 수도 있고, 연속적인 복수의 동작일 수도 있다. 예를 들어, 자전거(C)를 터치할 경우, 자전거가 버스 방향으로 이동하는 하나의 동작이 수행될 수도 있고, 버스 방향으로 이동하다가 방향을 바꾸어 비행기 방향으로 이동하는 연속 동작이 수행될 수도 있다. 어떠한 동작이 수행되든, 신호처리부(40)는 애니메이션 동작이 완료되면 사용자 동작이 감지되기 전의 정지영상을 디스플레이부(50)에 표시한다. 객체에 설정된 감지영역은 한정되어 있으므로 애니메이션 동작을 다시 수행하려면 객체는 처음 상태로 돌아와야 한다.
다른 실시예에 따르면, 애니메이션 동작은 서로 다른 복수의 애니메이션 모드를 포함할 수 있다. 예를 들어, 자전거(C)에 설정되어 있는 감지영역(Ⅰ, Ⅱ, Ⅲ)에 자극이 발생할 경우, 자전거가 버스를 향해 이동하는 것 이외에 사람이 손을 흔드는 애니메이션 동작이나, 자전거가 넘어지는 동작 또는 이러한 동작이 연속적 으로 수행되는 동작 등과 같이 다양한 애니메이션 모드가 설정될 수 있다. 이런 경우, 애니메이션 모드는 사용자 동작이 감지될 때 마다 특정 순서에 따라 수행될 수도 있고 랜덤하게 수행될 수도 있다. 또는 이전에 수행되었던 애니메이션 모드와는 다른 애니메이션 모드가 선택되어 수행될 수도 있다. 객체마다 하나의 애니메이션 동작만이 수행될 경우 사용자가 쉽게 지루함을 느끼고 흥미가 감소될 수 있으므로 다양한 애니메이션 모드를 제공하여 사용자의 흥미를 지속적으로 유발시킨다. 이러한 애니메이션 모드는 신호수신부(20)를 통하여 새로운 영상데이터가 수신되면 업데이트될 수 있다.
도 3은 다른 애니메이션 동작을 설명하기 위한 디스플레이부(50)의 정지영상이다. 본 실시예에 따를 경우, 사용자가 비행기(A)를 터치할 경우, 비행기(A)가 이동하는 애니메이션 동작에 추가하여 다른 객체, 즉 버스(B)나 자전거(C)가 이동하는 애니메이션 동작이 수행된다. 즉, 복수의 객체(A, B, C) 중 어느 하나(A) 가 움직일 때 다른 객체(B, C)도 연속적으로 또는 동시에 움직이는 애니메이션 동작이 수행될 수 있다. 객체(A, B, C) 간의 연속적인 애니메이션 동작 역시 복수의 애니메이션 모드를 포함할 수 있고, 사용자 동작이 감지될 때마다 서로 다른 애니메이션 모드가 수행될 것이다.
도 4는 다른 실시예에 따른 애니메이션 동작을 설명하기 위한 도면이다. 도시된 바와 같이 하나의 감지영역(Ⅲ)은 복수의 세부감지영역(Ⅲ-①, Ⅲ-②, Ⅲ-③)을 포함하고, 사용자 동작이 감지되는 세부감지영역(Ⅲ-①, Ⅲ-②, Ⅲ-③) 별로 상이한 애니메이션 동작이 수행된다. 사람이 위치하는 제1세부감지영역(Ⅲ-①)에 자 극이 가해질 경우, 사람이 손을 흔들거나 만세를 부르는 등의 애니메이션 동작이 수행될 수 있고, 자전거(C)의 앞바퀴 부분에 설정되어 있는 제2세부감지영역(Ⅲ-②)에 자극이 가해질 경우, 자전거(C)가 전진하거나 앞으로 넘어지는 애니메이션 동작이 수행될 수 있다. 본 실시예는 하나의 객체에 복수의 애니메이션 모드를 설정한 것과 같이 하나의 객체에서 복수의 애니메이션 동작이 가능하게 한다. 만약, 정지영상이 동물이나 사람의 얼굴일 경우, 세부감지영역을 이용하여 시선처리를 변화시키거나 얼굴의 특정 부위를 개별적으로 움직이는 애니메이션 동작을 수행할 수 있다.
다른 실시예에 따를 경우, 제어부(60)는 정지영상이 디스플레이부(50)에 표시되고 난 후, 특정 시간 동안 사용자 동작이 감지되지 않으면 정지영상에 대한 사용자의 관심과 흥미를 유발하도록 특정 애니메이션 동작이 디스플레이부(50)에 표시되도록 신호처리부(40)를 제어할 수 있다. 상기 특정 시간은 사용자에 의하여 자유롭게 설정될 수 있으며, 특정 시간이 경과할 때 마다 수행되는 애니메이션 모드는 특정 순서에 따라 또는 랜덤하게 변경될 수 있다.
도 5는 본 발명의 다른 실시예에 따른 디스플레이장치의 제어블럭도이다. 도시된 바와 같이, 본 실시예에 따른 디스플레이장치(101)는 음향을 출력하는 스피커(70)를 더 포함한다.
신호수신부(21)는 영상데이터와 함께 영상데이터에 수반되는 음향데이터를 수신하고, 음향데이터는 저장부(31)에 저장된다.
신호처리부(41)는 음향을 처리하는 음향처리블럭을 포함하고, 처리된 음향을 정지영상 및 애니메이션 동작에 맞춰 스피커(70)로 출력한다. 바람이 부는 애니메이션 동작이 수행되면 바람이 부는 음향을, 비가 오는 애니메이션 동작이 수행되면 비 내리는 음향을, 동물이 움직이는 애니메이션 동작이 수행되면 동물의 울음소리를 출력할 수 있다. 영상의 움직임뿐만 아니라 이에 수반하는 음향을 제공함으로써 사용자는 더욱 재미를 느낄 수 있고, 전자액자 기능을 더욱 자주 실행하게 될 것이다. 물론, 음향의 출력자체가 애니메이션 동작이 될 수도 있다. 즉, 사용자 동작에 대응하여 정지영상 자체는 변화가 없더라도 다양한 음향이 출력되는 것도 가능하다.
본 실시예에 따른 감지부(11)는 디스플레이부(50)에 가해지는 접촉이 없어도 사용자의 동작 및 이동을 감지할 수 있는 비접촉 감지부로 구현되거나, 접촉 감지부에 추가적인 비접촉 감지부를 더 포함할 수 있다. 비접촉 감지부는 디스플레이부(50)와 결합되어 있거나 이격되어 있으면서 사용자의 동작을 촬상하는 카메라를 포함할 수 있다. 이 경우, 사용자의 손짓 또는 디스플레이부(50)의 접근 정도는 카메라에서 촬상되고, 촬상된 영상의 처리 및 분석을 통하여 사용자의 동작이 감지된다.
또한, 디스플레이장치(101)는 사용자 동작에 대응하는 빛을 감지하는 수광 감지부를 포함할 수도 있다. 수광 감지부는 사용자가 적외선 및 레이저 포인터와 같은 발광 디바이스를 사용할 경우, 발광 디바이스로부터 출사된 광을 감지하는 포토 다이오드로 마련될 수 있다. 디스플레이장치(101)는 디스플레이부(50)의 내부에서 사용자가 위치하는 외부로 광을 스캔 방식으로 조사하거나, 특정 파장 또는 주 파수의 광을 조사하여 사용자로부터 반사되는 광을 수신함으로써 사용자의 동작을 감지하는 수광 감지부를 포함할 수도 있다.
이와 같이 디스플레이장치(101)가 비접촉 감지부를 포함할 경우, 사용자가 직접 디스플레이부(50) 상의 정지영상을 터치하지 않아도, 디스플레이부(50)에 접근하거나 멀어지는 행동 등을 감지하여 애니메이션 동작을 구현할 수 있는 효과가 있다.
도 6은 도 5의 디스플레이장치의 일 실시예에 따른 애니메이션 동작을 설명하기 위한 도면이다. 도시된 바와 같이, 도 6의 정지영상은 해가 뜨고 지는 애니메이션과, 서로 다른 방향을 가리키는 수풀들이 상이한 방향을 향해 이동하는 애니메이션 동작이 수행될 수 있다.
이 정지영상에서 객체는 왼쪽 하단의 수풀, 오른쪽 하단의 수풀, 해로 구분될 수 있다. 본 실시예에 따를 경우, 감지부(11)는 특정 포인트가 아닌 특정 방향으로 이동하는 사용자 동작을 감지한다. 도시된 바와 같이, 왼쪽으로 기울어져 있는 왼쪽 하단의 수풀은 사용자가 오른쪽 방향으로 이동하거나 오른쪽 방향으로 이동하는 자극을 가할 경우, 오른쪽 방향으로 기울어질 수 있다. 사용자가 오른쪽으로 이동하다가 다시 이동 방향을 왼쪽으로 방향을 변경하는 경우, 수풀은 다시 왼쪽으로 기울어질 것이다. 사용자가 가하는 자극의 기울기(즉, 도 6의 수풀에 표시된 화살표의 기울기) 또는 자극이 가해지는 속도에 따라 수풀이 기울어지는 정도가 조절될 수도 있고, 자극이 가해지는 길이(즉, 도 6의 수풀에 표시된 화살표의 길이)에 대응하여 상이한 양의 수풀이 기울어질 수 있다. 오른쪽 하단의 수풀 역시, 사용자의 이동 또는 동작에 따라 마치 바람이 부는 방향에 따라 눕는 수풀처럼 이동할 것이다. 본 실시예에 따를 경우 특정 방향으로 이동하는 사용자 동작에 대응하여 상이한 애니메이션 동작이 수행되고, 사용자가 원하는 방향으로 객체가 이동하는 애니메이션 동작을 수행된다. 이로써 더욱 실감나고 사실적인 애니메이션 동작이 제공되며, 또한 애니메이션 동작의 정도 및 강도는 사용자 동작의 크기 등에 대응하여 조절될 수 있다.
또한, 비접촉 감지부에 의하여 사용자가 디스플레이부(50)에 접근하는 것이 감지되는 경우 해를 뜨게 하고, 디스플레이부(50)에서 멀어지는 것이 감지되는 경우, 해를 지게 하는 애니메이션 동작이 수행될 수 있다. 또한, 해가 뜨고 지는 것에 대응하여 전체적인 배경의 색상이 조절되는 애니메이션이 구현될 수도 이다. 예를 들어 해가 떠 있을 때는 전체적으로 밝은 색상으로 배경을 처리하고, 노을이 지게 하거나, 해가 완전히 졌을 경우 배경을 어두운 색으로 처리할 수도 있다.
또한, 본 실시예에 따를 경우 수풀이 특정 방향으로 기울어지는 애니메이션 동작이 수행될 때, 바람이 부는 음향이 스피커(70)를 통하여 출력될 수 있다. 해가 뜨는 애니메이션 동작에서는 새 소리가, 해가 지는 애니메이션 동작에서는 자장가 등이 출력되도록 설정될 수 있다.
본 실시예에 따른 디스플레이장치(101)에서 도 2 내지 4의 애니메이션 동작이 구현되는 경우, 자전거, 버스 또는 비행기가 이동할 때 발생하는 음향 또는 자전거 및 버스에 타고 있는 사람의 목소리 등이 출력될 수 있을 것이다.
도 7은 본 발명에 따른 디스플레이장치의 영상표시방법을 설명하기 위한 제 어흐름도이다. 도 7을 참조하여 영상표시방법을 정리하면 다음과 같다.
우선, 신호처리부(40, 41)는 영상데이터를 처리하여 객체를 포함하는 정지영상을 디스플레이부(50)에 표시한다(S10). 정지영상의 객체는 복 수개를 포함할 수도 있고, 단 수개일 수도 있다. 객체는 주로 애니메이션 동작의 주체가 되지만, 애니메이션 동작은 배경이 움직이는 것이나 색상이 변하는 것을 포함한다.
그런 다음, 감지영역(Ⅰ, Ⅱ, Ⅲ)에서 사용자 동작이 감지되면(S20), 제어부(60, 61)는 신호처리부(40, 41)를 제어하여 정지영상과 관련된 애니메이션 동작을 디스플레이부(50)에 표시한다(S30). 애니메이션 동작은 객체에 대한 단독 움직임, 다른 객체와 관련되어 있는 연속적인 움직임, 음향의 출력, 하나의 객체에 대한 부분적인 움직임 등을 포함하여 다양하게 구현될 수 있다.
이러한 애니메이션 동작이 완료되면, 신호처리부(40, 41)는 사용자 동작이 감지되기 전의 정지영상을 다시 디스플레이부(50)에 표시한다(S40).
사용자는 연속적, 즉, 반복적으로 감지영역에 자극을 가할 수 있고, 사용자 동작이 감지될 때마다 신호처리부(40, 41)는 정해진 순서 또는 랜덤하게 애니메이션 모드를 수행한다(S50).
본 발명은 전자액자 기능이 활성화되는 디스플레이 환경에서 사용자 동작에 대응하는 다양한 애니메이션을 사용자에게 제공한다.
비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
도 1은 본 발명의 일 실시예에 따른 디스플레이장치의 제어블럭도이고,
도 2는 도 1의 디스플레이장치의 일 실시예에 따른 애니메이션 동작을 설명하기 위한 도면이고,
도 3은 도 1의 디스플레이장치의 다른 실시예에 따른 애니메이션 동작을 설명하기 위한 도면이고,
도 4는 도 1의 디스플레이장치의 또 다른 실시예에 따른 애니메이션 동작을 설명하기 위한 도면이고,
도 5는 본 발명의 다른 실시예에 따른 디스플레이장치의 제어블럭도이고,
도 6은 도 5의 디스플레이장치의 일 실시예에 따른 애니메이션 동작을 설명하기 위한 도면이고,
도 7은 본 발명에 따른 디스플레이장치의 영상표시방법을 설명하기 위한 제어흐름도이다.
* 도면의 주요 부분에 대한 부호의 설명 *
10, 11 : 감지부 20, 21 : 신호수신부
30, 31 : 저장부 40, 41 : 신호처리부
50 : 디스플레이부 60, 61 : 제어부
70 : 스피커 100, 101 : 디스플레이장치
Claims (24)
- 디스플레이부를 갖는 디스플레이장치에 있어서,사용자 동작을 감지하는 감지부와;신호처리부와;정지영상이 상기 디스플레이부에 표시되어 있고 상기 감지부를 통하여 사용자 동작이 감지되는 경우, 상기 정지영상과 관련된 애니메이션 동작이 상기 디스플레이부에 표시되도록 상기 신호처리부를 제어하는 제어부를 포함하는 것을 특징으로 하는 디스플레이장치.
- 제1항에 있어서,상기 애니메이션 동작은 특정 객체의 움직임, 배경의 움직임 및 색상의 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이장치.
- 제1항에 있어서,상기 정지영상은 적어도 하나의 객체를 포함하고,상기 객체마다 사용자 동작을 감지할 수 있는 감지영역이 설정되어 있으며,사용자 동작이 상기 감지영역에서 감지된 경우, 상기 객체가 움직이는 애니메이션 동작이 수행되는 것을 특징으로 하는 디스플레이장치.
- 제3항에 있어서,상기 감지영역은 복수의 세부감지영역을 포함하고,사용자 동작이 감지된 상기 세부감지영역 별로 상이한 애니메이션 동작이 수행되는 것을 특징으로 하는 디스플레이장치.
- 제1항에 있어서,상기 정지영상은 복수의 객체를 포함하고,사용자 동작이 감지된 경우, 상기 복수의 객체 중 적어도 두 개의 객체가 순차적으로 또는 동시에 움직이는 애니메이션 동작이 수행되는 것을 특징으로 하는 디스플레이장치.
- 제3항에 있어서,소정 방향으로 이동하는 사용자 동작이 상기 감지영역에서 감지된 경우, 상기 방향에 대응하여 상이한 애니메에션 동작이 수행되는 것을 특징으로 하는 디스플레이장치.
- 제1항 내지 제6항 중 어느 한 항에 있어서,상기 애니메이션 동작은 서로 다른 복 수개의 애니메이션 모드를 포함하며,사용자 동작이 감지될 때마다, 기설정된 순서에 따라 또는 랜덤하게 또는 바로 이전에 수행된 애니메이션 모드와 다른 애니메니션 모드가 수행되는 것을 특징 으로 하는 디스플레이장치.
- 제1항에 있어서,상기 애니메이션 동작이 완료되는 경우, 상기 신호처리부는 사용자 동작이 감지되기 전의 정지영상을 상기 디스플레이부에 표시하는 것을 특징으로 하는 디스플레이장치.
- 제1항에 있어서,음향을 출력하는 스피커를 더 포함하고,상기 신호처리부는 애니메이션에 수반되는 음향을 처리하여 상기 스피커로 출력하는 것을 특징으로 하는 디스플레이장치.
- 제1항에 있어서,상기 감지부는 상기 정지영상에 가해지는 접촉을 감지하는 접촉 감지부와, 상기 정지영상 상에서 행해지는 사용자의 비접촉 동작을 감지하는 비접촉 감지부 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이장치.
- 제10항에 있어서,상기 비접촉 감지부는 사용자 동작을 촬상하는 카메라, 사용자 동작에 대응하는 빛을 감지하는 수광 감지부 중 적어도 하나를 포함하는 것을 특징으로 하는 디스플레이장치.
- 제1항에 있어서,상기 제어부는 특정 시간 동안 사용자 동작이 감지되지 않는 경우, 상기 애니메이션 동작이 상기 디스플레이부에 표시되도록 상기 신호처리부를 제어하는 것을 특징으로 하는 디스플레이장치.
- 제1항에 있어서,상기 정지영상 및 상기 정지영상과 관련된 애니메이션 동작에 대한 영상데이터가 저장되어 있는 저장부를 더 포함하는 것을 특징으로 하는 디스플레이장치.
- 제13항에 있어서,상기 영상데이터가 수신되는 신호수신부를 더 포함하는 것을 특징으로 하는 디스플레이장치.
- 제14항에 있어서,상기 제어부는 상기 신호수신부를 통하여 기존 영상데이터에 관련된 새로운 영상데이터가 수신되는 경우, 상기 저장부에 저장되어 있던 기존 영상데이터를 갱신하는 것을 특징으로 하는 디스플레이장치.
- 디스플레이부를 갖는 디스플레이장치의 영상표시방법에 있어서,소정 정지영상을 표시하는 단계와;사용자 동작을 감지하는 단계와;상기 사용자 동작에 대응하여 상기 정지영상과 관련된 애니메이션 동작을 표시하는 단계를 포함하는 것을 특징으로 영상표시방법.
- 제16항에 있어서,상기 정지영상은 적어도 하나의 객체를 포함하고,상기 감지하는 단계는 상기 객체마다 설정된 감지영역에서 사용자 동작을 감지하며,상기 애니메이션 동작을 표시하는 단계는 상기 객체가 움직이는 애니메이션 동작을 수행하는 것을 포함하는 것을 특징으로 하는 영상표시방법.
- 제16항에 있어서,상기 정지영상은 복수의 객체를 포함하고, 사용자 동작이 감지된 경우,상기 애니메이션 동작을 표시하는 단계는 상기 복수의 객체 중 적어도 두 개의 객체가 순차적으로 또는 동시에 움직이는 애니메이션 동작을 수행하는 것을 특징으로 하는 영상표시방법.
- 제17항에 있어서,소정 방향으로 이동하는 사용자 동작이 상기 감지영역에서 감지된 경우,상기 애니메이션 동작을 표시하는 단계는 상기 방향에 대응하여 상이한 애니메이션 동작을 수행하는 것을 특징으로 하는 영상표시방법.
- 제17항에 있어서,상기 감지영역은 복수의 세부감지영역을 포함하고,상기 애니메이션 동작을 표시하는 단계는 사용자 동작이 감지된 상기 세부감지영역 별로 상이한 애니메이션 동작을 수행하는 것을 특징으로 하는 영상표시방법.
- 제16항 내지 제20항 중 어느 한 항에 있어서,상기 애니메이션 동작은 서로 다른 복 수개의 애니메이션 모드를 포함하며,상기 애니메이션 동작을 표시하는 단계는, 사용자 동작이 감지될 때마다, 기설정된 순서에 따라 또는 랜덤하게 또는 바로 이전에 수행된 애니메이션 모드와 다른 애니메이션 모드를 수행하는 것을 특징으로 하는 영상표시방법.
- 제16항에 있어서,상기 애니메이션 동작을 표시하는 단계는 상기 애니메이션 동작이 완료되면 사용자 동작이 감지되기 전의 정지영상을 표시하는 단계를 포함하는 것을 특징으로 하는 영상표시방법.
- 제16항에 있어서,상기 디스플레이장치는 음향을 출력하는 스피커를 더 포함하고,애니메이션에 수반되는 음향을 처리하여 상기 스피커로 출력하는 단계를 더 포함하는 것을 특징으로 하는 영상표시방법.
- 제16항에 있어서,상기 정지영상 및 상기 정지영상과 관련된 애니메이션 동작에 대한 영상데이터를 수신하는 단계와;수신된 영상데이터가 통하여 기존 영상데이터에 관련된 새로운 영상데이터인 경우, 상기 기존 영상데이터를 갱신하는 단계를 더 포함하는 것을 특징으로 하는 영상표시방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090004545A KR20100085328A (ko) | 2009-01-20 | 2009-01-20 | 디스플레이장치 및 영상표시방법 |
US12/491,272 US20100182324A1 (en) | 2009-01-20 | 2009-06-25 | Display apparatus and display method for performing animation operations |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090004545A KR20100085328A (ko) | 2009-01-20 | 2009-01-20 | 디스플레이장치 및 영상표시방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20100085328A true KR20100085328A (ko) | 2010-07-29 |
Family
ID=42336594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090004545A Withdrawn KR20100085328A (ko) | 2009-01-20 | 2009-01-20 | 디스플레이장치 및 영상표시방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20100182324A1 (ko) |
KR (1) | KR20100085328A (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101334963B1 (ko) * | 2011-12-27 | 2013-11-29 | 주식회사 리코시스 | 휴대용 단말의 아이콘 애니메이션 장치 및 방법 |
WO2016013893A1 (en) * | 2014-07-25 | 2016-01-28 | Samsung Electronics Co., Ltd. | Displaying method, animation image generating method, and electronic device configured to execute the same |
US9922439B2 (en) | 2014-07-25 | 2018-03-20 | Samsung Electronics Co., Ltd. | Displaying method, animation image generating method, and electronic device configured to execute the same |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9501856B2 (en) | 2012-02-13 | 2016-11-22 | Nokia Technologies Oy | Method and apparatus for generating panoramic maps with elements of subtle movement |
US20130329528A1 (en) * | 2012-06-11 | 2013-12-12 | Peter Botten | Mechanical animations with electronic display |
EP2706531A1 (en) * | 2012-09-11 | 2014-03-12 | Nokia Corporation | An image enhancement apparatus |
EP2711929A1 (en) * | 2012-09-19 | 2014-03-26 | Nokia Corporation | An Image Enhancement apparatus and method |
KR20140114238A (ko) * | 2013-03-18 | 2014-09-26 | 삼성전자주식회사 | 오디오와 결합된 이미지 표시 방법 |
WO2014188235A1 (en) * | 2013-05-24 | 2014-11-27 | Nokia Corporation | Creation of a cinemagraph file |
GB2531758A (en) * | 2014-10-29 | 2016-05-04 | Nokia Technologies Oy | Method and apparatus for determining the capture mode following capture of the content |
WO2017200232A1 (en) * | 2016-05-20 | 2017-11-23 | Lg Electronics Inc. | Mobile terminal and control method thereof |
KR20170131101A (ko) | 2016-05-20 | 2017-11-29 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US10140748B2 (en) * | 2017-01-04 | 2018-11-27 | Honda Motor Co., Ltd. | Count-down timer display |
EP3568832A4 (en) * | 2017-01-13 | 2020-09-16 | Warner Bros. Entertainment Inc. | ADDING MOTION EFFECTS TO DIGITAL STILL IMAGES |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5252951A (en) * | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
US5463725A (en) * | 1992-12-31 | 1995-10-31 | International Business Machines Corp. | Data processing system graphical user interface which emulates printed material |
DE69432199T2 (de) * | 1993-05-24 | 2004-01-08 | Sun Microsystems, Inc., Mountain View | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6681031B2 (en) * | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6570555B1 (en) * | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
US6552729B1 (en) * | 1999-01-08 | 2003-04-22 | California Institute Of Technology | Automatic generation of animation of synthetic characters |
US6317689B1 (en) * | 2000-02-09 | 2001-11-13 | Garmin Corporation | Method and device for displaying animated navigation information |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US6624833B1 (en) * | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
EP1345179A3 (en) * | 2002-03-13 | 2004-01-21 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for computer graphics animation |
KR100588042B1 (ko) * | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
US7598949B2 (en) * | 2004-10-22 | 2009-10-06 | New York University | Multi-touch sensing light emitting diode display and method for using the same |
US7898541B2 (en) * | 2004-12-17 | 2011-03-01 | Palo Alto Research Center Incorporated | Systems and methods for turning pages in a three-dimensional electronic document |
US7995065B2 (en) * | 2005-09-23 | 2011-08-09 | Samsung Electronics Co., Ltd. | Animation reproducing apparatus and method |
US8441467B2 (en) * | 2006-08-03 | 2013-05-14 | Perceptive Pixel Inc. | Multi-touch sensing display through frustrated total internal reflection |
US7993190B2 (en) * | 2007-12-07 | 2011-08-09 | Disney Enterprises, Inc. | System and method for touch driven combat system |
-
2009
- 2009-01-20 KR KR1020090004545A patent/KR20100085328A/ko not_active Withdrawn
- 2009-06-25 US US12/491,272 patent/US20100182324A1/en not_active Abandoned
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101334963B1 (ko) * | 2011-12-27 | 2013-11-29 | 주식회사 리코시스 | 휴대용 단말의 아이콘 애니메이션 장치 및 방법 |
WO2016013893A1 (en) * | 2014-07-25 | 2016-01-28 | Samsung Electronics Co., Ltd. | Displaying method, animation image generating method, and electronic device configured to execute the same |
US9922439B2 (en) | 2014-07-25 | 2018-03-20 | Samsung Electronics Co., Ltd. | Displaying method, animation image generating method, and electronic device configured to execute the same |
US10713835B2 (en) | 2014-07-25 | 2020-07-14 | Samsung Electronics Co., Ltd. | Displaying method, animation image generating method, and electronic device configured to execute the same |
US11450055B2 (en) | 2014-07-25 | 2022-09-20 | Samsung Electronics Co., Ltd. | Displaying method, animation image generating method, and electronic device configured to execute the same |
Also Published As
Publication number | Publication date |
---|---|
US20100182324A1 (en) | 2010-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20100085328A (ko) | 디스플레이장치 및 영상표시방법 | |
US12032803B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US11231777B2 (en) | Method for controlling device on the basis of eyeball motion, and device therefor | |
US11768579B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US11720171B2 (en) | Methods for navigating user interfaces | |
KR102121134B1 (ko) | 눈 추적 가능한 웨어러블 디바이스들 | |
US9996983B2 (en) | Manipulation of virtual object in augmented reality via intent | |
KR102411768B1 (ko) | 헤드 마운트 디스플레이를 위한 3차원 사용자 인터페이스 | |
US11567625B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
US9354702B2 (en) | Manipulation of virtual object in augmented reality via thought | |
CN105745568B (zh) | 用于在可头戴式设备上执行多触摸操作的系统和方法 | |
EP3014391B1 (en) | Adaptive event recognition | |
JP7389270B2 (ja) | 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース | |
KR20150135847A (ko) | 글래스 타입 단말기 및 이의 제어방법 | |
EP3400827A1 (en) | Electronic make-up mirror device and background switching method thereof | |
US20240212272A1 (en) | Interactions based on mirror detection and context awareness | |
CN106257394B (zh) | 用于头戴显示器的三维用户界面 | |
WO2021033575A1 (ja) | 情報処理装置および方法、並びに、プログラム | |
US20240200962A1 (en) | Providing directional awareness indicators based on context | |
Butz | Human-Computer Interaction 2 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20090120 |
|
PG1501 | Laying open of application | ||
PC1203 | Withdrawal of no request for examination | ||
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |