KR101665552B1 - User interface apparatus, Vehicle having the same and method for controlling the same - Google Patents
User interface apparatus, Vehicle having the same and method for controlling the same Download PDFInfo
- Publication number
- KR101665552B1 KR101665552B1 KR1020140138566A KR20140138566A KR101665552B1 KR 101665552 B1 KR101665552 B1 KR 101665552B1 KR 1020140138566 A KR1020140138566 A KR 1020140138566A KR 20140138566 A KR20140138566 A KR 20140138566A KR 101665552 B1 KR101665552 B1 KR 101665552B1
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- distance
- signal
- gesture
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 사용자에 의해 터치되면 터치된 위치에 대응하는 터치신호를 출력하는 터치패드부; 터치 패드부의 터치 면에 일정 거리로 이격 배치된 햅틱부; 터치 신호에 기초하여 터치 거리를 확인하고, 확인된 터치 거리가 일정 거리보다 짧은 거리이면 노이즈 신호로 인식하는 제어부를 포함한다.
본 발명은 사용자 인터페이스 장치의 조작 시 사용자가 수동적인 조작감을 느낄 수 있도록 함으로써 사용자가 조작 결과를 정확하게 인지하도록 할 수 있고, 이를 통해 사용자 인터페이스 장치의 조작 성공률을 향상시킬 수 있으며 사용자 인터페이스 장치에 표시된 메뉴 및 리스트 내 항목 간의 이동 속도를 향상시킬 수 있다. 이에 따라 사용자의 편의성을 향상시킬 수 있고 사용자의 만족도를 증대시킬 수 있다.
본 발명은 일정 거리 내의 플리킹(Flicking)과 드래깅 제스처를 외력에 의한 오터치로 인식함으로써 사용자 인터페이스 장치에 의해 제어되는 기능 또는 장치의 오조작을 방지할 수 있다.
본 발명은 터치 패드에 수동 방식의 햅틱이 적용됨으로써 모터 방식의 햅틱이 적용된 터치패드와 대비하여 제조 단가를 줄일 수 있다.The present invention relates to a touch pad unit for outputting a touch signal corresponding to a touched position when touched by a user; A haptic part spaced apart from the touch surface of the touch pad part by a predetermined distance; And a control unit for recognizing the touch distance based on the touch signal and recognizing the touch distance as a noise signal when the detected touch distance is shorter than a certain distance.
The present invention enables a user to feel a passive operation feeling when operating a user interface device so that the user can accurately recognize the operation result, thereby improving the operation success rate of the user interface device, And the speed of movement between items in the list can be improved. Accordingly, the convenience of the user can be improved and the satisfaction of the user can be increased.
The present invention recognizes a flicking and dragging gesture within a certain distance as an erroneous touch by an external force, thereby preventing malfunction of a function or an apparatus controlled by the user interface apparatus.
The present invention can reduce manufacturing cost in comparison with a touch pad to which a haptic motor is applied by applying a manual haptic to the touch pad.
Description
본 발명은 사용자의 명령을 입력받고 입력된 명령에 대한 정보를 출력하기 위한 사용자 인터페이스 장치, 그를 가지는 차량 및 그의 제어방법에 관한 것이다.The present invention relates to a user interface device for inputting a command of a user and outputting information about an inputted command, a vehicle having the same, and a control method thereof.
차량은 차량속도, 엔진 회전수, 주유량, 냉각수 등의 주행 기능 및 차량 정보를 표시하는 클러스터를 포함한다.The vehicle includes a cluster for displaying a running function such as a vehicle speed, an engine speed, a fuel amount, a cooling water, and vehicle information.
또한 차량은 기본적인 주행 기능 외에도 오디오 기능, 비디오 기능, 내비게이션 기능, 공조 제어, 시트 제어, 조명 제어 등의 사용자 편의를 위한 부가적인 기능을 더 포함한다.In addition to basic driving functions, the vehicle further includes additional functions for user convenience such as audio function, video function, navigation function, air conditioning control, seat control, lighting control and the like.
아울러 차량에는 내비게이션 기능, 오디오 기능 및 비디오 기능이 통합된 AVN 장치가 마련될 수 있다.In addition, the vehicle may be provided with an AVN device incorporating a navigation function, an audio function and a video function.
이러한 차량은 각종 기능의 동작 명령을 입력하고 각종 기능의 동작 상태를 출력하기 위한 사용자 인터페이스(User Interface)장치를 더 포함하며, 이러한 사용자 인터페이스 장치는 센터페시아에 마련될 수 있다.Such a vehicle further includes a user interface device for inputting operation commands of various functions and outputting operation states of various functions, and the user interface device may be provided in the center fascia.
이 사용자 인터페이스 장치는 차량에 마련된 각종 장치와 사용자 간에 상호 작용이 가능하도록 하는 장치로, 사용자 인터페이스 장치에는 물리적 사용자 인터페이스(PUI: Physical User Interface) 장치와, 그래픽 사용자 인터페이스(GUI: Graphical User Interface) 장치가 있다.The user interface device is a device that allows a user to interact with various devices provided in the vehicle. The user interface device includes a physical user interface (PUI) device, a graphical user interface (GUI) device, .
물리적 사용자 인터페이스 장치(PUI)는 키패드, 리모컨, 조그 다이얼, 터치패드 등과 같이 물리적인 방법으로 사용자 명령을 입력 받는 장치이고, 그래픽 사용자 인터페이스 장치(GUI)는 디스플레이상에 표시되는 아이콘이나 메뉴가 선택됨으로써 사용자 명령을 입력 받는 장치이다.A physical user interface device (PUI) is a device that receives user commands by a physical method such as a keypad, a remote control, a jog dial, a touch pad, etc., and a graphical user interface device (GUI) It is a device that receives a user command.
즉 사용자는 그래픽 사용자 인터페이스 장치를 통해 표시되는 메뉴, 리스트, 아이콘 등을 참조하여 커서를 이동시키고, 커서가 위치한 항목을 선택할 수 있는데, 이때 사용자는 물리적 사용자 인터페이스 장치를 이용하여 커서를 이동시키면서 선택하고자 하는 항목을 선택할 수 있다.That is, the user can move the cursor by referring to the menu, list, icon, or the like displayed through the graphic user interface device and select the item where the cursor is located. At this time, the user moves the cursor using the physical user interface device, Can be selected.
물리적 사용자 인터페이스 장치 중 터치패드를 이용하여 그래픽 사용자 인터페이스 장치(예, AVN)의 화면에 표시된 리스트를 이동시키거나 어느 하나의 항목 선택 시에 터치패드 상에서 플리킹(flicking) 제스처를 취하거나, 드래깅 제스처를 취하는 데, 이때 메뉴나 리스트의 항목이 많을수록 많은 제스처를 취해야 하기 때문에 선택이 용이하지 않은 문제가 있다.Moving a list displayed on a screen of a graphic user interface device (e.g., AVN) using the touch pad among the physical user interface devices, taking a flicking gesture on the touch pad when selecting one item, In this case, the more items of the menu or the list, the more gestures must be taken, which makes the selection difficult.
또한 사용자는 UI 피드백을 위해 그래픽 사용자 인터페이스 장치의 화면을 계속 주시하면서 원하는 아이콘까지 도달하는지를 확인한다. 이로 인해 운전 중 사용자의 시선이 분산되어 차량 사고의 위험성이 높아지는 문제가 있다.Also, the user keeps watching the screen of the graphic user interface device for UI feedback, and confirms whether the desired icon is reached. Accordingly, there is a problem that the user's gaze is dispersed during operation, thereby increasing the risk of vehicle accidents.
일 측면은 터치 패드부에 일정 거리로 이격된 햅틱부를 배치시킨 터치부를 가지는 사용자 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법을 제공한다.The present invention provides a user interface device having a touch part having a touch part on which a haptic part spaced apart from a touch pad part is disposed, a vehicle having the touch part, and a control method thereof.
다른 측면은 터치부에 터치된 터치 점의 터치 거리가 일정 거리 미만이면 노이즈로 인식하는 사용자 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법을 제공한다.Another aspect of the present invention provides a user interface device for recognizing a touch distance of a touch point touched by a touch portion as noise when the touch distance is less than a predetermined distance, a vehicle having the touch interface, and a control method thereof.
일 측면에 따른 사용자 인터페이스 장치는 사용자에 의해 터치되면 터치된 위치에 대응하는 터치신호를 출력하는 터치패드부; 터치 패드부의 터치 면에 일정 거리로 이격 배치된 햅틱부; 터치 신호에 기초하여 터치 거리를 확인하고, 확인된 터치 거리가 일정 거리보다 짧은 거리이면 노이즈 신호로 인식하는 제어부를 포함한다.According to one aspect of the present invention, there is provided a user interface device including: a touch pad unit for outputting a touch signal corresponding to a touched position when the touch screen is touched by a user; A haptic part spaced apart from the touch surface of the touch pad part by a predetermined distance; And a control unit for recognizing the touch distance based on the touch signal and recognizing the touch distance as a noise signal when the detected touch distance is shorter than a certain distance.
햅틱부는, 터치 패드부의 터치 면에 돌출되도록 배치된 돌출부를 포함한다.The haptic portion includes a protruding portion that is arranged to protrude from the touch surface of the touch pad portion.
사용자 인터페이스 장치는 돌출부와, 터치 면 중 돌출부가 배치되지 않은 터치 면을 커버하는 시트부를 더 포함한다.The user interface device further includes a protruding portion and a seat portion that covers a touch surface on which the protruding portion is not disposed.
햅틱부는, 일정 간격으로 홀이 형성된 햅틱 패드부를 포함한다.The haptic portion includes a haptic pad portion having holes formed at regular intervals.
사용자 인터페이스 장치는 일정 거리에 기초하여 아이콘을 표시하는 표시부를 더 포함한다.The user interface device further includes a display unit for displaying an icon based on a predetermined distance.
제어부는, 출력된 터치 신호가 햅틱부의 위치에서 출력된 터치 신호이면 태핑 제스처, 드래깅 제스처, 플리킹 제스처를 인식한다.The control unit recognizes a tapping gesture, a dragging gesture, and a flicking gesture if the output touch signal is a touch signal output at the position of the haptic unit.
사용자 인터페이스 장치는 터치 패드부의 일 측에 마련되고 선택 신호를 입력받는 푸시 버튼부를 더 포함한다.The user interface device further includes a push button portion provided at one side of the touch pad portion and receiving a selection signal.
다른 측면에 따른 차량은 센터페시아; 센터페시아에 마련된 입력부와, 입력부와 분리 설치되고 입력부에 입력된 입력 정보에 대응하는 동작 정보를 표시하는 표시부를 갖는 사용자 인터페이스 장치를 포함하고, 사용자 인터페이스 장치의 입력부는, 사용자에 의해 터치되면 터치된 위치에 대응하는 터치 신호를 출력하는 터치 패드부와, 터치 패드부의 터치 면에 일정 거리로 이격 배치된 햅틱부를 갖는 터치부를 포함한다.Other aspects of the vehicle include a center fence; A user interface device having an input unit provided in the center fascia and a display unit provided separately from the input unit and displaying operation information corresponding to input information input to the input unit, And a touch unit having a touch pad unit for outputting a touch signal corresponding to a position of the touch pad unit and a haptic unit spaced apart from the touch surface of the touch pad unit by a predetermined distance.
차량은 출력된 터치 신호가 햅틱부의 위치에서 출력된 터치 신호이면 제스처의 종류가 태핑 제스처, 플리킹 제스처 또는 드래깅 제스처인지를 인식하는 제어부를 더 포함한다.The vehicle further includes a controller for recognizing whether the type of the gesture is a tapping gesture, a flicking gesture, or a dragging gesture if the output touch signal is a touch signal output from the haptic portion.
제어부는, 터치 신호에 기초하여 터치 거리를 확인하고, 확인된 터치 거리가 일정 거리보다 짧은 거리이면 노이즈 신호로 인식한다.The control unit confirms the touch distance based on the touch signal, and recognizes the touch distance as a noise signal when the detected touch distance is shorter than a certain distance.
제어부는, 터치 거리가 일정 거리 이상이고 인식된 제스처의 종류가 플리킹 제스처이면 복수 메뉴 사이에서 커서의 이동을 제어한다.The control unit controls the movement of the cursor between a plurality of menus when the touch distance is a certain distance or more and the type of the recognized gesture is a flicking gesture.
제어부는, 터치 거리에 기초하여 커서의 이동 횟수를 제어한다.The control unit controls the number of movements of the cursor based on the touch distance.
제어부는, 터치 거리가 일정 거리 이상이고 인식된 제스처의 종류가 드래킹 제스처이면 어느 하나의 메뉴의 리스트 내 복수 항목 사이에서 커서의 이동을 제어한다.The control unit controls the movement of the cursor between a plurality of items in the list of any one of the menus when the touch distance is a certain distance or more and the type of the recognized gesture is a dragging gesture.
제어부는, 터치 거리에 기초하여 커서의 이동 횟수를 제어한다.The control unit controls the number of movements of the cursor based on the touch distance.
햅틱부는, 터치 패드부의 터치 면에서 돌출 형성되는 돌출부를 포함한다.The haptic portion includes a protrusion protruding from the touch surface of the touch pad portion.
햅틱부는, 일정 거리로 이격된 복수 홀을 가지는 햅틱 패드부를 포함한다.The haptic portion includes a haptic pad portion having a plurality of holes spaced a certain distance.
또 다른 측면에 따른 사용자 인터페이스 장치의 제어 방법은, 차량에 배치되고, 터치부와 표시부를 갖는 사용자 인터페이스 장치의 제어 방법에 있어서, 터치부 터치 시의 터치 신호에 기초하여 터치 점의 위치를 확인하고, 확인된 터치 점의 위치가 터치부에 일정 거리 이격 배치된 햅틱부의 위치인지 확인하고, 터치 점의 위치가 햅틱부의 위치이면 터치 신호에 기초하여 터치 거리를 확인하고, 확인된 터치 거리와 일정 거리를 비교하고, 확인된 터치 거리가 일정 거리 미만이면 노이즈 신호로 인식하고, 확인된 터치 거리가 일정 거리 이상이면 표시부에 표시된 커서를 이동시킨다.According to another aspect of the present invention, there is provided a control method of a user interface apparatus, which is disposed in a vehicle and has a touch section and a display section, the method comprising: confirming a position of a touch point based on a touch signal at a touch section touch If the position of the touch point is the position of the haptic part, the touch distance is confirmed based on the touch signal. If the touch distance is equal to the predetermined touch distance, If the detected touch distance is less than a predetermined distance, the recognition is recognized as a noise signal. If the confirmed touch distance is a predetermined distance or more, the cursor displayed on the display unit is moved.
확인된 터치 거리와 일정 거리를 비교하는 것은, 터치 신호가 적어도 두 개의 햅틱부를 경유하는 거리인지 확인하는 것을 포함한다.The comparison of the identified touch distance and the constant distance includes ensuring that the touch signal is a distance through at least two haptic portions.
사용자 인터페이스 장치의 제어 방법은 확인된 터치 점의 위치가 햅틱부의 위치이면 제스처의 종류가 태핑 제스처, 플리킹 제스처 또는 드래깅 제스처인지를 인식하는 것을 더 포함한다.The control method of the user interface device further includes recognizing whether the type of the gesture is a tapping gesture, a flicking gesture, or a dragging gesture when the position of the identified touch point is the position of the haptic portion.
사용자 인터페이스 장치의 제어 방법은 터치 거리가 일정 거리 이상이고 인식된 제스처의 종류가 플리킹 제스처이면 표시부에 표시된 복수 메뉴 사이에서 커서의 이동을 제어하는 것을 더 포함한다.The control method of the user interface apparatus further includes controlling the movement of the cursor between the plurality of menus displayed on the display unit when the touch distance is a certain distance or more and the type of the recognized gesture is the flicking gesture.
커서의 이동을 제어하는 것은, 터치 거리에 기초하여 커서의 이동 횟수를 제어하는 것을 포함한다.Controlling the movement of the cursor includes controlling the number of times the cursor is moved based on the touch distance.
사용자 인터페이스 장치의 제어 방법은 복수 메뉴 중 어느 하나의 메뉴에 커서 표시 시에 태핑 제스처가 입력되면 어느 하나의 메뉴의 리스트를 활성화시켜 표시하는 것을 더 포함한다.The control method of the user interface device may further include activating a list of one of the plurality of menus when the tapped gesture is input when displaying the cursor on the menu.
사용자 인터페이스 장치의 제어 방법은 터치 거리가 일정 거리 이상이고 인식된 제스처의 종류가 드래킹 제스처이면 표시부에 표시된 어느 하나의 메뉴의 리스트 내 복수 항목 사이에서 커서의 이동을 제어하는 것을 더 포함한다.The control method of the user interface apparatus further includes controlling the movement of the cursor between a plurality of items in the list of any menu displayed on the display unit when the touch distance is a certain distance or more and the type of the recognized gesture is a dragging gesture.
커서의 이동을 제어하는 것은, 터치 거리에 기초하여 커서의 이동 횟수를 제어하는 것을 포함한다.Controlling the movement of the cursor includes controlling the number of times the cursor is moved based on the touch distance.
본 발명은 사용자 인터페이스 장치의 조작 시 사용자가 수동적인 조작감을 느낄 수 있도록 함으로써 사용자가 조작 결과를 정확하게 인지하도록 할 수 있고, 이를 통해 사용자 인터페이스 장치의 조작 성공률을 향상시킬 수 있으며 사용자 인터페이스 장치에 표시된 메뉴 및 리스트 내 항목 간의 이동 속도를 향상시킬 수 있다.The present invention enables a user to feel a passive operation feeling when operating a user interface device so that the user can accurately recognize the operation result, thereby improving the operation success rate of the user interface device, And the speed of movement between items in the list can be improved.
이에 따라 사용자의 편의성을 향상시킬 수 있고 사용자의 만족도를 증대시킬 수 있다.Accordingly, the convenience of the user can be improved and the satisfaction of the user can be increased.
본 발명은 일정 거리 내의 플리킹(Flicking)과 드래깅 제스처를 외력에 의한 오터치로 인식함으로써 사용자 인터페이스 장치에 의해 제어되는 기능 또는 장치의 오조작을 방지할 수 있다.The present invention recognizes a flicking and dragging gesture within a certain distance as an erroneous touch by an external force, thereby preventing malfunction of a function or an apparatus controlled by the user interface apparatus.
본 발명은 터치 패드에 수동 방식의 햅틱이 적용됨으로써 모터 방식의 햅틱이 적용된 터치패드와 대비하여 제조 단가를 줄일 수 있다.The present invention can reduce manufacturing cost in comparison with a touch pad to which a haptic motor is applied by applying a manual haptic to the touch pad.
이로 인해사용자 인터페이스 장치 및 차량의 품질을 향상시킬 수 있어 상품성을 증대시킬 수 있고, 사용자의 편리성 및 차량의 안전성을 향상시킬 수 있다.As a result, the quality of the user interface device and the vehicle can be improved, the commerciality can be enhanced, and the convenience of the user and the safety of the vehicle can be improved.
도 1은 실시 예에 따른 사용자 인터페이스 장치가 마련된 차량의 예시도이다.
도 2는 실시 예에 따른 사용자 인터페이스 장치가 마련된 차량의 내부 예시도이다.
도 3은 실시 예에 따른 사용자 인터페이스 장치에 마련된 입력부의 예시도이다.
도4 내지 도 6은 실시 예에 따른 사용자 인터페이스 장치의 입력부 중 터치부의 구조 예시도이다.
도 7은 실시 예에 따른 사용자 인터페이스 장치의 제어 구성도이다.
도 8 내지 도 11은 실시 예에 따른 사용자 인터페이스 장치에 마련된 터치부의 햅틱부 배치에 대응하는 표시부의 항목 표시 예시도이다.
도 12는 실시 예에 따른 사용자 인터페이스 장치의 제어 순서도이다.
도 13 내지 도 22는 실시 예에 따른 사용자 인터페이스 장치에 마련된 터치부의 터치 신호에 대응하는 표시부의 커서 표시 예시도이다.1 is an exemplary view of a vehicle provided with a user interface device according to an embodiment.
2 is an internal view of a vehicle provided with a user interface device according to an embodiment.
3 is an exemplary view of an input unit provided in the user interface apparatus according to the embodiment.
FIGS. 4 to 6 are diagrams illustrating the structure of a touch unit among the input units of the user interface apparatus according to the embodiment.
7 is a control configuration diagram of a user interface device according to an embodiment.
8 to 11 are diagrams illustrating examples of item display of the display unit corresponding to the arrangement of the haptic portion of the touch unit provided in the UI apparatus according to the embodiment.
12 is a flowchart of a control of the user interface device according to the embodiment.
13 to 22 are diagrams illustrating examples of cursor display of a display unit corresponding to a touch signal of a touch unit provided in the user interface apparatus according to the embodiment.
이하, 첨부된 도면을 참조하여 본 발명에 대해 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 실시 예에 따른 사용자 인터페이스 장치가 내부에 마련된 차량의 외부 예시도이고, 도 2는 실시 예에 따른 사용자 인터페이스 장치가 마련된 차량의 내부 예시도이다. FIG. 1 is an external view of a vehicle in which a user interface device according to an embodiment is provided, and FIG. 2 is an internal view of a vehicle provided with a user interface device according to an embodiment.
차량(1)은 사람 또는 화물을 운송할 목적으로 차륜을 구동시켜 주행하는 기기로, 도로 위를 이동한다.The
차량(1)은 내장과 외장을 갖는 차체(Body)와, 차체를 제외한 나머지 부분으로 주행에 필요한 기계 장치가 설치되는 차대(Chassis)를 포함한다.The
도 1 에 도시된 바와 같이 차체의 외장(110)은 프론트 패널(111), 본네트(112), 루프 패널(113), 리어 패널(114), 트렁크(115), 전후좌우 도어(116) 및 전후좌우 도어(116)에 각각 마련된 윈도우 글래스(117) 등을 포함한다. 1, the
그리고 차체의 외장은 프론트 패널, 본네트, 루프 패널, 리어 패널, 트렁크, 윈도우 글래스(117) 사이의 경계에 마련된 필러(118)를 더 포함한다.The exterior of the vehicle body further includes a
또한 윈도우 글래스(117)는 전후좌우 도어(116)에 설치된 사이드 윈도우 글래스와, 필러와 필러 사이에 설치되되 개폐 불가능하게 설치된 쿼터 윈도우 글래스, 후방 측에 설치된 리어 윈도우 글래스, 전방 측에 설치된 프런트 윈도우 글래스를 더 포함한다.Further, the
차체의 외장은 운전자에게 차량(1) 후방의 시야를 제공하는 사이드 미러(119) 등을 더 포함한다.The exterior of the vehicle body further includes a
차량(1)의 차대는 동력 발생 장치, 동력 전달 장치, 주행 장치, 조향 장치, 제동 장치, 현가 장치, 변속 장치, 연료 장치, 전후좌우 차륜 등을 더 포함한다.The
차량(1)은 운전자 및 탑승자의 안전을 위한 여러 가지 안전장치들을 더 포함한다.The
차량(1)의 안정장치로는 차량 충돌 시 운전자 등 탑승자의 안전을 목적으로 하는 에어백 제어 장치와, 차량의 가속 또는 코너링 시 차량의 자세를 차량자세 안정 제어 장치(ESC: Electronic Stability Control) 등 여러 종류의 안전장치들이 있다.Examples of the stabilizing device of the
이외에도 차량(1)은 후방 또는 측방의 장애물 내지 다른 차량을 감지하는 근접센서, 강수 여부 및 강수량을 감지하는 레인 센서 등의 감지 장치를 더 포함하는 것도 가능하다.In addition, the
이러한 차량(1)은 동력 발생 장치, 동력 전달 장치, 주행 장치, 조향 장치, 제동 장치, 현가 장치, 변속 장치, 연료 장치, 여러 가지 안전 장치 및 각종 감지 장치들의 구동을 제어하는 전자 제어 유닛(ECU: Electronic Control Unit)을 포함한다.This
또한 차량(1)은 운전자의 편의를 위해 설치된 핸즈프리 장치, GPS, 오디오 기기 및 블루투스 장치, 후방 카메라, 단말기 충전 장치, 하이패스 장치 등의 전자 장치를 선택적으로 포함할 수 있다.The
이러한 차량(1)은 시동모터(미도시)에 동작 명령을 입력하기 위한 시동 버튼을 더 포함할 수 있다.The
즉 차량(1)은 시동 버튼이 온 되면 시동모터(미도시)를 동작시키고 시동 모터의 동작을 통해 동력 발생장치인 엔진(미도시)을 구동시킨다.That is, when the start button is turned on, the
차량(1)은 단말기, 오디오 기기, 실내 등, 시동 모터, 그 외 전자장치들에 전기적으로 연결되어 구동 전력을 공급하는 배터리(미도시)를 더 포함한다.The
이러한 배터리는 주행 중 자체 발전기 또는 엔진의 동력을 이용하여 충전을 수행한다.Such a battery performs charging using power from the self-generator or the engine while driving.
도 2에 도시된 바와 같이, 차체의 내장(120)은 탑승자가 앉는 시트(121: 121a, 121b)와, 대시 보드(122)와, 대시 보드 상에 배치되고 타코미터, 속도계, 냉각수 온도계, 연료계, 방향전환 지시등, 상향등 표시등, 경고등, 안전벨트 경고등, 주행 거리계, 주행 기록계, 자동변속 선택레버 표시등, 도어 열림 경고등, 엔진 오일 경고등, 연료부족 경고등이 배치된 계기판(즉 클러스터, 123)과, 차량 방향을 조작하는 스티어링 휠(124)과, 오디오와 공기조화기의 조절판이 있는 센터 페시아(125)를 포함한다.2, the
시트(121)는 운전자가 앉는 운전석(121a), 동승자가 앉는 조수석(121b), 차량 내 후방에 위치하는 뒷좌석을 포함한다.The
클러스터(123)는 디지털 방식으로 구현할 수 있다. 이러한 디지털 방식의 클러스터는 차량 정보 및 주행 정보를 영상으로 표시한다.The
센터 페시아(125)는 대시 보드(122) 중에서 운전석(121a)과 조수석(121b) 사이에 위치하고, 오디오 기기, 공기 조화기 및 히터를 조정하기 위한 헤드 유닛을 갖는다.The
이러한 센터 페시아(125)에는 송풍구, 시거잭 등이 설치될 수 있다.The
또한 센터 페시아(125)에는 사용자로부터 정보를 입력받고 입력된 정보에 대응하는 결과를 출력하는 사용자 인터페이스 장치(200)가 마련될 수 있다.Also, the
사용자 인터페이스 장치(200)는외관을 형성하는 본체(200a)와 분리 설치되고, 동작 명령이나 정보 입력을 위한 입력부(210)와, 적어도 하나의 기능에 대한 동작 정보를 표시하는 표시부(220)를 포함한다.The
입력부(210)는 센터페시아(123)에 마련되되,사용자 인터페이스 장치(200)의 본체(200a)와 인접한 위치에 마련될 수도 있고, 변속 기어 주변에 마련될 수도 있다.The
표시부(220)는 센터페시아(123)에 마련되되, 헤드 유닛의 상측에 마련될 수 있고, 입력부(210)에 입력된 입력 정보에 대응하는 동작 정보를 표시한다.The
또한 표시부(220)는 사용자에 의해 선택 가능한 아이콘과, 입력 위치를 나타내는 커서를 표시할 수 있다.Further, the
여기서 아이콘은 버튼 형상, 리스트 형상으로 표시될 수 있다.Here, the icon may be displayed in a button shape or a list shape.
도 3을 참조하여 사용자 인터페이스 장치의 입력부를 좀 더 구체적으로 설명한다.The input portion of the user interface device will be described in more detail with reference to FIG.
도 3은 실시 예에 따른 사용자 인터페이스 장치에 마련된 입력부(210)의 예시도이다.3 is an exemplary diagram of an
입력부(210)는 사용자에 의해 가압 조작되거나 회전 조작되는 버튼부(210a)와, 사용자에 의해 터치되는 터치부(210b)를 포함한다. The
버튼부(210a)는 복수의 기능이 각각 설정되어 있고 가압 조작되는 복수의 바로가기 버튼부(211)와, 즐겨 찾기 항목이 설정되어 있고 회전 조작되는 휠버튼부(212)와, 현재 표시부의 화면이 이전 화면으로 돌아가도록 하고 가압 조작되는 백버튼부(213)와, 터치부(210b)의 바닥면에 배치되고 터치에 의해 선택된 메뉴나 항목을 선택받는 푸시 버튼부(214)를 포함한다.The
여기서 복수의 기능은 각 기능을 바로 수행할 수 있도록 하는 바로 가기 기능으로, 파워 온오프 기능, 메뉴 활성화 기능, 내비게이션 기능, 디엠비 기능 등을 포함할 수 있다.Here, a plurality of functions are shortcut functions for directly performing respective functions, and may include a power on / off function, a menu activation function, a navigation function, a DMB function, and the like.
즉, 바로가기 버튼부(211)는 파워 버튼, 메뉴 버튼, 내비게이션 버튼 및 디엠비 버튼을 포함할 수 있다.That is, the
아울러 사용자 인터페이스 장치의 입력부(210)는 바로 가기 기능으로 그 외에도 이스케이프(ESC) 기능, 미디어 기능, 트립 기능 등을 설정할 수도 있다.In addition, the
즐겨 찾기 항목은 목적지 검색, 라디오 채널 검색, 웹 사이트 등으로, 사용자가 자주 사용하는 항목을 갖고, 이 항목은 사용자에 의해 설정 가능하다.Favorite items include destination search, radio channel search, web site, and the like, which are frequently used by the user and can be set by the user.
백 버튼부(213)는 현재 실행되고 있는 기능의 상위 기능이 실행되도록 하는 버튼으로, 실행되는 기능이 변경됨에 따라 표시부에 표시된 화면이 이전 표시된 화면으로 돌아가도록 한다.The
푸시 버튼부(214)은 터치 패드부(215)의 바닥면에 위치하여 외부로 노출되지 않으나, 터치부(210b)의 일측에 위치시켜 외부로 노출되도록 설치하는 것도 가능하다. The
이러한 푸시 버튼부(214)의 푸시 신호는 태핑 제스처를 대신할 수 있다.The push signal of the
터치부(210b)는 버튼부(210a)와 서로 다른 공간에 분리 배치될 수도 있고, 버튼부(210a)의 일 측에 인접하게 배치될 수도 있다. The
터치부(210b)는 사용자에 의해 터치되면 터치된 터치 점의 터치 위치에 대응하는 터치 신호를 출력한다.The
터치부(210b)는 터치된 시간에 따라 일시적인 터치 신호 또는 연속적인 터치 신호를 출력한다.The
즉, 터치부(210b)는 태핑, 플리킹, 드래깅 제스처에 대한 터치 신호를 출력하고, 또한 필기 입력에 대한 터치 신호를 출력한다.That is, the
터치부(210b)는 터치패드부와, 터치 패드 터치 시 사용자가 조작감을 느낄 수 있도록 하는 햅틱부를 포함한다. The
이러한 터치부(210b)의 구조를 도 4 내지 도 6을 참조하여 설명한다.The structure of the
도 4는 터치부의 일 예로, 터치부(210b)는 사용자의 손이나 펜 등의 접촉체가 접촉되는 터치 면(215a)을 갖고 접촉체가 터치된 터치 점을 인식하고 인식된 터치점 위치에서의 터치 신호를 생성하고 생성된 터치 신호를 출력하는 터치패드부(215)와, 터치 패드부의 터치 면(215a)에 일정 간격으로 배치된 햅틱부(216)를 포함한다. FIG. 4 shows an example of a touch portion. The
여기서 터치 패드부의 터치 점의 인식 방식은 정전용량 방식, 감압 방식 및 전자기 유도기 방식 중 어느 하나의 방식 일 수 있다.Here, the recognition method of the touch point of the touch pad unit may be one of the electrostatic capacity type, the pressure reduction type, and the electromagnetic induction type.
햅틱부(216)는 사용자가 터치 시 조작감을 느낄 수 있도록 한다.The
이러한 햅틱부(216)는 일정 형상의 일정 두께를 갖고 터치 패드부의 터치 면(215a)에일정 간격으로 배치되어 터치 면으로부터 일정 간격으로 일정 두께만큼 돌출 형성되는 돌출부(216a)를 포함한다.The
여기서 돌출부(216a)는 터치 패드부의 터치 면(215a)에 고정적으로 부착 또는 결합될 수 있다.Here, the
돌출부(216a)의 형상은 원형, 사각형 또는 삼각형일 수 있다.The shape of the
터치 패드부의 터치 면(215a)에 배치되는 복수의 돌출부(216a)는, 격자 방식으로 배치될 수 있으며, 이때 가로로 배치된 돌출부 사이의 제1일정 간격(d1)은 서로 동일하고, 세로로 배치된 돌출부 사이의 제2일정 간격(d2) 역시 서로 동일하다.The plurality of
아울러 제1일정 간격(d1)과 제2일정 간격(d2)은 서로 동일할 수도 있고, 서로 상이할 수도 있다.The first predetermined distance d1 and the second predetermined distance d2 may be the same or different from each other.
도 5는 터치부의 다른 예로, 터치부(210b)는 사용자의 손이나 펜 등의 접촉체가 접촉되는 터치 면(215a)을 갖고 접촉체가 터치된 터치 점을 인식하고 인식된 터치 점 위치에서의 터치 신호를 생성하며 생성된 터치 신호를 출력하는 터치패드부(215)와, 터치 패드부의 터치 면(215a)에 일정 간격으로 배치된 햅틱부(216)와, 터치 패드부의 터치 면에 배치되되 햅틱부(216)의 상측에 배치되는 시트부(217)를 포함한다. FIG. 5 shows another example of the touch portion. The
햅틱부(216)는 사용자가 터치 시 조작감을 느낄 수 있도록 한다.The
이러한 햅틱부(216)는 일정 형상의 일정 두께를 갖고 터치 패드부의 터치 면(215a)에 일정 간격으로 배치되어 터치 면(215a)으로부터 일정 간격으로 일정 두께만큼 돌출 형성되는 돌출부(216a)를 포함한다.The
여기서 돌출부(216a)는 터치 패드부의 터치 면(215a)에 고정적으로 부착 또는 결합될 수 있다.Here, the
터치 패드부의 터치 면(215a)에 배치되는 복수의 돌출부(216a)는, 격자 방식으로 배치될 수 있으며, 이때 가로로 배치된 돌출부 사이의 제1일정 간격(d1)은 서로 동일하고, 세로로 배치된 돌출부 사이의 제2일정 간격(d2) 역시 서로 동일하다.The plurality of
아울러 제1일정 간격(d1)과 제2일정 간격(d2)은 서로 동일할 수도 있고, 서로 상이할 수도 있다.The first predetermined distance d1 and the second predetermined distance d2 may be the same or different from each other.
시트부(217)는 터치 패드부의 터치 면(215a)에 배치된 햅틱부(216)를 보호하기 위해 터치 패드부의 터치 면(215a) 중 햅틱부(216)가 배치되지 않은 면과 햅틱부(216)를 커버한다. The
이러한 시트부(217)는 터치 패드부의 터치면(215a) 및 돌출부(216a)에 밀착 배치될 수 있다.The
도 6은 터치부의 또 다른 예로, 터치부(210b)는 사용자의 손이나 펜 등의 접촉체가 접촉되는 터치 면(215a)을 갖고 접촉체가 터치된 터치 점을 인식하고 인식된 터치 점 위치에서의 터치 신호를 생성하고 생성된 터치 신호를 출력하는 터치패드부(215)와, 일정 간격으로 형성된 홀(218a)을 갖고 터치 패드부의 터치 면(215a)에 배치되는 햅틱부(218)를 포함한다. FIG. 6 shows another example of the touch portion. The
여기서 터치 패드부의 터치 점의 인식 방식은 정전용량 방식, 감압 방식 및 전자기 유도기 방식 중 어느 하나의 방식 일 수 있다.Here, the recognition method of the touch point of the touch pad unit may be one of the electrostatic capacity type, the pressure reduction type, and the electromagnetic induction type.
햅틱부(218)는 사용자가 터치 시 조작감을 느낄 수 있도록 한다.The
이러한 햅틱부(218)는 일정 형상으로 형성되고 일정 간격으로 배치된 홀(218a)을 가지며, 터치 패드부의 터치 면(215a)에 부착 또는 결합되는 햅틱 패드부를 포함한다.The
홀(218a)의 형상은 원형, 사각형 또는 삼각형일 수 있다.The shape of the
햅틱 패드부에 형성된 복수의 홀(218a)은, 격자 방식으로 형성될 수 있으며, 이때 가로로 형성된 홀 사이의 제1일정 간격(d1)은 서로 동일하고, 세로로 형성된 홀 사이의 제2일정 간격(d2) 역시 서로 동일하다.The plurality of
아울러 제1일정 간격(d1)과 제2일정 간격(d2)은 서로 동일할 수도 있고, 서로 상이할 수도 있다.The first predetermined distance d1 and the second predetermined distance d2 may be the same or different from each other.
도 7은 실시 예에 따른 사용자 인터페이스 장치의 제어 구성도로, 사용자 인터페이스 장치는 입력부(210), 표시부(220), 제어부(230), 저장부(240)를 포함한다.7 is a control block diagram of a user interface apparatus according to an embodiment of the present invention. The user interface apparatus includes an
입력부(210)는 사용자로부터 동작 정보를 입력받는 것으로, 버튼부(210a) 및 터치부(210b)를 포함하고, 버튼부(210a) 및 터치부(210b)에서 입력된 신호를 제어부(230)에 전송한다.The
버튼부(210a)는 복수의 버튼 중 사용자에 의해 가압된 버튼의 신호를 제어부(230)에 전송하고 터치부(210b)는 사용자에 의해 터치된 터치점의 터치 위치에 대한 터치 신호를 제어부(230)에 전송한다.The
표시부(220)는 터치부(210b)에 필기된 문자를 표시하고, 버튼부(210a) 및 터치부(210b)에 의해 선택된 기능의 동작 정보를 표시하며, 태핑 제스처 시 입력 위치를 표시한다.The
여기서 가능의 동작 정보를 표시하는 것은, 길 안내를 위한 지도, 도로 환경 정보 등의 내비게이션 기능의 동작 정보를 표시하거나, 디엠비의 방송 영상을 표시하거나, 오디오의 음악 정보를 표시할 수 있으며, 인터넷 검색을 위한 검색 영상을 표시하는 것을 포함한다.Displaying the possible operation information here can display the operation information of the navigation function such as a map for road guidance and road environment information, display the broadcast image of the DMB, display the music information of the audio, Lt; RTI ID = 0.0 > a < / RTI >
입력 위치는, 태핑 제스처 시 선택 가능한 것을 지시하여 사용자가 용이하게 선택 명령을 입력할 수 있도록 하는 위치로, 커서 또는 포인터(221) 등으로 표시 가능하다.The input position is a position that allows a user to easily input a selection command by designating a selectable tapping gesture, and can be displayed with a cursor or a
표시부(220)는 어느 하나의 기능에 대해 복수의 항목을 표시할 때 리스트로 표시한다.The
예를 들어 리스트는, 메뉴 리스트, 최근 목적지 리스트, 목적지 검색 방식을 나열한 목적지선택 리스트로, 목적지 검색 결과 리스트, 전화 번호 리스트, 디엠비 방송 채널 리스트, 라디오 채널 리스트 등을 포함할 수 있다. For example, the list may include a menu list, a recent destination list, a destination selection list that lists destination search methods, a destination search result list, a telephone number list, a DMB broadcast channel list, a radio channel list, and the like.
도 8에 도시된 바와 같이, 표시부(220)는 리스트 표시 시 포인터(221)를 표시하여 선택 가능한 항목을 지시하고, 또한 리스트 내 항목의 수가 미리 설정된 개수를 초과하면 스크롤 바(222)를 표시하여 사용자가 다음 항목이 더 존재함을 알 수 있도록 한다.As shown in FIG. 8, the
또한 표시부(220)는 리스트 표시 시 터치부의 햅틱부(216)의 위치에 기초하여 항목을 표시하고, 터치 거리에 기초하여 항목을 이동시켜 표시한다.In addition, the
또한 표시부(220)는 리스트의 복수 항목을 행으로 표시 시에 터치 거리가 기준 터치 거리 미만이면 표시 상태를 유지시킨다.The
여기서 기준 터치 거리는 두 햅틱부 사이의 일정 거리일 수 있다. Here, the reference touch distance may be a certain distance between the two haptic portions.
표시부(220)는 리스트의 복수 항목을 행으로 표시 시에 햅틱부(216)의 가로 행에 복수 항목을 각각 매칭시켜 표시한다.The
도 8에 도시된 바와 같이, 표시부(220)는 햅틱부(216)의 제1행(A1)과 대응하는 제1행(B1)에 첫 번째 항목을 표시하고, 햅틱부(216)의 제2행(A2)과 대응하는 제2행(B2)에 두 번째 항목을 표시하며, 햅틱부(216)의 제3행(A3)과 대응하는 제3행(B3)에 세 번째 항목을 표시한다.8, the
표시부(220)는 리스트의 복수 항목을 열로 표시 시에 햅틱부(216)의 세로 열에 복수 항목을 각각 매칭시켜 표시하는 것도 가능하다. 이때 스크롤바(222)는 가로로 표시될 수 있다.The
도 9에 도시된 바와 같이, 표시부(220)는 햅틱부(216)의 제1열(C1)과 대응하는 제1열(D1)에 첫 번째 항목을 표시하고, 햅틱부(216)의 제2열(C2)과 대응하는 제2열(D2)에 두 번째 항목을 표시하며, 햅틱부(216)의 제3열(C3)과 대응하는 제3열(D3)에 세 번째 항목을 표시하고, 햅틱부(216)의 제4열(C4)과 대응하는 제3열(D4)에 네 번째 항목을 표시한다.9, the
표시부(220)는 표시된 항목의 수와 햅틱부(216)의 세로 열의 수가 상이할 경우에도 햅틱부를 따라 이동하는 터치 신호가 입력되면 이동된 터치 거리에 기초하여 항목을 이동시켜 표시한다.The
도 10에 도시된 바와 같이, 표시부(220)는 제1열(F1)에 첫 번째 항목을 표시하고, 제2열(F2)에 두 번째 항목을 표시하며, 햅틱부(216)의 제1열(E1)에서 제2열(E1)로 이동하는 터치 신호가 입력되면 제1열(F1)에 두 번째 항목을 표시하고 제2열(F2)에세 번째 항목을 표시한다.10, the
아울러, 표시부(220)는 제1열(F1)에 첫 번째 항목을 표시하고, 제2열(F2)에 두 번째 항목을 표시하며, 햅틱부(216)의 제3열(E3)에서 제4열(E4)로 이동하는 터치 신호가 입력되어도 제1열(F1)에 두 번째 항목을 표시하고 제2열(F2)에 세 번째 항목을 표시한다.In addition, the
아울러, 표시부(220)는 제1열(F1)에 첫 번째 항목을 표시하고, 제2열(F2)에 두 번째 항목을 표시하며, 햅틱부(216)의 제1열(E1)에서 제4열(E4)로 이동하는 터치 신호가 입력되면 제1열(F1)에 네 번째 항목을 표시하고 제2열(F2)에 다섯 번째 항목을 표시한다.The
도 11에 도시된 바와 같이, 표시부(220)는 제1행(H11) 및 제1열(H21)에 상위 메뉴의 아이콘을 표시하고, 제2행(H12) 및 제1열(H21)에 중간 메뉴의 아이콘을 표시하며, 제2행(H12) 및 제2열(H22)에 하위 메뉴의 아이콘을 표시한다.11, the
표시부(220)는 햅틱부의 하나의 행에서 다른 행으로 이동하는 터치 신호가 입력되면 순차적으로 메뉴의 아이콘의 커서를 이동시켜 표시한다. When the touch signal for moving from one row to another row of the haptic unit is input, the
예를 들어, 표시부(220)는 상위 메뉴의 아이콘에 커서를 위치시킨 상태에서 제1행(G11)에서 제2행(G12)으로 이동하는 터치 신호가 입력되면 커서를 중간 메뉴의 아이콘으로 이동시켜 표시하고, 이 후 제1행(G11)에서 제2행(G12)으로 이동하는 터치 신호가 입력되면 하위 메뉴의 아이콘으로 커서를 이동시켜 표시한다.For example, when the touch signal for moving from the first row G11 to the second row G12 is input while the cursor is positioned on the icon of the upper menu, the
아울러, 표시부(220)는 어느 하나의 행에서 다른 행으로 이동하는 터치 신호가 입력되면 상위 메뉴와 중간 메뉴의 아이콘 간 커서를 이동시켜 표시하고, 어느 하나의 열에서 다른 열로 이동하는 터치 신호가 입력되면 중간 메뉴와 하위 메뉴의 아이콘 간 커서를 이동시켜 표시하는 것도 가능하다.In addition, when a touch signal for moving from one row to another row is input, the
예를 들어, 표시부(220)는 상위 메뉴의 아이콘에 커서를 위치시킨 상태에서 제1행(G11)에서 제2행(G12)으로 이동하는 터치 신호가 입력되면 커서를 중간 메뉴의 아이콘으로 이동시켜 표시하고, 이 후 제1열(G21)에서 제2열(G22)으로 이동하는 터치 신호가 입력되면 하위 메뉴의 아이콘으로 커서를 이동시켜 표시한다.For example, when the touch signal for moving from the first row G11 to the second row G12 is input while the cursor is positioned on the icon of the upper menu, the
제어부(230)는 버튼부(210a)에서 버튼의 조작 신호가 입력되면 입력된 조작 신호에 기초하여 표시부의 동작을 제어한다.The
예를 들어, 제어부(230)는 버튼부(210a) 내의 내비게이션 바로가기 버튼의 조작 신호가 입력되면 GPS를 제어하여 내비게이션 기능이 수행되도록 하고 표시부(220)에 내비게이션 기능에 대한 동작 정보가 표시되도록 제어한다.For example, when the operation signal of the navigation shortcut button in the
제어부(230)는 버튼부(210a) 내의 백 버튼부(213)의 조작 신호가 입력되면 현재 수행 중인 기능의 상위 기능을 수행하도록 제어하고, 표시부(220)에 이전 화면이 표시되도록 제어한다.The
제어부(230)는 터치부(210b)에서 터치 신호가 입력되면 입력된 터치 신호에 기초하여 터치 점의 위치 및 터치 점의 위치 변화를 확인하고, 확인된 터치 점의 위치 변화에 기초하여 터치 거리를 확인한다.When a touch signal is input from the
제어부(230)는 터치 점의 터치 유지 여부 또는 터치 속도에 기초하여 플리킹 제스처인지 드래깅 제스처인지 확인한다.The
즉, 플리킹 제스처는 일정 거리 터치 후 터치부에서 접촉체를 떼는 제스처이고, 드래깅 제스처는 일정 거리 터치 후에도 터치부에 접촉체의 터치를 유지시키는 제스처이다.That is, the flicking gesture is a gesture for releasing the contact object from the touch portion after touching a certain distance, and the dragging gesture is a gesture for maintaining the touch of the contact object on the touch portion even after touching a certain distance.
제어부(230)는 확인된 제스처에 종류 및 터치 거리에 기초하여 표시부(220)에 표시된 메뉴간의 이동이나, 표시부(220)에 표시된 리스트의 항목의 이동을 제어한다.The
여기서 표시부에 표시된 메뉴 간의 이동은, 표시부에 표시된 복수 메뉴의 아이콘의 커서를 순차적으로 이동시키는 것을 포함하고, 표시부에 표시된 리스트의 항목의 이동은 항목의 커서를 순차적으로 이동시키고 표시된 항목의 커서 이동이 완료되면 다음 항목으로 변경하는 것을 포함한다.Here, the movement between the menus displayed on the display unit includes sequentially moving the cursor of the icons of the plurality of menus displayed on the display unit, and the movement of the items of the list displayed on the display unit sequentially moves the cursor of the item, And changing to the next item when completed.
좀 더 구체적으로 제어부(230)는 확인된 터치 거리가 기준 터치 거리 미만이면 노이즈 신호로 인식하여 터치 인식에 따른 동작 제어를 종료한다.More specifically, the
제어부(230)는 확인된 터치 거리가 기준 터치 거리 이상이면 터치 거리에 기초하여 표시부에 표시된 리스트의 항목의 이동 수를 제어하되, 터치 신호가 플리킹 제스처의 신호이면 터치 거리에 대응하여 표시부에 표시된 복수 메뉴에서의 커서 이동을 제어한다.If the detected touch distance is equal to or greater than the reference touch distance, the
여기서 복수의 메뉴는, 내비게이션 기능, 오디오 기능, 공조 기능, 디엠비 기능, 라디오 기능 등의 메인 메뉴인 상위 메뉴와, 각 메인 메뉴의 하위 항목을 갖는 중간 메뉴와, 중간 메뉴의 세부 내용을 갖는 하위 메뉴를 포함한다.Here, the plurality of menus includes an upper menu that is a main menu such as a navigation function, an audio function, an air conditioning function, a DMB function, and a radio function, an intermediate menu having sub items of each main menu, .
그리고 복수의 메뉴 간 커서의 이동을 제어하는 것은, 복수 메뉴의 아이콘에 커서를 적용하되 순차적으로 커서를 이동시키는 것을 포함한다. 이를 통해 활성화시키고자 하는 메뉴로 커서를 이동시킬 수 있다. Controlling the movement of the cursor between the plurality of menus includes moving the cursor sequentially while applying the cursor to the icons of the plurality of menus. This allows you to move the cursor to the menu you want to activate.
아울러 제어부(230)는 터치 신호가 플래킹 제스처의 신호이면 터치 거리에 대응하여 리스트 내 복수 항목에서의 커서 이동 수를 제어하는 것도 가능하다.If the touch signal is a signal of a flicking gesture, the
즉, 제어부(230)는 리스트의 복수 항목과, 복수 항목의 순서와, 확인된 커서 이동 수에 기초하여 표시될 항목을 확인하고, 확인된 항목이 표시부(220)에 표시되도록 제어한다.That is, the
제어부(230)는 확인된 터치 거리가 기준 터치 거리 이상이면 터치 거리에 기초하여 커서의 이동 수를 제어하되, 터치 신호가 드래깅 제스처의 신호이면 터치 거리 내 햅틱부의 수를 확인하고, 확인된 햅틱부의 수에 기초하여 복수 항목 내에서의 커서 이동 수를 제어한다.The
즉, 제어부(230)는 리스트의 복수 항목과, 복수 항목의 순서와, 확인된 커서의 이동 수에 기초하여 표시될 항목을 확인하고, 확인된 항목이 표시부(220)에 표시되도록 제어한다.That is, the
제어부(230)는 리스트의 항목을 표시하고 있는 상태에서 터치 신호가 입력되면 입력된 터치 신호가 햅틱부의 위치에서 터치된 태핑 신호라고 판단되면 태핑 신호 입력 시 커서의 위치를 확인하고, 확인된 위치에 매칭된 항목이나 메뉴를 확인한 후 확인된 항목이나 메뉴에 기초하여 표시부(220)의 표시를 제어한다.When the touch signal is inputted while the item of the list is displayed, the
예를 들어, 제어부(230)는 확인된 메뉴가 상위 메뉴의 내비게이션 기능이면 내비게이션 기능의 영상이 표시되도록 제어하고, 확인된 메뉴가 중간 메뉴이면 중간 메뉴의 리스트를 활성화시키고, 확인된 메뉴가 하위 메뉴이면 중간 메뉴에서 선택된 항목의 세부 내용이 표시되도록 제어한다.For example, if the identified menu is a navigation function of the upper menu, the
그리고 제어부(230)는 확인된 리스트의 항목이 어느 하나의 목적지라면 내비게이션 기능의 목적지를 확인된 어느 하나의 목적지로 변경한다.The
저장부(240)는 일정간격에 대한 기준 터치 거리를 저장한다.The
저장부(240)는 플리킹 제스처 시의 터치 거리에 대응하는 이동될 항목의 수를 저장한다.The
도 12은 실시 예에 따른 사용자 인터페이스 장치의 제어 순서도로, 도 13 내지 도 을 참조하여 설명한다.FIG. 12 is a flowchart of the control of the user interface device according to the embodiment, and is described with reference to FIG. 13 to FIG.
사용자 인터페이스 장치는 전원이 온되면 입력부(210)와 표시부(220)의 기능을 활성화시킨다.The user interface device activates the functions of the
사용자 인터페이스 장치는 내비게이션 기능, 오디오 기능, 디엠비 기능 중 어느 하나의 기능을 수행하고 있는 상태에서 메뉴를 표시하거나, 어느 하나의 메뉴 내의 복수 항목을 표시해야 하는 경우, 메뉴를 종류별로 표시하거나 어느 하나의 메뉴 내의 복수 항목을 리스트로 표시한다.When the user interface device displays a menu in a state in which the navigation function, the audio function, or the DMB function is being performed, when a plurality of items in one menu are to be displayed, the menu is displayed for each type, Display multiple items in the menu as a list.
메뉴를 종류별로 표시하는 것은, 기능 선택을 위한 상위 메뉴와, 상위 메뉴에서 선택된 기능의 하위 항목을 표시하는 중간 메뉴와, 중간 메뉴의 항목에 대한 상세 내용을 표시하는 하위 메뉴를 표시하는 것을 포함한다.Displaying the menu by type includes displaying an upper menu for function selection, an intermediate menu for displaying the lower item of the function selected from the upper menu, and a lower menu for displaying the details of the item of the intermediate menu .
그리고 복수 항목을 리스트로 표시하는 것은, 최근 목적지 리스트, 목적지 검색 방식 리스트, 목적지 검색 결과 리스트, 전화 번호 리스트, 디엠비 방송 채널 리스트, 라디오 채널 리스트 또는 음악 리스트 등을 표시하는 것을 포함한다. Displaying a plurality of items in a list includes displaying a recent destination list, a destination search method list, a destination search result list, a telephone number list, a DMB broadcast channel list, a radio channel list, or a music list.
사용자 인터페이스 장치는 복수의 메뉴 및 어느 하나의 메뉴가 가지는 복수 항목을 리스트로 표시하고 있는 상태에서 터치 신호가 입력되는지 판단(251)하고, 터치 신호가 입력되었다고 판단되면 터치 신호를 분석하여 터치 점의 위치 변화를 확인하고, 확인된 위치 변화에 기초하여 터치 거리를 확인(252)한다.The user interface device determines whether a touch signal is input (251) while displaying a plurality of items having a plurality of menus and a menu in a list, and when it is determined that a touch signal is input, Confirms the position change, and confirms the touch distance based on the confirmed position change (252).
여기서 터치 신호를 분석하는 것은, 터치 점의 시작 위치가 어느 하나의 햅틱부의 위치인지 확인하는 것을 포함한다.The analysis of the touch signal includes checking whether the starting point of the touch point is the position of any of the haptic portions.
그리고 사용자 인터페이스 장치는 확인된 터치 거리와 기준 터치 거리를 비교(253)한다.Then, the user interface device compares the recognized touch distance with the reference touch distance (step 253).
여기서 확인된 터치 거리와 기준 터치 거리를 비교하는 것은, 터치 신호가 적어도 두 개의 햅틱부의 위치를 갖는지 확인함으로써 적어도 두 개의 햅틱부를 경유하는 터치 신호인지를 확인하는 것을 포함한다.The comparison of the touch distance identified herein to the reference touch distance includes verifying whether the touch signal is a touch signal via at least two haptic portions by verifying that the touch signal has at least two haptic portions.
사용자 인터페이스 장치는 확인된 터치 거리가 기준 터치 거리 미만이라고 판단되면 적어도 두 개의 햅틱부를 경유하지 않않다고 판단하고 입력된 터치 신호를 노이즈 신호라고 인식(254)하며, 터치 동작에 따른 표시부 및 그 외 부하(예를 들어, 사운드부나, 라디오, 공기조화기 등)로 동작 명령을 출력하지 않고 종료한다.If it is determined that the identified touch distance is less than the reference touch distance, the user interface device determines that at least two haptic portions are not passed, recognizes the input touch signal as a noise signal (254) (For example, a sound unit, a radio, an air conditioner, etc.).
도 13를 참조하여 설명하면, 사용자 인터페이스 장치의 터치부는 일정 거리(d1)로 이격 배치된 햅틱부(216)를 가지며, 사용자에 의해 일정 거리보다 짧은 거리(x)가 입력되면 적어도 두 개의 햅틱부를 경유하지 않았다고 보고 노이즈 신호로 처리한다.13, the touch portion of the user interface device has a
즉 터치부(210b)는 사용자가터치에 따른 조작감을 느낄 수 있도록 하기 위한 햅틱부(216)를 포함하며, 이 햅틱부(216)는 터치 패드부 상에 일정 거리로 이격 배치된 바, 두 개의 햅틱부의 거리인 일정 거리 이상 이동하지 않은 터치 신호는, 사용자의 조작 의도가 없는 신호로 볼 수 있다.That is, the
반면 확인된 터치 거리가 기준 터치 거리 이상이라고 판단되면, 즉 적어도 두 개의 햅틱부를 경유하였다고 판단되면 표시부에 표시된 커서를 이동시키기 위한 터치 신호라고 판단하고, 확인된 터치 거리에 기초하여 메뉴 간 또는 항목 간의 커서를 순차적으로 이동시켜 표시(255)한다.On the other hand, if it is determined that the identified touch distance is greater than or equal to the reference touch distance, that is, if it is determined that the at least two haptic portions have been passed, it is determined that the touch signal is for moving the cursor displayed on the display unit. The cursor is sequentially displayed (255).
이때 사용자 인터페이스 장치는 터치 신호를 분석하여 터치 제스처의 종류를 확인하고 확인된 제스처의 종류에 기초하여 커서의 이동을 제어한다. At this time, the user interface device analyzes the touch signal to check the type of the touch gesture and controls the movement of the cursor based on the type of the confirmed gesture.
좀 더 구체적으로, 사용자 인터페이스 장치는 확인된 터치 거리가 기준 터치 거리 이상이고 터치 신호가 플리킹 제스처의 신호이면 터치 거리에 대응하여 표시부에 표시된 복수 메뉴에서 커서를 이동시킨다.More specifically, the user interface device moves the cursor in a plurality of menus displayed on the display unit corresponding to the touch distance if the confirmed touch distance is equal to or greater than the reference touch distance and the touch signal is a signal of the flickering gesture.
사용자 인터페이스 장치는 리스트를 활성화 시킨 상태에서 입력된 터치 신호의 터치 거리가 기준 터치 거리 이상이고, 터치 신호가 드래깅 제스처의 신호이면 터치 거리 내 햅틱부의 수를 확인하고, 확인된 햅틱부의 수에 기초하여 복수 항목 내에서 커서를 순차적으로 이동시킨다.The user interface device checks the number of haptic portions within the touch distance if the touch distance of the input touch signal is greater than or equal to the reference touch distance and the touch signal is a signal of the dragging gesture with the list activated, Moves the cursor sequentially within a plurality of items.
이에 대한 예를 도 14 내지 도 21을 참조하여 추후에 설명하도록 한다.An example of this will be described later with reference to Fig. 14 to Fig.
사용자 인터페이스 장치는 커서가 활성화된 메뉴의 종류별 아이콘이나 리스트를 표시하고 있는 상태에서 터치 신호가 입력되면 입력된 터치 신호가 태핑 신호인지 판단(256)하고 판단된 터치 신호가 태핑 신호라고 판단되면 커서의 위치를 확인하고 확인된 위치의 터치 신호를 출력(257)함으로써 커서의 위치에 매칭된 메뉴나 항목의 기능을 실행하도록 한다.When a touch signal is input, the user interface device determines whether the input touch signal is a tapping signal (256). If it is determined that the touch signal is a tapping signal, The position is confirmed and the touch signal at the identified position is
이때, 사용자 인터페이스 장치는 표시부의 영상을 실행되는 기능에 대한 영상으로 변경하여 표시한다.At this time, the user interface device changes the image of the display unit to the image of the function to be executed and displays it.
여기서 터치 신호가 태핑 신호인지 판단하는 것은, 터치 신호가 햅틱부가 배치된 위치에서 발생된 신호인지 판단하는 것을 포함한다.Determining whether the touch signal is a tapping signal includes determining whether the touch signal is a signal generated at a position where the haptic portion is disposed.
아울러 태핑 신호는 햅틱부의 위치에서 더블 터치된 신호일 수 있다. In addition, the tapping signal may be a double-touched signal at the position of the haptic portion.
또한 태핑 신호를 판단하는 것은, 푸시 버튼부(214)의 푸시 신호의 입력 여부를 판단하는 것도 가능하다.The determination of the tapping signal can also be made by determining whether or not the
사용자 인터페이스 장치는 태핑 신호가 입력되지 않고 백 버튼부(213)의 조작 신호가 입력되면 현재 수행 중인 기능의 상위 기능을 수행한다.The user interface device performs a higher function of the currently performed function when a tapping signal is not input and an operation signal of the
즉 사용자 인터페이스 장치는 표시부(220)에 현재 화면의 이전 화면을 표시한다.That is, the user interface device displays the previous screen of the current screen on the
도 14 내지 도 21은 실시 예에 따른 사용자 인터페이스 장치의 터치부의 터치 신호에 대응하는 표시부의 표시 예시도이다.14 to 21 are diagrams illustrating display examples of a display unit corresponding to a touch signal of a touch unit of a user interface apparatus according to an embodiment.
도 14 내지 도 16는 플리킹 제스처(F)에 대응하는 표시부의 표시 예시도이다. Figs. 14 to 16 are diagrams showing display examples of the display portion corresponding to the flicking gesture F. Fig.
터치부(210b)는 하나의 햅틱부와, 다른 햅틱부로 연속되는 터치가 검출된 후 접촉체가 분리되면 터치 시작 시점부터 종료 시점까지 검출된 터치 신호를 출력한다. 이때 터치 신호는 위치 신호를 포함하고, 사용자 인터페이스 장치는 변화되는 위치 신호에 기초하여 터치 거리를 인식한다.The
사용자 인터페이스 장치는 터치 신호가 하나의 햅틱부에서 다른 햅틱부로 이동한 터치 신호라고 판단되면 기준 터치 거리 이상의 플리킹 제스처로 인식한다.The user interface device recognizes the touch signal as a flicking gesture over the reference touch distance when it is determined that the touch signal has moved from one haptic part to another haptic part.
사용자 인터페이스 장치는 터치 거리 내 햅틱부의 수를 확인하고, 확인된 햅틱부의 수에 기초하여 복수 메뉴에서의 커서를 이동시킨다.The user interface device confirms the number of haptic portions in the touch distance and moves the cursor in the plurality of menus based on the number of confirmed haptic portions.
아울러 터치가 시작된 햅틱부는 확인된 햅틱부의 수에서 제외된다.In addition, the touch-initiated haptic part is excluded from the number of confirmed haptic parts.
표시부(220)는 커서가 하위 메뉴의 아이콘에 표시된 상태에서 플리킹 제스처가 입력되면 커서를 상위 메뉴의 아이콘으로 이동시켜 표시한다.The
도 14에 도시된 바와 같이, 표시부(220)는 상위메뉴의 아이콘(S1), 중간 메뉴의 아이콘(S2) 및 하위 메뉴의 아이콘(S3)를 표시하고, 커서를 상위메뉴의 아이콘(S1)에 표시한다.14, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 하나의 햅틱부로 터치되는 플리킹 제스처가 이루어지면, 표시부(220)는 상위 메뉴의 아이콘(S1)에 표시된 커서를 한 번 이동시켜 중간 메뉴의 아이콘(S2)에 표시한다.At this time, if a flicking gesture is touched to one haptic portion neighboring one haptic portion in the
도 15에 도시된 바와 같이, 표시부(220)는 상위메뉴의 아이콘(S1), 중간 메뉴의 아이콘(S2) 및 하위 메뉴의 아이콘(S3)를 표시하고, 커서를 중간 메뉴의 아이콘(S2)에 표시한다.15, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 한 개의 햅틱부를 경유하여 터치되는 플리킹 제스처가 이루어지면, 표시부(220)는 중간 메뉴의 아이콘(S2)에 표시된 커서를 한 번 이동시켜 하위 메뉴의 아이콘(S3)에 표시한다.At this time, if a flicking gesture is touched via one haptic unit adjacent to the haptic unit in one haptic unit, the
도 16에 도시된 바와 같이, 표시부(220)는 상위메뉴의 아이콘(S1), 중간 메뉴의 아이콘(S2) 및 하위 메뉴의 아이콘(S3)를 표시하고, 커서를 상위메뉴의 아이콘(S1)에 표시한다.16, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 두 개의 햅틱부를 경유하여 터치되는 플리킹 제스처가 이루어지면, 표시부(220)는 상위 메뉴의 아이콘(S1)에 표시된 커서를 두 번 이동시켜 하위 메뉴의 아이콘(S3)에 표시한다.At this time, if a flicking gesture is touched via the two haptic units adjacent to each other in the haptic unit, the
도 17 내지 도 20는 드래깅 제스처(D)에 대응하는 표시부의 표시 예시도이다.17 to 20 are diagrams showing display examples of the display portion corresponding to the dragging gesture (D).
표시부(220)는 중간 메뉴가 선택되면 리스트를 표시하고, 첫 번째 항목에 커서를 표시한다.The
터치부(210b)는 리스트를 표시하고 있는 상태에서 하나의 햅틱부와, 다른 햅틱부로 연속되는 터치가 검출되면 검출된 터치 신호를 출력한다. 이때 터치 신호는 위치 신호를 포함하고, 사용자 인터페이스 장치는 변화되는 위치 신호에 기초하여 터치 거리를 인식한다.The
여기서 리스트를 표시하고 있는 상태는, 중간 메뉴의 리스트 내 어느 하나의 항목에 커서가 표시된 상태를 포함한다.Here, the state in which the list is displayed includes a state in which a cursor is displayed on any item in the list of the intermediate menu.
사용자 인터페이스 장치는 터치 신호가 하나의 햅틱부에서 다른 햅틱부로 이동하되 터치 상태가 유지되고 있는 터치 신호라고 판단되면 기준 터치 거리 이상의 드래깅 제스처로 인식한다.The user interface device recognizes the touch signal as a dragging gesture greater than or equal to the reference touch distance when it is determined that the touch signal moves from one haptic portion to another haptic portion but the touch state is maintained.
사용자 인터페이스 장치는 터치 거리 내 햅틱부의 수를 확인하고, 확인된 햅틱부의 수에 기초하여 리스트 내에서 복수 항목의 커서를 순차적으로 이동시킨다.The user interface device confirms the number of haptic portions within the touch distance and sequentially moves the plurality of items in the list based on the number of confirmed haptic portions.
아울러 터치가 시작된 햅틱부는 확인된 햅틱부의 수에서 제외된다.In addition, the touch-initiated haptic part is excluded from the number of confirmed haptic parts.
사용자 인터페이스 장치는 마지막 열의 항목에 커서가 표시된 상태에서 드래킹 제스처가 입력되면 현재 그룹의 항목을 삭제하고 다음 그룹의 항목을 표시한다.The user interface device deletes the current group item and displays the next group item when a dragging gesture is inputted while the cursor is displayed on the item of the last column.
도 17에 도시된 바와 같이, 표시부(220)는 리스트의 제1항목(P1), 제2항목(P2), 제3항목(P3)을 표시하고, 커서를 제1항목(P1)에 표시한다.17, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 하나의 햅틱부로 터치되는 드래깅 제스처가 이루어지면, 표시부(220)는 제1항목(P1)에 표시된 커서를 한 번 이동시켜 제2항목(P2)에 표시한다.At this time, if a dragging gesture is touched by one haptic part in one haptic part to the
도 18에 도시된 바와 같이, 표시부(220)는 리스트의 제1항목(P1), 제2항목(P2), 제3항목(P3)을 표시하고, 커서를 제3항목(P3)에 표시한다.18, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 하나의 햅틱부로 터치되는 드래깅 제스처가 이루어지면, 표시부(220)는 표시된 항목의 다음 그룹의 항목들을 표시하고, 다음 항목 중 첫 번째의 항목에 커서를 표시한다.At this time, if a dragging gesture is touched by one haptic part in one haptic part in the
즉 표시부는 리스트의 제4항목(P4), 제5항목(P5), 제5항목(P5)을 표시하고, 커서를 제4항목(P4)에 표시한다.That is, the display unit displays the fourth item P4, the fifth item P5, and the fifth item P5 of the list, and displays the cursor on the fourth item P4.
아울러 표시부는 커서 이동을 통해 리스트의 복수 항목을 모두 표시한 경우, 제1항목(P1), 제2항목(P2), 제3항목(P3)을 다시 표시한다.The display unit again displays the first item (P1), the second item (P2), and the third item (P3) when a plurality of items of the list are displayed through cursor movement.
도 19에 도시된 바와 같이, 표시부(220)는 리스트의 제1항목(P1), 제2항목(P2), 제3항목(P3)을 표시하고, 커서를 제1항목(P1)에 표시한다.As shown in Fig. 19, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 두 개의 햅틱부를 경유하여 터치되는 드래깅 제스처가 이루어지면, 표시부(220)는 제1항목(P1)에 표시된 커서를 두 번 이동시켜 제3항목(P3)에 표시한다.At this time, if a dragging gesture is touched via two neighboring haptic units in one haptic unit to the
도19에 도시된 바와 같이, 표시부(220)는 리스트의 제1항목(P1), 제2항목(P2), 제3항목(P3)을 표시하고, 커서를 제3항목(P3)에 표시한다.19, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 두 개의 햅틱부로 터치되는 드래깅 제스처가 이루어지면, 표시부(220)는 표시된 항목의 다음 그룹의 항목들을 표시하고, 다음 항목 중 두 번째의 항목에 커서를 표시한다.At this time, if a dragging gesture is touched by two haptic units neighboring one haptic unit in the haptic unit, the
즉 표시부(220)는 리스트의 제4항목(P4), 제5항목(P5), 제5항목(P5)을 표시하고, 커서를 제5항목(P5)에 표시한다.That is, the
도 21 및 도 22은 플리킹 제스처(F)에 대응하는 표시부의 다른 표시 예시도이다. Figs. 21 and 22 show other display examples of the display portion corresponding to the flicking gesture F. Fig.
표시부(220)는 중간 메뉴가 선택되면 리스트를 표시하고, 첫 번째 항목에 커서를 표시한다.The
터치부(210b)는 리스트를 표시하고 있는 상태에서 하나의 햅틱부와, 다른 햅틱부로 연속되는 터치가 검출되면 검출된 터치 신호를 출력한다. 이때 터치 신호는 위치 신호를 포함하고, 사용자 인터페이스 장치는 변화되는 위치 신호에 기초하여 터치 거리를 인식한다.The
여기서 리스트를 표시하고 있는 상태는, 중간 메뉴의 리스트 내 어느 하나의 항목에 커서가 표시된 상태를 포함한다.Here, the state in which the list is displayed includes a state in which a cursor is displayed on any item in the list of the intermediate menu.
사용자 인터페이스 장치는 터치 신호가 하나의 햅틱부에서 다른 햅틱부로 이동하되 터치 상태가 종료된 터치 신호라고 판단되면 기준 터치 거리 이상의 플리킹 제스처로 인식한다.The user interface device recognizes the touch signal as a flicking gesture over a reference touch distance when it is determined that the touch signal is moved from one haptic portion to another haptic portion and the touch state is ended.
사용자 인터페이스 장치는 터치 거리에 기초하여 리스트 내에서 복수 항목의 커서를 순차적으로 이동시킨다.The user interface device sequentially moves a plurality of items of the cursor in the list based on the touch distance.
도 20에 도시된 바와 같이, 표시부(220)는 리스트의 제1항목(P1), 제2항목(P2), 제3항목(P3)을 표시하고, 커서를 제1항목(P1)에 표시한다.20, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 하나의 햅틱부로 터치되는 플리킹 제스처가 이루어지면, 표시부는 제1항목(P1)에 표시된 커서를 미리 설정된 횟수만큼 이동시켜 표시한다. At this time, if a flicking gesture touching one haptic unit adjacent to the haptic unit in one haptic unit is performed on the
즉 사용자 인터페이스 장치는 플리킹 제스처 시 터치 거리를 확인하고, 확인된 터치 거리가 제1 터치 거리라고 판단되면 제1터치 거리에 대응하는 커서 이동 횟수를 확인하고 확인된 이동 횟수만큼 커서를 이동시킨다. That is, the user interface device confirms the touch distance during the flicking gesture, and when it is determined that the confirmed touch distance is the first touch distance, it confirms the number of times of movement of the cursor corresponding to the first touch distance and moves the cursor by the number of movement.
아울러, 확인된 커서의 이동 횟수가 표시된 항목의 개수보다 크면 다음 그룹의 항목들을 표시하고, 커서 이동 횟수에 대응하는 항목에 커서를 표시한다.If the number of movements of the identified cursor is larger than the number of items displayed, the items of the next group are displayed, and the cursor is displayed on the item corresponding to the number of times of movement of the cursor.
예를 들어, 표시부는 제1터치 거리에 대응하는 커서 이동횟수가 3이면, 커서가 세 번 이동했을 때의 항목에 커서를 표시하되 커서가 표시된 항목이 속한 그룹의 항목들을 함께 표시한다. For example, when the number of times of cursor movement corresponding to the first touch distance is 3, the display unit displays a cursor on the item when the cursor moves three times, and displays the items of the group to which the cursor is displayed.
즉 표시부는 제1항목에 커서를 표시하고 있는 상태에서 제1터치 거리를 가진 플리킹 제스처가 입력되면 제4항목(P4), 제5항목(P5) 및 제6항목(P6)을 표시하되, 제4항목에 커서를 표시한다.That is, the display unit displays the fourth item (P4), the fifth item (P5), and the sixth item (P6) when the flicking gesture having the first touch distance is input while the cursor is displayed on the first item, The cursor is displayed on the fourth item.
도 22에 도시된 바와 같이, 표시부(220)는 리스트의 제1항목(P1), 제2항목(P2), 제3항목(P3)을 표시하고, 제1항목(P1)에 커서를 표시한다.22, the
이때 터치부(210b)에 어느 하나의 햅틱부에서 이웃한 두 개의 햅틱부로 터치되는 플리킹 제스처가 이루어지면, 표시부는 제1항목(P1)에 표시된 커서를 미리 설정된 횟수만큼 이동시켜 표시한다. At this time, if a flicking gesture is touched by the two haptic units adjacent to each other in the haptic unit, the display unit moves the cursor displayed in the first item P1 by a predetermined number of times and displays the flickering gesture.
즉 사용자 인터페이스 장치는 확인된 터치 거리가 제2 터치 거리라고 판단되면 제2터치 거리에 대응하는 커서 이동 횟수를 확인하고 확인된 이동 횟수만큼 커서를 이동시킨다. That is, if it is determined that the confirmed touch distance is the second touch distance, the user interface device confirms the number of times of cursor movement corresponding to the second touch distance and moves the cursor by the number of times of movement.
예를 들어, 표시부는 제2터치 거리에 대응하는 커서 이동횟수가 6이면, 커서가 여섯 번 이동했을 때의 항목에 커서를 표시하되 커서가 표시된 항목이 속한 그룹의 항목들을 함께 표시한다. For example, if the number of times of cursor movement corresponding to the second touch distance is 6, the display unit displays the cursor at the item when the cursor moves six times, and displays the items of the group to which the cursor is marked.
즉 표시부(220)는 리스트의 제1항목(P1), 제2항목(P2), 제3항목(P3)을 표시하고, 제2터치 거리를 가진 플리킹 제스처가 입력되면 제7항목(P7), 제8항목(P8) 및 제8항목(P8)을 표시하되, 7항목에 커서를 표시한다.That is, the
이와 같이 리스트의 항목 표시 시 플리킹 제스처를 통해 항목을 변경시킴으로써 리스트의 항목을 빠르게 확인할 수 있다.In this way, when items of a list are displayed, items in the list can be checked quickly by changing the items through the flicking gesture.
1: 차량 200: 사용자 인터페이스 장치
210: 입력부 210a: 버튼부
210b: 터치부 220: 표시부
230: 제어부 240: 저장부1: vehicle 200: user interface device
210:
210b: touch part 220: display part
230: control unit 240:
Claims (24)
상기 터치 패드부의 터치 면에 고정되고 상기 터치 면으로부터 돌출되어 배치된 복수 개의 돌출부를 갖는 햅틱부;
상기 터치 신호에 기초하여 터치 거리를 확인하는 제어부를 포함하고,
상기 복수 개의 돌출부는, 상기 터치 면의 제1방향으로 제1일정 거리로 이격되어 배치되고 상기 제1방향과 수직한 제2방향으로 제2일정 거리로 이격되어 배치되고,
상기 제어부는, 상기 터치 신호에 기초하여 상기 터치된 위치에 존재하는 돌출부의 개수를 확인하고, 상기 확인된 돌출부의 개수가 두 개 이상이면 상기 확인된 돌출부의 개수에 대응하는 동작 명령의 출력을 제어하며, 상기 제1방향으로의 터치 거리가 상기 제1일정거리 미만이면 상기 터치 신호를 노이즈 신호로 인식하고, 상기 제1방향으로의 터치 거리가 상기 제1일정거리 이상일 때 상기 확인된 돌출부의 개수가 하나이면 상기 터치 신호를 노이즈 신호로 인식하며, 상기 제2방향으로의 터치 거리가 상기 제2일정거리 미만이면 상기 터치 신호를 노이즈 신호로 인식하고 상기 제2방향으로의 터치 거리가 상기 제2일정 거리 이상일 때 상기 확인된 돌출부의 개수가 하나이면 상기 터치 신호를 노이즈 신호로 인식하는 사용자 인터페이스 장치.A touch pad unit for outputting a touch signal corresponding to a touched position when touched by a user;
A haptic part fixed to a touch surface of the touch pad part and having a plurality of protrusions protruding from the touch surface;
And a control unit for confirming a touch distance based on the touch signal,
Wherein the plurality of protrusions are spaced apart from each other by a first predetermined distance in a first direction of the touch surface and are spaced apart from each other by a second predetermined distance in a second direction perpendicular to the first direction,
Wherein the control unit checks the number of protrusions existing at the touched position based on the touch signal and controls the output of an operation command corresponding to the number of the detected protrusions if the number of the protrusions is two or more And recognizing the touch signal as a noise signal when the touch distance in the first direction is less than the first predetermined distance, and when the touch distance in the first direction is equal to or greater than the first predetermined distance, Recognizes the touch signal as a noise signal, recognizes the touch signal as a noise signal when the touch distance in the second direction is less than the second predetermined distance, and recognizes the touch distance in the second direction as the noise signal, And recognizes the touch signal as a noise signal when the number of the protrusions is one when the distance is equal to or greater than a predetermined distance.
상기 돌출부와, 상기 터치 면 중 돌출부가 배치되지 않은 터치 면을 커버하는 시트부를 더 포함하는 사용자 인터페이스 장치.The method according to claim 1,
And a sheet portion that covers the protruding portion and a touch surface on which the protruding portion of the touch surface is not disposed.
상기 복수 개의 돌출부가 배치된 위치에 기초하여 아이콘을 표시하는 표시부를 더 포함하는 사용자 인터페이스 장치.The method according to claim 1,
And a display unit for displaying an icon based on a position where the plurality of protrusions are arranged.
상기 출력된 터치 신호가 상기 햅틱부의 위치에서 출력된 터치 신호이면 태핑 제스처, 드래깅 제스처, 플리킹 제스처를 인식하는 사용자 인터페이스 장치.The apparatus of claim 1,
A dragging gesture, and a flicking gesture if the output touch signal is a touch signal output at a position of the haptic unit.
상기 터치 패드부의 일 측에 마련되고 선택 신호를 입력받는 푸시 버튼부를 더 포함하는 사용자 인터페이스 장치.The method according to claim 1,
And a push button unit provided on one side of the touch pad unit and receiving a selection signal.
상기 센터페시아에 마련된 터치부를 갖는 입력부와, 상기 입력부의 터치부와 분리 설치되고 상기 입력부에 입력된 입력 정보에 대응하는 동작 정보를 표시하는 표시부와, 상기 터치부의 터치 신호에 기초하여 상기 표시부를 제어하는 제어부를 갖는 사용자 인터페이스 장치를 포함하고,
상기 사용자 인터페이스 장치의 터치부는,
사용자에 의해 터치되면 터치된 위치에 대응하는 터치 신호를 출력하는 터치 패드부와, 상기 터치 패드부의 터치 면에 고정되고 상기 터치 면으로부터 돌출되어 배치된 복수 개의 돌출부를 갖는 햅틱부를 포함하고,
상기 복수 개의 돌출부는, 상기 터치 면의 제1방향으로 제1일정거리로 이격 배치되고 상기 제1방향과 수직한 제2방향으로 제2일정거리로 이격되어 배치되고,
상기 제어부는, 상기 터치 신호에 기초하여 상기 터치된 위치에 존재하는 돌출부의 개수를 확인하고, 상기 확인된 돌출부의 개수가 두 개 이상이면 상기 확인된 돌출부의 개수에 기초하여 상기 표시부에 표시되는 커서의 이동 횟수를 제어하며, 상기 제1방향으로의 터치 거리가 상기 제1일정 거리 미만이면 상기 터치 신호를 노이즈 신호로 인식하고, 상기 제1방향으로의 터치 거리가 상기 제1일정 거리 이상일 때 상기 확인된 돌출부의 개수가 하나이면 상기 터치 신호를 노이즈 신호로 인식하며, 상기 제2방향으로의 터치 거리가 상기 제2일정거리 미만이면 상기 터치 신호를 노이즈 신호로 인식하고 상기 제2방향으로의 터치 거리가 상기 제2일정거리 이상일 때 상기 확인된 돌출부의 개수가 하나이면 상기 터치 신호를 노이즈 신호로 인식하는 차량.Center fesia;
A display unit for displaying operation information corresponding to input information provided separately from the touch unit of the input unit and input to the input unit; and a control unit for controlling the display unit based on the touch signal of the touch unit And a user interface device having a control unit
Wherein the touch unit of the user interface device comprises:
And a haptic unit fixed to a touch surface of the touch pad unit and having a plurality of protrusions protruding from the touch surface,
Wherein the plurality of protrusions are spaced apart at a first predetermined distance in a first direction of the touch surface and spaced apart at a second predetermined distance in a second direction perpendicular to the first direction,
Wherein the control unit confirms the number of protrusions existing at the touched position based on the touch signal, and if the number of the protrusions is two or more, the cursor is displayed on the display unit based on the number of the detected protrusions Wherein when the touch distance in the first direction is less than the first predetermined distance, the touch signal is recognized as a noise signal, and when the touch distance in the first direction is equal to or greater than the first predetermined distance, Recognizes the touch signal as a noise signal when the number of the detected projections is one and recognizes the touch signal as a noise signal when the touch distance in the second direction is less than the second predetermined distance, And recognizes the touch signal as a noise signal when the number of the identified protrusions is one when the distance is equal to or greater than the second predetermined distance.
상기 확인된 돌출부의 개수가 두 개 이상이면 상기 터치 신호에 기초하여 제스처의 종류가 태핑 제스처, 플리킹 제스처 또는 드래깅 제스처인지를 인식하는 제어부를 더 포함하는 차량.9. The method of claim 8,
Further comprising a controller for recognizing whether the type of the gesture is a tapping gesture, a flicking gesture, or a dragging gesture based on the touch signal when the number of the protrusions is two or more.
상기 인식된 제스처의 종류가 상기 제1방향의 플리킹 제스처이면 상기 표시부에 표시된 복수 메뉴 사이에서 상기 커서의 이동을 상기 제1방향으로 제어하고, 상기 인식된 제스처의 종류가 상기 제2방향의 플리킹 제스처이면 상기 복수의 메뉴 사이에서 상기 커서의 이동을 상기 제2방향으로 제어하는 차량.10. The apparatus according to claim 9,
Controls the movement of the cursor in the first direction between a plurality of menus displayed on the display unit if the recognized gesture type is a flicking gesture in the first direction, and if the type of the recognized gesture is a flicking gesture in the second direction And controls the movement of the cursor between the plurality of menus in the second direction if the gesture is a king gesture.
상기 인식된 제스처의 종류가 상기 제1방향의 드래깅 제스처이면 상기 표시부에 표시된 어느 하나의 메뉴의 리스트 내 복수 항목 사이에서 상기 커서의 이동을 상기 제1방향으로 제어하고, 상기 인식된 제스처의 종류가 상기 제2방향의 드래깅 제스처이면 어느 하나의 메뉴의 리스트 내 복수 항목 사이에서 커서의 이동을 상기 제2방향으로 제어하는 차량.10. The apparatus according to claim 9,
If the type of the recognized gesture is a dragging gesture in the first direction, controlling the movement of the cursor in a first direction among a plurality of items in a list of a menu displayed on the display unit, and if the type of the recognized gesture is And controls movement of the cursor between the plurality of items in the list of one menu in the second direction if the dragging gesture is the second direction.
상기 터치부에서 돌출 배치되되 상기 터치부에서 제1방향으로 제1일정거리 이격 배치되고 제2방향으로 제2일정 거리 이격 배치된 복수 개의 돌출부의 위치를 확인하고,
상기 터치부의 터치 시의 터치 신호에 기초하여 터치된 위치를 확인하고,
상기 터치된 위치가 상기 복수 개의 돌출부의 위치 중 어느 하나의 돌출부의 위치인지 확인하고,
상기 터치된 위치가 상기 어느 하나의 돌출부의 위치이면 상기 터치 신호에 기초하여 터치 거리 및 방향을 확인하고,
상기 터치 신호에 기초하여 상기 터치된 위치에 존재하는 돌출부의 개수를 확인하고,
상기 확인된 방향이 상기 제1방향이면 상기 제1방향의 터치 거리와 상기 제1일정 거리를 비교하고,
상기 제1방향의 터치 거리가 상기 제1일정 거리 미만이면 상기 터치 신호를 노이즈 신호로 인식하고,
상기 제1방향의 터치 거리가 상기 제1일정 거리 이상일 때 상기 확인된 돌출부의 개수가 하나이면 상기 터치 신호를 노이즈 신호로 인식하고,
상기 제1방향의 터치 거리가 상기 제1일정 거리 이상일 때 상기 확인된 돌출부의 개수가 두 개 이상이면 상기 표시부에 표시된 커서를 상기 제1방향으로 상기 확인된 돌출부의 개수에 대응하는 횟수만큼 이동시키고,
상기 확인된 방향이 상기 제2방향이면 상기 제2방향의 터치 거리와 상기 제2일정 거리를 비교하고,
상기 제2방향의 터치 거리가 상기 제2일정 거리 미만이면 상기 터치 신호를 노이즈 신호로 인식하고,
상기 제2방향의 터치 거리가 상기 제2일정 거리 이상일 때 상기 확인된 돌출부의 개수가 하나이면 상기 터치 신호를 노이즈 신호로 인식하고,
상기 제2방향의 터치 거리가 상기 제2일정 거리 이상일 때 상기 확인된 돌출부의 개수가 두 개 이상이면 상기 표시부에 표시된 커서를 상기 제2방향으로 상기 확인된 돌출부의 개수에 대응하는 횟수만큼 이동시키는 사용자 인터페이스 장치의 제어 방법.A control method of a user interface apparatus (100), which is disposed in a vehicle (100) and has a touch section (100) and a display section
A plurality of protrusions protruding from the touch portion and spaced apart from each other by a first predetermined distance in the first direction and spaced by a second predetermined distance in the second direction,
A touch position is confirmed based on a touch signal at the touch of the touch portion,
Wherein the touched position is a position of one of the plurality of protrusions,
If the touch position is the position of one of the protrusions, confirms the touch distance and the direction based on the touch signal,
The number of protrusions existing at the touched position is checked based on the touch signal,
Comparing the touch distance in the first direction with the first predetermined distance if the identified direction is the first direction,
If the touch distance in the first direction is less than the first predetermined distance, recognizes the touch signal as a noise signal,
Recognizes the touch signal as a noise signal when the number of the detected protrusions is one when the touch distance in the first direction is equal to or greater than the first predetermined distance,
When the number of the detected protrusions is two or more when the touch distance in the first direction is equal to or greater than the first predetermined distance, the cursor displayed on the display unit is moved a number of times corresponding to the number of the identified protrusions in the first direction ,
Comparing the touch distance in the second direction with the second predetermined distance if the identified direction is the second direction,
Recognizes the touch signal as a noise signal when the touch distance in the second direction is less than the second predetermined distance,
Recognizes the touch signal as a noise signal when the number of the detected protrusions is one when the touch distance in the second direction is equal to or greater than the second predetermined distance,
When the number of the detected protrusions is two or more when the touch distance in the second direction is equal to or greater than the second predetermined distance, the cursor displayed on the display unit is moved a number of times corresponding to the number of the identified protrusions in the second direction A method of controlling a user interface device.
상기 확인된 돌출부의 개수가 두 개 이상일 때 상기 터치 신호에 기초하여 제스처의 종류가 태핑 제스처, 플리킹 제스처 또는 드래깅 제스처인지를 인식하는 것을 더 포함하는 사용자 인터페이스 장치의 제어 방법.18. The method of claim 17,
And recognizing whether the type of the gesture is a tapping gesture, a flicking gesture, or a dragging gesture based on the touch signal when the number of the protrusions is two or more.
상기 인식된 제스처의 종류가 플리킹 제스처이면 상기 표시부에 표시된 복수의 메뉴 사이에서 상기 커서의 이동을 제어하는 것을 더 포함하는 사용자 인터페이스 장치의 제어 방법.20. The method of claim 19,
And controlling the movement of the cursor among a plurality of menus displayed on the display unit if the type of the recognized gesture is a flicking gesture.
복수의 메뉴 중 어느 하나의 메뉴에 커서 표시 시에 태핑 제스처가 입력되면 상기 어느 하나의 메뉴의 리스트를 활성화시켜 표시하는 것을 더 포함하는 사용자 인터페이스 장치의 제어 방법.21. The method of claim 20,
Further comprising activating and displaying a list of any one of the plurality of menus when a tapped gesture is input when displaying a cursor on the menu.
상기 인식된 제스처의 종류가 드래깅 제스처이면 상기 표시부에 표시된 어느 하나의 메뉴의 리스트 내 복수 항목 사이에서 상기 커서의 이동을 제어하는 것을 더 포함하는 사용자 인터페이스 장치의 제어 방법.20. The method of claim 19,
And controlling the movement of the cursor among a plurality of items in a list of one menu displayed on the display unit if the type of the recognized gesture is a dragging gesture.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140138566A KR101665552B1 (en) | 2014-10-14 | 2014-10-14 | User interface apparatus, Vehicle having the same and method for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140138566A KR101665552B1 (en) | 2014-10-14 | 2014-10-14 | User interface apparatus, Vehicle having the same and method for controlling the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160043849A KR20160043849A (en) | 2016-04-22 |
KR101665552B1 true KR101665552B1 (en) | 2016-10-13 |
Family
ID=55918365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140138566A Active KR101665552B1 (en) | 2014-10-14 | 2014-10-14 | User interface apparatus, Vehicle having the same and method for controlling the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101665552B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210141877A (en) | 2020-05-14 | 2021-11-23 | 우리산업 주식회사 | Touch panel controller assembly structure of vehicle |
KR20210140980A (en) | 2020-05-14 | 2021-11-23 | 우리산업 주식회사 | Touch panel controller assembly structure of vehicle |
KR20230091621A (en) | 2021-12-16 | 2023-06-23 | 우리산업 주식회사 | Touch panel controller assembly structure of vehicle |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014102656A (en) * | 2012-11-19 | 2014-06-05 | Aisin Aw Co Ltd | Manipulation assistance system, manipulation assistance method, and computer program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
KR101366170B1 (en) * | 2012-05-23 | 2014-02-25 | 크로키닷컴 주식회사 | User Interface for controlling state of menu |
-
2014
- 2014-10-14 KR KR1020140138566A patent/KR101665552B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014102656A (en) * | 2012-11-19 | 2014-06-05 | Aisin Aw Co Ltd | Manipulation assistance system, manipulation assistance method, and computer program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210141877A (en) | 2020-05-14 | 2021-11-23 | 우리산업 주식회사 | Touch panel controller assembly structure of vehicle |
KR20210140980A (en) | 2020-05-14 | 2021-11-23 | 우리산업 주식회사 | Touch panel controller assembly structure of vehicle |
KR20230091621A (en) | 2021-12-16 | 2023-06-23 | 우리산업 주식회사 | Touch panel controller assembly structure of vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR20160043849A (en) | 2016-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101575648B1 (en) | User interface apparatus, Vehicle having the same and method for controlling the same | |
CN103085734B (en) | There is the proximity switch of false touch feedback | |
KR101700714B1 (en) | User interface apparatus, Vehicle having the same and method for controlling the same | |
JP5565421B2 (en) | In-vehicle operation device | |
US8527900B2 (en) | Motor vehicle | |
CN104914986B (en) | Terminal device, vehicle with terminal device, and method for controlling terminal device | |
DE102009008041A1 (en) | Method for operating a motor vehicle with a touchscreen | |
US10983691B2 (en) | Terminal, vehicle having the terminal, and method for controlling the vehicle | |
US20180239441A1 (en) | Operation system | |
CN104723993A (en) | System and method for controlling display of avn | |
KR101665552B1 (en) | User interface apparatus, Vehicle having the same and method for controlling the same | |
KR101558354B1 (en) | Blind control system for vehicle | |
KR20160021509A (en) | User interface apparatus, Vehicle having the same and method for controlling the same | |
US20180239424A1 (en) | Operation system | |
US11237014B2 (en) | System and method for point of interest user interaction | |
US10423326B2 (en) | Vehicle and control method of the same | |
JP6018775B2 (en) | Display control device for in-vehicle equipment | |
KR20160050869A (en) | User interface apparatus, Vehicle having the same and method for controlling the same | |
US11977809B2 (en) | Console display interlocking method and vehicle system using the same | |
US20220126693A1 (en) | Vehicle display device | |
US10618407B2 (en) | Terminal apparatus, vehicle, and method of controlling the terminal apparatus | |
US20240367519A1 (en) | Method for Generating and Outputting an Operating Signal in a Vehicle as well as Computer Program Product | |
KR101882202B1 (en) | User interface device, vehicle having the same and method for controlling the same | |
KR20160004043A (en) | User interface apparatus and Vehicle having the same | |
JP2022158178A (en) | Operation device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20141014 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20160120 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
PG1501 | Laying open of application | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20160722 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20160120 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20160722 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20160318 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20160907 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20160819 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20160722 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20160318 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20161006 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20161007 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20200928 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20210928 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20220927 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20230925 Start annual number: 8 End annual number: 8 |
|
PR1001 | Payment of annual fee |