[go: up one dir, main page]

KR102840429B1 - Display device and operating method thereof for the same - Google Patents

Display device and operating method thereof for the same

Info

Publication number
KR102840429B1
KR102840429B1 KR1020170025055A KR20170025055A KR102840429B1 KR 102840429 B1 KR102840429 B1 KR 102840429B1 KR 1020170025055 A KR1020170025055 A KR 1020170025055A KR 20170025055 A KR20170025055 A KR 20170025055A KR 102840429 B1 KR102840429 B1 KR 102840429B1
Authority
KR
South Korea
Prior art keywords
image
user
display device
display
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020170025055A
Other languages
Korean (ko)
Other versions
KR20180052501A (en
Inventor
조정훈
김용남
김승찬
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/705,439 priority Critical patent/US11160688B2/en
Publication of KR20180052501A publication Critical patent/KR20180052501A/en
Application granted granted Critical
Publication of KR102840429B1 publication Critical patent/KR102840429B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

디스플레이 장치 및 그 동작 방법이 개시된다. 따른 디스플레이 장치는, 디스플레이부, 하나 이상의 인스트럭션을 저장하는 메모리, 및 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 영상을 획득하고, 시각 장애의 종류를 포함하는 사용자의 시각 특성 정보에 기초하여, 획득된 영상을 변환하고, 변환된 영상을 디스플레이부에 표시할 수 있다.A display device and an operating method thereof are disclosed. The display device comprises a display unit, a memory storing one or more instructions, and a processor executing the one or more instructions stored in the memory, wherein the processor can acquire an image by executing the one or more instructions, convert the acquired image based on visual characteristic information of a user including a type of visual impairment, and display the converted image on the display unit.

Description

디스플레이 장치 및 그 동작 방법{DISPLAY DEVICE AND OPERATING METHOD THEREOF FOR THE SAME}DISPLAY DEVICE AND OPERATING METHOD THEREOF FOR THE SAME

본 개시는 시각 보조 디스플레이 장치 및 그 동작 방법에 관한 것으로서, 보다 상세하게는, 저시력 사용자를 위해 변환된 영상을 제공하는 시각 보조 디스플레이 장치 및 그 동작 방법에 관한 것이다. The present disclosure relates to a visual assistance display device and an operating method thereof, and more particularly, to a visual assistance display device that provides converted images for low vision users and an operating method thereof.

이동 단말기를 포함한 다양한 디바이스들은 복합적이고 다양한 기능들을 제공함에 따라, 사용자가 보다 편리하게 디바이스를 사용할 수 있도록 하는 기술이 개발되고 있다. 또한, 사용자의 신체에 착용 가능한 웨어러블 디바이스(wearable device)가 개발되면서, 사용자 맞춤형 기능을 갖춘 형태로 구현되고 있다.As various devices, including mobile terminals, offer complex and diverse functions, technologies are being developed to enable users to use these devices more conveniently. Furthermore, with the development of wearable devices, these devices are being implemented with customized features.

최근, 멀티미디어 기술, 네트워크 기술 및 영상 처리 기술이 발전함에 따라, 사용자에게 보다 편리한 인터페이스 환경과 사용자의 시각 특성에 적합한 영상을 제공하기 위한 연구가 요구되고 있다.Recently, with the advancement of multimedia technology, network technology, and image processing technology, research is required to provide users with a more convenient interface environment and images suited to their visual characteristics.

또한, 최근 가상 현실(Virtual Reality) 관련 기술이 발전하면서, 가상 현실 장치를 이용하여, 사용자 맞춤형 기능을 제공하기 위한 연구가 요구되고 있다. In addition, with the recent advancement of virtual reality technology, research is being required to provide customized functions using virtual reality devices.

본 개시는 저시력 사용자를 위해 변환된 영상을 제공하는 시각 보조 디스플레이 장치 및 그 동작 방법을 제공한다. The present disclosure provides a visual assistance display device that provides converted images for low vision users and a method of operating the same.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be solved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by a person having ordinary skill in the technical field to which the present invention belongs from the description below.

상기한 과제를 실현하기 위한 일 실시예에 따른 디스플레이 장치는, 디스플레이부, 하나 이상의 인스트럭션을 저장하는 메모리, 및 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 영상을 획득하고, 시각 장애의 종류를 포함하는 사용자의 시각 특성 정보에 기초하여, 획득된 영상을 변환하고, 변환된 영상을 디스플레이부에 표시할 수 있다.According to one embodiment of the present invention, a display device for realizing the above-described task includes a display unit, a memory storing one or more instructions, and a processor executing the one or more instructions stored in the memory, wherein the processor can acquire an image by executing the one or more instructions, convert the acquired image based on visual characteristic information of a user including a type of visual impairment, and display the converted image on the display unit.

상기한 과제를 실현하기 위한 일 실시예에 따른 디스플레이 장치의 동작 방법은, 영상을 획득하는 단계, 시각 장애의 종류를 포함하는 사용자의 시각 특성 정보에 기초하여, 획득된 영상을 변환하는 단계, 및 변환된 영상을 디스플레이부에 표시하는 단계를 포함할 수 있다. A method of operating a display device according to one embodiment for realizing the above-described task may include a step of acquiring an image, a step of converting the acquired image based on visual characteristic information of a user including a type of visual impairment, and a step of displaying the converted image on a display unit.

또 다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함할 수 있다.According to another aspect, a computer-readable recording medium may include a recording medium having recorded thereon a program for executing the above-described method on a computer.

도 1은 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하기 위한 도면이다.
도 2는 일 실시 예와 관련된 디스플레이 장치, 제어 장치 및 외부 장치의 동작 방법을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 4 내지 도 9는 사용자의 시각 특성 정보에 기초하여 변환된 영상을 제공하는 예를 설명하기 도면이다.
도 10은 외부 서버로부터 수신한 영상을 변환하여 제공하는 예를 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 12 내지 도 16은 영상 내에 포함된 오브젝트에 기초하여 변환된 영상을 제공하는 예를 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 영상 변환 정보를 결정하는 방법을 설명하기 위한 흐름도이다.
도 18 내지 도 23은 일 실시 예에 따른 영상 변환 정보를 결정하는 예를 설명하기 위한 도면이다.
도 24는 다른 실시 예에 따른 영상 변환 정보를 결정하는 방법을 설명하기 위한 흐름도이다.
도 25는 다른 실시 예에 따른 영상 변환 정보를 결정하는 예를 설명하기 위한 도면이다.
도 26 및 도 27은 일 실시예와 관련된 디스플레이 장치의 블록 구성도(block diagram)이다.
도 28은 일 실시예와 관련된 제어 장치의 블록 구성도(block diagram)이다.
FIG. 1 is a drawing for explaining an operating method of a display device according to one embodiment.
FIG. 2 is a drawing for explaining an operation method of a display device, a control device, and an external device related to one embodiment.
Figure 3 is a flowchart for explaining an operating method of a display device according to one embodiment.
Figures 4 to 9 are drawings illustrating examples of providing converted images based on user visual characteristic information.
Figure 10 is a drawing for explaining an example of converting and providing an image received from an external server.
Figure 11 is a flowchart for explaining an operating method of a display device according to one embodiment.
Figures 12 to 16 are drawings for explaining examples of providing a converted image based on an object included in an image.
FIG. 17 is a flowchart illustrating a method for determining image conversion information according to one embodiment.
FIGS. 18 to 23 are diagrams for explaining examples of determining image conversion information according to one embodiment.
FIG. 24 is a flowchart illustrating a method for determining image transformation information according to another embodiment.
FIG. 25 is a diagram for explaining an example of determining image conversion information according to another embodiment.
Figures 26 and 27 are block diagrams of a display device related to one embodiment.
Fig. 28 is a block diagram of a control device related to one embodiment.

아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, embodiments of the present disclosure are described in detail with reference to the attached drawings so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. Furthermore, for the purpose of clearly explaining the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar parts are designated with similar reference numerals throughout the specification.

본 개시에서 사용되는 용어는, 본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in this disclosure are described as currently common terms, taking into account the functions mentioned herein. However, these terms may mean various other terms depending on the intentions of those skilled in the art, precedents, the emergence of new technologies, etc. Therefore, the terms used in this disclosure should not be interpreted solely based on their names, but rather based on the meanings of the terms and the overall content of this disclosure.

또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 이 용어들에 의해 한정되어서는 안 된다. 이 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용된다. Additionally, while terms such as first, second, etc. may be used to describe various components, the components should not be limited by these terms. These terms are used to distinguish one component from another.

또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. 또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Furthermore, the terminology used herein is merely used to describe specific embodiments and is not intended to limit the present disclosure. The singular expression includes the plural unless the context clearly dictates otherwise. Furthermore, throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. Furthermore, when a part is said to "include" a certain component, this does not exclude other components, but rather means that it can include other components, unless specifically stated otherwise.

본 명세서, 특히, 특허 청구 범위에서 사용된 “상기” 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 개시에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다.As used herein, and particularly in the claims, the terms "above" and "above" and similar referents may refer to both the singular and the plural. Furthermore, unless the order of steps in a method according to the present disclosure is explicitly specified, the steps described may be performed in any appropriate order. The present disclosure is not limited by the order in which the steps are described.

본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.The appearances of phrases such as “in some embodiments” or “in one embodiment” in various places throughout this specification are not necessarily all referring to the same embodiment.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented by various hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors or by circuit configurations for a given function. Furthermore, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented by algorithms that execute on one or more processors. Furthermore, the present disclosure may employ conventional techniques for electronic configuration, signal processing, and/or data processing. Terms such as “mechanism,” “element,” “means,” and “configuration” may be used broadly and are not limited to mechanical and physical configurations.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. Additionally, the connecting lines or connecting members between components depicted in the drawings are merely exemplary representations of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that may be replaced or added.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.The present disclosure will be described in detail with reference to the attached drawings below.

도 1은 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하기 위한 도면이다.FIG. 1 is a drawing for explaining an operating method of a display device according to one embodiment.

일 실시 예에 따르면, 디스플레이 장치(100)는 카메라(161)를 통해 촬영되는 영상(11)을 사용자의 시각 특성 정보에 기초하여 변환한 후, 변환된 영상(13)을 디스플레이부(121)에 표시할 수 있다. According to one embodiment, the display device (100) can convert an image (11) captured by a camera (161) based on the user's visual characteristic information, and then display the converted image (13) on the display unit (121).

예를 들어, 일반적인 안경으로 시력 교정이 어려운 시각 특성의 경우, 사용자의 시각에 보이는 영상(12)으로는 사물 인식이 어려울 수 있다. 일 실시 예 에 따라, 디스플레이 장치(100)는 사용자의 시각 특성 정보에 기초하여 변환된 영상(13)을 디스플레이부(121)에 표시함으로써, 디스플레이 장치(100)를 착용한 사용자는 보다 선명하게 사물을 인식할 수 있다. 예를 들어, 사용자는 디스플레이 장치(100)를 머리에 고정시키고 디스플레이부(121)를 통해 사용자의 시각 특성에 적합하게 변환된 영상을 볼 수 있다.For example, in the case of visual characteristics that are difficult to correct with general glasses, it may be difficult to recognize objects with an image (12) visible to the user's eyes. According to one embodiment, the display device (100) displays an image (13) converted based on the user's visual characteristic information on the display unit (121), so that the user wearing the display device (100) can recognize objects more clearly. For example, the user can fix the display device (100) on the head and view an image converted to suit the user's visual characteristics through the display unit (121).

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는 영상에 포함된 오브젝트의 외곽선을 추출하고, 외곽선과 나머지 영역 간의 대비(contrast) 조절 처리로 변환된 영상을 제공함으로써, 저시력 사용자는 영상 내의 오브젝트를 보다 선명하게 인식할 수 있다. 또한, 예를 들어, 디스플레이 장치(100)의 프로세서(130)는 입력 영상을 바이너리 이미지(binary image)로 변환하여 제공함으로써, 저시력 사용자의 사물 인식률을 향상시킬 수 있다. According to one embodiment, the processor (130) of the display device (100) extracts the outline of an object included in an image and provides an image converted by adjusting the contrast between the outline and the remaining area, thereby enabling a low-vision user to more clearly recognize objects within the image. In addition, for example, the processor (130) of the display device (100) can improve the object recognition rate of a low-vision user by converting an input image into a binary image and providing it.

일 실시 예에 따른 시각 특성 정보는, 사용자의 시각 장애의 종류, 시각 장애의 종류에 따른 시각 장애의 정도에 관한 정보를 포함할 수 있다. Visual characteristic information according to one embodiment may include information about the type of visual impairment of the user and the degree of visual impairment according to the type of visual impairment.

예를 들어, 시각 장애의 종류는, 저 시력, 색약, 변시증, 중심 암점, 터널 시야 등을 포함할 수 있다. For example, types of visual impairments may include low vision, color blindness, metamorphopsia, central scotoma, and tunnel vision.

예를 들어, 시각 장애의 종류에 따른 시각 장애의 정도는, 저시력의 경우, 시력 등급을 의미할 수 있다. 또한, 예를 들어, 색약의 경우, 적록 색약, 청황 색약, 전색약 중 어느 하나일 수 있다. 또한, 예를 들어, 중심 암점의 경우, 암점의 위치, 모양, 크기를 의미할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the degree of visual impairment, depending on the type of visual impairment, could refer to the visual acuity grade in the case of low vision. Furthermore, for example, in the case of color blindness, it could refer to red-green color blindness, blue-yellow color blindness, or total color blindness. Furthermore, for example, in the case of a central scotoma, it could refer to the location, shape, and size of the scotoma. However, this is not limited to these terms.

또한, 일 실시 예에 따르면, 디스플레이 장치(100)는 카메라(161)를 통해 촬영된 영상뿐 아니라, 디스플레이 장치(100)의 메모리(170)에 저장된 영상, 외부 장치로부터 수신한 영상을 사용자의 시각 특성에 따라 변환하여 제공할 수 있다.In addition, according to one embodiment, the display device (100) can convert and provide not only an image captured by a camera (161), but also an image stored in the memory (170) of the display device (100) and an image received from an external device according to the user's visual characteristics.

한편, 일 실시 예에 따른 디스플레이 장치(100)는, VR(Virtual Reality) 헤드셋, 글래스형 디바이스일 수 있으며, 이에 한정되지 않는다. 예를 들어, VR 헤드셋은 디스플레이부(121)가 내장된 형태 또는, 스마트폰을 장착할 수 있는 형태로 구현되어 스마트폰의 디스플레이가 디스플레이부(121)로 이용되는 형태일 수 있다.Meanwhile, the display device (100) according to one embodiment may be a VR (Virtual Reality) headset or a glass-type device, but is not limited thereto. For example, the VR headset may be implemented in a form in which a display unit (121) is built in, or in a form in which a smartphone can be mounted, so that the display of the smartphone is used as the display unit (121).

일 실시 예에 따라, 디스플레이 장치(100)는 사용자에게 VR(Virtual Reality) 영상을 제공할 수 있으며, 제공되는 영상의 형식은 이에 제한되지 않는다.According to one embodiment, the display device (100) can provide a VR (Virtual Reality) image to a user, and the format of the image provided is not limited thereto.

VR 영상은 컴퓨터 그래픽 기술을 이용하여 사용자의 시각이나 청각 등을 통해 사용자가 마치 실제 주변 환경을 보는 것처럼 느끼게 만드는 영상일 수 있다.VR videos can be videos that use computer graphics technology to make the user feel as if they are viewing the actual surrounding environment through the user's sight or hearing.

일 실시 예에 따라 디스플레이 장치(100)가 제공하는 영상은 스테레오스코픽 3D(Stereoscopic 3D) 영상일 수 있다. 스테레오스코픽 3D는 양쪽 눈의 시각 차이를 이용하여 양안 시차가 있는 한 쌍의 2D 영상을 시청자의 양쪽 눈에 각각 제시하여 3차원적인 입체감(깊이감)을 지각할 수 있게 해주는 입체 영상 구현 기술이다.According to one embodiment, the image provided by the display device (100) may be a stereoscopic 3D image. Stereoscopic 3D is a technology for implementing a three-dimensional image that utilizes the visual difference between the two eyes to present a pair of 2D images with binocular disparity to each eye of the viewer, thereby allowing the viewer to perceive a three-dimensional sense of depth.

일 실시 예에 따라 디스플레이부(121)는 2개의 화면으로 나뉘어서 좌안 영상과 우안 영상을 표시하도록 구현될 수 있다. 예를 들어, 디스플레이부(121)는 좌안 영상과 우안 영상을 번갈아 디스플레이시켜 입체 영상 효과를 내는 시분할 입체 방식에 따라 입체 영상 효과를 구현할 수 있으며, 이에 제한되지 않는다.According to one embodiment, the display unit (121) may be implemented to display left-eye images and right-eye images by dividing them into two screens. For example, the display unit (121) may implement a stereoscopic image effect according to a time-division stereoscopic method that alternately displays left-eye images and right-eye images to create a stereoscopic image effect, but is not limited thereto.

또한, 디스플레이 장치(100)가 제공하는 영상은 증강 현실(Augmented Reality) 영상일 수 있다. 증강 현실(Augmented Reality) 영상은 카메라(161)로 촬영되는 현실의 영상에 3차원의 가상 영상을 겹쳐서 보여주는 영상일 수 있다.Additionally, the image provided by the display device (100) may be an augmented reality image. The augmented reality image may be an image that displays a three-dimensional virtual image by overlaying it on a real image captured by a camera (161).

도 1은 일 실시 예를 도시한 것으로서, 이에 한정되지 않는다.Figure 1 illustrates one embodiment, but is not limited thereto.

도 2는 일 실시 예와 관련된 디스플레이 장치, 제어 장치 및 외부 장치의 동작 방법을 설명하기 위한 도면이다.FIG. 2 is a drawing for explaining an operation method of a display device, a control device, and an external device related to one embodiment.

일 실시 예에 따라, 디스플레이 장치(100)는, VR(Virtual Reality) 헤드셋(100a), 글래스형 웨어러블 디바이스(100b), 투명 디스플레이를 장착한 글래스형 디바이스(100c), 헤드 마운트 디스플레이(Head Mounted Display)일 수 있으며, 이에 한정되지 않는다. According to one embodiment, the display device (100) may be, but is not limited to, a VR (Virtual Reality) headset (100a), a glass-type wearable device (100b), a glass-type device (100c) equipped with a transparent display, or a head-mounted display.

또한, 일 실시 예에 따라, 디스플레이 장치(100)는 휴대폰, 태블릿 PC, 디지털 카메라, 캠코더, 노트북 컴퓨터(laptop computer), 태블릿 PC, 데스크탑, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 착용형 기기(wearable device) 등과 같은 다양한 전자 장치로 구현될 수 있다.In addition, according to one embodiment, the display device (100) may be implemented as various electronic devices such as a mobile phone, a tablet PC, a digital camera, a camcorder, a laptop computer, a tablet PC, a desktop, an e-book reader, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigation device, an MP3 player, a wearable device, etc.

일 실시 예에 따른 외부 장치(300)는 영상 콘텐트를 디스플레이 장치(100)로 제공할 수 있는, 서버(300a) 또는, 다른 디스플레이 장치(예컨대, TV)(300b)를 포함할 수 있으며, 이에 한정되지 않는다. An external device (300) according to one embodiment may include, but is not limited to, a server (300a) or another display device (e.g., TV) (300b) capable of providing video content to a display device (100).

또한, 일 실시 예에 따라, 외부 장치(300)는 디지털 방송 수신이 가능한 디지털 방송 수신기일 수 있다. 또한, 외부 장치(300)는 멀티미디어 컨텐츠를 재생하는 재생 장치일 수 있다. 예를 들어, 외부 장치(300)는 블루레이 디스크(Blue ray Disk) 플레이어, 셋탑 박스, DVD(Digital Versatile Disk) 플레이어, 스트리밍 장치, 홈 시어터 등을 포함할 수 있다. 또는, 외부 장치(300)는 스마트 폰, 태블릿 PC(tablet personal computer), 이동 단말기(mobile phone), 화상 전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 착용형 기기(wearable device) 등과 같은 다양한 전자 장치로 구현될 수 있다.In addition, according to one embodiment, the external device (300) may be a digital broadcast receiver capable of receiving digital broadcasts. In addition, the external device (300) may be a playback device that plays multimedia content. For example, the external device (300) may include a Blu-ray Disc player, a set-top box, a Digital Versatile Disk (DVD) player, a streaming device, a home theater, etc. Alternatively, the external device (300) may be implemented as various electronic devices such as a smart phone, a tablet personal computer (PC), a mobile phone, a video phone, an e-book reader, a desktop personal computer (PC), a laptop personal computer (PC), a netbook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), an MP3 player, a wearable device, etc.

일 실시 예에 따른 디스플레이 장치(100)와 외부 장치(300)는 유무선 통신을 이용하여, 데이터, 신호 등을 송수신할 수 있다. 예를 들어, 서버(300)는 디스플레이 장치(100)로 영상 콘텐트를 전송할 수 있다. According to one embodiment, a display device (100) and an external device (300) can transmit and receive data, signals, etc. using wired or wireless communication. For example, a server (300) can transmit video content to the display device (100).

한편, 일 실시 예에 따라, 서버(300)는 디스플레이 장치(100)의 요청 신호에 응답하여, 영상 변환 정보에 기초하여 영상을 변환하고, 변환된 영상을 디스플레이 장치(100)로 제공할 수 있다. Meanwhile, according to one embodiment, the server (300) may, in response to a request signal from the display device (100), convert an image based on image conversion information and provide the converted image to the display device (100).

또한, 예를 들어, 서버(300)는 디스플레이 장치(100)로부터 사용자의 시각 특성 정보를 수신하고, 시각 특성 정보에 기초한 영상 변환 정보를 디스플레이 장치(100)로 전송할 수 있다. Additionally, for example, the server (300) may receive user visual characteristic information from the display device (100) and transmit image conversion information based on the visual characteristic information to the display device (100).

일 실시 예에 따라, 제어 장치(200)는 리모컨(200b), 키보드(200a) 또는 휴대폰(미도시)과 같이 디스플레이 장치(100)를 제어하기 위한 다양한 형태의 장치로 구현될 수 있다. According to one embodiment, the control device (200) may be implemented as various types of devices for controlling the display device (100), such as a remote control (200b), a keyboard (200a), or a mobile phone (not shown).

일 실시 예에 따른 제어 장치(200)는, 적외선(infrared) 또는 블루투스(bluetooth)를 포함하는 근거리 통신을 이용하여, 디스플레이 장치(100)를 제어할 수 있다. 제어 장치(200)는 구비된 키(버튼을 포함), 터치 패드(touchpad), 사용자의 음성의 수신이 가능한 마이크(도시되지 아니함), 및 제어 장치(200)의 모션 인식이 가능한 센서(도시되지 아니함) 중 적어도 하나를 이용하여 디스플레이 장치(100)의 기능을 제어할 수 있다.A control device (200) according to one embodiment can control a display device (100) using short-range communication including infrared or Bluetooth. The control device (200) can control the function of the display device (100) using at least one of a key (including a button), a touchpad, a microphone (not shown) capable of receiving a user's voice, and a sensor (not shown) capable of recognizing the motion of the control device (200).

일 실시 예에 따라, 제어 장치(200)는 디스플레이 장치(100)의 전원을 온 시키거나 오프 시키기 위한 전원 온/오프 버튼을 포함할 수 있다. 제어 장치(200)는 또한 사용자 입력에 의해 디스플레이 장치(100)의 디스플레이의 줌 인/아웃, 대비(contrast) 조절, 색의 선명도 조절, 채도 조절, 색온도 조절, 또는 시각 특성 정보, 영상 변환 정보의 설정(setting) 등을 할 수 있다.According to one embodiment, the control device (200) may include a power on/off button for turning the power of the display device (100) on or off. The control device (200) may also zoom in/out, adjust contrast, adjust color sharpness, adjust saturation, adjust color temperature, or set visual characteristic information, image conversion information, etc. of the display of the display device (100) by user input.

도 2는 일 실시 예를 도시한 것으로서, 이에 한정되지 않는다. Figure 2 illustrates one embodiment, but is not limited thereto.

도 3은 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하기 위한 흐름도이다. Figure 3 is a flowchart for explaining an operating method of a display device according to one embodiment.

단계 S301에서, 일 실시 예에 따른 디스플레이 장치(100)는 디스플레이부(121)에 표시할 영상을 획득할 수 있다.In step S301, a display device (100) according to one embodiment can obtain an image to be displayed on a display unit (121).

일 실시 예에 따라, 디스플레이 장치(100)는 카메라(161)를 통해 실시간으로 영상을 촬영할 수 있다. 또한, 일 실시 예에 따라, 디스플레이 장치(100)는 외부 장치(300)부터 통신부(150)를 통해 영상 콘텐트를 수신할 수 있다. 또한, 일 실시 예에 따라, 디스플레이 장치(100)는 메모리(170)에 저장된 영상을 디스플레이부(121)에 표시할 영상으로 결정할 수 있다.According to one embodiment, the display device (100) can capture images in real time through a camera (161). In addition, according to one embodiment, the display device (100) can receive image content from an external device (300) through a communication unit (150). In addition, according to one embodiment, the display device (100) can determine an image stored in a memory (170) as an image to be displayed on the display unit (121).

단계 S302에서, 일 실시 예에 따른 디스플레이 장치(100)는 시각 장애의 종류를 포함하는 사용자의 시각 특성 정보에 기초하여, 획득된 영상을 변환할 수 있다.In step S302, the display device (100) according to one embodiment can convert the acquired image based on the user's visual characteristic information including the type of visual impairment.

예를 들어, 사용자의 시각 특성 정보는, 저 시력, 색약, 변시증, 중심 암점, 터널 시야 등을 포함할 수 있다. For example, the user's visual characteristic information may include low vision, color blindness, metamorphopsia, central scotoma, tunnel vision, etc.

일 실시 예에 따라, 디스플레이 장치(100)의 제어부(130)는 시각 특성 정보에 기초하여, 획득된 영상을 변환하기 위한 영상 변환 정보를 결정할 수 있다.According to one embodiment, the control unit (130) of the display device (100) can determine image conversion information for converting the acquired image based on visual characteristic information.

일 실시 예에 따라, 영상 변환 정보는, 사용자의 시각 특성 정보에 기초하여 사용자가 영상을 보다 선명하게 인식하게 하기 위한 영상 변환 값을 포함할 수 있다. 예를 들어, 영상 변환 정보는, 바이너리 이미지(binary image)로의 변환, 영상 내에 포함된 오브젝트의 확대 또는 축소, 표시 위치 변경, 오브젝트의 외곽선의 대비(contrast) 조절, 색의 선명도 조절, 채도 조절, 색 온도 조절 등에 관한 변환 값을 포함할 수 있다. According to one embodiment, the image conversion information may include image conversion values for enabling the user to perceive the image more clearly based on the user's visual characteristic information. For example, the image conversion information may include conversion values related to conversion into a binary image, enlargement or reduction of an object included in the image, change of display position, contrast adjustment of the object's outline, color sharpness adjustment, saturation adjustment, color temperature adjustment, etc.

일 실시 예에 따른 디스플레이 장치(100)의 제어부(130)는 영상 변환 정보에 기초하여, 획득된 영상을 변환할 수 있다.The control unit (130) of the display device (100) according to one embodiment can convert the acquired image based on the image conversion information.

예를 들어, 디스플레이 장치(100)는 영상의 색상 변환 값을 포함하는 영상 변환 정보에 기초하여, 영상의 색상을 변환할 수 있다. 또한, 예를 들어, 디스플레이 장치(100)는 영상의 표시 위치 변경 값을 포함하는 영상 변환 정보에 기초하여, 디스플레이부(121)의 영역 중 사용자의 중심 암점에 대응하는 영역을 제외한 나머지 영역에 영상이 표시되도록 영상의 표시 위치를 변환할 수 있다. For example, the display device (100) can convert the color of an image based on image conversion information including a color conversion value of the image. In addition, for example, the display device (100) can convert the display position of an image so that the image is displayed in an area of the display unit (121) excluding an area corresponding to the user's central dark spot, based on image conversion information including a display position change value of the image.

단계 S303에서, 일 실시 예에 따른 디스플레이 장치(100)는 변환된 영상을 디스플레이부(121)에 표시할 수 있다. In step S303, the display device (100) according to one embodiment can display the converted image on the display unit (121).

예를 들어, 디스플레이 장치(100)는 실시간으로 카메라(161)를 통해 촬영되는 영상을 영상 변환 정보에 기초하여 변환하여 제공함에 따라, 디스플레이 장치(100)(예컨대, VR 헤드셋)를 착용한 저시력 사용자는 사물을 보다 선명하게 인식할 수 있다. For example, since the display device (100) converts and provides an image captured through a camera (161) in real time based on image conversion information, a low vision user wearing the display device (100) (e.g., VR headset) can recognize objects more clearly.

또한, 예를 들어, 디스플레이 장치(100)는 외부 서버(300)로부터 수신한 영상 콘텐트를 저시력 사용자의 시력 정보에 기초하여 변환하여 제공함으로써, 사용자는 디스플레이 장치(100)를 통해 보다 선명하게 인식되는 영상 콘텐트를 시청할 수 있다. In addition, for example, the display device (100) converts and provides image content received from an external server (300) based on the vision information of a low-vision user, thereby allowing the user to view image content that is recognized more clearly through the display device (100).

도 4 내지 도 9는 사용자의 시각 특성 정보에 기초하여 변환된 영상을 제공하는 예를 설명하기 도면이다. Figures 4 to 9 are drawings illustrating examples of providing converted images based on user visual characteristic information.

일 실시 예에 따라, 시각 특성 정보는, 시각 장애의 종류 및 시각 장애의 종류에 따른 시각 장애의 정도 중 적어도 하나를 포함할 수 있다. According to one embodiment, the visual characteristic information may include at least one of a type of visual impairment and a degree of visual impairment depending on the type of visual impairment.

도 4는 색약 증상을 가진 사용자의 시각 특성 정보에 기초하여, 영상을 변환하여 제공하는 예를 도시한다. 도 4에 도시한 바와 같이, 색약 증상을 가진 사용자의 시각에 보이는 영상(42)은 오브젝트의 색상 구별이 어려울 수 있다.Figure 4 illustrates an example of converting and providing an image based on visual characteristic information of a user with color vision deficiency. As illustrated in Figure 4, an image (42) visible to a user with color vision deficiency may have difficulty distinguishing the colors of objects.

일 실시 예에 따라 디스플레이 장치(100)는 카메라(161)를 통해 촬영되는 입력 영상(41)을, 색약 증상의 사용자가 오브젝트의 색상을 구별할 수 있도록, 변환된 영상(43)을 제공할 수 있다.According to one embodiment, the display device (100) can provide a converted image (43) of an input image (41) captured by a camera (161) so that a user with color vision deficiency can distinguish the colors of an object.

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는 색약의 정도(예를 들어, 적록 색약, 청황 색약, 전색약)에 기초하여, 특정 색은 제거하고, 또 다른 특정 색은 부각시키도록 하는 변환 값을 영상 변환 정보로 결정할 수 있다. 또한, 예를 들어, 디스플레이 장치(100)의 프로세서(130)는 RGB 칼라 필터에 관한 변환 값, 주변 광원에 따른 색 온도의 조절에 관한 변환 값을 영상 변환 정보로 결정할 수 있다. 프로세서(130)는 결정된 영상 변환 정보에 따라 변환된 영상(43)을 디스플레이부(121)에 표시할 수 있다.According to one embodiment, the processor (130) of the display device (100) may determine, as image conversion information, a conversion value that removes a specific color and highlights another specific color based on the degree of color weakness (e.g., red-green color weakness, blue-yellow color weakness, total color weakness). In addition, for example, the processor (130) of the display device (100) may determine, as image conversion information, a conversion value regarding an RGB color filter and a conversion value regarding adjustment of color temperature according to an ambient light source. The processor (130) may display, on the display unit (121), a converted image (43) according to the determined image conversion information.

도 5는 변시증을 가진 사용자의 시각 특성 정보에 기초하여, 영상을 변환하여 제공하는 예를 도시한다. 변시증은 시야 내의 사물이 비뚤어지거나 변형되어 보이는 형상이다. 도 5에 도시한 바와 같이, 변시증을 가진 사용자의 시각에 보이는 영상(52)은 시야의 일부가 일그러져 보일 수 있다. Figure 5 illustrates an example of converting and providing an image based on visual characteristic information of a user with metamorphopsia. Metamorphopsia is a condition in which objects within the field of view appear distorted or deformed. As illustrated in Figure 5, the image (52) seen by a user with metamorphopsia may appear distorted in part of the field of view.

일 실시 예에 따라 디스플레이 장치(100)는 카메라(161)를 통해 촬영되는 입력 영상(51)을, 변시증의 사용자가 영상이 왜곡되어 보이지 않도록, 변환된 영상(53)을 제공할 수 있다. According to one embodiment, the display device (100) can provide a converted image (53) of an input image (51) captured by a camera (161) so that a user with astigmatism does not see the image distorted.

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는 변시증의 정도(예를 들어, 사물이 일그러져 보이는 정도, 시야 중 일그러져 보이는 영역의 위치, 크기 모양 등)에 기초하여, 일그러져 보이는 영역을 보정하기 위한 변환 값을 영상 변환 정보로 결정할 수 있다. 일 실시 예에 따른 프로세서(130)는 결정된 영상 변환 정보에 따라 변환된 영상(53)을 디스플레이부(121)에 표시할 수 있다. 예를 들어, 변환된 영상(53)은 변시증의 사용자 시야에 보이는 왜곡 방향을 역으로 적용하여 변형된 영상일 수 있다.According to one embodiment, the processor (130) of the display device (100) may determine a transformation value for correcting a distorted area based on the degree of metamorphopsia (e.g., the degree to which an object appears distorted, the location, size, shape, etc. of the distorted area in the field of view, as image transformation information. The processor (130) according to one embodiment may display a transformed image (53) based on the determined image transformation information on the display unit (121). For example, the transformed image (53) may be an image that is deformed by reversing the distortion direction visible in the field of view of a user with metamorphopsia.

도 6은 중심 암점 증상을 가진 사용자의 시각 특성 정보에 기초하여, 영상을 변환하여 제공하는 예를 도시한다. 중심 암점은 황반 변성으로 사용자의 시야의 중심 영역이 보이지 않는 현상으로, 암점의 형태는 원형, 타원형, 라켓형 등일 수 있다. 도 6에 도시한 바와 같이 황반 변성을 가진 사용자의 시각에 보이는 영상(62)은 시야의 중심 영역 중 일부가 보이지 않을 수 있다. Figure 6 illustrates an example of converting and providing an image based on visual characteristic information of a user with central scotoma. Central scotoma is a phenomenon in which the central area of the user's field of vision is not visible due to macular degeneration, and the shape of the scotoma may be circular, oval, or racket-shaped. As illustrated in Figure 6, an image (62) visible to the eyes of a user with macular degeneration may not show part of the central area of the field of vision.

일 실시 예에 따라 디스플레이 장치(100)는 카메라(161)를 통해 촬영되는 입력 영상(61)을, 중심 암점 증상의 사용자에게 보이지 않는 중심 영역의 영상을 다른 위치에서 볼 수 있도록, 변환된 영상(63)을 제공할 수 있다. 예를 들어, 사용자의 시야에서 보이지 않는 중심 암점 영역(65)이 사용자의 시야에서 보이는 영역 중 일부(66)에 표시될 수 있다. According to one embodiment, the display device (100) may provide a converted image (63) of an input image (61) captured by a camera (161) so that the image of a central region invisible to a user with central scotomas can be viewed from a different location. For example, a central scotomas area (65) that is invisible to the user's field of view may be displayed in a portion (66) of an area visible to the user's field of view.

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는 중심 암점의 정도(예컨대, 중심 암점의 위치, 크기, 모양 등)에 기초하여, 중심 암점 영역에 대응하는 영상의 표시 위치의 변경에 관한 변환 값을 영상 변환 정보로 결정할 수 있다. 예를 들어, 영상 변환 정보는, 중심 암점 영역에 대응하는 영상의 위치를 변경하여 표시할 영역의 위치, 크기, 모양에 관한 정보를 포함할 수 있다. According to one embodiment, the processor (130) of the display device (100) may determine a transformation value regarding a change in the display position of an image corresponding to the central scotoma area as image transformation information based on the degree of the central scotoma (e.g., the position, size, shape, etc. of the central scotoma). For example, the image transformation information may include information regarding the position, size, and shape of an area to be displayed by changing the position of the image corresponding to the central scotoma area.

일 실시 예에 따른 프로세서(130)는 결정된 영상 변환 정보에 따라 변환된 영상(63)을 디스플레이부(121)에 표시할 수 있다. According to one embodiment, the processor (130) can display a converted image (63) on the display unit (121) according to the determined image conversion information.

도 7은 중심 암점 증상을 가진 사용자의 시각 특성 정보에 기초하여, 영상을 변환하여 제공하는 다른 예를 도시한다. Figure 7 illustrates another example of converting and providing an image based on visual characteristic information of a user with central scotoma symptoms.

도 7에 도시한 바와 같이, 중심 암점 증상을 가진 사용자의 시각에 보이는 영상(72)은 시야의 중심 영역 중 일부가 보이지 않을 수 있다. 디스플레이 장치(100)는 카메라(161)를 통해 촬영되는 입력 영상(71)을, 중심 암점 증상의 사용자에게 보이지 않는 중심 영역의 영상을 다른 위치에서 볼 수 있도록, 변환된 영상(73)을 제공할 수 있다. 예를 들어, 사용자의 시야에서 보이지 않는 중심 암점 영역(75)이 사용자의 시야에서 보이는 영역 중 일부(76)에 표시될 수 있다. As illustrated in FIG. 7, an image (72) visible to a user with central scotoma may not show part of the central region of the visual field. The display device (100) may provide a converted image (73) from an input image (71) captured by a camera (161) so that the user with central scotoma can view the image of the central region that is not visible from a different location. For example, a central scotoma region (75) that is not visible from the user's visual field may be displayed in part (76) of the region that is visible from the user's visual field.

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는, 중심 암점의 정도(예컨대, 중심 암점의 위치, 크기, 모양 등)에 기초하여, 중심 암점 영역에 대응하는 영상을 포함하는 사용자 시야의 전체 영상을 중심 암점 영역을 제외한 나머지 영역 중 일부에 표시하기 위한 변환 값을 영상 변환 정보로 결정할 수 있다. 예를 들어, 영상 변환 정보는, 사용자 시야의 전체 영상을 표시할 위치, 크기, 모양에 관한 정보를 포함할 수 있다. According to one embodiment, the processor (130) of the display device (100) may determine a transformation value for displaying the entire image of the user's field of view, including the image corresponding to the central scotoma area, in a portion of the remaining area excluding the central scotoma area, based on the degree of the central scotoma (e.g., the location, size, shape, etc. of the central scotoma), as image transformation information. For example, the image transformation information may include information regarding the location, size, and shape at which the entire image of the user's field of view is to be displayed.

일 실시 예에 따른 프로세서(130)는 결정된 영상 변환 정보에 따라 변환된 영상(73)을 디스플레이부(121)에 표시할 수 있다.According to one embodiment, the processor (130) can display a converted image (73) on the display unit (121) according to the determined image conversion information.

도 8은 터널 시야 증상을 가진 사용자의 시각 특성 정보에 기초하여, 영상을 변환하여 제공하는 예를 도시한다. 터널 시야는 터널 속에서 터널 입구를 바라보는 모양으로 시야가 제한되는 현상이다. 도 8에 도시한 바와 같이, 터널 시야 증상을 가진 사용자의 시각에서 보이는 영상(82)은 중심부를 제외한 외곽 영역이 시야에서 보이지 않을 수 있다. Figure 8 illustrates an example of converting and providing an image based on visual characteristic information of a user with tunnel vision. Tunnel vision is a phenomenon in which the field of vision is limited, as if looking at the entrance of a tunnel from inside. As illustrated in Figure 8, the image (82) seen from the perspective of a user with tunnel vision may not show the peripheral areas except for the central area.

일 실시 예에 따라 디스플레이 장치(100)는 카메라(161)를 통해 촬영되는 입력 영상(81)을, 사용자에게 보이는 중심 영역(85)을 통해 볼 수 있도록, 변환된 영상(83)을 제공할 수 있다. According to one embodiment, the display device (100) may provide a converted image (83) so that the input image (81) captured by the camera (161) can be viewed through a central area (85) visible to the user.

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는 터널 시야 증상의 정도(예컨대, 터널 시야 영역의 위치, 크기, 모양 등)에 기초하여, 사용자가 볼 수 있는 영역에 입력 영상 전체를 표시하기 위한 변환 값을 영상 변환 정보로 결정할 수 있다. 예를 들어, 영상 변환 정보는, 사용자 시야의 전체 영상을 표시할 위치, 크기, 모양에 관한 정보를 포함할 수 있다. According to one embodiment, the processor (130) of the display device (100) may determine a transformation value for displaying the entire input image in an area viewable by the user based on the degree of tunnel vision symptoms (e.g., location, size, shape, etc. of the tunnel vision area) as image transformation information. For example, the image transformation information may include information regarding the location, size, and shape at which the entire image of the user's field of vision is to be displayed.

일 실시 예에 따른 프로세서(130)는 결정된 영상 변환 정보에 따라 변환된 영상(83)을 디스플레이부(121)에 표시할 수 있다. According to one embodiment, the processor (130) can display a converted image (83) on the display unit (121) according to the determined image conversion information.

도 9는 저조도 환경에서 사용자의 시각 특성 정보에 기초하여, 영상을 변환하여 제공하는 예를 도시한다. 도 9에 도시한 바와 같이, 저조도 환경에서 입력되는 영상(91)은 사용자가 사물을 인식하기 어려울 수 있다.Figure 9 illustrates an example of converting and providing an image based on a user's visual characteristic information in a low-light environment. As illustrated in Figure 9, an image (91) input in a low-light environment may make it difficult for the user to recognize objects.

일 실시 예에 따라, 디스플레이 장치(100)는 카메라(161)를 통해 촬영되는 입력 영상(91)을, 영상 내의 오브젝트를 인식할 수 있도록, 변환된 영상(93)을 제공할 수 있다. According to one embodiment, the display device (100) can provide an image (93) converted from an input image (91) captured by a camera (161) so as to recognize an object within the image.

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는, 저조도 환경일 때, 사용자의 시각 특성 정보에 기초하여 결정된 영상 변환 정보를 변경하여 결정할 수 있다. 예를 들어, 프로세서(130)는 저조도 환경에서는 밝기, 선명도, 대비 조절, 노이즈 제거 등에 관한 변환 값을 변경하여 영상 변환 정보로 결정할 수 있다. According to one embodiment, the processor (130) of the display device (100) may determine image conversion information by changing the image conversion information determined based on the user's visual characteristic information in a low-light environment. For example, in a low-light environment, the processor (130) may determine image conversion information by changing conversion values related to brightness, sharpness, contrast adjustment, noise removal, etc.

도 10은 외부 장치로부터 수신한 영상을 변환하여 제공하는 예를 설명하기 위한 도면이다.Figure 10 is a drawing for explaining an example of converting and providing an image received from an external device.

일 실시 예에 따르면, 디스플레이 장치(100)는 외부 장치(300b)로부터, 외부 장치(300b)에서 출력 중인 영상 콘텐트를 제공 받을 수 있다. 이 때, 디스플레이 장치(100)는 사용자의 시각 특성 정보에 기초하여 변환된 영상 콘텐트를 제공 받을 수 있다. 일 실시 예에 따라 영상 콘텐트는 VR 영상일 수 있으며, 이에 제한되지 않는다. According to one embodiment, the display device (100) may receive image content being output from an external device (300b). At this time, the display device (100) may receive image content converted based on the user's visual characteristic information. According to one embodiment, the image content may be a VR image, but is not limited thereto.

일 실시 예에 따라, 외부 장치(300b)는 HDMI 포트(High-Definition Multimedia Interface port), 컴포넌트 잭(component jack), PC 포트(PC port), 및 USB 포트(USB port) 중 적어도 하나를 통해, 영상 콘텐트를 외부 소스로부터 수신할 수 있다. According to one embodiment, the external device (300b) can receive video content from an external source through at least one of an HDMI port (High-Definition Multimedia Interface port), a component jack, a PC port, and a USB port.

일 실시 예에 따르면, 외부 장치(300b)는 영상 콘텐트를 저시력 사용자가 보다 선명하게 인식할 수 있도록 영상 변환 처리를 한 후, 변환 처리된 영상 콘텐트를 디스플레이 장치(100)로 전송할 수 있다. According to one embodiment, the external device (300b) may perform image conversion processing so that a low vision user can perceive the image content more clearly, and then transmit the converted image content to the display device (100).

일 실시 예에 따라 디스플레이 장치(100)는 통신부(150)를 통해 영상 콘텐트를 수신할 수 있다. 예를 들어, 무선 통신 방식은, IR, 블루투스, BLE, 초음파, 지그비, 와이 파이 등을 포함할 수 있다.According to one embodiment, the display device (100) can receive image content through the communication unit (150). For example, the wireless communication method may include IR, Bluetooth, BLE, ultrasound, Zigbee, Wi-Fi, etc.

또한, 일 실시 예에 따르면, 디스플레이 장치(100)의 프로세서(130)는 영상 콘텐트를 수신한 후, 사용자의 시각 특성 정보 및 영상 변환 정보 중 적어도 하나에 기초하여, 영상을 변환할 수 있다. 프로세서(130)는 변환된 영상을 디스플레이부(121)에 표시할 수 있다.Additionally, according to one embodiment, the processor (130) of the display device (100) may, after receiving image content, convert the image based on at least one of the user's visual characteristic information and image conversion information. The processor (130) may display the converted image on the display unit (121).

도 4 내지 도 10은 일 실시 예를 도시한 것으로서, 이에 한정되지 않는다. Figures 4 to 10 illustrate one embodiment, but are not limited thereto.

도 11은 일 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하기 위한 흐름도이다. 도 12 내지 도 16은 영상 내에 포함된 오브젝트에 기초하여 변환된 영상을 제공하는 예를 설명하기 위한 도면이다. 도 11에 관한 설명에서 도 12 내지 도 16에 도시된 예를 참조하여 설명하기로 한다.Fig. 11 is a flowchart illustrating an operating method of a display device according to one embodiment. Figs. 12 to 16 are diagrams illustrating examples of providing a transformed image based on an object included in an image. The description of Fig. 11 will be described with reference to the examples illustrated in Figs. 12 to 16.

단계 S1101에서, 일 실시 예에 따른 디스플레이 장치(100)는 디스플레이부(121)에 표시할 영상을 획득할 수 있다. In step S1101, a display device (100) according to one embodiment can obtain an image to be displayed on a display unit (121).

일 실시 예에 따라, 프로세서(130)는, 카메라(161)를 통해 촬영된 영상, 통신부(150)를 통해 외부 소스로부터 수신한 영상 및 메모리(170)에 저장된 영상 중 적어도 하나를 디스플레이(121)에 표시할 영상으로 획득할 수 있다. According to one embodiment, the processor (130) may acquire at least one of an image captured by a camera (161), an image received from an external source via a communication unit (150), and an image stored in a memory (170) as an image to be displayed on the display (121).

단계 S1102에서, 일 실시 예에 따른 디스플레이 장치(100)는, 시각 장애의 종류를 포함하는 사용자의 시각 특성 정보 및 영상 내에 포함된 오브젝트 중 적어도 하나에 기초하여, 획득된 영상을 변환하기 위한 영상 변환 정보를 결정할 수 있다. 단계 S1103에서, 일 실시 예에 따른 디스플레이 장치(100)는 영상 변환 정보에 기초하여, 획득된 영상을 변환할 수 있다. 단계 S1104에서, 일 실시 예에 따른 디스플레이 장치(100)는 변환된 영상을 디스플레이부(121)에 표시할 수 있다. In step S1102, the display device (100) according to one embodiment may determine image conversion information for converting the acquired image based on at least one of the user's visual characteristic information including the type of visual impairment and the object included in the image. In step S1103, the display device (100) according to one embodiment may convert the acquired image based on the image conversion information. In step S1104, the display device (100) according to one embodiment may display the converted image on the display unit (121).

일 실시 예에 따라, 프로세서(130)는 영상 내에 포함된 오브젝트를 추출하고 오브젝트의 속성에 기초하여 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) can extract an object contained in an image and determine image transformation information based on the properties of the object.

예를 들어, 오브젝트는, 텍스트, 인물, 풍경 및 다른 디스플레이 장치의 스크린 중 적어도 하나일 수 있다. For example, the object may be at least one of text, a person, a landscape, and the screen of another display device.

도 12를 참조하면, 일 실시 예에 따라, 프로세서(130)는 다른 디스플레이 장치의 스크린에서 출력되는 영상을 확대하여 표시할 수 있다. Referring to FIG. 12, according to one embodiment, the processor (130) can enlarge and display an image output on the screen of another display device.

일 실시 예에 따라, 프로세서(130)는 카메라(161)로 촬영된 입력 영상(1201) 내의 다른 디스플레이 장치의 스크린(1205)을 추출할 수 있다. 일 실시 예에 따라, 프로세서(130)는 스크린(1205) 내의 영상을 확대하여 표시하기 위한 변환 값을 영상 변환 정보로 결정할 수 있다. According to one embodiment, the processor (130) may extract a screen (1205) of another display device within an input image (1201) captured by a camera (161). According to one embodiment, the processor (130) may determine a conversion value for displaying an enlarged image within the screen (1205) as image conversion information.

일 실시 예에 따라, 프로세서(130)는 스크린(1205)의 영상 영역만을 확대한 영상(1203)을 디스플레이부(121)에 표시할 수 있다. 예를 들어, 디스플레이 장치(100)는, TV를 시청 중인 사용자가 주변 이미지는 제거된 TV 영상만을 디스플레이부(121)의 전체 영역을 통해 볼 수 있도록 하여, 높은 몰입감을 제공할 수 있다. According to one embodiment, the processor (130) may display an image (1203) that is an enlarged image of only the image area of the screen (1205) on the display unit (121). For example, the display device (100) may provide a high sense of immersion by allowing a user watching TV to view only the TV image with the surrounding images removed through the entire area of the display unit (121).

또한, 일 실시 예에 따라, 프로세서(130)는 주변 이미지를 제외한 스크린 영역을 포함하는 영상을 사용자의 시각 특성 정보(예컨대, 저시력, 변시증 등)에 기초하여 변환 하기 위한 영상 변환 정보를 결정할 수 있다. Additionally, according to one embodiment, the processor (130) may determine image transformation information for transforming an image including a screen area excluding a surrounding image based on the user's visual characteristic information (e.g., low vision, metamorphopsia, etc.).

도 13을 참조하면, 일 실시 예에 따라, 프로세서(130)는 책의 텍스트 영역을 확대하여 표시할 수 있다. Referring to FIG. 13, according to one embodiment, the processor (130) may enlarge and display a text area of a book.

일 실시 예에 따라, 프로세서(130)는 입력 영상(1301) 내의 책이나 신문 등의 텍스트가 포함된 오브젝트를 추출할 수 있다. 프로세서(130)는 텍스트 영역으로부터 텍스트의 선을 추출하고 확대하여 표시하기 위한 변환 값을 포함하는 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) may extract an object containing text, such as a book or newspaper, within an input image (1301). The processor (130) may determine image transformation information including transformation values for extracting and enlarging lines of text from a text area and displaying them.

예를 들어, 디스플레이 장치(100)는 책을 포함하는 영상을 카메라(161)를 통해 획득한 경우, 주변 이미지를 제외한 책의 텍스트 영역만을 확대하여 표시함으로써, 사용자에게 높은 가독성을 제공할 수 있다.For example, when a display device (100) acquires an image including a book through a camera (161), it can provide high readability to the user by enlarging and displaying only the text area of the book excluding the surrounding image.

또한, 일 실시 예에 따라, 프로세서(130)는 책의 주변 이미지를 제외한 텍스트 영역을 포함하는 영상을 사용자의 시각 특성 정보(예컨대, 저시력, 변시증 등)에 기초하여 변환 하기 위한 영상 변환 정보를 결정할 수 있다.Additionally, according to one embodiment, the processor (130) may determine image conversion information for converting an image including a text area excluding a surrounding image of a book based on the user's visual characteristic information (e.g., low vision, metamorphopsia, etc.).

도 14를 참조하면, 일 실시 예에 따라, 프로세서(130)는 영상 내에 포함된 인물을 사용자가 인식할 수 있도록 변환된 영상을 제공할 수 있다. Referring to FIG. 14, according to one embodiment, the processor (130) may provide a converted image so that a user can recognize a person included in the image.

예를 들어, 중심 암점 증상을 가진 사용자의 시각에는 중심 영역이 가려진 영상(1402)이 보이기 때문에, 영상의 중심 영역에 인물이 포함된 경우 사용자는 인물을 식별하지 못할 수 있다.For example, a user with central scotoma may see an image (1402) with the central area obscured, and therefore, if a person is included in the central area of the image, the user may not be able to identify the person.

일 실시 예에 따라, 프로세서(130)는 입력 영상(1401) 내의 인물을 추출할 수 있다. 또한, 일 실시 예에 따라, 프로세서(130)는 사용자의 시각 특성 정보(예컨대, 중심 암점의 위치, 크기, 모양)에 기초하여, 영상 변환 정보를 결정할 수 있다.According to one embodiment, the processor (130) may extract a person within an input image (1401). Furthermore, according to one embodiment, the processor (130) may determine image transformation information based on the user's visual characteristic information (e.g., the location, size, and shape of a central dark spot).

예를 들어, 프로세서(130)는 영상 내의 중심 암점 영역으로 인해 가려진 인물의 표시 위치를 변경하여 표시하기 위한 변환 값을 포함하는 영상 변환 정보를 결정할 수 있다. For example, the processor (130) may determine image transformation information including transformation values for changing the display position of a person obscured by a central dark spot area within the image.

도 15를 참조하면, 일 실시 예에 따라, 프로세서(130)는 텍스트의 표시 위치를 변경하여 표시할 수 있다. Referring to FIG. 15, according to one embodiment, the processor (130) can change the display position of text and display it.

일 실시 예에 따라, 중심 암점 증상의 사용자의 시야에 보이는 영상(1502)에서는 중심 암점 영역(1505)으로 인해 텍스트의 일부가 보이지 않을 수 있다. In one embodiment, an image (1502) visible to a user with central scotoma symptoms may have part of the text obscured by a central scotoma area (1505).

일 실시 예에 따라, 프로세서(130)는 입력 영상(1501) 내의 텍스트를 추출할 수 있다. 또한, 일 실시 예에 따라, 프로세서(130)가 사용자의 시각 특성 정보로서 중심 암점의 위치, 크기, 모양을 획득한 경우, 중심 암점 영역을 제외한 나머지 영역으로 텍스트의 표시 위치를 이동시키기 위한 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) may extract text within an input image (1501). In addition, according to one embodiment, when the processor (130) obtains the location, size, and shape of a central dark spot as user visual characteristic information, the processor (130) may determine image transformation information for moving the display location of the text to an area other than the central dark spot area.

예를 들어, 프로세서(130)는 중심 암점(1505)으로 인해 보이지 않는 텍스트(예컨대,BCD)를 중심 암점 영역의 좌우 영역에 표시(1503, 1504)하기 위한 영상 변환 정보를 결정할 수 있다. 프로세서(130)는 중심 암점 영역(1505)에 대응하는 텍스트의 일부(예컨대, B)는 중심 암점의 좌측 영역에, 텍스트의 일부(예컨대, CD)는 중심 암점의 우측 영역에 표시할 수 있다. 또한, 프로세서(130)는 중심 암점 외의 영역에 표시되었던 텍스트(예컨대, A, E)가 가려지지 않도록, 표시 위치를 이동시킬 수 있다. 예를 들어, 중심 암점 영역(1506, 1507)을 기준으로 왼쪽 영역에 텍스트(예컨대, AB)를 표시하고, 중심 암점 영역을 기준으로 오른쪽 영역에 텍스트(예컨대, CDE)를 표시할 수 있다. For example, the processor (130) may determine image transformation information for displaying text (e.g., BCD) that is not visible due to the central scotoma (1505) in the left and right areas of the central scotoma region (1503, 1504). The processor (130) may display a part of the text (e.g., B) corresponding to the central scotoma region (1505) in the left area of the central scotoma, and a part of the text (e.g., CD) in the right area of the central scotoma. In addition, the processor (130) may move the display position so that text (e.g., A, E) displayed in an area other than the central scotoma is not obscured. For example, text (e.g., AB) may be displayed in the left area based on the central scotoma region (1506, 1507), and text (e.g., CDE) may be displayed in the right area based on the central scotoma region.

한편, 일 실시 예에 따라, 프로세서(130)는 변환된 영상 내에서 사용자의 중심 암점에 대응하는 영역을 원형(1506), 사각형(1507) 등의 형태로 표시할 수 있으며, 이에 제한되지 않는다. Meanwhile, according to one embodiment, the processor (130) may display an area corresponding to the user's central dark spot within the converted image in the form of a circle (1506), a square (1507), or the like, but is not limited thereto.

도 16을 참조하면, 일 실시 예에 따라, 프로세서(130)는 키보드(200a)를 통해 입력되는 텍스트를 디스플레이부(121)에 표시할 수 있다. Referring to FIG. 16, according to one embodiment, the processor (130) can display text input through a keyboard (200a) on the display unit (121).

일 실시 예에 따라, 프로세서(130)는 키보드(200a)를 통해 입력되는 텍스트를 디스플레이부(121)에 표시할 오브젝트로서 획득하고, 텍스트의 선과 바탕의 색의 반전을 이용하여 텍스트가 부각될 수 있도록 처리하는 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) may acquire text input through a keyboard (200a) as an object to be displayed on the display unit (121), and determine image conversion information to process the text so that the text can be highlighted by using the inversion of the colors of the lines and background of the text.

또한, 일 실시 예에 따라 프로세서(130)는 사용자의 시력 특성 정보(예컨대, 저시력, 난시 등)에 기초하여, 텍스트의 확대 비율, 색 반전에 관한 변환 값을 포함하는 영상 변환 정보를 결정할 수 있다. Additionally, according to one embodiment, the processor (130) may determine image transformation information including transformation values for text magnification ratio and color inversion based on the user's vision characteristic information (e.g., low vision, astigmatism, etc.).

도 12 내지 도 16은 일 실시 예를 도시한 것으로서, 이에 한정되지 않는다. Figures 12 to 16 illustrate one embodiment, but are not limited thereto.

도 17은 일 실시 예에 따른 영상 변환 정보를 결정하는 방법을 설명하기 위한 흐름도이다. 도 18 내지 도 23은 일 실시 예에 따른 영상 변환 정보를 결정하는 예를 설명하기 위한 도면이다. 도 17에 관한 설명에서 도 18 내지 도 23에 도시된 예를 참조하여 설명하기로 한다. Fig. 17 is a flowchart illustrating a method for determining image transformation information according to an embodiment. Figs. 18 to 23 are diagrams illustrating examples of determining image transformation information according to an embodiment. The description of Fig. 17 will be described with reference to the examples illustrated in Figs. 18 to 23.

단계 S1701에서, 일 실시 예에 따른 디스플레이 장치(100)는 사용자의 시각 장애의 종류 및 상기 시각 장애의 종류에 따른 시각 장애의 정도 중 적어도 하나를 포함하는 시각 특성 정보를 획득하기 위한 사용자 인터페이스를 제공할 수 있다. 단계 S1702에서, 일 실시 예에 따른 디스플레이 장치(100)는 사용자 인터페이스를 통해, 시각 특성 정보를 획득할 수 있다. 단계 S1703에서, 일 실시 예에 따른 디스플레이 장치(100)는 시각 특성 정보에 기초하여, 영상 변환 정보를 결정할 수 있다. In step S1701, the display device (100) according to an embodiment may provide a user interface for obtaining visual characteristic information including at least one of the type of visual impairment of the user and the degree of visual impairment according to the type of visual impairment. In step S1702, the display device (100) according to an embodiment may obtain visual characteristic information through the user interface. In step S1703, the display device (100) according to an embodiment may determine image conversion information based on the visual characteristic information.

예를 들어, 디스플레이 장치(100)는, 사용자가 헤드셋 형태의 디스플레이 장치(100)를 장착한 것으로 감지하면, 사용자의 시각 특성 정보를 입력 받기 위한 사용자 인터페이스를 디스플레이부(121)에 표시할 수 있다. 또한, 예를 들어, 디스플레이 장치(100)는 사용자가 디스플레이 장치(100)에 구비된 버튼을 누르는 사용자 입력을 수신하면, 사용자의 시각 특성 정보를 입력 받기 위한 사용자 인터페이스를 디스플레이부(121)에 표시할 수 있으며, 이에 제한되지 않는다. For example, if the display device (100) detects that the user is wearing the headset-type display device (100), the display device (100) may display a user interface for receiving the user's visual characteristic information on the display unit (121). In addition, for example, if the display device (100) receives a user input of the user pressing a button provided on the display device (100), the display device (100) may display a user interface for receiving the user's visual characteristic information on the display unit (121), but is not limited thereto.

한편, 일 실시 예에 따라, 디스플레이 장치(100)는 디스플레이부(121)에 표시된 내용을 음향 출력부(122)를 통해 소리로 출력할 수도 있다. Meanwhile, according to one embodiment, the display device (100) may output the content displayed on the display unit (121) as sound through the sound output unit (122).

일 실시 예에 따라, 디스플레이 장치(100)는 제어 장치(200)(예컨대, 키보드(200a), 리모컨(200b))를 통해 입력되는 정보를 수신할 수 있다. 예를 들어, 디스플레이 장치(100)는 리모컨(200b)을 통해, 디스플레이부(121)에 표시된 선택 항목을 상하, 좌우로 이동하여 선택하는 입력 신호를 수신할 수 있다. According to one embodiment, the display device (100) can receive information input through a control device (200) (e.g., a keyboard (200a), a remote control (200b)). For example, the display device (100) can receive an input signal for moving a selection item displayed on the display unit (121) up, down, left, and right to select it through the remote control (200b).

도 18은 저시력에 관한 시각 특성 정보를 획득하는 예를 도시한다.Figure 18 illustrates an example of obtaining visual characteristic information regarding low vision.

도 18에 도시한 바와 같이, 프로세서(130)는 디스플레이부(121)에 시각 장애의 종류를 표시할 수 있고, 저시력을 선택하는 사용자 입력을 수신할 수 있다(1801). 또한, 프로세서(130)는 디스플레이부(121)에 저시력의 등급을 표시할 수 있고, 사용자의 시력 등급(예컨대, 2급)을 선택하는 사용자 입력을 수신할 수 있다(1802). 또한, 프로세서(130)는 디스플레이부(121)에 변환 영상의 예시를 제공하고, 사용자가 가장 잘 보이는 영상을 선택하는 사용자 입력을 수신할 수 있다(1803). As illustrated in FIG. 18, the processor (130) can display the type of visual impairment on the display unit (121) and receive a user input for selecting low vision (1801). In addition, the processor (130) can display the level of low vision on the display unit (121) and receive a user input for selecting the user's level of vision (e.g., level 2) (1802). In addition, the processor (130) can provide an example of a converted image to the display unit (121) and receive a user input for selecting the image that is most visible to the user (1803).

일 실시 예에 따라, 프로세서(130)는 사용자 인터페이스를 통해 입력 받은 사용자의 시각 특성 정보(예컨대, 저시력, 2급, 사용자가 잘 보이는 영상으로 선택된 영상)에 기초하여, 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) may determine image conversion information based on user visual characteristic information (e.g., low vision, level 2, image selected as an image that the user can see well) input through the user interface.

도 19는 색약에 관한 시각 특성 정보를 획득하는 예를 도시한다.Figure 19 illustrates an example of obtaining visual characteristic information regarding color blindness.

도 19에 도시한 바와 같이, 프로세서(130)는 디스플레이부(121)에 시각 장애의 종류를 표시할 수 있고, 색약을 선택하는 사용자 입력을 수신할 수 있다(1901). 또한, 프로세서(130)는 디스플레이부(121)에 색약의 종류(예컨대, 적록 색약, 청황 색약, 전색약)를 식별하기 위한 테스트 화면을 표시할 수 있다(1902). As illustrated in FIG. 19, the processor (130) can display the type of visual impairment on the display unit (121) and receive a user input for selecting color weakness (1901). In addition, the processor (130) can display a test screen for identifying the type of color weakness (e.g., red-green color weakness, blue-yellow color weakness, full color weakness) on the display unit (121) (1902).

일 실시 예에 따라, 프로세서(130)는 사용자 인터페이스를 통해 획득한 사용자의 시각 특성 정보(예컨대, 적록 색약)에 기초하여, 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) may determine image conversion information based on user visual characteristic information (e.g., red-green color weakness) obtained through the user interface.

도 20은 변시증에 관한 시각 특성 정보를 획득하는 예를 도시한다.Figure 20 illustrates an example of obtaining visual characteristic information regarding metamorphopsia.

도 20에 도시한 바와 같이, 프로세서(130)는 디스플레이부(121)에 시각 장애의 종류를 표시할 수 있고, 변시증을 선택하는 사용자 입력을 수신할 수 있다(2001). 또한, 프로세서(130)는 사용자의 시야 중에서 왜곡되어 보이는 위치 및 왜곡 정도를 획득하기 위한 격자 무늬의 테스트 화면(예컨대, 암슬러 그리드 차트(Amsler grid chart))을 디스플레이부(121)에 표시할 수 있다. As illustrated in FIG. 20, the processor (130) can display the type of visual impairment on the display unit (121) and receive a user input for selecting metamorphopsia (2001). In addition, the processor (130) can display a grid-patterned test screen (e.g., an Amsler grid chart) on the display unit (121) to obtain the location and degree of distortion in the user's field of vision.

일 실시 예에 따라, 프로세서(130)는 사용자의 시야에 왜곡되어 보이는 선을 직선으로 보정하는 사용자 입력을 수신할 수 있다(2002). 예를 들어, 프로세서(130)는, 키보드(200a) 또는 리모컨(200b)을 통해 테스트 화면 상에 표시된 아이콘을 좌우상하로 이동시키는 사용자 입력을 수신할 수 있다. 프로세서(130)는 왜곡되어 보이는 선을 움직여서 직선 형태로 보일 때까지 조정하는 사용자 입력을 수신 할 수 있다(2003). According to one embodiment, the processor (130) may receive user input to correct a line that appears distorted in the user's field of view into a straight line (2002). For example, the processor (130) may receive user input to move an icon displayed on a test screen left, right, up, or down via a keyboard (200a) or a remote control (200b). The processor (130) may receive user input to move a line that appears distorted and adjust it until it appears as a straight line (2003).

일 실시 예에 따라, 프로세서(130)는 격자 무늬 테스트를 통해 입력된 보정 패턴을 분석하고, 보정 패턴을 역으로 이용하여, 사용자 시야에서 영상이 왜곡되어 보이지 않도록 영상을 보정하기 위한 영상 변환 정보를 결정할 수 있다.According to one embodiment, the processor (130) may analyze a correction pattern input through a grid test and, by using the correction pattern inversely, determine image transformation information for correcting the image so that the image does not appear distorted in the user's field of view.

도 21 내지 도 22는 중심 암점 증상에 관한 시각 특성 정보를 획득하는 예를 도시한다.Figures 21 and 22 illustrate examples of obtaining visual characteristic information regarding central scotoma symptoms.

도 21에 도시한 바와 같이, 프로세서(130)는 디스플레이부(121)에 시각 장애의 종류를 표시할 수 있고, 중심 암점을 선택하는 사용자 입력을 수신할 수 있다(2101). 또한, 프로세서(130)는 디스플레이부(121)에 소정 영상을 표시할 수 있다(2102). 이 때, 중심 암점 증상의 사용자의 시각에는 영상의 중심부 일부가 보이지 않을 수 있다(2102).As illustrated in FIG. 21, the processor (130) can display the type of visual impairment on the display unit (121) and receive user input for selecting a central scotoma (2101). In addition, the processor (130) can display a predetermined image on the display unit (121) (2102). At this time, a part of the central portion of the image may not be visible to the user suffering from the central scotoma symptom (2102).

일 실시 예에 따라, 프로세서(130)는 디스플레이부(121)에 원 형태의 아이콘(2106)을 표시하고, 아이콘(2106)의 위치, 크기를 조절하는 사용자 입력을 수신할 수 있다. 예를 들어, 프로세서(130)는 리모컨(200b)의 버튼 입력을 통해, 아이콘(2106)의 위치를 변경하거나, 아이콘(2106)의 모양(예컨대, 원형, 타원형, 사각형, 라켓형 등)을 선택하거나, 아이콘(2106)의 크기를 확대 또는 축소하는 사용자 입력을 수신할 수 있다(2103). According to one embodiment, the processor (130) may display a circular icon (2106) on the display unit (121) and receive a user input for adjusting the position and size of the icon (2106). For example, the processor (130) may receive a user input for changing the position of the icon (2106), selecting a shape of the icon (2106) (e.g., circular, oval, square, racket-shaped, etc.), or enlarging or reducing the size of the icon (2106) through a button input of the remote control (200b) (2103).

프로세서(130)는 사용자의 중심 암점 영역이 모두 포함될 때까지 아이콘(2107)의 위치, 크기, 모양을 조절하는 사용자 입력을 수신할 수 있다(2104). 예를 들어, 프로세서(130)는 사용자의 시야에서 보이는 중심 암점의 영역을 모두 가릴 수 있을 정도로, 아이콘(2107)의 크기를 확대하는 사용자 입력을 수신할 수 있다.The processor (130) may receive user input (2104) to adjust the position, size, and shape of the icon (2107) until the entire central scotoma area of the user is covered. For example, the processor (130) may receive user input to enlarge the size of the icon (2107) to a degree that covers the entire central scotoma area visible to the user.

일 실시 예에 따라, 프로세서(130)는 사용자 입력을 통해 사용자의 중심 암점 영역을 결정하고, 결정된 중심 암점 영역에 기초하여 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) may determine a central dark spot area of the user through user input and determine image transformation information based on the determined central dark spot area.

도 22를 참조하면, 디스플레이 장치(100)의 프로세서(130)는 중심 암점 영역에 대응하는 영상을 이동시켜 표시할 위치를 선택하는 사용자 입력을 수신할 수 있다. Referring to FIG. 22, the processor (130) of the display device (100) can receive a user input for selecting a location to display by moving an image corresponding to the central dark spot area.

일 실시 예에 따라, 프로세서(130)는 디스플레이부(121)에 소정 영상을 표시할 수 있다(2201). 이 때, 중심 암점 증상의 사용자의 시각에는 영상의 중심부 일부(2205)가 보이지 않을 수 있다(2201). According to one embodiment, the processor (130) may display a predetermined image on the display unit (121) (2201). At this time, a central portion (2205) of the image may not be visible to a user with central scotoma symptoms (2201).

일 실시 예에 따라, 프로세서(130)는 디스플레이부(121)에 아이콘(2206)을 표시하고, 원 형태의 아이콘(2206)의 위치, 크기를 조절하는 사용자 입력을 수신할 수 있다(2202). According to one embodiment, the processor (130) may display an icon (2206) on the display unit (121) and receive a user input for adjusting the position and size of the circular icon (2206) (2202).

예를 들어, 프로세서(130)는 키보드(200a) 또는 리모컨(200b)의 버튼 입력을 통해, 아이콘(2206)의 위치를 변경하는 사용자 입력을 수신할 수 있다. 프로세서(130)는 아이콘(2206)의 위치, 크기를 조절하는 사용자 입력에 기초하여, 사용자의 암점 영역에 대응하는 영상을 이동시켜 표시할 위치를 결정할 수 있다. For example, the processor (130) may receive a user input for changing the position of the icon (2206) through a button input of a keyboard (200a) or a remote control (200b). Based on the user input for adjusting the position and size of the icon (2206), the processor (130) may determine a position to display the image corresponding to the user's dark spot area by moving it.

또한, 프로세서(130)는 아이콘(2207)을 상하좌우로 이동시키는 사용자 입력에 따라, 사용자의 암점 영역에 대응하는 영상을 표시할 위치를 변경할 수 있다(2203). Additionally, the processor (130) can change the location at which the image corresponding to the user's dark spot area is displayed according to user input for moving the icon (2207) up, down, left, and right (2203).

도 23은 터널 시야 증상에 관한 시각 특성 정보를 획득하는 예를 도시한다.Figure 23 illustrates an example of obtaining visual characteristic information regarding tunnel vision symptoms.

도 23에 도시한 바와 같이, 프로세서(130)는 디스플레이부(121)에 시각 장애의 종류를 표시할 수 있고, 터널 시야를 선택하는 사용자 입력을 수신할 수 있다(2301). 또한, 프로세서(130)는 디스플레이부(121)에 소정 영상을 표시할 수 있다(2302). 이 때, 터널 시야 증상의 사용자의 시각에는 영상의 외곽부 일부가 보이지 않을 수 있다(2302).As illustrated in FIG. 23, the processor (130) can display the type of visual impairment on the display unit (121) and receive a user input for selecting tunnel vision (2301). Furthermore, the processor (130) can display a predetermined image on the display unit (121) (2302). At this time, a user with tunnel vision symptoms may not be able to see some of the outer edges of the image (2302).

일 실시 예에 따라, 프로세서(130)는 디스플레이부(121)에 원 형태의 아이콘(2305)을 표시하고, 아이콘(2305)의 위치, 크기를 조절하는 사용자 입력을 수신할 수 있다. 예를 들어, 프로세서(130)는 키보드(200a) 또는 리모컨(200b)의 버튼 입력을 통해, 원 형태의 아이콘(2305)의 크기를 확대 또는 축소할 수 있다(2302).According to one embodiment, the processor (130) may display a circular icon (2305) on the display unit (121) and receive user input for adjusting the position and size of the icon (2305). For example, the processor (130) may enlarge or reduce the size of the circular icon (2305) through a button input of a keyboard (200a) or a remote control (200b) (2302).

프로세서(130)는 사용자의 터널 시야로 인해 보이지 않는 영역의 경계에 근접할 때까지 아이콘(2306)의 위치, 크기, 모양을 조절하는 사용자 입력을 수신할 수 있다(2303).The processor (130) may receive user input to adjust the position, size, and shape of the icon (2306) until it approaches the boundary of an area that is not visible due to the user's tunnel vision (2303).

일 실시 예에 따라, 프로세서(130)는 사용자 입력을 통해 사용자의 터널 시야 영역을 결정할 수 있다. 프로세서(130)는 결정된 터널 시야 영역에 기초하여, 터널 시야 영역의 내부에, 전체 영상을 축소하여 표시하기 위한 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) may determine a user's tunnel vision area through user input. Based on the determined tunnel vision area, the processor (130) may determine image transformation information for displaying a reduced version of the entire image within the tunnel vision area.

한편, 단계 S1704에서, 일 실시 예에 따른 디스플레이 장치(100)는, 사용자 식별 정보에 대응하여, 결정된 영상 변환 정보를 저장할 수 있다.Meanwhile, in step S1704, the display device (100) according to one embodiment can store the determined image conversion information corresponding to the user identification information.

일 실시 예에 따라, 사용자 식별 정보는, 복수의 사용자를 구별할 수 있는 정보일 수 있다. 예를 들어, 사용자 식별 정보는, 숫자, 문자, 기호, 특정 키 입력 신호 등으로 정해질 수 있으며, 이에 제한되지 않는다. In one embodiment, user identification information may be information that can distinguish multiple users. For example, user identification information may be determined as numbers, letters, symbols, specific key input signals, etc., but is not limited thereto.

일 실시 예에 따라, 디스플레이 장치(100)는 복수의 사용자 식별 정보 각각에 대응하는 영상 변환 정보를 메모리(170)에 저장할 수 있다. According to one embodiment, the display device (100) may store image conversion information corresponding to each of a plurality of user identification pieces in the memory (170).

일 실시 예에 따르면, 디스플레이 장치(100)의 프로세서(130)는 메모리(170)에 저장된 복수의 영상 변환 정보 중 사용자 식별 정보에 대응하는 영상 변환 정보를 추출할 수 있다. According to one embodiment, the processor (130) of the display device (100) can extract image conversion information corresponding to user identification information from among a plurality of image conversion information stored in the memory (170).

예를 들어, 프로세서(130)는 사용자 식별 정보에 대응하여 설정된 입력(예컨대, 디스플레이 장치(100) 또는 제어 장치(200)의 특정 버튼 등을 이용한 사용자 입력)에 기초하여, 사용자 식별 정보에 대응하는 영상 변환 정보를 추출하고, 추출된 영상 변환 정보에 기초하여 변환된 영상을 표시할 수 있다. For example, the processor (130) may extract image conversion information corresponding to the user identification information based on an input set corresponding to the user identification information (e.g., a user input using a specific button of the display device (100) or the control device (200), and display an image converted based on the extracted image conversion information.

또한, 일 실시 예에 따라, 프로세서(130)는 사용자 식별 정보에 대응하여 사용자의 시각 특성 정보를 메모리(170)에 저장할 수 있다. 일 실시 예에 따라, 프로세서(130)는 복수의 사용자 식별 정보 각각에 대응하는 복수의 시각 특성 정보를 메모리(170)에 저장할 수 있다. Additionally, according to one embodiment, the processor (130) may store user visual characteristic information corresponding to user identification information in the memory (170). According to one embodiment, the processor (130) may store a plurality of pieces of visual characteristic information corresponding to each of a plurality of pieces of user identification information in the memory (170).

또한, 일 실시 예에 따른 프로세서(130)는 메모리(170)에 저장된 사용자 식별 정보에 대응하는 시각 특성 정보 및 영상 변환 정보 중 적어도 하나를 이용하여, 입력 영상을 변환할 수 있다.Additionally, the processor (130) according to one embodiment can convert an input image by using at least one of visual characteristic information and image conversion information corresponding to user identification information stored in the memory (170).

한편, 도 18 내지 도 23에서는 디스플레이부(121)에 사용자 인터페이스가 표시되는 예를 도시하였으나, 이에 한정되지 않는다. 예를 들어, 디스플레이 장치(100)는 음향 출력부(122)를 통해 사용자가 시각 특성 정보를 입력할 수 있도록 가이드 멘트를 출력하고, 제어 장치(200)(예컨대, 키보드(200a), 리모컨(200b))를 통해 사용자의 시각 특성 정보를 입력 받을 수도 있다. Meanwhile, although examples of a user interface being displayed on the display unit (121) are shown in FIGS. 18 to 23, the present invention is not limited thereto. For example, the display device (100) may output a guide message through the audio output unit (122) so that the user can input visual characteristic information, and may also receive the user's visual characteristic information through the control device (200) (e.g., a keyboard (200a), a remote control (200b)).

도 18 내지 도 23은 일 실시 예를 도시한 것으로서, 이에 한정되지 않는다. Figures 18 to 23 illustrate one embodiment, but are not limited thereto.

도 24는 다른 실시 예에 따른 영상 변환 정보를 결정하는 방법을 설명하기 위한 흐름도이다. FIG. 24 is a flowchart illustrating a method for determining image transformation information according to another embodiment.

단계 S2401에서, 일 실시 예에 따른 디스플레이 장치(100)는 획득된 시각 특성 정보에 대응하여 설정된 영상 변환 정보에 기초하여 변환한 영상을 디스플레이부(121)에 표시할 수 있다.In step S2401, the display device (100) according to one embodiment can display an image converted based on image conversion information set corresponding to the acquired visual characteristic information on the display unit (121).

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는 시각 특성 정보에 대응하여 디폴트로 설정된 영상 변환 정보를 결정할 수 있다. 일 실시 예에 따라, 디스플레이 장치(100)의 메모리(170)는 시각 특성 정보에 기초하여 영상을 변환하기 위한 변환 값을 미리 저장하고 있을 수 있다. 또한, 일 실시 예에 따라 디스플레이 장치(100)는 외부 장치(300)로부터 시각 특성 정보에 대응하는 영상 변환 정보를 수신할 수도 있다.According to one embodiment, the processor (130) of the display device (100) may determine image conversion information set as default in response to visual characteristic information. According to one embodiment, the memory (170) of the display device (100) may pre-store conversion values for converting an image based on the visual characteristic information. Furthermore, according to one embodiment, the display device (100) may receive image conversion information corresponding to the visual characteristic information from an external device (300).

예를 들어, 디스플레이 장치(100)는 저 시력에 대해 영상을 변환하기 위한 평균 변환 값(예컨대, 영상의 확대 비율, 외곽선의 대비 조절 비율 등)을 미리 설정할 수 있다.For example, the display device (100) can preset an average conversion value (e.g., an image magnification ratio, an outline contrast adjustment ratio, etc.) for converting an image for low vision.

단계 S2402에서, 디스플레이 장치(100)는, 사용자 입력에 따라, 영상 변환 정보를 변경하고 변경된 영상 변환 정보에 기초하여 변환한 영상을 디스플레이부(121)에 표시할 수 있다.In step S2402, the display device (100) can change the image conversion information according to the user input and display the converted image based on the changed image conversion information on the display unit (121).

일 실시 예에 따라, 프로세서(130)는 영상 변환 정보를 변경하기 위한 사용자 입력을 수신할 수 있다. 예를 들어, 프로세서(130)는 디스플레이 장치(100)에 구비된 버튼을 조작하는 사용자 입력에 기초하여, 영상 변환 정보를 변경하고, 변경된 영상 변환 정보에 기초하여 영상을 변환할 수 있다. 또한, 프로세서(130)는 리모컨(200b)을 통한 제어 신호에 기초하여, 영상 변환 정보를 변경할 수 있으며, 이에 한정되지 않는다. According to one embodiment, the processor (130) may receive a user input for changing the image conversion information. For example, the processor (130) may change the image conversion information based on a user input manipulating a button provided on the display device (100), and may convert the image based on the changed image conversion information. In addition, the processor (130) may change the image conversion information based on a control signal via the remote control (200b), but is not limited thereto.

일 실시 예에 따른 디스플레이 장치(100)는, 변경된 영상 변환 정보에 기초하여 변환된 영상을 디스플레이부(121)에 표시할 수 있다. A display device (100) according to one embodiment can display a converted image on a display unit (121) based on changed image conversion information.

단계 S2403에서, 일 실시 예에 따른 디스플레이 장치(100)는, 표시된 영상을 선택하는 사용자 입력에 기초하여, 선택된 영상에 대응하는 영상 변환 정보를 결정할 수 있다. In step S2403, the display device (100) according to one embodiment may determine image conversion information corresponding to the selected image based on a user input for selecting a displayed image.

일 실시 예에 따라, 디스플레이 장치(100)의 프로세서(130)는 사용자 입력에 응답하여 변환되는 영상을 디스플레이부(121)에 제공하고, 사용자에게 선명하게 보이는 변환 영상을 선택하는 입력을 수신할 수 있다. 예를 들어, 프로세서(130)는 제어 장치(200) 또는 디스플레이 장치(100)에 구비된 버튼 등을 이용하여 변환 영상을 선택하는 사용자 입력을 수신할 수 있다. According to one embodiment, the processor (130) of the display device (100) may provide a converted image to the display unit (121) in response to a user input, and receive an input for selecting a converted image that is clearly visible to the user. For example, the processor (130) may receive a user input for selecting a converted image using a button provided on the control device (200) or the display device (100).

일 실시 예에 따라, 프로세서(130)는 사용자 입력에 의해 선택된 변환 영상에 대응하는 영상 변환 정보를 결정할 수 있다. According to one embodiment, the processor (130) can determine image transformation information corresponding to a transformation image selected by user input.

단계 S2404에서, 일 실시 예에 따른 디스플레이 장치(100)는, 사용자 식별 정보에 대응하여, 결정된 영상 변환 정보를 저장할 수 있다.In step S2404, the display device (100) according to one embodiment may store the determined image conversion information corresponding to the user identification information.

일 실시 예에 따라, 프로세서(130)는 선택된 변환 영상에 대응하는 영상 변환 정보를 사용자 식별 정보에 대응하여 메모리(170)에 저장할 수 있다. According to one embodiment, the processor (130) may store image conversion information corresponding to the selected converted image in the memory (170) corresponding to user identification information.

또한, 일 실시 예에 따라, 프로세서(130)는 복수의 사용자 식별 정보 각각에 대응하여 복수의 영상 변환 정보를 저장할 수 있다. 일 실시 예에 따르면, 프로세서(130)는 사용자 식별 정보에 기초하여, 메모리(170)에 저장된 영상 변환 정보를 호출할 수 있다. Additionally, according to one embodiment, the processor (130) may store a plurality of pieces of image conversion information corresponding to each piece of user identification information. According to one embodiment, the processor (130) may call the image conversion information stored in the memory (170) based on the user identification information.

도 25는 다른 실시 예에 따른 영상 변환 정보를 결정하는 예를 설명하기 위한 도면이다. FIG. 25 is a diagram for explaining an example of determining image conversion information according to another embodiment.

일 실시 예에 따르면, 디스플레이 장치(100)는 디스플레이부(121)에 변환 영상을 미리 제공하면서 사용자에게 최적의 영상을 선택하도록 할 수 있다.According to one embodiment, the display device (100) may provide a converted image in advance to the display unit (121) and allow the user to select an optimal image.

도 25를 참조하면, 일 실시 예에 따른 디스플레이 장치(100)의 프로세서(130)는 사용자 입력에 기초하여 영상 변환 정보를 변경하면서, 변경된 영상 변환 정보에 기초하여 영상을 변환하고, 변환된 영상(2501, 2502, 2503)을 차례로 표시할 수 있다.Referring to FIG. 25, a processor (130) of a display device (100) according to one embodiment may change image conversion information based on a user input, convert an image based on the changed image conversion information, and sequentially display the converted images (2501, 2502, 2503).

일 실시 예에 따라, 프로세서(130)는 복수의 변환 영상(2501, 2502, 2503) 중 사용자가 선택한 영상에 대응하는 영상 변환 정보를 사용자 식별 정보에 대응하여 저장할 수 있다. 예를 들어, 사용자는 제어 장치(200) 또는 디스플레이 장치(100)에 구비된 버튼 등을 이용하여, 변경된 영상 변환 정보에 기초하여 변환된 영상을 디스플레이부(121)를 통해 확인할 수 있다. 디스플레이 장치(100)의 프로세서(130)는 사용자 입력에 따라 선택된 변환 영상에 대응하는 영상 변환 정보를 저장할 수 있다. According to one embodiment, the processor (130) may store image conversion information corresponding to an image selected by the user from among a plurality of converted images (2501, 2502, 2503) in correspondence with user identification information. For example, the user may check an image converted based on the changed image conversion information through the display unit (121) by using a button provided on the control device (200) or the display device (100). The processor (130) of the display device (100) may store image conversion information corresponding to a converted image selected according to a user input.

도 25는 일 실시 예를 도시한 것으로서, 이에 한정되지 않는다.Figure 25 illustrates one embodiment, but is not limited thereto.

도 26 및 도 27은 일 실시예와 관련된 디스플레이 장치의 블록 구성도(block diagram)이다.Figures 26 and 27 are block diagrams of a display device related to one embodiment.

도 26에 도시된 바와 같이, 일부 실시예에 따른 디스플레이 장치(100)는, 제어부(130) 및 디스플레이부(121)를 포함할 수 있다. 그러나, 도 26에 도시된 구성 요소 모두가 디스플레이 장치(100)의 필수 구성 요소인 것은 아니다. 도 26에 도시된 구성 요소보다 많은 구성 요소에 의해 디스플레이 장치(100)가 구현될 수도 있고, 도 26에 도시된 구성 요소보다 적은 구성 요소에 의해 디스플레이 장치(100)가 구현될 수도 있다.As illustrated in FIG. 26, a display device (100) according to some embodiments may include a control unit (130) and a display unit (121). However, not all components illustrated in FIG. 26 are essential components of the display device (100). The display device (100) may be implemented with more components than the components illustrated in FIG. 26, or may be implemented with fewer components than the components illustrated in FIG. 26.

예를 들어, 도 27에 도시된 바와 같이, 일부 실시예에 따른 디스플레이 장치(100)는, 제어부(130) 및 디스플레이부(121) 이외에 사용자 입력부(110), 출력부(120), 센싱부(140), 통신부(150), A/V 입력부(160), 및 메모리(170)를 더 포함할 수도 있다. For example, as illustrated in FIG. 27, a display device (100) according to some embodiments may further include a user input unit (110), an output unit (120), a sensing unit (140), a communication unit (150), an A/V input unit (160), and a memory (170) in addition to a control unit (130) and a display unit (121).

사용자 입력부(110)는, 사용자가 디스플레이 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(110)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. The user input unit (110) refers to a means for a user to input data for controlling the display device (100). For example, the user input unit (110) may include, but is not limited to, a key pad, a dome switch, a touch pad (contact electrostatic capacitance type, pressure resistive film type, infrared detection type, surface ultrasonic conduction type, integral tension measurement type, piezo effect type, etc.), a jog wheel, a jog switch, etc.

일 실시 예에 따라 사용자 입력부(110)는, 시각 특성 정보, 영상 변환 정보를 설정하기 위한 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부 (110)는 영상 변환 정보를 결정하기 위해, 변환된 영상을 선택하는 사용자 입력을 수신할 수 있다. According to one embodiment, the user input unit (110) may receive user input for setting visual characteristic information and image conversion information. In addition, the user input unit (110) may receive user input for selecting a converted image to determine image conversion information.

출력부(120)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(120)는 디스플레이부(121), 음향 출력부(122), 및 진동 모터(123)를 포함할 수 있다.The output unit (120) can output an audio signal, a video signal, or a vibration signal, and the output unit (120) can include a display unit (121), an audio output unit (122), and a vibration motor (123).

디스플레이부(121)는 디스플레이 장치(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(121)는, 사용자의 시각 특성 정보를 입력 받기 위한 사용자 인터페이스, 영상 변환 정보를 설정하기 위한 사용자 인터페이스, 영상 변환 정보에 기초하여 변환된 영상을 표시할 수 있다. The display unit (121) displays and outputs information processed in the display device (100). For example, the display unit (121) can display a user interface for receiving user visual characteristic information, a user interface for setting image conversion information, and an image converted based on the image conversion information.

한편, 디스플레이부(121)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(121)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(121)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디스플레이 장치(100)의 구현 형태에 따라 디스플레이 장치(100)는 디스플레이부(121)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(121)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다. Meanwhile, when the display unit (121) and the touchpad form a layer structure to form a touch screen, the display unit (121) can be used as an input device in addition to an output device. The display unit (121) can include at least one of a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a 3D display, and an electrophoretic display. In addition, depending on the implementation form of the display device (100), the display device (100) may include two or more display units (121). In this case, the two or more display units (121) can be arranged to face each other using a hinge.

음향 출력부(122)는 통신부(150)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(122)는 디스플레이 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(122)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output unit (122) outputs audio data received from the communication unit (150) or stored in the memory (170). In addition, the audio output unit (122) outputs audio signals related to functions performed in the display device (100) (e.g., call signal reception sound, message reception sound, notification sound). The audio output unit (122) may include a speaker, a buzzer, or the like.

일 실시 예에 따라, 음향 출력부(122)는 시각 특성 정보, 영상 변환 정보를 입력 받기 위한 가이드 정보를 출력할 수 있다. 또한, 음향 출력부(122)는 디스플레이 장치(100)가 영상 콘텐트를 재생하는 경우 영상 콘텐트에 포함된 오디오 데이터를 출력할 수 있다. According to one embodiment, the audio output unit (122) may output guide information for receiving visual characteristic information and image conversion information. In addition, the audio output unit (122) may output audio data included in image content when the display device (100) plays the image content.

진동 모터(123)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(123)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(123)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor (123) can output a vibration signal. For example, the vibration motor (123) can output a vibration signal corresponding to the output of audio data or video data (e.g., a call signal reception sound, a message reception sound, etc.). In addition, the vibration motor (123) can also output a vibration signal when a touch is input to the touch screen.

프로세서(130)는, 통상적으로 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(130)는, 메모리(170)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(110), 출력부(120), 센싱부(140), 통신부(150), A/V 입력부(160) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(130)는 메모리(170)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 25에 기재된 디바이스(100)의 기능을 수행할 수 있다.The processor (130) typically controls the overall operation of the device (100). For example, the processor (130) can control the user input unit (110), output unit (120), sensing unit (140), communication unit (150), A/V input unit (160), etc., by executing programs stored in the memory (170). In addition, the processor (130) can perform the functions of the device (100) described in FIGS. 1 to 25 by executing programs stored in the memory (170).

프로세서(130)(Processor)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서(Processor)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.The processor (130) may include a graphic processor (Graphic Processing Unit, not shown) for processing graphics corresponding to video. The processor may be implemented as a SoC (System On Chip) integrating a core (not shown) and a GPU (not shown). The processor may include single cores, dual cores, triple cores, quad cores, and multiples thereof.

또한, 프로세서는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.Additionally, the processor may include multiple processors. For example, the processor may be implemented with a main processor (not shown) and a subprocessor (not shown) that operates in a sleep mode.

그래픽 처리부(미도시)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 사용자 입력부(110)를 통해 입력된 사용자 입력을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이부(121)의 디스플레이 영역 내에 표시된다.The graphic processing unit (not shown) uses the calculation unit (not shown) and the rendering unit (not shown) to generate a screen including various objects such as icons, images, and text. The calculation unit uses the user input input through the user input unit (110) to calculate the attribute values such as the coordinate values, shape, size, and color to be displayed for each object according to the layout of the screen. The rendering unit generates a screen with various layouts including objects based on the attribute values calculated by the calculation unit. The screen generated by the rendering unit is displayed within the display area of the display unit (121).

일 실시 예 따른 프로세서(130)는, 영상을 획득할 수 있다. 프로세서(130)는, 카메라(161)를 통해 촬영된 영상, 통신부(150)를 통해 외부 장치로부터 수신한 영상 및 메모리(170)에 저장된 영상 중 적어도 하나를 회득할 수 있다.A processor (130) according to one embodiment can acquire an image. The processor (130) can acquire at least one of an image captured by a camera (161), an image received from an external device via a communication unit (150), and an image stored in a memory (170).

또한, 일 실시 예 따른 프로세서(130)는, 시각 장애의 종류를 포함하는 사용자의 시각 특성 정보에 기초하여, 획득된 영상을 변환하기 위한 영상 변환 정보를 결정할 수 있다. Additionally, the processor (130) according to one embodiment can determine image conversion information for converting the acquired image based on the user's visual characteristic information including the type of visual impairment.

일 실시 예 따른 프로세서(130)는, 사용자의 시각 장애의 종류 및 시각 장애의 종류에 따른 시각 장애의 정도 중 적어도 하나를 포함하는 시각 특성 정보를 획득하기 위한 사용자 인터페이스를 제공하고, 사용자 인터페이스를 통해 시각 특성 정보를 획득하고, 획득된 시각 특성 정보에 기초하여, 영상 변환 정보를 결정할 수 있다. A processor (130) according to one embodiment provides a user interface for obtaining visual characteristic information including at least one of a type of visual impairment of a user and a degree of visual impairment according to the type of visual impairment, obtains visual characteristic information through the user interface, and determines image conversion information based on the obtained visual characteristic information.

일 실시 예 따른 프로세서(130)는, 사용자 식별 정보에 대응하여 영상 변환 정보를 메모리(170)에 저장하도록 제어할 수 있다. According to one embodiment, the processor (130) can control to store image conversion information corresponding to user identification information in the memory (170).

일 실시 예 따른 프로세서(130)는, 획득된 영상 내에 포함된 오브젝트에 기초하여, 영상 변환 정보를 결정할 수 있다. 일 실시 예에 따라 오브젝트는, 텍스트, 인물, 풍경 및 다른 디스플레이 장치의 스크린 중 적어도 하나를 포함할 수 있다. According to one embodiment, a processor (130) may determine image transformation information based on an object included in an acquired image. According to one embodiment, the object may include at least one of text, a person, a landscape, and a screen of another display device.

일 실시 예 따른 프로세서(130)는, 사용자 입력에 따라, 영상 변환 정보를 변경하고 변경된 영상 변환 정보에 기초하여 영상을 변환할 수 있다. 프로세서(130)는 변환된 영상을 디스플레이부(121)에 표시하고, 표시된 영상을 선택하는 사용자 입력에 기초하여, 선택된 영상에 대응하는 영상 변환 정보를 결정할 수 있다 According to one embodiment, a processor (130) can change image conversion information according to a user input and convert an image based on the changed image conversion information. The processor (130) can display the converted image on the display unit (121) and determine image conversion information corresponding to the selected image based on a user input for selecting the displayed image.

일 실시 예 따른 프로세서(130)는, 사용자 식별 정보에 대응하여 영상 변환 정보를 메모리(170)에 저장하도록 제어할 수 있다. 일 실시 예에 따라 영상 변환 정보는, 영상 내에 포함된 오브젝트의 표시 위치 변경, 오브젝트의 확대 또는 축소, 오브젝트의 색상, 채도 변경 및 오브젝트의 외곽선의 대비(contrast) 변경 중 적어도 하나에 관한 변환 값을 포함할 수 있다. According to one embodiment, the processor (130) may control to store image conversion information in the memory (170) corresponding to user identification information. According to one embodiment, the image conversion information may include a conversion value related to at least one of changing the display position of an object included in an image, enlarging or reducing the object, changing the color or saturation of the object, and changing the contrast of the outline of the object.

일 실시 예 따른 프로세서(130)는, 결정된 영상 변환 정보에 기초하여 획득된 영상을 변환하고, 변환된 영상을 디스플레이부(121)에 표시할 수 있다. A processor (130) according to one embodiment can convert an acquired image based on determined image conversion information and display the converted image on a display unit (121).

센싱부(140)는, 디스플레이 장치(100)의 상태 또는 디스플레이 장치(100) 주변의 상태를 감지하고, 감지된 정보를 제어부(130)로 전달할 수 있다. The sensing unit (140) can detect the status of the display device (100) or the status around the display device (100) and transmit the detected information to the control unit (130).

센싱부(140)는, 지자기 센서(Magnetic sensor)(141), 가속도 센서(Acceleration sensor)(142), 온/습도 센서(143), 적외선 센서(144), 자이로스코프 센서(145), 위치 센서(예컨대, GPS)(146), 기압 센서(147), 근접 센서(148), 및 RGB 센서(illuminance sensor)(149) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit (140) may include at least one of a magnetic sensor (141), an acceleration sensor (142), a temperature/humidity sensor (143), an infrared sensor (144), a gyroscope sensor (145), a position sensor (e.g., GPS) (146), a pressure sensor (147), a proximity sensor (148), and an RGB sensor (illuminance sensor) (149), but is not limited thereto. Since the function of each sensor can be intuitively inferred from its name by those skilled in the art, a detailed description thereof will be omitted.

통신부(150)는, 디스플레이 장치(100)와 제어 장치(200) 또는 디스플레이 장치(100)와 외부 장치(예컨대, 서버)(300) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(150)는, 근거리 통신부(151), 이동 통신부(152), 방송 수신부(153)를 포함할 수 있다. The communication unit (150) may include one or more components that enable communication between the display device (100) and the control device (200) or between the display device (100) and an external device (e.g., a server) (300). For example, the communication unit (150) may include a short-range communication unit (151), a mobile communication unit (152), and a broadcast receiving unit (153).

근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit (151) may include, but is not limited to, a Bluetooth communication unit, a BLE (Bluetooth Low Energy) communication unit, a near field communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared (IrDA, infrared Data Association) communication unit, a WFD (Wi-Fi Direct) communication unit, a UWB (ultra wideband) communication unit, an Ant+ communication unit, etc.

이동 통신부(152)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication unit (152) transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signals may include various types of data, such as voice call signals, video call signals, or text/multimedia message transmission and reception.

방송 수신부(153)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디스플레이 장치(100)가 방송 수신부(153)를 포함하지 않을 수도 있다.The broadcast receiver (153) receives broadcast signals and/or broadcast-related information from an external source via a broadcast channel. The broadcast channel may include a satellite channel or a terrestrial channel. Depending on the implementation example, the display device (100) may not include the broadcast receiver (153).

또한, 일 실시 예에 따라 통신부(150)는, 사용자의 시각 특성 정보에 기초하여 영상을 변환하여 디스플레이부(121)에 제공하기 위해 필요한 정보를 제어 장치(200) 및 서버(300)와 송수신할 수 있다.Additionally, according to one embodiment, the communication unit (150) may transmit and receive information necessary to convert an image based on the user's visual characteristic information and provide it to the display unit (121) with the control device (200) and the server (300).

A/V(Audio/Video) 입력부(160)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(161)와 마이크로폰(162) 등이 포함될 수 있다. 카메라(161)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지 영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(130) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.The A/V (Audio/Video) input unit (160) is for inputting audio signals or video signals, and may include a camera (161) and a microphone (162), etc. The camera (161) can obtain image frames, such as still images or moving images, through an image sensor in video call mode or shooting mode. Images captured through the image sensor can be processed through a control unit (130) or a separate image processing unit (not shown).

카메라(161)에서 처리된 화상 프레임은 메모리(170)에 저장되거나 통신부(150)를 통하여 외부로 전송될 수 있다. 카메라(161)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera (161) can be stored in the memory (170) or transmitted externally through the communication unit (150). Two or more cameras (161) may be provided depending on the configuration of the terminal.

마이크로폰(162)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(162)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(162)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone (162) receives external acoustic signals and processes them into electrical voice data. For example, the microphone (162) can receive acoustic signals from an external device or a speaker. The microphone (162) can utilize various noise removal algorithms to remove noise generated during the process of receiving external acoustic signals.

메모리(170)는, 제어부(130)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 디스플레이 장치(100)로 입력되거나 디스플레이 장치(100)로부터 출력되는 데이터를 저장할 수도 있다. The memory (170) can store a program for processing and controlling the control unit (130), and can also store data input to or output from the display device (100).

메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory (170) may include at least one type of storage medium among a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory, etc.), a RAM (Random Access Memory), a SRAM (Static Random Access Memory), a ROM (Read-Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a PROM (Programmable Read-Only Memory), a magnetic memory, a magnetic disk, and an optical disk.

메모리(170)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(171), 터치 스크린 모듈(172), 알림 모듈(173) 등으로 분류될 수 있다. Programs stored in memory (170) can be classified into multiple modules according to their functions, for example, a UI module (171), a touch screen module (172), a notification module (173), etc.

UI 모듈(171)은, 애플리케이션 별로 디스플레이 장치(100)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(172)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(130)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(172)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(172)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module (171) can provide specialized UI, GUI, etc. that are linked to the display device (100) for each application. The touch screen module (172) can detect a user's touch gesture on the touch screen and transmit information about the touch gesture to the control unit (130). The touch screen module (172) according to some embodiments can recognize and analyze a touch code. The touch screen module (172) can also be configured as separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.To detect touch or proximity touch on a touchscreen, various sensors may be installed inside or near the touchscreen. One example of a sensor for detecting touch on a touchscreen is a tactile sensor. A tactile sensor is a sensor that detects the contact of a specific object at or beyond the level of human touch. A tactile sensor can detect various information, such as the roughness of the contact surface, the hardness of the contact object, and the temperature of the contact point.

또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.Additionally, there is a proximity sensor as an example of a sensor for detecting touch on a touchscreen.

근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.A proximity sensor is a sensor that detects the presence or absence of an object approaching a predetermined detection surface or existing nearby without mechanical contact using the force of an electromagnetic field or infrared rays. Examples of proximity sensors include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a retroreflective photoelectric sensor, a high-frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. User touch gestures may include tap, touch and hold, double tap, drag, pan, flick, drag and drop, and swipe.

알림 모듈(173)은 디스플레이 장치(100)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 디스플레이 장치 (100)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(173)은 디스플레이부(121)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(122)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(123)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.The notification module (173) can generate a signal to notify the occurrence of an event in the display device (100). Examples of events occurring in the display device (100) include reception of a call signal, reception of a message, input of a key signal, and schedule notification. The notification module (173) can output a notification signal in the form of a video signal through the display unit (121), output a notification signal in the form of an audio signal through the sound output unit (122), or output a notification signal in the form of a vibration signal through the vibration motor (123).

도 28은 일 실시예와 관련된 제어 장치의 블록 구성도(block diagram)이다.Fig. 28 is a block diagram of a control device related to one embodiment.

도 28를 참조하면, 제어 장치(200)는 무선 통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원 공급부(260), 저장부(270) 및 제어부(280)를 포함할 수 있다.Referring to FIG. 28, the control device (200) may include a wireless communication unit (220), a user input unit (230), a sensor unit (240), an output unit (250), a power supply unit (260), a storage unit (270), and a control unit (280).

무선 통신부(220)는 전술하여 설명한 실시예들에 따른 영상 표시 장치 또는 주변 기기 중 임의의 어느 하나와 신호를 송수신할 수 있다. 무선 통신부(220)는 IR 통신규격에 따라 영상 표시 장치(100) 또는 주변 기기(300)와 신호를 송수신할 수 있는 IR 모듈을 구비할 수 있다. 예를 들어, 제어 장치(200)는 필요에 따라 IR 모듈을 통하여 영상 표시 장치(100) 또는 주변 기기(300)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.The wireless communication unit (220) can transmit and receive signals with any one of the image display devices or peripheral devices according to the embodiments described above. The wireless communication unit (220) can be equipped with an IR module capable of transmitting and receiving signals with the image display device (100) or peripheral device (300) according to the IR communication standard. For example, the control device (200) can transmit commands for power on/off, channel change, volume change, etc. to the image display device (100) or peripheral device (300) through the IR module as needed.

또는, 무선 통신부(220)는 무선랜(예를 들어, 와이- 파이(Wi-Fi)), 블루투스, BLE(bluetooth low energy), 초음파, 지그비(zigbee) 등이 방식으로 영상 표시 장치(100) 또는 주변 기기(300)와 신호를 송수신할 수 있다.Alternatively, the wireless communication unit (220) can transmit and receive signals with the video display device (100) or peripheral device (300) in a wireless LAN (e.g., Wi-Fi), Bluetooth, BLE (Bluetooth low energy), ultrasound, Zigbee, etc.

사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 제어 장치(200)로 영상 표시 장치(100) 또는 주변 기기(300)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드 키 버튼을 구비할 경우, 사용자는 하드 키 버튼의 푸쉬 동작을 통하여 제어 장치(200)로 디스플레이 장치(100) 또는 외부 장치(300)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트 키를 터치하여 제어 장치(200)로 디스플레이 장치(100) 또는 외부 장치(300)와 관련된 명령을 입력할 수 있다.The user input unit (230) may be configured as a keypad, a button, a touch pad, or a touch screen. The user can input a command related to the video display device (100) or the peripheral device (300) to the control device (200) by operating the user input unit (230). If the user input unit (230) has a hard key button, the user can input a command related to the display device (100) or the external device (300) to the control device (200) by pushing the hard key button. If the user input unit (230) has a touch screen, the user can input a command related to the display device (100) or the external device (300) to the control device (200) by touching a soft key of the touch screen.

센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있다. 자이로 센서(241)는 제어 장치(200)의 움직임에 관한 정보를 센싱할 수 있다. 일예로, 자이로 센서(241)는 제어 장치(200)의 동작에 관한 정보를 x, y, z 축을 기준으로 센싱할 수 있다. 가속도 센서(243)는 제어 장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 거리 측정 센서를 더 구비할 수 있으며, 이에 의해, 디스플레이 장치(100)와의 거리를 센싱할 수 있다.The sensor unit (240) may include a gyro sensor (241) or an acceleration sensor (243). The gyro sensor (241) may sense information regarding the movement of the control device (200). For example, the gyro sensor (241) may sense information regarding the operation of the control device (200) based on the x, y, and z axes. The acceleration sensor (243) may sense information regarding the movement speed of the control device (200). Meanwhile, a distance measurement sensor may be further included, thereby sensing the distance to the display device (100).

출력부(250)는 사용자 입력부(230)의 조작에 대응하거나 디스플레이 장치(100) 또는 외부 장치(300)에서 수신한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(230)의 조작 여부 또는 디스플레이 장치(100) 또는 외부 장치(300)의 제어 여부를 인지할 수 있다.The output unit (250) can output a video or audio signal corresponding to the operation of the user input unit (230) or to a signal received from the display device (100) or an external device (300). Through the output unit (250), the user can recognize whether the user input unit (230) is being operated or whether the display device (100) or an external device (300) is being controlled.

일 예로, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 디스플레이 장치(100) 또는 외부 장치(300)와 신호가 송수신되면 점등되는 LED 모듈, 진동을 발생하는 진동 모듈, 음향을 출력하는 음향 출력 모듈, 또는 영상을 출력하는 디스플레이 모듈을 구비할 수 있다.For example, the output unit (250) may include an LED module that lights up when the user input unit (230) is operated or a signal is transmitted and received with the display device (100) or an external device (300) through the wireless communication unit (220), a vibration module that generates vibration, an audio output module that outputs sound, or a display module that outputs an image.

전원 공급부(260)는 제어 장치(200)로 전원을 공급한다. 전원 공급부(260)는 제어 장치(200)가 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원 공급부(260)는 제어 장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.The power supply unit (260) supplies power to the control device (200). The power supply unit (260) can reduce power waste by stopping the power supply when the control device (200) is not moved for a predetermined period of time. The power supply unit (260) can resume the power supply when a predetermined key provided in the control device (200) is operated.

저장부(270)는 제어 장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다.The storage unit (270) can store various types of programs, application data, etc. required for the control or operation of the control device (200).

제어부(280)는 제어 장치(200)의 제어에 관련된 제반 사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 제어 장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 디스플레이 장치(100) 또는 외부 장치(300)로 전송할 수 있다.The control unit (280) controls all matters related to the control of the control device (200). The control unit (280) can transmit a signal corresponding to a predetermined key operation of the user input unit (230) or a signal corresponding to the movement of the control device (200) sensed by the sensor unit (240) to the display device (100) or the external device (300) via the wireless communication unit (220).

일 실시예에 따른 제어부(280)는, 사용자의 시각 특성 정보 및 영상 변환 정보 중 적어도 하나를 입력하기 위한 사용자 입력 신호를 디스플레이 장치(100)로 전송할 수 있다. 또한, 제어부(280)는, 영상 변환 정보를 변경하기 위한 사용자 입력 신호를 디스플레이 장치(100)로 전송할 수 있다. 또한, 제어부 (280)는 변환 영상을 선택하는 사용자 입력 신호를 디스플레이 장치(100)로 전송할 수 있다. According to one embodiment, the control unit (280) may transmit a user input signal for inputting at least one of user visual characteristic information and image conversion information to the display device (100). In addition, the control unit (280) may transmit a user input signal for changing the image conversion information to the display device (100). In addition, the control unit (280) may transmit a user input signal for selecting a conversion image to the display device (100).

한편, 상술한 실시예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.Meanwhile, the above-described embodiments can be implemented in a general-purpose digital computer that can be written as a program that can be executed on a computer and that executes the program using a computer-readable medium. In addition, the data structure used in the above-described embodiments can be recorded on a computer-readable medium through various means. In addition, the above-described embodiments can be implemented in the form of a recording medium that includes computer-executable instructions, such as program modules that are executed by a computer. For example, methods implemented as software modules or algorithms can be stored on a computer-readable recording medium as codes or program instructions that a computer can read and execute.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.A computer-readable medium may be any recording medium that can be accessed by a computer, and may include volatile and nonvolatile media, removable and non-removable media. A computer-readable medium may include, but is not limited to, magnetic storage media, such as ROM, floppy disks, hard disks, etc., and optical storage media, such as CD-ROMs, DVDs, etc. In addition, a computer-readable medium may include a computer storage medium and a communication medium.

또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.Additionally, a plurality of computer-readable recording media may be distributed across network-connected computer systems, and data stored on the distributed recording media, such as program instructions and code, may be executed by at least one computer.

본 개시에서 설명된 특정 실행들은 일 실시예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. The specific implementations described in this disclosure are merely exemplary and do not limit the scope of the present disclosure in any way. For the sake of brevity, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted.

전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present disclosure is provided for illustrative purposes only, and those skilled in the art will readily appreciate that modifications to other specific forms can be made without altering the technical spirit or essential features of the present disclosure. Therefore, the embodiments described above should be understood as illustrative in all respects and not restrictive. For example, components described as being single may be implemented in a distributed manner, and similarly, components described as being distributed may be implemented in a combined manner.

본 개시에서 모든 예들 또는 예시적인 용어, 예들 들어, “등등”의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. Any use of examples or exemplary terms, such as “etc.”, in this disclosure is merely intended to illustrate the disclosure in more detail and is not intended to limit the scope of the disclosure by virtue of such examples or exemplary terms, unless otherwise limited by the claims.

또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 개시에 기재된 구성 요소들은 본 개시의 실행을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Additionally, unless specifically stated as “essential,” “important,” etc., components described in this disclosure may not be components absolutely necessary for the implementation of this disclosure.

본 개시의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. A person skilled in the art will understand that the embodiments of the present disclosure may be implemented in modified forms without departing from the essential characteristics of the above description.

본 개시는 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 본 개시는 명세서에 기재된 특정한 실시 형태에 의해 한정되는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물이 본 개시에 포함되는 것으로 이해되어야 한다. 그러므로, 개시된 실시예들은 한정적인 관점이 아닌 설명적 관점에서 이해되어야 한다. The present disclosure may be modified and have numerous embodiments. Therefore, the present disclosure is not limited to the specific embodiments described in the specification, and it should be understood that all modifications, equivalents, and alternatives falling within the spirit and technical scope of the present disclosure are encompassed by the present disclosure. Therefore, the disclosed embodiments should be understood in an illustrative rather than a restrictive sense.

본 개시의 범위는 발명의 상세한 설명보다는 특허 청구 범위에 의하여 나타나며, 특허 청구 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the claims rather than the detailed description of the invention, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present disclosure.

본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.The terms “unit”, “module”, etc. described in this specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다.The "sub-module" may be stored in an addressable storage medium and implemented by a program executable by a processor.

예를 들어, “부”, "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.For example, a “unit”, a “module” may be implemented by components such as software components, object-oriented software components, class components, and task components, and by processes, functions, attributes, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

본 명세서에서, "A는 a1, a2 및 a3 중 하나를 포함할 수 있다"는 기재은, A라는 엘리먼트(element)에 포함될 수 있는 예시적인 엘리먼트가 a1, a2 또는 a3라는 넓은 의미이다. In this specification, the description "A can include one of a1, a2 and a3" is a broad one that exemplary elements that can be included in the element called A are a1, a2 or a3.

상기 기재로 인해 엘리먼트 A를 구성할 수 있는 엘리먼트가 반드시 a1, a2 또는 a3로 국한된다는 것은 아니다. 따라서 A를 구성할 수 있는 엘리먼트가, a1, a2 및 a3 이외에 예시되지 않은 다른 엘리먼트들을 배제한다는 의미로, 배타적으로 해석되지 않음에 유의하여야 한다. The above description does not necessarily mean that the elements that can constitute element A are limited to a1, a2, or a3. Therefore, it should be noted that the elements that can constitute A are not interpreted exclusively, meaning that they exclude other elements not exemplified other than a1, a2, and a3.

또한, 상기 기재는, A는 a1를 포함하거나, a2를 포함하거나, 또는 a3를 포함할 수 있다는 의미이다. 상기 기재가 A를 구성하는 엘리먼트들이 반드시 소정 집합 내에서 선택적으로 결정된다는 것을 의미하지는 않는다. 예를 들어 상기 기재가, 반드시 a1, a2 및 a3를 포함하는 집합으로부터 선택된 a1, a2, 또는 a3가 컴포넌트 A를 구성한다는 것으로, 제한적으로 해석되지 않음에 유의하여야 한다. Additionally, the description above means that A can include a1, include a2, or include a3. The description does not necessarily mean that the elements constituting A are selectively determined within a given set. For example, it should be noted that the description is not limited to meaning that a1, a2, or a3 selected from the set including a1, a2, and a3 constitute component A.

100 : 디스플레이 장치
130 : 제어부
121 : 디스플레이부
100: Display device
130: Control unit
121: Display section

Claims (20)

HMD(head-mounted display) 장치(100)에 있어서,
촬영부(161);
통신부(150);
디스플레이부(121);
하나 이상의 인스트럭션을 저장하는 메모리(170); 및
적어도 하나의 프로세서(130)를 포함하고,
상기 적어도 하나의 프로세서(130)는 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 촬영부(161)를 이용하여 촬영 영상을 획득하고,
상기 통신부(150)를 통하여, 외부 장치(300)로, 상기 촬영 영상을 전달하고,
상기 통신부(150)를 통하여, 상기 외부 장치(300)로부터, 상기 촬영 영상이 시각 특성 정보에 기초하여 상기 촬영 영상의 일부 영역의 표시 위치가 변환된 변환 영상을 획득하고,
상기 변환 영상을 상기 디스플레이부(121)에 표시하는, HMD 장치.
In the HMD (head-mounted display) device (100),
Filming Department (161);
Communication Department (150);
Display section (121);
A memory (170) storing one or more instructions; and
comprising at least one processor (130),
The above at least one processor (130) executes the one or more instructions,
Obtain a shooting image using the above shooting unit (161),
Through the above communication unit (150), the above-mentioned captured image is transmitted to an external device (300),
Through the communication unit (150), from the external device (300), a converted image is obtained in which the display position of a portion of the captured image is converted based on visual characteristic information,
An HMD device that displays the above-mentioned converted image on the display unit (121).
제1 항에 있어서,
암점 영역은 상기 시각 특성에 기초하여 결정되고,
상기 일부 영역은 상기 암점 영역을 포함하며,
상기 변환 영상은, 상기 촬영 영상의 상기 암점 영역의 영상이 상기 암점 영역 외부의 다른 영역에 표시되는 것인, HMD 장치.
In the first paragraph,
The dark spot area is determined based on the above visual characteristics,
The above-mentioned part includes the above-mentioned dark spot area,
The above-mentioned converted image is an HMD device in which an image of the dark spot area of the above-mentioned captured image is displayed in another area outside the dark spot area.
제1 항에 있어서,
상기 촬영 영상은 사용자 입력에 기초하여 결정된 변환 영역에 기초하여 변환되는, HMD 장치.
In the first paragraph,
An HMD device in which the above-mentioned captured image is converted based on a conversion area determined based on user input.
제3 항에 있어서,
상기 변환 영역은, 상기 촬영 영상을 변환하는 영역의 위치, 크기, 또는 모양 중 적어도 하나를 포함하는, HMD 장치.
In the third paragraph,
An HMD device, wherein the above transformation area includes at least one of the position, size, or shape of the area for transforming the captured image.
제1 항에 있어서,
상기 통신부(150)는, 유선 통신을 위한 인터페이스 또는 무선 통신을 위한 인터페이스를 포함하는, HMD 장치.
In the first paragraph,
The above communication unit (150) is an HMD device including an interface for wired communication or an interface for wireless communication.
제1 항에 있어서,
상기 시각 특성 정보는 사용자의 시각 장애에 대한 정보를 포함하는, HMD 장치.
In the first paragraph,
An HMD device, wherein the above visual characteristic information includes information about the user's visual impairment.
제1 항에 있어서,
상기 시각 특성 정보는 사용자의 시각 장애의 종류 및 상기 시각 장애의 종류에 따른 시각 장애의 정도 중 적어도 하나를 포함하는, HMD 장치.
In the first paragraph,
An HMD device, wherein the above visual characteristic information includes at least one of the type of the user's visual impairment and the degree of the visual impairment according to the type of the visual impairment.
제1 항에 있어서,
상기 메모리는,
사용자 식별 정보에 대응하는 상기 시각 특성 정보를 저장하는, HMD 장치.
In the first paragraph,
The above memory is,
An HMD device that stores the visual characteristic information corresponding to user identification information.
제1 항에 있어서,
상기 변환 영상은, 상기 촬영 영상 내에 포함된 오브젝트의 표시 위치 변경, 상기 오브젝트의 확대 또는 축소, 상기 오브젝트의 색상, 채도 변경 및 상기 오브젝트의 외곽선의 대비(contrast) 변경 중 적어도 하나를 포함하는, HMD 장치.
In the first paragraph,
An HMD device, wherein the above-mentioned transformed image includes at least one of changing the display position of an object included in the captured image, enlarging or reducing the object, changing the color or saturation of the object, and changing the contrast of the outline of the object.
제1 항에 있어서,
상기 적어도 하나의 프로세서(130)는 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 통신부(150)를 통하여 상기 외부 장치로 상기 시각 특성 정보를 전송하는, HMD 장치.
In the first paragraph,
The above at least one processor (130) executes the one or more instructions,
An HMD device that transmits the visual characteristic information to the external device through the communication unit (150).
영상을 변환하는 방법에 있어서,
HMD(head-mounted display) 장치로부터, 상기 HMD 장치에서 촬영된 촬영 영상을 획득하는 단계;
시각 특성 정보에 기초하여 상기 촬영 영상의 일부 영역의 표시 위치를 변환하여, 변환 영상을 생성하는 단계; 및
상기 변환 영상을 상기 HMD 장치로 전송하는 단계;를 포함하는, 방법.
In the method of converting the video,
A step of obtaining a captured image from an HMD (head-mounted display) device;
A step of generating a transformed image by transforming the display position of a portion of the captured image based on visual characteristic information; and
A method comprising: a step of transmitting the converted image to the HMD device;
제11 항에 있어서, 상기 촬영 영상을 변환하는 단계는,
상기 시각 특성에 기초하여 상기 촬영 영상의 암점 영역을 결정하는 단계;
상기 촬영 영상의 암점 영역의 영상을 상기 암점 영역 외부의 다른 영역에 표시하는 단계;를 포함하고,
상기 일부 영역은 상기 암점 영역을 포함하는, 방법.
In the 11th paragraph, the step of converting the captured image is:
A step of determining a dark spot area of the captured image based on the above visual characteristics;
A step of displaying an image of a dark spot area of the above-mentioned captured image in another area outside the dark spot area;
A method wherein the above-mentioned partial area includes the above-mentioned dark spot area.
제11 항에 있어서,
상기 촬영 영상은 사용자 입력에 기초하여 결정된 변환 영역에 기초하여 변환되는, 방법.
In Article 11,
A method in which the above-mentioned captured image is transformed based on a transformation area determined based on user input.
제13 항에 있어서,
상기 변환 영역은, 상기 촬영 영상을 변환하는 영역의 위치, 크기, 또는 모양 중 적어도 하나를 포함하는, 방법.
In the 13th paragraph,
A method wherein the above transformation area includes at least one of the position, size, or shape of the area for transforming the photographed image.
제13 항에 있어서,
상기 사용자 입력은 터치 입력 또는 음성 입력 중 적어도 하나인, 방법.
In the 13th paragraph,
A method wherein the user input is at least one of a touch input or a voice input.
제11 항에 있어서,
상기 시각 특성 정보는 사용자의 시각 장애의 종류 및 상기 시각 장애의 종류에 따른 시각 장애의 정도 중 적어도 하나를 포함하는, 방법.
In Article 11,
A method wherein the above visual characteristic information includes at least one of the type of the user's visual impairment and the degree of the visual impairment according to the type of the visual impairment.
제11 항에 있어서, 상기 방법은,
사용자 식별 정보에 대응하는 상기 시각 특성 정보를 저장하는 단계;를 더 포함하는, 방법.
In the 11th paragraph, the method,
A method further comprising: storing the visual characteristic information corresponding to user identification information.
제11 항에 있어서,
상기 촬영 영상을 변환하는 단계는,
상기 촬영 영상 내에 포함된 오브젝트의 표시 위치 변경, 상기 오브젝트의 확대 또는 축소, 상기 오브젝트의 색상, 채도 변경 및 상기 오브젝트의 외곽선의 대비(contrast) 변경 중 적어도 하나를 변경하는 단계;를 포함하는, 방법.
In Article 11,
The steps for converting the above-mentioned captured video are:
A method comprising: a step of changing at least one of changing the display position of an object included in the above-described captured image, enlarging or reducing the object, changing the color or saturation of the object, and changing the contrast of the outline of the object.
제11 항에 있어서, 상기 방법은,
상기 HMD 장치로부터 상기 시각 특성 정보를 수신하는 단계;를 더 포함하는, 방법.
In the 11th paragraph, the method,
A method further comprising: receiving the visual characteristic information from the HMD device.
제11 항 내지 제19 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 11 to 19 on a computer.
KR1020170025055A 2016-11-10 2017-02-24 Display device and operating method thereof for the same Active KR102840429B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/705,439 US11160688B2 (en) 2016-11-10 2017-09-15 Visual aid display device and method of operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662420026P 2016-11-10 2016-11-10
US62/420,026 2016-11-10

Publications (2)

Publication Number Publication Date
KR20180052501A KR20180052501A (en) 2018-05-18
KR102840429B1 true KR102840429B1 (en) 2025-07-29

Family

ID=62453916

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170025055A Active KR102840429B1 (en) 2016-11-10 2017-02-24 Display device and operating method thereof for the same

Country Status (1)

Country Link
KR (1) KR102840429B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102693495B1 (en) 2018-10-08 2024-08-12 삼성디스플레이 주식회사 Display device
KR20240028852A (en) * 2022-08-25 2024-03-05 삼성전자주식회사 Electronic apparatus and method for controlling thereof
WO2024143899A1 (en) * 2022-12-28 2024-07-04 삼성전자주식회사 Display device and image display method therefor
CN116312415A (en) * 2023-03-01 2023-06-23 重庆长安汽车股份有限公司 Auxiliary display method, device, equipment, vehicle and storage medium
KR20240169882A (en) * 2023-05-25 2024-12-03 삼성전자주식회사 Display device for supporting image adjustment and control method thereof
CN119135873A (en) * 2023-06-12 2024-12-13 华为技术有限公司 Optical parameter setting method of device and terminal device
KR20250035225A (en) * 2023-09-05 2025-03-12 한양대학교 산학협력단 Argumetned reality using vision correction device and controlling method thereof
KR20250147142A (en) * 2024-04-03 2025-10-13 삼성전자주식회사 Electronic apparatus and control method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080077858A1 (en) * 2003-05-20 2008-03-27 Chieko Asakawa Data Editing For Improving Readability Of A Display
US20150370072A1 (en) * 2014-06-23 2015-12-24 Lg Electronics Inc. Head mounted display and method of controlling the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080077858A1 (en) * 2003-05-20 2008-03-27 Chieko Asakawa Data Editing For Improving Readability Of A Display
US20150370072A1 (en) * 2014-06-23 2015-12-24 Lg Electronics Inc. Head mounted display and method of controlling the same

Also Published As

Publication number Publication date
KR20180052501A (en) 2018-05-18

Similar Documents

Publication Publication Date Title
US11160688B2 (en) Visual aid display device and method of operating the same
KR102840429B1 (en) Display device and operating method thereof for the same
US20240296633A1 (en) Augmented reality experiences using speech and text captions
JP7674441B2 (en) Method and apparatus for providing input for a head-mounted image display device - Patents.com
US11164546B2 (en) HMD device and method for controlling same
US11915671B2 (en) Eye gaze control of magnification user interface
US8872735B2 (en) Head mounted display for adjusting audio output and video output in relation to each other and method for controlling the same
US9152226B2 (en) Input method designed for augmented reality goggles
EP2813922B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US9500867B2 (en) Head-tracking based selection technique for head mounted displays (HMD)
US8923686B2 (en) Dynamically configurable 3D display
KR102431712B1 (en) Electronic apparatus, method for controlling thereof and computer program product thereof
US20110246877A1 (en) Mobile terminal and image display controlling method thereof
KR20210086103A (en) Display device, mobile device, video calling method performed by a display device thereof, video calling method performed by a mobile device thereof
CN105849712A (en) Method and device for sending data, and method and device for receiving data
KR102413074B1 (en) User terminal device, Electronic device, And Method for controlling the user terminal device and the electronic device thereof
US20210117048A1 (en) Adaptive assistive technology techniques for computing devices
KR102005406B1 (en) Dispaly apparatus and controlling method thereof
KR20160097868A (en) A display apparatus and a display method

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

F11 Ip right granted following substantive examination

Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE)

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

Q13 Ip right document published

Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE)