WO2026023977A1 - Display device and display method using same - Google Patents
Display device and display method using sameInfo
- Publication number
- WO2026023977A1 WO2026023977A1 PCT/KR2025/010355 KR2025010355W WO2026023977A1 WO 2026023977 A1 WO2026023977 A1 WO 2026023977A1 KR 2025010355 W KR2025010355 W KR 2025010355W WO 2026023977 A1 WO2026023977 A1 WO 2026023977A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display device
- image
- input image
- interest
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
Abstract
Description
본 개시의 다양한 실시예들은 디스플레이 장치에 관한 것으로, 보다 상세하게는 가상 조준점(Virtual Aim Point)을 설정하는 디스플레이 장치 및 이를 이용한 디스플레이 방법에 관한 것이다.Various embodiments of the present disclosure relate to a display device, and more particularly, to a display device for setting a virtual aim point and a display method using the same.
디지털 기술의 발달과 함께, 스마트 TV, 스마트 폰(smart phone), 태블릿 PC, 전자 수첩, PDA(personal digital assistant) 또는 웨어러블 장치(wearable device)와 같은 다양한 유형의 전자 장치가 사용되고 있다. 특히, 다양한 유형의 전자 장치는 입력 데이터에 기초하여 디스플레이 패널로 영상을 출력하는 디스플레이 장치로 구현될 수 있다.With the advancement of digital technology, various types of electronic devices, such as smart TVs, smartphones, tablet PCs, electronic notebooks, personal digital assistants (PDAs), and wearable devices, are being used. In particular, these various types of electronic devices can be implemented as display devices that output images to a display panel based on input data.
디스플레이 기술은 고해상도, 고화질, 초고속 처리 속도를 중심으로 빠르게 발전하고 있으며, 4K 및 8K 해상도의 디스플레이가 상용화됨에 따라, 디스플레이 장치는 더욱 선명하고 생생한 영상 표현이 가능하다. 예를 들어, 디스플레이 장치는 FPS(First-Person Shooter) 게임과 같은 실시간 영상 콘텐츠에서도 고해상도 및/또는 고품질의 영상을 제공할 수 있다.Display technology is rapidly advancing, focusing on high resolution, high image quality, and ultra-fast processing speeds. With the commercialization of 4K and 8K resolution displays, display devices are capable of delivering sharper and more vivid images. For example, display devices can deliver high resolution and/or high quality images even in real-time video content such as first-person shooter (FPS) games.
한편, FPS 게임과 같은 영상 콘텐츠에서 타겟을 정확하게 조준하고 사격하는 것이 중요하다. 이에 따라, FPS 게임과 같은 영상 콘텐츠에서, 영상 내의 타겟을 쉽게 조준할 수 있도록 도와주는 가상 조준점(Virtual Aim Point)이 제공될 수 있다. 사용자는 가상 조준점을 이용하여 조준 정확도를 높이고, 게임 플레이에 더 몰입할 수 있다.Meanwhile, in video content like FPS games, accurately aiming and shooting at targets is crucial. Accordingly, a virtual aim point can be provided to facilitate easy targeting of in-video targets in such games. Users can use the virtual aim point to improve aiming accuracy and become more immersed in the gameplay.
본 개시의 다양한 실시예들은 입력 영상 내에 가상 조준점을 적용하고, 가상 조준점을 포함하는 관심 영역의 크기 또는 효과를 조정함으로써, 영상 콘텐츠에 대한 몰입도를 증가시키는 디스플레이 장치 및 이를 이용한 디스플레이 방법을 제공할 수 있다.Various embodiments of the present disclosure can provide a display device and a display method using the same that increase immersion in image content by applying a virtual target point within an input image and adjusting the size or effect of an area of interest including the virtual target point.
본 개시의 실시예들에 따른 디스플레이 장치는 디스플레이, 적어도 하나의 명령어를 포함하는 프로그램을 저장하는 메모리, 및 상기 메모리와 연결되고, 상기 메모리에 저장된 프로그램의 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서를 포함할 수 있다. 상기 프로세서는 입력 영상에 가상 조준점(Virtual Aim Point)을 적용하고, 상기 가상 조준점을 포함하는 관심 영역을 설정하고, 상기 관심 영역에 대응되는 제1 이미지의 크기 또는 효과를 조정하고, 상기 입력 영상과 상기 제1 이미지를 합성함으로써, 제2 이미지를 생성하고, 상기 디스플레이를 통해 상기 제2 이미지를 디스플레이할 수 있다.A display device according to embodiments of the present disclosure may include a display, a memory storing a program including at least one command, and at least one processor connected to the memory and executing at least one command of the program stored in the memory. The processor may apply a virtual aim point to an input image, set a region of interest including the virtual aim point, adjust a size or effect of a first image corresponding to the region of interest, synthesize the input image and the first image to generate a second image, and display the second image through the display.
일 실시예에서, 상기 적어도 하나의 프로세서는, 상기 제1 이미지에 대한 확대, 축소, 샤프닝, 블러링, 콘트라스트 조정, 색상 조정, 또는 왜곡 필터 적용 중 적어도 하나를 수행하도록 야기할 수 있다.In one embodiment, the at least one processor may cause at least one of: zooming in, zooming out, sharpening, blurring, contrast adjustment, color adjustment, or applying a distortion filter to the first image.
일 실시예에서, 상기 관심 영역은 상기 가상 조준점을 중심으로 하는 형상을 가지고, 타겟의 일부 또는 전부를 포함할 수 있다.In one embodiment, the region of interest has a shape centered around the virtual aiming point and may include part or all of the target.
일 실시예에서, 상기 적어도 하나의 프로세서는, 상기 입력 영상 내에서 타겟의 위치 변경에 기초하여 상기 가상 조준점의 위치를 변경하고, 상기 가상 조준점의 위치가 변경됨에 대응하여, 상기 관심 영역을 변경할 수 있다.In one embodiment, the at least one processor can change the position of the virtual aiming point based on a change in the position of the target within the input image, and change the region of interest in response to the change in the position of the virtual aiming point.
일 실시예에서, 상기 적어도 하나의 프로세서는 딥러닝 모델을 이용하여 상기 입력 영상의 적어도 하나의 객체를 식별하고, 동작 추적 알고리즘을 이용하여 상기 적어도 하나의 객체의 동작을 판단하고, 상기 입력 영상의 밝기, 색상, 또는 대비 중 적어도 하나를 포함하는 배경 특성을 획득하고, 상기 적어도 하나의 객체의 위치, 상기 적어도 하나의 객체의 동작, 또는 상기 배경 특성 중 적어도 하나에 기초하여 상기 가상 조준점을 적용할 수 있다.In one embodiment, the at least one processor may identify at least one object of the input image using a deep learning model, determine a motion of the at least one object using a motion tracking algorithm, obtain a background characteristic including at least one of brightness, color, or contrast of the input image, and apply the virtual aiming point based on at least one of the position of the at least one object, the motion of the at least one object, or the background characteristic.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 입력 영상에 포함된 적어도 하나의 객체의 중요도에 기초하여 타겟을 결정하고, 상기 타겟의 좌표에 기초하여, 상기 입력 영상 내의 상기 가상 조준점의 위치를 결정할 수 있다.In one embodiment, the at least one processor can determine a target based on the importance of at least one object included in the input image, and determine a location of the virtual aiming point within the input image based on coordinates of the target.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 입력 영상의 이동 방향 또는 이동 속도 중 적어도 하나를 감지하고, 상기 이동 방향 또는 상기 이동 속도 중 적어도 하나에 기초하여, 상기 제1 이미지의 상기 크기 또는 상기 효과를 변경할 수 있다.In one embodiment, the at least one processor can detect at least one of a movement direction or a movement speed of the input image, and change the size or the effect of the first image based on at least one of the movement direction or the movement speed.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 입력 영상이 전방 또는 후방으로 이동함에 기반하여, 상기 이동 속도에 기초하여 상기 제1 이미지의 상기 크기를 변경할 수 있다.In one embodiment, the at least one processor can change the size of the first image based on the movement speed of the input image as it moves forward or backward.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 입력 영상이 수평 방향 또는 수직 방향으로 이동함에 기반하여, 상기 이동 속도에 기초하여 상기 제1 이미지의 상기 효과를 변경할 수 있다.In one embodiment, the at least one processor can change the effect of the first image based on the movement speed of the input image based on whether the input image moves in a horizontal or vertical direction.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 제1 이미지를 비표시 영역(non-display area)에 디스플레이할 수 있다.In one embodiment, the at least one processor can display the first image in a non-display area.
일 실시예에서, 상기 적어도 하나의 프로세서는 제1 이미지를 pip(picture-in-picture) 방식으로 디스플레이할 수 있다.In one embodiment, the at least one processor can display the first image in a picture-in-picture (pip) manner.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 입력 영상에 포함된 내장 가상 조준점(Embedded Virtual Aim Point)을 감지하고, 상기 내장 가상 조준점이 감지됨에 기초하여, 상기 입력 영상에 대한 상기 가상 조준점의 적용을 비활성화할 수 있다.In one embodiment, the at least one processor can detect an embedded virtual aim point included in the input image, and based on the detection of the embedded virtual aim point, disable application of the virtual aim point to the input image.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 내장 가상 조준점을 포함하는 상기 관심 영역을 설정하고, 상기 관심 영역에 대응되는 제3 이미지의 크기 또는 효과를 조정할 수 있다.In one embodiment, the at least one processor can set the region of interest including the built-in virtual aiming point and adjust the size or effect of a third image corresponding to the region of interest.
일 실시예에서, 상기 적어도 하나의 프로세서는 제어 장치로부터 제어 신호를 수신하고, 상기 제어 신호가 상기 관심 영역에 대응되는 상기 제1 이미지의 상기 크기 또는 상기 효과의 조정과 무관한 제1 제어 신호인지, 상기 제1 이미지의 상기 크기 또는 상기 효과를 조정하는 제2 제어 신호인지 여부를 판단하고, 상기 제어 신호가 상기 제1 제어 신호임에 기반하여, 상기 제1 제어 신호를 서버에 전송하고, 상기 제어 신호가 상기 제2 제어 신호임에 기반하여, 상기 제1 이미지의 상기 크기 또는 상기 효과를 조정할 수 있다.In one embodiment, the at least one processor receives a control signal from a control device, determines whether the control signal is a first control signal unrelated to adjustment of the size or the effect of the first image corresponding to the region of interest, or a second control signal that adjusts the size or the effect of the first image, and transmits the first control signal to a server based on the control signal being the first control signal, and adjusts the size or the effect of the first image based on the control signal being the second control signal.
본 개시의 실시예들에 따른 디스플레이 방법은 입력 영상에 가상 조준점(Virtual Aim Point)을 적용하는 동작, 상기 가상 조준점을 포함하는 관심 영역을 설정하는 동작, 상기 관심 영역에 대응되는 제1 이미지의 크기 또는 효과를 조정하는 동작, 상기 입력 영상과 상기 제1 이미지를 합성함으로써, 제2 이미지를 생성하는 동작, 및 디스플레이를 통해 상기 제2 이미지를 디스플레이하는 동작을 포함할 수 있다.A display method according to embodiments of the present disclosure may include an operation of applying a virtual aim point to an input image, an operation of setting a region of interest including the virtual aim point, an operation of adjusting a size or effect of a first image corresponding to the region of interest, an operation of generating a second image by synthesizing the input image and the first image, and an operation of displaying the second image through a display.
일 실시예에서, 상기 가상 조준점을 적용하는 동작은, 딥러닝 모델을 이용하여 상기 입력 영상의 적어도 하나의 객체를 식별하는 동작, 동작 추적 알고리즘을 이용하여 상기 적어도 하나의 객체의 동작을 판단하는 동작, 상기 입력 영상의 밝기, 색상, 및 대비 중 적어도 하나를 포함하는 배경 특성을 획득하는 동작, 및 상기 적어도 하나의 객체의 위치, 상기 적어도 하나의 객체의 동작, 또는 상기 배경 특성 중 적어도 하나에 기초하여 상기 가상 조준점을 적용하는 동작을 포함할 수 있다.In one embodiment, the operation of applying the virtual aiming point may include an operation of identifying at least one object of the input image using a deep learning model, an operation of determining a motion of the at least one object using a motion tracking algorithm, an operation of obtaining a background characteristic including at least one of brightness, color, and contrast of the input image, and an operation of applying the virtual aiming point based on at least one of the position of the at least one object, the motion of the at least one object, or the background characteristic.
일 실시예에서, 상기 입력 영상에 가상 조준점을 적용하는 동작은 상기 입력 영상에 포함된 적어도 하나의 객체의 중요도에 기초하여 타겟을 결정하는 동작, 및 상기 타겟의 좌표에 기초하여, 상기 입력 영상 내의 상기 가상 조준점의 위치를 결정하는 동작을 포함할 수 있다.In one embodiment, the operation of applying a virtual aiming point to the input image may include an operation of determining a target based on the importance of at least one object included in the input image, and an operation of determining a location of the virtual aiming point within the input image based on coordinates of the target.
일 실시예에서, 상기 관심 영역은 상기 가상 조준점을 중심으로 하는 형상을 가지고, 타겟의 일부 또는 전부를 포함할 수 있다.In one embodiment, the region of interest has a shape centered around the virtual aiming point and may include part or all of the target.
일 실시예에서, 상기 제1 이미지의 크기 또는 효과를 조정하는 동작은 상기 제1 이미지에 대한 확대, 축소, 샤프닝, 블러링, 콘트라스트 조정, 색상 조정, 또는 왜곡 필터 적용 중 적어도 하나를 수행할 수 있다.In one embodiment, the act of adjusting the size or effect of the first image may include performing at least one of enlarging, reducing, sharpening, blurring, adjusting contrast, adjusting color, or applying a distortion filter to the first image.
일 실시예에서, 상기 디스플레이 방법은, 상기 입력 영상에 포함된 내장 가상 조준점(Embedded Virtual Aim Point)을 감지하는 동작, 상기 내장 가상 조준점이 감지됨에 기초하여, 상기 입력 영상에 대한 상기 가상 조준점의 적용을 비활성화하는 동작, 상기 내장 가상 조준점을 포함하는 상기 관심 영역을 설정하는 동작, 및 상기 관심 영역에 대응되는 제3 이미지의 크기 또는 효과를 조정하는 동작을 더 포함할 수 있다.In one embodiment, the display method may further include an operation of detecting an embedded virtual aim point included in the input image, an operation of deactivating application of the virtual aim point to the input image based on the detection of the embedded virtual aim point, an operation of setting the region of interest including the embedded virtual aim point, and an operation of adjusting the size or effect of a third image corresponding to the region of interest.
본 개시의 다양한 실시예들에 따르면, 본 개시의 디스플레이 장치 및 이를 이용한 디스플레이 방법은 입력 영상에 가상 조준점(Virtual Aim Point)을 적용하고, 가상 조준점을 중심으로 하는 관심 영역의 크기 또는 효과를 조정한 이미지를 디스플레이할 수 있다. 따라서, 본 개시의 디스플레이 장치 및 이를 이용한 디스플레이 방법은 게임 플레이의 조준 정확도를 증가시킴으로써, 영상 콘텐츠에 대한 몰입감과 사용자 만족도를 향상시킬 수 있다.According to various embodiments of the present disclosure, the display device and display method using the same can apply a virtual aim point to an input image and display an image in which the size or effect of a region of interest centered on the virtual aim point is adjusted. Accordingly, the display device and display method using the same of the present disclosure can enhance the sense of immersion and user satisfaction with video content by increasing the aiming accuracy of game play.
또한, 본 개시의 디스플레이 장치 및 이를 이용한 디스플레이 방법은 입력 영상에 내장된 가상 조준점을 감지함으로써, 가상 조준점의 중복 적용을 방지하고, 입력 영상의 이동 방향 또는 이동 속도에 기초하여 조정된 영상의 크기 또는 효과를 변경할 수 있다. 따라서, 본 개시의 디스플레이 장치 및 이를 이용한 디스플레이 방법은 디스플레이 환경에 맞는 유연한 화면 구성을 제공하고, 게임 플레이에 실시간으로 최적화된 영상 콘텐츠를 제공할 수 있다.Furthermore, the display device of the present disclosure and the display method using the same detect a virtual aiming point embedded in an input image, thereby preventing the redundant application of the virtual aiming point, and can change the size or effect of the adjusted image based on the movement direction or movement speed of the input image. Therefore, the display device of the present disclosure and the display method using the same can provide a flexible screen configuration suitable for the display environment and provide image content optimized for game play in real time.
본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.The effects that can be obtained from the exemplary embodiments of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly derived and understood by those skilled in the art to which the exemplary embodiments of the present disclosure pertain from the following description. In other words, unintended effects resulting from implementing the exemplary embodiments of the present disclosure can also be derived by those skilled in the art from the exemplary embodiments of the present disclosure.
도 1은 본 개시의 일 실시예에 따른 디스플레이 장치를 나타내는 도면이다.FIG. 1 is a drawing showing a display device according to one embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른 디스플레이 장치의 구성을 나타내는 블록도이다.FIG. 2 is a block diagram showing the configuration of a display device according to one embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른 디스플레이 장치의 동작을 나타내는 순서도이다.FIG. 3 is a flowchart illustrating the operation of a display device according to one embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른 디스플레이 장치의 입력 영상을 나타내는 예시도이다.FIG. 4 is an exemplary diagram showing an input image of a display device according to one embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른 디스플레이 장치가 입력 영상에 가상 조준점을 적용하는 동작을 나타내는 예시도이다.FIG. 5 is an exemplary diagram showing an operation of a display device according to one embodiment of the present disclosure to apply a virtual aiming point to an input image.
도 6은 본 개시의 일 실시예에 따른 디스플레이 장치가 입력 영상의 영상 특성을 분석하고, 분석에 기초하여 가상 조준점을 적용하는 동작을 나타내는 예시도이다.FIG. 6 is an exemplary diagram showing an operation of a display device according to one embodiment of the present disclosure analyzing image characteristics of an input image and applying a virtual aiming point based on the analysis.
도 7은 본 개시의 일 실시예에 따른 디스플레이 장치가 관심 영역을 설정하는 동작을 나타내는 예시도이다.FIG. 7 is an exemplary diagram showing an operation of a display device according to one embodiment of the present disclosure to set a region of interest.
도 8은 본 개시의 일 실시예에 따른 가상 조준점 이동에 따른 관심 영역의 변경을 나타내는 도면이다.FIG. 8 is a diagram illustrating a change in an area of interest due to movement of a virtual aiming point according to one embodiment of the present disclosure.
도 9a 내지 9c는 본 개시의 일 실시예에 따른 디스플레이 장치가 제1 이미지의 크기 또는 효과를 조정하는 동작을 나타내는 예시도이다.FIGS. 9A to 9C are exemplary diagrams showing an operation of a display device according to one embodiment of the present disclosure to adjust the size or effect of a first image.
도 10a 및 10b는 본 개시의 일 실시예에 따른 디스플레이 장치가 생성한 제2 이미지를 나타내는 예시도이다.FIGS. 10A and 10B are exemplary diagrams showing a second image generated by a display device according to one embodiment of the present disclosure.
도 11는 본 개시의 일 실시예에 따른 디스플레이 장치가 제1 이미지의 크기 또는 효과를 변경하는 동작을 나타내는 순서도이다.FIG. 11 is a flowchart illustrating an operation of a display device according to one embodiment of the present disclosure to change the size or effect of a first image.
도 12는 본 개시의 일 실시예에 따른 디스플레이 장치가 이동 방향 및 이동 속도에 따라 제1 이미지의 크기를 변경하는 동작을 나타내는 예시도이다.FIG. 12 is an exemplary diagram showing an operation of a display device according to one embodiment of the present disclosure to change the size of a first image according to a moving direction and a moving speed.
도 13은 본 개시의 일 실시예에 따른 디스플레이 장치가 이동 방향 및 이동 속도에 따라 제1 이미지의 효과를 변경하는 동작을 나타내는 예시도이다.FIG. 13 is an exemplary diagram showing an operation of a display device according to one embodiment of the present disclosure to change the effect of a first image according to a moving direction and a moving speed.
도 14a 내지 14c는 본 개시의 일 실시예에 따른 디스플레이 장치가 제1 이미지를 디스플레이하는 다양한 방식을 나타내는 도면이다. FIGS. 14A to 14C are diagrams illustrating various ways in which a display device according to one embodiment of the present disclosure displays a first image.
도 15는 입력 영상 내에 내장 가상 조준점이 존재하는 경우, 본 개시의 일 실시예에 따른 디스플레이 장치의 동작을 나타내는 순서도이다.FIG. 15 is a flowchart illustrating the operation of a display device according to one embodiment of the present disclosure when an embedded virtual aiming point exists in an input image.
도 16은 본 개시의 일 실시예에 따른 디스플레이 장치의 입력 영상을 나타내는 예시도이다.FIG. 16 is an exemplary diagram showing an input image of a display device according to one embodiment of the present disclosure.
도 17은 본 개시의 일 실시예에 따른 디스플레이 장치가 제3 이미지의 크기 또는 효과를 조정하는 동작을 나타내는 예시도이다.FIG. 17 is an exemplary diagram showing an operation of a display device according to one embodiment of the present disclosure to adjust the size or effect of a third image.
도 18은 본 개시의 일 실시예에 따른 디스플레이 장치의 제어 신호 종류에 따른 동작을 나타내는 순서도이다.FIG. 18 is a flowchart showing the operation of a display device according to a type of control signal according to one embodiment of the present disclosure.
도 19a 및 19b는 본 개시의 일 실시예에 따른 디스플레이 장치의 제어 신호 종류에 따라 수행하는 동작을 나타내는 도면이다.FIGS. 19a and 19b are diagrams showing operations performed according to the type of control signal of a display device according to one embodiment of the present disclosure.
이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. In connection with the description of the drawings, the same or similar reference numerals may be used for identical or similar components. Furthermore, in the drawings and related descriptions, descriptions of well-known functions and configurations may be omitted for clarity and conciseness.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다.At this time, it will be understood that each block of the processing flow diagrams and combinations of the flow diagrams can be performed by computer program instructions.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that contains one or more executable instructions for performing a specific logical function(s). It should also be noted that in some alternative implementation examples, the functions described in the blocks may occur out of order. For example, two blocks depicted in succession may actually be executed substantially concurrently, or the blocks may sometimes be executed in reverse order, depending on their respective functions.
이때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 패킷 처리 장치들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 중앙처리장치(Central Processing Unit, CPU)들을 재생시키도록 구현될 수도 있다. 또한 실시예에서 '~부'는 하나 이상의 패킷 처리 장치를 포함할 수 있다.Here, the term '~ part' used in this embodiment means software or hardware components such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and the '~ part' performs certain roles. However, the '~ part' is not limited to software or hardware. The '~ part' may be configured to be on an addressable storage medium or may be configured to reproduce one or more packet processing devices. Therefore, as an example, the '~ part' includes components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and '~ parts' may be combined into a smaller number of components and '~ parts' or further separated into additional components and '~ parts'. In addition, the components and '~parts' may be implemented to play one or more central processing units (CPUs) within the device or secure multimedia card. In addition, in the embodiment, the '~parts' may include one or more packet processing devices.
도 1은 본 개시의 일 실시예에 따른 디스플레이 장치(100)를 나타내는 도면이다.FIG. 1 is a drawing showing a display device (100) according to one embodiment of the present disclosure.
도 1을 참조하면, 일 실시예에서, 디스플레이 장치(100)는 입력 데이터에 기초하여 영상을 디스플레이할 수 있다. 예를 들어, 디스플레이 장치(100)는 영상을 디스플레이하는 TV일 수 있으나, 이는 디스플레이 장치(100)의 일 예시에 불과하며, 디스플레이 장치(100)는 적어도 하나의 디스플레이를 포함하는 전자 장치로 구현될 수 있다.Referring to FIG. 1, in one embodiment, the display device (100) may display an image based on input data. For example, the display device (100) may be a TV that displays an image, but this is only one example of the display device (100), and the display device (100) may be implemented as an electronic device including at least one display.
예를 들어, 디스플레이 장치(100)는 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩 톱(lap top), 미디어 플레이어, 마이크로 서버(2), 디지털방송용 단말기, 네비게이션, 키오스크, 가전 기기 및 기타 모바일 또는 비 모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 디스플레이 장치(100)는 고정형 또는 이동형일 수 있으며, 디지털 방송 수신이 가능한 디지털 방송 수신기일 수 있다. 또한, 디스플레이 장치(100)는 실시간 영상 시청 및 통신 등 다양한 컴퓨팅 기능 등을 수행할 수 있는 시계 및 안경 등의 웨어러블 단말기일 수 있다. 디스플레이 장치(100)는 상술한 내용에 제한없이 다양한 형태의 단말기가 될 수 있다.For example, the display device (100) may be, but is not limited to, a smartphone, a tablet PC, a PC, a smart TV, a mobile phone, a PDA (personal digital assistant), a laptop, a media player, a micro server (2), a digital broadcasting terminal, a navigation system, a kiosk, a home appliance, and other mobile or non-mobile computing devices. In addition, the display device (100) may be fixed or mobile, and may be a digital broadcasting receiver capable of receiving digital broadcasting. In addition, the display device (100) may be a wearable terminal such as a watch or glasses that can perform various computing functions such as real-time video viewing and communication. The display device (100) may be a terminal in various forms without being limited to the above-described contents.
예를 들어, 디스플레이 장치(100)는 평면(flat) 디스플레이 장치(100)뿐만 아니라, 곡률을 가지는 화면인 곡면(curved) 디스플레이 장치(100) 또는 곡률을 조정 가능한 가변형(flexible) 디스플레이 장치(100)로 구현될 수 있다. 예를 들어, 디스플레이 장치(100)의 출력 해상도는 HD(High Definition), Full HD, Ultra HD, 또는 Ultra HD 보다 더 선명한 해상도를 포함할 수 있다.For example, the display device (100) may be implemented as a flat display device (100), a curved display device (100) having a screen with a curvature, or a flexible display device (100) whose curvature can be adjusted. For example, the output resolution of the display device (100) may include HD (High Definition), Full HD, Ultra HD, or a resolution clearer than Ultra HD.
본 개시의 디스플레이 장치(100)는 네트워크를 통해 외부의 서버(2)와 통신할 수 있다. 디스플레이 장치(100)는 서버(2)로부터 영상 신호를 수신할 수 있다. 예를 들어, 디스플레이 장치(100)는 서버(2)로부터 영상 신호를 수신하고, 영상 신호에 기초하여 영상을 디스플레이할 수 있다. 디스플레이 장치(100)는 서버(2)에게 제어 신호를 송신할 수 있다. 예를 들어, 디스플레이 장치(100)는 사용자 입력을 수신하고, 사용자 입력에 기초한 제어 신호를 서버(2)에게 전송할 수 있다. The display device (100) of the present disclosure can communicate with an external server (2) via a network. The display device (100) can receive a video signal from the server (2). For example, the display device (100) can receive a video signal from the server (2) and display an image based on the video signal. The display device (100) can transmit a control signal to the server (2). For example, the display device (100) can receive a user input and transmit a control signal based on the user input to the server (2).
여기서, 네트워크는 유선 네트워크와 무선 네트워크를 모두 포함할 수 있다. 유선 네트워크는 케이블 네트워크 또는 전화 네트워크 등을 포함하며, 무선 네트워크는 전파를 통하여 신호를 송수신하는 모든 네트워크를 포함할 수 있다. 유선 네트워크와 무선 네트워크는 서로 연결될 수 있다.Here, the network can include both wired and wireless networks. Wired networks include cable networks or telephone networks, while wireless networks can include any network that transmits and receives signals via radio waves. Wired and wireless networks can be interconnected.
예를 들어, 상기 네트워크는 인터넷 등의 광역 네트워크(wide area network, WAN)와 접속 중계기(Access Point, AP)를 중심으로 형성된 지역 네트워크(local area network, LAN), 접속 중계기(AP)를 통하지 않는 근거리 무선 네트워크를 포함할 수 있다. 근거리 무선 네트워크는 블루투스(Bluetooth™, IEEE 802.15.1), 지그비(Zigbee, IEEE 802.15.4), 와이파이 다이렉트(Wi-Fi Direct), NFC(Near Field Communication), 지-웨이브(Z-Wave) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, the network may include a wide area network (WAN) such as the Internet, a local area network (LAN) formed around an access point (AP), and a short-range wireless network that does not use an access point (AP). Short-range wireless networks may include, but are not limited to, Bluetooth™ (IEEE 802.15.1), Zigbee (IEEE 802.15.4), Wi-Fi Direct, Near Field Communication (NFC), Z-Wave, etc.
본 개시의 디스플레이는 입력 영상에 가상 조준점(Virtual Aim Point)을 적용하고, 가상 조준점을 중심으로 하는 관심 영역의 크기 또는 효과를 조정한 이미지를 디스플레이할 수 있다. 따라서, 본 개시의 디스플레이 장치(100)는 게임 플레이의 조준 정확도를 증가시킴으로써, 영상 콘텐츠에 대한 몰입감과 사용자 만족도를 향상시킬 수 있다.The display of the present disclosure can apply a virtual aim point to an input image and display an image with the size or effect of an area of interest centered around the virtual aim point adjusted. Therefore, the display device (100) of the present disclosure can enhance the immersion and user satisfaction with video content by increasing the aiming accuracy of game play.
또한, 본 개시의 디스플레이 장치(100)는 입력 영상에 내장된 가상 조준점을 감지함으로써, 가상 조준점의 중복 적용을 방지하고, 입력 영상의 이동 방향 또는 이동 속도에 기초하여 조정된 영상의 크기 또는 효과를 변경할 수 있다. 따라서, 본 개시의 디스플레이 장치(100)는 디스플레이 환경에 맞는 유연한 화면 구성을 제공하고, 게임 플레이에 실시간으로 최적화된 영상 콘텐츠를 제공할 수 있다.In addition, the display device (100) of the present disclosure can detect a virtual aiming point embedded in an input image, thereby preventing the redundant application of the virtual aiming point, and can change the size or effect of the adjusted image based on the movement direction or movement speed of the input image. Accordingly, the display device (100) of the present disclosure can provide a flexible screen configuration suitable for the display environment and provide image content optimized for game play in real time.
도 2는 본 개시의 일 실시예에 따른 디스플레이 장치(200)의 구성을 나타내는 블록도이다.FIG. 2 is a block diagram showing the configuration of a display device (200) according to one embodiment of the present disclosure.
도 2의 디스플레이 장치(200)는 도 1의 디스플레이 장치(100)일 수 있다.The display device (200) of FIG. 2 may be the display device (100) of FIG. 1.
일 예에 따르면, 메모리(220)는 디스플레이 장치(200)가 사용하는 저장 매체로서, 적어도 하나의 프로그램에 대응하는 적어도 하나의 명령어(221) 또는 설정 정보 등과 같은 데이터를 저장할 수 있다. 상기 프로그램은 운영체제(OS: Operating System) 프로그램 및 다양한 응용 프로그램을 포함할 수 있다.According to one example, the memory (220) is a storage medium used by the display device (200) and can store data such as at least one command (221) or setting information corresponding to at least one program. The program may include an operating system (OS) program and various application programs.
일 예에서, 메모리(220)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory, RAM), SRAM(static random access memory), 롬(read only memory, ROM), EEPROM(electrically erasable programmable ROM), PROM(programmable ROM), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장 매체를 포함할 수 있다.In one example, the memory (220) may include at least one type of storage medium among a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., an SD or XD memory, etc.), a random access memory (RAM), a static random access memory (SRAM), a read only memory (ROM), an electrically erasable programmable ROM (EEPROM), a programmable ROM (PROM), a magnetic memory, a magnetic disk, and an optical disk.
일 예에 따르면, 영상 입력부(230)는 튜너(미도시), 입출력부(미도시) 또는 통신부(250)를 통해 시청 영상 및 시청 영상 정보를 입력 받을 수 있다. 영상 입력부(230)는 상기 튜너 및 상기 입출력부 중 적어도 하나를 포함할 수 있다. 상기 튜너는 유무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance) 등을 통하여 많은 전파 성분 중에서 디스플레이 장치(200)에서 수신하고자 하는 방송 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 상기 방송 신호는 비디오, 오디오 및 부가 데이터(예를 들어, EPG(Electronic Program Guide))를 포함할 수 있다. 상기 튜너는 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 방송 소스로부터 방송 채널(또는, 시청 영상)을 수신할 수 있다. 상기 튜너는 디스플레이 장치(200)와 일체형으로 구현되거나 디스플레이 장치(200)와 전기적으로 연결되는 별도 튜너로 구현될 수 있다. 상기 입출력부는 프로세서(210)의 제어에 의해 디스플레이 장치(200)의 외부 장치로부터 시청 영상 및 시청 영상 정보를 수신할 수 있는, HDMI(High Definition Multimedia Interface) 입력 포트, 컴포넌트 입력 잭(Jack), PC 입력 포트 및 USB 입력 잭 중 적어도 하나를 포함할 수 있다. 디스플레이 장치(200)의 성능 및 구조에 따라 상기 입출력부가 추가, 삭제 및/또는 변경될 수 있다는 것은 당업자에게 자명하다.According to one example, the video input unit (230) can receive viewing video and viewing video information through a tuner (not shown), an input/output unit (not shown), or a communication unit (250). The video input unit (230) can include at least one of the tuner and the input/output unit. The tuner can select and tune only the frequency of a broadcast channel to be received by the display device (200) among many radio wave components through amplification, mixing, resonance, etc. of a broadcast signal received wirelessly or wiredly. The broadcast signal can include video, audio, and additional data (e.g., EPG (Electronic Program Guide)). The tuner can receive broadcast channels (or viewing video) from various broadcast sources such as terrestrial broadcasting, cable broadcasting, satellite broadcasting, and Internet broadcasting. The tuner can be implemented as an integrated unit with the display device (200) or as a separate tuner electrically connected to the display device (200). The above input/output unit may include at least one of an HDMI (High Definition Multimedia Interface) input port, a component input jack, a PC input port, and a USB input jack, which can receive viewing images and viewing image information from an external device of the display device (200) under the control of the processor (210). It is obvious to those skilled in the art that the above input/output unit may be added, deleted, and/or changed depending on the performance and structure of the display device (200).
일 예에 따르면, 디스플레이(240)는 숫자, 문자, 이미지, 및/또는 그래픽의 형태로 정보를 출력하기 위한 기능들을 수행할 수 있다. 디스플레이(240)는 출력을 위한 적어도 하나의 하드웨어 모듈을 포함할 수 있다. 상기 적어도 하나의 하드웨어 모듈은, 예를 들어, LCD(Liquid Crystal Display), LED(Light Emitting Diode), LPD(Light emitting Polymer Display), OLED(Organic Light Emitting Diode), AMOLED(Active Matrix Organic Light Emitting Diode), 또는 FLED(Flexible LED) 중 적어도 하나를 포함할 수 있다. 디스플레이(240)는 프로세서(210)로부터 수신되는 데이터에 대응하는 화면을 디스플레이 할 수 있다. 디스플레이(240)는 '출력부', '디스플레이부' 또는 이와 동등한 기술적 의미를 가지는 다른 용어로 지칭될 수 있다.According to one example, the display (240) can perform functions for outputting information in the form of numbers, characters, images, and/or graphics. The display (240) can include at least one hardware module for outputting. The at least one hardware module can include, for example, at least one of a Liquid Crystal Display (LCD), a Light Emitting Diode (LED), a Light Emitting Polymer Display (LPD), an Organic Light Emitting Diode (OLED), an Active Matrix Organic Light Emitting Diode (AMOLED), or a Flexible LED (FLED). The display (240) can display a screen corresponding to data received from the processor (210). The display (240) may be referred to as an 'output unit', a 'display unit', or other terms having an equivalent technical meaning thereto.
일 예에 따르면, 통신부(250)는 외부 장치와의 통신을 가능하게 하는 유무선 통신 인터페이스를 제공할 수 있다. 통신부(250)는 유선 이더넷(Ethernet), 무선랜 통신부 및 근거리 통신부 중 적어도 하나를 포함할 수 있다. 상기 무선랜 통신부는 예를 들어 와이파이(Wi-Fi)를 포함할 수 있고, 미국 전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원할 수 있다. 상기 무선랜 통신부는 프로세서(210)의 제어에 의해 무선으로 AP(Access Point)와 연결될 수 있다. 상기 근거리 통신부는 프로세서(210)의 제어에 의해 외부 장치와 무선으로 근거리 통신을 할 수 있다. 근거리 통신은 블루투스(Bluetooth), 블루투스 저 에너지(Bluetooth Low Energy), 적외선 통신(IrDA: Infrared Data Association), UWB(Ultra WideBand), WiFi Direct 및 NFC(Near Field Communication) 등을 포함할 수 있다. 상기 외부 장치는 영상 서비스 등을 제공하는 서버 장치 및 모바일 단말(예: 스마트폰, 태블릿 등)을 포함할 수 있다.According to an example, the communication unit (250) may provide a wired/wireless communication interface that enables communication with an external device. The communication unit (250) may include at least one of a wired Ethernet, a wireless LAN communication unit, and a short-range communication unit. The wireless LAN communication unit may include, for example, Wi-Fi, and may support the wireless LAN standard (IEEE802.11x) of the Institute of Electrical and Electronics Engineers (IEEE). The wireless LAN communication unit may be wirelessly connected to an AP (Access Point) under the control of the processor (210). The short-range communication unit may wirelessly perform short-range communication with an external device under the control of the processor (210). Short-range communication may include Bluetooth, Bluetooth Low Energy, infrared communication (IrDA: Infrared Data Association), UWB (Ultra WideBand), WiFi Direct, and NFC (Near Field Communication). The above external devices may include server devices that provide video services, etc., and mobile terminals (e.g., smartphones, tablets, etc.).
일 예에 따르면, 프로세서(210)는 처리 회로를 포함할 수 있다. 프로세서(210)는 메모리(220)에 저장된 적어도 하나의 명령어(221)를 실행함으로써, 디스플레이 장치(200)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(210)는 중앙처리장치(CPU), 그래픽처리장치(GPU), MCU(Micro Controller Unit), 센서 허브, 보조 프로세서(Supplementary Processor), 통신 프로세서(Communication Processor), 애플리케이션 프로세서(Application Processor), ASIC(Application Specific Integrated Circuit), 또는 FPGA(Field Programmable Gate Arrays) 중 적어도 하나를 포함할 수 있으며, 복수의 코어를 가질 수 있다.According to one example, the processor (210) may include a processing circuit. The processor (210) may execute at least one instruction (221) stored in the memory (220), thereby executing calculations or data processing related to control and/or communication of at least one other component of the display device (200). The processor (210) may include at least one of a central processing unit (CPU), a graphics processing unit (GPU), a micro controller unit (MCU), a sensor hub, a supplementary processor, a communication processor, an application processor, an application specific integrated circuit (ASIC), or a field programmable gate array (FPGA), and may have multiple cores.
일 예에서, 프로세서(210)는 입력 영상에 가상 조준점(Virtual Aim Point)을 적용할 수 있다. 프로세서(210)는 상기 가상 조준점을 포함하는 관심 영역을 설정할 수 있다. 프로세서(210)는 상기 관심 영역에 대응되는 제1 이미지의 크기 또는 효과를 조정할 수 있다. 프로세서(210)는 상기 입력 영상과 상기 제1 이미지를 합성함으로써, 제2 이미지를 생성할 수 있다. 프로세서(210)는 상기 디스플레이를 통해 상기 제2 이미지를 디스플레이할 수 있다.In one example, the processor (210) may apply a virtual aim point to an input image. The processor (210) may set a region of interest including the virtual aim point. The processor (210) may adjust the size or effect of a first image corresponding to the region of interest. The processor (210) may generate a second image by synthesizing the input image and the first image. The processor (210) may display the second image through the display.
도 3은 본 개시의 일 실시예에 따른 디스플레이 장치(100)의 동작을 나타내는 순서도이다.FIG. 3 is a flowchart showing the operation of a display device (100) according to one embodiment of the present disclosure.
도 3을 참조하면, 디스플레이 장치(100)는 입력 영상 내에 가상 조준점(VAP)을 적용하고, 가상 조준점(VAP)을 포함하는 관심 영역(ROI)의 크기 또는 효과를 조정함으로써, 영상 콘텐츠에 대한 몰입도를 증가시킬 수 있다.일 예에서, 디스플레이 장치(100)는 입력 영상에 가상 조준점(VAP)을 적용(동작 310)하고, 상기 가상 조준점(VAP)을 포함하는 관심 영역(ROI)을 설정(동작 320)하고, 상기 관심 영역(ROI)에 대응되는 제1 이미지(Image1)의 크기 또는 효과를 조정(동작 330)하고, 상기 입력 영상과 상기 제1 이미지(Image1)를 합성함으로써, 제2 이미지(Image2)를 생성(동작 340)하고, 상기 디스플레이를 통해 상기 제2 이미지(Image2)를 디스플레이(동작 350)할 수 있다.Referring to FIG. 3, the display device (100) can increase immersion in video content by applying a virtual aiming point (VAP) to an input image and adjusting the size or effect of a region of interest (ROI) including the virtual aiming point (VAP). In one example, the display device (100) can apply a virtual aiming point (VAP) to an input image (operation 310), set a region of interest (ROI) including the virtual aiming point (VAP) (operation 320), adjust the size or effect of a first image (Image1) corresponding to the region of interest (ROI) (operation 330), synthesize the input image and the first image (Image1) to generate a second image (Image2) (operation 340), and display the second image (Image2) through the display (operation 350).
이하 동작 예에서, 각 동작들은 순차적으로 수행될 수 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 동작들의 순서가 변경되거나, 또는 적어도 두 동작들이 병렬적으로 수행될 수 있다.In the following example operations, the operations may be performed sequentially, but are not necessarily sequential. For example, the order of the operations may be changed, or at least two operations may be performed in parallel.
일 예에 따르면, 동작 310에서, 디스플레이 장치(100)는 입력 영상에 가상 조준점(VAP)을 적용할 수 있다. 이하, 도 4 및 5를 참조하여 디스플레이 장치(100)의 동작 310을 상세히 설명한다.As an example, in operation 310, the display device (100) may apply a virtual aiming point (VAP) to the input image. Hereinafter, operation 310 of the display device (100) will be described in detail with reference to FIGS. 4 and 5.
도 4는 본 개시의 일 실시예에 따른 디스플레이 장치(100)의 입력 영상을 나타내는 예시도이고, 도 5는 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 입력 영상에 가상 조준점(VAP)을 적용하는 동작을 나타내는 예시도이다.FIG. 4 is an exemplary diagram showing an input image of a display device (100) according to one embodiment of the present disclosure, and FIG. 5 is an exemplary diagram showing an operation of a display device (100) according to one embodiment of the present disclosure applying a virtual aiming point (VAP) to an input image.
도 4를 참조하면, 입력 영상은 적어도 하나의 객체를 포함할 수 있다. 예를 들어, 입력 영상은 FPS(First-Person Shooter) 게임을 플레이하는 실시간 영상 콘텐츠일 수 있다.Referring to FIG. 4, the input image may include at least one object. For example, the input image may be real-time video content of a First-Person Shooter (FPS) game.
디스플레이 장치(100)는 서버(2)로부터 실시간 스트리밍 방식으로 입력 영상을 수신할 수 있다. 예를 들어, 디스플레이 장치(100)는 라이브 스트리밍 방식으로 입력 영상을 출력할 수 있다. 예를 들어, 디스플레이 장치(100)는 비디오 온 디맨드(VOD) 방식으로 입력 영상을 출력할 수 있다. 예를 들어, 디스플레이 장치(100)는 압축된 입력 영상을 적어도 하나의 비디오 코덱을 이용하여 디코딩함으로써, 입력 영상에 대한 원본 영상을 출력할 수 있다.The display device (100) can receive an input image from the server (2) in a real-time streaming manner. For example, the display device (100) can output the input image in a live streaming manner. For example, the display device (100) can output the input image in a video-on-demand (VOD) manner. For example, the display device (100) can output the original image for the input image by decoding the compressed input image using at least one video codec.
도 5를 참조하면, 디스플레이 장치(100)는 복수의 객체 중 타겟을 결정하고, 타겟의 좌표에 대응하는 가상 조준점(VAP)을 적용할 수 있다.Referring to FIG. 5, the display device (100) can determine a target among a plurality of objects and apply a virtual aiming point (VAP) corresponding to the coordinates of the target.
디스플레이 장치(100)는 상기 입력 영상에 포함된 적어도 하나의 객체의 중요도에 기초하여 타겟을 결정할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상 내의 복수의 객체에 대하여 중요도를 산출할 수 있다. 예를 들어, 디스플레이 장치(100)는 복수의 객체의 중요도 순으로 객체에 대한 우선순위를 설정할 수 있다. 예를 들어, 디스플레이 장치(100)는 우선순위가 가장 높은 객체를 게임 내 타겟으로 판단할 수 있다. The display device (100) can determine a target based on the importance of at least one object included in the input image. For example, the display device (100) can calculate the importance of multiple objects within the input image. For example, the display device (100) can set priorities for the objects based on the importance of the multiple objects. For example, the display device (100) can determine the object with the highest priority as the target within the game.
디스플레이 장치(100)는 타겟의 좌표를 산출함으로써, 상기 입력 영상 내의 상기 가상 조준점(VAP)의 위치를 결정할 수 있다. 예를 들어, 가상 조준점(VAP)의 위치는 상기 타겟의 좌표로부터 소정의 거리 이내에서 결정될 수 있다. 디스플레이 장치(100)는 가상 조준점(VAP)을 그래픽 오버레이 방식으로 입력 영상에 디스플레이할 수 있다. 디스플레이 장치(100)는 가상 조준점(VAP)의 색상, 크기, 또는 밝기 중 적어도 하나를 조정할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상의 영상 특성에 기초하여, 사용자가 가상 조준점(VAP)을 쉽게 인지할 수 있도록 가상 조준점(VAP)의 색상, 크기, 또는 밝기 중 적어도 하나를 조정할 수 있다.The display device (100) can determine the position of the virtual aiming point (VAP) within the input image by calculating the coordinates of the target. For example, the position of the virtual aiming point (VAP) can be determined within a predetermined distance from the coordinates of the target. The display device (100) can display the virtual aiming point (VAP) on the input image in a graphic overlay manner. The display device (100) can adjust at least one of the color, size, or brightness of the virtual aiming point (VAP). For example, the display device (100) can adjust at least one of the color, size, or brightness of the virtual aiming point (VAP) based on the image characteristics of the input image so that a user can easily recognize the virtual aiming point (VAP).
도 6은 본 개시의 일 실시예에 따른 디스플레이 장치가 입력 영상의 영상 특성을 분석하고, 분석에 기초하여 가상 조준점을 적용하는 동작을 나타내는 예시도이다.FIG. 6 is an exemplary diagram showing an operation of a display device according to one embodiment of the present disclosure analyzing image characteristics of an input image and applying a virtual aiming point based on the analysis.
일 실시예에서, 디스플레이 장치는 입력 영상의 특성을 분석하고, 입력 영상 특성에 기초하여 가상 조준점(VAP)을 적용할 수 있다. 예를 들어, 도 6에서 보듯이, 디스플레이 장치(100)는 입력 영상의 영상 특성을 분석할 수 있다. 디스플레이 장치(100)는 입력 영상에서 개별 프레임을 추출할 수 있다. 예를 들어, 디스플레이 장치(100)는 추출된 개별 프레임에 기초하여, 입력 영상의 영상 특성을 분석할 수 있다.In one embodiment, the display device can analyze the characteristics of an input image and apply a virtual aiming point (VAP) based on the characteristics of the input image. For example, as shown in FIG. 6, the display device (100) can analyze the image characteristics of the input image. The display device (100) can extract individual frames from the input image. For example, the display device (100) can analyze the image characteristics of the input image based on the extracted individual frames.
디스플레이 장치(100)는 인공지능 모델(예: 딥러닝 모델)을 이용하여 상기 입력 영상의 적어도 하나의 객체를 식별할 수 있다. 예를 들어, 디스플레이 장치(100)는 딥러닝 모델을 이용하여 입력 영상 내의 적 캐릭터, 목표물, 또는 환경 요소 중 적어도 하나를 포함하는 주요 객체를 식별할 수 있다. 예를 들어, 디스플레이 장치(100)는 객체 인식을 위해 사전 훈련된 CNN(Convolutional Neural Network) 또는 YOLO(You Only Look Once)과 같은 딥러닝 모델을 사용할 수 있다. 디스플레이 장치(100)는 객체의 경계를 추출함으로써, 적어도 하나의 객체가 차지하는 영역을 정확하게 판단할 수 있다. 예를 들어, 복수의 객체들 중 적어도 하나는 게임 내 조준 대상이 되는 타겟일 수 있다.The display device (100) can identify at least one object in the input image using an artificial intelligence model (e.g., a deep learning model). For example, the display device (100) can identify a key object including at least one enemy character, target, or environmental element in the input image using the deep learning model. For example, the display device (100) can use a deep learning model such as a pre-trained CNN (Convolutional Neural Network) or YOLO (You Only Look Once) for object recognition. The display device (100) can accurately determine an area occupied by at least one object by extracting the boundary of the object. For example, at least one of the plurality of objects may be a target that is an aiming target in a game.
디스플레이 장치(100)는 동작 추적 알고리즘을 이용하여 상기 적어도 하나의 객체의 동작을 판단할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상 내의 객체의 동작을 추적함으로써, 객체의 이동 방향과 속도를 판단할 수 있다. 디스플레이 장치(100)는 객체의 이동 방향과 속도에 기초하여, 객체의 행동 패턴을 인식할 수 있다. 예를 들어, 디스플레이 장치(100)는 Optical Flow 또는 Kalman Filter과 같은 동작 추적 알고리즘을 이용할 수 있다. 디스플레이 장치(100)는 적어도 하나의 객체의 행동 패턴을 분석함으로써, 객체의 게임 내 동작을 판단할 수 있다.The display device (100) can determine the motion of at least one object using a motion tracking algorithm. For example, the display device (100) can determine the direction and speed of movement of the object by tracking the motion of the object in the input image. The display device (100) can recognize the behavior pattern of the object based on the direction and speed of movement of the object. For example, the display device (100) can use a motion tracking algorithm such as Optical Flow or Kalman Filter. The display device (100) can determine the in-game motion of the object by analyzing the behavior pattern of the at least one object.
디스플레이 장치(100)는 상기 입력 영상의 밝기, 색상, 또는 대비 중 적어도 하나를 포함하는 배경 특성을 획득할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상의 평균 밝기를 산출하고, 배경의 서브 영역별 밝기 특성을 분석할 수 있다. 예를 들어, 디스플레이 장치(100)는 배경을 구성하는 주요 색상을 추출하고, 배경의 색상 특성을 분석할 수 있다. 예를 들어, 디스플레이 장치(100)는 배경과 객체 사이의 대비를 분석할 수 있다.The display device (100) can acquire background characteristics including at least one of brightness, color, or contrast of the input image. For example, the display device (100) can calculate the average brightness of the input image and analyze the brightness characteristics of each sub-region of the background. For example, the display device (100) can extract the main colors constituting the background and analyze the color characteristics of the background. For example, the display device (100) can analyze the contrast between the background and an object.
일 실시예에서, 디스플레이 장치(100)는 적어도 하나의 객체의 위치, 상기 적어도 하나의 객체의 동작, 또는 상기 배경 특성 중 적어도 하나에 기초하여 가상 조준점을 적용할 수 있다.In one embodiment, the display device (100) can apply a virtual aiming point based on at least one of the position of at least one object, the motion of the at least one object, or the background characteristics.
디스플레이 장치는 도 5에 도시된 바와 같이, 입력 영상에 대하여 미리 설정된 값에 기초하여 가상 조준점(VAP)을 설정할 수도 있고, 도 6에 도시된 바와 같이, 입력 영상에 대한 분석에 기초하여, 가상 조준점(VAP)을 설정할 수도 있다.The display device may set a virtual aiming point (VAP) based on a preset value for the input image, as illustrated in FIG. 5, or may set a virtual aiming point (VAP) based on analysis of the input image, as illustrated in FIG. 6.
일 예에 따르면, 동작 330에서, 디스플레이 장치(100)는 상기 가상 조준점(VAP)을 포함하는 관심 영역(ROI)을 설정할 수 있다. 이하, 도 7 및 8을 참조하여 디스플레이 장치(100)의 동작 330을 상세히 설명한다.According to an example, in operation 330, the display device (100) can set a region of interest (ROI) including the virtual aiming point (VAP). Hereinafter, operation 330 of the display device (100) will be described in detail with reference to FIGS. 7 and 8.
도 7은 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 관심 영역(ROI)을 설정하는 동작을 나타내는 예시도이다.FIG. 7 is an exemplary diagram showing an operation of a display device (100) according to one embodiment of the present disclosure to set a region of interest (ROI).
도 7을 참조하면, 관심 영역(ROI)은 입력 영상 내에서 중요도가 높은 영역으로, 가상 조준점(VAP)을 기준으로 결정될 수 있다. 예를 들어, 상기 관심 영역(ROI)은 상기 가상 조준점(VAP)을 중심으로 하는 소정의 형상을 가지고, 타겟의 일부 또는 전부를 포함할 수 있다.Referring to Figure 7, a region of interest (ROI) is an area of high importance within an input image, which may be determined based on a virtual aiming point (VAP). For example, the region of interest (ROI) may have a predetermined shape centered around the virtual aiming point (VAP) and may include part or all of a target.
디스플레이 장치(100)는 소정의 크기 및 소정의 형상을 가지는 관심 영역(ROI)을 설정할 수 있다. 예를 들어, 관심 영역(ROI)의 크기 및 형상은 사용자의 설정에 기초하여 결정될 수 있다. 예를 들어, 관심 영역(ROI)의 크기 및 형상은 입력 영상의 영상 특성에 기초하여 자동으로 결정될 수 있다.The display device (100) can set a region of interest (ROI) having a predetermined size and shape. For example, the size and shape of the region of interest (ROI) can be determined based on a user's settings. For example, the size and shape of the region of interest (ROI) can be automatically determined based on the image characteristics of the input image.
디스플레이 장치(100)는 타겟의 크기, 중요도, 또는 입력 영상 내에서 위치 중 적어도 하나에 기초하여, 관심 영역(ROI)의 크기를 조정할 수 있다. 예를 들어, 디스플레이 장치(100)는 타겟의 크기에 비례하여 관심 영역(ROI)의 크기를 증가시킬 수 있다. 예를 들어, 디스플레이 장치(100)는 타겟의 중요도에 비례하여 관심 영역(ROI)의 크기를 증가시킬 수 있다.The display device (100) can adjust the size of the region of interest (ROI) based on at least one of the size, importance, or location of the target within the input image. For example, the display device (100) can increase the size of the region of interest (ROI) in proportion to the size of the target. For example, the display device (100) can increase the size of the region of interest (ROI) in proportion to the importance of the target.
디스플레이 장치(100)는 타겟의 형상 또는 사용자의 설정에 기초하여, 관심 영역(ROI)의 형상을 조정할 수 있다. 예를 들어, 디스플레이 장치(100)는 타겟의 형상과 유사한 형상으로 관심 영역(ROI)을 설정할 수 있다. 예를 들어, 디스플레이 장치(100)는 사용자의 설정에 기초하여, 원형으로 관심 영역(ROI)을 설정할 수 있다.The display device (100) can adjust the shape of the region of interest (ROI) based on the shape of the target or the user's settings. For example, the display device (100) can set the region of interest (ROI) to a shape similar to the shape of the target. For example, the display device (100) can set the region of interest (ROI) to a circle based on the user's settings.
도 8은 본 개시의 일 실시예에 따른 가상 조준점(VAP) 이동에 따른 관심 영역(ROI)의 변경을 나타내는 도면이다.FIG. 8 is a diagram illustrating a change in a region of interest (ROI) according to movement of a virtual aiming point (VAP) according to one embodiment of the present disclosure.
도 8을 참조하면, 디스플레이 장치(100)는 가상 조준점(VAP)의 변경에 기초하여 관심 영역(ROI)을 변경할 수 있다. 예를 들어, 디스플레이 장치(100)는 상기 입력 영상 내에서 타겟의 위치 변경에 기초하여 상기 가상 조준점(VAP)의 위치를 변경할 수 있다. 예를 들어, 디스플레이 장치(100)는 상기 가상 조준점(VAP)의 위치가 변경됨에 기초(예: 대응)하여, 상기 관심 영역(ROI)을 변경할 수 있다. Referring to FIG. 8, the display device (100) can change the region of interest (ROI) based on a change in the virtual aiming point (VAP). For example, the display device (100) can change the position of the virtual aiming point (VAP) based on a change in the position of the target within the input image. For example, the display device (100) can change the region of interest (ROI) based on (e.g., in response to) a change in the position of the virtual aiming point (VAP).
일 실시예에서, 디스플레이 장치(100)는 가상 조준점(VAP)의 위치가 변경되는 경우, 관심 영역(ROI)의 위치, 관심 영역(ROI)의 크기, 또는 관심 영역(ROI)의 형상 중 적어도 하나를 변경할 수 있다. 예를 들어, 입력 영상 내에서 타겟의 위치가 변경되는 경우, 타겟의 변경 전 위치에 대응되는 제1 가상 조준점(VAP1)이 타겟의 변경 후 위치에 대응되는 제2 가상 조준점(VAP2)으로 변경될 수 있다. 예를 들어, 제1 가상 조준점(VAP1)이 제2 가상 조준점(VAP2)으로 변경되는 경우, 디스플레이 장치(100)는 관심 영역(ROI)의 위치를 제1 관심 영역(ROI1)의 위치에서, 제2 관심 영역(ROI2)의 위치로 변경할 수 있다.In one embodiment, when the position of the virtual aiming point (VAP) changes, the display device (100) can change at least one of the position of the region of interest (ROI), the size of the region of interest (ROI), or the shape of the region of interest (ROI). For example, when the position of a target in an input image changes, a first virtual aiming point (VAP1) corresponding to the position of the target before the change may change to a second virtual aiming point (VAP2) corresponding to the position of the target after the change. For example, when the first virtual aiming point (VAP1) changes to the second virtual aiming point (VAP2), the display device (100) can change the position of the region of interest (ROI) from the position of the first region of interest (ROI1) to the position of the second region of interest (ROI2).
일 예에 따르면, 동작 340에서, 디스플레이 장치(100)는 상기 관심 영역(ROI)에 대응되는 제1 이미지(Image1)의 크기 또는 효과를 조정할 수 있다. 이하, 도 9a 내지 9c를 참조하여 디스플레이 장치(100)의 동작 340을 상세히 설명한다.For example, in operation 340, the display device (100) can adjust the size or effect of the first image (Image1) corresponding to the region of interest (ROI). Hereinafter, operation 340 of the display device (100) will be described in detail with reference to FIGS. 9A to 9C.
도 9a 내지 9c는 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 제1 이미지(Image1)의 크기 또는 효과를 조정하는 동작을 나타내는 예시도이다.FIGS. 9A to 9C are exemplary diagrams showing an operation of a display device (100) according to one embodiment of the present disclosure to adjust the size or effect of a first image (Image1).
도 9a 내지 9c를 참조하면, 디스플레이 장치(100)는 관심 영역(ROI)에 대응되는 제1 이미지(Image1)의 크기 또는 효과를 조정할 수 있다. 예를 들어, 디스플레이 장치(100)는 상기 제1 이미지(Image1)에 대한 확대, 축소, 샤프닝, 블러링, 콘트라스트 조정, 색상 조정, 또는 왜곡 필터 적용 중 적어도 하나를 수행할 수 있다.Referring to FIGS. 9A to 9C, the display device (100) can adjust the size or effect of the first image (Image1) corresponding to the region of interest (ROI). For example, the display device (100) can perform at least one of enlargement, reduction, sharpening, blurring, contrast adjustment, color adjustment, or distortion filter application to the first image (Image1).
도 9a에서 보듯이, 디스플레이 장치(100)는 제1 이미지(예. Image1a)에 대한 확대 또는 축소 중 적어도 하나를 수행할 수 있다. 디스플레이 장치(100)는 가상 조준점(VAP)을 중심으로 설정된 관심 영역(ROI) 내의 이미지를 확대하여, 타겟에 대한 시인성을 증가시킬 수 있다. 예를 들어, 사용자는 FPS 게임에서 적 캐릭터를 조준할 때, 확대된 제1 이미지(예. Image1b)를 이용하여 적의 세부 사항을 쉽게 인식할 수 있다. 예를 들어, 사용자는 FPS 게임에서 더 넓은 시야를 확보해야 하는 경우, 축소된 제1 이미지(Image1)를 이용하여 적 캐릭터를 쉽게 찾을 수 있다.As shown in FIG. 9A, the display device (100) can perform at least one of zooming in and zooming out on a first image (e.g., Image1a). The display device (100) can zoom in on an image within a region of interest (ROI) set around a virtual aiming point (VAP) to increase visibility of the target. For example, when aiming at an enemy character in an FPS game, the user can easily recognize details of the enemy using the zoomed-in first image (e.g., Image1b). For example, when a user needs to secure a wider field of view in an FPS game, the user can easily find the enemy character using the zoomed-out first image (Image1).
도 9b에서 보듯이, 디스플레이 장치(100)는 제1 이미지(예. Image1a)에 대한 블러링, 콘트라스트 조정, 또는 색상 조정 중 적어도 하나를 수행할 수 있다. 디스플레이 장치(100)는 관심 영역(ROI) 내의 이미지를 더 명확하게 표현하기 위해 다양한 이미지 필터를 적용할 수 있다. 예를 들어, 디스플레이 장치(100)는 블러링 필터를 적용하여 관심 영역(ROI) 외부의 배경을 흐리게 처리함으로써, 사용자의 주의를 가상 조준점(VAP)으로 집중시킬 수 있다. 예를 들어, 디스플레이 장치(100)는 콘트라스트 조정을 통해 관심 영역(ROI) 내의 제1 이미지(예. Image1c)의 대비를 증가시킴으로써, 타겟이 더 잘 보이도록 할 수 있다. 예를 들어, 디스플레이 장치(100)는 색상 조정 필터를 사용하여 특정 색상을 강조하거나 변환함으로써, 입력 영상 내의 타겟이 배경과 확연히 구분되도록 할 수 있다.As shown in FIG. 9B, the display device (100) can perform at least one of blurring, contrast adjustment, or color adjustment on the first image (e.g., Image1a). The display device (100) can apply various image filters to more clearly express the image within the region of interest (ROI). For example, the display device (100) can apply a blurring filter to blur the background outside the region of interest (ROI), thereby focusing the user's attention on the virtual aiming point (VAP). For example, the display device (100) can increase the contrast of the first image (e.g., Image1c) within the region of interest (ROI) through contrast adjustment, thereby making the target more visible. For example, the display device (100) can use a color adjustment filter to emphasize or convert a specific color, thereby making the target within the input image clearly distinguishable from the background.
도 9c에서 보듯이, 디스플레이 장치(100)는 제1 이미지(예. Image1a)에 대한 왜곡 필터 적용을 수행할 수 있다. 예를 들어, 디스플레이 장치(100)는 가상 조준점(VAP) 주변의 관심 영역(ROI)에 왜곡 필터를 적용하여 특정 시각적 효과를 제공할 수 있다. 예를 들어, 디스플레이 장치(100)는 제1 이미지(예. Image1a)에 대하여 피쉬아이 렌즈 효과를 적용할 수 있다. 피쉬아이 렌즈 효과가 적용된 제1 이미지(예. Image1d)의 경우, 관심 영역(ROI)의 중심부가 확대되고 주변부가 왜곡됨에 따라, 관심 영역(ROI)의 중심부에 대응되는 타겟이 더 강조될 수 있다. 예를 들어, 디스플레이 장치(100)는 제1 이미지(Image1)에 대하여 원근 왜곡 필터를 적용할 수 있다. 제1 이미지(Image1)에 원근 왜곡 필터가 적용되는 경우, 관심 영역(ROI)의 특정 방향의 시각적 깊이가 강조됨에 따라, 사용자의 조준 편의성이 증가할 수 있다.As shown in FIG. 9c, the display device (100) can apply a distortion filter to the first image (e.g., Image1a). For example, the display device (100) can provide a specific visual effect by applying the distortion filter to a region of interest (ROI) around a virtual aiming point (VAP). For example, the display device (100) can apply a fish-eye lens effect to the first image (e.g., Image1a). In the case of the first image (e.g., Image1d) to which the fish-eye lens effect is applied, as the center of the region of interest (ROI) is enlarged and the periphery is distorted, a target corresponding to the center of the region of interest (ROI) can be further emphasized. For example, the display device (100) can apply a perspective distortion filter to the first image (Image1). When the perspective distortion filter is applied to the first image (Image1), the user's aiming convenience can be increased as the visual depth in a specific direction of the region of interest (ROI) is emphasized.
일 예에 따르면, 동작 350에서, 디스플레이 장치(100)는 상기 입력 영상과 상기 제1 이미지(Image1)를 합성함으로써, 제2 이미지(Image2)를 생성할 수 있다. 일 예에 따르면, 동작 360에서, 디스플레이 장치(100)는 상기 디스플레이를 통해 상기 제2 이미지(Image2)를 디스플레이할 수 있다. 이하, 도 10a 및 10b를 참조하여 디스플레이 장치(100)의 동작 350 및 동작 360을 상세히 설명한다.In one example, in operation 350, the display device (100) can generate a second image (Image2) by synthesizing the input image and the first image (Image1). In one example, in operation 360, the display device (100) can display the second image (Image2) through the display. Hereinafter, operations 350 and 360 of the display device (100) will be described in detail with reference to FIGS. 10a and 10b.
도 10a 및 10b는 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 생성한 제2 이미지(Image2)를 나타내는 예시도이다.FIGS. 10A and 10B are exemplary diagrams showing a second image (Image2) generated by a display device (100) according to one embodiment of the present disclosure.
도 10a 및 10b를 참조하면, 디스플레이 장치(100)는 입력 영상과 제1 이미지(Image1)를 합성함으로써 제2 이미지(Image2)를 생성하고, 제2 이미지(Image2)를 디스플레이할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상 상에 합성할 제1 이미지(Image1)의 위치 및 크기를 결정할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상의 소정의 영역에 제1 이미지(Image1)를 그래픽 오버레이 방식으로 합성할 수 있다. 예를 들어, 디스플레이 장치(100)는 제1 이미지(Image1)와 입력 영상을 부드럽게 합성하기 위하여 알파 블렌딩 기법을 사용할 수 있다. 디스플레이 장치(100)는 입력 영상에 제1 이미지(Image1)가 합성된 제2 이미지(Image2)를 생성할 수 있다.Referring to FIGS. 10A and 10B , the display device (100) can generate a second image (Image2) by synthesizing an input image and a first image (Image1), and display the second image (Image2). For example, the display device (100) can determine the position and size of the first image (Image1) to be synthesized on the input image. For example, the display device (100) can synthesize the first image (Image1) on a predetermined area of the input image in a graphic overlay manner. For example, the display device (100) can use an alpha blending technique to smoothly synthesize the first image (Image1) and the input image. The display device (100) can generate a second image (Image2) in which the first image (Image1) is synthesized on the input image.
디스플레이 장치(100)는 제2 이미지(Image2)를 디스플레이할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상에 제1 이미지(Image1)가 합성된 제2 이미지(Image2)에 대한 해상도, 밝기, 또는 대비 중 적어도 하나를 조정할 수 있다. 예를 들어, 도 10a에서 보듯이, 제2 이미지(Image2a)는 사각형의 관심 영역(ROI)에 대응되는 제1 이미지(Image1)가 확대되어 입력 영상에 그래픽 오버레이 방식으로 합성된 이미지일 수 있다. 예를 들어, 도 10b에서 보듯이, 제2 이미지(Image2b)는 원형의 관심 영역(ROI)에 대응되는 제1 이미지(Image1)가 확대되어 입력 영상에 그래픽 오버레이 방식으로 합성된 이미지일 수 있다.The display device (100) can display a second image (Image2). For example, the display device (100) can adjust at least one of the resolution, brightness, or contrast of the second image (Image2) obtained by synthesizing the first image (Image1) onto the input image. For example, as shown in FIG. 10a, the second image (Image2a) may be an image obtained by synthesizing the first image (Image1) corresponding to a rectangular region of interest (ROI) onto the input image in an enlarged manner using a graphic overlay. For example, as shown in FIG. 10b, the second image (Image2b) may be an image obtained by synthesizing the first image (Image1) corresponding to a circular region of interest (ROI) onto the input image in an enlarged manner using a graphic overlay.
일 실시예에서, 디스플레이 장치(100)는 입력 영상에 가상 조준점(VAP)을 적용하고, 가상 조준점(VAP)을 중심으로 하는 관심 영역(ROI)의 크기 또는 효과를 조정한 이미지를 디스플레이할 수 있다. 디스플레이 장치(100)는 게임 플레이의 조준 정확도를 증가시킴으로써, 영상 콘텐츠에 대한 몰입감과 사용자 만족도를 향상시킬 수 있다.In one embodiment, the display device (100) can apply a virtual aiming point (VAP) to an input image and display an image with the size or effect of a region of interest (ROI) centered around the virtual aiming point (VAP) adjusted. The display device (100) can enhance the immersion and user satisfaction with video content by increasing the aiming accuracy of game play.
일 실시예에서, 디스플레이 장치(100)는 입력 영상에 내장된 가상 조준점(VAP)을 감지함으로써, 가상 조준점(VAP)의 중복 적용을 방지하고, 입력 영상의 이동 방향 또는 이동 속도에 기초하여 조정된 영상의 크기 또는 효과를 변경할 수 있다. 디스플레이 장치(100)는 디스플레이 환경에 맞는 유연한 화면 구성을 제공하고, 게임 플레이에 실시간으로 최적화된 영상 콘텐츠를 제공할 수 있다.In one embodiment, the display device (100) detects a virtual aiming point (VAP) embedded in an input image, thereby preventing the redundant application of the virtual aiming point (VAP) and changing the size or effect of the adjusted image based on the movement direction or movement speed of the input image. The display device (100) can provide a flexible screen configuration suitable for the display environment and provide image content optimized for game play in real time.
도 11는 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 제1 이미지(Image1)의 크기 또는 효과를 변경하는 동작을 나타내는 순서도이다.FIG. 11 is a flowchart showing an operation of changing the size or effect of a first image (Image1) by a display device (100) according to one embodiment of the present disclosure.
도 11을 참조하면, 디스플레이 장치(100)는 상기 입력 영상의 이동 방향 및 이동 속도 중 적어도 하나를 감지(동작 1110)하고, 상기 이동 방향 및 상기 이동 속도 중 적어도 하나에 기초하여, 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과를 변경(동작 1120)할 수 있다.Referring to FIG. 11, the display device (100) can detect at least one of a movement direction and a movement speed of the input image (operation 1110), and change the size or the effect of the first image (Image1) based on at least one of the movement direction and the movement speed (operation 1120).
일 예에 따르면, 동작 1110에서, 디스플레이 장치(100)는 상기 입력 영상의 이동 방향 및 이동 속도 중 적어도 하나를 감지할 수 있다. 디스플레이 장치(100)는 연속된 프레임을 추출하고, 프레임별 화면 변경을 인식할 수 있다. 예를 들어, 디스플레이 장치(100)는 각 프레임에서 주요 객체의 위치 및 형태를 식별할 수 있다.For example, in operation 1110, the display device (100) can detect at least one of the movement direction and movement speed of the input image. The display device (100) can extract consecutive frames and recognize screen changes for each frame. For example, the display device (100) can identify the location and shape of a key object in each frame.
디스플레이 장치(100)는 객체의 이동 방향을 분석함으로써, 입력 영상의 이동 방향을 판단할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상의 이동 방향을 전방 또는 후방으로 판단할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상의 이동 방향을 수평 방향 또는 수직 방향으로 판단할 수 있다.The display device (100) can determine the direction of movement of an input image by analyzing the direction of movement of an object. For example, the display device (100) can determine the direction of movement of the input image as forward or backward. For example, the display device (100) can determine the direction of movement of the input image as horizontal or vertical.
디스플레이 장치(100)는 연속된 프레임에서 객체의 위치 변화를 산출함으로써, 이동 거리를 산출할 수 있다. 예를 들어, 디스플레이 장치(100)는 단위 시간 당 이동 거리(예. 픽셀 수)를 기준으로, 입력 영상의 이동 속도를 산출할 수 있다.The display device (100) can calculate the movement distance by calculating the change in the position of an object in consecutive frames. For example, the display device (100) can calculate the movement speed of an input image based on the movement distance per unit time (e.g., number of pixels).
일 예에 따르면, 동작 1120에서, 디스플레이 장치(100)는 상기 이동 방향 및 상기 이동 속도 중 적어도 하나에 기초하여, 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과를 변경(또는 조정)할 수 있다. 디스플레이 장치(100)는 입력 영상이 전방 또는 후방으로 이동함에 기반하여, 입력 영상의 이동 속도에 기초하여 제1 이미지의 크기 또는 효과를 변경(또는 조정)하도록 야기할 수 있다. 디스플레이 장치(100)는 입력 영상이 수평 방향 또는 수직 방향으로 이동함에 기반하여, 상기 이동 속도에 기초하여 상기 제1 이미지의 크기 또는 효과를 변경(또는 조정)하도록 야기할 수 있다. 이하, 도 12 및 13을 참조하여 디스플레이 장치(100)의 동작 1110을 예시적으로 설명한다.For example, in operation 1120, the display device (100) may change (or adjust) the size or the effect of the first image (Image1) based on at least one of the movement direction and the movement speed. The display device (100) may cause the size or effect of the first image to be changed (or adjusted) based on the movement speed of the input image based on whether the input image moves forward or backward. The display device (100) may cause the size or effect of the first image to be changed (or adjusted) based on the movement speed based on whether the input image moves in a horizontal direction or a vertical direction. Hereinafter, operation 1110 of the display device (100) will be exemplarily described with reference to FIGS. 12 and 13.
도 12는 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 이동 방향 및 이동 속도에 따라 제1 이미지(Image1)의 크기를 변경하는 동작을 나타내는 예시도이다.FIG. 12 is an exemplary diagram showing an operation of a display device (100) according to one embodiment of the present disclosure to change the size of a first image (Image1) according to a movement direction and movement speed.
도 12를 참조하면, 디스플레이 장치(100)는 입력 영상이 전방 또는 후방으로 이동하는 경우, 입력 영상의 이동 속도에 기초하여 상기 제1 이미지(Image1)의 크기를 변경할 수 있다. 예를 들어, 입력 영상의 이동 방향은 Z축 방향(예. D1)일 수 있다. Referring to FIG. 12, the display device (100) can change the size of the first image (Image1) based on the movement speed of the input image when the input image moves forward or backward. For example, the movement direction of the input image may be the Z-axis direction (e.g., D1).
예를 들어, 디스플레이 장치(100)는 입력 영상이 전방(예. D1)으로 이동하는 경우, 타겟과 거리가 가까워지므로, 제1 이미지(Image1)의 크기를 축소시킬 수 있다. 디스플레이 장치(100)는 입력 영상이 전방(예. D1)으로 이동하는 경우, 확대된 제1 이미지(Image1)를 원본 영상으로 변경할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상이 후방으로 이동하는 경우, 타겟과 거리가 멀어지므로, 제1 이미지(Image1)의 크기를 확대시킬 수 있다. 예를 들어, 디스플레이 장치(100)는 이동 속도에 기초(예: 비례)하여 제1 이미지(Image1)의 크기를 축소 또는 확대시킬 수 있다.For example, when the input image moves forward (e.g., D1), the display device (100) can reduce the size of the first image (Image1) because the distance from the target becomes closer. When the input image moves forward (e.g., D1), the display device (100) can change the enlarged first image (Image1) into the original image. For example, when the input image moves backward, the display device (100) can enlarge the size of the first image (Image1) because the distance from the target becomes farther. For example, the display device (100) can reduce or enlarge the size of the first image (Image1) based on (e.g., proportionally) the movement speed.
도 13은 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 이동 방향 및 이동 속도에 따라 제1 이미지(Image1)의 효과를 변경하는 동작을 나타내는 예시도이다.FIG. 13 is an exemplary diagram showing an operation of a display device (100) according to one embodiment of the present disclosure to change the effect of a first image (Image1) according to a movement direction and movement speed.
도 13을 참조하면, 디스플레이 장치(100)는 입력 영상이 수평 방향 또는 수직 방향으로 이동하는 경우, 제1 이미지(예. Image1e)의 효과를 조정할 수 있다. 예를 들어, 입력 영상의 이동 방향은 X축 방향(예. D2) 또는 Y축 방향일 수 있다. Referring to FIG. 13, the display device (100) can adjust the effect of the first image (e.g., Image1e) when the input image moves in the horizontal or vertical direction. For example, the movement direction of the input image can be the X-axis direction (e.g., D2) or the Y-axis direction.
예를 들어, 디스플레이 장치(100)는 입력 영상이 수평 방향 또는 수직 방향으로 이동하는 경우, 화면 이동에 따라 타겟에 대한 시인성이 낮아질 수 있으므로, 제1 이미지(예. Image1e)의 크기를 확대할 수 있다. 디스플레이 장치(100)는 제1 이미지(예. Image1e)를 설정된 배율로 확대할 수 있다. 디스플레이 장치(100)는 확대된 제1 이미지(예. Image1f)가 선명하게 디스플레이될 수 있게 제1 이미지(예. Image1f)의 화질을 조정할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상이 수평 방향 또는 수직 방향으로 이동하는 경우, 제1 이미지(예. Image1e)의 효과를 조정(또는 변경)하여 강조된 제1 이미지(예. Image1f)를 획득할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상이 수평 방향(예. D2)으로 이동하는 경우, 콘트라스트 또는 색상을 조정함으로써, 이동 방향을 강조할 수 있다. 예를 들어, 디스플레이 장치(100)는 이동 속도에 비례하여 제1 이미지(예. Image1f)의 효과를 강화할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상이 수직 방향으로 이동하는 경우, 블러링 또는 샤프닝 효과를 조정함으로써, 움직임을 부드럽게 표현할 수 있다. For example, when an input image moves in a horizontal or vertical direction, the display device (100) can enlarge the size of the first image (e.g., Image1e) because the visibility of the target may decrease as the screen moves. The display device (100) can enlarge the first image (e.g., Image1e) at a set magnification. The display device (100) can adjust the image quality of the first image (e.g., Image1f) so that the enlarged first image (e.g., Image1f) can be displayed clearly. For example, when an input image moves in a horizontal or vertical direction, the display device (100) can adjust (or change) the effect of the first image (e.g., Image1e) to obtain an emphasized first image (e.g., Image1f). For example, when an input image moves in a horizontal direction (e.g., D2), the display device (100) can emphasize the movement direction by adjusting the contrast or color. For example, the display device (100) can enhance the effect of the first image (e.g., Image1f) in proportion to the movement speed. For example, when the input image moves in the vertical direction, the display device (100) can smoothly express the movement by adjusting the blurring or sharpening effect.
도 14a 내지 14c는 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 제1 이미지(Image1)를 디스플레이하는 다양한 방식을 나타내는 도면이다. FIGS. 14A to 14C are drawings showing various ways in which a display device (100) according to one embodiment of the present disclosure displays a first image (Image1).
도 14a 내지 14c를 참조하면, 본 개시의 디스플레이 장치(100)는 관심 영역(ROI)에 대응하는 제1 이미지(Image1)를 다양한 위치에 디스플레이할 수 있다. 예를 들어, 디스플레이 장치(100)는 상기 제1 이미지(Image1)를 비표시 영역(non-display area, nda)에 디스플레이할 수 있다. 예를 들어, 디스플레이 장치(100)는 제1 이미지(Image1)를 pip(picture-in-picture) 방식으로 디스플레이할 수 있다.Referring to FIGS. 14A to 14C , the display device (100) of the present disclosure can display a first image (Image1) corresponding to a region of interest (ROI) at various locations. For example, the display device (100) can display the first image (Image1) in a non-display area (nda). For example, the display device (100) can display the first image (Image1) in a picture-in-picture (PIP) manner.
예를 들어, 도 14a에서 보듯이, 디스플레이 장치(100)는 디스플레이 장치(100)의 지원 해상도와 입력 영상의 해상도 차이에 따라, 표시 영역의 좌측 또는 우측에 비표시 영역(nda)을 포함할 수 있다. 디스플레이 장치(100)는 영상 콘텐츠가 디스플레이되지 않는 좌측 또는 우측의 비표시 영역(nda)에 제1 이미지(Image1)를 디스플레이할 수 있다.For example, as shown in FIG. 14a, the display device (100) may include a non-display area (nda) on the left or right side of the display area, depending on the difference between the supported resolution of the display device (100) and the resolution of the input image. The display device (100) may display the first image (Image1) on the non-display area (nda) on the left or right side where no image content is displayed.
예를 들어, 도 14b에서 보듯이, 디스플레이 장치(100)는 디스플레이 장치(100)의 지원 해상도와 입력 영상의 해상도 차이에 따라, 표시 영역의 상단 또는 하단에 비표시 영역(nda)을 포함할 수 있다. 디스플레이 장치(100)는 영상 콘텐츠가 디스플레이되지 않는 상단 또는 하단의 비표시 영역(nda)에 제1 이미지(Image1)를 디스플레이할 수 있다.For example, as shown in FIG. 14b, the display device (100) may include a non-display area (nda) at the top or bottom of the display area, depending on the difference between the supported resolution of the display device (100) and the resolution of the input image. The display device (100) may display the first image (Image1) in the non-display area (nda) at the top or bottom where no image content is displayed.
예를 들어, 도 14c에서 보듯이, 디스플레이 장치(100)는 pip 방식으로, 입력 영상을 디스플레이하는 주화면 내에서 제1 이미지(Image1)를 디스플레이하는 부화면을 출력할 수 있다. 디스플레이 장치(100)는 제1 이미지(Image1)를 디스플레이하는 부화면의 위치 및 크기를 변경할 수 있다. 예를 들어, 디스플레이 장치(100)는 사용자 설정에 기초하여, 제1 이미지(Image1)를 디스플레이하는 부화면의 위치를 변경하거나, 크기를 조정할 수 있다.For example, as shown in FIG. 14c, the display device (100) can output a sub-screen displaying a first image (Image1) within a main screen displaying an input image in a pip manner. The display device (100) can change the position and size of the sub-screen displaying the first image (Image1). For example, the display device (100) can change the position or adjust the size of the sub-screen displaying the first image (Image1) based on user settings.
도 15는 입력 영상 내에 내장 가상 조준점(EVAP)이 존재하는 경우, 본 개시의 일 실시예에 따른 디스플레이 장치(100)의 동작을 나타내는 순서도이다.FIG. 15 is a flowchart illustrating the operation of a display device (100) according to one embodiment of the present disclosure when an embedded virtual aiming point (EVAP) exists in an input image.
도 15를 참조하면, 디스플레이 장치(100)는 상기 입력 영상에 포함된 내장 가상 조준점(Embedded Virtual Aim Point, EVAP)을 감지(동작 1510)하고, 상기 내장 가상 조준점(EVAP)이 감지됨에 기초하여, 상기 입력 영상에 대한 상기 가상 조준점(VAP)의 중복 적용을 비활성화(동작 1520)하고, 상기 내장 가상 조준점(EVAP)을 포함하는 상기 관심 영역(ROI)을 설정(동작 1530)하고, 상기 관심 영역(ROI)에 대응되는 제3 이미지(Image3)의 크기 또는 효과를 조정(동작 1540)할 수 있다.Referring to FIG. 15, the display device (100) detects an embedded virtual aim point (EVAP) included in the input image (operation 1510), and based on the detection of the embedded virtual aim point (EVAP), disables the redundant application of the virtual aim point (VAP) to the input image (operation 1520), sets the region of interest (ROI) including the embedded virtual aim point (EVAP) (operation 1530), and adjusts the size or effect of a third image (Image3) corresponding to the region of interest (ROI) (operation 1540).
일 예에 따르면, 동작 1510 및 동작 1520에서, 디스플레이 장치(100)는 입력 영상에 포함된 내장 가상 조준점(EVAP)을 감지하고, 상기 내장 가상 조준점(EVAP)이 감지됨에 기초하여, 상기 입력 영상에 대한 상기 가상 조준점(VAP)의 중복 적용을 비활성화할 수 있다. 이하, 도 16을 참조하여 디스플레이 장치(100)의 동작 1510 및 동작 1520을 예시적으로 설명한다.According to an example, in operations 1510 and 1520, the display device (100) may detect an embedded virtual aiming point (EVAP) included in an input image, and based on the detection of the embedded virtual aiming point (EVAP), may disable the redundant application of the virtual aiming point (VAP) to the input image. Hereinafter, operations 1510 and 1520 of the display device (100) will be exemplarily described with reference to FIG. 16.
도 16은 본 개시의 일 실시예에 따른 디스플레이 장치(100)의 입력 영상을 나타내는 예시도이다.FIG. 16 is an exemplary diagram showing an input image of a display device (100) according to one embodiment of the present disclosure.
도 16을 참조하면, 디스플레이 장치(100)는 입력 영상의 영상 특성을 분석할 수 있다. 디스플레이 장치(100)는 입력 영상에서 개별 프레임을 추출할 수 있다. 예를 들어, 디스플레이 장치(100)는 추출된 개별 프레임에 기초하여, 입력 영상의 영상 특성을 분석할 수 있다. 디스플레이 장치(100)는 영상 특성에 기초하여, 입력 영상에 포함된 내장 가상 조준점(EVAP)을 식별할 수 있다.Referring to FIG. 16, the display device (100) can analyze the image characteristics of an input image. The display device (100) can extract individual frames from the input image. For example, the display device (100) can analyze the image characteristics of the input image based on the extracted individual frames. Based on the image characteristics, the display device (100) can identify an embedded virtual aiming point (EVAP) included in the input image.
디스플레이 장치(100)는 내장 가상 조준점(EVAP)이 감지됨에 기초하여, 상기 입력 영상에 대한 상기 가상 조준점(VAP)의 중복 적용을 비활성화할 수 있다. 예를 들어, 디스플레이 장치(100)는 입력 영상에 가상 조준점(VAP)이 중복적으로 적용되는 것을 방지하기 위한 플래그를 설정함으로써, 내장 가상 조준점(EVAP)이 포함된 입력 영상에 추가적인 가상 조준점(VAP)을 적용하지 않도록 할 수 있다. The display device (100) may disable the redundant application of the virtual aiming point (VAP) to the input image based on the detection of the built-in virtual aiming point (EVAP). For example, the display device (100) may set a flag to prevent the redundant application of the virtual aiming point (VAP) to the input image, thereby preventing the application of an additional virtual aiming point (VAP) to an input image including the built-in virtual aiming point (EVAP).
일 예에 따르면, 동작 1530 및 동작 1540에서, 디스플레이 장치(100)는 내장 가상 조준점(EVAP)을 포함하는 상기 관심 영역(ROI)을 설정하고, 상기 관심 영역(ROI)에 대응되는 제3 이미지(Image3)의 크기 또는 효과를 조정할 수 있다. 이하, 도 17을 참조하여 디스플레이 장치(100)의 동작 1530 및 동작 1540을 예시적으로 설명한다.For example, in operations 1530 and 1540, the display device (100) may set a region of interest (ROI) including an embedded virtual aiming point (EVAP) and adjust the size or effect of a third image (Image3) corresponding to the region of interest (ROI). Hereinafter, operations 1530 and 1540 of the display device (100) will be exemplarily described with reference to FIG. 17.
도 17은 본 개시의 일 실시예에 따른 디스플레이 장치(100)가 제3 이미지(Image3)의 크기 또는 효과를 조정하는 동작을 나타내는 예시도이다.FIG. 17 is an exemplary diagram showing an operation of a display device (100) according to one embodiment of the present disclosure to adjust the size or effect of a third image (Image3).
도 17을 참조하면, 디스플레이 장치(100)는 내장 가상 조준점(EVAP)을 활용하여 관심 영역(ROI)을 설정할 수 있다. 예를 들어, 디스플레이 장치(100)는 타겟의 크기, 중요도, 또는 입력 영상 내에서 위치 중 적어도 하나에 기초하여, 관심 영역(ROI)의 크기를 조정할 수 있다. 예를 들어, 디스플레이 장치(100)는 타겟의 형상, 또는 사용자의 설정에 기초하여, 관심 영역(ROI)의 형상을 조정할 수 있다.Referring to FIG. 17, the display device (100) can set a region of interest (ROI) by utilizing an embedded virtual aiming point (EVAP). For example, the display device (100) can adjust the size of the region of interest (ROI) based on at least one of the size, importance, or location of the target within the input image. For example, the display device (100) can adjust the shape of the region of interest (ROI) based on the shape of the target or a user's settings.
디스플레이 장치(100)는 관심 영역(ROI)에 대응되는 제3 이미지(Image3)의 크기 또는 효과를 조정할 수 있다. 예를 들어, 디스플레이 장치(100)는 상기 제3 이미지(Image3)에 대한 확대, 축소, 샤프닝, 블러링, 콘트라스트 조정, 색상 조정, 또는 왜곡 필터 적용 중 적어도 하나를 수행할 수 있다.The display device (100) can adjust the size or effect of the third image (Image3) corresponding to the region of interest (ROI). For example, the display device (100) can perform at least one of enlargement, reduction, sharpening, blurring, contrast adjustment, color adjustment, or distortion filter application to the third image (Image3).
디스플레이 장치(100)는 제3 이미지(Image3)에 대한 확대 또는 축소 중 적어도 하나를 수행할 수 있다. 디스플레이 장치(100)는 가상 조준점(VAP)을 중심으로 설정된 관심 영역(ROI) 내의 이미지를 확대하여, 타겟에 대한 시인성을 증가시킬 수 있다. 예를 들어, 사용자는 FPS 게임에서 적 캐릭터를 조준할 때, 확대된 제3 이미지(Image3)를 이용하여 적의 세부 사항을 쉽게 인식할 수 있다.The display device (100) can perform at least one of magnification and reduction on the third image (Image3). The display device (100) can magnify an image within a region of interest (ROI) set around a virtual aiming point (VAP), thereby increasing the visibility of the target. For example, when aiming at an enemy character in an FPS game, a user can easily recognize details of the enemy using the magnified third image (Image3).
디스플레이 장치(100)는 제3 이미지(Image3)에 대한 블러링, 콘트라스트 조정, 또는 색상 조정 중 적어도 하나를 수행할 수 있다. 디스플레이 장치(100)는 관심 영역(ROI) 내의 이미지를 더 명확하게 표현하기 위해 다양한 이미지 필터를 적용할 수 있다. 예를 들어, 디스플레이 장치(100)는 블러링 필터를 적용하여 관심 영역(ROI) 외부의 배경을 흐리게 처리함으로써, 사용자의 주의를 가상 조준점(VAP)으로 집중시킬 수 있다. 예를 들어, 디스플레이 장치(100)는 콘트라스트 조정을 통해 관심 영역(ROI) 내의 이미지 대비를 증가시킴으로써, 타겟이 더 잘 보이도록 할 수 있다.The display device (100) can perform at least one of blurring, contrast adjustment, or color adjustment on the third image (Image3). The display device (100) can apply various image filters to more clearly express the image within the region of interest (ROI). For example, the display device (100) can apply a blurring filter to blur the background outside the region of interest (ROI), thereby focusing the user's attention on the virtual aiming point (VAP). For example, the display device (100) can increase the contrast of the image within the region of interest (ROI) through contrast adjustment, thereby making the target more visible.
도 18은 본 개시의 일 실시예에 따른 디스플레이 장치(100)의 제어 신호 종류에 따른 동작을 나타내는 순서도이고, 도 19a 및 19b는 본 개시의 일 실시예에 따른 디스플레이 장치(100)의 제어 신호 종류에 따라 수행하는 동작을 나타내는 도면이다.FIG. 18 is a flowchart showing an operation according to a type of control signal of a display device (100) according to one embodiment of the present disclosure, and FIGS. 19a and 19b are drawings showing an operation performed according to a type of control signal of a display device (100) according to one embodiment of the present disclosure.
도 18을 참조하면, 디스플레이 장치(100)는 제어 장치(3)로부터 제어 신호를 수신(동작 1810)하고, 상기 제어 신호가 상기 관심 영역(ROI)에 대응되는 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과의 조정과 무관한 제1 제어 신호인지, 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과를 조정하는 제2 제어 신호인지 여부를 판단(동작 1820)하고, 상기 제어 신호가 상기 제1 제어 신호인 경우, 상기 제1 제어 신호를 서버(2)에 전송(동작 1830)하고, 상기 제어 신호가 상기 제2 제어 신호인 경우, 상기 제2 제어 신호에 기초하여 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과를 조정(동작 1840)할 수 있다.Referring to FIG. 18, the display device (100) receives a control signal from the control device (3) (operation 1810), determines whether the control signal is a first control signal unrelated to adjusting the size or the effect of the first image (Image1) corresponding to the region of interest (ROI), or a second control signal that adjusts the size or the effect of the first image (Image1) (operation 1820), and if the control signal is the first control signal, transmits the first control signal to the server (2) (operation 1830), and if the control signal is the second control signal, adjusts the size or the effect of the first image (Image1) based on the second control signal (operation 1840).
일 예에 따르면, 동작 1810에서, 디스플레이 장치(100)는 제어 장치(3)로부터 제어 신호를 수신할 수 있다. 도 19a 및 19b에서 보듯이, 제어 장치(3)는 디스플레이 장치(100)에 사용자 입력을 출력할 수 있다. 제어 장치(3)는 디스플레이 장치(100)와 무선 통신 네트워크를 통하여 연결될 수 있다. 예를 들어, 제어 장치(3)는 디스플레이 장치(100)와 소정 거리 이내에 위치하여, BLE(Bluetooth Low Energy) 통신 네트워크를 통하여 디스플레이 장치(100)와 통신을 수행할 수 있다. 예를 들어, 제어 장치(3)는 사용자 동작에 기초하여 사용자 입력을 생성하고, BLE 통신 네트워크를 통하여 상기 사용자 입력을 디스플레이 장치(100)에 송신할 수 있다.According to an example, in operation 1810, the display device (100) can receive a control signal from the control device (3). As shown in FIGS. 19A and 19B , the control device (3) can output a user input to the display device (100). The control device (3) can be connected to the display device (100) via a wireless communication network. For example, the control device (3) can be located within a predetermined distance from the display device (100) and communicate with the display device (100) via a BLE (Bluetooth Low Energy) communication network. For example, the control device (3) can generate a user input based on a user action and transmit the user input to the display device (100) via the BLE communication network.
예를 들어, 제어 장치(3)는 리모컨(3a), 게임 컨트롤러(3b), 키보드(3c), 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버(2), GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 제어 장치(3)는 통신 기능 및 데이터 프로세싱 기능을 구비한 웨어러블 디바이스일 수 있다.For example, the control device (3) may be, but is not limited to, a remote control (3a), a game controller (3b), a keyboard (3c), a smartphone, a tablet PC, a PC, a smart TV, a mobile phone, a PDA (personal digital assistant), a laptop, a media player, a micro server (2), a GPS (global positioning system) device, an e-book reader, a digital broadcasting terminal, a navigation device, a kiosk, an MP3 player, a digital camera, and other mobile or non-mobile computing devices. In addition, the control device (3) may be a wearable device having a communication function and a data processing function.
일 예에 따르면, 동작 1820에서, 디스플레이 장치(100)는 제어 장치(3)로부터 수신한 제어 신호가 제1 제어 신호인지, 제2 제어 신호인지 여부를 판단할 수 있다. 예를 들어, 디스플레이 장치(100)는 상기 제어 신호가 상기 관심 영역(ROI)에 대응되는 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과의 조정과 무관한 제1 제어 신호인지, 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과를 조정하는 제2 제어 신호인지 여부를 판단할 수 있다. 예를 들어, 제1 제어 신호는 입력 영상 내의 타겟을 공격하는 제어 신호일 수 있다. 예를 들어, 제2 제어 신호는 관심 영역(ROI)에 대응되는 제1 이미지(Image1)의 효과를 변경하는 제어 신호일 수 있다.According to an example, in operation 1820, the display device (100) can determine whether the control signal received from the control device (3) is a first control signal or a second control signal. For example, the display device (100) can determine whether the control signal is a first control signal that is unrelated to adjusting the size or the effect of the first image (Image1) corresponding to the region of interest (ROI), or a second control signal that adjusts the size or the effect of the first image (Image1). For example, the first control signal may be a control signal that attacks a target in an input image. For example, the second control signal may be a control signal that changes the effect of the first image (Image1) corresponding to the region of interest (ROI).
일 예에 따르면, 동작 1830에서, 디스플레이 장치(100)는 상기 제어 신호가 상기 제1 제어 신호인 경우, 상기 제1 제어 신호를 서버(2)에 전송할 수 있다. 예를 들어, 도 19a에서 보듯이, 디스플레이 장치(100)는 제1 제어 신호(cont1)를 식별하고, 서버(2)에게 제1 제어 신호(cont1)에 대응되는 제어 동작을 요청할 수 있다.According to an example, in operation 1830, the display device (100) may transmit the first control signal to the server (2) if the control signal is the first control signal. For example, as shown in FIG. 19A, the display device (100) may identify the first control signal (cont1) and request the server (2) to perform a control operation corresponding to the first control signal (cont1).
일 예에 따르면, 동작 1840에서, 디스플레이 장치(100)는 상기 제어 신호가 상기 제2 제어 신호인 경우, 상기 제2 제어 신호에 기초하여 상기 제1 이미지(Image1)의 상기 크기 또는 상기 효과를 조정할 수 있다. 예를 들어, 도 19b에서 보듯이, 디스플레이 장치(100)는 제2 제어 신호(cont2)를 식별하고, 제2 제어 신호(cont2)에 대응되는 영상 조정 동작을 수행할 수 있다. 여기서, 디스플레이 장치(100)는 제2 제어 신호(cont2)를 서버(2)에게 전송하지 않을 수 있다.For example, in operation 1840, the display device (100) may adjust the size or the effect of the first image (Image1) based on the second control signal, if the control signal is the second control signal. For example, as shown in FIG. 19b, the display device (100) may identify the second control signal (cont2) and perform an image adjustment operation corresponding to the second control signal (cont2). Here, the display device (100) may not transmit the second control signal (cont2) to the server (2).
일 실시예에서, 디스플레이 장치(100) 및 이를 이용한 디스플레이 방법은 입력 영상에 가상 조준점(VAP)을 적용하고, 가상 조준점(VAP)을 중심으로 하는 관심 영역(ROI)의 크기 또는 효과를 조정한 이미지를 디스플레이할 수 있다. 디스플레이 장치(100) 및 이를 이용한 디스플레이 방법은 게임 플레이의 조준 정확도를 증가시킴으로써, 영상 콘텐츠에 대한 몰입감과 사용자 만족도를 향상시킬 수 있다.In one embodiment, a display device (100) and a display method using the same can apply a virtual aiming point (VAP) to an input image and display an image in which the size or effect of a region of interest (ROI) centered on the virtual aiming point (VAP) is adjusted. The display device (100) and a display method using the same can enhance the immersion and user satisfaction with video content by increasing the aiming accuracy of game play.
일 실시예에서, 디스플레이 장치(100) 및 이를 이용한 디스플레이 방법은 입력 영상에 내장된 가상 조준점(VAP)을 감지함으로써, 가상 조준점(VAP)의 중복 적용을 방지하고, 입력 영상의 이동 방향 또는 이동 속도에 기초하여 조정된 영상의 크기 또는 효과를 변경할 수 있다. 디스플레이 장치(100) 및 이를 이용한 디스플레이 방법은 디스플레이 환경에 맞는 유연한 화면 구성을 제공하고, 게임 플레이에 실시간으로 최적화된 영상 콘텐츠를 제공할 수 있다.In one embodiment, the display device (100) and the display method using the same can detect a virtual aiming point (VAP) embedded in an input image, thereby preventing the redundant application of the virtual aiming point (VAP), and can change the size or effect of an image adjusted based on the movement direction or movement speed of the input image. The display device (100) and the display method using the same can provide a flexible screen configuration suitable for the display environment, and can provide image content optimized for game play in real time.
본 문서에 개시된 다양한 실시예들에 따른 디스플레이 장치는 다양한 형태의 장치가 될 수 있다. 디스플레이 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 디스플레이 장치는 전술한 기기들에 한정되지 않는다.The display devices according to the various embodiments disclosed in this document may take various forms. The display devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. The display devices according to the embodiments of this document are not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terminology used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly indicates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase among those phrases, or all possible combinations thereof. Terms such as "first," "second," or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first component) is referred to as "coupled" or "connected" to another component (e.g., a second component), with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit. A module may be an integral component, or a minimum unit or part of such a component that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치)의 프로세서는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운용되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program) including one or more instructions stored in a storage medium (e.g., built-in memory or external memory) readable by a machine (e.g., an electronic device). For example, a processor of the machine (e.g., an electronic device) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic waves), and this term does not distinguish between cases where data is stored semi-permanently and cases where it is stored temporarily in the storage medium.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded as a product between a seller and a buyer. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., compact disc read-only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store™) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or an intermediary server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include one or more entities, and some of the entities may be separated and placed in other components. According to various embodiments, one or more components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (e.g., a module or a program) may be integrated into a single component. In such a case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. According to various embodiments, the operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.
Claims (15)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240097983A KR20260014944A (en) | 2024-07-24 | Display device and display method using the same | |
| KR10-2024-0097983 | 2024-07-24 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2026023977A1 true WO2026023977A1 (en) | 2026-01-29 |
Family
ID=98566127
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2025/010355 Pending WO2026023977A1 (en) | 2024-07-24 | 2025-07-15 | Display device and display method using same |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2026023977A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3617982B2 (en) * | 2002-07-17 | 2005-02-09 | コナミ株式会社 | VIDEO GAME DEVICE, VIDEO GAME DEVICE IMAGE PROCESSING METHOD, AND PROGRAM |
| KR101377010B1 (en) * | 2013-05-15 | 2014-09-03 | 김신우 | Method of applying multi cross hair, and recording medium storing program for executing the same |
| KR20230034064A (en) * | 2021-09-02 | 2023-03-09 | 삼성전자주식회사 | Display apparatus and operating method thereof |
| US20230078466A1 (en) * | 2020-12-01 | 2023-03-16 | Garena Online Private Limited | Aim Assist Method for Electronic Games |
| JP2023549365A (en) * | 2021-08-12 | 2023-11-24 | ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド | Game aiming control method, device and electronic terminal |
-
2025
- 2025-07-15 WO PCT/KR2025/010355 patent/WO2026023977A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3617982B2 (en) * | 2002-07-17 | 2005-02-09 | コナミ株式会社 | VIDEO GAME DEVICE, VIDEO GAME DEVICE IMAGE PROCESSING METHOD, AND PROGRAM |
| KR101377010B1 (en) * | 2013-05-15 | 2014-09-03 | 김신우 | Method of applying multi cross hair, and recording medium storing program for executing the same |
| US20230078466A1 (en) * | 2020-12-01 | 2023-03-16 | Garena Online Private Limited | Aim Assist Method for Electronic Games |
| JP2023549365A (en) * | 2021-08-12 | 2023-11-24 | ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド | Game aiming control method, device and electronic terminal |
| KR20230034064A (en) * | 2021-09-02 | 2023-03-09 | 삼성전자주식회사 | Display apparatus and operating method thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12279070B2 (en) | Method for frame interpolation and related products | |
| WO2019039771A1 (en) | Electronic device for storing depth information in connection with image depending on properties of depth information obtained using image and control method thereof | |
| WO2016032292A1 (en) | Photographing method and electronic device | |
| CA3055114C (en) | Image display method and electronic device | |
| WO2016013893A1 (en) | Displaying method, animation image generating method, and electronic device configured to execute the same | |
| WO2018093143A1 (en) | Display apparatus and control method thereof | |
| WO2018074850A1 (en) | Image processing apparatus and image processing method therefor | |
| WO2021189995A1 (en) | Video rendering method and apparatus, electronic device, and storage medium | |
| WO2019059562A1 (en) | Electronic device comprising plurality of cameras using rolling shutter mode | |
| WO2018155824A1 (en) | Display apparatus and control method thereof | |
| WO2018097682A1 (en) | Image processing apparatus and image processing method therefor | |
| WO2025048196A1 (en) | Dynamically-adaptive planar transformations for video see-through (vst) extended reality (xr) | |
| WO2026023977A1 (en) | Display device and display method using same | |
| US12437785B2 (en) | Video playback method and apparatus, and electronic device | |
| WO2023101346A1 (en) | Method for editing content being played in display device, and electronic device therefor | |
| US20070213093A1 (en) | Mobile terminal having wide viewing function digital broadcasting | |
| KR20260014944A (en) | Display device and display method using the same | |
| WO2020105993A1 (en) | Display apparatus, server, electronic apparatus and control methods thereof | |
| EP3172653A1 (en) | Displaying method, animation image generating method, and electronic device configured to execute the same | |
| WO2025154985A1 (en) | Tone consistency for camera imaging | |
| WO2019013443A1 (en) | Display device and control method therefor | |
| WO2025159246A1 (en) | Tile processing and transformation for video see-through (vst) extended reality (xr) | |
| WO2022163965A1 (en) | Electronic apparatus and control method thereof | |
| WO2025023804A1 (en) | Electronic device and control method therefor | |
| WO2023140506A1 (en) | Electronic device and control method thereof |