TW202311817A - Method, processing device, and display system for information display - Google Patents
Method, processing device, and display system for information display Download PDFInfo
- Publication number
- TW202311817A TW202311817A TW111128679A TW111128679A TW202311817A TW 202311817 A TW202311817 A TW 202311817A TW 111128679 A TW111128679 A TW 111128679A TW 111128679 A TW111128679 A TW 111128679A TW 202311817 A TW202311817 A TW 202311817A
- Authority
- TW
- Taiwan
- Prior art keywords
- display
- information
- user
- target
- virtual
- Prior art date
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本發明是有關於一種資訊顯示技術。The invention relates to an information display technology.
隨著影像處理技術與空間定位技術的發展,透明顯示器的應用已逐漸受到重視。此類的技術可讓顯示器搭配實體物件,再輔以虛擬相關資訊,並且依照使用者的需求來產生互動式的體驗,可使資訊以更為直觀的方式呈現。With the development of image processing technology and spatial positioning technology, the application of transparent displays has gradually attracted attention. This type of technology allows the display to be matched with physical objects, supplemented with virtual related information, and generates an interactive experience according to the user's needs, so that the information can be presented in a more intuitive way.
再者,關聯於實體物件的虛擬資訊可顯示於透明顯示器的特定位置上,讓使用者可透過透明顯示器同時觀看到實體物件與疊加於實體物件上或一側的虛擬資訊。然而,當實體物件動態移動時,可能發生虛擬資訊偏離實體物件的情況,進而導致透明顯示器所顯示的虛擬資訊無法即時地跟隨實體物件移動。此外,由於實體物件的移動不一定可被預測或可能是多變的,因此可能造成基於即時物件辨識而顯示的虛擬資訊出現晃動或堆疊的情況,導致觀看者閱讀虛擬資訊的困難度與不適。Furthermore, the virtual information associated with the physical object can be displayed on a specific position of the transparent display, so that the user can watch the physical object and the virtual information superimposed on or on one side of the physical object through the transparent display at the same time. However, when the physical object moves dynamically, the virtual information may deviate from the physical object, so that the virtual information displayed on the transparent display cannot follow the movement of the physical object in real time. In addition, since the movement of physical objects may not be predictable or may be changeable, it may cause shaking or stacking of virtual information displayed based on real-time object recognition, resulting in difficulty and discomfort for viewers to read virtual information.
本揭露提供一種資訊顯示方法及其處理裝置與資訊顯示系統。The disclosure provides an information display method, a processing device thereof, and an information display system.
在本揭露的一範例實施例中,上述的資訊顯示系統包括可透光的顯示器、第一資訊擷取裝置、第二資訊擷取裝置以及處理裝置,其中處理裝置連接於顯示器、第一資訊擷取裝置以及第二資訊擷取裝置。第一資訊擷取裝置用以擷取使用者的空間位置資訊,第二資訊擷取裝置用以擷取目標物的空間位置資訊。處理裝置經配置以執行下列步驟。根據使用者的空間位置資訊以及目標物的空間位置資訊決定目標物的虛擬資訊於顯示器上的顯示位置資訊。顯示位置資訊包括對應於先前時間的第一顯示參考位置與對應至當前時間的第二顯示參考位置。根據第一顯示參考位置與第二顯示參考位置之間的距離決定虛擬資訊於顯示器上對應於當前時間的實際顯示位置。根據實際顯示位置顯示虛擬資訊於顯示器上。In an exemplary embodiment of the present disclosure, the above-mentioned information display system includes a light-transmissible display, a first information capture device, a second information capture device, and a processing device, wherein the processing device is connected to the display, the first information capture device fetching device and the second information fetching device. The first information capturing device is used for capturing the user's spatial position information, and the second information capturing device is used for capturing the target object's spatial position information. The processing device is configured to perform the following steps. The display position information of the virtual information of the target on the display is determined according to the spatial position information of the user and the spatial position information of the target. The display location information includes a first display reference location corresponding to a previous time and a second display reference location corresponding to a current time. The actual display position of the virtual information on the display corresponding to the current time is determined according to the distance between the first display reference position and the second display reference position. Display virtual information on the monitor according to the actual display position.
在本揭露的一範例實施例中,上述的資訊顯示方法適用於具有可透光的顯示器、第一資訊擷取裝置、第二資訊擷取裝置以及處理裝置的資訊顯示系統,並且包括下列步驟。利用第一資訊擷取裝置擷取使用者的空間位置資訊。利用第二資訊擷取裝置擷取目標物的空間位置資訊。根據使用者的空間位置資訊以及目標物的空間位置資訊決定目標物的虛擬資訊於顯示器上的顯示位置資訊。顯示位置資訊包括對應於先前時間的第一顯示參考位置與對應至當前時間的第二顯示參考位置。根據第一顯示參考位置與第二顯示參考位置之間的距離決定虛擬資訊於顯示器上對應於當前時間的實際顯示位置。根據實際顯示位置顯示虛擬資訊於顯示器上。In an exemplary embodiment of the present disclosure, the above information display method is applicable to an information display system having a light-transmissive display, a first information capture device, a second information capture device, and a processing device, and includes the following steps. The spatial position information of the user is retrieved by using the first information retrieval device. The spatial position information of the target is captured by the second information capturing device. The display position information of the virtual information of the target on the display is determined according to the spatial position information of the user and the spatial position information of the target. The display location information includes a first display reference location corresponding to a previous time and a second display reference location corresponding to a current time. The actual display position of the virtual information on the display corresponding to the current time is determined according to the distance between the first display reference position and the second display reference position. Display virtual information on the monitor according to the actual display position.
在本揭露的一範例實施例中,上述的處理裝置連接於可透光的顯示器、第一資訊擷取裝置以及第二資訊擷取裝置。第一資訊擷取裝置用以擷取使用者的空間位置資訊,第二資訊擷取裝置用以擷取目標物的空間位置資訊。處理裝置包括記憶體與連接記憶體的處理器。記憶體用以儲存資料,而處理器經配置以執行下列步驟。利用第一資訊擷取裝置擷取使用者的空間位置資訊。利用第二資訊擷取裝置擷取目標物的空間位置資訊。根據使用者的空間位置資訊以及目標物的空間位置資訊決定目標物的虛擬資訊於顯示器上的顯示位置資訊。顯示位置資訊包括對應於先前時間的第一顯示參考位置與對應至當前時間的第二顯示參考位置。根據第一顯示參考位置與第二顯示參考位置之間的距離決定虛擬資訊於顯示器上對應於當前時間的實際顯示位置。根據實際顯示位置顯示虛擬資訊於顯示器上。In an exemplary embodiment of the present disclosure, the above-mentioned processing device is connected to a light-transmittable display, a first information capturing device, and a second information capturing device. The first information capturing device is used for capturing the user's spatial position information, and the second information capturing device is used for capturing the target object's spatial position information. The processing device includes a memory and a processor connected to the memory. The memory is used to store data and the processor is configured to perform the following steps. The spatial position information of the user is retrieved by using the first information retrieval device. The spatial position information of the target is captured by the second information capturing device. The display position information of the virtual information of the target on the display is determined according to the spatial position information of the user and the spatial position information of the target. The display location information includes a first display reference location corresponding to a previous time and a second display reference location corresponding to a current time. The actual display position of the virtual information on the display corresponding to the current time is determined according to the distance between the first display reference position and the second display reference position. Display virtual information on the monitor according to the actual display position.
為讓本揭露能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。In order to make the present disclosure more comprehensible, the following specific embodiments are described in detail together with the accompanying drawings.
本揭露的部份範例實施例接下來將會配合附圖來詳細描述,以下的描述所引用的元件符號,當不同附圖出現相同的元件符號將視為相同或相似的元件。這些範例實施例只是本揭露的一部份,並未揭示所有本揭露的可實施方式。更確切的說,這些範例實施例僅為本揭露的專利申請範圍中的方法、裝置以及系統的範例。Part of the exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. For the referenced component symbols in the following description, when the same component symbols appear in different drawings, they will be regarded as the same or similar components. These exemplary embodiments are only part of the present disclosure, and do not disclose all possible implementations of the present disclosure. Rather, these exemplary embodiments are merely examples of methods, apparatuses, and systems within the scope of the present disclosure.
圖1A是根據本揭露一範例實施例所繪示的資訊顯示系統的方塊圖。首先圖1A先介紹系統中的各個構件以及配置關係,詳細功能將配合後續範例實施例的流程圖一併揭露。FIG. 1A is a block diagram of an information display system according to an exemplary embodiment of the present disclosure. Firstly, FIG. 1A firstly introduces various components and configuration relationships in the system, and the detailed functions will be disclosed together with the flow charts of subsequent exemplary embodiments.
請參照圖1A,本範例實施例中的資訊顯示系統100可包括顯示器110、第一資訊擷取裝置120、第二資訊擷取裝置130以及處理裝置140,其中處理裝置140可以是以無線、有線或電性連接於顯示器110、第一資訊擷取裝置120以及第二資訊擷取裝置130。Please refer to FIG. 1A, the
顯示器110可用以顯示資訊,其包括例如是液晶顯示器(Liquid crystal display,LCD)、場色序(Field sequential color)液晶顯示器、發光二極體(Light emitting diode,LED)顯示器、電濕潤顯示器等穿透式可透光顯示器,或者是投影式可透光顯示器。The
第一資訊擷取裝置120用以擷取使用者的空間位置資訊,而第二資訊擷取裝置130用以擷取實體場景中目標物的空間位置資訊。第一資訊擷取裝置120可以例如是至少一個影像感測器或者是至少一個影像感測器搭配至少一個深度感測器來對使用者進行影像辨識定位,其中影像感測器可包括可見光感測器或非可見光感測器如紅外線感測器等。此外,第一資訊擷取裝置120更可以例如是光學定位器來對使用者進行光學空間定位。只要是可以定位出使用者所在位置資訊的裝置或其組合,皆屬於第一資訊擷取裝置120的範疇。The first
第二資訊擷取裝置120則可以例如是至少一個影像感測器或者是至少一個影像感測器搭配至少一個深度感測器來對目標物進行影像辨識定位,其中影像感測器可包括可見光感測器或非可見光感測器如紅外線感測器等。只要是可以定位出目標物所在位置資訊的裝置或其組合,皆屬於第二資訊擷取裝置130的範疇。The second
於本揭露實施例中,上述的影像感測器可用以擷取影像並且包括具有透鏡以及感光元件的攝像鏡頭。上述的深度感測器可用以偵測深度資訊,其可以利用主動式深度感測技術以及被動式深度感測技術來實現。主動式深度感測技術可藉由主動發出光源、紅外線、超音波、雷射等作為訊號搭配時差測距技術來計算深度資訊。被動式深度感測技術可以藉由兩個影像感測器以不同視角擷取其前方的兩張影像,以利用兩張影像的視差來計算深度資訊。In the embodiment of the present disclosure, the above-mentioned image sensor can be used to capture images and includes a camera lens having a lens and a photosensitive element. The above-mentioned depth sensor can be used to detect depth information, which can be realized by using active depth sensing technology and passive depth sensing technology. Active depth sensing technology can calculate depth information by actively emitting light sources, infrared rays, ultrasonic waves, lasers, etc. as signals with time-of-flight ranging technology. The passive depth sensing technology can use two image sensors to capture two images in front of it from different angles of view, and use the parallax of the two images to calculate depth information.
處理裝置140用以控制資訊顯示系統100的作動,其可包括記憶體141以及處理器142。記憶體141可以例如是任意型式的固定式或可移動式隨機存取記憶體(random access memory,RAM)、唯讀記憶體(read-only memory,ROM)、快閃記憶體(flash memory)、硬碟或其他類似裝置、積體電路及其組合。處理器142可以例如是中央處理單元(central processing unit,CPU)、應用處理器(application processor,AP),或是其他可程式化之一般用途或特殊用途的微處理器(microprocessor)、數位訊號處理器(digital signal processor,DSP)、影像訊號處理器(image signal processor,ISP)、圖形處理器(graphics processing unit,GPU)或其他類似裝置、積體電路及其組合。以下範例實施例中將搭配資訊顯示系統100的各元件來說明處理裝置140執行資訊顯示方法流程的細節。The
在本範例實施例中,處理裝置140可以是內建於顯示器110或連接顯示器110的計算機裝置。第一資訊擷取裝置120以及第二資訊擷取裝置130可以是分別設置於資訊顯示系統100所屬場域相對於顯示器110的相對兩側等,用以對使用者以及目標物進行定位,並且透過各自的通訊介面以有線或是無線的方式傳輸資訊至處理裝置140。於一些實施例中,第一資訊擷取裝置120與第二資訊擷取裝置130也可各自具有處理器與記憶體,並具有可根據影像資料進行物件辨識與物件追蹤的計算能力。在另一範例實施例中,資訊顯示系統100可為單一整合系統,其可以實作成頭戴式顯示裝置、智慧型手機、平板電腦等,本揭露不在此設限。以下範例實施例中將搭配資訊顯示系統100的各元件來說明資訊顯示方法的實施細節。In this exemplary embodiment, the
圖1B是根據本揭露一範例實施例所繪示的資訊顯示系統的示意圖。請參照圖1B,使用者U1與目標物Obj1分別位於顯示器110的不同側。使用者U1可透過顯示器110觀看疊加有目標物Obj1的虛擬資訊Vf1的實體場景。虛擬資訊Vf1可視為基於目標物Obj1而擴增的擴增實境內容。於一些實施例中,第一資訊擷取裝置120可包括用以拍攝使用者U1的第一影像感測器,且第二資訊擷取裝置130包括用以拍攝目標物Obj1的第二影像感測器。第一資訊擷取裝置120可基於所擷取的使用者影像獲取使用者U1的空間位置資訊,而第二資訊擷取裝置130可基於所擷取的目標物影像獲取目標物Obj1的空間位置資訊。FIG. 1B is a schematic diagram of an information display system according to an exemplary embodiment of the present disclosure. Referring to FIG. 1B , the user U1 and the object Obj1 are located on different sides of the
處理裝置140可根據使用者U1的空間位置資訊以及目標物Obj1的空間位置資訊來決定虛擬資訊Vf1於顯示器110上的顯示位置資訊。於圖1B的範例中,上述顯示位置資訊實施為顯示平面上的一個參考顯示物件框RF1。於其他實施例中,顯示位置資訊可實施為顯示器110的顯示平面上的一個點。具體來說,顯示位置資訊可視為使用者觀看目標物Obj1時視線投射於顯示平面上的落點或區域。藉此,處理裝置140可利用顯示位置資訊(例如參考顯示物件框RF1)為參考基準來顯示虛擬資訊Vf1。更具體而言,基於各式需求或不同應用,處理裝置140可根據顯示位置資訊決定虛擬資訊Vf1的實際顯示位置,以讓使用者U1可透過顯示器110看到位於目標物Obj1附近的虛擬資訊Vf1或看到疊加於目標物Obj1上的虛擬資訊Vf1。The
值得一提的是,於一些實施例中,使用者U1及/或目標物Obj1都可能會動態移動。舉例而言,目標物Obj1可以是飼養於水族箱裡的魚隻,而虛擬資訊Vf1可以是魚隻的種類名稱或介紹資訊。於是,第一資訊擷取裝置120可對著使用者U1持續進行拍攝而產生包括分別對應至不同時間點的多張使用者影像的視頻序列,第一資訊擷取裝置120可根據包括多張使用者影像的視頻序列來追蹤使用者U1的空間位置資訊。同理,第二資訊擷取裝置130可對著目標物Obj1持續進行拍攝而產生包括分別對應至不同時間點的多張目標物影像的視頻序列,第二資訊擷取裝置130可根據包括多張目標物影像的視頻序列來追蹤目標物Obj1的空間位置資訊。由於處理裝置140可基於目標物Obj1與使用者U1的追蹤結果不斷地更新虛擬資訊Vf1的顯示位置資訊,因此顯示器110所顯示的虛擬資訊Vf1可反應於使用者U1的移動與/或目標物Obj1的移動而對應移動,以達到虛擬資訊Vf1跟隨目標物Obj1的視覺效果。It is worth mentioning that, in some embodiments, both the user U1 and/or the object Obj1 may move dynamically. For example, the target object Obj1 can be a fish kept in an aquarium, and the virtual information Vf1 can be the species name or introduction information of the fish. Therefore, the first
圖2是根據本揭露一範例實施例所繪示的資訊顯示方法的流程圖,請同時參照圖1A、圖1B以及圖2,而圖2的方法流程可由圖1A與圖1B的資訊顯示系統100來實現。在此,使用者U1可透過資訊顯示系統100的顯示器110來觀看目標物Obj1及其虛擬資訊Vf1。FIG. 2 is a flowchart of an information display method according to an exemplary embodiment of the present disclosure. Please refer to FIG. 1A, FIG. 1B and FIG. 2 at the same time, and the method flow in FIG. to fulfill. Here, the user U1 can view the target object Obj1 and its virtual information Vf1 through the
於步驟S210,資訊顯示系統100中利用第一資訊擷取裝置120擷取使用者U1的空間位置資訊。於步驟S220,資訊顯示系統100中利用第二資訊擷取裝置130擷取目標物Obj1的空間位置資訊。如同前述,第一資訊擷取裝置120以及第二資訊擷取裝置130例如是可針對使用者U1以及目標物Obj1的所在位置進行定位的影像感測器、深度感測器或其組合。In step S210, the
於步驟S230,資訊顯示系統100的處理裝置140根據使用者U1的空間位置資訊以及目標物Obj1的空間位置資訊決定目標物Obj1的虛擬資訊Vf1於顯示器110上的顯示位置資訊。顯示位置資訊包括對應於先前時間的第一顯示參考位置與對應至當前時間的第二顯示參考位置。具體而言,處理裝置140可根據使用者U1的空間位置資訊以及目標物Obj1的空間位置資訊持續地計算出分別對應至多個連續時間的多個顯示參考位置。換言之,第一資訊擷取裝置120與第二資訊擷取裝置130可持續更新目標物Obj1與使用者U1的空間位置資訊,而處理裝置140可據以持續更新虛擬資訊Vf1的顯示位置資訊。In step S230 , the
於步驟S240,資訊顯示系統100的處理裝置140根據第一顯示參考位置與第二顯示參考位置之間的距離決定虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置。接著,於步驟S250,資訊顯示系統100的處理裝置140根據實際顯示位置顯示虛擬資訊Vf1於顯示器110上。In step S240, the
也就是說,於處理裝置140決定虛擬資訊Vf1對應於當前時間的實際顯示位置的過程中,處理裝置140會計算先前時間的第一顯示參考位置與當前時間的第二顯示參考位置之間的距離。接著,處理裝置140再根據上述距離來決定利用當前時間的第二顯示參考位置更新虛擬資訊Vf1於顯示器110上的實際顯示位置,或決定不要更新虛擬資訊Vf1的實際顯示位置。That is to say, when the
圖3是根據本揭露一範例實施例所繪示的決定對應於當前時間的實際顯示位置的流程圖。請參照圖3,圖2的步驟S240可實施為步驟S241~步驟S243。於步驟S241,處理裝置140判斷對應於先前時間的第一顯示參考位置與對應於當前時間的第二顯示參考位置之間的距離是否大於預設臨界值。FIG. 3 is a flow chart of determining an actual display position corresponding to the current time according to an exemplary embodiment of the present disclosure. Referring to FIG. 3 , step S240 in FIG. 2 may be implemented as steps S241 to S243 . In step S241 , the
若第一顯示參考位置與第二顯示參考位置之間的距離大於預設臨界值,代表使用者U1所看到的目標物Obj1的位移是明顯的。因此,反應於第一顯示參考位置與第二顯示參考位置之間的距離大於預設臨界值(步驟S241判斷為是),於步驟S242,處理裝置140根據對應至當前時間的第二顯示參考位置更新虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置。If the distance between the first displayed reference position and the second displayed reference position is greater than a preset threshold, it means that the displacement of the object Obj1 seen by the user U1 is obvious. Therefore, in response to the fact that the distance between the first display reference position and the second display reference position is greater than the preset threshold (step S241 judges yes), in step S242, the
另一方面,若第一顯示參考位置與第二顯示參考位置之間的距離未大於預設臨界值,代表使用者U1所看到的目標物Obj1的位移較小。因此,反應於第一顯示參考位置與第二顯示參考位置之間的距離未大於預設臨界值(步驟S241判斷為否),於步驟S243,處理裝置140不更新虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置,亦即對應至當前時間的實際顯示位置會相同於對應至先前時間的實際顯示位置。於一實施例中,虛擬資訊Vf1可根據基於先前時間的第一顯示參考位置所決定的實際顯示位置來進行顯示。也就是說,若第一顯示參考位置與第二顯示參考位置之間的距離未大於預設臨界值,虛擬資訊Vf1於顯示器110上的顯示位置可以不更動。藉此,虛擬資訊Vf1的實際顯示位置不會因為目標物Obj1輕微的晃動或移動而變化,大幅提昇使用者U1觀看虛擬資訊Vf1的舒適度。意即,虛擬資訊Vf1可平穩地顯示於顯示器110上,而減少晃動或殘影堆疊的情況發生。On the other hand, if the distance between the first displayed reference position and the second displayed reference position is not greater than the preset threshold, it means that the displacement of the object Obj1 seen by the user U1 is relatively small. Therefore, in response to the fact that the distance between the first display reference position and the second display reference position is not greater than the preset threshold (step S241 judged as NO), in step S243, the
為了方便明瞭,以下將搭配顯示系統100列舉實施例以說明本揭露計算顯示位置資訊的實施方式。For the sake of convenience and clarity, the following examples will be combined with the
圖4是根據本揭露一範例實施例所繪示的資訊顯示方法的流程圖。請參照圖4,於步驟S402,第一資訊擷取裝置120擷取使用者影像,其中使用者個數可為一個以上。於步驟S404,第一資訊擷取裝置120對多張使用者影像進行人臉偵測而獲取各使用者影像中的人臉位置。第一資訊擷取裝置120可透過各種人臉偵測技術與人臉特徵偵測技術從各張使用者影像中偵測出人臉區塊以及人臉區塊中的臉部特徵。人臉偵測技術例如是利用像素值分析的傳統人臉偵測演算法或應用機器學習的深度學習演算法等等,本揭露對此不限制。上述臉部特徵例如是雙眼。於一些實施例中,第一資訊擷取裝置120可將人臉區塊的中心點作為人臉位置或將雙眼中心點作為人臉位置,但本揭露對此不限制。FIG. 4 is a flowchart of an information display method according to an exemplary embodiment of the present disclosure. Please refer to FIG. 4 , in step S402 , the first
於步驟S406,第一資訊擷取裝置120根據人臉位置進行座標轉換而獲取使用者U1的空間位置資訊。具體來說,基於使用者影像獲取的人臉位置是屬於二維的畫素座標。第一資訊擷取裝置120可根據使用者U1的深度資訊與使用者影像中的人臉位置進行座標轉換,以產生使用者U1的空間位置資訊。於圖4的實施例中,使用者U1的空間位置資訊可包括相機座標系下的使用者相機座標。In step S406, the first
接著,於步驟S408,處理裝置140根據第一資訊擷取裝置120的第一影像感測器的拍攝方向將使用者相機座標轉換為相對於顯示器110的使用者位置座標。於一實施例中,第一影像感測器的拍攝方向可包括垂直方向上的拍攝俯仰角。舉例而言,圖5A是根據本揭露一範例實施例所繪示的第一影像感測器與第二影像感測器的拍攝方向的示意圖。請參照圖5A,用以拍攝使用者U1的第一影像感測器具有拍攝俯仰角θ1。拍攝俯仰角θ1為第一影像感測器之鏡頭光軸CX1與顯示器110之顯示平面法線HX1之間的夾角。於一實施例中,假設使用者相機座標為(cx
1, cy
1, cz
1),則處理裝置140可根據下列公式(1)將使用者相機座標(cx
1, cy
1, cz
1)轉換為相對於顯示器110的使用者位置座標(t
x1, t
y1, t
z1)。
公式(1)
於一實施例中,相對於顯示器110的使用者位置座標(t
x1, t
y1, t
z1)所屬的參考座標系的三座標軸分別為顯示器110的顯示X軸、顯示Y軸以及顯示平面法線。拍攝俯仰角θ1為顯示器110的顯示平面法線與第一影像感測器之鏡頭光軸CX1之間的夾角。
Next, in step S408 , the
另一方面,於步驟S410,第二資訊擷取裝置130擷取目標物影像,其中目標物個數可為一個以上。於步驟S412,第二資訊擷取裝置130對多張目標物影像進行物件偵測而獲取目標物於各目標物影像中的物件邊界框。第二資訊擷取裝置130可利用深度學習演算法中的卷積神經網路(Convolution Neural Network,CNN)模型來進行物件偵測,上述卷積神經網路模型例如是用以進行物件偵測的R-CNN、Fast R-CNN、Faster R-CNN、YOLO或SSD等等,但本揭露對此不限制。第二資訊擷取裝置130所使用的物件偵測模型可輸出目標物Obj1的物件邊界框(Bonding box)的位置與尺寸以及目標物Obj1的分類結果。於一實施例中,處理裝置140可根據目標物Obj1的分類結果而從資料庫挑選對應的虛擬資訊Vf1進行顯示。On the other hand, in step S410, the second
於步驟S414,第二資訊擷取裝置130根據物件邊界框進行座標轉換而獲取目標物Obj1的空間位置資訊。具體來說,基於目標物影像獲取的物件邊界框的位置屬於二維的畫素座標,上述物件邊界框的基準點可以是物件邊界框的頂點位置、中心點位置或框邊界,本揭露對此不限制。第二資訊擷取裝置130可根據目標物Obj1的深度資訊與目標物影像中的物件邊界框進行座標轉換,以產生目標物Obj1的空間位置資訊。於圖4所示的實施例中,目標物Obj1的空間位置資訊包括相機座標系下的目標物相機座標。In step S414, the second
接著,於步驟S416,處理裝置140根據第二影像感測器的拍攝方向將目標物相機座標轉換為相對於顯示器110的目標物位置座標。於一實施例中,第二影像感測器的拍攝方向可包括垂直方向上的拍攝俯仰角。舉例而言,請再參照圖5A,用以拍攝目標物Obj1的第二影像感測器具有拍攝俯仰角θ2。拍攝俯仰角θ2為第二影像感測器之鏡頭光軸CX2與顯示平面法線HX1之間的夾角。假設目標物相機座標為(cx
2, cy
2, cz
2),則處理裝置140可根據下列公式(2)將目標物相機座標(cx
2, cy
2, cz
2)轉換為相對於顯示器110的目標物位置座標(t
x2, t
y2, t
z2)。
公式(2)
於一實施例中,相對於顯示器110的目標物位置座標(t
x2, t
y2, t
z2)所屬的參考座標系相同於使用者位置座標(t
x1, t
y1, t
z1)所屬的參考座標系。拍攝俯仰角θ2為顯示器110的顯示平面法線與第二影像感測器之鏡頭光軸CX2之間的夾角。
Next, in step S416 , the
於一些實施例中,第一影像感測器與第二影像感測器的拍攝方向可透過設置於第一影像感測器與第二影像感測器上的慣性感測器而獲取。以圖5A的範例來說,慣性感測器的感測值可用以計算出圖5A中的拍攝俯仰角θ1、θ2。舉例而言,上述慣性感測器例如是加速度感測器等等。In some embodiments, the shooting directions of the first image sensor and the second image sensor can be obtained through inertial sensors disposed on the first image sensor and the second image sensor. Taking the example of FIG. 5A as an example, the sensing value of the inertial sensor can be used to calculate the shooting pitch angles θ1 and θ2 in FIG. 5A . For example, the above-mentioned inertial sensor is, for example, an acceleration sensor or the like.
於步驟S418,處理裝置140根據目標物位置座標與使用者位置座標之間的連線決定虛擬資訊Vf1於顯示器110上的顯示位置資訊。圖5B是根據本揭露一範例實施例所繪示的決定顯示位置資訊的示意圖。請參照圖5B,顯示位置資訊可包括目標物位置座標(t
x2, t
y2, t
z2)與使用者位置座標(t
x1, t
y1, t
z1)之間的連線相交於顯示器110的顯示平面的交點位置IP1。根據公式(1)與公式(2)所計算的使用者位置座標(t
x1, t
y1, t
z1)與目標物位置座標(t
x2, t
y2, t
z2),位於顯示平面(即Z=0)上的交點位置IP1的空間座標(X, Y, Z)可根據下列公式(3)而計算出來。
公式(3)
之後,處理裝置140可根據顯示器110的尺寸與解析度獲取顯示位置資訊,而顯示位置資訊為顯示器110的畫素座標。更詳細來說,處理裝置140可根據顯示器110的尺寸與解析度將交點位置IP1的空間座標轉換為顯示器110上的畫素座標,以獲取虛擬資訊Vf1於顯示器110上的顯示位置資訊,亦即由畫素座標來表示的交點位置IP1。
In step S418 , the
如同前述,顯示位置資訊包括對應至先前時間的第一顯示參考位置與對應至當前時間的第二顯示參考位置。於步驟S420,處理裝置140根據第一顯示參考位置與第二顯示參考位置之間的距離決定虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置。於步驟S422,處理裝置140根據實際顯示位置顯示虛擬資訊Vf1於顯示器110上。As mentioned above, the display location information includes a first display reference location corresponding to a previous time and a second display reference location corresponding to a current time. In step S420 , the
詳細而言,圖6A是根據本揭露一範例實施例所繪示的不更新實際顯示位置的示意圖。圖6B是根據本揭露一範例實施例所繪示的更新實際顯示位置的示意圖。請參照圖6A與6B,於本實施範例中,顯示位置資訊包括對應至先前時間的第一顯示參考位置IP1_p與對應至當前時間的第二顯示參考位置IP1_c。第一顯示參考位置IP1_p與第二顯示參考位置IP1_c可以是根據圖4實施例之計算方式而決定的交點位置。更具體而言,基於對應至先前時間的先前使用者影像與先前目標物影像,處理裝置140可根據兩空間座標的連線而獲取顯示平面上的第一顯示參考位置IP1_p。接著,舉例而言,處理裝置140可將對應至先前時間的實際顯示位置設置為第一顯示參考位置IP1_p上方M個像素的位置,M值可以依據實際需求調整,例如參考使用者的視野範圍,使實際顯示位置落入使用者視野範圍內。之後,基於對應至當前時間的當前使用者影像與當前目標物影像,處理裝置140可根據兩空間座標的連線而獲取顯示平面上的第二顯示參考位置IP1_c。處理裝置140判斷第一顯示參考位置IP1_p與第二顯示參考位置IP1_c之間的距離Δd1是否大於預設臨界值。In detail, FIG. 6A is a schematic diagram of not updating the actual display position according to an exemplary embodiment of the present disclosure. FIG. 6B is a schematic diagram of updating the actual display position according to an exemplary embodiment of the present disclosure. Referring to FIGS. 6A and 6B , in this embodiment, the display position information includes a first display reference position IP1_p corresponding to a previous time and a second display reference position IP1_c corresponding to a current time. The first display reference position IP1_p and the second display reference position IP1_c may be the intersection positions determined according to the calculation method in the embodiment of FIG. 4 . More specifically, based on the previous user image and the previous object image corresponding to the previous time, the
若距離Δd1未大於預設臨界值,請參照圖6A,處理裝置140可不更新虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置,致使虛擬資訊Vf1將維持於顯示於第一顯示參考位置IP1_p正上方M個像素的位置。相反地,若距離Δd1大於預設臨界值,請參照圖6B,處理裝置140根據對應至當前時間的第二顯示參考位置IP1_c更新虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置,像是處理裝置140可將對應至當前時間的實際顯示位置設置為第二顯示參考位置IP1_c上方M個像素的位置。If the distance Δd1 is not greater than the preset threshold, please refer to FIG. 6A , the
圖7是根據本揭露一範例實施例所繪示的資訊顯示方法的流程圖。請參照圖7,於步驟S702,第一資訊擷取裝置120擷取使用者影像,其中使用者個數可為一個以上。於步驟S704,第一資訊擷取裝置120對多張使用者影像進行人臉偵測而獲取各使用者影像中的人臉位置。步驟S702與步驟S704的細節可參照圖4中步驟S402與步驟S404的類似相關說明,於此不再贅述。FIG. 7 is a flowchart of an information display method according to an exemplary embodiment of the present disclosure. Please refer to FIG. 7 , in step S702 , the first
於步驟S706,第一資訊擷取裝置120根據人臉位置進行座標轉換而獲取使用者U1的空間位置資訊。於此,第一資訊擷取裝置120可將人臉位置轉換為對應至預設影像解析度的畫素座標。於圖7的實施例中,使用者U1的空間位置資訊可包括使用者U1相對於第一影像感測器的水平偏移角以及垂直偏移角。詳細而言,根據人臉位置的二維畫素座標以及第一影像感測器的水平視角(Field of View,FOV),第一資訊擷取裝置120可計算出使用者U1相對於鏡頭光軸的水平偏移角。根據人臉位置的二維畫素座標以及第一影像感測器的垂直FOV,第一資訊擷取裝置120可計算出使用者U1相對於鏡頭光軸的垂直偏移角。In step S706, the first
於步驟S708,第二資訊擷取裝置130擷取目標物影像。於步驟S710,第二資訊擷取裝置130對多張目標物影像進行物件偵測而獲取目標物於各目標物影像中的物件邊界框。步驟S708與步驟S710的細節可參照圖4中步驟S410與步驟S412的類似相關說明,於此不再贅述。In step S708, the second
於步驟S712,第二資訊擷取裝置130根據物件邊界框進行座標轉換而獲取目標物Obj1的空間位置資訊。於此,第二資訊擷取裝置130可將物件邊界框轉換為對應至預設影像解析度的畫素座標。於圖7的實施例中,目標物Obj1的空間位置資訊可包括目標物Obj1相對於第一影像感測器的水平偏移角以及垂直偏移角。詳細而言,根據目標物影像中物件邊界框之垂直框邊界的畫素座標以及第一影像感測器的水平FOV,第一資訊擷取裝置120可計算出目標物Obj1相對於鏡頭光軸的水平偏移角,亦即物件邊界框之左右框邊界各自相對於鏡頭光軸的水平偏移角。根據目標物影像中物件邊界框之水平框邊界的畫素座標以及第一影像感測器的垂直FOV,第一資訊擷取裝置120可計算出目標物Obj1相對於鏡頭光軸的垂直偏移角,亦即物件邊界框之上下框邊界各自相對於鏡頭光軸的垂直偏移角。In step S712, the second
於步驟S714,處理裝置140根據目標物Obj1相對於第二影像感測器的水平偏移角以及垂直偏移角、使用者U1相對於第一影像感測器的水平偏移角以及垂直偏移角、第一影像感測器的拍攝方向以及第二影像感測器的拍攝方向,決定虛擬資訊Vf1於顯示器110上的顯示位置資訊。In step S714, the
詳細而言,圖8A與圖8B是根據本揭露一範例實施例所繪示的決定顯示位置資訊的示意圖。於一實施例中,第一影像感測器、第二影像感測器與顯示器110之間的相對位置關係可先定義。舉例而言,若以顯示器110上緣的中心點為原點且顯示平面為XY平面,則第一影像感測器之鏡頭的位置以及第二影像感測器之鏡頭的位置可根據實際裝設位置而定義出來。In detail, FIG. 8A and FIG. 8B are schematic diagrams of determining display location information according to an exemplary embodiment of the present disclosure. In one embodiment, the relative positional relationship among the first image sensor, the second image sensor and the
請先參照圖8A,以下將先以目標物Obj1之物件邊界框Roi1的左邊界BL為範例進行說明。第一資訊擷取裝置120可將使用者U1相對於第一影像感測器的水平偏移角θ3以及使用者U1距離第一影像感測器的深度資訊d1提供給處理裝置140。第二資訊擷取裝置130可將目標物Obj1相對於第二影像感測器的水平偏移角θ4以及目標物Obj1距離第二影像感測器的深度資訊d2提供給處理裝置140。Please refer to FIG. 8A first, and the following will take the left boundary BL of the object bounding box Roi1 of the object Obj1 as an example for illustration. The first
於是,處理裝置140可獲取角度θ5(θ5=180-θ3-θ4),並基於餘弦定理而根據深度資訊d1與深度資訊d2計算出使用者U1與左邊界BL之間的距離d3。接著,處理裝置140可基於正弦定理而依據角度θ5、深度資訊d1、深度資訊d2與距離d3計算出角度θ6,並根據角度θ6與水平偏移角θ3計算出角度θ7。於是,處理裝置140可計算使用者U1與顯示器110之中線L1之間的橫向偏移距離為d1*sinθ3,以及計算左邊界BL與顯示器110之中線L1之間的橫向偏移距離為d2*sinθ4。此外,處理裝置140還可計算出顯示平面上左邊界BL的交點Q的橫向偏移距離Qx1等於d1*sinθ3+d1*cosθ3*tanθ7。同理,物件邊界框Roi1右邊界的交點Q的橫向偏移距離亦可以類似的方式計算出。Therefore, the
接著,請先參照圖8B,以下將先以目標物Obj1之物件邊界框Roi1的上邊界UL為範例進行說明。第一資訊擷取裝置120可將第一影像感測器的拍攝俯仰角θ1與使用者U1相對於第一影像感測器的垂直偏移角θ9提供給處理裝置140。第二資訊擷取裝置130可將第二影像感測器的拍攝俯仰角θ2與目標物Obj1相對於第二影像感測器的垂直偏移角θ8提供給處理裝置140。Next, please refer to FIG. 8B , and the following will take the upper boundary UL of the object bounding box Roi1 of the object Obj1 as an example for illustration. The first
於是,依據深度資訊d2、拍攝俯仰角θ2與垂直偏移角θ8,處理裝置140可計算上邊界UL與顯示器110的上緣之間的距離為d2sin(θ2+θ8)。依據深度資訊d1、拍攝俯仰角θ1與垂直偏移角θ9,處理裝置140可計算使用者U1與顯示器110的上緣之間的距離為d1sin(θ1+θ9)。於一實施例中,處理裝置140還可依據兩影像感測器之鏡頭與顯示器110的上緣之間的距離來進一步校正計算前述計算結果,而獲取使用者U1與目標物Obj與顯示器110的上緣之間的實際距離。之後,處理裝置140可基於下列公式(4)計算出顯示平面上上邊界UL的交點Q的直向偏移距離Eu1。
公式(4)
其中,使用者U1與顯示器110的上緣之間的實際距離A1可表示為
,
1為第一影像感測器之鏡頭與顯示器110的上緣之間的距離。目標物Obj與顯示器110的上緣之間的實際距離A2可表示為
,
為第二影像感測器之鏡頭與顯示器110的上緣之間的距離。同理,物件邊界框Roi1下邊界的交點的直向偏移距離亦可以類似的方式計算出。
Therefore, according to the depth information d2, the shooting pitch angle θ2 and the vertical offset angle θ8, the
基於上述說明,處理裝置140可獲取顯示平面上對應於物件邊界框Roi1的參考顯示物件框。詳細而言,基於圖8A所示之計算方法,處理裝置140可獲取顯示平面上參考顯示物件框的左右邊界分別與顯示器110之中線L1之間的橫向偏移距離。基於圖8B所示之計算方法,處理裝置140可獲取顯示平面上參考顯示物件框的上下邊界分別與顯示器110上緣之間的直向偏移距離。換言之,顯示平面上對應於物件邊界框Roi1的參考顯示物件框可由平行於顯示X軸的兩直線方程式與平行於顯示Y軸的兩直線方程式來表示。其中,參考顯示物件框的四個框頂點可由這些直線方程式的交點獲取。Based on the above description, the
之後,處理裝置140可根據顯示器110的尺寸與解析度獲取顯示位置資訊,而顯示位置資訊可為顯示器110的畫素座標。更詳細來說,處理裝置140可根據顯示器110的尺寸與解析度將參考顯示物件框轉換為顯示器110上的畫素座標,以獲取虛擬資訊Vf1於顯示器110上的顯示位置資訊。亦即,由畫素座標系來表示顯示平面上的參考顯示物件框。Afterwards, the
回到圖7,於步驟S716,處理裝置140比較對應於先前時間的第一參考顯示物件框以及對應於當前時間的第二參考顯示物件框之間的距離與預設臨界值,以決定虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置。於步驟S718,處理裝置140根據實際顯示位置顯示虛擬資訊Vf1於顯示器110上。Returning to FIG. 7, in step S716, the
詳細而言,圖9A是根據本揭露一範例實施例所繪示的不更新實際顯示位置的示意圖。圖9B是根據本揭露一範例實施例所繪示的更新實際顯示位置的示意圖。請參照圖9A與9B,於本實施範例中,顯示位置資訊包括於對應於目標物影像中物件邊界框的參考顯示物件框。參考顯示物件框可包括對應於先前時間的第一參考顯示物件框Roi_p以及對應於當前時間的第二參考顯示物件框Roi_c。第一顯示參考位置包括第一參考顯示物件框Roi_p,而第二顯示參考位置包括第二參考顯示物件框Roi_c。In detail, FIG. 9A is a schematic diagram of not updating the actual display position according to an exemplary embodiment of the present disclosure. FIG. 9B is a schematic diagram of updating the actual display position according to an exemplary embodiment of the present disclosure. Referring to FIGS. 9A and 9B , in this embodiment, the display location information is included in the reference display object box corresponding to the object bounding box in the target image. The reference display object frame may include a first reference display object frame Roi_p corresponding to a previous time and a second reference display object frame Roi_c corresponding to a current time. The first display reference position includes a first reference display object frame Roi_p, and the second display reference position includes a second reference display object frame Roi_c.
對應於先前時間的第一參考顯示物件框Roi_p以及對應於當前時間的第二參考顯示物件框Roi_c可以是根據圖7、圖8A與圖8B所示實施例之計算方式而決定。更具體而言,基於對應至先前時間的先前使用者影像與先前目標物影像,處理裝置140可獲取顯示平面上的第一參考顯示物件框Roi_p。接著,舉例而言,假設第一參考顯示物件框Roi_p的左上頂點的畫素座標為(x1,y1),處理裝置140可將對應至先前時間的實際顯示位置設置為畫素座標為(x1+αw1, y1+βh1)。其中,w1為第一參考顯示物件框Roi_p的寬度,h1為第一參考顯示物件框Roi_p的高度。α與β可視實際而設置,本揭露對此不限制。The first reference display object frame Roi_p corresponding to the previous time and the second reference display object frame Roi_c corresponding to the current time may be determined according to the calculation methods shown in the embodiments shown in FIG. 7 , FIG. 8A and FIG. 8B . More specifically, based on the previous user image and the previous object image corresponding to the previous time, the
之後,基於對應至當前時間的當前使用者影像與當前目標物影像,處理裝置140可獲取顯示平面上的第二參考顯示物件框Roi_c。處理裝置140比較對應於先前時間的第一參考顯示物件框Roi_p以及對應於當前時間的第二參考顯示物件框Roi_c之間的距離Δd2與預設臨界值。Afterwards, based on the current user image and the current object image corresponding to the current time, the
處理裝置140計算第一參考顯示物件框Roi_p的第一參考點與第二參考顯示物件框Roi_c的第二參考點之間的距離。第一參考點與第二參考點可例如是框中心點或框頂點。於圖9A與9B的範例中,第一參考點與第二參考點分別為第一參考顯示物件框Roi_p的左上頂點與第二參考顯示物件框Roi_c的左上頂點。The
於一實施例中,此預設臨界值可以是根據第二參考顯示物件框Roi_c的尺寸而決定。舉例而言,預設臨界值可等於min(γ*w2, γ*h2)。其中,w2為第二參考顯示物件框Roi_c的寬度,h2為第二參考顯示物件框Roi_c的高度。γ可為介於0到1之間的數值,其可視實際而設置,本揭露對此不限制。min(․)代表取最小值的函數。由此可見,預設臨界值可反應於參考物件框的尺寸而彈性設置。預設臨界值與參考物件框的尺寸可成正比關係。In an embodiment, the preset threshold may be determined according to the size of the second reference display object frame Roi_c. For example, the preset threshold may be equal to min(γ*w2, γ*h2). Wherein, w2 is the width of the second reference display object frame Roi_c, and h2 is the height of the second reference display object frame Roi_c. γ can be a value between 0 and 1, which can be set according to the actual situation, which is not limited in the present disclosure. min(․) represents the function of taking the minimum value. It can be seen that the preset threshold can be flexibly set in response to the size of the reference object frame. The preset critical value may be directly proportional to the size of the reference object frame.
若距離Δd2未大於預設臨界值,請參照圖9A,處理裝置140不更新虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置,虛擬資訊Vf1可維持於顯示於第一參考顯示物件框Roi_p的上方。相反地,若距離Δd2大於預設臨界值,請參照圖9B,處理裝置140根據對應至當前時間的第二參考顯示物件框Roi_c更新虛擬資訊Vf1於顯示器110上對應於當前時間的實際顯示位置。舉例而言,假設第二參考顯示物件框Roi_c的左上頂點的畫素座標為(x2,y2),處理裝置140可將對應至當前時間的實際顯示位置設置為畫素座標為(x2+αw2, y2+βh2)。其中,w2為第二參考顯示物件框Roi_c的寬度,h2為第二參考顯示物件框Roi_c的高度。α與β可視實際而設置,本揭露對此不限制。If the distance Δd2 is not greater than the preset threshold, please refer to FIG. 9A , the
於一實施例中,反應於顯示位置資訊位於顯示器110的顯示邊緣區域,處理裝置140往遠離顯示器110之邊緣的方向調整顯示位置資訊。詳細而言,在處理裝置140獲取某一時間點的顯示位置資訊之後,若顯示位置資訊位於顯示器110的顯示邊緣區域,代表虛擬資訊可能會顯示於顯示器110的顯示邊緣區域或甚至是顯示不完全,導致使用者U1觀看上的困難度。於是,處理裝置140將進一步調整顯示位置資訊,例如處理裝置140可往遠離顯示器110之邊緣的方向調整顯示位置資訊。In one embodiment, the
舉例而言,當基於圖5B的計算方式而計算出來的交點位置位於顯示器110的顯示邊緣區域時,處理裝置140可將交點位置往遠離顯示器110之邊緣的方向調整,再根據調整後的交點位置決定實際顯示位置。或者,當基於圖8A與8B的計算方式而計算出來的參考顯示物件框位於顯示器110的顯示邊緣區域時,處理裝置140可將參考顯示物件框往遠離顯示器110之邊緣的方向調整,再根據調整後的參考顯示物件框決定實際顯示位置。For example, when the intersection position calculated based on the calculation method in FIG. 5B is located in the display edge area of the
於一實施例中,處理裝置140可根據下列公式(5)來調整顯示位置資訊於垂直軸向上的座標分量。
公式(5)
其中,
為顯示位置資訊的原始Y座標、F為調整權重、c為常數。F例如是介於1至100之間的數值,其可視實際而設置,本揭露對此不限制。常數c可根據原始Y座標所在顯示區域而決定。舉例而言,假設顯示位置資訊的原始Y座標位於顯示範圍的中心區域,則常數c可設置為等於原始Y座標,即不調整原始Y座標。假設顯示位置資訊的原始Y座標位於顯示範圍的邊緣區域,則常數c可設置為不等於原始Y座標,即往遠離顯示器110之邊緣的方向調整原始Y座標。同理,顯示位置資訊於水平軸向上的座標分量亦可以類似的方式進行調整。
In one embodiment, the
於一些實施例中,處理裝置140還可根據使用者的姿態資訊來決定虛擬資訊於顯示器110上的顯示位置資訊。第一資訊擷取裝置120可用以擷取使用者的姿態資訊。具體而言,第一資訊擷取裝置120可透過各類人體姿態辨識技術來辨識使用者的四肢、軀幹及/或頭部所呈現的姿態。像是,第一資訊擷取裝置120可根據影像資料辨識人體骨架或人體特徵點等等,從而識別出使用者的姿態。於一些實施例中,第一資訊擷取裝置120可對使用者影像進行人臉偵測而獲取各使用者影像中的人臉位置與人臉特徵點。本發明對於人臉特徵點的數量並不加以限制,其例如可包括嘴角特徵點、眉心特徵點或眼角特徵點等等。於一些實施例中,第一資訊擷取裝置120或處理裝置140可根據多幀使用者影像中的人臉特徵點來辨識出使用者的臉部中心位移量與頭部轉動角度。使用者的姿態資訊包括臉部中心位移量與頭部轉動角度。In some embodiments, the
於一些實施例中,處理裝置140可根據使用者的姿態資訊來判斷使用者的頭部移動或轉動。反應於根據使用者的姿態資訊判定使用者的頭部移動,處理裝置140可根據使用者的空間位置資訊以及目標物的空間位置資訊決定目標物的虛擬資訊於顯示器110上的顯示位置資訊。亦即,當處理裝置140判定使用者的頭部移動時,處理裝置140可根據如圖2、圖4或圖7所示的流程來決定虛擬資訊的實際顯示位置。另一方面,反應於根據使用者的姿態資訊判定使用者的頭部轉動,處理裝置140可根據使用者的空間位置資訊與姿態資訊以及目標物的空間位置資訊決定目標物的虛擬資訊於顯示器110上的顯示位置資訊。當處理裝置140判定使用者的頭部轉動時,處理裝置140可根據使用者的頭部轉動角度來更新目標物的虛擬資訊於顯示器110上的顯示位置資訊。舉例而言,當使用者的頭部並沒有移動時,處理裝置140可利用使用者的頭部轉動角度來更新先前時間點所決定的顯示位置資訊。In some embodiments, the
於一些實施例中,處理裝置140可根據姿態資訊中的臉部中心位移量來估計出一頭部行為指標。上述頭部行為指標可為臉部中心位移量除以頭部半徑基準值。舉例而言,頭部半徑基準值可為80mm。透過比對頭部行為指標以及頭部轉動角度的變化量,處理裝置140可判斷使用者的頭部移動或轉動,以反應於使用者的頭部出現移動或轉動來決定虛擬資訊於顯示器110上的顯示位置資訊。In some embodiments, the
於一些實施例中,若頭部行為指標小於等於頭部轉動角度的變化量,處理裝置140判定使用者的頭部移動,亦即使用者頭部自第一空間位置移動至第二空間位置。於是,可執行如圖2、圖4或圖7所示的流程來決定虛擬資訊的實際顯示位置。若頭部行為指標大於頭部轉動角度的變化量,處理裝置140判定使用者的頭部轉動,亦即使用者頭部轉向發生改變。於是,處理裝置140可根據使用者的空間位置資訊與頭部轉動角度以及目標物的空間位置資訊決定目標物的虛擬資訊於顯示器110上的顯示位置資訊。像是,處理裝置140可利用使用者的頭部轉動角度來更新先前時間點所決定的顯示位置資訊,並據以決定虛擬資訊的實際顯示位置。或者,處理裝置140可利用使用者的頭部轉動角度與使用者的空間位置資訊來識別另一目標物,以根據另一目標物的空間位置資訊以及使用者的空間位置資訊決定另一目標物的另一虛擬資訊於顯示器110上的顯示位置資訊。In some embodiments, if the head behavior index is less than or equal to the variation of the head rotation angle, the
本揭露的範例實施例所提出的資訊顯示方法及其處理裝置與資訊顯示系統,可即時地依據使用者位置與目標物位置,計算使視線投射於顯示平面上的顯示位置資訊,並據以產生虛擬資訊的實際顯示位置。藉此,即便目標物的移動多變或不可預測,根據實際顯示位置所顯示的虛擬資訊可即時地跟隨目標物的移動。此外,本揭露的範例實施例可依據先前時間的第一顯示參考位置與當前時間的第二顯示參考位置之間的距離決定是否更新虛擬資訊於顯示器上對應於當前時間的實際顯示位置。藉此,基於即時物件辨識而顯示的虛擬資訊可穩定且順暢地進行顯示,大幅提升使用者的觀看體驗。The information display method and its processing device and information display system proposed in the exemplary embodiments of the present disclosure can calculate the display position information for projecting the line of sight on the display plane according to the user position and the target object position in real time, and generate The actual display position of the virtual information. In this way, even if the movement of the target is variable or unpredictable, the virtual information displayed according to the actual display position can follow the movement of the target in real time. In addition, the exemplary embodiment of the present disclosure may determine whether to update the virtual information on the display at the actual display position corresponding to the current time according to the distance between the first display reference position at the previous time and the second display reference position at the current time. Thereby, the virtual information displayed based on real-time object recognition can be displayed stably and smoothly, greatly improving the user's viewing experience.
雖然本揭露已以範例實施例揭露如上,然其並非用以限定本揭露,任何所屬技術領域中具有通常知識者,在不脫離本揭露的精神和範圍內,當可作些許的更動與潤飾,故本揭露的保護範圍當視後附的申請專利範圍及其均等範圍所界定者為準。Although the present disclosure has been disclosed above with exemplary embodiments, it is not intended to limit the present disclosure. Anyone with ordinary knowledge in the technical field may make some changes and modifications without departing from the spirit and scope of the present disclosure. Therefore, the scope of protection of this disclosure should be defined by the appended scope of patent application and its equivalent scope.
100:資訊顯示系統 110:顯示器 120:第一資訊擷取裝置 130:第二資訊擷取裝置 140:處理裝置 141:記憶體 142:處理器 Vf1:虛擬資訊 RF1:參考顯示物件框 U1:使用者 Obj1:目標物 CX1、CX2:鏡頭光軸 HX1:顯示平面法線 IP1:交點位置 IP1_p:第一顯示參考位置 IP1_c:第二顯示參考位置 BL:左邊界 UL:上邊界 Q:交點 L1:中線 Roi1:物件邊界框 Roi_p:第一參考顯示物件框 Roi_c:第二參考顯示物件框 S210~S250、S241~S243、S402~S422、S702~S718:步驟 100:Information display system 110: Display 120: The first information retrieval device 130: the second information retrieval device 140: processing device 141: memory 142: Processor Vf1: Virtual Information RF1: Reference display object frame U1: User Obj1: target object CX1, CX2: Optical axis of lens HX1: display plane normal IP1: Intersection position IP1_p: first display reference position IP1_c: Second display reference position BL: left border UL: upper boundary Q: Intersection L1: midline Roi1: object bounding box Roi_p: first reference display object box Roi_c: Second reference display object frame S210~S250, S241~S243, S402~S422, S702~S718: steps
圖1A是根據本揭露一範例實施例所繪示的資訊顯示系統的方塊圖。 圖1B是根據本揭露一範例實施例所繪示的資訊顯示系統的示意圖。 圖2是根據本揭露一範例實施例所繪示的資訊顯示方法的流程圖。 圖3是根據本揭露一範例實施例所繪示的決定對應於當前時間的實際顯示位置的流程圖。 圖4是根據本揭露一範例實施例所繪示的資訊顯示方法的流程圖。 圖5A是根據本揭露一範例實施例所繪示的第一影像感測器與第二影像感測器的拍攝方向的示意圖。 圖5B是根據本揭露一範例實施例所繪示的決定顯示位置資訊的示意圖。 圖6A是根據本揭露一範例實施例所繪示的不更新實際顯示位置的示意圖。 圖6B是根據本揭露一範例實施例所繪示的更新實際顯示位置的示意圖。 圖7是根據本揭露一範例實施例所繪示的資訊顯示方法的流程圖。 圖8A與圖8B是根據本揭露一範例實施例所繪示的決定顯示位置資訊的示意圖。 圖9A是根據本揭露一範例實施例所繪示的不更新實際顯示位置的示意圖。 圖9B是根據本揭露一範例實施例所繪示的更新實際顯示位置的示意圖。 FIG. 1A is a block diagram of an information display system according to an exemplary embodiment of the present disclosure. FIG. 1B is a schematic diagram of an information display system according to an exemplary embodiment of the present disclosure. FIG. 2 is a flowchart of an information display method according to an exemplary embodiment of the present disclosure. FIG. 3 is a flow chart of determining an actual display position corresponding to the current time according to an exemplary embodiment of the present disclosure. FIG. 4 is a flowchart of an information display method according to an exemplary embodiment of the present disclosure. FIG. 5A is a schematic diagram illustrating shooting directions of the first image sensor and the second image sensor according to an exemplary embodiment of the present disclosure. FIG. 5B is a schematic diagram of determining to display location information according to an exemplary embodiment of the present disclosure. FIG. 6A is a schematic diagram of not updating the actual display position according to an exemplary embodiment of the present disclosure. FIG. 6B is a schematic diagram of updating the actual display position according to an exemplary embodiment of the present disclosure. FIG. 7 is a flowchart of an information display method according to an exemplary embodiment of the present disclosure. FIG. 8A and FIG. 8B are schematic diagrams of determining display location information according to an exemplary embodiment of the present disclosure. FIG. 9A is a schematic diagram of not updating the actual display position according to an exemplary embodiment of the present disclosure. FIG. 9B is a schematic diagram of updating the actual display position according to an exemplary embodiment of the present disclosure.
S210~S250:步驟 S210~S250: steps
Claims (20)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210997341.5A CN115794004A (en) | 2021-09-09 | 2022-08-19 | Information display method, processing device and information display system |
US17/939,900 US12182905B2 (en) | 2021-09-09 | 2022-09-07 | Method, processing device, and display system for virtual information display based on spatial positioning |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163242044P | 2021-09-09 | 2021-09-09 | |
US63/242,044 | 2021-09-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202311817A true TW202311817A (en) | 2023-03-16 |
TWI844902B TWI844902B (en) | 2024-06-11 |
Family
ID=86690567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111128679A TWI844902B (en) | 2021-09-09 | 2022-07-29 | Method, processing device, and display system for information display |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI844902B (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103500061B (en) * | 2013-09-26 | 2017-11-07 | 三星电子(中国)研发中心 | Control the method and apparatus of display |
TWI571767B (en) * | 2014-12-09 | 2017-02-21 | 國立臺灣大學 | Rear-screen three-dimension interactive system and method |
KR102343387B1 (en) * | 2017-02-24 | 2021-12-29 | 주식회사 브이알애드 | Virtual reality-based radiology practice apparatus and method |
TW201913298A (en) * | 2017-09-12 | 2019-04-01 | 宏碁股份有限公司 | Virtual reality system capable of showing real-time image of physical input device and controlling method thereof |
TW202017368A (en) * | 2018-10-29 | 2020-05-01 | 品臻聯合系統股份有限公司 | A smart glasses, a smart glasses system, and a method for using the smart glasses |
-
2022
- 2022-07-29 TW TW111128679A patent/TWI844902B/en active
Also Published As
Publication number | Publication date |
---|---|
TWI844902B (en) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11127380B2 (en) | Content stabilization for head-mounted displays | |
TWI722280B (en) | Controller tracking for multiple degrees of freedom | |
US11436742B2 (en) | Systems and methods for reducing a search area for identifying correspondences between images | |
US11568555B2 (en) | Dense depth computations aided by sparse feature matching | |
US11451760B2 (en) | Systems and methods for correcting rolling shutter artifacts | |
US11430086B2 (en) | Upsampling low temporal resolution depth maps | |
US11450014B2 (en) | Systems and methods for continuous image alignment of separate cameras | |
TWI792106B (en) | Method, processing device, and display system for information display | |
WO2023072030A1 (en) | Automatic focusing method and apparatus for lens, and electronic device and computer-readable storage medium | |
US20240281987A1 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
TWI793390B (en) | Method, processing device, and display system for information display | |
US11516452B2 (en) | Systems and methods for temporal corrections for parallax reprojection | |
TWI844902B (en) | Method, processing device, and display system for information display | |
CN115794004A (en) | Information display method, processing device and information display system | |
TWI779332B (en) | Augmented reality system and display method for anchor virtual object thereof | |
TWI823740B (en) | Active interactive navigation system and active interactive navigation method | |
TW202429389A (en) | Method, processing device, and display system for information display |