JP7155293B2 - ジオリファレンス情報について現実世界をクエリするための画像センサの使用 - Google Patents
ジオリファレンス情報について現実世界をクエリするための画像センサの使用 Download PDFInfo
- Publication number
- JP7155293B2 JP7155293B2 JP2020562140A JP2020562140A JP7155293B2 JP 7155293 B2 JP7155293 B2 JP 7155293B2 JP 2020562140 A JP2020562140 A JP 2020562140A JP 2020562140 A JP2020562140 A JP 2020562140A JP 7155293 B2 JP7155293 B2 JP 7155293B2
- Authority
- JP
- Japan
- Prior art keywords
- interest
- points
- data
- features
- user device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41415—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4524—Management of client data or end-user data involving the geographical location of the client
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Description
重み=(距離グループ係数*50)+(タイプ係数*10)+(評価係数*2)
などの式を用いて計算され得る。
グループ内相対距離=(1-正規化された距離)
などの式を用いたさらなる計算を含み得る。
正規化された距離=最小値(ユーザまでの距離、探索範囲)/探索範囲
などの式を使用して計算され得る。
さらなる関心地点を見るためにタッチ入力を行うことができるように、タッチ起動され得る。
102 プロセッサ
104 メモリ
106 命令
108 データ
110 入力
112 センサ
114 画像センサ
116 加速度計
118 全地球測位システム(「GPS」)センサ、GPSセンサ
120 出力
200 システム
202、212、222、232 デバイス
204、214、224、234 ユーザ
250 ネットワーク
260 ストレージシステム
270 サーバコンピューティングデバイス
280 関心地点
300 デバイス
302 ユーザ入力
304 マイクロフォン
306 ディスプレイ
308 画像センサ
310 出力
402 デバイス
404 ユーザ
406 垂直視野
408 角度
410 関心地点
502 デバイス
506 水平視野
508 角度
510 関心地点
511、512、513、514、515、516 建物
518 視野、探索角度
520 角度
600 キャプチャ
602、603、604 建物
612、613、614 幅
700 マップ
702 半径
800 マップ
802 視野角度
900 マップ
902、904 視野
910、911、912、913 関心地点
1000 デバイス
1002 入力
1004 マイクロフォン
1006 ディスプレイ
1008 画像センサ
1010 出力
1020、1021、1022、1023、1024 場所カード
1030 マップ
1102 デバイス
1104 サーバ
1106 VPS
1108 データベース
D 距離
Claims (41)
- システムであって、
ユーザデバイスの1つまたは複数の画像センサの使用から導出されたデータに基づいて、前記1つまたは複数の画像センサによってキャプチャされた1つまたは複数の地物を検出し、
少なくとも前記1つまたは複数の検出された地物に基づいて、前記ユーザデバイスのロケーションおよび配向を含む姿勢データを決定し、
前記姿勢データに基づいて、前記姿勢データに基づいて決定された特定の地理的領域内の複数の関心地点を決定し、前記地理的領域が、前記姿勢データに含まれる前記ユーザデバイスの前記ロケーションの事前定義された距離内にあるか、または、前記地理的領域が、前記姿勢データに含まれる前記ユーザデバイスの前記配向に基づく事前定義された角度範囲内にあり、
前記ユーザデバイスを介して、前記複数の関心地点のうちの1つまたは複数を示す情報を提供する
ように構成された1つまたは複数のプロセッサを備える、システム。 - 前記事前定義された角度範囲が、前記1つまたは複数の画像センサの視野より広い、請求項1に記載のシステム。
- 前記地理的領域が、前記ユーザデバイスの前記ロケーションからの第1の距離および第1の角度範囲によって定義された第1の地理的領域と、前記ユーザデバイスの前記ロケーションからの第2の距離および前記ユーザデバイスの前記配向に基づく第2の角度範囲によって定義された第2の地理的領域とを含み、
前記第1の角度範囲が前記第2の角度範囲より広く、
前記第1の距離が前記第2の距離より小さい、請求項1に記載のシステム。 - 前記1つまたは複数の画像センサが、前記ユーザデバイスの端に位置する、請求項1から3のいずれか一項に記載のシステム。
- 前記複数の関心地点が、前記特定の地理的領域内の関心地点についてマッピングデータベースをクエリすることによって決定される、請求項1から4のいずれか一項に記載のシステム。
- 前記複数の関心地点が、前記ロケーションからの特定の範囲内の関心地点について前記マッピングデータベースをクエリすることによって決定され、
返された前記関心地点が、前記ユーザデバイスの前記配向を中心とする角度範囲の外の関心地点が除外されるようにフィルタリングされる、請求項5に記載のシステム。 - 前記姿勢データが、前記ユーザデバイスの前記1つまたは複数の画像センサによってキャプチャされた前記地物が位置するサブ領域を含む地理的領域を描くストリートレベルの画像の集合体に基づいて生成された地物データのデータベースを使用して決定される、請求項1から6のいずれか一項に記載のシステム。
- 前記ユーザデバイスのロケーションを示すGPSデータが、前記姿勢データを決定する際に使用すべき前記地物データのデータベースの一部分を識別するために使用される、請求項7に記載のシステム。
- 1つまたは複数のプロセッサを使用して、1つまたは複数の画像センサからデータを導出するステップと、
前記1つまたは複数のプロセッサを使用して、前記導出されたデータに基づいて、特定の地理的領域における1つまたは複数の地物を検出するステップと、
前記1つまたは複数のプロセッサを使用して、少なくとも前記1つまたは複数の検出された地物に基づいて、デバイスのロケーションおよび配向を含む姿勢データを決定するステップと、
前記1つまたは複数のプロセッサを使用して、前記姿勢データに基づいて、前記特定の地理的領域内の複数の関心地点を決定するステップであって、前記地理的領域が、前記姿勢データに含まれる前記デバイスの前記ロケーションの事前定義された距離内にあるか、または、前記姿勢データに含まれる前記デバイスの前記配向に基づく事前定義された角度範囲内にある、ステップと、
前記1つまたは複数のプロセッサを使用して、前記地物を検出したことに応答して、前記複数の関心地点のうちの1つまたは複数を示す情報を提供するステップと
を含む方法。 - 前記特定の地理的領域における前記1つまたは複数の地物を検出するステップが、前記1つまたは複数の地物を検出するステップのときのユーザからのプロンプトなしで行われる、請求項9に記載の方法。
- 前記1つまたは複数のプロセッサを使用して、前記画像センサの視野に基づいて、前記複数の関心地点を決定するステップをさらに含む、請求項9に記載の方法。
- 前記視野が画角によって定義される、請求項11に記載の方法。
- 前記1つまたは複数のプロセッサを使用して、前記複数の関心地点の各々に対する関連性重みを計算するステップをさらに含む、請求項9に記載の方法。
- 前記1つまたは複数のプロセッサを使用して、前記計算された関連性重みに基づいて、前記複数の関心地点のランク付けリストを提供するステップをさらに含む、請求項13に記載の方法。
- 関連性重みを計算するステップが、距離グループ係数、タイプ係数、および場所評価係数を使用するステップをさらに含む、請求項13に記載の方法。
- 前記距離グループ係数が、前記デバイスと前記複数の関心地点の各々との間の事前定義された距離しきい値に基づいて決定される値である、請求項15に記載の方法。
- 前記タイプ係数が、関心地点のタイプに基づく値である、請求項15に記載の方法。
- 前記場所評価係数が、前記複数の関心地点の各々についての少なくとも1つの公的に利用可能な評価に基づく値である、請求項15に記載の方法。
- 前記姿勢データを決定するステップが、GPS読取値、視覚測位システム読取値、および加速度計読取値のうちの少なくとも1つにさらに基づく、請求項9に記載の方法。
- システムであって、
ユーザデバイスの1つまたは複数の画像センサの使用から導出されたデータに基づいて、特定の地理的領域における1つまたは複数の地物を検出し、
少なくとも前記1つまたは複数の検出された地物に基づいて、前記ユーザデバイスのロケーションおよび配向を含む姿勢データを決定し、
前記姿勢データに基づいて、前記特定の地理的領域内の複数の関心地点を決定し、前記地理的領域が、前記姿勢データに含まれる前記ユーザデバイスの前記ロケーションの事前定義された距離内にあるか、または、前記地理的領域が、前記姿勢データに含まれる前記ユーザデバイスの前記配向に基づく事前定義された角度範囲内にあり、
前記地物を検出したことに応答して、前記複数の関心地点のうちの1つまたは複数を示す情報を提供する
ように構成された1つまたは複数のプロセッサを備える、システム。 - 前記特定の地理的領域における前記1つまたは複数の地物を検出することが、前記1つまたは複数の地物を検出するときのユーザからのプロンプトなしで行われる、請求項20に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記画像センサの視野に基づいて、前記複数の関心地点を決定するようにさらに構成される、請求項21に記載のシステム。
- 前記視野が画角によって定義される、請求項22に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記複数の関心地点の各々に対する関連性重みを計算するようにさらに構成される、請求項20に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記計算された関連性重みに基づいて、前記複数の関心地点のランク付けリストを提供するようにさらに構成される、請求項24に記載のシステム。
- 前記関連性重みが、距離グループ係数、タイプ係数、および場所評価係数を使用して計算される、請求項24に記載のシステム。
- 前記距離グループ係数が、前記ユーザデバイスと前記複数の関心地点の各々との間の事前定義された距離しきい値に基づいて決定される値である、請求項26に記載のシステム。
- 前記タイプ係数が、関心地点のタイプに基づく値である、請求項26に記載のシステム。
- 前記場所評価係数が、前記複数の関心地点の各々についての少なくとも1つの公的に利用可能な評価に基づく値である、請求項26に記載のシステム。
- 前記姿勢データを決定することが、GPS読取値、視覚測位システム読取値、および加速度計読取値のうちの少なくとも1つにさらに基づく、請求項20に記載のシステム。
- 命令を記憶した非一時的コンピュータ可読記録媒体であって、前記命令が、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
ユーザデバイスの1つまたは複数の画像センサからデータを導出することと、
前記導出されたデータに基づいて、特定の地理的領域における1つまたは複数の地物を検出することと、
少なくとも前記1つまたは複数の検出された地物に基づいて、前記ユーザデバイスのロケーションおよび配向を含む姿勢データを決定することと、
前記姿勢データに基づいて、前記特定の地理的領域内の複数の関心地点を決定することであって、前記地理的領域が、前記姿勢データに含まれる前記ユーザデバイスの前記ロケーションの事前定義された距離内にあるか、または、前記姿勢データに含まれる前記ユーザデバイスの前記配向に基づく事前定義された角度範囲内にある、ことと、
前記地物を検出したことに応答して、前記複数の関心地点のうちの1つまたは複数を示す情報を提供することと
を行わせる、非一時的コンピュータ可読記録媒体。 - 前記特定の地理的領域における前記1つまたは複数の地物を検出することが、前記1つまたは複数の地物を検出するときのユーザからのプロンプトなしで行われる、請求項31に記載の非一時的コンピュータ可読記録媒体。
- 前記1つまたは複数のプロセッサに、前記画像センサの視野に基づいて、前記複数の関心地点を決定することをさらに行わせる、請求項31に記載の非一時的コンピュータ可読記録媒体。
- 前記視野が画角によって定義される、請求項33に記載の非一時的コンピュータ可読記録媒体。
- 前記1つまたは複数のプロセッサに、前記複数の関心地点の各々に対する関連性重みを計算することをさらに行わせる、請求項31に記載の非一時的コンピュータ可読記録媒体。
- 前記1つまたは複数のプロセッサに、前記計算された関連性重みに基づいて、前記複数の関心地点のランク付けリストを提供することをさらに行わせる、請求項35に記載の非一時的コンピュータ可読記録媒体。
- 関連性重みを計算することが、距離グループ係数、タイプ係数、および場所評価係数を使用することをさらに含む、請求項35に記載の非一時的コンピュータ可読記録媒体。
- 前記距離グループ係数が、前記ユーザデバイスと前記複数の関心地点の各々との間の事前定義された距離しきい値に基づいて決定される値である、請求項37に記載の非一時的コンピュータ可読記録媒体。
- 前記タイプ係数が、関心地点のタイプに基づく値である、請求項37に記載の非一時的コンピュータ可読記録媒体。
- 前記場所評価係数が、前記複数の関心地点の各々についての少なくとも1つの公的に利用可能な評価に基づく値である、請求項37に記載の非一時的コンピュータ可読記録媒体。
- 前記姿勢データを決定することが、GPS読取値、視覚測位システム読取値、および加速度計読取値のうちの少なくとも1つにさらに基づく、請求項31に記載の非一時的コンピュータ可読記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022160352A JP7498240B2 (ja) | 2019-11-06 | 2022-10-04 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
JP2024087084A JP2024124404A (ja) | 2019-11-06 | 2024-05-29 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/060061 WO2021091552A1 (en) | 2019-11-06 | 2019-11-06 | Use of image sensors to query real world for geo-reference information |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022160352A Division JP7498240B2 (ja) | 2019-11-06 | 2022-10-04 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510050A JP2022510050A (ja) | 2022-01-26 |
JP7155293B2 true JP7155293B2 (ja) | 2022-10-18 |
Family
ID=69167894
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562140A Active JP7155293B2 (ja) | 2019-11-06 | 2019-11-06 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
JP2022160352A Active JP7498240B2 (ja) | 2019-11-06 | 2022-10-04 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
JP2024087084A Pending JP2024124404A (ja) | 2019-11-06 | 2024-05-29 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022160352A Active JP7498240B2 (ja) | 2019-11-06 | 2022-10-04 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
JP2024087084A Pending JP2024124404A (ja) | 2019-11-06 | 2024-05-29 | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
Country Status (6)
Country | Link |
---|---|
US (4) | US11232587B2 (ja) |
EP (2) | EP3844644B1 (ja) |
JP (3) | JP7155293B2 (ja) |
KR (1) | KR102514000B1 (ja) |
CN (1) | CN113079703A (ja) |
WO (1) | WO2021091552A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7155293B2 (ja) * | 2019-11-06 | 2022-10-18 | グーグル エルエルシー | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
CN117131249B (zh) * | 2023-10-26 | 2024-01-12 | 湖南省不动产登记中心 | 一种自然资源数据智能管理方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110135207A1 (en) | 2009-12-07 | 2011-06-09 | Google Inc. | Matching An Approximately Located Query Image Against A Reference Image Set |
US20160240011A1 (en) | 2013-09-24 | 2016-08-18 | Metaio Gmbh | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor |
US10417781B1 (en) | 2016-12-30 | 2019-09-17 | X Development Llc | Automated data capture |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8174568B2 (en) * | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
JP4816748B2 (ja) * | 2009-03-06 | 2011-11-16 | ソニー株式会社 | ナビゲーション装置及びナビゲーション方法 |
JP5432000B2 (ja) * | 2010-02-24 | 2014-03-05 | 株式会社ゼンリンデータコム | 情報提示システム及びプログラム |
US20120249797A1 (en) * | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US8890896B1 (en) | 2010-11-02 | 2014-11-18 | Google Inc. | Image recognition in an augmented reality application |
CN103164480A (zh) * | 2011-12-13 | 2013-06-19 | 北京千橡网景科技发展有限公司 | 用于在社交网络中推荐兴趣点的方法和设备 |
JP2013142637A (ja) * | 2012-01-11 | 2013-07-22 | Ntt Docomo Inc | 方向計測装置、情報処理装置および方向計測方法 |
CN102880686B (zh) * | 2012-09-17 | 2016-03-02 | 曹欢欢 | 一种兴趣点搜索方法和装置 |
US9699375B2 (en) * | 2013-04-05 | 2017-07-04 | Nokia Technology Oy | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system |
US9432421B1 (en) * | 2014-03-28 | 2016-08-30 | A9.Com, Inc. | Sharing links in an augmented reality environment |
WO2018092016A1 (en) * | 2016-11-19 | 2018-05-24 | Yogesh Chunilal Rathod | Providing location specific point of interest and guidance to create visual media rich story |
US20180143998A1 (en) * | 2016-11-21 | 2018-05-24 | Google Inc. | Electronic map interfaces |
KR20190093624A (ko) * | 2016-12-06 | 2019-08-09 | 돈 엠. 구룰 | 연대기-기반 검색 엔진을 위한 시스템 및 방법 |
US20180349451A1 (en) * | 2017-06-02 | 2018-12-06 | Apple Inc. | Presenting Related Points of Interest |
WO2019130276A1 (en) * | 2017-12-31 | 2019-07-04 | Uber Technologies, Inc. | Enhancing map data based on points of interest |
JP7155293B2 (ja) * | 2019-11-06 | 2022-10-18 | グーグル エルエルシー | ジオリファレンス情報について現実世界をクエリするための画像センサの使用 |
-
2019
- 2019-11-06 JP JP2020562140A patent/JP7155293B2/ja active Active
- 2019-11-06 CN CN201980029390.6A patent/CN113079703A/zh active Pending
- 2019-11-06 US US16/757,638 patent/US11232587B2/en active Active
- 2019-11-06 WO PCT/US2019/060061 patent/WO2021091552A1/en unknown
- 2019-11-06 EP EP19836863.1A patent/EP3844644B1/en active Active
- 2019-11-06 EP EP23164549.0A patent/EP4220439A1/en not_active Withdrawn
- 2019-11-06 KR KR1020207031921A patent/KR102514000B1/ko active IP Right Grant
-
2021
- 2021-11-16 US US17/527,508 patent/US11688096B2/en active Active
-
2022
- 2022-10-04 JP JP2022160352A patent/JP7498240B2/ja active Active
-
2023
- 2023-05-15 US US18/197,364 patent/US12033351B2/en active Active
-
2024
- 2024-05-29 JP JP2024087084A patent/JP2024124404A/ja active Pending
- 2024-06-05 US US18/734,034 patent/US20240320855A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110135207A1 (en) | 2009-12-07 | 2011-06-09 | Google Inc. | Matching An Approximately Located Query Image Against A Reference Image Set |
US20160240011A1 (en) | 2013-09-24 | 2016-08-18 | Metaio Gmbh | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor |
US10417781B1 (en) | 2016-12-30 | 2019-09-17 | X Development Llc | Automated data capture |
Also Published As
Publication number | Publication date |
---|---|
JP2022176297A (ja) | 2022-11-25 |
JP2024124404A (ja) | 2024-09-12 |
KR20230042423A (ko) | 2023-03-28 |
US20210134003A1 (en) | 2021-05-06 |
US20220076443A1 (en) | 2022-03-10 |
EP3844644B1 (en) | 2023-05-31 |
EP4220439A1 (en) | 2023-08-02 |
EP3844644A1 (en) | 2021-07-07 |
US20230360257A1 (en) | 2023-11-09 |
JP7498240B2 (ja) | 2024-06-11 |
JP2022510050A (ja) | 2022-01-26 |
WO2021091552A1 (en) | 2021-05-14 |
KR20210056946A (ko) | 2021-05-20 |
US12033351B2 (en) | 2024-07-09 |
US11688096B2 (en) | 2023-06-27 |
CN113079703A (zh) | 2021-07-06 |
KR102514000B1 (ko) | 2023-03-24 |
US11232587B2 (en) | 2022-01-25 |
US20240320855A1 (en) | 2024-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8943049B2 (en) | Augmentation of place ranking using 3D model activity in an area | |
US8532916B1 (en) | Switching between best views of a place | |
JP5739874B2 (ja) | 向きに基づいた検索システム及び方法 | |
US8572077B2 (en) | System and method for displaying information in response to a request | |
US20240320855A1 (en) | Use Of Image Sensors To Query Real World for Geo-Reference Information | |
US9171011B1 (en) | Building search by contents | |
US8341156B1 (en) | System and method for identifying erroneous business listings | |
US9437004B2 (en) | Surfacing notable changes occurring at locations over time | |
US20150178926A1 (en) | Obtaining geographic-location related information based on shadow characteristics | |
JP2009157897A (ja) | 写真マッピング方法及びシステム、並びにプログラム及び記憶媒体 | |
US20150379040A1 (en) | Generating automated tours of geographic-location related features | |
KR102770345B1 (ko) | 지리적 참조 정보를 위해 실제 세계에 쿼리하기 위한 이미지 센서의 사용 | |
US11526569B2 (en) | Generating directions and routes with personalized landmarks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7155293 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |