[go: up one dir, main page]

JP4208200B2 - ポインティングデバイス - Google Patents

ポインティングデバイス Download PDF

Info

Publication number
JP4208200B2
JP4208200B2 JP2004281989A JP2004281989A JP4208200B2 JP 4208200 B2 JP4208200 B2 JP 4208200B2 JP 2004281989 A JP2004281989 A JP 2004281989A JP 2004281989 A JP2004281989 A JP 2004281989A JP 4208200 B2 JP4208200 B2 JP 4208200B2
Authority
JP
Japan
Prior art keywords
image
fingerprint
unit
pointing device
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004281989A
Other languages
English (en)
Other versions
JP2006099230A (ja
Inventor
学 湯元
貴彦 中野
卓治 浦田
宗一 宮田
淳 上田
司 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004281989A priority Critical patent/JP4208200B2/ja
Priority to US11/235,378 priority patent/US20060066572A1/en
Priority to CNB2005101071560A priority patent/CN100363881C/zh
Publication of JP2006099230A publication Critical patent/JP2006099230A/ja
Application granted granted Critical
Publication of JP4208200B2 publication Critical patent/JP4208200B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Description

本発明は、指を用いてコンピュータに指令を与え、指の動きに応じた方向に表示画面上のポインタ(カーソル)を移動させるためのポインティングデバイスに関し、特に、小型で連続的な入力と、ユーザ照合とを行なうことが可能なポインティングデバイスに関する。
小型携帯情報端末の中でも特に携帯電話において、指紋による指の動きに応じた方向に表示画面上のポインタ(カーソル)を移動させるためのポインティングデバイスが現在、開発されている。
前述のポインティングデバイスとして、指先と接する部分に特殊な形状の指プレートを用いることにより、指先の位置を容易に検出することと、小型化の両立した技術が特開2002−62983号公報(特許文献1)に開示されている。
最近では、前述のポインティングデバイスにさらにユーザ照合の機能を加えたものも開発されている。
図11は、従来のポインティングデバイス10の構成を示すブロック図である。
図11を参照して、ポインティングデバイス10は、指紋画像読取部101と、制御部119と、記憶部130とを備える。
指紋画像読取部101は、所定時間(たとえば、33ミリ秒)毎に、ユーザの指紋を画像として読み取る。以下においては、指紋画像読取部101により読み取られた画像を読取指紋画像とも称する。
記憶部130は、指紋画像読取部101が読み取った読取指紋画像を記憶する。また、記憶部130には、ユーザ照合するための指紋の画像(以下においては、照合指紋画像とも称する)が予め記憶されている。照合指紋画像は、ユーザが予め登録しておいた指紋の画像である。
制御部119は、指紋照合部107と、相関値演算部104と、データ変換部105とを含む。
指紋照合部107は、指紋画像読取部101により読み取られた読取指紋画像と照合指紋画像とに基づいてユーザ照合を行なう。
相関値演算部104は、記憶部130に記憶されている読取指紋画像(以下においては、移動前読取指紋画像とも称する)と、記憶部130に読取指紋画像が記憶された後(たとえば、数フレーム後)に指紋画像読取部101により読み取られた読取指紋画像(以下においては、移動後読取指紋画像とも称する)とを比較する。相関値演算部104は、当該比較により、ユーザの指の動作に基づく画像相関値(たとえば、移動ベクトル値)を演算する。
ポインティングデバイス10は、さらに、表示制御部106と、表示部110とを備える。
データ変換部105は、相関値演算部104により算出された移動ベクトル値に基づいて、表示制御部106に所定の動作を行なわせるための出力値に変換する。
表示制御部106は、データ変換部105から出力された出力値に基づいて、表示部110に表示されている、ポインタ(カーソル)等を移動表示させる制御を行なう。
特開2002−62983号公報
特開2002−62983号公報(特許文献1)に開示されている技術では、特殊な形状の指プレートで指紋センサを覆う必要があり,小型化には限界があった。
また、特開2002−62983号公報(特許文献1)に開示されている技術では、特別なセンサ装置が必要であり、低コスト化に限度があった。
また、特開2002−62983号公報(特許文献1)に開示されている技術では、指プレートのガイド形状に応じて、上下左右の方向が限定されるため、ガイド以外の方向に対して、容易にカーソルを動かすことができない。
また、特開2002−62983号公報(特許文献1)に開示されている技術では、取得された指紋画像と、1または数フレーム前の指紋画像とに対して、一般的な画像処理技術である画像相関値をそのまま計算し画像の動きを算出する方法を行なっている。
この方法では、指紋センサで取得された画像をそのまま用いて、動き検出を行っているため、画像相関値を演算するための演算時間が多く必要であり、リアルタイムに指の動きに応じて表示画面上のポインタ(カーソル)を移動させることができない可能性がある。
本発明は、上述の問題点を解決するためになされたものであって、その目的は、低コストで、操作感のよいポインティングデバイスを提供することである。
上記の課題を解決するために、この発明のある局面に従うと、ポインティングデバイスは、画像情報を取得するセンサと、所定時間毎に、センサにより取得された画像情報に基づく画像に対し、空間分解能を下げ、濃淡の分解能を高めた比較画像を生成する画像生成部と、画像生成部が生成した複数の比較画像のうち、第1の比較画像を記憶する記憶部と、複数の比較画像のうち、第1の比較画像より後に画像生成部が生成した第2の比較画像内の所定領域と、第1の比較画像内の所定領域との相関関係を示す相関値を演算する相関値演算部と、相関値からユーザの動作を検出し、動作をコンピュータへの出力値に変換するデータ変換部とを備える。
好ましくは、ポインティングデバイスは、画像を表示する表示部と、出力値に応じて、表示部でポインタを移動させる表示制御部とをさらに備える。
好ましくは、センサは、画像情報を2値画像として取得し、画像生成部は、2値画像を複数の領域に分割し、複数の領域の各々が有する複数の画素値に基づいて変換画素値を計算し、計算した複数の変換画素値の各々を、対応する領域の画素値とした比較画像を生成する。
好ましくは、センサは、画像情報として、指紋あるいは指紋に由来する指紋画像情報を取得する。
好ましくは、ポインティングデバイスは、指紋画像情報と、予め記憶された指紋データとの照合を行うための指紋照合部をさらに備える。
好ましくは、センサの画像情報読取方式は、静電容量式、光学式、または感圧式である。
本発明に係るポインティングデバイスは、画像情報を取得するセンサと、所定時間毎に、センサにより取得された画像情報に基づく画像に対し、空間分解能を下げ、濃淡の分解能を高めた比較画像を生成する画像生成部とを備える。画像生成部が生成した複数の比較画像のうち、第1の比較画像内の所定領域と、第1の比較画像より後に生成した第2の比較画像内の所定領域との相関関係を示す相関値を演算する。したがって、相関値を演算するための演算量を大幅に削減することができる。その結果、安価な演算プロセッサを用いても、十分にポインティングデバイスとしての機能をさせることができる。その結果、低コストなポインティングデバイスを提供することができる。
また、本発明に係るポインティングデバイスは、センサは、画像情報を2値画像として取得し、画像生成部は、2値画像を複数の領域に分割し、複数の領域の各々が有する複数の画素値に基づいて変換画素値を計算し、計算した複数の変換画素値の各々を、対応する領域の画素値とした比較画像を生成する。したがって、センサに、画像情報を2値画像として取得できる安価なものを使用することができるので、低コストなポインティングデバイスを提供することができる。
また、本発明に係るポインティングデバイスは、指紋画像情報と、予め記憶された指紋データとの照合を行うための指紋照合部をさらに備える。したがって、指紋による個人照合機能と、ポインティングデバイスの機能とを1つのデバイスで行なうことができる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
図1は、第1の実施の形態におけるポインティングデバイス100の外観図である。
図1を参照して、ポインティングデバイス100は、表示部110と、指紋センサ120とを備える。
表示部110は、液晶ディスプレイ(LCD(Liquid Crystal Display))、CRT(Cathode Ray Tube)、FED(Field Emission Display)、PDP(Plasma Display Panel)、有機ELディスプレイ(Organic Electro luminescence Display)、ドットマトリクス等その他の画像表示方式の表示機器のいずれであってもよい。
指紋センサ120は、ユーザの指の指紋を検出する機能を有する。
図2は、指紋センサ120の詳細な構成を示す図である。本発明においては、センサの一例として、静電容量方式の構成を示す。なお、本発明においては、指紋センサは、静電容量方式に限定されることなく、光学式、感圧式などであっても良い。
図2を参照して、指紋センサ120は、電極群210と、電極群210を覆うように電極群210の上方に設けられた保護膜200とを含む。
電極群210は、行列状に配列された電極211.1,211.2,・・・,211.nを有する。以下においては、電極211.1,211.2,・・・,211.nを総括的に電極211とも称する。
電極211は、保護膜200の上に載置された、たとえば、指の指紋の凹凸(保護膜200と指の表面との距離)によって帯電する電荷量が異なる特性を有する。指紋の溝の(凹)部分が載置された電極211の帯電量は、指紋の山の(凸)部分が載置された電極211の帯電量よりも少なくなる。
電極211に帯電した電荷を電荷量に応じて、たとえば、電圧値に変換し、当該電圧値をデジタル値に変換することで、指紋の画像が得られる。
図3は、本発明におけるポインティングデバイス100を上方から示した図である。
図3を参照して、ユーザは、指紋センサ120上で、指を動かすことにより、表示部110内でポインタを移動表示させることができる。以下においては、指紋センサ120に対し、矢印Aの方向を上方向、矢印Aと反対の方向を下方向、矢印Bの方向を右方向、矢印Bと反対の左方向とも称する。
表示部110において、左下の位置P1を原点とし、X方向の座標をX座標とし、Y方向の座標をY座標とする。
図4は、ポインティングデバイス100の構成を示すブロック図である。
図4を参照して、ポインティングデバイス100は、指紋画像読取部101と、制御部125と、記憶部130とを備える。
指紋画像読取部101は、前述した指紋センサ120である。指紋画像読取部101は、所定時間(たとえば、33ミリ秒)毎に、ユーザの指紋を白黒の2値で表した画像(以下においては、読取指紋2値画像とも称する。)として読み取る。
記憶部130は、ユーザの指紋を画像化したものであって、前述した照合指紋画像が予め記憶されている。記憶部130は、電源を供給されなくてもデータを保持可能な媒体(たとえば、フラッシュメモリ)である。
すなわち、記憶部130は、記憶の消去・書き込みを何度でも行えるEPROM(Erasable Programmable Read Only Memory)、電気的に内容を書き換えることができるEEPROM(Electronically Erasable and Programmable Read Only Memory)、紫外線を使って記憶内容の消去・再書き込みを何度でも行えるUV−EPROM(Ultra-Violet Erasable Programmable Read Only Memory)、その他、不揮発的にデータを記憶保持可能な構成を有する回路のいずれであってもよい。
また、記憶部130は、データを一時的に記憶可能なRAM(Random Access Memory)、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、SDRAM(Synchronous DRAM)、ダブルデータレートモードという高速なデータ転送機能を持ったSDRAMであるDDR−SDRAM(Double Data Rate SDRAM)、Rambus社が開発した高速インターフェース技術を採用したDRAMであるRDRAM(Rambus Dynamic Random Access Memory)、Direct−RDRAM(Direct Rambus Dynamic Random Access Memory)、その他、データを揮発的に記憶保持可能な構成を有する回路のいずれであってもよい。
制御部125は、指紋照合部107と、比較画像生成部102とを含む。
指紋照合部107は、指紋画像読取部101により読み取られた読取指紋2値画像と照合指紋画像とが一致するか否かを判定する。指紋照合部107により、読取指紋2値画像と照合指紋画像とが一致すると判定されると、ユーザは、ポインティングデバイス100を使用可能となる。一方、指紋照合部107により、読取指紋2値画像と照合指紋画像とが一致しないと判定されると、ユーザは、ポインティングデバイス100を使用することはできない。
比較画像生成部102は、指紋画像読取部101が、順次、読み取った読取指紋2値画像に基づいて、空間分解能を下げ、濃淡の分解能を高めた画像(以下においては、比較画像とも称する)を、順次、生成する。ここで、空間分解能を下げるとは、画像の縦横の解像度を下げることである。また、濃淡の分解能を高めるとは、画像の濃淡を2段階で表現していたものを、たとえば、5段階で表現することである。
比較画像生成部102は、順次、生成した比較画像を記憶部130に上書き記憶させる。
図5は、比較画像生成部102によって処理される前の画像と、処理後の画像とを示した図である。
図5(A)は、指紋画像読取部101により読み取られた読取指紋2値画像300を示す。
図6は、比較画像生成部102によって処理される前の画像と、処理後の画像を説明するための図である。
図6(A)は、読取指紋2値画像300を示す図である。読取指紋2値画像300は、図5(A)に示した読取指紋2値画像300を、画素単位で白と黒で表現している状態を示す。なお、白は、画素値が“0”、黒は、画素値が“1”であるとする。
読取指紋2値画像300は、たとえば、横16画素、縦16画素からなる256個の画素を有する画像であるとする。また、左上の座標を(0,0)、右下の座標を(16,16)とする。なお、読取指紋2値画像300は、横16ドット、縦16ドットに限定されることなく、サイズは任意である。読取指紋2値画像300は、たとえば、横256ドット、縦256ドットの画像であってもよい。
図6(B)は、比較画像生成部102によって、読取指紋2値画像300の空間分解能が下げられ、濃淡の分解能が高められた比較画像300Aを示す画像である。
比較画像300Aは、読取指紋2値画像300内の、縦2画素、横2画素からなる4画素を1つの領域(たとえば、領域R0)(以下においては、分割領域とも称する)とし、1つの分割領域(領域R0)を比較画像300Aの1画素(画素R00)に置き換え、1画素毎に濃淡の分解能を高めた画像である。具体的には、読取指紋2値画像300内の複数の分割領域の各々毎に、画素値(以下においては、領域内画素値とも称する)の合計が計算され、計算された画素値に基づいて、比較画像300Aが生成される。
読取指紋2値画像300内の分割領域(たとえば、領域R0)の4画素すべてが白の場合は、領域内画素値は“0”とする。読取指紋2値画像300内の分割領域の4画素のうち、1画素が黒の場合は、領域内画素値は“1” とする。
読取指紋2値画像300内の分割領域の4画素のうち、2画素が黒の場合は、領域内画素値は“2” とする。読取指紋2値画像300内の分割領域の4画素のうち、3画素が黒の場合は、領域内画素値は“3” とする。読取指紋2値画像300内の分割領域の4画素のうち、4画素が黒の場合は、領域内画素値は“4” とする。
したがって、比較画像生成部102は、上記計算により、図6(A)の読取指紋2値画像300に基づいて、図6(B)の比較画像300Aを生成する。比較画像300Aは、横8画素、縦8画素からなる64個の画素を有する画像となる。以下においては、比較画像300Aが比較画像生成部102により生成された時刻を時刻t1と称する。
なお、分割領域のサイズは、縦2画素、横2画素に限定されることなく、サイズは任意である。1つの領域のサイズは、たとえば、縦4画素、横4画素であってもよい。
再び、図5を参照して、図5(B)は、図6(B)の比較画像300Aを、画像として表示した図である。
図5(C)は、記憶部130に比較画像300Aが記憶された後(たとえば、数フレーム後)に、指紋画像読取部101により読み取られた読取指紋2値画像310を示す。
図5(D)は、読取指紋2値画像310に基づいて、比較画像生成部102が生成した比較画像310Aを示す。
再び、図4を参照して、制御部125は、さらに、相関値演算部104を含む。
相関値演算部104は、記憶部130に記憶されている比較画像300Aと、比較画像300Aより後に比較画像生成部102が生成した比較画像310Aとを比較する。相関値演算部104は、当該比較により、ユーザの指の動作に基づく移動ベクトル値、移動量などの画像相関値を演算する。以下においては、相関値演算部104が画像相関値を演算する処理を相関値演算処理とも称する。また、比較画像310Aが比較画像生成部102により生成された時刻を時刻t2と称する。
図7は、相関値演算処理のフローチャートである。
図7を参照して、ステップS100では、相関値演算部104が、記憶部130に記憶されている比較画像300A(CPIMG)を読み出す。そして、相関値演算部104は、比較画像300A(CPIMG)内に領域R1の設定を行なう。
図8は、比較画像に設定された領域を示す図である。
図8(A)は、比較画像300A(CPIMG)内に設定された領域R1を示す図である。なお、図8(A)においては、比較画像300A(CPIMG)内の左上に領域R1を設定した図を示しているが、領域R1の位置は、比較画像300A(CPIMG)内のどこであってもよく、比較画像300A(CPIMG)内の真中であってもよい。
再び、図7を参照して、ステップS100の処理の後、ステップS110の処理が行なわれる。
ステップS110では、比較画像生成部102が生成した比較画像310A(IMG)内に領域R2の設定が行なわれる。
再び、図8を参照して、図8(B)は、比較画像310A(IMG)内に設定された領域R2を示す図である。領域R2は、領域R1と同じサイズである。なお、領域R1,R2の縦方向のサイズをh、横方向のサイズをwとする。領域R2は、最初に、比較画像310A(IMG)内の左上に設定される。なお、本実施の形態においては、領域R1,R2の形状を矩形にしているが、本発明は、これに限定されない。領域R1,R2の形状は、たとえば、円、楕円、ひし型などであってもよい。
再び、図7を参照して、ステップS110の処理の後、ステップS112の処理が行なわれる。
ステップS112では、相関値演算部104により、比較画像300A(CPIMG)内の領域R1と、比較画像310A(IMG)内の領域R2とのパターンマッチングが行なわれる。パターンマッチングは、以下の(1)式に基づいて行なわれる。
Figure 0004208200
C1(s,t)は、(1)式に基づく類似度値を示し、類似度値が高い程、値が大きくなる。(s,t)は、領域R2の座標を示す。領域R2の座標の初期値は、(0,0)である。V0は、比較画像300A(CPIMG)および比較画像310A(IMG)のうち、最も大きい画素値である。本実施の形態においては、V0は、“4”であるとする。R1(x,y)は、領域R1の座標(x,y)における画素値である。R2(s+x,t+y)は、領域R2の座標(s+x,t+y)における画素値である。また、h=4、w=4であるとする。
まず、類似度値C1(0,0)を、(1)式に基づいて計算する。このとき、R2の座標は(0,0)である。(1)式により、領域R1内の画素値と、領域R2の画素値との類似度値が算出される。その後、ステップS114の処理が行なわれる。なお、本実施の形態では、読取指紋2値画像300の代わりに、画素数が4分の1の比較画像を使用しているため、類似度値の算出処理も、4分の1になる。
なお、パターンマッチングを行なう式は、(1)式に限定されることなく、たとえば、以下の(2)式であってもよい。
Figure 0004208200
ステップS114では、ステップS112により算出した類似度値が、記憶部130に記憶されている類似度値より大きいか否かが判定される。記憶部130には、類似度値の初期値として“0”が記憶されている。したがって、最初にステップS114の処理が行なわれるときは、ステップS114により、ステップS112により算出した類似度値が、記憶部130に記憶されている類似度値より大きいと判定され、ステップS116の処理が行なわれる。
ステップS116では、相関値演算部104が、ステップS112において算出された類似度値および算出された類似度値に対応する領域R2の座標値を記憶部130に上書き記憶させる。その後、ステップS118の処理が行なわれる。
ステップS118では、類似度値を全て算出したか否かが判定される。最初に、ステップS118の処理が行なわれるときは、1つしか類似度値を算出していないので、再度、ステップS110の処理が行なわれる。
ステップS110では、比較画像310A内に領域R2の設定が行なわれる。領域R2は、ステップS110の処理毎に、比較画像310A内の左上から、右(X)方向に1画素ずつ、移動するよう設定される。
なお、領域R2が、比較画像310A内の右端まで移動したら、領域R2は、下(Y)方向に1画素移動した位置であって、左端の位置(座標値(0,1))に設定される。その後、領域R2は、ステップS110の処理毎に、再度、右(X)方向に1画素ずつ、移動するように設定される。領域R2は、上記の処理が繰返し行なわれることにより、最終的に、比較画像310A内の右下に設定される。ステップS110の後、前述したステップS112の処理が行なわれる。
ステップS112では、前述した処理と同様な処理が行なわれるので詳細な説明は繰り返さない。その後、ステップS114の処理が行なわれる。
ステップS114では、ステップS112により算出した類似度値が、記憶部130に記憶されている類似度値より大きいか否かが判定される。ステップS114により、ステップS112により算出した類似度値が、記憶部130に記憶されている類似度値より大きいと判定されると、前述したステップS116の処理が行なわれる。一方、ステップS114により、ステップS112により算出した類似度値が、記憶部130に記憶されている類似度値より大きくないと判定されると、ステップS118の処理が行なわれる。
上記のステップS110,112,114,116の処理が、ステップS118の条件を満たすまで、繰返し行なわれることにより、記憶部130には、類似度値の最大値(以下においては、最大類似度値とも称する)および最大類似度値に対応する領域R2の座標値が記憶される。なお、本実施の形態では、読取指紋2値画像300の代わりに、画素数が4分の1の比較画像を使用しているため、ステップS110,112,114,116の処理を繰返し行なう回数も、読取指紋2値画像300を使用した場合に比べ、4分の1になる。
ステップS118の条件を満たすと、ステップS120の処理が行なわれる。
ステップS120の処理では、記憶部130に記憶された最大類似度値に対応する領域R2の座標値(以下においては、最大類似座標値とも称する)に基づいて、移動ベクトル値の算出処理が行なわれる。
図9は、移動ベクトル値の算出処理を説明するための図である。
図9(A)は、比較画像300A内に設定された領域R1を示す図である。なお、図9(A)は、図8(A)と同様なので詳細な説明は繰り返さない。
図9(B)は、最大類似座標値に領域R2を示した図である。なお、最大類似座標値に配置された領域R2を最大類似領域M1とも称する。
したがって、以下の(3)式により、移動ベクトル値を算出することができる。
Vi=(Vix、Viy)=(Mix−Rix、Miy−Riy) ・・・(3)
Mixは、最大類似座標値のx座標値を示す。Miyは、最大類似座標値のy座標値を示す。Rixは、領域R1のx座標値を示す。Riyは、領域R1のy座標値を示す。
再び、図7を参照して、ステップS120の処理の後、ステップS122の処理が行なわれる。
ステップS122では、ステップS120で算出した移動ベクトル値の保存処理が行なわれる。具体的には、相関値演算部104が、記憶部130に移動ベクトル値を記憶させる。以上により、相関値演算処理が終了する。
再び、図4を参照して、制御部125は、データ変換部105を含む。ポインティングデバイス100は、さらに、表示制御部106と、表示部110とを備える。
相関値演算部104は、記憶部130に記憶させた移動ベクトル値を読出し、データ変換部105へ出力する。データ変換部105は、相関値演算部104により算出された移動ベクトル値に基づいて、表示制御部106に所定の動作を行なわせるための出力値に変換する。
表示制御部106は、データ変換部105から出力された出力値に基づいて、表示部110に表示されている、ポインタ(カーソル)等を移動表示させる制御を行なう。
以上説明したように、本実施の形態においては、指紋画像読取部101が、順次、読み取った読取指紋2値画像に基づいて、空間分解能を下げ、濃淡の分解能を高めた比較画像を利用することにより、読取指紋2値画像をそのまま利用するよりも、移動ベクトルを算出するための演算量を大幅に削減することができる。
したがって、制御部125に安価な演算プロセッサを用いても、十分にポインティングデバイスとしての機能をさせることができる。その結果、低コストなポインティングデバイスを提供することができる。
また、本発明では、指紋画像読取部101は、画像情報を2値画像として取得できる安価なセンサであればよいので、低コストなポインティングデバイスを提供することができる。
なお、本発明によれば、特開2002−62983号公報(特許文献1)に開示されている技術のように、特別なセンサ装置が必要なく、低コストなポインティングデバイスを提供することができる。
また、本発明によれば、特開2002−62983号公報(特許文献1)に開示されている技術のように、指プレート等を用いないので、操作感のよいポインティングデバイスを提供することができる。
また、本発明によれば、指紋による個人照合機能と、ポインティングデバイスの機能とを1つのデバイスで行なうことができる。
なお、本実施の形態では、指紋照合部107、比較画像生成部102、相関値演算部104、データ変換部105は、1つの制御部125に含まれるとしているが、これに限定されることなく、その構成は任意である。たとえば、指紋照合部107、比較画像生成部102、相関値演算部104およびデータ変換部105の各々は、別々のプロセッサであってもよい。
<第1の実施の形態の変形例>
第1の実施の形態では、ポインティングデバイス100に表示部110が備えられている構成としたが、これに限定されず、ポインティングデバイス100は、表示部110を備えなくてもよい。本発明における、ポインティングデバイスは、パーソナルコンピュータ(以下においては、PC(Personal Computer)も称する)に接続可能なインタフェースであってもよい。
図10は、PC160に接続されたポインティングデバイス100Aの構成を示すブロック図である。なお、図10には、説明のため、PC160と、表示部115も示している。
図10を参照して、ポインティングデバイス100Aは、図4のポインティングデバイス100と比較して、表示制御部106を備えない点と、表示部110を備えない点とが異なる。また、ポインティングデバイス100Aは、ポインティングデバイス100と比較して、通信部109を備える点が異なる。
ポインティングデバイス100Aは、通信部109を介して、PC160と接続されている。PC160は、表示部115に接続されている。表示部115は、PC160の処理に基づいた画像を表示する。なお、表示部115は、前述した表示部110と同様な構成を有するので詳細な説明は繰り返さない。それ以外の構成は、ポインティングデバイス100と同様なので詳細な説明は繰り返さない。
次に、ポインティングデバイス100Aにおいて、ポインティングデバイス100と異なる部分の動作について説明する。
データ変換部105は、相関値演算部104により算出された移動ベクトル値に基づいて、PC160に所定の動作を行なわせるための出力値に変換する。データ変換部105は、通信部109へ出力値を出力する。
通信部109は、USB(Universal Serial Bus)1.1、USB2.0、その他シリアル転送を行なう通信用インターフェースのいずれであってもよい。
また、通信部109は、セントロニクス仕様、IEEE1284(Institute of Electrical and Electronic Engineers 1284)、その他パラレル転送を行なう通信用インターフェースのいずれであってもよい。
また、通信部109は、IEEE1394、その他SCSI規格を利用した通信用インターフェースのいずれであってもよい。
通信部109は、データ変換部105から入力された出力値をPC160へ出力する。
PC160は、通信部109から出力された出力値に基づいて、表示部115に表示されている、ポインタ(カーソル)等を移動表示させる制御を行なう。
以上説明したように、ポインティングデバイス100Aは、PC160に接続可能なインタフェースとしても動作する。このポインティングデバイス100Aの構成においても、第1の実施の形態と同様な効果を得ることができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
第1の実施の形態におけるポインティングデバイスの外観図である。 指紋センサの詳細な構成を示す図である。 本発明におけるポインティングデバイスを上方から示した図である。 ポインティングデバイスの構成を示すブロック図である。 比較画像生成部によって処理される前の画像と、処理後の画像とを示した図である。 比較画像生成部によって処理される前の画像と、処理後の画像を説明するための図である。 相関値演算処理のフローチャートである。 比較画像に設定された領域を示す図である。 移動ベクトル値の算出処理を説明するための図である。 PCに接続されたポインティングデバイスの構成を示すブロック図である。 従来のポインティングデバイスの構成を示すブロック図である。
符号の説明
100 ポインティングデバイス、101 指紋画像読取部、102 比較画像生成部、104 相関値演算部、107 指紋照合部、110 表示部、120 指紋センサ、125 制御部、130 記憶部。

Claims (6)

  1. 画像情報を取得するセンサと、
    所定時間毎に、前記センサにより取得された前記画像情報に基づく画像に対し、空間分解能を下げ、濃淡の分解能を高めた比較画像を生成する画像生成部と、
    前記画像生成部が生成した複数の前記比較画像のうち、第1の比較画像を記憶する記憶部と、
    前記複数の比較画像のうち、前記第1の比較画像より後に前記画像生成部が生成した第2の比較画像内の所定領域と、前記第1の比較画像内の所定領域との相関関係を示す相関値を演算する相関値演算部と、
    前記相関値からユーザの動作を検出し、前記動作をコンピュータへの出力値に変換するデータ変換部とを備える、ポインティングデバイス。
  2. 画像を表示する表示部と、
    前記出力値に応じて、前記表示部でポインタを移動させる表示制御部とをさらに備える、請求項1に記載のポインティングデバイス。
  3. 前記センサは、前記画像情報を2値画像として取得し、
    前記画像生成部は、前記2値画像を複数の領域に分割し、前記複数の領域の各々が有する複数の画素値に基づいて変換画素値を計算し、計算した複数の前記変換画素値の各々を、対応する領域の画素値とした前記比較画像を生成する、請求項1または請求項2に記載のポインティングデバイス。
  4. 前記センサは、画像情報として、指紋あるいは指紋に由来する指紋画像情報を取得する、請求項1〜請求項3のいずれかに記載のポインティングデバイス。
  5. 前記指紋画像情報と、予め記憶された指紋データとの照合を行うための指紋照合部をさらに備える、請求項4に記載のポインティングデバイス。
  6. 前記センサの画像情報読取方式は、静電容量式、光学式、または感圧式である、請求項1〜請求項5のいずれかに記載のポインティングデバイス。
JP2004281989A 2004-09-28 2004-09-28 ポインティングデバイス Expired - Fee Related JP4208200B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004281989A JP4208200B2 (ja) 2004-09-28 2004-09-28 ポインティングデバイス
US11/235,378 US20060066572A1 (en) 2004-09-28 2005-09-27 Pointing device offering good operability at low cost
CNB2005101071560A CN100363881C (zh) 2004-09-28 2005-09-28 以较低成本提供良好操作性能的点击设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004281989A JP4208200B2 (ja) 2004-09-28 2004-09-28 ポインティングデバイス

Publications (2)

Publication Number Publication Date
JP2006099230A JP2006099230A (ja) 2006-04-13
JP4208200B2 true JP4208200B2 (ja) 2009-01-14

Family

ID=36098464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004281989A Expired - Fee Related JP4208200B2 (ja) 2004-09-28 2004-09-28 ポインティングデバイス

Country Status (3)

Country Link
US (1) US20060066572A1 (ja)
JP (1) JP4208200B2 (ja)
CN (1) CN100363881C (ja)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229184B2 (en) * 2004-04-16 2012-07-24 Validity Sensors, Inc. Method and algorithm for accurate finger motion tracking
US8077935B2 (en) 2004-04-23 2011-12-13 Validity Sensors, Inc. Methods and apparatus for acquiring a swiped fingerprint image
US8165355B2 (en) * 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8358815B2 (en) * 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
US8447077B2 (en) * 2006-09-11 2013-05-21 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
US8131026B2 (en) 2004-04-16 2012-03-06 Validity Sensors, Inc. Method and apparatus for fingerprint image reconstruction
US8175345B2 (en) 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
WO2006041780A1 (en) 2004-10-04 2006-04-20 Validity Sensors, Inc. Fingerprint sensing assemblies comprising a substrate
JP4029410B2 (ja) * 2006-05-05 2008-01-09 治幸 岩田 指先装着センサによる入力装置
WO2008033264A2 (en) * 2006-09-11 2008-03-20 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US7705613B2 (en) * 2007-01-03 2010-04-27 Abhay Misra Sensitivity capacitive sensor
JP4450008B2 (ja) 2007-04-17 2010-04-14 株式会社カシオ日立モバイルコミュニケーションズ 電子機器
US8107212B2 (en) * 2007-04-30 2012-01-31 Validity Sensors, Inc. Apparatus and method for protecting fingerprint sensing circuitry from electrostatic discharge
US8290150B2 (en) * 2007-05-11 2012-10-16 Validity Sensors, Inc. Method and system for electronically securing an electronic device using physically unclonable functions
US20110002461A1 (en) * 2007-05-11 2011-01-06 Validity Sensors, Inc. Method and System for Electronically Securing an Electronic Biometric Device Using Physically Unclonable Functions
JP2009009019A (ja) * 2007-06-29 2009-01-15 Seiko Epson Corp ソースドライバ、電気光学装置、投写型表示装置及び電子機器
US8204281B2 (en) * 2007-12-14 2012-06-19 Validity Sensors, Inc. System and method to remove artifacts from fingerprint sensor scans
US8276816B2 (en) * 2007-12-14 2012-10-02 Validity Sensors, Inc. Smart card system with ergonomic fingerprint sensor and method of using
JP4374049B2 (ja) * 2007-12-27 2009-12-02 株式会社東芝 電子機器
JP4292228B1 (ja) 2007-12-27 2009-07-08 株式会社東芝 情報処理装置
US8116540B2 (en) * 2008-04-04 2012-02-14 Validity Sensors, Inc. Apparatus and method for reducing noise in fingerprint sensing circuits
US8005276B2 (en) 2008-04-04 2011-08-23 Validity Sensors, Inc. Apparatus and method for reducing parasitic capacitive coupling and noise in fingerprint sensing circuits
WO2009125644A1 (ja) * 2008-04-10 2009-10-15 シャープ株式会社 光センサ付き表示装置
WO2010036445A1 (en) * 2008-07-22 2010-04-01 Validity Sensors, Inc. System, device and method for securing a device component
US8391568B2 (en) * 2008-11-10 2013-03-05 Validity Sensors, Inc. System and method for improved scanning of fingerprint edges
US8600122B2 (en) * 2009-01-15 2013-12-03 Validity Sensors, Inc. Apparatus and method for culling substantially redundant data in fingerprint sensing circuits
US8278946B2 (en) 2009-01-15 2012-10-02 Validity Sensors, Inc. Apparatus and method for detecting finger activity on a fingerprint sensor
US20100180136A1 (en) * 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Wake-On-Event Mode For Biometric Systems
US20100176892A1 (en) * 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Oscillator
US8374407B2 (en) 2009-01-28 2013-02-12 Validity Sensors, Inc. Live finger detection
US20100208953A1 (en) * 2009-02-17 2010-08-19 Validity Sensors, Inc. Illuminated Fingerprint Sensor and Method
US9400911B2 (en) 2009-10-30 2016-07-26 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US9274553B2 (en) 2009-10-30 2016-03-01 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US9336428B2 (en) 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US8421890B2 (en) 2010-01-15 2013-04-16 Picofield Technologies, Inc. Electronic imager using an impedance sensor grid array and method of making
US8866347B2 (en) 2010-01-15 2014-10-21 Idex Asa Biometric image sensing
US8791792B2 (en) * 2010-01-15 2014-07-29 Idex Asa Electronic imager using an impedance sensor grid array mounted on or about a switch and method of making
US9666635B2 (en) 2010-02-19 2017-05-30 Synaptics Incorporated Fingerprint sensing circuit
US8716613B2 (en) * 2010-03-02 2014-05-06 Synaptics Incoporated Apparatus and method for electrostatic discharge protection
JP2011243042A (ja) * 2010-05-19 2011-12-01 Nec Corp 生体撮像装置、及び生体撮像方法
US9001040B2 (en) 2010-06-02 2015-04-07 Synaptics Incorporated Integrated fingerprint sensor and navigation device
US8331096B2 (en) 2010-08-20 2012-12-11 Validity Sensors, Inc. Fingerprint acquisition expansion card apparatus
US8594393B2 (en) 2011-01-26 2013-11-26 Validity Sensors System for and method of image reconstruction with dual line scanner using line counts
US8538097B2 (en) 2011-01-26 2013-09-17 Validity Sensors, Inc. User input utilizing dual line scanner apparatus and method
GB2489100A (en) 2011-03-16 2012-09-19 Validity Sensors Inc Wafer-level packaging for a fingerprint sensor
JP5812719B2 (ja) * 2011-06-27 2015-11-17 健太郎 正木 頭髪撮影画像のデータ処理方法およびデータ比較方法
US10043052B2 (en) 2011-10-27 2018-08-07 Synaptics Incorporated Electronic device packages and methods
US9195877B2 (en) 2011-12-23 2015-11-24 Synaptics Incorporated Methods and devices for capacitive image sensing
US9785299B2 (en) 2012-01-03 2017-10-10 Synaptics Incorporated Structures and manufacturing methods for glass covered electronic devices
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
US9268991B2 (en) 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
US9137438B2 (en) 2012-03-27 2015-09-15 Synaptics Incorporated Biometric object sensor and method
US9600709B2 (en) 2012-03-28 2017-03-21 Synaptics Incorporated Methods and systems for enrolling biometric data
US9152838B2 (en) 2012-03-29 2015-10-06 Synaptics Incorporated Fingerprint sensor packagings and methods
EP2958052B1 (en) 2012-04-10 2020-10-07 Idex Asa Biometric sensing
US9569655B2 (en) * 2012-04-25 2017-02-14 Jack Harper Digital voting logic for manufacturable finger asperity wafer-scale solid state palm print scan devices
US9733727B2 (en) * 2012-12-07 2017-08-15 Wen-Chieh Geoffrey Lee Optical mouse with cursor rotating ability
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
US10254855B2 (en) 2013-06-04 2019-04-09 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering device
KR101774746B1 (ko) * 2015-08-13 2017-09-05 주식회사 슈프리마 지문 인증 방법 및 그 지문 인증 방법을 이용한 장치
CN106814941A (zh) * 2015-11-30 2017-06-09 小米科技有限责任公司 指令生成方法及装置
CN105496136B (zh) * 2015-12-10 2018-03-06 嘉兴学院 一种智能水杯的信息网络化方法
DE102016109142A1 (de) * 2016-05-18 2017-11-23 Preh Gmbh In einem Identifikationsmodus und einem Eingabemodus betriebene Eingabeeinrichtung
CN109844693A (zh) 2016-10-24 2019-06-04 索尼公司 信息处理设备、信息处理方法以及程序
US12135859B2 (en) 2018-08-07 2024-11-05 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface
US11307730B2 (en) 2018-10-19 2022-04-19 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface configured for machine learning
US11216150B2 (en) 2019-06-28 2022-01-04 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface with vector field functionality

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641350A (en) * 1984-05-17 1987-02-03 Bunn Robert F Fingerprint identification system
JPH077256B2 (ja) * 1990-07-25 1995-01-30 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン グレイ・スケール・パターンの発生方法
JP2543267B2 (ja) * 1990-11-21 1996-10-16 松下電送株式会社 画像縮小装置と画像表示装置
US5828773A (en) * 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
US6501846B1 (en) * 1997-11-25 2002-12-31 Ethentica, Inc. Method and system for computer access and cursor control using a relief object image generator
US6400836B2 (en) * 1998-05-15 2002-06-04 International Business Machines Corporation Combined fingerprint acquisition and control device
CN1129840C (zh) * 1999-08-18 2003-12-03 致伸实业股份有限公司 光标控制装置
US6678414B1 (en) * 2000-02-17 2004-01-13 Xerox Corporation Loose-gray-scale template matching
JP2002062983A (ja) * 2000-08-21 2002-02-28 Hitachi Ltd ポインティングデバイス
JP4022090B2 (ja) * 2002-03-27 2007-12-12 富士通株式会社 指の動きの検出方法および検出装置
US7102617B2 (en) * 2002-12-30 2006-09-05 Motorola, Inc. Compact optical pointing apparatus and method
JP4023469B2 (ja) * 2004-04-09 2007-12-19 村田機械株式会社 方向指示装置

Also Published As

Publication number Publication date
US20060066572A1 (en) 2006-03-30
CN100363881C (zh) 2008-01-23
JP2006099230A (ja) 2006-04-13
CN1755602A (zh) 2006-04-05

Similar Documents

Publication Publication Date Title
JP4208200B2 (ja) ポインティングデバイス
US8610670B2 (en) Imaging and display apparatus, information input apparatus, object detection medium, and object detection method
JP4790653B2 (ja) 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法
CN108985146A (zh) 指纹传感器的操作方法和包括指纹传感器的显示设备
US7528848B2 (en) Embedded interaction code decoding for a liquid crystal display
US7602373B2 (en) Color liquid crystal display device and image display thereof
US6642458B2 (en) Touch screen device and method for co-extensively presenting text characters and rendering ink in a common area of a user interface
JP4727615B2 (ja) 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法
CN108874240B (zh) 基于墨水屏设备的字符输入方法、墨水屏设备和存储介质
JP2008250949A5 (ja)
JP2008250949A (ja) 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法
KR20110074145A (ko) 펜 입력 장치 및 방법
JP2008250951A5 (ja)
CN110941981A (zh) 使用显示器的移动指纹识别方法和设备
CN113642373A (zh) 获得参考图像的方法和执行光学对象识别的方法
KR102570007B1 (ko) 필기 입력을 보정하는 방법 및 전자 장치
KR102468082B1 (ko) 필기 입력에 대한 보정 방법, 이를 위한 전자 장치 및 저장 매체
CN108334162A (zh) 一种电子设备的显示处理方法及电子设备
US20170085784A1 (en) Method for image capturing and an electronic device using the method
CN110168540B (zh) 在电子显示器上捕获注释
US8199129B2 (en) Touch sensitive display device and method of determining touch
JP4964849B2 (ja) 画像処理装置、画像処理プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理方法
TWI674536B (zh) 指紋導航方法及電子裝置
CN118244921A (zh) 用于触控显示面板的显示驱动方法及模块、触控显示装置
CN119007297A (zh) 手语识别方法、设备及可读存储介质

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081017

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131031

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees