[go: up one dir, main page]

JP7508517B2 - 情報処理システム、情報処理装置、プログラム、および、制御方法 - Google Patents

情報処理システム、情報処理装置、プログラム、および、制御方法 Download PDF

Info

Publication number
JP7508517B2
JP7508517B2 JP2022156154A JP2022156154A JP7508517B2 JP 7508517 B2 JP7508517 B2 JP 7508517B2 JP 2022156154 A JP2022156154 A JP 2022156154A JP 2022156154 A JP2022156154 A JP 2022156154A JP 7508517 B2 JP7508517 B2 JP 7508517B2
Authority
JP
Japan
Prior art keywords
information processing
vibration
audio
unit
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022156154A
Other languages
English (en)
Other versions
JP2024049739A (ja
Inventor
圭一 吉冨
充弘 山▲ざき▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2022156154A priority Critical patent/JP7508517B2/ja
Priority to US18/446,477 priority patent/US20240111477A1/en
Priority to CN202311213465.0A priority patent/CN117784952A/zh
Priority to JP2024024834A priority patent/JP2024050999A/ja
Publication of JP2024049739A publication Critical patent/JP2024049739A/ja
Application granted granted Critical
Publication of JP7508517B2 publication Critical patent/JP7508517B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)

Description

本発明は、情報処理システム、情報処理装置、プログラム、および、制御方法を備える入力デバイスの制御に関する。
ハプティックペン(haptic pen)とは、触覚フィードバック機能(haptics feedback)を有するデジタルペンである。デジタルペンは、手書き文字などの情報処理装置への表示および記録に用いられる入力デバイスである。デジタルペンは、電子ペン、スマートペン、スタイラス、などとも呼ばれる。触覚フィードバックは、文字等を表示するタッチパネルへの接触に応じて振動体を振動させることにより実現される。触覚フィードバック機能を備えることで、書き心地の向上が試みられている。ハプティックペンにおいて、筆記具の紙への機械的な接触により生ずる振動を模擬することも試みられている。
例えば、特許文献1には、第1の端部を有するスタイラス本体を含み、第1の端部は、ユーザによって使用されるときに、第1の機能および第2の機能を提供するために構成される対話型スタイラスについて記載されている。対話型スタイラスは、第1の端部と対話型ディスプレイ装置の電極マトリックスとを容量結合させるように、第1の端部を駆動させるように構成されたコントローラをさらに含む。容量結合は、第1の機能に関連し、第2の機能は、明示的なユーザ入力無しに、第1の機能を使用するユーザの意図を自動的に感知することに応じて、無効にされる。対話型スタイラスは、スタイラス本体に含まれ、かつ、第2の機能に関連する触覚アクチュエータをさらに有し、第2の機能を無効にすることは、触覚アクチュエータの動作を阻止することを含む。
特開2017-228173号公報 特開2019-185339号公報
しかしながら、振動を模擬するだけでは、ボールペンなど機械式の筆記具と同様の感覚を再現することは、一般に困難である。筆記の際には、振動以外にも、音などの他の種類の刺激が発生する。ユーザは、これらを総合して書き心地を知覚しているためと考えられる。そのため、ハプティックペンの使用感が向上するとは限らなかった。
本発明は上記の課題を解決するためになされたものであり、本発明の一態様に係る情報処理システムは、情報処理装置と入力デバイスを備え、前記入力デバイスは、振動部を備え、前記情報処理装置は、タッチセンサおよび表示部、を備え、前記タッチセンサと前記表示部が重畳した情報処理システムであって、前記情報処理装置または前記入力デバイスのコントローラが、前記入力デバイスの前記タッチセンサへの接触に応じて、振動成分と音声成分を合成した駆動信号を前記振動部に供給し、前記情報処理装置の音響環境に基づいて前記音声成分の出力特性を定める。
上記の情報処理システムにおいて、前記コントローラは、前記入力デバイスに対する音量設定に従って前記音声成分の強度を定めてもよい。
上記の情報処理システムにおいて、前記コントローラは、消音モードが設定されるとき前記音声成分の出力を停止してもよい。
上記の情報処理システムにおいて、前記情報処理装置は、スピーカを備え、前記コントローラは、前記スピーカからの音量が所定の基準音量を超えるとき前記音声成分の出力を停止してもよい。
上記の情報処理システムにおいて、前記情報処理装置は、周囲の音を収音する収音部を備え、前記コントローラは、前記収音部が収音する音の強度に基づいて前記音声成分の強度を定めてもよい。
本発明の第2態様に係る情報処理装置は、コントローラ、タッチセンサおよび表示部、を備え、前記タッチセンサと前記表示部が重畳し、前記コントローラが、入力デバイスの前記タッチセンサへの接触に応じて、振動成分と音声成分を合成した駆動信号を前記入力デバイスの振動部に供給し、自装置の音響環境に基づいて前記音声成分の出力特性を定める。
本発明の第3態様に係るプログラムは、コンピュータに上記の情報処理装置として機能させるためのプログラムである。
本発明の第4態様に係る制御方法は、情報処理装置と入力デバイスを備え、前記入力デバイスは、振動部を備え、前記情報処理装置は、タッチセンサおよび表示部、を備え、前記タッチセンサと前記表示部が重畳した情報処理システムにおける制御方法であって、前記情報処理装置または前記入力デバイスのコントローラが、前記入力デバイスの前記タッチセンサへの接触に応じて、振動成分と音声成分を合成した駆動信号を前記振動部に供給するステップと、前記情報処理装置の音響環境に基づいて前記音声成分の出力特性を定めるステップと、を実行する。
本発明の実施形態によれば、振動とともに音響環境に応じた音を提示して、入力デバイスの使用感を向上することができる。
本実施形態に係る情報処理システムの外観構成例を示す斜視図である。 本実施形態に係る情報処理システムの概略構成例を示すブロック図である。 本実施形態に係る情報処理システムのハードウェア構成例を示すブロック図である。 本実施形態に係る情報処理システムの機能構成の一例を示すブロック図である。 本実施形態に係る振動発生器の出力特性の一例を示す図である。 本実施形態に係る音声成分の制御方法の第1例を示す図である。 本実施形態に係る音声成分の制御方法の第2例を示す図である。 本実施形態に係る音声成分の制御方法の第3例を示す図である。 本実施形態に係る音声出力制御方法の例を示すフローチャートである。 本実施形態に係る情報処理システムの機能構成の他の例を示すブロック図である。
以下、本発明の実施形態について、図面を参照して説明する。まず、本実施形態に係る情報処理システムS1の構成例について説明する。以下の説明では、情報処理装置1がタブレット端末であり、入力デバイス30が触覚提示機能を有するデジタルペンである場合を主とする。デジタルペンは、ペン形状の操作媒体であり、筆記デバイスとして構成されうる。本願では、デジタルペンを、単に「ペン」と呼ぶことがある。図1は、本実施形態に係る情報処理システムS1の外観構成例を示す斜視図である。情報処理システムS1は、情報処理装置1と、入力デバイス30とを備える。
情報処理装置1は、幅および高さよりも厚みが薄い平板状の形状を有する。情報処理装置1は、筐体CS1を有し、筐体CS1の一方の主面(以下の説明では、「表面」と呼ぶことがある)にタッチスクリーン20を有する。タッチスクリーン20は、筐体CS1の表面を覆う。タッチスクリーン20の外周は、筐体CS1に支持される。筐体CS1には、情報処理装置1のその他の部材が収容される。
入力デバイス30は、ユーザに把持され、タッチスクリーン20の表面に接近または接触しながら移動されることで、文字、記号、図形などのデータ入力または編集に用いられる。タッチスクリーン20は、表示部21と、タッチセンサ22(後述)を備える。表示部21は、その表面に設置される表示画面DFに各種情報を視認可能に表示する。タッチセンサ22は、表示部21の表面に重ねて配置される。タッチセンサ22は、その表面への入力デバイス30の入力動作を検出する。情報処理装置1は、入力動作の有無を監視し、入力動作を検出した位置を特定し、入力動作に基づくデータ入力または編集を実行する。情報処理装置1は、例えば、タッチセンサ22に接触した接触位置の軌跡を表示画面DFに表示させる。
入力デバイス30は、振動部55(後述)を備える。情報処理装置1は、自装置の音響環境を検出し、検出した音響環境に基づいて音声成分の出力特性を定める。
情報処理装置1は、例えば、入力デバイス30に対する音量設定に従って音声成分の強度を定める。情報処理装置1は、自装置と接続し、音声を提示可能とする提示可能デバイスの全てについて一括して音声出力の要否を設定してもよい。その場合、情報処理装置1は、音声出力の要否を入力デバイス30にも適用する。
次に、本実施形態に係る情報処理システムS1の概略構成例について説明する。図2は、本実施形態に係る情報処理システムS1の概略構成例を示すブロック図である。情報処理システムS1は、情報処理装置1と、入力デバイス30とを備える。
情報処理装置1は、制御部10と、タッチセンサ22と、無線通信部29とを備える。タッチセンサ22は、入力デバイス30の入力動作として、表示画面DFへの接触または一定距離内への接近(ホバリング)を検出するとともに、その位置を特定する。タッチセンサ22は、検出した接触または接近、および、その位置を示す検出情報を含む入力データを生成し、生成した入力データを制御部10に出力する。タッチセンサ22は、入力デバイス30と接触した位置である接触位置における圧力を接触圧力として検出し、検出した接触圧力の情報を入力データに含めて制御部10に出力してもよい。タッチセンサ22は、入力デバイス30の長手方向の表示画面DFに対してなす角度をペン角度として検出してもよい。タッチセンサ22は、検出したペン角度の情報を入力データに含めて制御部10に出力してもよい。
制御部10は、情報処理装置1の機能全体を制御する。制御部10は、表示処理部102と、音声設定部103と、音声処理部104と、振動制御部110とを備える。
音声設定部103は、例えば、表示部21の表示画面DF(図1)として音声設定画面(図示せず)を表示させる。音声設定画面は、音声を提示させるための提示用デバイスと音量を設定するための画面である。音声設定画面は、自部に接続され、音声を提示可能とする提示可能デバイスを表し、提示可能デバイスごとに音量調整量を指示するための画面部品が配置される。音量調整量は、音声信号に対する利得に相当する。
音声設定部103は、提示可能デバイスごとに音声出力の要否を示す音声提示モードを設定してもよい。音声提示モードには、例えば、通常モード、消音モードなどがある。通常モードは、取得した音声信号に基づいて音声を提示可能とする動作態様である。消音モードは、取得した音声信号に基づく音声を提示しない動作態様である。消音モードは、マナーモードとも呼ばれる。音声提示モードは、情報処理装置1の提示可能デバイス共通に設定されてもよい。
音声設定部103は、例えば、タッチセンサ22からの入力データに基づいて提示可能デバイスのいずれかを提示用デバイスとして選択し、提示用デバイスに対する音量調整量を設定する。提示可能デバイスとして、例えば、スピーカ26(後述)と入力デバイス30が含まれる。音声設定部103は、選択した提示用デバイスと音量調整量を示す音声設定情報を音声処理部104に出力する。音声設定情報には、音声提示モードの情報が含まれてもよい。
音声設定部103は、情報処理装置1の提示可能デバイス共通の消音モードを、個々の提示可能デバイスに対する音声提示モードよりも優先して適用してもよい。即ち、提示可能デバイス共通の音声提示モードとして消音モードが設定される場合には、提示用デバイスとしての入力デバイス30に対する音声設定情報として消音モードが通知される。
音声設定部103は、提示用デバイスとして入力デバイス30が選択されるか否かに関わらず、入力デバイス30に対する音量調整量を設定可能としてもよい。入力デバイス30は、提示可能デバイスとして選択されるか否かに関わらず、タッチセンサ22への接触に応じて接触音を生成可能とすることは許容されうる。入力デバイス30に対する音量調整量が設定される場合には、音声設定部103は、入力デバイス30に対する音量調整量を示す音声設定情報を入力デバイス30に無線通信部29を経由して音響環境情報として出力する。音声設定情報は、情報処理装置1の音響環境を伝達する情報とみなすこともできる。
音声設定部103の機能は、例えば、オペレーティングシステム(OS:Operating System)のデバイス設定API(Application Programming Interface)関数を実行して実現されうる。音声設定部103の機能は、アプリケーションプログラム(application program、本願では、「アプリ」と呼ぶことがある)に従って当該API関数を呼び出して実現されてもよい。また、本願では、プログラムの実行とは、プログラムに記述された各種の指令で指示される処理を実行するとの意味を含む。
音声処理部104は、音声の提示が指示されるとき、音声信号を取得する。音声の提示は、例えば、タッチセンサ22からの音声再生ボタンの押下を示す入力データにより指示されうる。音声処理部104は、次のいずれかの手法を用いて音声信号を取得してもよい:情報処理装置1の外部からの音声信号の入力、予め記憶された音声信号の読み取り、音声信号の合成、等。音声処理部104は、音声設定部103に係るアプリの機能の一部として実現されてもよい。当該アプリは、例えば、音声通話アプリ、録音再生アプリ、音声合成アプリ、音声配信アプリなどのいずれであってもよい。
音声処理部104には、音声設定部103から音声設定情報が入力される。音声処理部104は、音声設定情報で指示される音量調整量で取得した音声信号の音量を調整する。音声処理部104は、音量調整後の音声信号を、音響環境情報で指示される提示用デバイスに出力する。なお、音声設定情報において消音モード(マナーモード)が指示される場合には、音声処理部104は、次に消音モードの解除が指示されるまで、取得される音声信号の出力を停止する。
なお、音声設定部103は、マイクロホン25から入力される音声信号の音量を周囲音量として定めてもよい。音声設定部103は、定めた周囲音量を示す情報を音響環境情報に含めて入力デバイス30に無線通信部29を経由して出力してもよい。
また、音声設定部103において提示用デバイスとしてスピーカ26が選択される場合には、音声処理部104は、音量調整後の音声信号を音声設定部103に出力してもよい。音声設定部103は、音声処理部104から入力される音量調整後の音声信号の音量をスピーカ音量として定める。音声設定部103は、定めたスピーカ音量を示す情報を音響環境情報に含めて入力デバイス30に無線通信部29を経由して出力してもよい。
表示処理部102は、タッチセンサ22からの入力データで指示される入力動作に従ってデータ入力または編集を行う。表示処理部102は、例えば、一定時間ごとに入力される入力データで指示される接触位置を特定し、接触位置の時系列を形成する。表示処理部102は、形成した接触位置の時系列に基づいて移動軌跡を生成し表示部21に表示させる。
振動制御部110は、タッチセンサ22からの入力動作を示す入力データに基づいて振動部55による振動の制御に用いる情報を入力デバイス30に提供する。振動制御部110の機能は、例えば、入力デバイス30のデバイスドライバを実行して実現されてもよい。
振動制御部110は、タッチセンサ22への接触を示す入力データから、接触位置の情報と接触圧力の情報の一方または両方を振動制御情報として検出する。振動制御部110は、検出した振動制御情報を入力デバイス30に無線通信部29を経由して出力する。振動制御部110は、入力データから表示画面DF上の入力デバイス30の接触位置の移動方向と入力デバイス30の長手方向とのなす角度を方位角として推定してもよい。振動制御部110は、例えば、直前の時刻における接触位置から、その時点の接触位置への変位の方向を入力デバイス30の移動方向として定めることができる。振動制御部110は、入力データに示されるペン角度を、その時点における入力デバイス30の長手方向の向きとして定めることができる。振動制御部110は、推定した方位角を示す情報を振動制御情報に含めて入力デバイス30に出力してもよい。
無線通信部29は、所定の通信方式を用いて、入力デバイス30と無線で各種のデータを送受信する。
次に、入力デバイス30の概略構成例について説明する。入力デバイス30は、無線通信部31と、デバイス制御部50と、振動部55とを備える。
無線通信部31は、所定の通信方式を用いて、情報処理装置1と無線で各種のデータを送受信する。
デバイス制御部50は、入力デバイス30の機能を統括的に制御する。デバイス制御部50には、例えば、情報処理装置1から無線通信部31を用いて音響環境情報と振動制御情報が入力される。デバイス制御部50は、音響環境情報と振動制御情報を用いて振動部55を振動させるための駆動信号を合成する(駆動信号合成)。デバイス制御部50は、合成した駆動信号を振動部55に出力する。
デバイス制御部50は、予め設定された基準振動波形情報を参照し、基準振動制御情報に基づいて振動成分を示す振動信号を生成する。基準振動波形情報は、基準となる振動波形を示す情報である。振動成分の特性は、デバイス制御部50により基準振動制御情報を用いて調整される。デバイス制御部50は、予め設定された基準音声波形情報を参照し、音声設定情報に基づいて音声成分を示す音声信号を生成する。音声成分の出力特性は、デバイス制御部50により音響環境情報を用いて調整される。駆動信号の生成例については後述する。
振動部55は、デバイス制御部50から入力される駆動信号に従って振動する。振動部55の振動のうち音声成分は音波を発生させ、音として提示される。振動部55の振動のうち振動成分は、振動として提示される。
一般に、人間の可聴帯域は20Hz-20kHz程度であり、500Hz-2kHz帯域に対する感度が他の周波数帯域に対する感度より高い。より低い周波数帯域では、感度が低下する。これに対し、人間の触覚は、10-100Hz帯域に対する感度が他の周波数帯域に対する感度より高い。より高い周波数帯域では、感度が低下する。500Hz以上の周波数では、ほとんど振動が知覚されない。振動信号は、約200Hz以下の低域成分が主となる。これに対し、音声信号は、約200Hz以上の高域成分が主となる。
次に、本実施形態に係る情報処理システムS1のハードウェア構成例について説明する。図3は、本実施形態に係る情報処理システムS1のハードウェア構成例を示すブロック図である。情報処理システムS1は、情報処理装置1と、入力デバイス30とを備える。情報処理装置1は、プロセッサ11と、メインメモリ12と、フラッシュメモリ13と、タッチスクリーン20と、オーディオシステム24と、マイクロホン25と、スピーカ26と、ベースバンドチップ27と、第2通信部28と、無線通信部29とを備える。
プロセッサ11は、情報処理装置1全体の機能を制御する。プロセッサ11として、例えば、1個以上のCPU(Central Processing Unit)が適用される。プロセッサ11は、所定のプログラムを実行し、メインメモリ12と、その他のハードウェアと協働し、制御部10としての機能を奏する。
メインメモリ12は、プロセッサ11の作業領域、即ち、実行プログラム、各種設定データの読み込み領域、プログラムの実行により取得した処理データの書き込み領域として利用される書き込み可能メモリである。メインメモリ12は、例えば、複数個のDRAM(Dynamic Random Access Memory)チップを含んで構成される。実行プログラムには、OS、周辺機器等を制御するための各種デバイスドライバ、各種サービス/ユーティリティ、アプリ、などが含まれる。
フラッシュメモリ13には、予めOS、各種デバイスドライバ、各種サービス/ユーティリティ、アプリ、および、各種データを記憶させておく。
表示部21は、プロセッサ11から出力される表示データに基づく各種の表示画面を表示する。表示部21は、例えば、液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイなどのいずれであってもよい。
タッチセンサ22は、接触検出部221と、デバイス検出部222とを備える。
接触検出部221は、表示画面DFに接触した物体(本願では、主に入力デバイス30)と、その接触位置を検出する。接触検出部221は、表示画面DFに接触した物体の接触圧力を検出する。接触検出部221は、例えば、静電容量圧力センサである。接触検出部221は、接触した物体の傾き、即ち、ペン角度を検出してもよい。接触検出部221が3軸の圧力センサである場合には、個々の軸方向の圧力に対する方向余弦を用いてペン角度を特定することができる。
デバイス検出部222は、接触には至っていないが、自部に接近した入力デバイス30とその位置を接近位置として検出する。デバイス検出部222は、例えば、電磁誘導センサを備える。電磁誘導センサは、接近により、共振回路LC1(後述)に生じる交流の誘導磁場を検出する。電磁誘導センサは、その共振周波数における検出した磁場の大きさが一定値を超える位置が存在するか否かにより、入力デバイス30の接近の有無を検出することができる。電磁誘導センサは、検出した磁場の大きさが一定値を超える位置を入力デバイス30の接近位置として特定することができる。
オーディオシステム24は、音声信号に対する処理、入力、出力、記録、再生、符号化、および、復号などの処理を行う。オーディオシステム24は、例えば、オーディオIC(Integrated Circuit)を備える。オーディオシステム24には、マイクロホン25とスピーカ26が接続されている。オーディオシステム24には、プロセッサ11、マイクロホン25またはベースバンドチップ27から音声信号が入力されうる。オーディオシステム24は、自部に記録した音声信号を読み出す。オーディオシステム24は、取得した音声信号をスピーカ26またはプロセッサ11に出力することができる。プロセッサ11に出力された音声信号は、ベースバンドチップ27を経由して第2通信部28、または、無線通信部29を経由して入力デバイス30に出力されうる。
マイクロホン25は、自部に到来する音を収音し、収音された音の音声信号をオーディオシステム24に出力する。
スピーカ26は、オーディオシステム24から入力される音声信号に基づいて音を提示する。
ベースバンドチップ27は、第2通信部28を用いた通信を制御するための専用ICである。ベースバンドチップ27は、例えば、4G(第4世代無線通信システム)、5G(第5世代無線通信システム)などの公衆無線通信システム、IEEE802.11に規定された構内無線通信ネットワークなどを用いた通信を実現する。ベースバンドチップ27は、プロセッサ11からの制御に従い、第2通信部28を用いて通信ネットワークを経由した他の機器と各種のデータを送受信可能に接続し、各種のデータを送受信する。
第2通信部28は、無線通信ネットワークと接続するための無線通信モジュールである。第2通信部28は、電波を送受信するアンテナを備える。
無線通信部29は、入力デバイス30と無線データを送受信するための無線通信モジュールである。無線通信部29は、通信方式として、例えば、IEEE802.15.1に規定された無線PAN(Personal Area Network)方式を用いることができる。
入力デバイス30は、径よりも長さの方が大きい細長の形状を有する操作媒体である。入力デバイス30は、無線通信部31と、MCU32と、振動部55と、共振回路LC1とを備える。
無線通信部31は、情報処理装置1の無線通信部29と無線データを送受信するための無線通信モジュールである。
MCU(Micro Controller Unit)32は、入力デバイス30の機能を統括的に制御する。MCU32は、プロセッサと、ROMやRAMなどのメモリと、各種の入出力インタフェースを備える。MCU32は、情報処理装置1とは独立に稼働する。MCU32は、所定のプログラムを実行して、上記のデバイス制御部50としての機能を奏する。
MCU32には、情報処理装置1から無線通信部31を用いて音声設定情報と振動制御情報が入力される。MCU32は、音声設定情報と振動制御情報の一方または両方を用いて駆動信号を合成する。MCU32は、合成した駆動信号を振動部55に出力する。
振動部55は、DAC33と、アンプ34と、振動発生器35とを備える。
DAC(Digital-to-Analog Converter)33は、MCU32から入力されるディジタルの駆動信号をアナログの駆動信号に変換する。DAC33は、変換されたアナログの駆動信号をアンプ34に出力する。
アンプ(amplifier)34は、DAC33から入力される駆動信号の振幅を調整し、振幅を調整した駆動信号を振動発生器35に出力する。
振動発生器35は、アンプ34から入力される駆動信号に従って振動を発生するアクチュエータである。振動発生器35は、例えば、ピエゾ素子などの圧電振動子を備える。
共振回路LC1は、一定の共振周波数で共振する電流を生ずる電気回路である。共振回路LC1は、例えば、コイルとキャパシタを直列に接続して構成される。共振回路LC1は、自身が発生した交流電流により、その共振周波数で極性が変動する磁場を発生させる。発生した磁場によりタッチセンサ22のデバイス検出部222により入力デバイス30の接近が検出される。
次に、本実施形態に係る情報処理システムS1の機能構成例について説明する。
図4は、本実施形態に係る情報処理システムS1の機能構成例を示すブロック図である。図4の例では、図2、図3との差異点を主として説明する。図2、図3との共通点につては、共通の符号を付し、特に断らない限り、上記の説明を援用する。
情報処理システムS1は、情報処理装置1と、入力デバイス30とを備える。
情報処理装置1は、制御部10と、タッチスクリーン20と、無線通信部29と、記憶部40とを備える。記憶部40は、例えば、メインメモリ12とフラッシュメモリ13により実現される。
制御部10は、入力処理部101と、表示処理部102と、音声設定部103と、音声処理部104と、振動制御部110とを備える。
入力デバイス30は、無線通信部31と、デバイス制御部50と、振動部55と、を備える。
入力処理部101は、タッチセンサ22からの入力を制御する。入力処理部101の機能は、例えば、プロセッサ11によるタッチセンサ22のデバイスドライバの実行により実現される。入力処理部101は、タッチセンサ22から入力される入力データをOSの指令に従って振動制御部110に出力する。
入力デバイス30は、デバイス制御部50において振動制御部510を備える。
振動制御部510は、上記のように無線通信部31を用いて入力される音響環境情報と振動制御情報に基づいて振動部55の振動を制御する。振動制御部510は、振動制御情報によりタッチセンサ22への接触が通知されるとき音声成分と振動成分を含む駆動信号を生成する。振動制御部510は、生成した駆動信号を振動部55に出力する。
振動制御部510は、振動制御情報で伝達されるタッチセンサ22への接触状態に基づいて駆動信号全体の出力特性を制御する。振動制御部510は、例えば、接触状態として接触位置の情報が含まれる場合、接触位置の移動速度が高いほど振動成分または駆動信号全体の振幅を大きくする。振動制御部510は、接触状態として接触圧力の情報が含まれる場合、接触圧力が高いほど振動成分または駆動信号全体の振幅を大きくしてもよい。振動制御部510は、音響環境情報で入力デバイス30に対する音量調整量(ペン音量)の情報が含まれる場合、その音量調整量に基づいて音声成分の音量を調整してもよい。また、振動制御部510は、音響環境情報に音声提示モードとして消音モードを示す情報が含まれる場合、音声成分の出力を停止する。音声成分の出力を停止するとき、駆動信号を出力する前に、振動制御部510は、駆動信号に音声成分を含めず振動成分を含める。
振動制御部510は、音響環境情報にスピーカ音量を示す情報が含まれる場合には、そのスピーカ音量に基づいて音声成分の出力特性を制御してもよい。例えば、スピーカ音量が所定のスピーカ音量の基準音量よりも大きい場合、振動制御部510は、音声成分の出力を停止する。
振動制御部510は、音響環境情報に周囲音量を示す情報が含まれる場合には、その周囲音量に基づいて音声成分の出力特性を制御してもよい。例えば、周囲音量が所定の周囲音量の基準音量よりも大きい場合、振動制御部510は、音声成分の出力を停止する。
次に、本実施形態に係る振動発生器35の出力特性の一例を示す。図5は、本実施形態に係る振動発生器35の出力特性の一例を示す図である。図5の横軸、縦軸は、それぞれ周波数(Hz)と振幅(Gmrs:実効加速度)を示す。振幅として、周波数ごとの一定の駆動電力に対して振動発生器35に生ずる実効加速度の振幅が示される。振幅の値が大きいほど振動部55が効率よく振動することを示す。振幅は、概ね100Hzにおいて極大となる。100Hzよりも周波数が低い低域では、周波数が低いほど振幅が小さくなり、より周波数が高い高域では、周波数が高いほど振幅が小さくなる。但し、高域における振幅の低下は、低域よりも緩やかである。このことは、主に音声として知覚され、振動として知覚されない高域において音声の提示が可能であることを示す。振動制御部510は、主に高域の出力特性の振幅を調整して音声成分の出力特性を制御することができる。
次に、音声成分の制御方法の例について説明する。図6は、本実施形態に係る音声成分の制御方法の第1例を示す図である。
第1例では、振動制御部510に予め基準波形信号と制御テーブル(図示せず)を設定しておく。基準波形信号は、振動成分と音声成分を含む時系列の信号である。振動制御部510は、可変フィルタと可変アンプを備える。制御テーブルには、可変フィルタのフィルタ係数と音声成分の出力特性との対応関係を示す情報と、移動速度と接触圧力のセットと利得との対応関係を示す情報を予め設定しておく。
振動制御部510は、駆動信号を生成する際、設定された基準波形信号を読み取り、可変フィルタに供給する。振動制御部510は、制御テーブルを参照し、音響環境情報で通知される出力特性に対応するフィルタ係数を定め、定めたフィルタ係数を可変フィルタに設定する。可変フィルタからは、設定された出力特性を有するように音声成分が調整された波形を示す音声調整信号が可変アンプに出力される。
振動制御部510は、振動制御情報で通知される接触状態に基づいて接触位置の移動速度と接触圧力を特定する。振動制御部510は、制御テーブルを参照し、特定した移動速度と接触圧力のセットに対応する利得を定め、定めた利得を可変アンプに設定する。可変フィルタからは、設定された利得で振幅が調整された駆動信号が振動部55に出力される。
次に、音声成分の制御方法の例について説明する。図7は、本実施形態に係る音声成分の制御方法の第2例を示す図である。
第2例では、振動制御部510には、制御テーブル(図示せず)を設定しておくとともに、音声波形を示す音声信号と振動波形を示す振動信号を取得する。
振動制御部510は、基準波形に対する可変フィルタに代え、音声波形、振動波形のそれぞれに対し、音声成分用の可変抵抗素子(以下、「音声用可変抵抗素子」と呼ぶ)と振動成分用の可変抵抗素子(以下、「振動用可変抵抗素子」と呼ぶ)と加算器を備える。制御テーブルには、音声用可変抵抗素子の抵抗値と音声成分の出力特性との対応関係を示す情報と、振動用可変抵抗素子の抵抗値と音声成分の出力特性との対応関係を示す情報と、移動速度と接触圧力のセットと利得との対応関係を示す情報を含めておく。振動用可変抵抗素子の抵抗値と音声成分の出力特性との対応関係を示す情報は必須ではないが、駆動信号における音声成分の相対的な比率を調整することを目的に設定されてもよい。
振動制御部510は、制御テーブルを参照し、音響環境情報で通知される出力特性に対応する音声用可変抵抗素子、振動用可変抵抗素子それぞれに対する抵抗値を特定し、それぞれ特定した抵抗値を音声用可変抵抗素子、振動用可変抵抗素子に設定する。振動制御部510は、取得した音声信号と振動信号を、それぞれ音声用可変抵抗素子と振動用可変抵抗素子に出力する。振動制御部510は、音声用可変抵抗素子と振動用可変抵抗素子から、それぞれ振幅が調整された音声信号と振幅信号を加算器に出力する。
加算器は、入力された音声信号と振幅信号を加算して駆動信号を生成し、生成した駆動信号を可変アンプに出力する。
振動制御部510は、第1例と同様に、制御テーブルを参照して、可変アンプに利得を設定し、可変アンプを用いて駆動信号の利得を調整する。
なお、第2例では、音声用可変抵抗素子と振動用可変抵抗素子に代え、音声成分用の減衰器もしくはアンプ、および、振動成分用の減衰器もしくはアンプが用いられてもよい。
第2例では、予め振動制御部510に設定された基準音声波形信号と基準振動波形信号を処理対象の音声信号と振動信号として用いられてもよい。基準音声波形は、必ずしも筆記の際に筆記具と紙との摩擦により生ずる摩擦音の音声波形には限られず、警告音、その他の通知音が用いられてもよい。また、この構成では音声信号と振動信号の出力特性は、独立して制御可能となる。そのため、振動制御部510は、情報処理装置1から入力される音声信号を処理対象の音声信号として用いてもよいし、自部で独自に合成される音声信号を処理対象の音声信号として用いてもよい。入力または合成される音声信号は、音声設定部103により提示用デバイスとして入力デバイス30が出力先として指定されうる。
振動制御部510は、独自に振動信号を合成してもよい。振動制御部510は、例えば、振動制御情報が方位角の情報を有する場合には、方位角に対応する振動信号を処理対象の振動信号として合成してもよい。その場合、振動制御部510には、予め基準波形情報と合成テーブルを記憶させておく。基準波形情報は、予め定めた複数の基準方位角のそれぞれに対する基準波形を示す情報である。基準方位角は、0°から180°の間に3個以上設定されていればよい。合成テーブルは、基準方位角ごとの基準波形に対する方位角に対する合成比を示すデータテーブルである。振動制御部510は、合成テーブルを参照して、通知された方位角に対する合成比を基準方位角ごとに定める。振動制御部510は、定めた合成比を重み係数とする、基準方位角間での振動波形の加重和を振動信号として生成することができる。
次に、音声成分の制御方法の例について説明する。図8は、本実施形態に係る音声成分の制御方法の第3例を示す図である。
第3例では、振動制御部510には、制御テーブル(図示せず)を設定しておくとともに、複数通りの駆動信号の波形パターンを予め設定しておく。個々の波形パターンは、少なくとも振動成分を含み、それぞれ音声成分の出力特性が異なる。制御テーブルには、移動速度と接触圧力のセットと利得との対応関係を示す情報が含まれる。制御テーブルには、音声信号の出力特性に関する情報は含まれなくてもよい。
振動制御部510は、複数通りの波形パターンのうち、音響環境情報で通知される出力特性に対応する波形パターンを読み出し、読み出した波形パターンに係る駆動信号を可変アンプに出力する。振動制御部510は、第1例と同様に、制御テーブルを参照して、可変アンプに利得を設定し、可変アンプを用いて駆動信号の利得を調整する。
なお、振動制御部510において、上記の基準波形信号、基準音声波形信号、基準振動波形信号、駆動信号(波形パターン)は、それぞれ所定のファイル形式(例えば、WAVE形式)を有するデータファイルに格納して記憶される。
次に、本実施形態に係る音声出力制御方法の例について説明する。図9は、本実施形態に係る音声出力制御方法の例を示すフローチャートである。
(ステップS102)入力デバイス30の振動制御部510は、情報処理装置1から入力される音響環境情報を待ち受ける。振動制御部510は、音響環境情報に音量調整量の情報が含まれるか否かによりペン音量が設定変更されたか否かを判定する。設定変更されたと判定するとき(ステップS102 YES)、ステップS104の処理に進む。設定変更されていないと判定するとき(ステップS102 NO)、ステップS106の処理に進む。
(ステップS104)振動制御部510は、音響環境情報で通知される音量調整量に基づいて音声成分の音量を調整する(ペン音量変更)。
(ステップS106)振動制御部510は、音響環境情報に消音モード(マナーモード)を示す情報が含まれるか否かにより、音声提示モードとして消音モードが設定されたか否かを判定する。消音モードが設定されたと判定するとき(ステップS106 YES)、ステップS114の処理に進む。消音モードが設定されていないと判定するとき(ステップS106 NO)、ステップS108の処理に進む。
(ステップS108)振動制御部510は、音響環境情報にスピーカ音量を示す情報が含まれる場合、スピーカ音量が所定の基準音量よりも大きいか否かを判定する。大きいと判定するとき(ステップS108 YES)、ステップS114の処理に進む。大きくないと判定するとき(ステップS108 NO)、ステップS110の処理に進む。
(ステップS110)振動制御部510は、音響環境情報に周囲音量を示す情報が含まれる場合、周囲音量が所定の基準音量よりも大きいか否かを判定する。大きいと判定するとき(ステップS110 YES)、ステップS114の処理に進む。大きくないと判定するとき(ステップS110 NO)、ステップS112の処理に進む。
(ステップS112)振動制御部510は、音声成分を含む駆動信号を振動部55に出力する。振動部55は、駆動信号に含まれる音声成分に基づく音声を提示する(ペン音声出力)。その後、ステップS102の処理に戻る。
(ステップS114)振動制御部510は、音声成分を含まず、振動成分を含む駆動信号を振動部55に出力する。振動部55は、駆動信号に従って振動し、音声の提示が停止される(ペン音声出力停止)。その後、ステップS102の処理に戻る。
上記の例は、図4に示されるように、入力デバイス30が振動制御部510を備え、情報処理装置1から入力される音響環境情報と振動制御情報に基づいて駆動信号を生成する場合を取得したが、これには限られない。
図10に例示されるように、情報処理装置1の振動制御部110は、音響環境情報と振動制御情報を入力デバイス30に出力せず、上記の振動制御部510と同様の手法で、その音響環境情報と振動信号情報に基づいて駆動信号を生成してもよい。振動制御部110には、その処理に用いるパラメータ、その他のデータを予め設定しておく。振動制御部110は、生成した駆動信号を入力デバイス30に無線通信部29を用いて出力する。入力デバイス30において、デバイス制御部50は、情報処理装置1から無線通信部31を用いて入力される駆動信号を振動部55に出力する。この例では、入力デバイス30において、振動制御部510が省略されてもよい。
また、上記の例では、情報処理装置1がタブレット端末装置である場合を主としたが、これには限られない。情報処理装置1は、多機能携帯電話機(いわゆる、スマートフォンを含む)、パーソナルコンピュータ、など、タッチスクリーンを用いて情報入力その他の形態の情報通信機器であってもよい。
以上に説明したように、本実施形態に係る情報処理システムS1は、情報処理装置1と入力デバイス30を備える。入力デバイス30は、振動部55を備える。情報処理装置1は、タッチセンサ22および表示部21、を備え、タッチセンサ22と表示部21が重畳する。情報処理装置1または入力デバイス30のコントローラ(例えば、プロセッサ11、MCU32のいずれか一方または両方)は、入力デバイス30のタッチセンサ22への接触に応じて、振動成分と音声成分を合成した駆動信号を振動部に供給し、情報処理装置1の音響環境に基づいて音声成分の出力特性を定める。
この構成により、情報処理装置1の音響環境に基づいて音声成分の出力特性が定まり、入力デバイス30への接触に応じて、駆動信号の振動成分に従って振動部が振動するとともに、音声成分に従って音声を提示する。提示される音声の出力特性は、音響環境に基づいて定まる。そのため、タッチセンサ22への接触に応じて振動する入力デバイス30の使用感が向上する。
コントローラは、入力デバイス30に対する音量設定(例えば、音量調整量)に従って音声成分の強度(例えば、振幅)を定めてもよい。
この構成により、入力デバイス30に対する音量設定に従って、入力デバイス30に所望の強度で音声を提示させることができる。
コントローラは、消音モード(即ち、マナーモード)が設定されるとき音声成分の出力を停止してもよい。
この構成により、消音モードが設定されるとき入力デバイス30からの音声の提示が停止される。
情報処理装置1は、スピーカ26を備え、コントローラは、スピーカ26からの音量が所定の基準音量を超えるとき音声成分の出力を停止してもよい。
この構成により、スピーカ26の音量が基準音量よりも大きい入力デバイス30の音声の提示が停止される。スピーカ26からの音により、聴取できない、または、困難になる場合、入力デバイス30からの音声の提示が回避される。
情報処理装置1は、周囲の音を収音する収音部(例えば、マイクロホン25)を備え、コントローラは、収音部が収音する音の強度に基づいて音声成分の強度を定めてもよい(例えば、基準音量を超える場合、音声成分の出力を停止)。
この構成により、収音部が収音する周囲の音の強度に基づいて定まった強度で入力デバイス30から音声が提示される。そのため、ユーザは特段の操作を行わずに環境音の音量に対応する音量で入力デバイス30から提示される音声を聴取することができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。上述の実施形態において説明した各構成は、任意に組み合わせることができる。
S1…情報処理システム、1…情報処理装置、10…制御部、11…プロセッサ、12…メインメモリ、13…フラッシュメモリ、20…タッチスクリーン、21…表示部、22…タッチセンサ、24…オーディオシステム、25…マイクロホン、26…スピーカ、27…ベースバンドチップ、28…第2通信部、29…無線通信部、30…入力デバイス、31…無線通信部、32…MCU、33…DAC、34…アンプ、35…振動発生器、40…記憶部、50…デバイス制御部、55…振動部、101…入力処理部、102…表示処理部、103…音声設定部、104…音声処理部、110…振動制御部、221…接触検出部、222…デバイス検出部、510…振動制御部

Claims (7)

  1. 情報処理装置、入力デバイスおよびスピーカを備え、
    前記入力デバイスは、振動部を備え、
    前記情報処理装置は、タッチセンサおよび表示部、を備え、
    前記タッチセンサと前記表示部が重畳した情報処理システムであって、
    前記情報処理装置または前記入力デバイスのコントローラが、
    前記入力デバイスの前記タッチセンサへの接触に応じて、振動成分と音声成分を合成した駆動信号を前記振動部に供給し、
    前記情報処理装置の音響環境に基づいて前記音声成分の出力特性を定め、
    前記スピーカからの音量が所定の基準音量を超えるとき前記音声成分の出力を停止する
    情報処理システム。
  2. 前記コントローラは、
    前記入力デバイスに対する音量設定に従って前記音声成分の強度を定める
    請求項1に記載の情報処理システム。
  3. 前記コントローラは、
    消音モードが設定されるとき前記音声成分の出力を停止する
    請求項1に記載の情報処理システム。
  4. 前記情報処理装置は、周囲の音を収音する収音部を備え、
    前記コントローラは、
    前記収音部が収音する音の強度に基づいて前記音声成分の強度を定める
    請求項1に記載の情報処理システム。
  5. コントローラ、タッチセンサ、表示部およびスピーカを備え、
    前記タッチセンサと前記表示部が重畳し、
    前記コントローラが、
    入力デバイスの前記タッチセンサへの接触に応じて、振動成分と音声成分を合成した駆動信号を前記入力デバイスの1つの振動部に供給し、
    自装置の音響環境に基づいて前記音声成分の出力特性を定め
    前記スピーカからの音量が所定の基準音量を超えるとき前記音声成分の出力を停止する
    情報処理装置。
  6. コンピュータに
    請求項に記載の情報処理装置として機能させるためのプログラム。
  7. 情報処理装置と入力デバイスを備え、
    前記入力デバイスは、1つの振動部を備え、
    前記情報処理装置は、タッチセンサ、表示部およびスピーカを備え、
    前記タッチセンサと前記表示部が重畳した情報処理システムにおける制御方法であって、
    前記情報処理装置または前記入力デバイスのコントローラが、
    前記入力デバイスの前記タッチセンサへの接触に応じて、振動成分と音声成分を合成した駆動信号を前記1つの振動部に供給するステップと、
    前記情報処理装置の音響環境に基づいて前記音声成分の出力特性を定めるステップと、
    前記スピーカからの音量が所定の基準音量を超えるとき前記音声成分の出力を停止するステップと、
    を実行する
    制御方法。
JP2022156154A 2022-09-29 2022-09-29 情報処理システム、情報処理装置、プログラム、および、制御方法 Active JP7508517B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022156154A JP7508517B2 (ja) 2022-09-29 2022-09-29 情報処理システム、情報処理装置、プログラム、および、制御方法
US18/446,477 US20240111477A1 (en) 2022-09-29 2023-08-09 Information processing system, information processing apparatus, recording medium, and control method
CN202311213465.0A CN117784952A (zh) 2022-09-29 2023-09-20 信息处理系统、信息处理装置、程序以及控制方法
JP2024024834A JP2024050999A (ja) 2022-09-29 2024-02-21 情報処理システム、情報処理装置、プログラム、および、制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022156154A JP7508517B2 (ja) 2022-09-29 2022-09-29 情報処理システム、情報処理装置、プログラム、および、制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024024834A Division JP2024050999A (ja) 2022-09-29 2024-02-21 情報処理システム、情報処理装置、プログラム、および、制御方法

Publications (2)

Publication Number Publication Date
JP2024049739A JP2024049739A (ja) 2024-04-10
JP7508517B2 true JP7508517B2 (ja) 2024-07-01

Family

ID=90380352

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022156154A Active JP7508517B2 (ja) 2022-09-29 2022-09-29 情報処理システム、情報処理装置、プログラム、および、制御方法
JP2024024834A Pending JP2024050999A (ja) 2022-09-29 2024-02-21 情報処理システム、情報処理装置、プログラム、および、制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024024834A Pending JP2024050999A (ja) 2022-09-29 2024-02-21 情報処理システム、情報処理装置、プログラム、および、制御方法

Country Status (3)

Country Link
US (1) US20240111477A1 (ja)
JP (2) JP7508517B2 (ja)
CN (1) CN117784952A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031410A (ja) 2004-07-16 2006-02-02 Nintendo Co Ltd 振動機能付スタイラスペンおよびそれを用いたゲームシステム
JP2007122501A (ja) 2005-10-28 2007-05-17 Sony Corp 電子機器
WO2008078523A1 (ja) 2006-12-25 2008-07-03 Konica Minolta Holdings, Inc. 手書き電子入力システム
JP2014222492A (ja) 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
CN104471522A (zh) 2012-07-13 2015-03-25 三星电子株式会社 用于用户终端的用户界面装置和方法
JP2015057659A (ja) 2014-10-24 2015-03-26 ソニー株式会社 表示装置、表示方法、プログラム
WO2021124906A1 (ja) 2019-12-19 2021-06-24 ソニーグループ株式会社 制御装置、信号処理方法およびスピーカ装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US8654993B2 (en) * 2005-12-07 2014-02-18 Apple Inc. Portable audio device providing automated control of audio volume parameters for hearing protection
JP5951994B2 (ja) * 2008-12-19 2016-07-13 イマージョン コーポレーションImmersion Corporation 対話型ペインティングゲーム及び関連するコントローラ
US20160048209A1 (en) * 2013-05-21 2016-02-18 Samsung Electronics Co., Ltd. Method and apparatus for controlling vibration
US9489048B2 (en) * 2013-12-13 2016-11-08 Immersion Corporation Systems and methods for optical transmission of haptic display parameters
US9781537B2 (en) * 2016-01-12 2017-10-03 Disney Enterprises, Inc. Systems and methods for adjusting audio based on ambient sounds
JP7256611B2 (ja) * 2018-07-11 2023-04-12 任天堂株式会社 タッチペンアタッチメント、操作システム、および、ゲームシステム
US11650700B2 (en) * 2021-09-10 2023-05-16 Dell Products L.P. Information handling system stylus having an ultrasonic location aid

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031410A (ja) 2004-07-16 2006-02-02 Nintendo Co Ltd 振動機能付スタイラスペンおよびそれを用いたゲームシステム
JP2007122501A (ja) 2005-10-28 2007-05-17 Sony Corp 電子機器
WO2008078523A1 (ja) 2006-12-25 2008-07-03 Konica Minolta Holdings, Inc. 手書き電子入力システム
CN104471522A (zh) 2012-07-13 2015-03-25 三星电子株式会社 用于用户终端的用户界面装置和方法
JP2014222492A (ja) 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
JP2015057659A (ja) 2014-10-24 2015-03-26 ソニー株式会社 表示装置、表示方法、プログラム
WO2021124906A1 (ja) 2019-12-19 2021-06-24 ソニーグループ株式会社 制御装置、信号処理方法およびスピーカ装置

Also Published As

Publication number Publication date
JP2024050999A (ja) 2024-04-10
US20240111477A1 (en) 2024-04-04
CN117784952A (zh) 2024-03-29
JP2024049739A (ja) 2024-04-10

Similar Documents

Publication Publication Date Title
CN117500611B (zh) 用于致动器参数的系统内估计的方法和系统
JP5208362B2 (ja) 電子機器
EP2846221A1 (en) Method, system and computer program product for transforming haptic signals
KR20140077125A (ko) 증가된 lra 대역폭을 구비한 햅틱 시스템
CN109032556B (zh) 发声控制方法、装置、电子装置以及存储介质
US10238964B2 (en) Information processing apparatus, information processing system, and information processing method
CN109144460B (zh) 发声控制方法、装置、电子装置以及存储介质
CN108769327A (zh) 显示屏发声的方法、装置、电子装置及存储介质
EP3462285A1 (en) Haptic pitch control
CN111124346B (zh) 电子设备及其音量调节方法
JP7508517B2 (ja) 情報処理システム、情報処理装置、プログラム、および、制御方法
CN108900689B (zh) 发声控制方法、装置、电子设备及存储介质
CN109144459B (zh) 发声控制方法、装置、电子装置以及存储介质
JP7474363B1 (ja) 情報処理システム
JP7348368B1 (ja) 情報処理システム、情報処理装置、プログラム、および、制御方法
US20200142492A1 (en) Haptic effects using a high bandwidth thin actuation system
JP7434633B1 (ja) 情報処理装置、情報処理システム、入力デバイスおよび制御方法
US11641546B2 (en) Frequency-domain haptic waveform compensation for haptic transducers
US20200371592A1 (en) Sensing and compensating for non-linear haptic vibration
JP7605937B1 (ja) 入力デバイスおよび情報処理システム
CN109144462A (zh) 发声控制方法、装置、电子装置及计算机可读介质
WO2024250304A1 (zh) 触控面板控制方法、装置、电子设备及存储介质
WO2020176343A1 (en) Systems, devices and methods for single actuator audio haptic systems
JP2013242814A (ja) 電子機器
JP2021534597A (ja) デュアルパネルオーディオアクチュエータおよびこれを含むモバイル装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240619

R150 Certificate of patent or registration of utility model

Ref document number: 7508517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150