[go: up one dir, main page]

JP2016162010A - Processing system, terminal device, processing apparatus, processing apparatus control method, and computer program - Google Patents

Processing system, terminal device, processing apparatus, processing apparatus control method, and computer program Download PDF

Info

Publication number
JP2016162010A
JP2016162010A JP2015037573A JP2015037573A JP2016162010A JP 2016162010 A JP2016162010 A JP 2016162010A JP 2015037573 A JP2015037573 A JP 2015037573A JP 2015037573 A JP2015037573 A JP 2015037573A JP 2016162010 A JP2016162010 A JP 2016162010A
Authority
JP
Japan
Prior art keywords
screen
terminal device
processing device
text
operation screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015037573A
Other languages
Japanese (ja)
Other versions
JP6531427B2 (en
Inventor
洋一 来正
Yoichi Kurumasa
洋一 来正
勇司 川村
Yuji Kawamura
勇司 川村
美絵 川端
Mie Kawabata
美絵 川端
健太郎 永谷
Kentaro Nagatani
健太郎 永谷
潤 國岡
Jun Kunioka
潤 國岡
博 杉浦
Hiroshi Sugiura
博 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015037573A priority Critical patent/JP6531427B2/en
Publication of JP2016162010A publication Critical patent/JP2016162010A/en
Application granted granted Critical
Publication of JP6531427B2 publication Critical patent/JP6531427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve visibility compared with a prior art in inputting a text to an image forming apparatus by using a voice IME while remote access to the image forming apparatus from a terminal device.SOLUTION: While remote access to an image forming apparatus from a terminal device, a screen 16 normally displayed on the image forming apparatus is displayed on the terminal device. When an area 161 to input a text is tapped, the terminal device displays a screen 17 of a software keyboard normally displayed on the image forming apparatus. The terminal device further displays a belt-like character display area 261 sufficiently smaller than the screen 17 on the screen 17 as a screen to display a text acquired with a voice IME on the basis of a voice.SELECTED DRAWING: Figure 6

Description

本発明は、端末装置と画像形成装置などとのリモートアクセスの際の表示の技術に関する。   The present invention relates to a display technique for remote access between a terminal device and an image forming apparatus.

コピー、スキャン、ファックス、またはドキュメントサーバなど様々な機能が備わった画像形成装置が普及している。このような画像形成装置は、「複合機」または「MFP(Multi-functional Peripheral)」と呼ばれることもある。   2. Description of the Related Art Image forming apparatuses having various functions such as copying, scanning, faxing, and document servers are widely used. Such an image forming apparatus is sometimes called a “multifunction peripheral” or “MFP (Multi-functional Peripheral)”.

画像形成装置には、通常、タッチパネルディスプレイが備わっている。タッチパネルディスプレイには、画像形成装置を操作するための様々な画面が表示される。   An image forming apparatus is usually provided with a touch panel display. Various screens for operating the image forming apparatus are displayed on the touch panel display.

また、タブレットコンピュータおよびスマートフォンなどの可搬型の端末装置から画像形成装置へリモートアクセスし、画像形成装置の画面を端末装置に表示させ、端末装置からの操作に基づいて画像形成装置が処理を実行する技術が、提案されている(特許文献1)。   Further, the image forming apparatus is remotely accessed from a portable terminal device such as a tablet computer or a smartphone, the screen of the image forming apparatus is displayed on the terminal apparatus, and the image forming apparatus executes processing based on an operation from the terminal apparatus. A technique has been proposed (Patent Document 1).

さらに、近年、端末装置には、音声によってテキストを入力する機能が備えられるようになった。この機能は、「音声IME」などと呼ばれることがある。   Furthermore, in recent years, terminal devices have been provided with a function of inputting text by voice. This function is sometimes called “voice IME”.

特開平5−122424号公報JP-A-5-122424

端末装置から画像形成装置へリモートアクセスしている際にも、音声IMEによって画像形成装置へテキストを入力することができる。   Even during remote access from the terminal device to the image forming apparatus, text can be input to the image forming apparatus by voice IME.

端末装置に備えられる従来の音声IMEによってテキストを入力する際に、端末装置のディスプレイの表示面のほぼ全域に、音声IMEの操作用の画面が表示される。   When text is input using a conventional voice IME provided in the terminal device, a screen for operating the voice IME is displayed on almost the entire display surface of the display of the terminal device.

しかし、上述の通り、画像形成装置には、様々な画面が用意されている。したがって、リモートアクセスの最中に音声IMEの操作用の画面が表示されると、画像形成装置に対してどのような操作を行っているのかがユーザにとって分かりにくくなってしまう。つまり、視認性が悪くなってしまう。   However, as described above, various screens are prepared in the image forming apparatus. Therefore, if a screen for operating the audio IME is displayed during remote access, it is difficult for the user to understand what operation is being performed on the image forming apparatus. That is, the visibility is deteriorated.

本発明は、このような問題点に鑑み、端末装置から画像形成装置へのリモートアクセスの最中に、いわゆる音声IMEを用いて画像形成装置へテキストを入力する場合の視認性を従来よりも向上させることを、目的とする。   In view of such problems, the present invention improves the visibility when inputting text into an image forming apparatus using a so-called voice IME during remote access from the terminal device to the image forming apparatus. The purpose is to make it.

本発明の一形態に係る処理システムは、特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、前記処理装置に、当該処理装置をユーザが操作するための操作用画面の画面データを前記端末装置へ送信する画面データ送信手段、が設けられ、前記端末装置に、前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、音声を集音する集音手段と、集音された前記音声が表わすテキストを示すためのテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する確認画面表示手段と、前記テキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、が設けられる。     A processing system according to an aspect of the present invention is a processing system including a processing device that performs specific processing and a terminal device that controls the processing device by remote access, and the processing device includes the processing device. Screen data transmitting means for transmitting screen data of an operation screen for a user to operate the device to the terminal device is provided, and the terminal device is based on the screen data transmitted from the processing device. An operation screen display means for displaying the operation screen, a sound collection means for collecting sound, and a confirmation screen having a text area for indicating the text represented by the collected sound are displayed as part of the operation screen. A confirmation screen display means for displaying the text on the screen, and a text transmitter for transmitting the text to the processing device as input to the operation screen. And, it is provided.

好ましくは、前記操作用画面は、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第二のテキストを示すための第二のテキスト領域を有し、前記画面データ送信手段は、前記画面データとともに、前記操作用画面における前記第二のテキスト領域の位置を示す位置データを前記端末装置へ送信し、前記確認画面表示手段は、前記位置データに基づいて、前記第二のテキスト領域の上に前記確認画面を表示する。   Preferably, the operation screen includes a software keyboard and a second text area for indicating a second text input by the software keyboard, and the screen data transmission means includes the operation data together with the screen data. Position data indicating the position of the second text area on the screen for use is transmitted to the terminal device, and the confirmation screen display means displays the confirmation screen on the second text area based on the position data. indicate.

または、前記確認画面表示手段は、前記操作用画面が表示される際に、前記確認画面を表示する。   Alternatively, the confirmation screen display means displays the confirmation screen when the operation screen is displayed.

または、前記テキスト領域の高さは、前記第二のテキスト領域よりも高く、前記確認画面表示手段は、前記テキスト領域に配示される文字よりも大きくサイズで前記テキストを示す。   Alternatively, the height of the text area is higher than that of the second text area, and the confirmation screen display means displays the text in a size larger than characters arranged in the text area.

または、前記確認画面表示手段は、前記操作用画面の中の、前記確認画面が重なっていない部分が操作されたら、前記確認画面を表示するのを止める。   Alternatively, the confirmation screen display means stops displaying the confirmation screen when a portion of the operation screen where the confirmation screen does not overlap is operated.

本発明の他の一形態に係る処理システムは、特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、前記処理装置に、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する画面データ送信手段、が設けられ、前記端末装置に、前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、音声を集音する集音手段と、前記操作用画面が表示された後に前記集音手段によって前記音声が集音され始めた場合に、集音され始めた旨の通知を前記処理装置へ送信する、通知手段と、集音された前記音声が表わす第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、が設けられ、前記画面データ送信手段は、前記通知があった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直し、前記操作用画面表示手段は、新たに送信されてきた前記画面データに基づいて前記操作用画面を表示し直す。   A processing system according to another aspect of the present invention is a processing system including a processing device that performs specific processing and a terminal device that controls the processing device by remote access, and the processing device includes: A screen data transmission means for transmitting screen data of an operation screen having a text area for indicating a first text input to the processing device by the software keyboard and the software keyboard to the terminal device; The operation screen display means for displaying the operation screen based on the screen data transmitted from the processing device, the sound collection means for collecting sound, and the operation screen are displayed on the terminal device. When the sound begins to be collected by the sound collecting means after the sound is collected, a notification that the sound has started to be collected is transmitted to the processing device. And a text transmission means for transmitting the second text represented by the collected voice to the processing device as input to the operation screen, and the screen data When the notification is received, the transmission means retransmits the screen data of the operation screen in which the height of the text area is increased, and the operation screen display means transmits the screen that has been newly transmitted. The operation screen is displayed again based on the data.

本発明によると、端末装置から画像形成装置へのリモートアクセスの最中に、いわゆる音声IMEを用いて画像形成装置へテキストを入力する場合の視認性を従来よりも向上させることができる。   According to the present invention, it is possible to improve visibility when inputting text to an image forming apparatus using a so-called voice IME during remote access from the terminal device to the image forming apparatus.

処理システムの全体的な構成の例を示す図である。It is a figure which shows the example of the whole structure of a processing system. 画像形成装置のハードウェア構成の例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image forming apparatus. FIG. 端末装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a terminal device. キーボード画面の例を示す図である。It is a figure which shows the example of a keyboard screen. 音声入力画面の例を示す図である。It is a figure which shows the example of an audio | voice input screen. 端末装置における画面の遷移の例を示す図である。It is a figure which shows the example of the transition of the screen in a terminal device. 端末装置における画面の遷移の例を示す図である。It is a figure which shows the example of the transition of the screen in a terminal device. 画像形成装置および端末装置のそれぞれの機能的構成の例を示す図である。It is a figure which shows the example of each functional structure of an image forming apparatus and a terminal device. 画像形成装置の全体的な処理の流れの例を示すフローチャートである。6 is a flowchart illustrating an example of the overall processing flow of the image forming apparatus. 端末装置の全体的な処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the whole process of a terminal device. 端末装置における画面の遷移の例を示す図である。It is a figure which shows the example of the transition of the screen in a terminal device. 端末装置における画面の遷移の例を示す図である。It is a figure which shows the example of the transition of the screen in a terminal device. 画像形成装置および端末装置のそれぞれの機能的構成の例を示す図である。It is a figure which shows the example of each functional structure of an image forming apparatus and a terminal device. 画像形成装置の全体的な処理の流れの例を示すフローチャートである。6 is a flowchart illustrating an example of the overall processing flow of the image forming apparatus. 端末装置の全体的な処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the whole process of a terminal device.

〔第一の実施形態〕
図1は、処理システム100の全体的な構成の例を示す図である。図2は、画像形成装置1のハードウェア構成の例を示す図である。図3は、端末装置のハードウェア構成の例を示す図である。
[First embodiment]
FIG. 1 is a diagram illustrating an example of the overall configuration of the processing system 100. FIG. 2 is a diagram illustrating an example of a hardware configuration of the image forming apparatus 1. FIG. 3 is a diagram illustrating an example of a hardware configuration of the terminal device.

処理システム100は、図1に示すように、画像形成装置1、端末装置2、および通信回線4などによって構成される。   As shown in FIG. 1, the processing system 100 includes an image forming apparatus 1, a terminal device 2, a communication line 4, and the like.

画像形成装置1と端末装置2とは、通信回線4を介して通信することができる。通信回線4として、有線LAN(Local Area Network)回線、無線LAN回線、インターネット、または専用回線などが用いられる。   The image forming apparatus 1 and the terminal device 2 can communicate with each other via the communication line 4. As the communication line 4, a wired LAN (Local Area Network) line, a wireless LAN line, the Internet, a dedicated line, or the like is used.

画像形成装置1は、一般に複合機またはMFP(Multi Function Peripherals)などと呼ばれる画像処理装置であって、コピー、PCプリント、ファックス、スキャナ、ボックスおよび電子メールの送信などの機能を集約した装置である。   The image forming apparatus 1 is an image processing apparatus generally called a multifunction peripheral or MFP (Multi Function Peripherals), and is an apparatus that integrates functions such as copying, PC printing, faxing, scanners, boxes, and e-mail transmission. .

PCプリント機能は、他の装置から受信した画像データに基づいて画像をシートに印刷する機能である。ボックス機能は、ユーザごとに「ボックス」または「パーソナルボックス」などと呼ばれる記憶領域を与えておき、各ユーザが自分の記憶領域によって画像ファイルなどのドキュメントデータを保存し管理するための機能である。   The PC print function is a function for printing an image on a sheet based on image data received from another apparatus. The box function is a function for giving a storage area called “box” or “personal box” for each user, and for each user to save and manage document data such as an image file in his / her storage area.

画像形成装置1は、図2に示すように、CPU(Central Processing Unit)10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、補助記憶装置10d、タッチパネルディスプレイ10e、操作キーパネル10f、NIC(Network Interface Card)10g、モデム10h、スキャンユニット10j、プリントユニット10k、および近距離通信ユニット10mなどによって構成される。   As shown in FIG. 2, the image forming apparatus 1 includes a CPU (Central Processing Unit) 10a, a RAM (Random Access Memory) 10b, a ROM (Read Only Memory) 10c, an auxiliary storage device 10d, a touch panel display 10e, and an operation key panel 10f. , NIC (Network Interface Card) 10g, modem 10h, scan unit 10j, print unit 10k, short-range communication unit 10m, and the like.

タッチパネルディスプレイ10eは、ユーザに対するメッセージを示す画面、ユーザがコマンドまたは情報を入力するための画面、およびCPU10aなどが実行した処理の結果を示す画面などを表示する。また、タッチパネルディスプレイ10eは、ユーザがタッチした位置を検知し、その位置をCPU10aへ通知する。   The touch panel display 10e displays a screen showing a message for the user, a screen for the user to input a command or information, a screen showing a result of processing executed by the CPU 10a and the like. The touch panel display 10e detects a position touched by the user and notifies the CPU 10a of the position.

操作キーパネル10fは、いわゆるハードウェアキーボードであって、スタートキーおよび他の複数のキーによって構成される。   The operation key panel 10f is a so-called hardware keyboard, and includes a start key and a plurality of other keys.

NIC10gは、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルによって端末装置2または他の装置と通信を行う。   The NIC 10g communicates with the terminal device 2 or other devices using a protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).

モデム10hは、ファックス端末との間でG3などのプロトコルで画像データをやり取りする。   The modem 10h exchanges image data with a fax terminal using a protocol such as G3.

スキャンユニット10jは、プラテンガラスの上にセットされたシートに記されている画像を読み取って画像データを生成する。   The scan unit 10j reads an image written on a sheet set on the platen glass and generates image data.

プリントユニット10kは、通信回線4を介して他の装置から受信した画像またはスキャンユニット10jによって読み取られた画像などをシートに印刷する。   The print unit 10k prints an image received from another device via the communication line 4 or an image read by the scan unit 10j on a sheet.

近距離通信ユニット10mは、例えばBluetooth(登録商標)によって端末装置2などの装置と通信を行う。   The short-range communication unit 10m communicates with a device such as the terminal device 2 by, for example, Bluetooth (registered trademark).

ROM10cまたは補助記憶装置10dには、上述のコピーおよびボックスなどの機能を実現するためのプログラムおよびデータが記憶されている。さらに、被リモートアクセス用プログラム10P(図8参照)が記憶されている。   The ROM 10c or the auxiliary storage device 10d stores programs and data for realizing functions such as the above-described copy and box. Further, a remote access program 10P (see FIG. 8) is stored.

これらのプログラムは、必要に応じてRAM10bにロードされ、CPU10aによって実行される。補助記憶装置10dとして、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などが用いられる。   These programs are loaded into the RAM 10b as necessary and executed by the CPU 10a. As the auxiliary storage device 10d, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like is used.

端末装置2は、画像形成装置1を遠隔的に操作する、いわゆるリモートアクセスに使用される。端末装置2として、パーソナルコンピュータ、タブレットコンピュータ、またはスマートフォンなどが用いられる。以下、端末装置2として、タブレットコンピュータが用いられる場合を例に説明する。   The terminal device 2 is used for so-called remote access for operating the image forming apparatus 1 remotely. As the terminal device 2, a personal computer, a tablet computer, a smartphone, or the like is used. Hereinafter, a case where a tablet computer is used as the terminal device 2 will be described as an example.

端末装置2は、図3に示すように、CPU20a、RAM20b、ROM20c、フラッシュメモリ20d、タッチパネルディスプレイ20e、操作ボタン群20f、デジタルカメラ20g、無線通信装置20h、近距離通信ユニット20k、スピーカ20i、およびマイクロフォン20jなどによって構成される。   As shown in FIG. 3, the terminal device 2 includes a CPU 20a, a RAM 20b, a ROM 20c, a flash memory 20d, a touch panel display 20e, an operation button group 20f, a digital camera 20g, a wireless communication device 20h, a short-range communication unit 20k, a speaker 20i, and The microphone 20j is configured.

タッチパネルディスプレイ20eは、ユーザに対するメッセージを示す画面、およびユーザがコマンドまたは情報を入力するための画面などを表示する。特に、画像形成装置1のリモートアクセスでは、画像形成装置1から提供される画面を表示する。また、タッチパネルディスプレイ20eは、ユーザがタッチした位置を検知し、その位置をCPU20aへ通知する。   The touch panel display 20e displays a screen showing a message for the user and a screen for the user to input a command or information. In particular, in remote access of the image forming apparatus 1, a screen provided from the image forming apparatus 1 is displayed. The touch panel display 20e detects the position touched by the user and notifies the CPU 20a of the position.

操作ボタン群20fは、ホーム画面に戻るためのボタン、入力した内容を確定するためのボタン、音量を調整するためのボタン、および電源のオン/オフを切り換えるためのボタンなどによって構成される。   The operation button group 20f includes a button for returning to the home screen, a button for confirming the input content, a button for adjusting the volume, a button for switching on / off the power, and the like.

デジタルカメラ20gは、種々の被写体を撮影する。スピーカ20iは、音声データに基づいて音声を出力する。   The digital camera 20g photographs various subjects. The speaker 20i outputs sound based on the sound data.

マイクロフォン20jは、集音し音声データを生成する。特に、ユーザがいわゆる音声入力によってコマンドまたは情報を入力する場合に、ユーザの発した声に応じた音声データを生成する。   The microphone 20j collects sound and generates voice data. In particular, when the user inputs a command or information by so-called voice input, voice data corresponding to the voice uttered by the user is generated.

無線通信装置20hは、無線基地局を介してTCP/IPなどのプロトコルによって画像形成装置1などの装置と通信を行う。   The wireless communication device 20h communicates with a device such as the image forming device 1 using a protocol such as TCP / IP via a wireless base station.

近距離通信ユニット20kは、例えばBluetoothによって画像形成装置1などの装置と通信を行う。   The short-range communication unit 20k communicates with an apparatus such as the image forming apparatus 1 by, for example, Bluetooth.

ROM20cまたはフラッシュメモリ20dには、リモートアクセス用プログラム20P(図8参照)が記憶されている。リモートアクセス用プログラム10Pは、RAM20bにロードされ、CPU20aによって実行される。   A remote access program 20P (see FIG. 8) is stored in the ROM 20c or the flash memory 20d. The remote access program 10P is loaded into the RAM 20b and executed by the CPU 20a.

被リモートアクセス用プログラム10Pおよびリモートアクセス用プログラム20Pによると、ユーザは、タッチパネルディスプレイ10eの代わりに端末装置2を使用して画像形成装置1のリモートアクセスをすることができる。しかも、その際に、音声入力によって文字を入力する場合に、ユーザは、行いたい一連の操作のどの段階で文字を入力しているかを従来よりも理解し易く、かつ自己の話した言葉を文字列へ変換する処理の結果を従来よりも確認し易い、という特徴を有する画面を見ながら文字の入力をすることができる。   According to the remote access program 10P and the remote access program 20P, the user can remotely access the image forming apparatus 1 using the terminal device 2 instead of the touch panel display 10e. In addition, when inputting characters by voice input at that time, it is easier for the user to understand at which stage of the series of operations he / she wants to perform and the words spoken by himself / herself are characters. Characters can be input while looking at a screen having a feature that it is easier to confirm the result of the process of converting to a column than before.

以下、この仕組みについて、関連する画面の例、画面の遷移の例、プログラムによって実現される機能的な構成の例、ならびに画像形成装置1および端末装置2のそれぞれの全体的な処理の流れの例を順に説明する。   Hereinafter, regarding this mechanism, examples of related screens, examples of screen transitions, examples of functional configurations realized by programs, and examples of the overall processing flow of each of the image forming apparatus 1 and the terminal device 2 Will be described in order.

図4は、キーボード画面17の例を示す図である。図5は、音声入力画面26の例を示す図である。   FIG. 4 is a diagram illustrating an example of the keyboard screen 17. FIG. 5 is a diagram illustrating an example of the voice input screen 26.

キーボード画面17は、図4に示すように、キーボード171、文字表示エリア172、およびOKボタン173を有する。   As shown in FIG. 4, the keyboard screen 17 includes a keyboard 171, a character display area 172, and an OK button 173.

キーボード171は、いわゆるソフトウェアキーボードである。   The keyboard 171 is a so-called software keyboard.

文字表示エリア172は、ユーザがキーボード171によってタイピングをするごとに、タッチされたキーに対応する文字または数字などを表示し、タイピングされた文字または文字列がIME(Input Method Editor)によって漢字またはかななどに変換されるごとに、変換の結果を表示するためのエリアである。文字表示エリア172は、細長い帯状である。   The character display area 172 displays characters or numbers corresponding to the touched key each time the user types with the keyboard 171, and the typed character or character string is displayed in kanji or kana by IME (Input Method Editor). This is an area for displaying the result of the conversion each time the data is converted. The character display area 172 has an elongated strip shape.

OKボタン173は、ユーザがキーボード画面17の表示の終了を指示するためのボタンである。   The OK button 173 is a button for the user to instruct the end of the display of the keyboard screen 17.

キーボード画面17は、画像形成装置1が文字の入力を受け付ける状態であるときに、画像形成装置1のタッチパネルディスプレイ10eによって、表示面のほぼ全域にわたるサイズで表示される。また、リモートアクセスでは、端末装置2のタッチパネルディスプレイ20eによって、表示面のほぼ全域にわたるサイズで表示される。   When the image forming apparatus 1 is in a state of accepting input of characters, the keyboard screen 17 is displayed by the touch panel display 10e of the image forming apparatus 1 in a size covering almost the entire display surface. In the remote access, the touch panel display 20e of the terminal device 2 displays the image over the entire display surface.

ユーザは、例えばファックスまたは電子メールの宛先を登録したり、ボックスに保存するドキュメントのドキュメント名を指定したりする際、宛先またはドキュメント名などの文字列の入力欄(テキストボックス)にタッチすることによってキーボード画面17を表示させる。   For example, when registering a destination of a fax or e-mail or specifying a document name of a document to be stored in a box, the user touches an input field (text box) of a character string such as a destination or a document name. The keyboard screen 17 is displayed.

リモートアクセスによって文字を入力する場合、ユーザは、端末装置2と画像形成装置1との接続が確立した直後に端末装置2のタッチパネルディスプレイ20eに表示される画面から適宜に画面を遷移させる操作を行うことによって、図4のように端末装置2のタッチパネルディスプレイ20eにキーボード画面17を表示させる。   When inputting a character by remote access, the user performs an operation to appropriately change the screen from the screen displayed on the touch panel display 20e of the terminal device 2 immediately after the connection between the terminal device 2 and the image forming apparatus 1 is established. As a result, the keyboard screen 17 is displayed on the touch panel display 20e of the terminal device 2 as shown in FIG.

音声入力画面26は、図5に示すように、帯状の文字表示エリア261およびアイコン262から構成される。文字表示エリア261は、音声入力用のIMEである音声IME210(図8参照)によって得られた文字列52を表示するためのエリアである。   As shown in FIG. 5, the voice input screen 26 includes a band-shaped character display area 261 and an icon 262. The character display area 261 is an area for displaying the character string 52 obtained by the voice IME 210 (see FIG. 8) which is an IME for voice input.

アイコン262は、端末装置2が音声による文字の入力を受け付ける状態であること、すなわち音声IME210が音声をそれに応じた文字コードに変換することが可能なオンの状態(以下、これを「アクティブ」と記載することがある)であることを表わすアイコンである。   The icon 262 indicates that the terminal device 2 is in a state of accepting input of characters by speech, that is, an on state in which the speech IME 210 can convert speech into a character code corresponding thereto (hereinafter referred to as “active”). This is an icon indicating that it may be described.

図4と図5とを見比べて分かる通り、音声入力画面26の文字表示エリア261は、キーボード画面17の文字表示エリア172よりも太い。また、文字表示エリア261の長さは、文字表示エリア172の長さ以上である。つまり、端末装置2によって表示されている状態において、文字表示エリア261は、文字表示エリア172よりも大きい。文字表示エリア261では、文字表示エリア172によって表示するのと比べて、文字列52を大きく表示することができる。   As can be seen by comparing FIG. 4 and FIG. 5, the character display area 261 of the voice input screen 26 is thicker than the character display area 172 of the keyboard screen 17. Further, the length of the character display area 261 is equal to or longer than the length of the character display area 172. That is, the character display area 261 is larger than the character display area 172 in the state displayed by the terminal device 2. In the character display area 261, the character string 52 can be displayed larger than that displayed in the character display area 172.

端末装置2は、文字表示エリア261を用いて、文字列52を、文字表示エリア172に収まるサイズよりも大きいサイズで表示する。つまり、ユーザにとって見易く、自己の話した言葉が意図した通りの文字列52に変換されたかどうかを確認し易いように、文字列52を表示する。   The terminal device 2 uses the character display area 261 to display the character string 52 in a size larger than the size that fits in the character display area 172. That is, the character string 52 is displayed so that it is easy for the user to see and it is easy to confirm whether or not the words spoken by the user have been converted into the character string 52 as intended.

注目すべき点は、文字表示エリア261が文字表示エリア172と比べて大きいけれども、タッチパネルディスプレイ20eの表示面の全域を占めるものではない、という点である。文字表示エリア261は、キーボード画面17よりも小さい。   It should be noted that although the character display area 261 is larger than the character display area 172, it does not occupy the entire display surface of the touch panel display 20e. The character display area 261 is smaller than the keyboard screen 17.

また、アイコン262もキーボード画面17よりも小さい。   The icon 262 is also smaller than the keyboard screen 17.

さらに、文字表示エリア261のサイズにアイコン262のサイズを加えた合計サイズも、キーボード画面17よりも小さい。例えば合計サイズは、キーボード画面17のサイズの50%以下のサイズである。つまり、音声入力画面26は、キーボード画面17よりも小さい。   Furthermore, the total size obtained by adding the size of the icon 262 to the size of the character display area 261 is also smaller than the keyboard screen 17. For example, the total size is 50% or less of the size of the keyboard screen 17. That is, the voice input screen 26 is smaller than the keyboard screen 17.

音声入力画面26は、音声IME210がアクティブであるときに、端末装置2のタッチパネルディスプレイ20eに、キーボード画面17の上に重ねるように表示される。このとき、キーボード画面17の方が音声入力画面26よりも大きいので、キーボード画面17の一部分は隠れない。ユーザは、キーボード画面17のうちの隠されていない部分を見ることができる。そして、自己がキーボード画面17を表示させる操作をしたことを認識することができる。よって、音声入力画面26は、ユーザからみて、自己が行いたい一連の操作のどの段階で文字を入力しているかを、キーボード画面17が全く見えない場合と比べて理解し易い画面である。   The voice input screen 26 is displayed on the touch panel display 20e of the terminal device 2 so as to be superimposed on the keyboard screen 17 when the voice IME 210 is active. At this time, since the keyboard screen 17 is larger than the voice input screen 26, a part of the keyboard screen 17 is not hidden. The user can see a portion of the keyboard screen 17 that is not hidden. Then, it can be recognized that the user has performed an operation for displaying the keyboard screen 17. Therefore, the voice input screen 26 is a screen that is easier for the user to understand as to which stage of the series of operations he / she wants to perform, compared to the case where the keyboard screen 17 cannot be seen at all.

なお、音声入力画面26は、文字表示エリア261と、アイコン262と、これらを囲む背景263とで構成されてもよい。背景263は、タッチパネルディスプレイ20eの表示面と同じサイズの画像であってよい。だたし、背景263は、透過性を有する画像(好ましくは透過率が100%の画像)である。   The voice input screen 26 may include a character display area 261, an icon 262, and a background 263 surrounding them. The background 263 may be an image having the same size as the display surface of the touch panel display 20e. However, the background 263 is an image having transparency (preferably an image having a transmittance of 100%).

また、音声入力の進行の状況をユーザに伝えるメッセージ51を、文字列52と並べて文字表示エリア261に表示してもよい。   Further, a message 51 that informs the user of the progress of voice input may be displayed in the character display area 261 along with the character string 52.

図6および図7は、端末装置2における画面の遷移の例を示す図である。図6および図7において、右半部にリモートアクセス中の端末装置2によって表示される画面を示し、左半部に画像形成装置1よって生成される画面を示す。   6 and 7 are diagrams illustrating examples of screen transitions in the terminal device 2. 6 and 7, the right half shows a screen displayed by the terminal device 2 during remote access, and the left half shows a screen generated by the image forming apparatus 1.

端末装置2による画像形成装置1のリモートアクセスが開始された後、ユーザが適宜に画面を遷移させる操作を行うと、画像形成装置1は、操作に応じた画面の画像データを端末装置2へ送信する。端末装置2は、画面データに基づいて画面を表示する。以下、図6に示す文字入力画面16が表示された後の流れを説明する。文字入力画面16は、入力された文字を表示する文字入力欄161を有する。   After the remote access of the image forming apparatus 1 by the terminal device 2 is started, when the user performs an operation of appropriately changing the screen, the image forming apparatus 1 transmits image data of the screen corresponding to the operation to the terminal device 2. To do. The terminal device 2 displays a screen based on the screen data. Hereinafter, the flow after the character input screen 16 shown in FIG. 6 is displayed will be described. The character input screen 16 has a character input field 161 for displaying input characters.

端末装置2は、ユーザが文字入力欄161にタップすると、タッチパネルディスプレイ20eのタップされた位置の座標値および「タップ」というジェスチャの種類を示すデータであるイベントデータ5を画像形成装置1に送る。   When the user taps on the character input field 161, the terminal device 2 sends event data 5, which is data indicating the coordinate value of the tapped position on the touch panel display 20 e and the type of gesture “tap”, to the image forming apparatus 1.

画像形成装置1は、イベントデータ5を受け取ると、文字入力欄161がタップされたことをイベントデータ5に基づいて認識し、ユーザが文字入力欄161に文字を入力しようといていると判断する。画像形成装置1は、端末装置2に次に与えるべきリモートアクセス用の画面(リモートパネル)としてキーボード画面17を生成する。予めキーボード画面17がその画像データを記憶することによって用意されている場合には、キーボード画面17を生成する代わりに画像データを記憶装置から読み出す。   Upon receiving the event data 5, the image forming apparatus 1 recognizes that the character input field 161 has been tapped based on the event data 5, and determines that the user intends to input a character in the character input field 161. The image forming apparatus 1 generates a keyboard screen 17 as a remote access screen (remote panel) to be given to the terminal device 2 next. When the keyboard screen 17 is prepared in advance by storing the image data, the image data is read from the storage device instead of generating the keyboard screen 17.

そして、画像形成装置1は、キーボード画面17の画像データである画面データ6を端末装置2に送る。このとき、画像形成装置1は、予めキーボード画面17の構成に関する情報として記憶しているエリア情報7を、端末装置2に送る。エリア情報7は、キーボード画面17内の文字表示エリア172の位置の範囲を示す。   Then, the image forming apparatus 1 sends screen data 6 that is image data of the keyboard screen 17 to the terminal device 2. At this time, the image forming apparatus 1 sends area information 7 stored in advance as information relating to the configuration of the keyboard screen 17 to the terminal device 2. The area information 7 indicates the range of the position of the character display area 172 in the keyboard screen 17.

端末装置2は、キーボード画面17の画面データ6およびエリア情報7を受け取ると、文字入力画面16に代えてキーボード画面17を表示し、音声IME210をアクティブにするとともに、キーボード画面17に重ねて音声入力画面26を表示する。端末装置2は、音声入力画面26の表示に際して、エリア情報7に基づいて、文字表示エリア261をキーボード画面17の文字表示エリア172に重ねて表示する。つまり、キーボード画面17の文字表示エリア172を音声入力画面26の文字表示エリア261によって隠す。これにより、1つの画面に同じ内容を表示する2つの文字表示エリア172,261が在るという無駄を無くすとともに、2つの文字表示エリア172,261の間に表示のタイムラグが生じてもユーザがそのタイムラグに気付かないようにすることができる。   Upon receiving the screen data 6 and the area information 7 of the keyboard screen 17, the terminal device 2 displays the keyboard screen 17 instead of the character input screen 16, activates the voice IME 210, and inputs the voice over the keyboard screen 17. The screen 26 is displayed. When displaying the voice input screen 26, the terminal device 2 displays the character display area 261 on the character display area 172 of the keyboard screen 17 based on the area information 7. That is, the character display area 172 on the keyboard screen 17 is hidden by the character display area 261 on the voice input screen 26. This eliminates the waste of two character display areas 172 and 261 displaying the same content on one screen, and allows the user to display a time lag between the two character display areas 172 and 261. You can avoid noticing the time lag.

端末装置2は、ユーザが音声を発すると、その音声に基づいて音声IME210によって得られた文字列52を、音声入力画面26内の文字表示エリア261に表示する。つまり、音声IME210による処理の結果を音声入力画面26に反映させる。さらに、端末装置2は、得られた文字列52の各文字の文字コード8を画像形成装置1に送る。   When the user utters voice, the terminal device 2 displays the character string 52 obtained by the voice IME 210 based on the voice in the character display area 261 in the voice input screen 26. That is, the result of processing by the voice IME 210 is reflected on the voice input screen 26. Further, the terminal device 2 sends the character code 8 of each character of the obtained character string 52 to the image forming apparatus 1.

画像形成装置1は、文字コード8を受け取ると、文字コード8の示す文字列52を文字表示エリア172に埋め込んだキーボード画面17を生成し、そのキーボード画面17の画面データ6を端末装置2に送る。   Upon receiving the character code 8, the image forming apparatus 1 generates a keyboard screen 17 in which the character string 52 indicated by the character code 8 is embedded in the character display area 172, and sends the screen data 6 of the keyboard screen 17 to the terminal device 2. .

端末装置2は、画面データ6を受け取ると、改めてキーボード画面17および音声入力画面26を表示する。このとき、キーボード画面17の文字表示エリア172には文字列52が埋め込まれているが、文字表示エリア172は音声入力画面26の文字表示エリア261によって隠されている。   Upon receiving the screen data 6, the terminal device 2 displays the keyboard screen 17 and the voice input screen 26 again. At this time, the character string 52 is embedded in the character display area 172 of the keyboard screen 17, but the character display area 172 is hidden by the character display area 261 of the voice input screen 26.

端末装置2は、図7に示すように音声入力画面26のうちの文字表示エリア261でもアイコン262でもない部分をユーザがタッチすると、このタッチに応じたイベントデータ5を画像形成装置1に送る。   When the user touches a portion of the voice input screen 26 that is neither the character display area 261 nor the icon 262 as shown in FIG. 7, the terminal device 2 sends event data 5 corresponding to this touch to the image forming apparatus 1.

画像形成装置1は、イベントデータ5を受け取ると、音声入力画面26のうちのキーボード画面17の現れた部分がタッチされたことをイベントデータ5に基づいて認識し、ユーザがキーボード画面17による操作をしようといていると判断する。画像形成装置1は、音声IME210のノンアクティブ化を端末装置2に指令する。   When receiving the event data 5, the image forming apparatus 1 recognizes that the portion of the voice input screen 26 where the keyboard screen 17 appears has been touched based on the event data 5, and the user performs an operation on the keyboard screen 17. Judge that you are trying. The image forming apparatus 1 instructs the terminal device 2 to deactivate the voice IME 210.

端末装置2は、この指令を受け取ると、指令に従って音声IME210のノンアクティブ化するとともに、音声入力画面26の表示を終了する。これによって、キーボード画面17の全体が表示される。   Upon receiving this command, the terminal device 2 deactivates the voice IME 210 according to the command and ends the display of the voice input screen 26. As a result, the entire keyboard screen 17 is displayed.

端末装置2は、ユーザがキーボード画面17のOKボタン173にタッチすると、それに応じたイベントデータ5を画像形成装置1に送る。   When the user touches the OK button 173 on the keyboard screen 17, the terminal device 2 sends event data 5 corresponding thereto to the image forming apparatus 1.

画像形成装置1は、イベントデータ5を受け取ると、OKボタン173がタッチされたことをイベントデータ5に基づいて認識し、ユーザが文字入力欄161への文字の入力を終えたと判断する。画像形成装置1は、文字入力欄161に文字列52を埋め込んだ文字入力画面16を生成し、その画面データ6を端末装置2に送る。   Upon receiving the event data 5, the image forming apparatus 1 recognizes that the OK button 173 has been touched based on the event data 5 and determines that the user has finished inputting characters in the character input field 161. The image forming apparatus 1 generates the character input screen 16 in which the character string 52 is embedded in the character input field 161, and sends the screen data 6 to the terminal device 2.

端末装置2は、画面データ6を受け取ると、キーボード画面17に代えて文字入力画面16を表示する。この文字入力画面16では、音声入力によって入力された文字列52が表示される。   Upon receiving the screen data 6, the terminal device 2 displays a character input screen 16 instead of the keyboard screen 17. On the character input screen 16, a character string 52 input by voice input is displayed.

次に、以上のようにキーボード画面17および音声入力画面26を表示するための機能について説明する。   Next, functions for displaying the keyboard screen 17 and the voice input screen 26 as described above will be described.

図8は、画像形成装置1および端末装置2のそれぞれの機能的構成の例を示す図である。   FIG. 8 is a diagram illustrating examples of functional configurations of the image forming apparatus 1 and the terminal device 2.

被リモートアクセス用プログラム10Pによると、画面データ等送信部101、画面データ生成部102、次処理判別部103、音声IME呼出指令部104、および音声IME呼出解除部105などの機能が画像形成装置1に実現される。   According to the remote access program 10P, the functions such as the screen data transmission unit 101, the screen data generation unit 102, the next process determination unit 103, the voice IME call command unit 104, and the voice IME call release unit 105 are included in the image forming apparatus 1. To be realized.

リモートアクセス用プログラム20Pによると、画面表示部201、タッチ検知部202、イベントデータ送信部203、音声IME呼出部204、音声入力画面表示部205、入力文字列表示部206、入力文字列送信部207、および音声IME解除部208などの機能が端末装置2に実現される。   According to the remote access program 20P, the screen display unit 201, the touch detection unit 202, the event data transmission unit 203, the voice IME calling unit 204, the voice input screen display unit 205, the input character string display unit 206, and the input character string transmission unit 207. , And functions such as the voice IME canceling unit 208 are realized in the terminal device 2.

画像形成装置1の画面データ生成部102は、各種の画面(リモートパネル)を構成するためのパーツ(部品)のライブラリを有している。画面データ生成部102は、次処理判別部103から生成の指令を受けると、指令に応じた画面を構成するパーツをライブラリから取り込んで組み合わせることにより、当該画面のビットマップデータを生成する。そして、端末装置2への転送の所要時間を短縮するため、ビットマップデータを例えばJPEG(Joint Photographic Experts Group)のフォーマットの画像データに圧縮する。そして、圧縮後の画像データを画面データ6として画面データ等送信部101に引き渡す。   The screen data generation unit 102 of the image forming apparatus 1 has a library of parts (components) for configuring various screens (remote panels). When the screen data generation unit 102 receives a generation command from the next processing determination unit 103, the screen data generation unit 102 generates bitmap data of the screen by fetching and combining parts constituting the screen according to the command from the library. Then, in order to shorten the time required for transfer to the terminal device 2, the bitmap data is compressed into image data of a JPEG (Joint Photographic Experts Group) format, for example. Then, the compressed image data is transferred to the screen data transmission unit 101 as screen data 6.

画面データ生成部102は、上述のキーボード画面17の画面データ6を生成した場合には、文字表示エリア172の位置の範囲を示すエリア情報7を画面データ6にバインドして画面データ等送信部101に引き渡す。   When the screen data generation unit 102 generates the screen data 6 of the keyboard screen 17 described above, the screen data transmission unit 101 binds the area information 7 indicating the range of the position of the character display area 172 to the screen data 6. To hand over.

画面データ等送信部101は、画面データ生成部102から画面データ6を受け取ると、画面データ6を端末装置2へ送信する。エリア情報7がバインドされている場合は、画面データ6とエリア情報7とを送信する。   When the screen data transmission unit 101 receives the screen data 6 from the screen data generation unit 102, the screen data transmission unit 101 transmits the screen data 6 to the terminal device 2. When the area information 7 is bound, the screen data 6 and the area information 7 are transmitted.

端末装置2の画面表示部201は、画像形成装置1から送られてきた画面データ6に基づいて、画像形成装置1によって生成された画面をタッチパネルディスプレイ20eに表示させる。この際に、バックグラウンドで、画面データ6の伸張およびビットマップメモリ(ビデオRAM)への描画などが行われる。   The screen display unit 201 of the terminal device 2 displays the screen generated by the image forming apparatus 1 on the touch panel display 20e based on the screen data 6 sent from the image forming apparatus 1. At this time, the screen data 6 is decompressed and drawn in a bitmap memory (video RAM) in the background.

タッチ検知部202は、タッチパネルディスプレイ20eからタッチの位置の情報を取得してジェスチャの種類を判別する。タッチ検知部202は、タッチイベントに応じた上述のイベントデータ5を生成してイベントデータ送信部203に引き渡す。なお、タッチ検知部202は、音声入力画面26の範囲内の位置がタッチされた場合には、それを示すタッチイベントを生成しない。   The touch detection unit 202 acquires information on the position of the touch from the touch panel display 20e and determines the type of gesture. The touch detection unit 202 generates the above-described event data 5 corresponding to the touch event and passes it to the event data transmission unit 203. Note that when a position within the range of the voice input screen 26 is touched, the touch detection unit 202 does not generate a touch event indicating the touch.

イベントデータ送信部203は、タッチ検知部202からイベントデータ5を受け取ると、そのイベントデータ5を画像形成装置1に送信する。   When the event data transmission unit 203 receives the event data 5 from the touch detection unit 202, the event data transmission unit 203 transmits the event data 5 to the image forming apparatus 1.

画像形成装置1の次処理判別部103は、端末装置2からイベントデータ5を受信すると、画面データ生成部102に対して最後に生成を指令した際に生成の対象として指定した画面内のどの位置がタッチされたかをイベントデータ5に基づいて認識する。   When the next processing determination unit 103 of the image forming apparatus 1 receives the event data 5 from the terminal device 2, the position in the screen designated as the generation target when the generation is last instructed to the screen data generation unit 102. Is touched based on the event data 5.

次処理判別部103は、認識した位置が画面を切り替えるべき操作に対応する位置であるかどうかを、画面内の位置と行うべき処理とを対応づける制御用データを参照することによって判別する。   The next process determination unit 103 determines whether or not the recognized position is a position corresponding to an operation for switching the screen by referring to control data that associates a position in the screen with a process to be performed.

次処理判別部103は、イベントデータ5に基づいて認識した位置が画面を切り替えるべき操作に対応する位置であると判別した場合、新たに表示すべき画面の生成を画面データ生成部102に指令する。例えば、次処理判別部103は、文字入力画面16の文字入力欄161のタップに応じたイベントデータ5を受け取った場合には、キーボード画面17の生成を、キーボード画面17のOKボタン173のタップに応じたイベントデータ5を受け取った場合には、文字入力画面16の生成を、画面データ生成部102に指令する。   When determining that the position recognized based on the event data 5 is a position corresponding to the operation to switch the screen, the next processing determination unit 103 instructs the screen data generation unit 102 to generate a screen to be newly displayed. . For example, when the event data 5 corresponding to the tap of the character input field 161 on the character input screen 16 is received, the next processing determination unit 103 generates the keyboard screen 17 by tapping the OK button 173 on the keyboard screen 17. When the corresponding event data 5 is received, the screen data generation unit 102 is instructed to generate the character input screen 16.

また、次処理判別部103は、キーボード画面17の生成を画面データ生成部102に指令する際に、呼出指令の送信を、音声IME呼出指令部104に要求する。   Further, the next processing determination unit 103 requests the voice IME call command unit 104 to transmit a call command when commanding the screen data generation unit 102 to generate the keyboard screen 17.

音声IME呼出指令部104は、この要求を受けると、音声IME210のアクティブ化を端末装置2に指令する。   When receiving this request, the voice IME call command unit 104 commands the terminal device 2 to activate the voice IME 210.

さらに、次処理判別部103は、音声入力画面26のキーボード画面17の部分のタップに応じたイベントデータ5を受け取った場合には、音声IME210のノンアクティブ化を音声IME呼出解除部105に要求する。   Further, when receiving the event data 5 corresponding to the tap on the keyboard screen 17 portion of the voice input screen 26, the next processing determination unit 103 requests the voice IME call canceling unit 105 to deactivate the voice IME 210. .

音声IME呼出解除部105は、この要求を受けると、音声IME210のノンアクティブ化を端末装置2に指令する。   When receiving this request, the voice IME call canceling unit 105 instructs the terminal device 2 to deactivate the voice IME 210.

端末装置2の音声IME呼出部204は、画像形成装置1から音声IME210のアクティブ化の指令を受けると、音声IME210をアクティブ化する。   The voice IME calling unit 204 of the terminal device 2 activates the voice IME 210 when receiving a command to activate the voice IME 210 from the image forming apparatus 1.

また、音声IME呼出部204は、画像形成装置1から音声IME210のアクティブ化の指令を受けると、音声入力画面表示部205に音声入力画面26の表示を指令する。   When the voice IME calling unit 204 receives a command to activate the voice IME 210 from the image forming apparatus 1, the voice IME calling unit 204 commands the voice input screen display unit 205 to display the voice input screen 26.

音声入力画面表示部205は、この指令を受けると、タッチパネルディスプレイ20eに音声入力画面26をキーボード画面17に重ねるように表示させる。   Upon receiving this command, the voice input screen display unit 205 causes the touch panel display 20e to display the voice input screen 26 so as to overlap the keyboard screen 17.

入力文字列表示部206は、音声IME210からユーザの発した音声に応じた文字コード8を受け取る。入力文字列表示部206は、文字コード8を受け取ると、図6に示すように、文字コード8に応じた文字列52を音声入力画面26の文字表示エリア261に表示する。また、入力文字列表示部206は、文字コード8を入力文字列送信部207に送る。   The input character string display unit 206 receives the character code 8 corresponding to the voice uttered by the user from the voice IME 210. When the input character string display unit 206 receives the character code 8, the character string 52 corresponding to the character code 8 is displayed in the character display area 261 of the voice input screen 26 as shown in FIG. In addition, the input character string display unit 206 sends the character code 8 to the input character string transmission unit 207.

入力文字列送信部207は、入力文字列表示部206から文字コード8を受け取って画像形成装置1へ送信する。   The input character string transmission unit 207 receives the character code 8 from the input character string display unit 206 and transmits it to the image forming apparatus 1.

画像形成装置1の次処理判別部103は、端末装置2から送信された文字コード8を受信する。次処理判別部103は、文字コード8を受信すると、図6に示したように文字表示エリア172に文字コード8に応じた文字列52を埋め込んだキーボード画面17の生成を、画面データ生成部102に指令する。これにより、画面データ生成部102によって文字列52を埋め込んだキーボード画面17が生成され、画面データ等送信部101によって端末装置2へ送信される。   The next processing determination unit 103 of the image forming apparatus 1 receives the character code 8 transmitted from the terminal device 2. Upon receiving the character code 8, the next processing determination unit 103 generates a keyboard screen 17 in which the character string 52 corresponding to the character code 8 is embedded in the character display area 172 as shown in FIG. To Accordingly, the keyboard screen 17 in which the character string 52 is embedded is generated by the screen data generation unit 102 and transmitted to the terminal device 2 by the screen data etc. transmission unit 101.

音声IME解除部208は、画像形成装置1から音声IME210のノンアクティブ化の指令を受けると、音声IME210をノンアクティブ化する。すると、音声入力画面表示部205が音声入力画面26の表示を終了する。   When the audio IME canceling unit 208 receives a command to deactivate the audio IME 210 from the image forming apparatus 1, the audio IME 210 deactivates the audio IME 210. Then, the voice input screen display unit 205 ends the display of the voice input screen 26.

図9は、画像形成装置1の全体的な処理の流れの例を示すフローチャートである。図10は、端末装置2の全体的な処理の流れの例を示すフローチャートである。   FIG. 9 is a flowchart illustrating an example of the overall processing flow of the image forming apparatus 1. FIG. 10 is a flowchart illustrating an example of the overall processing flow of the terminal device 2.

次に、画像形成装置1の全体的な処理の流れ、および端末装置2の全体的な処理の流れを、図9または図10のフローチャートを参照しながら説明する。   Next, the overall processing flow of the image forming apparatus 1 and the overall processing flow of the terminal apparatus 2 will be described with reference to the flowchart of FIG. 9 or FIG.

画像形成装置1は、端末装置2によるリモートアクセスが始まると、図9に示すように、デフォルトの画面の画面データ6を端末装置2に送信する(#101)。デフォルトの画面は、画像形成装置1の電源がオンにされてウォームアップが完了した後に最初に表示するトップ画面でもよいし、リモートアクセスが始まる直前にタッチパネルディスプレイ10eに表示していた画面でもよい。   When remote access by the terminal device 2 is started, the image forming apparatus 1 transmits screen data 6 of a default screen to the terminal device 2 as shown in FIG. 9 (# 101). The default screen may be a top screen that is displayed first after the power of the image forming apparatus 1 is turned on and warm-up is completed, or may be a screen that is displayed on the touch panel display 10e immediately before remote access starts.

画像形成装置1は、端末装置2からイベントデータ5を受信すると(#102でYES)、イベントデータ5の示す座標値に基づいて、タッチの位置が文字入力欄161内の位置かどうかを判別する(#103)。   When receiving the event data 5 from the terminal device 2 (YES in # 102), the image forming apparatus 1 determines whether the touch position is in the character input field 161 based on the coordinate value indicated by the event data 5. (# 103).

画像形成装置1は、タッチの位置が文字入力欄161内の位置であると判別した場合(#103でYES)、キーボード画面17の画面データ6を送信するとともに、音声IME210の呼出(アクティブ化)を端末装置2に指令する(#104)。音声IME210がアクティブになると、図6に示した音声入力画面26が表示される。   When the image forming apparatus 1 determines that the touch position is in the character input field 161 (YES in # 103), the image forming apparatus 1 transmits the screen data 6 of the keyboard screen 17 and calls (activates) the voice IME 210. To the terminal device 2 (# 104). When the voice IME 210 becomes active, the voice input screen 26 shown in FIG. 6 is displayed.

画像形成装置1は、端末装置2によって音声入力画面26が表示されているときに、音声入力画面26のうちのキーボード画面17の現れた部分がタッチされた場合(#105でYES)、音声IME210の解除(ノンアクティブ化)を端末装置2に指令する(#106)。音声IME210がノンアクティブになると、音声入力画面26の表示が終了する。   When the voice input screen 26 is being displayed by the terminal device 2 and the portion of the voice input screen 26 where the keyboard screen 17 appears is touched (YES in # 105), the image forming apparatus 1 is set to the voice IME 210. Is commanded to the terminal device 2 (# 106). When the voice IME 210 becomes inactive, the display of the voice input screen 26 ends.

画像形成装置1は、端末装置2から受信したイベントデータ5が、その他のタッチに応じたデータであった場合(#107でYES)、イベントデータ5に応じて、画面を遷移させたり動作の設定値を変更したりするといったその他の処理をする(#108)。   When the event data 5 received from the terminal device 2 is data corresponding to another touch (YES in # 107), the image forming apparatus 1 changes the screen or sets the operation according to the event data 5 Other processing such as changing the value is performed (# 108).

画像形成装置1は、端末装置2から文字コード8を受信すると(#109でYES)、文字コード8に応じた文字列52を文字表示エリア172に埋め込むことによって音声入力の結果を反映させたキーボード画面17を生成する(#110)。そして、そのキーボード画面17の画面データ6を端末装置2に送信する(#111)。   When the image forming apparatus 1 receives the character code 8 from the terminal device 2 (YES in # 109), the image forming apparatus 1 embeds the character string 52 corresponding to the character code 8 in the character display area 172 to reflect the voice input result. The screen 17 is generated (# 110). Then, the screen data 6 of the keyboard screen 17 is transmitted to the terminal device 2 (# 111).

画像形成装置1は、リモートアクセスが続いている間(#112でNO)、ステップ#102ないしステップ#111の処理を適宜、実行する。   While the remote access continues (NO in # 112), the image forming apparatus 1 appropriately executes the processing from step # 102 to step # 111.

端末装置2は、画像形成装置1のリモートアクセスが始まると、次の処理をする。   When the remote access of the image forming apparatus 1 starts, the terminal device 2 performs the following processing.

端末装置2は、図10に示すように、画像形成装置1から画面データ6を受信すると(#201でYES)、画面データ6に応じた画面をタッチパネルディスプレイ20eに表示させる。   As shown in FIG. 10, when receiving the screen data 6 from the image forming apparatus 1 (YES in # 201), the terminal device 2 displays a screen corresponding to the screen data 6 on the touch panel display 20e.

端末装置2は、ユーザがタッチパネルディスプレイ20eにタッチすると(#203でYES)、ユーザがタッチした位置およびジェスチャの種類を判別し(#204)、判別の結果を示すイベントデータ5を画像形成装置1に送信する(#205)。   When the user touches the touch panel display 20e (YES in # 203), the terminal device 2 determines the position touched by the user and the type of gesture (# 204), and uses the event data 5 indicating the determination result as the image forming apparatus 1. (# 205).

端末装置2は、音声IME210のアクティブ化が画像形成装置1から指令されると(#206でYES)、音声IME210をアクティブ化するとともに、音声入力画面26をキーボード画面17に重ねて表示する(#207、#208)。   When the activation of the voice IME 210 is commanded from the image forming apparatus 1 (YES in # 206), the terminal device 2 activates the voice IME 210 and displays the voice input screen 26 superimposed on the keyboard screen 17 (# 207, # 208).

端末装置2は、ユーザの発した音声に応じた文字列52(入力文字列)を音声IME210によって取得すると(#209でYES)、取得した文字列52を文字表示エリア261に表示するとともに、文字コード8を送信することによって文字列52を画像形成装置1に通知する(#210、#211)。   When the terminal device 2 acquires the character string 52 (input character string) corresponding to the voice uttered by the user by the voice IME 210 (YES in # 209), the terminal device 2 displays the acquired character string 52 in the character display area 261, and The character string 52 is notified to the image forming apparatus 1 by transmitting the code 8 (# 210, # 211).

端末装置2は、音声IME210のノンアクティブ化が画像形成装置1から指令されると(#212でYES)、音声IME210をノンアクティブ化する(#213)。これによって、音声入力画面26の表示が終了する。   When the image forming apparatus 1 is instructed to deactivate the audio IME 210 (YES in # 212), the terminal device 2 deactivates the audio IME 210 (# 213). Thereby, the display of the voice input screen 26 is completed.

端末装置2は、リモートアクセスが続いている間(#214でNO)、ステップ#201ないしステップ#213の処理を適宜、実行する。   While the remote access continues (NO in # 214), the terminal device 2 appropriately executes the processing from step # 201 to step # 213.

〔第二の実施形態〕
第一の実施形態では、端末装置2が画像形成装置1からリモートパネルとして与えられたキーボード画面17に重ねて文字表示エリア261を表示した。これに対して、第二の実施形態では、第一の実施形態の文字表示エリア261と同程度の大きさの文字表示エリア172Bを有したキーボード画面17B(図11参照)を、画像形成装置1B(図13参照)が端末装置2Bに与える。以下、この仕組みについて、説明する。第一の実施形態と重複する点は、説明を省略する。
[Second Embodiment]
In the first embodiment, the terminal device 2 displays the character display area 261 on the keyboard screen 17 provided as a remote panel from the image forming apparatus 1. On the other hand, in the second embodiment, the keyboard screen 17B (see FIG. 11) having the character display area 172B having the same size as the character display area 261 of the first embodiment is displayed on the image forming apparatus 1B. (See FIG. 13) is given to the terminal device 2B. Hereinafter, this mechanism will be described. The description overlapping with the first embodiment is omitted.

第二の実施形態に係る画像形成装置1Bとして、図2に示した画像形成装置1と同様のハードウェア構成をもつ装置を用いることができる。端末装置2Bについても、図3に示した端末装置2と同様のハードウェア構成をもつ装置を用いることができる。   As the image forming apparatus 1B according to the second embodiment, an apparatus having the same hardware configuration as that of the image forming apparatus 1 shown in FIG. 2 can be used. Also for the terminal device 2B, a device having the same hardware configuration as that of the terminal device 2 shown in FIG. 3 can be used.

ただし、第二の実施形態の画像形成装置1Bでは、ROM10cまたは補助記憶装置10dには、被リモートアクセス用プログラム10Pの代わりに被リモートアクセス用プログラム12P(図13参照)が記憶されている。また、第二の実施形態の端末装置2Bでは、ROM20cまたはフラッシュメモリ20dには、リモートアクセス用プログラム20Pの代わりにリモートアクセス用プログラム22P(図13参照)が記憶されている。   However, in the image forming apparatus 1B of the second embodiment, the ROM 10c or the auxiliary storage device 10d stores a remote access program 12P (see FIG. 13) instead of the remote access program 10P. In the terminal device 2B of the second embodiment, the ROM 20c or the flash memory 20d stores a remote access program 22P (see FIG. 13) instead of the remote access program 20P.

画像形成装置1Bと端末装置2Bとは、図1に示した通信回線4を介して通信することができる。   The image forming apparatus 1B and the terminal device 2B can communicate via the communication line 4 shown in FIG.

図11は、端末装置における画面の遷移の例を示す図である。図12は、端末装置における画面の遷移の例を示す図である。   FIG. 11 is a diagram illustrating an example of screen transition in the terminal device. FIG. 12 is a diagram illustrating an example of screen transition in the terminal device.

端末装置2Bは、リモートアクセスが開始された後、ユーザが適宜に画面を遷移させる操作を行うと、画像形成装置1Bは、操作に応じた画面の画像データ6を端末装置2Bへ送信する。端末装置2Bは、画面データ6に基づいて画面を表示する。以下、図11に示す文字入力画面16が表示された後の流れを説明する。   After the remote access is started, when the user performs an operation to change the screen as appropriate, the image forming apparatus 1B transmits image data 6 of the screen corresponding to the operation to the terminal apparatus 2B. The terminal device 2B displays a screen based on the screen data 6. Hereinafter, the flow after the character input screen 16 shown in FIG. 11 is displayed will be described.

端末装置2Bは、ユーザが文字入力欄161にタップすると、イベントデータ5を画像形成装置1Bに送る。画像形成装置1は、イベントデータ5を受け取ると、キーボード画面17を生成し、生成したキーボード画面17の画面データ6を端末装置2Bに送る。ここまでは、第一の実施形態と同様である。   When the user taps on the character input field 161, the terminal device 2B sends the event data 5 to the image forming device 1B. Upon receiving the event data 5, the image forming apparatus 1 generates a keyboard screen 17, and sends the generated screen data 6 of the keyboard screen 17 to the terminal device 2B. Up to this point, the process is the same as in the first embodiment.

第一実施形態ではキーボード画面17の画面データ6を端末装置2に送る際に、文字表示エリア172の位置の範囲を示すエリア情報7を、端末装置2に送った。第二の実施形態では、文字表示エリア172を拡大することを見込んで、拡大後の文字表示エリア172Bの位置の範囲を示すエリア情報7Bを端末装置2Bに送る。   In the first embodiment, when sending the screen data 6 of the keyboard screen 17 to the terminal device 2, the area information 7 indicating the range of the position of the character display area 172 is sent to the terminal device 2. In the second embodiment, area information 7B indicating the range of the position of the enlarged character display area 172B is sent to the terminal device 2B in anticipation of expanding the character display area 172.

端末装置2Bは、画面データ6およびエリア情報7を受け取ると、文字入力画面16に代えてキーボード画面17を表示するとともに、キーボード画面17に重ねてアイコン262を表示する。   When receiving the screen data 6 and the area information 7, the terminal device 2 </ b> B displays a keyboard screen 17 instead of the character input screen 16 and displays an icon 262 so as to overlap the keyboard screen 17.

端末装置2Bは、アイコン262の表示に際して、エリア情報7Bに基づいて、拡大後の文字表示エリア172Bが表示される場合にその文字表示エリア172Bと重ならにように、キーボード画面17のうちの文字表示エリア172Bが配置される予定の位置以外と重なるようにアイコン262を表示する。   When displaying the icon 262, the terminal device 2B displays characters on the keyboard screen 17 so that the enlarged character display area 172B is displayed based on the area information 7B so that the character display area 172B overlaps the character display area 172B. The icon 262 is displayed so as to overlap with a position other than the position where the display area 172B is to be arranged.

端末装置2Bは、アイコン262を表示した後、マイクロフォン20jが音声を感知すると、ユーザが話し始めたと判断して、音声IME210による処理が開始されたことを画像形成装置1Bに通知する。この通知は、音声の文字コードへの変換が確定する前に、文字表示エリア172を文字表示エリア172Bに拡げておくための通知である。   After the icon 262 is displayed, the terminal device 2B determines that the user has started speaking when the microphone 20j senses voice, and notifies the image forming apparatus 1B that processing by the voice IME 210 has started. This notification is a notification for expanding the character display area 172 to the character display area 172B before the conversion of the voice into the character code is finalized.

画像形成装置1Bは、ユーザが音声入力の正否を確認し易いキーボード画面17Bの生成を開始する。キーボード画面17Bは、キーボード画面17の文字表示エリア172を文字表示エリア172Bに置き換えた画面である。文字表示エリア172Bは、文字表示エリア172を図の上下方向に拡大したものに相当し、そのサイズは第一の実施形態の文字表示エリア261のサイズと同程度である。   The image forming apparatus 1B starts generating the keyboard screen 17B that allows the user to easily confirm whether the voice input is correct. The keyboard screen 17B is a screen in which the character display area 172 of the keyboard screen 17 is replaced with a character display area 172B. The character display area 172B corresponds to an enlargement of the character display area 172 in the vertical direction in the figure, and the size thereof is approximately the same as the size of the character display area 261 of the first embodiment.

端末装置2から文字コード8が送られてくる以前にキーボード画面17Bの生成を開始することにより、文字コード8が送られてきたときに、キーボード画面17Bを端末装置2に早く提供することができる。なお、予めキーボード画面17Bを用意しておくことによって、より早くキーボード画面17Bを端末装置2に提供するようにしてもよい。   By starting generation of the keyboard screen 17B before the character code 8 is sent from the terminal device 2, the keyboard screen 17B can be quickly provided to the terminal device 2 when the character code 8 is sent. . Note that the keyboard screen 17B may be provided to the terminal device 2 earlier by preparing the keyboard screen 17B in advance.

画像形成装置1Bは、端末装置2から文字コード8が送られてくると、文字コード8に応じた文字列52を文字表示エリア172Bに埋め込んだキーボード画面17B、すなわち音声入力の結果を反映させたキーボード画面17Bを生成する。   When the character code 8 is sent from the terminal device 2, the image forming apparatus 1B reflects the keyboard screen 17B in which the character string 52 corresponding to the character code 8 is embedded in the character display area 172B, that is, the result of voice input. A keyboard screen 17B is generated.

文字表示エリア172Bは文字表示エリア172よりも大きいので、文字表示エリア172に埋め込む場合と比べて大きいサイズで文字列52を文字表示エリア172Bに埋め込むことができる。つまり、文字列52を見易くすることができる。   Since the character display area 172B is larger than the character display area 172, the character string 52 can be embedded in the character display area 172B with a size larger than that embedded in the character display area 172. That is, the character string 52 can be easily seen.

画像形成装置1Bは、生成したキーボード画面17Bの画面データ6を端末装置2Bへ送信する。   The image forming apparatus 1B transmits the generated screen data 6 of the keyboard screen 17B to the terminal device 2B.

端末装置2Bは、キーボード画面17Bの画面データ6を受け取ると、キーボード画面17Bを表示し、キーボード画面17Bに重ねてアイコン262を表示する。   When the terminal device 2B receives the screen data 6 of the keyboard screen 17B, the terminal device 2B displays the keyboard screen 17B and displays an icon 262 so as to overlap the keyboard screen 17B.

端末装置2Bは、図12に示すようにキーボード画面17Bのうちの文字表示エリア172Bでもアイコン262でもない部分をユーザがタッチすると、このタッチに応じたイベントデータ5を画像形成装置1Bに送る。   When the user touches a portion of the keyboard screen 17B that is neither the character display area 172B nor the icon 262 as shown in FIG. 12, the terminal device 2B sends event data 5 corresponding to this touch to the image forming apparatus 1B.

画像形成装置1Bは、イベントデータ5を受け取ると、ユーザがキーボード画面17による操作をしようといていると判断する。画像形成装置1Bは、文字表示エリア172Bに文字列52を埋め込んだキーボード画面17Bを生成してその画面データ6を端末装置2Bに送信する。このとき、音声IME210のノンアクティブ化を端末装置2Bに指令する。   When receiving the event data 5, the image forming apparatus 1 </ b> B determines that the user intends to perform an operation using the keyboard screen 17. The image forming apparatus 1B generates a keyboard screen 17B in which the character string 52 is embedded in the character display area 172B, and transmits the screen data 6 to the terminal device 2B. At this time, the terminal device 2B is commanded to deactivate the voice IME 210.

端末装置2Bは、画面データ6およびノンアクティブ化の指令を受け取ると、キーボード画面17Bに代えてキーボード画面17を表示するとともに、音声IME210をノンアクティブ化する。音声IME210のノンアクティブ化によってアイコン262の表示が終了する。   Upon receiving the screen data 6 and the deactivation command, the terminal device 2B displays the keyboard screen 17 instead of the keyboard screen 17B and deactivates the voice IME 210. The display of the icon 262 ends when the voice IME 210 is deactivated.

次に、以上のようにキーボード画面17Bおよびアイコン262を表示するための機能について説明する。   Next, the function for displaying the keyboard screen 17B and the icon 262 as described above will be described.

図13は、画像形成装置1Bおよび端末装置2Bのそれぞれの機能的構成の例を示す図である。   FIG. 13 is a diagram illustrating examples of functional configurations of the image forming apparatus 1B and the terminal device 2B.

被リモートアクセス用プログラム12Pによると、画面データ等送信部121、画面データ生成部122、次処理判別部123、音声IME呼出指令部124、および音声IME呼出解除部125などの機能が画像形成装置1Bに実現される。   According to the remote access program 12P, the functions such as the screen data transmission unit 121, the screen data generation unit 122, the next processing determination unit 123, the voice IME call command unit 124, and the voice IME call release unit 125 function as the image forming apparatus 1B. To be realized.

リモートアクセス用プログラム22Pによると、画面表示部221、タッチ検知部222、イベントデータ送信部223、音声IME呼出部224、音声入力画面表示部225、入力文字列送信部227、および入力開始通知部229などの機能が端末装置2に実現される。   According to the remote access program 22P, the screen display unit 221, the touch detection unit 222, the event data transmission unit 223, the voice IME calling unit 224, the voice input screen display unit 225, the input character string transmission unit 227, and the input start notification unit 229 Such a function is realized in the terminal device 2.

画面データ等送信部121、画面データ生成部122、音声IME呼出指令部124、および音声IME呼出解除部125は、それぞれ、第一の実施形態の画面データ等送信部101、画面データ生成部102、音声IME呼出指令部104、および音声IME呼出解除部105(図8参照)と同様の機能を有する。また、画面表示部221、タッチ検知部222、イベントデータ送信部223、音声IME呼出部224、音声入力画面表示部225、および入力文字列送信部227は、それぞれ、第一の実施形態の画面表示部201、タッチ検知部202、イベントデータ送信部203、音声IME呼出部204、音声入力画面表示部205、および入力文字列送信部207(図8参照)と同様の機能を有する。つまり、これらによって、キーボード画面17Bの一部とアイコン262とが表示される。   The screen data transmission unit 121, the screen data generation unit 122, the voice IME call command unit 124, and the voice IME call release unit 125 are respectively the screen data transmission unit 101, the screen data generation unit 102, and the like of the first embodiment. It has the same functions as the voice IME call command unit 104 and the voice IME call release unit 105 (see FIG. 8). In addition, the screen display unit 221, the touch detection unit 222, the event data transmission unit 223, the voice IME calling unit 224, the voice input screen display unit 225, and the input character string transmission unit 227 are each a screen display of the first embodiment. Unit 201, touch detection unit 202, event data transmission unit 203, voice IME calling unit 204, voice input screen display unit 205, and input character string transmission unit 207 (see FIG. 8). That is, by these, a part of the keyboard screen 17B and the icon 262 are displayed.

画像形成装置1Bの次処理判別部123は、第一の実施形態の次処理判別部103と同様に、タッチイベントに応じて次に行うべき処理を判別する。タッチイベントが画面の遷移を指示する操作を示す場合には、画面データ生成部122に新たに表示すべき画面の生成を指令する。   Similar to the next process determination unit 103 of the first embodiment, the next process determination unit 123 of the image forming apparatus 1B determines a process to be performed next in accordance with the touch event. When the touch event indicates an operation for instructing screen transition, the screen data generation unit 122 is instructed to generate a screen to be newly displayed.

端末装置2の入力開始通知部229は、音声入力に際して音声が発せられたときにその旨を通知する機能を有する。   The input start notifying unit 229 of the terminal device 2 has a function of notifying that when a voice is emitted during voice input.

画像形成装置1Bの次処理判別部123は、端末装置2の入力開始通知部229からの通知を受け取る。次処理判別部123は、入力開始通知部229からの通知を受け取ると、キーボード画面17Bの生成を、画面データ生成部122に指令する。画面データ等送信部121は、画面データ生成部122によってキーボード画面17Bが生成されると、直ちにキーボード画面17Bの画面データ6を端末装置2Bに送信する。   The next processing determination unit 123 of the image forming apparatus 1B receives a notification from the input start notification unit 229 of the terminal device 2. When receiving the notification from the input start notifying unit 229, the next process determining unit 123 instructs the screen data generating unit 122 to generate the keyboard screen 17B. When the screen data generation unit 122 generates the keyboard screen 17B, the screen data transmission unit 121 immediately transmits the screen data 6 of the keyboard screen 17B to the terminal device 2B.

図14は、画像形成装置1Bの全体的な処理の流れの例を示すフローチャートである。図15は、端末装置2Bの全体的な処理の流れの例を示すフローチャートである。   FIG. 14 is a flowchart illustrating an example of the overall processing flow of the image forming apparatus 1B. FIG. 15 is a flowchart illustrating an example of the overall processing flow of the terminal device 2B.

画像形成装置1Bは、リモートアクセスが始まると、第一の実施形態の場合と同様に、デフォルトの画面の画面データ6を送信し(図14の#121)、その後、リモートアクセスが終了するまでの間、端末装置2Bからのデータの入力または通知などに応じて次のように処理をする。   When the remote access starts, the image forming apparatus 1B transmits the screen data 6 of the default screen (# 121 in FIG. 14), similarly to the case of the first embodiment, and then the remote access ends. In the meantime, the following processing is performed according to data input or notification from the terminal device 2B.

画像形成装置1Bは、文字入力欄161内の位置のタッチが通知されると(#122でYES、#123でYES)、キーボード画面17の画面データ6を送信するとともに、音声IME210のアクティブ化を端末装置2Bに指令する(#124)。   When the touch of the position in the character input field 161 is notified (YES in # 122, YES in # 123), the image forming apparatus 1B transmits the screen data 6 of the keyboard screen 17 and activates the voice IME 210. The terminal device 2B is commanded (# 124).

画像形成装置1Bは、端末装置2によってアイコン262が表示されているときに、キーボード画面17Bの現れた部分のタッチが通知されると(#125でYES)、第一の実施形態の場合と同様に、音声IME210のノンアクティブ化を端末装置2に指令する(#126)。   When the icon 262 is displayed by the terminal device 2 and the image forming apparatus 1B is notified of the touch of the portion on the keyboard screen 17B (YES in # 125), the image forming apparatus 1B is the same as in the first embodiment. Then, the terminal device 2 is instructed to deactivate the voice IME 210 (# 126).

さらに第二の実施形態では、文字表示エリア172Bをそれより細い文字表示エリア172に戻したキーボード画面17を生成して、その画面データ6を端末装置2Bへ送信する(#127、#128)。   In the second embodiment, the keyboard screen 17 is generated by returning the character display area 172B to the narrower character display area 172, and the screen data 6 is transmitted to the terminal device 2B (# 127, # 128).

画像形成装置1Bは、その他のタッチが通知されると(#129でYES)、第一の実施形態の場合と同様に、その他の処理をする(#130)。   When other touches are notified (YES in # 129), the image forming apparatus 1B performs other processes (# 130) as in the first embodiment.

画像形成装置1Bは、第二の実施形態では、音声が発せられたことが通知されると(#131でYES)、文字表示エリア172をそれよりも太い文字表示エリア172Bに置き換えたキーボード画面17Bを生成して、それの画面データ6を端末装置2Bへ送信する(#132、#133)。   In the second embodiment, when the image forming apparatus 1B is notified that sound has been emitted (YES in # 131), the keyboard screen 17B in which the character display area 172 is replaced with a thicker character display area 172B. And the screen data 6 thereof is transmitted to the terminal device 2B (# 132, # 133).

画像形成装置1Bは、文字コード8を受信すると(#134でYES)、音声入力の結果を反映させたキーボード画面17Bを生成して、それの画面データ6を端末装置2に送信する(#135、#136)。   When the image forming apparatus 1B receives the character code 8 (YES in # 134), the image forming apparatus 1B generates a keyboard screen 17B reflecting the voice input result and transmits the screen data 6 to the terminal device 2 (# 135). , # 136).

端末装置2Bは、第一の実施形態の場合とほぼ同様の処理をする。すなわち、図15に示すステップ#221〜#233の処理は、それぞれ図10に示した第一の実施形態の場合のステップ#221〜#209、およびステップ#211〜#214の処理と同様である。   The terminal device 2B performs substantially the same process as in the first embodiment. That is, the processing of steps # 221 to # 233 shown in FIG. 15 is the same as the processing of steps # 221 to # 209 and steps # 211 to # 214 in the first embodiment shown in FIG. .

第二の実施形態では、第一の実施形態の場合にステップ#210で行われていた文字列52を表示する処理を、端末装置2Bは行わない。それは、文字列52が、画像形成装置1Bによって文字表示領域172Bに埋め込まれるからである。   In the second embodiment, the terminal device 2B does not perform the process of displaying the character string 52 performed in step # 210 in the case of the first embodiment. This is because the character string 52 is embedded in the character display area 172B by the image forming apparatus 1B.

以上の第一の実施形態によると、音声入力に際して入力の結果を示す文字列52が画像形成装置1Bによって文字表示エリア172Bに大きいサイズで埋め込まれる。そして、文字列52の埋め込まれたキーボード画面17Bが端末装置2Bによって表示され、キーボード画面17Bの一部のみを隠すアイコン262がキーボード画面17Bに重ねて表示される。キーボード画面17Bの一部が見えることにより、全く見えない場合と比べて、ユーザが何のために音声入力をしているかまたは次にどのようなアクションをすべきかといったことなどを理解し易い。   According to the first embodiment described above, the character string 52 indicating the input result at the time of voice input is embedded in the character display area 172B in a large size by the image forming apparatus 1B. Then, the keyboard screen 17B in which the character string 52 is embedded is displayed by the terminal device 2B, and an icon 262 for hiding only a part of the keyboard screen 17B is displayed over the keyboard screen 17B. When a part of the keyboard screen 17B is visible, it is easier to understand what the user is performing voice input or what action should be taken next, compared to the case where the keyboard screen 17B is not visible at all.

第一および第二の実施形態では、音声入力画面26またはアイコン262が表示されているときに、キーボード画面17,17Bが表れている部分にユーザがタッチした場合に、音声IME210をノンアクティブ化した。これの変形例として、キーボード画面17,17Bに、音声IME210をアクティブとノンアクティブとに切替えるための切替えボタンを配置しておくことができる。その場合、切替えボタンを隠さないように文字表示エリア261およびアイコン262などを表示する。ユーザは、キーボード画面17,17Bが表示されているときには、随時に音声IME210をアクティブにまたはノンアクティブに切り替えることができる。   In the first and second embodiments, the voice IME 210 is deactivated when the user touches the portion where the keyboard screens 17 and 17B appear when the voice input screen 26 or the icon 262 is displayed. . As a modification of this, a switching button for switching the voice IME 210 between active and inactive can be arranged on the keyboard screens 17 and 17B. In that case, a character display area 261 and an icon 262 are displayed so as not to hide the switching button. When the keyboard screens 17 and 17B are displayed, the user can switch the voice IME 210 to active or inactive at any time.

音声IME210の機能は、端末装置2内で実現されてもよいし、いわゆるクラウドサーバなどの外部の装置に実現されてもよい。   The function of the voice IME 210 may be realized in the terminal device 2 or may be realized in an external device such as a so-called cloud server.

端末装置2,2Bに、音声IME210の他に手書き入力用といった音声以外による文字の入力用のIMEが備わる場合、これらIMEの使用の優先順位に応じて、大きさの異なる文字表示エリアを使い分けるように画面の表示を制御することができる。詳しくは、次のようにする。   When the terminal devices 2 and 2B are provided with an IME for inputting characters other than voice, such as for handwriting input, in addition to the voice IME 210, the character display areas having different sizes are selectively used according to the priority of use of these IMEs. The screen display can be controlled. For details, do as follows.

第一の実施形態のように画像形成装置1が端末装置2に文字表示エリアの表示を指令して、端末装置2が文字表示エリア261の位置を決めて表示する形態では、最優先のIMEが音声IME210である場合に、画像形成装置1が表示を指令する際に、例えば30ポイント以上の大きさで文字を表示することのできるサイズ(これを「大型サイズ」という)を文字表示エリア261のサイズとして指定する。最優先のIMEが音声IME210以外である場合には、そのIMEの仕様の通りのサイズ(これを「通常サイズ」という)を文字表示エリアのサイズとして指定する。画像形成装置1は、例えばリモートアクセスの接続を確立するときなどに、端末装置2からIMEの使用の優先順位を示すデータを取得しておく。   In the form in which the image forming apparatus 1 instructs the terminal device 2 to display the character display area as in the first embodiment, and the terminal device 2 determines and displays the position of the character display area 261, the highest priority IME is displayed. In the case of the audio IME 210, when the image forming apparatus 1 instructs display, for example, a size that can display characters with a size of 30 points or more (this is referred to as “large size”) is displayed in the character display area 261. Specify as size. When the highest-priority IME is other than the voice IME 210, the size according to the specification of the IME (this is referred to as “normal size”) is designated as the size of the character display area. For example, when establishing a remote access connection, the image forming apparatus 1 acquires data indicating the priority order of IME usage from the terminal device 2.

また、第二の実施形態のように画像形成装置1Bが文字表示エリア172Bをキーボード画面17Bに配置する形態では、最優先のIMEが音声IME210である場合に、画像形成装置1が大型サイズを文字表示エリア172Bのサイズとし、最優先のIMEが音声IME210以外である場合には、通常サイズを文字表示エリアのサイズとする。   In the form in which the image forming apparatus 1B arranges the character display area 172B on the keyboard screen 17B as in the second embodiment, when the highest priority IME is the voice IME 210, the image forming apparatus 1 has a large size. When the size of the display area 172B is the highest priority IME other than the voice IME 210, the normal size is set as the size of the character display area.

なお、上述のように切替えボタンを設けることによって、通常サイズを文字表示エリアが表示されているときに、ユーザによる指示に従って大型サイズに切り替えるようにすることができる。   In addition, by providing the switching button as described above, the normal size can be switched to the large size according to an instruction from the user when the character display area is displayed.

その他、処理システム100の全体または各部の構成、画像形成装置1,1Bおよび端末装置2,2Bのそれぞれが行う処理の内容、処理の順序などは、本発明の趣旨に沿って適宜変更することができる。   In addition, the entire processing system 100 or the configuration of each unit, the contents of processing performed by each of the image forming apparatuses 1 and 1B and the terminal apparatuses 2 and 2B, the order of processing, and the like may be changed as appropriate in accordance with the spirit of the present invention. it can.

100 処理システム
1,1B 画像形成装置(処理装置)
2,2B 端末装置
6 画面データ
101,121 画面データ等送信部(画面データ送信手段)
201,221 画面表示部(操作用画面表示手段)
20j マイクロフォン(集音手段)
26 音声入力画面(確認画面)を前記操作用画面の一部分の上に重ねて表示する確認 205,225 音声入力画面表示部(画面表示手段)
8 文字コード(テキスト)
207,227 入力文字列送信部(テキスト送信手段)
171 キーボード(ソフトウェアキーボード)
172 文字表示エリア(第二のテキスト領域)
7 エリア情報(位置データ)

100 processing system 1, 1B image forming apparatus (processing apparatus)
2, 2B terminal device 6 Screen data 101, 121 Screen data transmission unit (screen data transmission means)
201, 221 Screen display unit (operation screen display means)
20j Microphone (sound collecting means)
26 Confirmation for displaying a voice input screen (confirmation screen) over a part of the operation screen 205,225 Voice input screen display section (screen display means)
8 character code (text)
207, 227 Input character string transmission unit (text transmission means)
171 Keyboard (software keyboard)
172 Character display area (second text area)
7 Area information (position data)

Claims (12)

特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、
前記処理装置に、
当該処理装置をユーザが操作するための操作用画面の画面データを前記端末装置へ送信する画面データ送信手段、
が設けられ、
前記端末装置に、
前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、
音声を集音する集音手段と、
集音された前記音声が表わすテキストを示すためのテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する確認画面表示手段と、
前記テキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
が設けられる、
ことを特徴とする処理システム。
A processing system including a processing device that performs specific processing and a terminal device that controls the processing device by remote access,
In the processing device,
Screen data transmitting means for transmitting screen data of an operation screen for a user to operate the processing device to the terminal device;
Is provided,
In the terminal device,
An operation screen display means for displaying the operation screen based on the screen data transmitted from the processing device;
Sound collecting means for collecting sound;
Confirmation screen display means for displaying a confirmation screen having a text area for indicating the text represented by the collected voice over a part of the operation screen;
Text transmitting means for transmitting the text to the processing device as input to the operation screen;
Is provided,
A processing system characterized by that.
前記操作用画面は、ソフトウェアキーボードおよび当該ソフトウェアキーボードによって入力された第二のテキストを示すための第二のテキスト領域を有し、
前記画面データ送信手段は、前記画面データとともに、前記操作用画面における前記第二のテキスト領域の位置を示す位置データを前記端末装置へ送信し、
前記確認画面表示手段は、前記位置データに基づいて、前記第二のテキスト領域の上に前記確認画面を表示する、
請求項1に記載の処理システム。
The operation screen has a software keyboard and a second text area for indicating the second text input by the software keyboard,
The screen data transmission means transmits position data indicating the position of the second text area on the operation screen to the terminal device together with the screen data.
The confirmation screen display means displays the confirmation screen on the second text area based on the position data.
The processing system according to claim 1.
前記確認画面表示手段は、前記操作用画面が表示される際に、前記確認画面を表示する、
請求項2に記載の処理システム。
The confirmation screen display means displays the confirmation screen when the operation screen is displayed.
The processing system according to claim 2.
前記テキスト領域の高さは、前記第二のテキスト領域よりも高く、
前記確認画面表示手段は、前記テキスト領域に配示される文字よりも大きくサイズで前記テキストを示す、
請求項1ないし請求項3のいずれかに記載の処理システム。
The height of the text area is higher than the second text area;
The confirmation screen display means displays the text in a size larger than the characters distributed in the text area;
The processing system according to any one of claims 1 to 3.
前記確認画面表示手段は、前記操作用画面の中の、前記確認画面が重なっていない部分が操作されたら、前記確認画面を表示するのを止める、
請求項1ないし請求項4のいずれかに記載の処理システム。
The confirmation screen display means stops displaying the confirmation screen when a portion of the operation screen where the confirmation screen does not overlap is operated.
The processing system according to any one of claims 1 to 4.
特定の処理を行う処理装置と、リモートアクセスによって前記処理装置を制御する端末装置と、によって構成される処理システムであって、
前記処理装置に、
ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する画面データ送信手段、
が設けられ、
前記端末装置に、
前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する操作用画面表示手段と、
音声を集音する集音手段と、
前記操作用画面が表示された後に前記集音手段によって前記音声が集音され始めた場合に、集音され始めた旨の通知を前記処理装置へ送信する、通知手段と、
集音された前記音声が表わす第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
が設けられ、
前記画面データ送信手段は、前記通知があった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直し、
前記操作用画面表示手段は、新たに送信されてきた前記画面データに基づいて前記操作用画面を表示し直す、
ことを特徴とする処理システム。
A processing system including a processing device that performs specific processing and a terminal device that controls the processing device by remote access,
In the processing device,
Screen data transmitting means for transmitting screen data of an operation screen having a text area for indicating a first text input to the processing device by the software keyboard and the software keyboard to the terminal device;
Is provided,
In the terminal device,
An operation screen display means for displaying the operation screen based on the screen data transmitted from the processing device;
Sound collecting means for collecting sound;
A notification means for transmitting a notification to the effect that sound collection has started when the sound begins to be collected by the sound collection means after the operation screen is displayed;
Text transmitting means for transmitting the second text represented by the collected voice to the processing device as input to the operation screen;
Is provided,
The screen data transmission means retransmits the screen data of the operation screen in which the height of the text area is increased when the notification is received,
The operation screen display means redisplays the operation screen based on the newly transmitted screen data.
A processing system characterized by that.
特定の処理を行う処理装置をリモートアクセスによって制御する端末装置であって、
前記処理装置から送信されてきた画面データに基づいて、当該処理装置をユーザが操作するための操作用画面を表示する操作用画面表示手段と、
音声を集音する集音手段と、
集音された前記音声が表わすテキストを示すためのテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する確認画面表示手段と、
前記テキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信するテキスト送信手段と、
を有することを特徴とする端末装置。
A terminal device for controlling a processing device for performing a specific process by remote access,
Based on the screen data transmitted from the processing device, an operation screen display means for displaying an operation screen for a user to operate the processing device;
Sound collecting means for collecting sound;
Confirmation screen display means for displaying a confirmation screen having a text area for indicating the text represented by the collected voice over a part of the operation screen;
Text transmitting means for transmitting the text to the processing device as input to the operation screen;
The terminal device characterized by having.
端末装置からリモートアクセスによって制御される、特定の処理を行う処理装置であって、
ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信し、その後、音声の集音が開始された旨の通知が前記端末装置あった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直す、画面データ送信手段、
を有することを特徴とする処理装置。
A processing device that performs specific processing controlled by remote access from a terminal device,
The screen data of the operation screen having the text area for indicating the first text input to the processing device by the software keyboard and the software keyboard is transmitted to the terminal device. Screen data transmission means for resending the screen data of the operation screen with the height of the text area increased when the notification of the start is the terminal device;
A processing apparatus comprising:
特定の処理を行う処理装置を端末装置からのリモートアクセスによって制御する処理装置制御方法であって、
前記処理装置に、
当該処理装置をユーザが操作するための操作用画面の画面データを前記端末装置へ送信する処理を実行させ、
前記端末装置に、
前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する処理を実行させ、
音声を集音する処理を実行させ、
集音された前記音声が表わすテキストを示すためのテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する処理を実行させ、
前記テキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させる、
ことを特徴とする処理装置制御方法。
A processing device control method for controlling a processing device for performing a specific process by remote access from a terminal device,
In the processing device,
A process of transmitting screen data of an operation screen for a user to operate the processing device to the terminal device;
In the terminal device,
Based on the screen data transmitted from the processing device, the processing for displaying the operation screen is executed,
Execute the process of collecting sound,
Executing a process of displaying a confirmation screen having a text area for indicating the text represented by the collected voice over a part of the operation screen;
Causing the text to be transmitted to the processing device as input to the operation screen;
And a processing apparatus control method.
特定の処理を行う処理装置を端末装置からのリモートアクセスによって制御する処理装置制御方法であって、
前記処理装置に、
ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する処理を実行させ、
前記端末装置に、
前記処理装置から送信されてきた前記画面データに基づいて前記操作用画面を表示する処理を実行させ、
音声を集音する処理を実行させ、
前記操作用画面が表示された後に前記音声が集音され始めた場合に、集音され始めた旨の通知を前記処理装置へ送信する処理を実行させ、
集音された前記音声が表わす第二のテキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させ、
前記処理装置に、
前記通知があった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直す処理を実行させ、
前記端末装置に
は、新たに送信されてきた前記画面データに基づいて前記操作用画面を表示し直す処理を実行させる、
ことを特徴とする処理装置制御方法。
A processing device control method for controlling a processing device for performing a specific process by remote access from a terminal device,
In the processing device,
A process for transmitting screen data of an operation screen having a text area for indicating a first text input to the processing device by the software keyboard and the software keyboard to the terminal device;
In the terminal device,
Based on the screen data transmitted from the processing device, the processing for displaying the operation screen is executed,
Execute the process of collecting sound,
When the sound starts to be collected after the operation screen is displayed, a process for transmitting a notification to the effect that the sound has started to be collected is executed,
Causing the second text represented by the collected voice to be transmitted to the processing device as input to the operation screen;
In the processing device,
In the case of the notification, the process of re-sending the screen data of the operation screen with the height of the text area being increased,
Causing the terminal device to execute a process of redisplaying the operation screen based on the newly transmitted screen data;
And a processing apparatus control method.
特定の処理を行う処理装置をリモートアクセスによって制御するコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
前記処理装置から送信されてきた画面データに基づいて、当該処理装置をユーザが操作するための操作用画面を表示する処理を実行させ、
音声を集音する処理を実行させ、
集音された前記音声が表わすテキストを示すためのテキスト領域を有する確認画面を前記操作用画面の一部分の上に重ねて表示する処理を実行させ、
前記テキストを、前記操作用画面に対して入力されたものとして前記処理装置へ送信する処理を実行させる、
ことを特徴とするコンピュータプログラム。
A computer program used in a computer for controlling a processing device for performing a specific process by remote access,
In the computer,
Based on the screen data transmitted from the processing device, a process for displaying an operation screen for a user to operate the processing device is executed.
Execute the process of collecting sound,
Executing a process of displaying a confirmation screen having a text area for indicating the text represented by the collected voice over a part of the operation screen;
Causing the text to be transmitted to the processing device as input to the operation screen;
A computer program characterized by the above.
端末装置からリモートアクセスによって制御される、特定の処理を行うコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
ソフトウェアキーボードおよび当該ソフトウェアキーボードによって当該処理装置に対して入力された第一のテキストを示すためのテキスト領域を有する操作用画面の画面データを、前記端末装置へ送信する処理を実行させ、
その後、音声の集音が開始された旨の通知が前記端末装置あった場合に、前記テキスト領域の高さを高くした前記操作用画面の前記画面データを送信し直す処理を実行させる、
ことを特徴とするコンピュータプログラム。

A computer program used in a computer for performing a specific process controlled by remote access from a terminal device,
In the computer,
A process for transmitting screen data of an operation screen having a text area for indicating a first text input to the processing device by the software keyboard and the software keyboard to the terminal device;
Thereafter, when there is a notification that voice collection has started, the terminal device executes processing to retransmit the screen data of the operation screen with the height of the text area being increased.
A computer program characterized by the above.

JP2015037573A 2015-02-27 2015-02-27 PROCESSING SYSTEM, TERMINAL DEVICE, PROCESSING DEVICE, PROCESSING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM Active JP6531427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037573A JP6531427B2 (en) 2015-02-27 2015-02-27 PROCESSING SYSTEM, TERMINAL DEVICE, PROCESSING DEVICE, PROCESSING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037573A JP6531427B2 (en) 2015-02-27 2015-02-27 PROCESSING SYSTEM, TERMINAL DEVICE, PROCESSING DEVICE, PROCESSING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM

Publications (2)

Publication Number Publication Date
JP2016162010A true JP2016162010A (en) 2016-09-05
JP6531427B2 JP6531427B2 (en) 2019-06-19

Family

ID=56847034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037573A Active JP6531427B2 (en) 2015-02-27 2015-02-27 PROCESSING SYSTEM, TERMINAL DEVICE, PROCESSING DEVICE, PROCESSING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM

Country Status (1)

Country Link
JP (1) JP6531427B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022028802A (en) * 2016-06-10 2022-02-16 アップル インコーポレイテッド Providing remote keyboard service

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199799A (en) * 2011-03-22 2012-10-18 Konica Minolta Business Technologies Inc Image forming apparatus, setting method, and setting program
JP2013251623A (en) * 2012-05-30 2013-12-12 Kyocera Document Solutions Inc Image processing apparatus, portable terminal, and image processing system
JP2015001865A (en) * 2013-06-17 2015-01-05 コニカミノルタ株式会社 Image forming system, image forming apparatus, remote operation device and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199799A (en) * 2011-03-22 2012-10-18 Konica Minolta Business Technologies Inc Image forming apparatus, setting method, and setting program
JP2013251623A (en) * 2012-05-30 2013-12-12 Kyocera Document Solutions Inc Image processing apparatus, portable terminal, and image processing system
JP2015001865A (en) * 2013-06-17 2015-01-05 コニカミノルタ株式会社 Image forming system, image forming apparatus, remote operation device and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"ナチュラル入力へ進む新IME IME2002徹底解剖", PCFAN, vol. 第8巻, 第11号, JPN6018039238, 15 May 2001 (2001-05-15), JP, pages 60 - 61, ISSN: 0003892813 *
大橋 源一郎: "「声」で入力・操作ビアボイス98でパソコンを操る 認識率95%以上。口述筆記、音声操作の勘所", 日経PC21, vol. 第3巻, 第14号, JPN6018039236, 1 December 1998 (1998-12-01), JP, pages 106 - 117, ISSN: 0003892812 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022028802A (en) * 2016-06-10 2022-02-16 アップル インコーポレイテッド Providing remote keyboard service
JP7192079B2 (en) 2016-06-10 2022-12-19 アップル インコーポレイテッド Provide remote keyboard service
US11561693B2 (en) 2016-06-10 2023-01-24 Apple Inc. Providing a remote keyboard service
US11868611B2 (en) 2016-06-10 2024-01-09 Apple Inc. Providing a remote keyboard service
US12175071B2 (en) 2016-06-10 2024-12-24 Apple Inc. Providing a remote keyboard service

Also Published As

Publication number Publication date
JP6531427B2 (en) 2019-06-19

Similar Documents

Publication Publication Date Title
US9606755B2 (en) Portable terminal apparatus, cooperative image processing system, method for displaying screen data, and recording medium
JP6035985B2 (en) Image processing apparatus, control program for image processing apparatus, and image processing system
JP6170452B2 (en) Image processing apparatus and system including the same
EP2750029B1 (en) Display processing apparatus, image forming apparatus, display processing system of a remote screen, and display processing method
JP6003939B2 (en) Image processing linkage system and linkage method, portable terminal device, and image processing linkage program
US10805484B2 (en) Image processing device to execute communication processing with information processing device, non-transitory computer-readable recording medium for image processing device, and image processing system
JP2013121053A (en) Mobile terminal, image processing device, image processing system, control method and program
JP2014219706A (en) Image processor, portable terminal device, creation program of remote screen data and display control program
JP2013251623A (en) Image processing apparatus, portable terminal, and image processing system
JP7638666B2 (en) Information processing device, information processing control method, and computer program
JP6213297B2 (en) Image forming system, image forming apparatus, remote control device, and program
JP5768637B2 (en) Information processing program, information processing apparatus, and information processing method
JP6887748B2 (en) Data transmission device, data transmission method and program
JP2015037197A (en) Image processing system, image processor, and display control program for remote screen
JP2009163548A (en) Information processor, operation teaching system for information processor, operation teaching method for information processor, and operation teaching program for information processor
JP5853999B2 (en) Image forming system, image forming apparatus, remote control device, and program
JP6531427B2 (en) PROCESSING SYSTEM, TERMINAL DEVICE, PROCESSING DEVICE, PROCESSING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP6119772B2 (en) Image processing system, image processing device, terminal device, and program
JP6314499B2 (en) Operation support program and terminal device
JP6260290B2 (en) Image forming system, image forming apparatus, remote control device, and program
JP6191470B2 (en) Image processing system, image processing apparatus, and portable terminal device
JP6641901B2 (en) Image processing apparatus, remote control method, and remote control program
JP6519223B2 (en) IMAGE DATA TRANSMISSION SYSTEM, TERMINAL DEVICE, IMAGE DATA TRANSMISSION METHOD, AND COMPUTER PROGRAM
US11843730B2 (en) Information processing method that converts a telephone function code included in destination information to a fax transmission function code, and storage medium
JP2008200884A (en) Function execution device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181130

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190506

R150 Certificate of patent or registration of utility model

Ref document number: 6531427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150