JP2000163444A - Portable information devices and information storage media - Google Patents
Portable information devices and information storage mediaInfo
- Publication number
- JP2000163444A JP2000163444A JP35073098A JP35073098A JP2000163444A JP 2000163444 A JP2000163444 A JP 2000163444A JP 35073098 A JP35073098 A JP 35073098A JP 35073098 A JP35073098 A JP 35073098A JP 2000163444 A JP2000163444 A JP 2000163444A
- Authority
- JP
- Japan
- Prior art keywords
- information
- input
- finger
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Calculators And Similar Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
(57)【要約】
【課題】 ユーザーが必要に応じて指定した情報や、メ
モした情報、入力した画像等を簡易且つユーザーが使い
易い形態で管理できる電子ブックや携帯情報機器及びこ
れらに使用する情報記憶媒体を提供する。
【解決手段】 ユーザーが指定した情報や入力した情報
に日付情報を付して、自動的にフォルダファイルに格納
する機能を有する電子ブックである。指動作検出部10
は、指入力動作を検出するためのものであり、表示部6
0にに透明なタッチパネル等を重ねて構成されている。
ユーザーはペン入力部12よりが表示部60上にペンで
記載した内容を、撮影部14より撮影した動画及び静止
画を入力することができる。処理内容決定部30は、入
力されたデータに基づき、処理すべき内容を決定する。
フォルダファイル処理部40は、入力されたデータや指
定されたデータをフォルダファイル44へ格納する処理
やフォルダファイルの参照処理を行う。
(57) [Summary] [Problem] An electronic book and a portable information device that can manage information specified by a user as needed, memo information, an input image, and the like in a simple and easy-to-use form, and to be used for these. An information storage medium is provided. An electronic book has a function of attaching date information to information specified or input by a user and automatically storing the information in a folder file. Finger motion detection unit 10
Is for detecting a finger input operation.
A transparent touch panel or the like is superimposed on 0.
The user can input a moving image and a still image of the content written by the pen on the display unit 60 by the pen input unit 12 and captured by the imaging unit 14. The processing content determining unit 30 determines the content to be processed based on the input data.
The folder file processing unit 40 performs a process of storing input data or designated data in the folder file 44 and a process of referring to the folder file.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、携帯情報機器、電
子ブック及びこれらに使用される情報記憶媒体に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a portable information device, an electronic book, and an information storage medium used therein.
【0002】[0002]
【背景技術及び発明が解決しようとする課題】近年、文
字、画像、音声などの情報を、CD−ROMやFDなど
の電子メディアに記録し、書籍のように利用する出版形
態である電子ブック、携帯情報機器、が実用化されてい
る。2. Description of the Related Art In recent years, electronic books, which are publishing forms in which information such as characters, images, and sounds are recorded on electronic media such as CD-ROMs and FDs and used like books, Portable information devices have been put to practical use.
【0003】係る電子ブックや携帯情報機器は紙の本で
はいきずまる物理的な限界を解消することができる。ま
た非直線的読書スタイルも可能であり、読者はそれぞれ
の自由な視点から多角的に読書を楽しむことができる。[0003] Such an electronic book or portable information device can overcome the physical limitations that paper books can have. A non-linear reading style is also possible, and readers can enjoy reading from various perspectives.
【0004】さらに出版に金や手間がかからないため、
だれもが手軽に出版することができたり、購読者が限定
されるような専門的なものが出版できたりというような
出版の理想像を実現することも可能となる。[0004] Furthermore, since publishing does not require much money or labor,
It is also possible to realize the ideal image of publishing such that anyone can publish easily or publish a specialized one with limited subscribers.
【0005】ところで、係る電子ブックや携帯情報機器
は、よりコンパクトであることが好ましいため、操作用
のボタン等のハードはできるだけ少ないほうがよい。ま
た特別な操作の習得を必要とせず、ユーザーが日常的な
感覚で操作できるものであることが好ましい。[0005] By the way, since such electronic books and portable information devices are preferably more compact, it is better to use as few hardware as possible, such as operation buttons. Further, it is preferable that the user can operate with a daily feeling without special operation learning.
【0006】本出願人は、より簡易で使いやすい電子ブ
ックや携帯情報機器を提供すべく、様々な操作を表示部
にタッチした指動作で入力できる電子ブックや携帯情報
機器の開発を行っている。The present applicant has been developing an electronic book and a portable information device in which various operations can be input by a finger operation of touching a display section in order to provide a simpler and easier-to-use electronic book and a portable information device. .
【0007】係る携帯情報機器等は、ユーザーが持ち歩
き、必要に応じて様々な情報をコピーしたり、メモした
り、画像を入力したり等の機能を持たせることで携帯用
端末とは異なる携帯情報機器としての特性を発揮するこ
とができる。The portable information device or the like is different from a portable terminal in that a user carries the portable information device with various functions such as copying various information, making notes, and inputting an image as needed. The characteristics as an information device can be exhibited.
【0008】そこで、ユーザーが必要に応じてコピーし
た情報や、メモした情報、入力した画像等をいかに簡易
且つユーザーが使い易い形態で管理するかが問題とな
る。[0008] Therefore, there is a problem how to manage the information copied by the user as needed, the memo information, the input image, and the like in a simple and user-friendly form.
【0009】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、携帯情報機
器や電子ブックにおいて、ユーザーが必要に応じて指定
した情報や、メモした情報、入力した画像等を簡易且つ
ユーザーが使い易い形態で管理できる電子ブックや携帯
情報機器及びこれらに使用する情報記憶媒体を提供する
ことである。SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has as its object to provide information specified by a user as needed or information recorded in a portable information device or an electronic book. Another object of the present invention is to provide an electronic book, a portable information device, and an information storage medium used for the electronic book and the portable information device which can manage input images and the like in a simple and easy-to-use form.
【0010】[0010]
【課題を解決するための手段】本発明の携帯情報機器
は、入力された情報及び指定された情報の少なくとも一
方に、自動的に入力日付又は指定日付けのいずれかの情
報を付して所定のファイルに格納する情報格納手段と、
前記所定のファイルに格納された情報を前記日付情報で
検索する検索手段とを含むことを特徴とする。According to the portable information device of the present invention, at least one of the input information and the designated information is automatically added with either the input date or the designated date information, and the predetermined information is provided. Information storage means for storing in a file of
A search unit for searching information stored in the predetermined file by the date information.
【0011】本発明によれば、ユーザーが入力した情報
や指定した情報を、日付情報とともに自動的に所定のフ
ァイルに格納し、必要にに応じて日付で検索にてファイ
ルの内容を参照することができる。According to the present invention, information input by a user or information specified by a user is automatically stored in a predetermined file together with date information, and if necessary, the content of the file is referred to by searching by date. Can be.
【0012】入力した情報とは、外部から入力した情報
を意味し、例えばキーボードや画面上に表示された文字
をタッチすることによる文字入力や、表示部にペンで文
字や図形等を描いて入力する場合や、カメラで撮影した
動画や静止画を入力する場合や、マイクから音声等を入
力する場合等を含む。The input information means information input from outside, for example, a character input by touching a character displayed on a keyboard or a screen, or a character or a figure drawn on a display unit with a pen. , A case where a moving image or a still image captured by a camera is input, a case where a sound or the like is input from a microphone, and the like.
【0013】また指定した情報とは、外部から入力した
情報か内部に記憶されている情報かにかかわらず、何ら
かの方法でユーザーが指定した情報を意味する。The specified information means information specified by the user in any way, regardless of whether the information is externally input or stored internally.
【0014】このように本発明によれば、ユーザーが持
ち歩き、必要に応じて様々な情報を入力したり、指定し
たりした場合に、自動的に日付情報を付して所定のファ
イルに格納してくれるため、ユーザーが特に意識しなく
ても日付単位での情報の管理が行える便利で使いやすい
携帯情報機器を提供することができる。As described above, according to the present invention, when a user carries around and inputs or designates various information as necessary, the information is automatically added to date information and stored in a predetermined file. Therefore, it is possible to provide a convenient and easy-to-use portable information device that can manage information on a date-by-date basis without the user's particular awareness.
【0015】また本発明は、表示部に接触した指の移動
履歴により、表示画像の所与の範囲を指定する指定手段
を更に含み、前記指定手段が、表示部に接触した指の移
動履歴を検出する手段と、検出された指の移動履歴に基
づき、指定された範囲を決定する手段と含み、前記情報
格納手段が、指定された範囲に表示されている情報を前
記所定のファイルに格納することを特徴とする。Further, the present invention further includes a designation means for designating a given range of the display image based on a movement history of the finger contacting the display unit, wherein the designation means stores the movement history of the finger contacting the display unit. Means for detecting, and means for determining a specified range based on the detected movement history of the finger, wherein the information storage means stores information displayed in the specified range in the predetermined file. It is characterized by the following.
【0016】本発明によれば、ユーザーは表示部上に表
示されている情報を例えば指で囲むことにより、所定の
ファイルに格納したい情報を指定することができる。According to the present invention, the user can specify information to be stored in a predetermined file by surrounding the information displayed on the display unit with, for example, a finger.
【0017】このように指動作で所定のファイルに格納
したい情報の範囲指定が行えるため、携帯して使用する
際の入力操作が容易で使い勝手のよい携帯情報機器を提
供することができる。また、指動作で入力できることか
ら電子機器本体をよりコンパクトにすることが可能とな
り、よりコンパクトで携帯に適した携帯情報機器を提供
することができる。As described above, the range of information to be stored in a predetermined file can be specified by a finger operation, so that it is possible to provide a portable information device that is easy to use and easy to use when carrying the device. In addition, since the input can be performed by finger operation, the electronic device body can be made more compact, and a more compact portable information device suitable for carrying can be provided.
【0018】なお所定の範囲の指定は、例えば指の移動
履歴が閉曲線や多角形を描くようにして、当該閉曲線や
多角形で囲まれた範囲を指定するようにしても良いし、
画面の端と指で囲んだ部分で閉曲線や多角形の形づくる
ようにしてもよい。The specified range may be specified, for example, such that the movement history of the finger draws a closed curve or polygon, and the range surrounded by the closed curve or polygon may be specified.
A closed curve or a polygon may be formed at the edge of the screen and the portion surrounded by the finger.
【0019】本発明は、前記指定手段が、指で表示画面
上の3点が指定された場合に、前記3点を含む円周で囲
まれた範囲の表示情報を指定された範囲と決定する手段
を含み、前記情報格納手段が、前記3点を含む円周で囲
まれた範囲の表示情報を前記所定のファイルに格納する
ことを特徴とする。According to the present invention, when three points on the display screen are specified by a finger, the specifying means determines the display information of a range surrounded by a circle including the three points as the specified range. Means, and the information storage means stores display information in a range surrounded by a circle including the three points in the predetermined file.
【0020】本発明によれば、ユーザーが表示画面上の
3点を指定すると、前記3点を含む円周で囲まれた範囲
の表示情報に指定日付を付して前記所定のファイルに自
動的に格納することができる。特に、表示情報の性質
上、円で切り出すことが望ましい場合に有効である。こ
のように本発明によれば、ユーザーが指のみで多様な範
囲を指定することができる携帯情報機器を提供すること
ができる。According to the present invention, when the user designates three points on the display screen, the designated information is automatically added to the predetermined file by attaching a designated date to the display information in a range surrounded by a circle including the three points. Can be stored. In particular, this is effective when it is desirable to cut out with a circle due to the nature of the display information. As described above, according to the present invention, it is possible to provide a portable information device that allows a user to specify a variety of ranges only with a finger.
【0021】また本発明は、表示部上にペンで書いた内
容を入力するペン入力手段を更に含み、前記ペン入力手
段は、前記ペンで表示部上に記載された内容を検出する
手段を含み、前記情報格納手段が、前記ペン入力手段に
より表示部に書き込まれた内容を前記所定のファイルに
格納することを特徴とする。Further, the present invention further includes pen input means for inputting the contents written with a pen on the display unit, and the pen input means includes means for detecting the contents described on the display unit with the pen. The information storage means stores the content written on the display unit by the pen input means in the predetermined file.
【0022】前記ペンとしては例えばライトペンやタッ
チペン等がある。Examples of the pen include a light pen and a touch pen.
【0023】本発明によれば、ユーザーが表示画面上に
ペンで記載した内容に記載日付を付して前記所定のファ
イルに自動的に格納することができる。従ってペンで書
いた情報も他の入力情報や指定されたデータとともに一
括した日付管理が行えるため、旅行や取材等携帯してメ
モ代わりに使用する際に便利である。According to the present invention, the contents described by the user with the pen on the display screen can be automatically stored in the predetermined file with a description date. Accordingly, information written with a pen can be collectively managed together with other input information and designated data, which is convenient when used as a memo for traveling, reporting, or the like.
【0024】本発明は、動画及び静止画の少なくとも一
方を撮影する撮影手段を更に含み、前記情報格納手段
が、前記撮影手段により撮影された動画及び静止画の少
なくとも一方を前記所定のファイルに格納することを特
徴とする。The present invention further includes a photographing means for photographing at least one of a moving image and a still image, wherein the information storage means stores at least one of the moving image and the still image photographed by the photographing means in the predetermined file. It is characterized by doing.
【0025】本発明によれば、ユーザーがカメラ等の撮
影手段により撮影した動画及び静止画の少なくとも一方
を撮影日付を付して前記所定のファイルに自動的に格納
することができる。従って撮影した画像も他の入力情報
や指定されたデータとともに一括して日付管理が行える
ため、旅行や取材等携帯して撮影する際に便利である。According to the present invention, at least one of a moving image and a still image photographed by a photographing means such as a camera by a user can be automatically stored in the predetermined file with a photographing date. Therefore, since the date of the photographed image can be collectively managed together with other input information and designated data, it is convenient when carrying the photograph for traveling or reporting.
【0026】本発明は、前記記載の携帯情報機器であっ
て、電子ブックとして使用されることを特徴とする。According to the present invention, there is provided the portable information device as described above, wherein the portable information device is used as an electronic book.
【0027】即ち、本発明の電子ブックは、入力された
情報及び指定された情報の少なくとも一方に、自動的に
入力日付又は指定日付けのいずれかの情報を付して所定
のファイルに格納する情報格納手段と、前記所定のファ
イルに格納された情報を前記日付情報で検索する検索手
段と、を含むことを特徴とする。That is, in the electronic book of the present invention, at least one of the input information and the specified information is automatically added with either the input date or the specified date information and stored in a predetermined file. An information storage means, and a search means for searching the information stored in the predetermined file with the date information are provided.
【0028】また前記電子ブックにおいて、表示部に接
触した指の移動履歴により、表示画像の所与の範囲を指
定する指定手段を更に含み、前記指定手段が、表示部に
接触した指の移動履歴を検出する手段と、検出された指
の移動履歴に基づき、指定された範囲を決定する手段と
含み、前記情報格納手段が、指定された範囲に表示され
ている情報を前記所定のファイルに格納することを特徴
とする。In the electronic book, the electronic book may further include a designating means for designating a given range of the display image based on a movement history of the finger touching the display unit, wherein the designating means comprises a movement history of the finger touching the display unit. And a means for determining a specified range based on the detected movement history of the finger, wherein the information storage means stores information displayed in the specified range in the predetermined file. It is characterized by doing.
【0029】また前記電子ブックにおいて、前記指定手
段が、指で表示画面上の3点が指定された場合に、前記
3点を含む円周で囲まれた範囲の表示情報を指定された
範囲と決定する手段を含み、前記情報格納手段が、前記
3点を含む円周で囲まれた範囲の表示情報を前記所定の
ファイルに格納することを特徴とする。Further, in the electronic book, when three points on the display screen are specified by a finger, the specifying means changes display information of a range surrounded by a circle including the three points to the specified range. The information storage unit includes a determination unit, and the information storage unit stores display information in a range surrounded by a circle including the three points in the predetermined file.
【0030】また前記電子ブックにおいて、表示部上に
ペンで書いた内容を入力するペン入力手段を更に含み、
前記ペン入力手段は、前記ペンで表示部上に記載された
内容を検出する手段を含み、前記情報格納手段が、前記
ペン入力手段により表示部に書き込まれた内容を前記所
定のファイルに格納することを特徴とする。The electronic book further includes a pen input unit for inputting a content written with a pen on a display unit,
The pen input unit includes a unit that detects a content written on a display unit with the pen, and the information storage unit stores the content written on the display unit by the pen input unit in the predetermined file. It is characterized by the following.
【0031】また前記電子ブックにおいて、動画及び静
止画の少なくとも一方を撮影する撮影手段を更に含み、
前記情報格納手段は、前記撮影手段により撮影された動
画及び静止画の少なくとも一方を前記所定のファイルに
格納することを特徴とする。The electronic book further includes a photographing means for photographing at least one of a moving image and a still image,
The information storage unit stores at least one of a moving image and a still image photographed by the photographing unit in the predetermined file.
【0032】また本発明は、携帯情報機器及び電子ブッ
クの少なくとも一方に使用する情報記憶媒体であって、
入力された情報及び指定された情報の少なくとも一方
に、自動的に入力日付又は指定日付けのいずれかの情報
を付して所定のファイルに格納するための情報と、前記
所定のファイルに格納された情報を前記日付情報で検索
するための情報と、を含むことを特徴とする。Further, the present invention relates to an information storage medium used for at least one of a portable information device and an electronic book,
At least one of the input information and the specified information is automatically added with either the input date or the specified date information and stored in a predetermined file, and the information stored in the predetermined file is stored in the predetermined file. And information for searching for the retrieved information with the date information.
【0033】また前記情報記憶媒体において、表示部に
接触した指の移動履歴により、表示画像の所与の範囲を
指定するための情報を更に含み、前記情報が、表示部に
接触した指の移動履歴を検出するための情報と、検出さ
れた指の移動履歴に基づき、指定された範囲を決定する
ための情報を含むことを特徴とする。The information storage medium may further include information for designating a given range of a display image based on a movement history of the finger that has contacted the display unit, and the information may include the movement of the finger that has contacted the display unit. It is characterized by including information for detecting a history and information for determining a designated range based on a detected movement history of a finger.
【0034】また前記情報記憶媒体において、指で表示
画面上の3点が指定された場合に、前記3点を含む円周
で囲まれた範囲の表示情報を指定された範囲と決定する
ための情報と、前記3点を含む円周で囲まれた範囲の表
示情報を前記所定のファイルに格納するための情報を含
むことを特徴とする。In the information storage medium, when three points on the display screen are designated by a finger, the display information in a range surrounded by a circle including the three points is determined as the designated range. And information for storing display information of a range surrounded by a circle including the three points in the predetermined file.
【0035】また前記情報記憶媒体において、表示部上
にペンで書いた内容を入力するための情報を更に含み、
前記情報は、前記ペンで表示部上に記載された内容を検
出するための情報を含み、前記所定のファイルに格納す
るための情報が、前記ペンにより表示部に書き込まれた
内容を前記所定のファイルに格納するための情報を含む
ことを特徴とする。The information storage medium may further include information for inputting a content written with a pen on a display unit,
The information includes information for detecting the content written on the display unit with the pen, and information for storing in the predetermined file is the content written on the display unit by the pen, It is characterized by including information to be stored in a file.
【0036】また前記情報記憶媒体において、動画及び
静止画の少なくとも一方を撮影する撮影するための情報
を更に含み、前記撮影手段により撮影された動画及び静
止画の少なくとも一方を前記所定のファイルに格納する
ための情報を含むことを特徴とする。The information storage medium further includes information for photographing at least one of a moving image and a still image, and stores at least one of the moving image and the still image photographed by the photographing means in the predetermined file. The information is characterized by including information for performing
【0037】[0037]
【発明の実施の形態】1.本発明の特徴 本発明の第一の特徴は、入力された情報及び指定された
情報の少なくとも一方に、自動的に入力日付又は指定日
付けのいずれかの情報を付して所定のファイルに格納
し、前記所定のファイルに格納された情報を前記日付情
報で検索できる点にある。BEST MODE FOR CARRYING OUT THE INVENTION Features of the present invention A first feature of the present invention is that at least one of the input information and the specified information is automatically added with either the input date or the specified date information and stored in a predetermined file. In addition, information stored in the predetermined file can be searched using the date information.
【0038】また本発明の第二の特徴は、表示部上に表
示されている情報を指で指定することにより、前記所定
のファイルに格納できる点にある。A second feature of the present invention is that the information displayed on the display unit can be stored in the predetermined file by designating the information with a finger.
【0039】また本発明の第三の特徴は、表示画面上に
ペンで記載した内容に記載日付を付して前記所定のファ
イルに自動的に格納することができる点にある。A third feature of the present invention resides in that the contents described with a pen on the display screen can be automatically stored in the predetermined file with a description date.
【0040】また本発明の第四の特徴は、カメラ等の撮
影手段により撮影した動画及び静止画の少なくとも一方
を撮影日付を付して前記所定のファイルに自動的に格納
することができる点にある。A fourth feature of the present invention is that at least one of a moving image and a still image photographed by photographing means such as a camera can be automatically stored in the predetermined file with a photographing date. is there.
【0041】図1は、本発明の第一〜第四の特徴的機能
を有する形態情報機器や電子ブックの機能ブロック図で
ある。FIG. 1 is a functional block diagram of a form information device or an electronic book having the first to fourth characteristic functions of the present invention.
【0042】指動作検出部10は、ユーザーがフォルダ
ファイル44に格納するデータを指定するために表示部
上のデータを指で囲った場合の指の移動履歴や、フォル
ダファイル44参照操作のための指入力動作を検出する
ためのものである。指入力検出部10は、表示部60に
透明なタッチパネル等を重ねて構成されている。指動作
検出部10で得られた検出データは処理部20へ入力さ
れる。The finger movement detection unit 10 is used to specify a movement history of a finger when data on the display unit is surrounded by a finger in order to specify data to be stored in the folder file 44, and to perform a reference operation for the folder file 44. This is for detecting a finger input operation. The finger input detection unit 10 is configured by overlapping a transparent touch panel or the like on the display unit 60. The detection data obtained by the finger motion detection unit 10 is input to the processing unit 20.
【0043】ペン入力部12は、ユーザーが表示部60
上にペンで記載した内容を入力するためのものである。
ペン入力部12は、前期ペン12で表示部60に文字や
図形等を記載すると、表示部に重ねられた透明なタッチ
パネル等がその内容をイメージデータとして検出するよ
う構成されている。ペン入力部12で得られた検出デー
タは処理部20へ入力される。The pen input unit 12 allows the user to display
This is for inputting the contents described above with a pen.
The pen input unit 12 is configured such that when a character, a graphic, or the like is written on the display unit 60 with the pen 12, a transparent touch panel or the like superimposed on the display unit detects the content as image data. The detection data obtained by the pen input unit 12 is input to the processing unit 20.
【0044】撮影部14は、ユーザーが動画及び静止画
の少なくとも一方を撮影するためのものである。撮影部
14は、カメラ又はビデオカメラ等で構成されている。
撮影部14で撮影された撮影データは処理部20へ入力
される。The photographing section 14 is for the user to photograph at least one of a moving image and a still image. The imaging unit 14 is configured by a camera, a video camera, or the like.
The photographing data photographed by the photographing unit 14 is input to the processing unit 20.
【0045】処理部20は、前記指動作やペン入力によ
る検出データ、撮影データ、所与のプログラム等基づい
て、表示部60に表示する画像を生成する処理や、デー
タをフォルダファイル44に格納する処理、フォルダフ
ァイルのデータを参照する処理等を行うものである。こ
の処理部20の機能は、CPU(CISC型、RISC
型)、DSP、カスタム(ゲートアレーなど)IC、メ
モリなどのハードウエアにより実現できる。The processing section 20 generates an image to be displayed on the display section 60 based on the detection data obtained by the finger operation or pen input, photographing data, a given program, and the like, and stores the data in the folder file 44. Processing, processing for referring to the data of the folder file, and the like are performed. The function of this processing unit 20 is a CPU (CISC type, RISC
(Type), DSP, custom (gate array etc.) IC, memory and other hardware.
【0046】情報記憶媒体70は、プログラムやデータ
を記憶するためのものである。この情報記憶媒体70の
機能は、CD−ROM、カセット、ICカード、MO、
FD、DVD、ハードディスク、メモリ等のハードウエ
アにより実現できる。処理部20は、この情報記憶媒体
70からのプログラム、データに基づいて種々の処理を
行うことになる。The information storage medium 70 is for storing programs and data. The functions of the information storage medium 70 are as follows: CD-ROM, cassette, IC card, MO,
It can be realized by hardware such as FD, DVD, hard disk, and memory. The processing unit 20 performs various processes based on the programs and data from the information storage medium 70.
【0047】処理部20は、処理内容決定部30、フォ
ルダファイル処理部40、画像生成部50を含んで構成
される。The processing section 20 includes a processing content determining section 30, a folder file processing section 40, and an image generating section 50.
【0048】処理内容決定部30は、指動作検出部1
0、ペン入力部12、撮影部14から入力されたデータ
に基づき、処理すべき内容を決定する。具体的には各種
入力に応じて、フォルダファイルへの格納処理を行うの
か、フォルダファイルの参照処理を行うのかを判断す
る。The processing content determining unit 30 includes the finger motion detecting unit 1
0, the contents to be processed are determined based on the data input from the pen input unit 12 and the photographing unit 14. Specifically, it is determined whether to perform storage processing to a folder file or to perform reference processing of a folder file according to various inputs.
【0049】フォルダファイル処理部40は、フォルダ
ファイル44への格納処理やフォルダファイルの参照処
理を行うもので、情報格納部42、フォルダファイル4
4、情報参照部46を含む。フォルダファイル44はユ
ーザーが指定した情報や入力した情報に日付情報を付し
て格納するためのファイルである。情報格納部42は、
指動作部10が指定したデータ、ペン入力部12から入
力した文字や図形、撮影部14が撮影した動画や静止画
等を、当日の日付情報を付してフォルダファイルに格納
するための処理を行う。情報参照部46は、フォルダフ
ァイルの情報を日付で検索するための処理を行う。The folder file processing unit 40 performs a process of storing in the folder file 44 and a process of referring to the folder file.
4, including an information reference unit 46; The folder file 44 is a file for storing information specified by the user or input information with date information added thereto. The information storage unit 42
A process for storing data specified by the finger operation unit 10, characters and graphics input from the pen input unit 12, moving images and still images shot by the shooting unit 14 with date information of the day in a folder file, and the like. Do. The information reference unit 46 performs a process for searching for information of a folder file by date.
【0050】画像生成部50は、フォルダファイルに格
納する情報の画像やフォルダファイルを参照する際の画
像を生成し、表示部60に出力する。The image generation unit 50 generates an image of information stored in the folder file and an image for referring to the folder file, and outputs the generated image to the display unit 60.
【0051】2.本発明の好適な実施形態 以下、本発明の好適な実施形態について電子ブックを例
にとり詳細に説明する。2. Preferred Embodiment of the Present Invention Hereinafter, a preferred embodiment of the present invention will be described in detail using an electronic book as an example.
【0052】(1)電子ブックの外観 図2(A)(B)(C)は本実施の形態の電子ブックの
外観図を示している。図2(A)の110は本実施の形
態の電子ブックを閉じた状態の外観正面図であり、12
0は側面図である。130は、本実施の形態の電子ブッ
クを開いた状態を表した図である。本実施の形態の電子
ブックは携帯に便利なように、110のように電子ブッ
クを閉じた状態で文庫本程度の大きさになるよう構成さ
れている。(1) External Appearance of Electronic Book FIGS. 2A, 2B, and 2C are external views of an electronic book according to the present embodiment. Reference numeral 110 in FIG. 2A is an external front view in a state where the electronic book of the present embodiment is closed.
0 is a side view. Reference numeral 130 denotes a state in which the electronic book of the present embodiment is opened. The electronic book according to the present embodiment is configured to be approximately the size of a paperback book with the electronic book closed, as shown at 110, for convenience in carrying.
【0053】図2(B)は、電子ブックに使用するソフ
トを納めたディスク140を示した図である。本実施の
形態の電子ブックは図2(C)に示すように、電子ブッ
ク本体150に各種ソフトを納めたディスク140をセ
ットすることにより、各種ソフトの内容に対応した情報
を提供することができる。FIG. 2B is a diagram showing a disk 140 containing software used for an electronic book. As shown in FIG. 2C, the electronic book according to the present embodiment can provide information corresponding to the contents of various software by setting a disk 140 containing various software in the electronic book main body 150. .
【0054】(2)指動作による地図画像の操作処理 次に、本実施の形態の電子ブックにおける指動作による
地図画像の操作の具体例について説明する。(2) Operation of Map Image Operation by Finger Movement Next, a specific example of operation of a map image by finger movement in the electronic book of the present embodiment will be described.
【0055】図3は、旅行情報ソフトをセットした場合
に表示される画面例を表した図である。画面中央は主に
情報表示領域として、画面の端領域は主に検索用タグ領
域やツールバー表示領域として使用される。情報表示領
域には、本の見開き1ページ分に記載されている内容が
画像情報として表示されている。また検索用タグ領域に
は検索用タグ210〜230等が表示されている。ま
た、表示領域の左右の端には「本の厚み」を模した画像
240、242が表示されている。FIG. 3 is a diagram showing an example of a screen displayed when travel information software is set. The center of the screen is mainly used as an information display area, and the end area of the screen is mainly used as a search tag area and a toolbar display area. In the information display area, the content described in one page spread of the book is displayed as image information. In the search tag area, search tags 210 to 230 and the like are displayed. In addition, images 240 and 242 imitating “book thickness” are displayed at the left and right ends of the display area.
【0056】 地図の拡大操作 ユーザーが指250で検索用タグの「地図」220の欄
をタッチすると、画面内に、「インド」の全体地図26
0が表示される(図4参照)。「ボンベイ」付近の情報
を得たい場合には、図6(B)に示すように親指と人差
し指を近づけた状態で画面上「ボンベイ」のあたりに親
指と人差し指をおいて、親指と人差し指を遠ざける方向
に動かす動作(地図の拡大ジェスチャー)を行う(図5
参照)。このようにすると、親指と人差し指の移動履歴
に応じて拡大された地図画像が表示される。即ち、親指
と人差し指の離れる度合いが大きい程、縮尺が小さくよ
り詳細な地図が表示される。Map Enlargement Operation When the user touches the field of “map” 220 of the search tag with the finger 250, the entire map 26 of “India” is displayed on the screen.
0 is displayed (see FIG. 4). To obtain information near “Bombay”, place the thumb and forefinger around “Bombay” on the screen with the thumb and forefinger close as shown in FIG. Performing the operation of moving in the direction (enlargement gesture of the map) (FIG. 5)
reference). By doing so, a map image enlarged according to the movement history of the thumb and the index finger is displayed. That is, the larger the degree of separation between the thumb and the index finger, the smaller the scale and the more detailed the map is displayed.
【0057】このとき、親指と人差し指を遠ざける動作
にリアルタイムに対応して、画面上の地図を拡大させて
もよい。また、指の動きが止まった時点で最終的な拡大
量が確定してから、その拡大量に応じて拡大された地図
画像を表示してもよい。At this time, the map on the screen may be enlarged in response to the operation of moving the thumb and the index finger away from each other in real time. Alternatively, after the final enlargement amount is determined when the movement of the finger stops, a map image enlarged according to the enlargement amount may be displayed.
【0058】また図7に示すように親指を固定して人差
し指のみを親指から遠ざける方向に移動させた場合も地
図の拡大ジェスチャーに含ませても良い。As shown in FIG. 7, the case where the thumb is fixed and only the index finger is moved away from the thumb may be included in the enlarged gesture of the map.
【0059】拡大された地図を参照した結果、更に詳細
な地図画像を得たいと思った場合には、前記地図の拡大
ジェスチャーを繰りかえすことにより、更に詳細な地図
画像を得ることができる。なお本実施の形態では、都市
部の地図をある程度拡大したらタウンマップ等の都市の
詳細地図が表示されるようになる。If it is desired to obtain a more detailed map image as a result of referring to the enlarged map, a more detailed map image can be obtained by repeating the map's enlarged gesture. In this embodiment, a detailed map of a city, such as a town map, is displayed when the map of an urban area is enlarged to some extent.
【0060】 地図のスクロール操作 また図8に示すように画面上に指をおいて、指を画面上
に押し当てたまま希望の方向に動かすと(地図のスクロ
ールジェスチャー)、動かした方向に動かした距離だけ
その地図が移動して表示される。As shown in FIG. 8, when a finger is put on the screen and the finger is pressed on the screen and moved in a desired direction (map scroll gesture), the map is moved in the moved direction. The map is moved and displayed by the distance.
【0061】 地図の縮小操作 また、例えばより大きな縮尺の地図画像を見たい場合や
広範囲の情報を画面に表示したい場合等のように地図を
縮小したい場合には、最初に図6(A)に示すように親
指と人差し指を離した状態で画面上に表示された地図の
上におき、図9に示すように親指と人差し指が近づく方
向に動かす動作(地図の縮小ジェスチャー)を行う。こ
のようにすると、親指と人差し指の移動履歴に応じて縮
小された地図画像が表示される。即ち、親指と人差し指
の離れる度合いが大きい程、縮尺が小さくより詳細な地
図が表示される。Operation for Reducing the Map In addition, when the user wants to reduce the map, for example, when he wants to see a map image of a larger scale or when he wants to display a wide range of information on the screen, first, FIG. As shown in the figure, the user places the thumb and the index finger apart on the map displayed on the screen, and performs an operation of moving the thumb and the index finger toward each other as shown in FIG. 9 (reduction gesture of the map). In this way, a map image reduced according to the movement history of the thumb and the index finger is displayed. That is, the larger the degree of separation between the thumb and the index finger, the smaller the scale and the more detailed the map is displayed.
【0062】このとき、親指と人差し指を近づける動作
とともにリアルタイムに画面上の地図を縮小してもよ
い。また、指の動きが止まった時点で最終的な縮小量が
確定してから、その縮小量に応じて縮小された地図画像
を表示してもよい。At this time, the map on the screen may be reduced in real time together with the operation of bringing the thumb and the index finger closer. Alternatively, a map image reduced according to the final reduction amount may be displayed after the final reduction amount is determined when the movement of the finger stops.
【0063】また図7とは逆に親指を固定して人差し指
のみを親指に近づける方向に移動させた場合も地図の縮
小ジェスチャーに含ませても良い。Also, a case where the thumb is fixed and only the index finger is moved in a direction approaching the thumb may be included in the reduced gesture of the map.
【0064】縮小された地図を参照した結果、更に広範
囲の地図画像が得たいと思った場合には、前記地図の縮
小ジェスチャーを繰りかえすことにより、更に広範囲の
地図画像を得ることができる。なお本実施の形態では、
都市部の地図をある程度縮小したらタウンマップ等の都
市の詳細地図から通常の地図表示に変更して表示される
ようになる。As a result of referring to the reduced map, if it is desired to obtain a map image of a wider range, a map image of a wider range can be obtained by repeating the gesture of reducing the map. In the present embodiment,
When the map of an urban area is reduced to some extent, a detailed map of a city such as a town map is changed to a normal map display and displayed.
【0065】 地図の回転操作 また、縮尺は変えずに表示されている地図画像の向きを
変えたい場合には、最初に図6(A)に示すように親指
と人差し指を離した状態で画面上に表示された地図の上
におき、親指と人差し指のいずれか一方の指を固定し、
固定した指を中心軸として、いずれか他方の指をコンパ
スのように回転させる動作(地図の回転ジェスチャー)
を行う(図10参照)。このようにすると、親指と人差
し指の移動履歴に応じて回転された地図画像が表示され
る。When the user wants to change the direction of the displayed map image without changing the scale, the user first releases the thumb and forefinger on the screen as shown in FIG. 6A. On the map displayed in, fix either the thumb or index finger,
An operation of rotating one of the other fingers like a compass with the fixed finger as the center axis (map rotation gesture)
(See FIG. 10). By doing so, a map image rotated according to the movement history of the thumb and forefinger is displayed.
【0066】図11に示すように、点Oにいずれか一方
の指を固定して、いずれか他方の指を点Aから点Bに回
転させた場合、その回転角Θの分だけAからBへ回転す
る方向370に回転した地図画像が表示される。As shown in FIG. 11, when one of the fingers is fixed at the point O and the other finger is rotated from the point A to the point B, the rotation angle from the point A to the point B The map image rotated in the rotation direction 370 is displayed.
【0067】このとき、いずれか一方の指の回転ととも
にリアルタイムに画面上の地図を回転させても良い。ま
た、指の動きが止まった時点で最終的な回転量が確定し
てから、その回転量に応じて縮小された地図画像を表示
してもよい。At this time, the map on the screen may be rotated in real time together with the rotation of one of the fingers. Alternatively, a map image reduced according to the rotation amount may be displayed after the final rotation amount is determined when the movement of the finger stops.
【0068】なお指動作は、親指と人差し指で行う場合
に限られず、例えば親指と中指等でもよいし、その他の
指の組み合わせで行ってもよい。The finger operation is not limited to the case of performing with the thumb and the index finger, but may be performed with, for example, the thumb and the middle finger, or may be performed with a combination of other fingers.
【0069】(3)検索処理 次に、本実施の形態の電子ブックにおける指動作による
検索処理の具体例について説明する。(3) Search Process Next, a specific example of a search process by a finger operation in the electronic book according to the present embodiment will be described.
【0070】 通常の検索操作 例えばユーザーが、「南インド」のホテルの情報を得た
い場合、図12に示すような方法もある。即ちまず「南
インド」のタグを選択し、「南インド」の情報が掲載さ
れた先頭ページを表示させ、次に宿泊のタグを選択し、
「南インドの宿泊」の情報が掲載された先頭ページを表
示させる方法である。係る方法は、ユーザーが「南イン
ド」について様々な情報を得たい場合、取り合えず「南
インド」の情報が掲載された先頭ページを表示させ、そ
の後「南インド」の様々な情報を検索したい場合等に有
効である。Normal Search Operation For example, when a user wants to obtain information on a hotel in “South India”, there is a method as shown in FIG. That is, first select the tag of "South India", display the first page with information of "South India", then select the tag of accommodation,
This is a method of displaying the first page on which the information of "South India accommodation" is posted. This method is used when the user wants to obtain various information about "South India", displays the first page with information about "South India", and then searches for various information about "South India". It is effective for etc.
【0071】 論理積条件での検索操作 しかし、ユーザーが「南インドの宿泊」情報のみが必要
な場合には、1回の操作でダイレクトに「南インドの宿
泊」の情報が掲載された先頭ページが表示されることが
好ましい。 そこで本実施の形態では、図13(A)に
示すように、ユーザーが例えば左手の指で「南インド」
のタグを、右手の指で「宿泊」のタグを同時にタッチし
た場合には、1回の操作でダイレクトに「南インドの宿
泊」の情報が掲載された先頭ページが表示されるよう構
成されている。However, if the user needs only the “South India Accommodation” information, the first page in which the “South India Accommodation” information is directly posted in one operation Is preferably displayed. Thus, in the present embodiment, as shown in FIG.
If you touch the tag of "Accommodation" with the right finger at the same time, the first page with the information of "Accommodation in South India" is displayed directly by one operation. I have.
【0072】「南インドの宿泊」の情報が複数ページに
渡っている場合には、図13(B)に示すようにページ
めくり入力を行うことにより、次ページ以降に記載され
た情報を読むことができる。When the information of “South India Accommodation” is spread over a plurality of pages, the information described on the next page and subsequent pages can be read by inputting a page turn as shown in FIG. Can be.
【0073】(4)ページめくり、しおり処理等 次に、本実施の形態の電子ブックでページめくりを行う
具体例について説明する。(4) Page Turning, Bookmark Processing, etc. Next, a specific example of turning pages in the electronic book of the present embodiment will be described.
【0074】 ページめくり入力操作 本実施の形態の電子ブックでは、各種操作は画面上の指
動作として入力するため、筐体に操作入力用のボタン等
がほとんどない。また本の内容が表示された画面におい
ては、画面上に操作入力用マークがほとんどないのが特
徴である(図3参照)。Page Turning Input Operation In the electronic book of the present embodiment, since various operations are input as finger operations on the screen, there are almost no operation input buttons or the like on the housing. Also, the screen on which the book contents are displayed is characterized in that there is almost no operation input mark on the screen (see FIG. 3).
【0075】本実施の形態では、旅行情報ソフトを電子
ブックにセットすることにより、ユーザーは旅行のガイ
ドブックを参照するのと同様の使い勝手で、図3に示す
ような画面上で実際の本のページと同様の内容を参照す
ることができる。In the present embodiment, by setting travel information software in an electronic book, the user can use the same user-friendly user as referring to a travel guidebook, and can display the actual book on a screen as shown in FIG. You can refer to the same content as the page.
【0076】ユーザーが次ページを参照したいと思った
場合には、ユーザーが画面上の情報表示領域を紙の本の
ページめくる時のように人差し指で左から右へなぞる
と、図14に示すようにあたかもページがめくれるよう
なイメージで表示画面が次ページの内容に更新される。When the user wants to refer to the next page, the user traces the information display area on the screen from left to right with his index finger as in turning a page of a paper book, as shown in FIG. The display screen is updated to the contents of the next page as if the page were turned.
【0077】このとき、ユーザーは人差し指等をべった
り画面に接触させて、ある程度の強さでこするように指
を横方向に移動させることが必要である。本実施の形態
では、ページめくりの入力を他の入力と区別するため
に、指が所定の面積以上かつ所定の圧力値以上で画面に
接触されて、横方向に移動している場合に、ページめく
りが入力されていると判断するからである。At this time, it is necessary for the user to move the finger in the lateral direction so as to rub the index finger or the like or touch the screen with a certain strength. In the present embodiment, in order to distinguish the page turning input from other inputs, when the finger is touching the screen with a predetermined area or more and a predetermined pressure value or more and moving in the horizontal direction, This is because it is determined that the turning has been input.
【0078】なお、ページめくりの方向とページの昇降
は、実際の本と同様に縦書きか横書きによって異なる。
従って、縦書きの本の場合はページは右から左に進むの
で、図14のように指の移動を行うと、次ページがめく
れるが、横書きの場合は前ページがめくれる。また逆
に、縦書きの本の場合は図14と逆に人差し指で右から
左へなぞると、前ページがめくれるが、横書きの場合は
次ページがめくれることになる。The direction of page turning and the elevation of a page differ depending on whether it is written vertically or horizontally as in an actual book.
Therefore, in the case of a vertically written book, the page advances from right to left, so when the finger is moved as shown in FIG. 14, the next page is turned, but in the case of horizontal writing, the previous page is turned. Conversely, in the case of a vertically written book, tracing from right to left with the index finger turns the previous page contrary to FIG. 14, but in the case of horizontal writing, the next page is turned.
【0079】このように、ユーザーは通常の本を扱うの
同様の感覚でページめくり入力が行えるので、操作の習
得が容易で使い勝手のよいヒューマンインターフェース
を提供できる。As described above, since the user can perform page turning input with the same feeling as handling a normal book, it is possible to provide a human interface that is easy to learn and easy to use.
【0080】なおページめくり入力時に、図14に示す
ように指の動きに応じてページがめくれる途中のイメー
ジ画像を表示してもよいが、直接前ページ画面又は次ペ
ージ画面に切り替わる構成でもよい。At the time of page turning input, as shown in FIG. 14, an image in which a page is being turned may be displayed in accordance with the movement of the finger, but it may be configured to switch directly to the previous page screen or the next page screen.
【0081】またページめくりに対応して「パラ」等の
ページがめくれる音を連想できるようなイメージ音を出
力してもよい。Further, an image sound which can be associated with a page turning sound such as "para" may be output in response to the page turning.
【0082】 連続ページめくり入力操作 また図15に示すように、「本の厚み」を模した画像
(以下「本の厚み」という)240、242をユーザー
が所定時間以上タッチし続けると、ページがパラパラと
連続してめくれる。このとき、ユーザーがタッチする強
さを変えると、ページめくりの速度を変更することがで
きる。即ち、ユーザーはより強くタッチすることでペー
ジがめくれる速度を早めることができる。またタッチす
る強さを弱めることで、ページがめくれる速度を遅くす
ることができる。ユーザーは自分が読みたいページが見
つかった時点で、前記「本の厚み」から手を離すことに
より、連続ページめくりを止めて、表示画面を当該ペー
ジに位置づけることができる。Continuous page turning input operation As shown in FIG. 15, when the user keeps touching images (hereinafter, referred to as “book thickness”) 240 and 242 imitating “book thickness” for a predetermined time or more, the page is displayed. It flips continuously. At this time, if the user changes the touching strength, the speed of turning the page can be changed. That is, the user can increase the speed of turning the page by touching more strongly. You can also slow down the page turn by reducing the intensity of the touch. When the user finds the page he / she wants to read, he / she can release the hand from the “thickness of the book” to stop the continuous page turning and position the display screen on the page.
【0083】なお、前述したページめくりの場合と同様
にページの昇降は縦書きか横書きによって異なる。従っ
て、縦書きの本の場合は、図15のように左端の本の厚
みをタッチし続けると次ページ方向に連続してページが
めくれるが、横書きの場合は前ページ方向に連続してペ
ージがめくれる。また逆に、縦書きの本の場合は図15
と逆に右端の本の厚みをタッチし続けると前ページ方向
に連続してページがめくれるが、横書きの場合は次ペー
ジ方向に連続してページがめくれる。As in the case of the page turning described above, the elevation of the page differs depending on the vertical writing or the horizontal writing. Therefore, in the case of a vertically written book, if the thickness of the book on the left end is kept touching as shown in FIG. 15, the pages are continuously turned in the next page direction. Turn over. Conversely, in the case of a vertically written book, FIG.
Conversely, if you keep touching the thickness of the book on the right end, the pages will be turned continuously in the previous page direction, but in the case of horizontal writing, the pages will be turned continuously in the next page direction.
【0084】このように、ユーザーは通常の本を扱うの
と同様の感覚でページめくり入力が行えるので、操作の
習得が容易で使い勝手のよいヒューマンインターフェー
スを提供できる。As described above, since the user can perform page turning input with the same feeling as handling a normal book, it is possible to provide a human interface that is easy to learn and easy to use.
【0085】なお連続ページめくり入力時に、図15に
示すように指の動きに応じてページがめくれる途中のイ
メージ画像を表示してもよいが、直接前ページ画面又は
次ページ画面に所定時間おきに切り替わる構成でもよ
い。At the time of continuous page turning input, as shown in FIG. 15, an image in which a page is turned in accordance with the movement of a finger may be displayed, but it is directly displayed on the previous page screen or the next page screen every predetermined time. The configuration may be switched.
【0086】またページめくりに対応して「パラパラパ
ラ」等のページがめくれる音を連想できるようなイメー
ジ音を出力してもよい。In addition, an image sound which can be associated with a page turning sound such as “para-para-para” may be output in response to page turning.
【0087】 しおり挿入、参照操作 次に本実施の形態の有しているしおり機能について説明
する。通常の読書の際に再び参照したい箇所にしおりを
挿入するように、本実施の形態でも、再び参照したいペ
ージにしおりを付すことができる。Bookmark Insertion / Reference Operation Next, the bookmark function of the present embodiment will be described. Just as a bookmark is inserted at a place to be referred to again during normal reading, a bookmark can be added to a page to be referred to again in the present embodiment.
【0088】図16に示すように、矢印部260をドラ
ッグして画面の一番下まで指でなぞると当該ページにし
おりを挿入することができる。即ち上記動作後から図1
7に示すように画面上にしおりマーク270が表示され
る。As shown in FIG. 16, by dragging the arrow portion 260 and tracing the finger to the bottom of the screen, a bookmark can be inserted into the page. That is, after the above operation, FIG.
As shown in FIG. 7, a bookmark mark 270 is displayed on the screen.
【0089】ユーザーが他のページを参照している際に
は、図18(A)に示すように画面の下端にしおり27
0が表示されている。When the user is viewing another page, a bookmark 27 is displayed at the lower end of the screen as shown in FIG.
0 is displayed.
【0090】ユーザーは、しおりを付したページを参照
したくなった場合には、図18(B)に示すように画面
の下部に表示されたしおり270を指でタッチすると、
図18(C)に示すように、画面はしおりを付したペー
ジに切り替わる。When the user wants to refer to the bookmarked page, the user touches the bookmark 270 displayed at the bottom of the screen as shown in FIG.
As shown in FIG. 18C, the screen is switched to a page with a bookmark.
【0091】なお、しおりを1本のみ挟む場合を例にと
り説明したがこれに限られない。例えば、複数のページ
にしおりを付したい場合には複数の色のしおりマークを
表示する等してもよい。The above description has been made with respect to a case where only one bookmark is sandwiched, but the present invention is not limited to this. For example, when it is desired to bookmark a plurality of pages, a bookmark mark of a plurality of colors may be displayed.
【0092】(5)今日のフォルダの使用例 次に、本実施の形態の今日のフォルダーの使用の具体例
について説明する。(5) Example of Using Today's Folder Next, a specific example of using the today's folder according to the present embodiment will be described.
【0093】図3において、280の入力用アイコンを
指でタッチすると、図19に示すように画面下部に各種
操作用アイコン(282、284、286、288)で
構成されたツールバーが表示される。In FIG. 3, when the 280 input icon is touched with a finger, a toolbar composed of various operation icons (282, 284, 286, 288) is displayed at the bottom of the screen as shown in FIG.
【0094】282は、本電子ブックの各種設定入力を
行うためのモードへの移行する際にタッチするアイコン
である。また284は、本電子ブックの付属部品である
カメラで動画又は静止画を撮影するモードへ移行する際
にタッチするアイコンである。286は、本電子ブック
の付属部品であるペンを使って文字や図形等をメモ入力
するモードへ移行する際にタッチするアイコンである。
288は入力したデータや画面上で指定した情報を今日
のフォルダに格納する際や、今日のフォルダの中味を参
照したい場合等にタッチするアイコンである。この今日
のフォルダとは毎日自動的に作成されるものであり、使
い方は日々の使用シーンの中で作成しておいたデータを
常に入れっぱなしにしておくいわば倉庫のようなもので
ある。以下、今日のフォルダーの各種使用例について説
明する。Reference numeral 282 denotes an icon touched when shifting to a mode for inputting various settings of the electronic book. Reference numeral 284 denotes an icon to be touched when shifting to a mode for shooting a moving image or a still image with a camera which is an accessory part of the electronic book. Reference numeral 286 denotes an icon to be touched when shifting to a mode in which characters, graphics, and the like are memo input using a pen which is an accessory part of the electronic book.
An icon 288 is touched when input data or information specified on the screen is stored in the today's folder, or when the user wants to refer to the contents of the today's folder. This folder of today is created automatically every day, and its usage is like a warehouse where data created in daily use scenes is always kept. Hereinafter, various usage examples of today's folder will be described.
【0095】 電子ブックに格納されている情報をフ
ローティングして格納する例 電子ブックに格納されている情報をフローティングして
格納する例について図20〜図22を用いて説明する。
例えば「北インド」の情報を得たい場合、「北インド」
のインデックスをタッチしてページを開き読んでみる。
その中でも「タージマハイル」の文字が赤色に表示して
あるのでタッチしてみる(図20(A)参照)。すると
「タージマハイル」のページに自動的にジャンプするよ
う構成されている。Example of Floating and Storing Information Stored in Electronic Book An example of floating and storing information stored in an electronic book will be described with reference to FIGS.
For example, if you want to get information about "North India"
Touch the index to open the page and read it.
Among them, the character “Taj Mahail” is displayed in red, so touch it (see FIG. 20A). Then, it is configured to automatically jump to the "Taj Mahail" page.
【0096】例えば通常紙の本で「タージマハイル」に
ついて読んでみて、この部分をコピーして持ち歩きたい
と思ったような場合、本電子ブックでは、以下のような
操作を行うことができる。For example, when reading "Taj Mahaile" in a normal paper book and wishing to copy and carry this portion, the following operation can be performed in this electronic book.
【0097】即ち、ユーザーが切り取りたいと思う情報
が記載されている範囲を人差し指でなぞりながら四角形
で囲み指を画面から離す(図20(B)の矢印410参
照)。するとその囲われた部分が画面で浮き上がったよ
うに表示される(図21の420参照)。これをフロー
ティング化という。That is, while tracing the range in which the information that the user wants to cut out is described with the forefinger, the user encloses it in a rectangle and releases the finger from the screen (see arrow 410 in FIG. 20B). Then, the enclosed portion is displayed as if it were raised on the screen (see 420 in FIG. 21). This is called floating.
【0098】そしてフローティング化された部分を指で
押さえて、ドラッグ・アンド・ドロップの要領で今日の
フォルダのアイコン288まで移動してそこで指を離す
(以下、「今日のフォルダにドラッグ・アンド・ドロッ
プする」という)と(図22参照)、フローティング化
された部分が今日のフォルダへ格納される。このよう
に、本電子ブックでは、切り取りたい内容を指で指定し
て、今日のフォルダにドラッグ・アンド・ドロップする
と、画面上指定した内容を今日のフォルダに格納するこ
とができる。Then, hold the floating portion with a finger, move to the today's folder icon 288 in a drag and drop manner, and release the finger therefrom (hereinafter referred to as “Drag and drop to today's folder”). (See FIG. 22), and the floating portion is stored in the today's folder. As described above, in this electronic book, by specifying the content to be cut out with the finger and dragging and dropping the content into the today's folder, the content specified on the screen can be stored in the today's folder.
【0099】なお、フローティング化する領域は、閉曲
線や多角形で囲んでできる領域だけでなく、画面の端と
指で囲んだ部分で指定される領域でもよい。例えば図4
2(A)に示すように、指で840のように軌跡を描い
て画面をなぞった場合に、軌跡840と画面の端の稜線
850で囲まれる部分852(斜線領域)をフローティ
ング化するようにしてもよい。The area to be floated is not limited to an area surrounded by a closed curve or a polygon, but may be an area specified by a portion surrounded by the edge of the screen and a finger. For example, FIG.
As shown in FIG. 2A, when the user traces the screen by drawing a locus like a finger 840, the portion 852 (shaded area) surrounded by the locus 840 and the edge 850 at the edge of the screen is floated. You may.
【0100】また、図42(B)に示すように、画面上
の2点P1、P2を指で指定して、当該2点を結ぶ線分
を対角線とする長方形領域854(斜線領域)をフロー
ティング化するようにしてもよい。As shown in FIG. 42 (B), two points P1 and P2 on the screen are designated by a finger, and a rectangular area 854 (hatched area) having a diagonal line connecting the two points is floated. You may make it.
【0101】また、図42(C)に示すように、画面上
の3点P3、P4、P5を指で指定して、当該3点をそ
の円周上に有する円領域856(斜線領域)をフローテ
ィング化するようにしてもよい。As shown in FIG. 42 (C), three points P3, P4, and P5 on the screen are designated with a finger, and a circular area 856 (hatched area) having the three points on the circumference thereof is designated. You may make it float.
【0102】 静止画及び動画を格納する例 次にカメラで撮影した映像を今日のフォルダに格納する
例について図23〜図25を用いて説明する。Example of Storing Still Image and Moving Image Next, an example of storing a video shot by a camera in a today's folder will be described with reference to FIGS.
【0103】例えばユーザーが旅行中に時刻表等の内容
をひかえたい場合に、本電子ブックを利用すれば、図2
4(A)に示すように、電子ブック本体内に設けられて
いるカメラレンズ520を引き出して、時刻表510を
撮影し、撮影データを電子ブックに格納することができ
る。For example, when a user wants to check the contents of a timetable or the like during a trip, this electronic book can be used as shown in FIG.
As shown in FIG. 4A, the user can pull out the camera lens 520 provided in the electronic book main body, photograph the timetable 510, and store the photographed data in the electronic book.
【0104】即ちユーザーが電子ブックのツールバーを
引き出しカメラアイコン284を指でタッチすると撮影
モードになり、図23に示すようなカメラ撮影用操作表
示画面が表示される。ユーザーは画面左側に大きく配置
されたファインダー画面530の上に表示された「動
画」と「静止画」のいずれかの画面スイッチ550、5
40を指でタッチすることにより、動画或いは静止画の
撮影を選択することができる。That is, when the user pulls out the toolbar of the electronic book and touches the camera icon 284 with a finger, the mode is changed to the photographing mode, and a camera photographing operation display screen as shown in FIG. 23 is displayed. The user can select one of the screen switches 550, 550 and 5 for “moving image” and “still image” displayed on the finder screen 530 that is largely arranged on the left side of the screen.
By touching 40 with a finger, a moving image or a still image can be selected.
【0105】例えばユーザーが静止画の画面スイッチ5
40にタッチすると、撮影実行用スイッチ560の表示
が「シャッター」に変わる。そしてユーザーが時刻表5
10にカメラレンズを向けると、ファインダー画面53
0にカメラレンズ520がとらえた時刻表映像が表示さ
れる。ユーザーが、「シャッター」ボタン560を指で
タッチすると、取り終えた画像データが撮影日時ととも
に自動的にフォルダファイルに格納される。For example, when the user sets the screen switch 5 for a still image,
When the user touches 40, the display of the shooting execution switch 560 changes to “shutter”. And the user has timetable 5
When the camera lens is pointed at 10, the viewfinder screen 53
At 0, a timetable image captured by the camera lens 520 is displayed. When the user touches the "shutter" button 560 with a finger, the captured image data is automatically stored in the folder file together with the shooting date and time.
【0106】フォルダファイルとは、「今日のフォルダ
ー」に入れる情報を記憶するためのファイルである。格
納された情報は日時で管理され、日付単位で読み出し可
能に形成されている。A folder file is a file for storing information to be stored in the “today's folder”. The stored information is managed by date and time, and is configured to be readable on a date basis.
【0107】また例えばユーザーが動画像を撮影したい
場合には、動画のスイッチ550にタッチすると、撮影
実行用スイッチ560の表示が「録画待機中」に変わ
る。ユーザーが「録画待機中」のボタンにタッチすると
動画像の撮影が開始される。For example, when the user wants to shoot a moving image, touching the switch 550 of the moving image changes the display of the shooting execution switch 560 to “waiting for recording”. When the user touches the “recording standby” button, shooting of a moving image is started.
【0108】なお、図25に示すように本電子ブックの
カメラレンズ520は電子ブック本体522から取り外
せるワイヤレスタイプであるため、ユーザーは周りの人
に気兼ねなく撮影することができる。またユーザーが
「録画待機中」と表示された撮影実行用スイッチ560
を押すと、表示が「撮影中」に切り替わる。ユーザーが
撮影を中断したい場合には当該「撮影中」ボタンを指で
タッチすると、撮影が中断され、表示は「撮影待機中」
に切り替わる。そして撮影された画像は撮影日時ととも
にフォルダファイルに自動的に格納される。As shown in FIG. 25, since the camera lens 520 of the electronic book is of a wireless type that can be detached from the electronic book main body 522, the user can take a picture without hesitation by the surrounding people. Further, the photographing execution switch 560 in which the user displays “waiting for recording”
Pressing switches the display to "Shooting". If the user wants to interrupt the shooting, touch the “Shooting” button with a finger to interrupt the shooting and display “Standby for shooting”.
Switch to Then, the photographed image is automatically stored in a folder file together with the photographing date and time.
【0109】 メモ書きを格納する例 次はユーザーのメモ書きを格納する例について図26、
図27を用いて説明する。Example of Storing Memo Writing Next, an example of storing memo writing of a user will be described with reference to FIG.
This will be described with reference to FIG.
【0110】ユーザーが画面下部にあるツールバーを引
き出して、「メモ」のアイコン286を指でタッチする
と、図26に示すようなメモ入力画面600が表示され
る。ユーザーが本電子ブック付属のペン610でこの画
面上に文字等を入力すると、そのままイメージデータと
して記録される。書き終えたのちに、図27に示すよう
にそのメモ入力画面を今日のフォルダにドラッグ・アン
ド・ドロップするとメモ入力画面600に記載した内容
を格納日時とともにフォルダファイルに格納することが
できる。When the user pulls out the toolbar at the bottom of the screen and touches the “memo” icon 286 with a finger, a memo input screen 600 as shown in FIG. 26 is displayed. When a user inputs characters and the like on this screen with a pen 610 attached to the electronic book, the characters are directly recorded as image data. After the writing, as shown in FIG. 27, by dragging and dropping the memo input screen to today's folder, the contents described on the memo input screen 600 can be stored in a folder file together with the storage date and time.
【0111】 今日のフォルダの参照処理 ユーザーが画面下部にあるツールバーを引き出して、
「今日のフォルダ」のアイコン288を指でタッチする
と、図28に示すようなその日の今日のフォルダ画面7
00が表示される。その中には、その日に今日のフォル
ダに格納されたデータがアイコン化(710、720、
730、740)して表示されている。本電子ブックで
はユーザーが格納したデータ内容が、そのまま縮小され
たイメージとしてアイコン化されるので、ユーザーはデ
ータの中身についての記憶を喚起し易い。更にアイコン
の下部にはデータを格納した時間が表示されているの
で、ユーザーの行動記録としても活用し易く、後でデー
タを整理する場合にも便利である。Today's folder reference processing The user pulls out the toolbar at the bottom of the screen,
Touching the “today's folder” icon 288 with a finger causes the today's folder screen 7 of that day as shown in FIG.
00 is displayed. Among them, the data stored in today's folder on that day is iconified (710, 720,
730, 740). In this electronic book, the data content stored by the user is converted into an icon as a reduced image as it is, so that the user can easily evoke storage of the contents of the data. Further, since the time at which the data is stored is displayed below the icon, it is easy to use it as a record of the user's actions, which is convenient for organizing the data later.
【0112】ユーザーは、アイコン化したデータ71
0、720、730、740を指でタッチして、「内容
を見る」の部分750にドラッグ・アンド・ドロップさ
せると、その内容が画面上に表示される。同様に「捨て
る」とかかれたゴミ箱部分780に入れると、その内容
を自動的に消去できる。The user inputs the iconized data 71
When the user touches 0, 720, 730, 740 with his finger and drags and drops it to the "view contents" portion 750, the contents are displayed on the screen. Similarly, if the contents are put in the trash box portion 780 that is "discarded", the contents can be automatically deleted.
【0113】また「前の日」とかかれた部分760をタ
ッチすると、前日の「今日のフォルダ画面」が表示さ
れ、「次の日」とかかれた部分770をタッチすると、
次の日「今日のフォルダ画面」が表示される。ユーザー
はこの「前の日」と「次の日」の部分をタッチすること
で、過去のフォルダ画面にさかのぼり、また現在のフォ
ルダ画面に帰ってくることができる。When touching a portion 760 with "Previous Day", the "Today's folder screen" of the previous day is displayed, and by touching a portion 770 with "Next Day",
The next day, "Today's folder screen" is displayed. The user can go back to the previous folder screen and return to the current folder screen by touching the "previous day" and the "next day".
【0114】また、図29に示すように関連のあるデー
タのアイコンを接触するように指で移動させると、接触
しているデータがグループ化される。このため、データ
の整理に便利である。As shown in FIG. 29, when the icon of the related data is moved by a finger so as to touch, the touching data is grouped. This is convenient for organizing data.
【0115】図30は、今日のフォルダの活用の一例を
説明するための図である。FIG. 30 is a diagram for explaining an example of utilization of a folder today.
【0116】例えば、ユーザーが約1ヶ月間の旅行に本
電子ブックを携帯して、旅行中に様々なデータを今日の
フォルダに格納したとする。ユーザーが、電子ブックを
開いてみると、30個の今日のフォルダが記憶されてい
る(図30(A)参照)。For example, it is assumed that the user carries this electronic book with him for a travel of about one month, and stores various data in a folder today while traveling. When the user opens the electronic book, 30 today's folders are stored (see FIG. 30A).
【0117】ユーザーは、電子ブック800に格納され
てる今日のフォルダのデータをインターネットに接続さ
れている他のコンピュータ810に書き込み、インター
ネットを利用して旅行データ収集会社820に送る(図
30(B)参照)。The user writes the data of today's folder stored in the electronic book 800 to another computer 810 connected to the Internet, and sends it to the travel data collection company 820 using the Internet (FIG. 30B). reference).
【0118】旅行データ収集会社820は、回収したデ
ータを編集して旅行用ソフト出版会社830に最新旅行
データを供給する。そして旅行用ソフト出版会社830
は最新データに基づきバージョンアップした旅行用ソフ
トを発売する。[0118] The travel data collection company 820 edits the collected data and supplies the latest travel data to the travel software publishing company 830. And travel software publisher 830
Releases travel software upgraded based on the latest data.
【0119】このように電子出版産業が発達すれば、よ
り最新のデータを反映した内容のデジタルソフトの供給
が行える用になる。また、出版に金や手間がかからない
ため、だれもが手軽に出版することができたり、購読者
が限定されるような専門的なものが出版できたりという
ような出版の理想像を実現することも可能となる。As the electronic publishing industry develops in this way, it becomes possible to supply digital software having contents reflecting the latest data. In addition, publishing requires no money and hassle, so that the ideal image of publishing can be realized such that anyone can easily publish, or publish a specialized one with limited subscribers. Is also possible.
【0120】(6)電子ブックの構成 次に本実施の形態の電子ブックのハードウエア構成につ
いて図31を用いて説明する。(6) Configuration of Electronic Book Next, the hardware configuration of the electronic book of the present embodiment will be described with reference to FIG.
【0121】図31に示すように、本実施の形態の電子
ブックは、CPU(中央処理ユニット)1010、メモ
リ1020、ディスプレイコントローラ1030、タッ
チパネルコントローラ1040、バス1050、タッチ
パネル1060、ディスプレイ1070、ディスクドラ
イブコントローラ1080、ディスクドライブ109
0、情報記憶媒体1220、カメラ1130、ペン11
20を含んで構成されている。As shown in FIG. 31, an electronic book according to the present embodiment includes a CPU (Central Processing Unit) 1010, a memory 1020, a display controller 1030, a touch panel controller 1040, a bus 1050, a touch panel 1060, a display 1070, a disk drive controller. 1080, disk drive 109
0, information storage medium 1220, camera 1130, pen 11
20.
【0122】ディスプレイ1070は液晶等で構成され
ており、ディスプレイコントローラ1030により、出
力が制御される。The display 1070 is composed of a liquid crystal or the like, and the output is controlled by the display controller 1030.
【0123】タッチパネル1060は、光学式、抵抗
式、静電容量式、超音波式などのパネルによって構成さ
れており、タッチパネルコントローラ1040により制
御される。タッチパネル1060は、ディスプレイ10
70に透明なタッチセンサ板を重ねて設置される。ユー
ザーが指先やペン1120などで表示画面に接触する
と、タッチパネル1060は指の接触位置情報及び接触
圧力及び接触面積やペン1120で入力された文字や図
形等のイメージデータを検出することができる。The touch panel 1060 is constituted by a panel of an optical type, a resistance type, a capacitance type, an ultrasonic type or the like, and is controlled by a touch panel controller 1040. The touch panel 1060 is connected to the display 10
A transparent touch sensor plate is superimposed on 70. When the user touches the display screen with a fingertip, a pen 1120, or the like, the touch panel 1060 can detect contact position information, a contact pressure and a contact area of the finger, and image data such as a character or a figure input with the pen 1120.
【0124】このようにディスプレイ1070の表面に
透明なタッチセンサ板を重ねて一体化することにより表
示画面上での指動作入力やペン入力が可能になる。By thus integrating the transparent touch sensor plate on the surface of the display 1070, finger input and pen input on the display screen become possible.
【0125】CPU1010は装置全体の制御や各種デ
ータ処理、図2〜図30で説明した種々の処理の実行を
行う。メモリは、ROM、RAMで構成されて、RAM
はこのCPU1010の作業領域等として用いられる記
憶手段であり、情報記憶媒体1220やROMの所与の
内容、あるいはCPU1010の演算結果等が格納され
る。The CPU 1010 controls the entire apparatus, performs various data processing, and executes the various processing described with reference to FIGS. The memory is composed of a ROM and a RAM.
Is storage means used as a work area or the like of the CPU 1010, and stores given contents of the information storage medium 1220 and the ROM, the calculation results of the CPU 1010, and the like.
【0126】ディスクドライブ1090はフロッピーデ
ィスク等の情報記憶媒体1220に対してデータの書き
込み、読み込みを行うもので、ディスクドライブコント
ローラ1080により制御される。A disk drive 1090 writes and reads data to and from an information storage medium 1220 such as a floppy disk, and is controlled by a disk drive controller 1080.
【0127】情報記憶媒体1220には、画像を生成す
るためのデータ、プログラム、図2〜図30で説明した
種々の処理を行うための情報等が主に格納されている。The information storage medium 1220 mainly stores data and programs for generating images, information for performing various processes described with reference to FIGS.
【0128】カメラ1130は、動画及び静止画を撮影
するためのものである。The camera 1130 is for photographing moving images and still images.
【0129】ペン1120は表示画面上でメモ入力する
ためのものであり、ペンの形状をした棒もしくはインク
等がディスプレイにつかなければなんでもよい。The pen 1120 is for inputting a memo on the display screen, and may be anything as long as a pen-shaped stick or ink does not adhere to the display.
【0130】ユーザーがディスプレイ上で指操作を行っ
たり、メモ入力を行ったり、カメラで撮影を行ったり等
の様々な入力を行うとCPU1010は、その入力内容
に基づき、ユーザーが指示した操作を実行する。When the user performs various inputs such as finger operation on the display, memo input, and photographing with the camera, the CPU 1010 executes the operation specified by the user based on the input contents. I do.
【0131】図32は、本電子ブックの機能ブロック図
の一例である。FIG. 32 is an example of a functional block diagram of the electronic book.
【0132】指動作検出部1110は、ユーザーが表示
部上で行った指の移動履歴や接触圧力や接触面積を検出
するためのものである。指動作検出部1110は、表示
部1240に透明なタッチパネル等を重ねて構成されて
いる。指動作検出部1110で得られた検出データは処
理部1100へ入力される。The finger motion detecting section 1110 is for detecting the history of finger movement performed by the user on the display section, the contact pressure, and the contact area. The finger motion detection unit 1110 is configured by overlapping a transparent touch panel or the like on the display unit 1240. The detection data obtained by the finger motion detection unit 1110 is input to the processing unit 1100.
【0133】ペン入力部1120は、ユーザーが表示部
上にペンで記載した内容を入力するためのものである。
ペン入力部1120は、ユーザーが前期ペン1120で
表示部1240に文字や図形等を記載すると、表示部に
重ねられた透明なタッチパネル等がその内容をイメージ
データとして検出するよう構成されている。ペン入力部
1120で得られた検出データは処理部1100へ入力
される。The pen input unit 1120 is for the user to input the contents described with the pen on the display unit.
The pen input unit 1120 is configured such that when a user writes characters, graphics, and the like on the display unit 1240 with the pen 1120, a transparent touch panel or the like superimposed on the display unit detects the content as image data. The detection data obtained by the pen input unit 1120 is input to the processing unit 1100.
【0134】撮影部1130は、ユーザーが動画及び静
止画の少なくとも一方を撮影するためのものである。撮
影部1130は、カメラ又はビデオカメラ等で構成され
ている。撮影部1130で撮影された撮影データは処理
部1100へ入力される。The photographing section 1130 is for the user to photograph at least one of a moving image and a still image. The imaging unit 1130 is configured by a camera, a video camera, or the like. The photographing data photographed by the photographing unit 1130 is input to the processing unit 1100.
【0135】処理部1100は、前記指動作やペン入力
による検出データ、撮影データ、所与のプログラム等基
づいて、表示部に表示する画像を生成する処理や、デー
タをフォルダファイルに格納する処理等を行うものであ
る。この処理部1100の機能は、CPU(CISC
型、RISC型)、DSP、カスタム(ゲートアレーな
ど)IC、メモリなどのハードウエアにより実現でき
る。The processing section 1100 generates an image to be displayed on the display section based on the detected data obtained by the finger operation or pen input, photographing data, a given program, etc., and stores the data in a folder file. Is what you do. The function of this processing unit 1100 is a CPU (CISC
, RISC type), DSP, custom (gate array, etc.) IC, and memory such as memory.
【0136】情報記憶媒体1220は、プログラムやデ
ータを記憶するためのものである。この情報記憶媒体1
220の機能は、CD−ROM、カセット、ICカー
ド、MO、FD、DVD、ハードディスク、メモリ等の
ハードウエアにより実現できる。処理部1100は、こ
の情報記憶媒体1220からのプログラム、データに基
づいて種々の処理を行うことになる。The information storage medium 1220 is for storing programs and data. This information storage medium 1
The function of 220 can be realized by hardware such as a CD-ROM, cassette, IC card, MO, FD, DVD, hard disk, and memory. The processing unit 1100 performs various processes based on the program and data from the information storage medium 1220.
【0137】処理部1100は、処理内容決定部114
0、各種処理部1150、画像生成部1200、記憶部
1230を含んで構成される。The processing section 1100 includes a processing content determination section 114
0, various processing units 1150, an image generation unit 1200, and a storage unit 1230.
【0138】処理内容決定部1140は、指動作検出部
1110、ペン入力部1120、撮影部1130から入
力されたデータに基づき、処理すべき内容を決定する。The processing content determining unit 1140 determines the content to be processed based on the data input from the finger motion detecting unit 1110, the pen input unit 1120, and the photographing unit 1130.
【0139】各種処理部1150は、拡大処理部116
2、縮小処理部1164、回転処理部1166、スクロ
ール処理部1168、通常の検索処理部1172、論理
積検索処理部1174、ページめくり処理部1182、
連続ページめくり処理部1184、しおり挿入処理部1
186、しおり挿入箇所参照処理部1188、フローテ
ィング処理部1192、撮影処理部1194、メモ入力
処理部1196、フォルダ参照処理部1198を含み、
処理内容決定部1140の決定にしたがい、地図画像の
拡大処理、縮小処理、回転処理、スクロール処理、通常
の検索処理、論理積検索処理、ページめくり処理、連続
ページめくり処理、しおり挿入処理、しおり挿入箇所参
照処理、フローティング処理、撮影処理、メモ入力処
理、フォルダ参照処理等を行う。The various processing units 1150 include the enlargement processing unit 116
2, reduction processing unit 1164, rotation processing unit 1166, scroll processing unit 1168, ordinary search processing unit 1172, logical product search processing unit 1174, page turning processing unit 1182,
Continuous page turning processing unit 1184, bookmark insertion processing unit 1
186, a bookmark insertion point reference processing unit 1188, a floating processing unit 1192, a photographing processing unit 1194, a memo input processing unit 1196, and a folder reference processing unit 1198,
According to the determination of the processing content determining unit 1140, the map image is enlarged, reduced, rotated, scrolled, ordinarily searched, logical product search, page turning, continuous page turning, bookmark insertion, bookmark insertion. It performs location reference processing, floating processing, photographing processing, memo input processing, folder reference processing, and the like.
【0140】記憶部1230は、各種情報を記憶するも
のであり、今日のフォルダに格納されたデータを記憶す
るためのフォルダファイル1232を含む。The storage section 1230 stores various kinds of information, and includes a folder file 1232 for storing data stored in today's folder.
【0141】画像生成部1200は、各種処理部115
0が行った処理に基づき表示部に表示する画像を生成す
る。The image generation unit 1200 includes various processing units 115
0 generates an image to be displayed on the display unit based on the processing performed by the control unit 0.
【0142】(7)本実施の形態の動作例 図33〜図41は本実施の形態の電子ブックの動作例を
表したフローチャート図である。(7) Operation Example of this Embodiment FIGS. 33 to 41 are flowcharts showing an operation example of the electronic book of this embodiment.
【0143】本実施の形態の電子ブックで、指動作、ペ
ン入力、撮影等の入力があると以下のようにして処理内
容が決定される(図33のステップS10)。現在撮影
モードであれば撮影処理が行われる(ステップS20、
S30)。なお、通常は通常入力モードであり、ツール
バーのカメラアイコンがタッチされると撮影モードに移
行する。撮影モード下で入力を検出した場合には、図2
3〜図25で説明したような撮影処理が行われる。In the electronic book of the present embodiment, when there is an input such as a finger operation, a pen input, and a photographing operation, the processing content is determined as follows (step S10 in FIG. 33). If the current shooting mode, the shooting process is performed (step S20,
S30). Normally, the mode is the normal input mode, and when the camera icon on the toolbar is touched, the mode shifts to the shooting mode. When an input is detected in the shooting mode, FIG.
The photographing processing described with reference to FIGS. 3 to 25 is performed.
【0144】例えば、ユーザーが画面中の操作ボタンを
押したのが検出された場合は当該ボタンに対応した処
理、例えば「動画」又は「静止画」ボタンがタッチされ
た場合には動画と静止画の選択処理、「シャッター」ボ
タンがタッチされた場合には静止画を撮影して、撮影画
像データを撮影の日時を付してフォルダファイルに格納
する処理、「録画待機中」ボタンがタッチされた場合に
は、動画の撮影を開始する処理、「録画中」ボタンがタ
ッチされた場合には動画の撮影を終了して、撮影画像デ
ータを撮影の日時を付してフォルダファイルに格納する
処理等が行われる。For example, when it is detected that the user has pressed the operation button on the screen, the processing corresponding to the button is detected. For example, when the “movie” or “still picture” button is touched, the moving picture and the still picture are touched. Selection process, if the "shutter" button is touched, a still image is shot, the shot image data is stored in a folder file with the date and time of shooting, and the "recording standby" button is touched In this case, the process of starting shooting of a moving image, the process of ending the shooting of a moving image when the “recording” button is touched, and storing the shot image data in a folder file with the shooting date and time, etc. Is performed.
【0145】現在メモ入力モードであればメモ入力処理
が行われる(ステップS40、S50)。なお、通常は
通常入力モードであり、ツールバーのメモアイコンがタ
ッチされるとメモ入力モードに移行する。メモ入力モー
ド下で入力を検出した場合には、図26〜図27で説明
したようなメモ入力処理が行われる。If the mode is the current memo input mode, a memo input process is performed (steps S40, S50). Normally, the mode is the normal input mode. When the memo icon on the toolbar is touched, the mode shifts to the memo input mode. When an input is detected in the memo input mode, the memo input process as described with reference to FIGS.
【0146】例えば、ユーザーが画面中にペンで文字等
を入力したのが検出された場合は、入力内容をリアルタ
イムで画像表示し、入力内容をイメージデータとしてワ
ークエリアに格納する処理が行われる。そして、入力内
容がドラッグ・アンド・ドロップされた場合には、ワー
クエリアに格納されたイメージデータを、格納の日時を
付してフォルダファイルに格納する処理等が行われる。For example, when it is detected that the user has input characters or the like with a pen on the screen, a process of displaying the input content in real time and storing the input content as image data in the work area is performed. When the input content is dragged and dropped, a process of storing the image data stored in the work area with the date and time of storage in a folder file is performed.
【0147】現在フォルダ参照モードであればフォルダ
参照処理が行われる(ステップS52、S54)。な
お、通常は通常入力モードであり、ツールバーの今日の
フォルダアイコンがタッチされるとフォルダ参照モード
に移行する。フォルダ参照モード下で入力を検出した場
合には、図28〜図29で説明したようなフォルダ参照
処理が行われる。If the current mode is the folder reference mode, folder reference processing is performed (steps S52 and S54). Normally, the mode is the normal input mode. When the today's folder icon on the toolbar is touched, the mode is switched to the folder reference mode. When an input is detected in the folder reference mode, the folder reference processing as described with reference to FIGS. 28 to 29 is performed.
【0148】例えば、ユーザーが画面中のアイコンをタ
ッチして「内容を見る」の部分にドラッグ・アンド・ド
ロップされたのが検出された場合には、そのデータ内容
を画面上に表示する処理が行われる。また、同様に「捨
てる」とかかれたゴミ箱部分に入れたのが検出された場
合には、そのデータを消去する処理が行われる。また
「前の日」とかかれた部分がタッチされたのが検出され
ると、前日の「今日のフォルダ画面」を表示する処理が
おこなわれ、「次の日」とかかれた部分がタッチされた
のが検出される、次の日「今日のフォルダ画面」を表示
する処理が行われる。For example, if it is detected that the user has touched the icon on the screen and dragged and dropped it to the “view contents” part, the process of displaying the data contents on the screen is performed. Done. Similarly, if it is detected that the data is put in the trash box marked “Discard”, the data is deleted. Also, if it is detected that the portion marked "Previous Day" has been touched, the process of displaying the "Today's folder screen" of the previous day is performed, and the portion marked "Next Day" is touched. Is detected, the process of displaying the “today's folder screen” the next day is performed.
【0149】通常入力モードにおいて、タッチパネルへ
の指の接触があった場合には以下のような処理が行われ
る(図33のステップS60、図34参照)。In the normal input mode, if a finger touches the touch panel, the following processing is performed (see step S60 in FIG. 33 and FIG. 34).
【0150】ツールバーのアイコンへの接触があった場
合には各種アイコン処理(図41参照)が行われる(ス
テップ図34のS70、S80)。If there is a contact with the icon on the toolbar, various icon processes (see FIG. 41) are performed (S70, S80 in FIG. 34).
【0151】「検索用タグ」や「本の厚み」や「しお
り」や「しおり挿入用矢印」等の各種入力マークへの接
触であった場合には入力マーク操作処理(図36参照)
が行われる(ステップS90、S100)。Input mark operation processing (see FIG. 36) in the case of contact with various input marks such as “search tag”, “book thickness”, “bookmark”, “bookmark insertion arrow”, etc.
Is performed (steps S90 and S100).
【0152】タッチパネルへの2点目の接触があった場
合、地図画像が表示されている場合には地図操作の処理
を行う(ステップS110、S120、S130)。When the touch panel is touched at the second point or when a map image is displayed, a map operation process is performed (steps S110, S120, S130).
【0153】2点目の接触が無かった場合には、接触点
が移動しているか否かを検出し、移動している場合に
は、接触面積及び接触圧力によって指示入力されている
処理内容を判断する(ステップS140、S150)。If there is no contact at the second point, it is detected whether or not the contact point has moved, and if it has moved, the processing content indicated and input by the contact area and contact pressure is determined. A determination is made (steps S140, S150).
【0154】接触面積及び接触圧力が所定値以上である
場合は、表示されているのが地図画像であればスクロー
ル処理を行い、通常の本のページ画像である場合にはペ
ージめくりの処理を行う(ステップS160、S18
0)。When the contact area and the contact pressure are equal to or larger than predetermined values, a scroll process is performed if the displayed image is a map image, and a page turning process is performed if the displayed image is a normal book page image. (Steps S160, S18
0).
【0155】接触面積及び接触圧力が所定値以上でない
場合は以下の処理を行う(図35参照)。「今日のフォ
ルダ」へのドラッグ・アンド・ドロップでない場合に、
指で囲まれた情報がある場合には、その指で囲まれた情
報のフローティング処理を行う(ステップS910、S
960、S970)。If the contact area and the contact pressure are not equal to or larger than the predetermined values, the following processing is performed (see FIG. 35). If not drag and drop to "Today's folder"
If there is information surrounded by a finger, floating processing of the information surrounded by the finger is performed (steps S910 and S910).
960, S970).
【0156】「今日のフォルダ」へのドラッグ・アンド
・ドロップである場合、それがメモ内容であれば、メモ
内容をイメージデータとして、格納日時を付してフォル
ダファイルに格納する(ステップS920、S93
0)。In the case of drag and drop to “Today's folder”, if the content is a memo, the memo is stored as image data in a folder file with a storage date and time (steps S920 and S93).
0).
【0157】それがフローティング化されたデータであ
れば、フローティング化されたデータに格納日時を付し
てフォルダファイルに格納する(ステップS940、S
950)。If the data is floating data, the floating data is stored in a folder file with a storage date and time (steps S940 and S940).
950).
【0158】図36は入力マークへのタッチを検出した
場合の処理(図34のステップS100)の詳細な処理
内容を説明するためのフローチャート図である。FIG. 36 is a flowchart for explaining the detailed processing contents of the processing when the touch on the input mark is detected (step S100 in FIG. 34).
【0159】ユーザーの指が検索用タグ上に接触してい
る場合には検索処理を行う(ステップS210、S22
0)。If the user's finger is touching the search tag, search processing is performed (steps S210 and S22).
0).
【0160】ユーザーの指がしおり挿入用矢印マーク上
に接触している場合にはしおり挿入処理を行う(ステッ
プS230、S240)。If the user's finger touches the bookmark insertion arrow mark, bookmark insertion processing is performed (steps S230 and S240).
【0161】ユーザーの指がしおりマーク上に接触して
いる場合にはしおり挿入箇所参照処理を行う(ステップ
S250、S260)。If the user's finger is in contact with the bookmark mark, bookmark insertion point reference processing is performed (steps S250 and S260).
【0162】ユーザーの指が連続ページめくり用マーク
上に接触している場合には連続ページめくり処理を行う
(ステップS270、S280)。If the user's finger is in contact with the continuous page turning mark, a continuous page turning process is performed (steps S270 and S280).
【0163】図37は地図操作の処理(図34のステッ
プS130)の詳細な処理内容を説明するためのフロー
チャート図である。FIG. 37 is a flow chart for explaining the detailed processing contents of the map operation processing (step S130 in FIG. 34).
【0164】2点間の距離の変化を演算し(ステップS
310)、2点間の距離が拡大している場合には、拡大
距離に応じた拡大処理を行う(ステップS320、S3
30)。The change in the distance between the two points is calculated (step S
310) If the distance between the two points is increasing, enlargement processing according to the enlargement distance is performed (steps S320 and S3).
30).
【0165】2点間の距離が縮小している場合には、縮
小距離に応じた縮小処理を行う(ステップS340、S
350)。If the distance between the two points is reduced, a reduction process is performed according to the reduced distance (steps S340 and S340).
350).
【0166】2点間の距離が変化していない場合には、
回転処理を行う(ステップS360、S370)。If the distance between the two points has not changed,
A rotation process is performed (steps S360, S370).
【0167】図38は検索処理(図36のステップS2
20)の詳細な処理内容を説明するためのフローチャー
ト図である。FIG. 38 shows a search process (step S2 in FIG. 36).
FIG. 20 is a flowchart for explaining a detailed processing content of 20).
【0168】ユーザーの指の2点目の接触が検出されな
い場合は、ユーザーの指が接触している検索用タグの検
索条件を満たす情報が記載されているページを検索し、
その先頭ページを表示する通常の検索処理を行う(ステ
ップS410、S420)。If the contact of the second point of the user's finger is not detected, a page in which information satisfying the search condition of the search tag touching the user's finger is described,
A normal search process for displaying the first page is performed (steps S410, S420).
【0169】ユーザーの指の2点目の接触が検出され、
それが検索用タグ上への接触である場合には、2つの検
索用タグの検索条件の論理積が予定されている場合に
は、2つの検索条件の論理積にあたる条件を満たす情報
が記載されているページを検索し、その先頭ページを表
示部に表示する論理積検索処理を行う(ステップS44
0、S450)。A second point contact of the user's finger is detected,
If it is a contact on the search tag, information satisfying the condition corresponding to the logical product of the two search conditions is described if the logical product of the search conditions of the two search tags is scheduled. A logical product search process of searching for the current page and displaying the first page on the display unit is performed (step S44).
0, S450).
【0170】図39はページめくり処理(図34のステ
ップS180)の詳細な処理内容を説明するためのフロ
ーチャート図である。FIG. 39 is a flow chart for explaining the detailed processing contents of the page turning processing (step S180 in FIG. 34).
【0171】ユーザーの指の接触位置が画面上の左から
右へ移動している場合、表示されている本が縦書きの本
の場合には、次ページの画像に更新され、横書きの本の
場合には前ページの画像に更新される(ステップS51
0、S520、S530、S540)。If the contact position of the user's finger is moving from left to right on the screen, and if the displayed book is a vertically written book, the image is updated to the image of the next page and the horizontally written book is updated. In this case, the image is updated to the image of the previous page (step S51).
0, S520, S530, S540).
【0172】ユーザーの指の接触位置が画面上の右から
左へ移動している場合、表示されている本が縦書きの本
の場合には、前ページの画像に更新され、横書きの本の
場合には次ページの画像に更新される(ステップS55
0、S560、S570、S580)。When the contact position of the user's finger moves from right to left on the screen, and when the displayed book is a vertically written book, the image is updated to the image of the previous page, and the horizontally written book is updated. In this case, the image is updated to the image of the next page (step S55).
0, S560, S570, S580).
【0173】図40は連続ページめくり処理(図36の
ステップS280)の詳細な処理内容を説明するための
フローチャート図である。FIG. 40 is a flow chart for explaining the detailed processing contents of the continuous page turning processing (step S280 in FIG. 36).
【0174】ユーザーの指の接触圧力を検出し、所定の
圧力値以上で無ければ、連続ページめくりを中止する
(ステップS610、S620、S630)。The contact pressure of the user's finger is detected, and if it is not equal to or greater than the predetermined pressure value, the continuous page turning is stopped (steps S610, S620, S630).
【0175】所定の圧力値以上であれば、以下のように
連続ページめくりを行う。If the pressure value is equal to or more than the predetermined pressure value, continuous page turning is performed as follows.
【0176】即ち、ユーザーの指の接触位置が画面上右
端の本の厚みであれば、表示されている本が縦書きの本
の場合には、前ページ方向に連続してページめくりを行
い、横書きの本の場合には次ページ方向に連続してペー
ジめくりを行う(ステップS640、S650、S66
0、S670)。That is, if the contact position of the user's finger is the thickness of the book at the right end on the screen, and if the displayed book is a vertically written book, the page is turned over continuously in the previous page direction. In the case of a horizontally written book, page turning is continuously performed in the next page direction (steps S640, S650, S66)
0, S670).
【0177】また、ユーザーの指の接触位置が画面上左
端の本の厚みであれば、表示されている本が縦書きの本
の場合には、次ページ方向に連続してページめくりを行
い、横書きの本の場合には前ページ方向に連続してペー
ジめくりを行う(ステップS640、S680、S69
0、S700)。If the contact position of the user's finger is the thickness of the book at the left end on the screen, if the displayed book is a vertically written book, the page is turned continuously in the next page direction. In the case of a horizontally written book, page turning is performed continuously in the previous page direction (steps S640, S680, S69).
0, S700).
【0178】図41は各種アイコン処理(図34のステ
ップS80)の詳細な処理内容を説明するためのフロー
チャート図である。FIG. 41 is a flow chart for explaining the detailed processing contents of the various icon processing (step S80 in FIG. 34).
【0179】カメラアイコン上への接触である場合に
は、図23に示すようなカメラ撮影用の操作画面を表示
し撮影モードに移行する。(ステップS810、S82
0)。以下撮影モード中に入力があった場合には、図3
3のステップS30の撮影処理が実行される。If the touch is on the camera icon, an operation screen for camera shooting as shown in FIG. 23 is displayed and the mode shifts to shooting mode. (Steps S810, S82
0). Hereinafter, when an input is made during the shooting mode, FIG.
The photographing process of step S30 of 3 is executed.
【0180】メモアイコン上への接触である場合には、
図26に示すようなメモ入力画面を表示しメモ入力モー
ドに移行する。(ステップS830、S840)。以下
メモ入力モード中に入力があった場合には、図33のス
テップS50のメモ入力処理が実行される。If the contact is on the memo icon,
A memo input screen as shown in FIG. 26 is displayed, and the mode shifts to the memo input mode. (Steps S830 and S840). When there is an input during the memo input mode, the memo input process of step S50 in FIG. 33 is executed.
【0181】今日のフォルダアイコン上への接触である
場合には、図28に示すような今日のフォルダ画面を表
示しフォルダ参照モードに移行する。(ステップS85
0、S860)。以下フォルダ参照モード中に入力があ
った場合には、図33のステップS54のフォルダ参照
処理が実行される。If the contact is on the today's folder icon, a today's folder screen as shown in FIG. 28 is displayed, and the mode shifts to the folder reference mode. (Step S85
0, S860). When an input is made during the folder reference mode, the folder reference process of step S54 in FIG. 33 is executed.
【0182】(8)その他種々の実施の形態 なお、本発明は本実施形態に限定されず、本発明の要旨
の範囲内で種々の変形実施が可能である。(8) Other Various Embodiments The present invention is not limited to the present embodiment, and various modifications can be made within the scope of the present invention.
【0183】本実施の形態では、親指と人差し指を使用
して操作入力を行う場合を例にとり説明したがこれに限
られない。例えば、親指と中指等でもよいし、その他の
指の組み合わせでもよい。In this embodiment, the case where the operation input is performed using the thumb and the index finger has been described as an example. However, the present invention is not limited to this. For example, a thumb and a middle finger may be used, or a combination of other fingers may be used.
【0184】本実施の形態では、電子ブックの場合を例
に取り説明したため、検索項目の論理積となる検索情報
が記載された先頭ページが表示されたが、電子ブック以
外の携帯情報端末等の場合ページの概念がない場合もあ
る。従って、ページに関係なく情報単位表示する場合で
もよい。In the present embodiment, the case of an electronic book has been described as an example, and therefore, the first page in which search information that is the logical product of search items is described is displayed. In some cases there is no concept of a page. Therefore, the information unit may be displayed regardless of the page.
【0185】また、本実施の形態では、2つの検索項目
を同時に指で接触すると、当該2つ項目の論理積となる
検索情報を出力する場合を例にとり説明したがこれに限
られない。例えば3つ以上の検索項目を同時に指で接触
して、当該3つ以上の項目の論理積となる検索情報を出
力する場合でもよい。Further, in the present embodiment, an example has been described in which, when two search items are simultaneously touched with a finger, search information that is a logical product of the two items is output, but the present invention is not limited to this. For example, a case may be used in which three or more search items are simultaneously touched with a finger and search information that is a logical product of the three or more items is output.
【0186】また、同時に指で接触した場合に限られ
ず、所定時間内に指で接触した場合も論理積となる検索
情報を出力するようにしてもよい。Further, not only the case where the finger is touched at the same time but also the search information which is the logical product may be output when the finger is touched within a predetermined time.
【0187】また、同時又は所定時間内に指で接触され
た複数の検索項目に対応する検索条件と論理積の関係を
有する情報がない場合には、論理和及び論理和と論理積
の組み合わせの少なくとも一方を有する情報を表示部に
出力する手段を更に含むよう構成してもよい。If there is no information having a relation between a search condition and a logical product corresponding to a plurality of search items touched by a finger at the same time or within a predetermined time, a logical sum or a combination of a logical sum and a logical product It may be configured to further include a unit that outputs information having at least one to the display unit.
【0188】例えば、「南インド」「宿泊」と「食事」
のタグを同時にタッチした場合に、南インドの宿泊情報
と南インドの食事情報を出力するような構成にしてもよ
い。For example, “South India”, “Lodging” and “Meal”
May be configured to output the South Indian accommodation information and the South Indian meal information when the tags are simultaneously touched.
【0189】特にページに関係なく情報単位で表示する
場合、係る構成をとると有効である。In particular, when displaying in information units regardless of the page, such a configuration is effective.
【0190】例えば、電話番号が格納された電子ブック
や携帯情報端末おいて、電話番号単位で検索出力可能な
場合、目次欄で電話番号の検索項目を複数指定すると、
その指定に応じて自動的に論理和や論理積の関係を有す
る電話番号をリストアップするような場合も含む。即ち
例えば「A地区」と「病院」というように「A地区の病
院」という共通集合が予定された関係にある項目が指定
された場合には、論理積の関係にある情報を検索出力
し、「A地区」と「B地区」や、「病院」と「図書館」
というように共通集合が予定されていない関係にある項
目が指定された場合には論理和の関係にある情報を検索
出力するよう構成してもよい。For example, in an electronic book or a portable information terminal in which telephone numbers are stored, if it is possible to search and output in telephone number units, if a plurality of telephone number search items are specified in the table of contents,
This includes a case where telephone numbers having a logical sum or logical product relationship are automatically listed in accordance with the designation. That is, for example, when an item having a relation in which a common set of “Hospitals in Area A” is scheduled such as “A District” and “Hospital” is specified, information having a logical product relation is retrieved and output. "A district" and "B district" or "Hospital" and "Library"
For example, when an item having a relationship in which a common set is not scheduled is specified, information having a logical OR relationship may be retrieved and output.
【0191】また、本実施の形態では、メモ入力画面、
写真モード画面など全画面として例示されているが、ウ
ィンドウによる部分表示であってもかまわない。In this embodiment, the memo input screen,
Although illustrated as a full screen such as a photo mode screen, a partial display using a window may be used.
【0192】[0192]
【図1】本発明の特徴的機能を有する形態情報機器や電
子ブックの機能ブロック図である。FIG. 1 is a functional block diagram of a form information device or an electronic book having a characteristic function of the present invention.
【図2】図2(A)(B)(C)は本実施の形態の電子
ブックの外観図を示している。FIGS. 2A, 2B, and 2C are external views of an electronic book according to the present embodiment.
【図3】旅行情報ソフトをセットした場合に表示される
画面例を表した図である。FIG. 3 is a diagram showing an example of a screen displayed when travel information software is set.
【図4】地図画像の表示例を表した図である。FIG. 4 is a diagram illustrating a display example of a map image.
【図5】本実施の形態における地図の拡大ジェスチャー
の操作例を説明するための図である。FIG. 5 is a diagram for describing an operation example of a map enlargement gesture according to the present embodiment.
【図6】図6(A)(B)は、本実施の形態における指
動作例を説明するための図である。FIGS. 6A and 6B are diagrams illustrating an example of a finger operation in the present embodiment.
【図7】本実施の形態における地図の拡大ジェスチャー
の他の操作例を説明するための図である。FIG. 7 is a diagram for explaining another operation example of the map enlargement gesture according to the present embodiment.
【図8】本実施の形態における地図のスクロールジェス
チャーの操作例を説明するための図である。FIG. 8 is a diagram illustrating an operation example of a map scroll gesture according to the present embodiment.
【図9】本実施の形態における地図の縮小ジェスチャー
の操作例を説明するための図である。FIG. 9 is a diagram for describing an operation example of a map reduction gesture in the present embodiment.
【図10】本実施の形態における地図の回転ジェスチャ
ーの操作例を説明するための図である。FIG. 10 is a diagram for describing an operation example of a map rotation gesture according to the present embodiment.
【図11】本実施の形態における地図の回転角について
説明するための図である。FIG. 11 is a diagram for describing a rotation angle of a map according to the present embodiment.
【図12】本実施の形態の検索処理の一例について説明
するための図である。FIG. 12 is a diagram for describing an example of a search process according to the present embodiment.
【図13】本実施の形態の論理積検索処理の一例につい
て説明するための図である。FIG. 13 is a diagram for describing an example of a logical product search process according to the present embodiment.
【図14】本実施の形態におけるページめくり操作につ
いて説明するための図である。FIG. 14 is a diagram for describing a page turning operation in the present embodiment.
【図15】本実施の形態における連続ページめくり操作
について説明するための図である。FIG. 15 is a diagram for describing a continuous page turning operation in the present embodiment.
【図16】本実施の形態におけるしおり挿入操作につい
て説明するための図である。FIG. 16 is a diagram for describing a bookmark insertion operation in the present embodiment.
【図17】本実施の形態におけるしおり挿入操作につい
て説明するための図である。FIG. 17 is a diagram for describing a bookmark insertion operation in the present embodiment.
【図18】本実施の形態におけるしおり挿入箇所参照操
作について説明するための図である。FIG. 18 is a diagram for describing a bookmark insertion point reference operation in the present embodiment.
【図19】ツールバーが表示された画面例を説明するた
めの図である。FIG. 19 is a diagram illustrating an example of a screen on which a toolbar is displayed.
【図20】本実施の形態におけるフローティング処理の
操作例を説明するための図である。FIG. 20 is a diagram for describing an operation example of floating processing according to the present embodiment.
【図21】本実施の形態におけるフローティング処理の
操作例を説明するための図である。FIG. 21 is a diagram for describing an operation example of floating processing according to the present embodiment.
【図22】本実施の形態におけるドラッグ・アンド・ド
ロップの操作例を説明するための図である。FIG. 22 is a diagram for describing an example of a drag-and-drop operation in the present embodiment.
【図23】本実施の形態のカメラ撮影用操作画面を表し
た図である。FIG. 23 is a diagram illustrating a camera shooting operation screen according to the present embodiment.
【図24】本実施の形態における静止画の撮影処理を説
明するための図である。FIG. 24 is a diagram for describing still image shooting processing according to the present embodiment.
【図25】本実施の形態における動画の撮影処理を説明
するための図である。FIG. 25 is a diagram for describing moving image shooting processing according to the present embodiment.
【図26】本実施の形態におけるメモ入力処理を説明す
るための図である。FIG. 26 is a diagram for explaining a memo input process in the present embodiment.
【図27】本実施の形態におけるメモ入力のドラッグ・
アンド・ドロップ操作を説明するための図である。FIG. 27 shows a drag / drop operation for memo input in the present embodiment.
It is a figure for explaining an AND drop operation.
【図28】本実施の形態における今日のフォルダ参照画
面を表した図である。FIG. 28 is a diagram illustrating a today's folder reference screen according to the present embodiment.
【図29】本実施の形態における今日のフォルダ参照処
理を説明するための図である。FIG. 29 is a diagram for explaining today's folder reference processing in the present embodiment.
【図30】本実施の形態における今日のフォルダの活用
の一例を説明するための図である。FIG. 30 is a diagram for describing an example of utilization of today's folder in the present embodiment.
【図31】本実施形態の電子ブックのハードウエア構成
について説明するための図である。FIG. 31 is a diagram illustrating a hardware configuration of the electronic book according to the embodiment.
【図32】本実施の形態の電子ブックの機能ブロック図
の一例である。FIG. 32 is an example of a functional block diagram of an electronic book of the present embodiment.
【図33】本実施の動作例を表したフローチャート図で
ある。FIG. 33 is a flowchart illustrating an operation example of the present embodiment.
【図34】本実施の動作例を表したフローチャート図で
ある。FIG. 34 is a flowchart illustrating an operation example of the present embodiment.
【図35】本実施の動作例を表したフローチャート図で
ある。FIG. 35 is a flowchart illustrating an operation example of the present embodiment.
【図36】本実施の動作例(入力マーク操作処理)を表
したフローチャート図である。FIG. 36 is a flowchart illustrating an operation example (input mark operation processing) of the present embodiment.
【図37】本実施の動作例(地図操作処理)を表したフ
ローチャート図である。FIG. 37 is a flowchart illustrating an operation example (map operation processing) of the present embodiment.
【図38】本実施の動作例(検索処理)を表したフロー
チャート図である。FIG. 38 is a flowchart illustrating an operation example (search processing) of the present embodiment.
【図39】本実施の動作例(ページめくり処理)を表し
たフローチャート図である。FIG. 39 is a flowchart illustrating an operation example of the present embodiment (page turning processing).
【図40】本実施の動作例(連続ページめくり処理)を
表したフローチャート図である。FIG. 40 is a flowchart illustrating an operation example of this embodiment (continuous page turning processing).
【図41】本実施の動作例(各種アイコン処理)を表し
たフローチャート図である。FIG. 41 is a flowchart showing an operation example (various icon processing) of the embodiment.
【図42】本実施の形態におけるフローティング処理の
他の操作例を説明するための図である。FIG. 42 is a diagram for describing another operation example of the floating process in the present embodiment.
10 指動作検出部 20 処理部 30 操作内容判断部 40 地図操作処理部 42 拡大処理部 44 縮小処理部 46 回転処理部 48 スクロール処理部 50 画像生成部 60 表示部 70 情報記憶媒体 1010 CPU(中央処理ユニット) 1020 メモリ 1030 ディスプレイコントローラ 1040 タッチパネルコントローラ 1050 バス 1060 タッチパネル 1070 ディスプレイ 1080 ディスクドライブコントローラ 1090 ディスクドライブ 1100 処理部 1110 指動作検出部 1120 入力部(ペン) 1130 撮影部(カメラ) 1140 処理内容決定部 1150 各種処理部 1160 地図操作処理部 1162 拡大処理部 1164 縮小処理部 1166 回転処理部 1168 スクロール処理部 1170 検索処理部 1172 通常の検索処理部 1174 論理積検索処理部 1182 ページめくり処理部 1184 連続ページめくり処理部 1186 しおり挿入処理部 1188 しおり挿入箇所参照処理部 1192 フローティング処理部 1194 撮影処理部 1196 メモ入力処理部 1198 フォルダ参照処理部 1200 画像生成部 1220 情報記憶媒体 1230 記憶部 1232 フォルダファイル 1240 表示部 Reference Signs List 10 finger motion detection unit 20 processing unit 30 operation content judgment unit 40 map operation processing unit 42 enlargement processing unit 44 reduction processing unit 46 rotation processing unit 48 scroll processing unit 50 image generation unit 60 display unit 70 information storage medium 1010 CPU (central processing) Unit) 1020 memory 1030 display controller 1040 touch panel controller 1050 bus 1060 touch panel 1070 display 1080 disk drive controller 1090 disk drive 1100 processing unit 1110 finger motion detection unit 1120 input unit (pen) 1130 imaging unit (camera) 1140 processing content determination unit 1150 various Processing unit 1160 Map operation processing unit 1162 Enlargement processing unit 1164 Reduction processing unit 1166 Rotation processing unit 1168 Scroll processing unit 1170 Search processing 1172 Normal search processing unit 1174 Logical product search processing unit 1182 Page turning processing unit 1184 Continuous page turning processing unit 1186 Bookmark insertion processing unit 1188 Bookmark insertion point reference processing unit 1192 Floating processing unit 1194 Image processing unit 1196 Memo input processing unit 1198 Folder Reference processing unit 1200 Image generation unit 1220 Information storage medium 1230 Storage unit 1232 Folder file 1240 Display unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 根橋 聡 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 (72)発明者 若井 洋一 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 Fターム(参考) 5B019 DA07 DA08 HA06 HA10 HC01 HE12 HE19 5B075 ND03 ND06 ND12 ND20 NK02 NK10 NK39 NK44 PP02 PP10 PP22 PP30 PQ02 PQ29 UU05 UU11 UU13 UU40 5E501 AA04 AA12 AC16 AC33 AC35 BA05 CA04 CB05 CB11 CB14 CC04 CC14 EA05 EA07 EA08 EA10 EA13 EA18 EA33 EB05 EB06 FA03 FA04 FA10 FA12 FA14 FA15 FB04 FB21 FB24 FB32 FB33 FB34 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Satoshi Nebashi 3-3-5 Yamato, Suwa City, Nagano Prefecture Inside Seiko Epson Corporation (72) Inventor Yoichi Wakai 3-3-5 Yamato Suwa City, Nagano Prefecture Seiko Epson In-house F term (reference) 5B019 DA07 DA08 HA06 HA10 HC01 HE12 HE19 5B075 ND03 ND06 ND12 ND20 NK02 NK10 NK39 NK44 PP02 PP10 PP22 PP30 PQ02 PQ29 UU05 UU11 UU13 UU40 5E501 AA04 AA12 AC16 AC04 CB05 CB05 CB05 EA08 EA10 EA13 EA18 EA33 EB05 EB06 FA03 FA04 FA10 FA12 FA14 FA15 FB04 FB21 FB24 FB32 FB33 FB34
Claims (7)
なくとも一方に、自動的に入力日付又は指定日付けのい
ずれかの情報を付して所定のファイルに格納する情報格
納手段と、 前記所定のファイルに格納された情報を前記日付情報で
検索する検索手段と、を含むことを特徴とする携帯情報
機器。1. An information storage means for automatically adding at least one of input information and specified information to one of an input date and a specified date and storing the information in a predetermined file; Search means for searching the information stored in the file according to the date information.
の範囲を指定する指定手段を更に含み、 前記指定手段が、 表示部に接触した指の移動履歴を検出する手段と、 検出された指の移動履歴に基づき、指定された範囲を決
定する手段と含み、 前記情報格納手段が、 指定された範囲に表示されている情報を前記所定のファ
イルに格納することを特徴とする携帯情報機器。2. The display device according to claim 1, further comprising a designation unit for designating a given range of the display image based on a movement history of the finger that has contacted the display unit, wherein the designation unit is configured to move the finger that has contacted the display unit. Means for detecting a history, and means for determining a specified range based on the detected movement history of the finger, wherein the information storage means stores information displayed in the specified range in the predetermined file. A portable information device characterized by storing.
含む円周で囲まれた範囲の表示情報を指定された範囲と
決定する手段を含み、 前記情報格納手段が、 前記3点を含む円周で囲まれた範囲の表示情報を前記所
定のファイルに格納することを特徴とする携帯情報機
器。3. The designated area according to claim 2, wherein, when three points on the display screen are designated by a finger, the designation means designates display information of a range surrounded by a circle including the three points. Portable information equipment, wherein the information storage means stores display information in a range surrounded by a circle including the three points in the predetermined file.
更に含み、 前記ペン入力手段は、 前記ペンで表示部上に記載された内容を検出する手段を
含み、 前記情報格納手段が、 前記ペン入力手段により表示部に書き込まれた内容を前
記所定のファイルに格納することを特徴とする携帯情報
機器。4. The display device according to claim 1, further comprising a pen input unit for inputting a content written with a pen on a display unit, wherein the pen input unit is described on the display unit with the pen. A portable information device comprising: means for detecting contents; wherein the information storage means stores contents written to a display unit by the pen input means in the predetermined file.
更に含み、 前記情報格納手段は、 前記撮影手段により撮影された動画及び静止画の少なく
とも一方を前記所定のファイルに格納することを特徴と
する携帯情報機器。5. The method according to claim 1, further comprising: a photographing unit that photographs at least one of a moving image and a still image, wherein the information storage unit includes at least one of a moving image and a still image photographed by the photographing unit. A portable information device wherein one is stored in the predetermined file.
情報機器であって、電子ブックとして使用されることを
特徴とする携帯情報機器。6. The portable information device according to claim 1, wherein the portable information device is used as an electronic book.
も一方に使用する情報記憶媒体であって、 入力された情報及び指定された情報の少なくとも一方
に、自動的に入力日付又は指定日付けのいずれかの情報
を付して所定のファイルに格納するための情報と、 前
記所定のファイルに格納された情報を前記日付情報で検
索するための情報と、を含むことを特徴とする情報記憶
媒体。7. An information storage medium used for at least one of a portable information device and an electronic book, wherein at least one of the input information and the specified information is automatically assigned to either an input date or a specified date. An information storage medium, comprising: information for storing information in a predetermined file with the information described above; and information for searching the information stored in the predetermined file with the date information.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP35073098A JP2000163444A (en) | 1998-11-25 | 1998-11-25 | Portable information devices and information storage media |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP35073098A JP2000163444A (en) | 1998-11-25 | 1998-11-25 | Portable information devices and information storage media |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000163444A true JP2000163444A (en) | 2000-06-16 |
Family
ID=18412471
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP35073098A Withdrawn JP2000163444A (en) | 1998-11-25 | 1998-11-25 | Portable information devices and information storage media |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000163444A (en) |
Cited By (43)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002132774A (en) * | 2000-10-27 | 2002-05-10 | Seiko Epson Corp | Electronic book publishing system, electronic book body, and electronic book publishing method |
| JP2002350151A (en) * | 2001-05-24 | 2002-12-04 | Mitsubishi Electric Corp | Navigation device |
| JP2003022158A (en) * | 2001-05-24 | 2003-01-24 | Mitsubishi Electric Research Laboratories Inc | Multi-user touch system and method for operating thereof |
| JP2003531428A (en) * | 2000-04-14 | 2003-10-21 | ピクセル(リサーチ)リミテッド | User interface and method of processing and viewing digital documents |
| JP2005111152A (en) * | 2003-10-10 | 2005-04-28 | Shimadzu Corp | Surgical X-ray machine |
| JP2006042171A (en) * | 2004-07-29 | 2006-02-09 | Olympus Corp | Camera, reproducing apparatus and album registration method |
| JP2006211245A (en) * | 2005-01-27 | 2006-08-10 | Fuji Photo Film Co Ltd | Photographing equipment |
| JP2008108233A (en) * | 2006-09-28 | 2008-05-08 | Kyocera Corp | Mobile terminal and control method thereof |
| JP2008257622A (en) * | 2007-04-09 | 2008-10-23 | Sharp Corp | Electronic device, operation control method, program for executing operation control method, and recording medium for recording the program |
| KR100888007B1 (en) | 2007-02-05 | 2009-03-09 | 한국과학기술원 | Digital graffiti |
| JP2009526314A (en) * | 2006-02-10 | 2009-07-16 | マイクロソフト コーポレーション | How to check touch input |
| JP2010009104A (en) * | 2008-06-24 | 2010-01-14 | Suijinsha:Kk | Electronic book viewer |
| JP2010503126A (en) * | 2006-09-06 | 2010-01-28 | アップル インコーポレイテッド | Portable electronic devices that perform similar actions for different gestures |
| JP2010204743A (en) * | 2009-02-27 | 2010-09-16 | Toshiba Corp | Information processor, information display method, and program |
| JP2011245275A (en) * | 2010-05-24 | 2011-12-08 | General Electric Co <Ge> | Handheld x-ray image viewing system and method |
| US8239784B2 (en) | 2004-07-30 | 2012-08-07 | Apple Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
| US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
| JP2013050997A (en) * | 2000-01-31 | 2013-03-14 | Canon Inc | Information processing device, control method therefor, and program therefor |
| JP2013054783A (en) * | 2012-12-18 | 2013-03-21 | Toshiba Corp | Information processor, information display method, and program |
| JP2013145449A (en) * | 2012-01-13 | 2013-07-25 | Sharp Corp | Information terminal device |
| WO2014119716A1 (en) | 2013-01-31 | 2014-08-07 | Necカシオモバイルコミュニケーションズ株式会社 | Document browsing device, method for turning over pages of electronic document, and program |
| US8917245B2 (en) | 2008-05-20 | 2014-12-23 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
| JP2015056096A (en) * | 2013-09-13 | 2015-03-23 | シャープ株式会社 | Information processor |
| USRE45559E1 (en) | 1997-10-28 | 2015-06-09 | Apple Inc. | Portable computers |
| US9239677B2 (en) | 2004-05-06 | 2016-01-19 | Apple Inc. | Operation of a computer with touch screen interface |
| US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
| JP2016026352A (en) * | 2008-07-17 | 2016-02-12 | 日本電気株式会社 | Information processing device, program and information processing method |
| US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
| US9367232B2 (en) | 2007-01-07 | 2016-06-14 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
| JP2016528600A (en) * | 2013-06-28 | 2016-09-15 | オランジュ | How to select parts of a graphical user interface |
| US9448711B2 (en) | 2005-05-23 | 2016-09-20 | Nokia Technologies Oy | Mobile communication terminal and associated methods |
| US9448712B2 (en) | 2007-01-07 | 2016-09-20 | Apple Inc. | Application programming interfaces for scrolling operations |
| US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
| US9690446B2 (en) | 2006-09-06 | 2017-06-27 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| US9733793B2 (en) | 2011-02-10 | 2017-08-15 | Konica Minolta, Inc. | Image forming apparatus and terminal device each having touch panel |
| US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
| US9778836B2 (en) | 2000-04-14 | 2017-10-03 | Samsung Electronics Co., Ltd. | User interface systems and methods for manipulating and viewing digital documents |
| US9933913B2 (en) | 2005-12-30 | 2018-04-03 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| JP2018156589A (en) * | 2017-03-21 | 2018-10-04 | 富士ゼロックス株式会社 | Input device, image forming apparatus, and program |
| US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
| US10620780B2 (en) | 2007-09-04 | 2020-04-14 | Apple Inc. | Editing interface |
| US11023122B2 (en) | 2006-09-06 | 2021-06-01 | Apple Inc. | Video manager for portable multifunction device |
| US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
-
1998
- 1998-11-25 JP JP35073098A patent/JP2000163444A/en not_active Withdrawn
Cited By (98)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| USRE46548E1 (en) | 1997-10-28 | 2017-09-12 | Apple Inc. | Portable computers |
| USRE45559E1 (en) | 1997-10-28 | 2015-06-09 | Apple Inc. | Portable computers |
| US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
| US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
| JP2013050997A (en) * | 2000-01-31 | 2013-03-14 | Canon Inc | Information processing device, control method therefor, and program therefor |
| US9778836B2 (en) | 2000-04-14 | 2017-10-03 | Samsung Electronics Co., Ltd. | User interface systems and methods for manipulating and viewing digital documents |
| US8593436B2 (en) | 2000-04-14 | 2013-11-26 | Samsung Electronics Co., Ltd. | User interface systems and methods for manipulating and viewing digital documents |
| JP2003531428A (en) * | 2000-04-14 | 2003-10-21 | ピクセル(リサーチ)リミテッド | User interface and method of processing and viewing digital documents |
| JP2002132774A (en) * | 2000-10-27 | 2002-05-10 | Seiko Epson Corp | Electronic book publishing system, electronic book body, and electronic book publishing method |
| JP2008152806A (en) * | 2001-05-24 | 2008-07-03 | Mitsubishi Electric Research Laboratories Inc | Multi-user touch system and method for operating the same |
| JP2003022158A (en) * | 2001-05-24 | 2003-01-24 | Mitsubishi Electric Research Laboratories Inc | Multi-user touch system and method for operating thereof |
| JP2002350151A (en) * | 2001-05-24 | 2002-12-04 | Mitsubishi Electric Corp | Navigation device |
| US9606668B2 (en) | 2002-02-07 | 2017-03-28 | Apple Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
| JP2005111152A (en) * | 2003-10-10 | 2005-04-28 | Shimadzu Corp | Surgical X-ray machine |
| US9239677B2 (en) | 2004-05-06 | 2016-01-19 | Apple Inc. | Operation of a computer with touch screen interface |
| US7755674B2 (en) | 2004-07-29 | 2010-07-13 | Olympus Corporation | Camera, reproducing apparatus, and album registration method |
| JP2006042171A (en) * | 2004-07-29 | 2006-02-09 | Olympus Corp | Camera, reproducing apparatus and album registration method |
| US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
| US8612856B2 (en) | 2004-07-30 | 2013-12-17 | Apple Inc. | Proximity detector in handheld device |
| US8239784B2 (en) | 2004-07-30 | 2012-08-07 | Apple Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
| US9348458B2 (en) | 2004-07-30 | 2016-05-24 | Apple Inc. | Gestures for touch sensitive input devices |
| US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
| US10042418B2 (en) | 2004-07-30 | 2018-08-07 | Apple Inc. | Proximity detector in handheld device |
| US11036282B2 (en) | 2004-07-30 | 2021-06-15 | Apple Inc. | Proximity detector in handheld device |
| JP2006211245A (en) * | 2005-01-27 | 2006-08-10 | Fuji Photo Film Co Ltd | Photographing equipment |
| US9785329B2 (en) | 2005-05-23 | 2017-10-10 | Nokia Technologies Oy | Pocket computer and associated methods |
| US9448711B2 (en) | 2005-05-23 | 2016-09-20 | Nokia Technologies Oy | Mobile communication terminal and associated methods |
| US9933913B2 (en) | 2005-12-30 | 2018-04-03 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| US10884579B2 (en) | 2005-12-30 | 2021-01-05 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| US11449194B2 (en) | 2005-12-30 | 2022-09-20 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| US11650713B2 (en) | 2005-12-30 | 2023-05-16 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| US12026352B2 (en) | 2005-12-30 | 2024-07-02 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| US10359907B2 (en) | 2005-12-30 | 2019-07-23 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| US10915224B2 (en) | 2005-12-30 | 2021-02-09 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| JP2009526314A (en) * | 2006-02-10 | 2009-07-16 | マイクロソフト コーポレーション | How to check touch input |
| US8312372B2 (en) | 2006-02-10 | 2012-11-13 | Microsoft Corporation | Method for confirming touch input |
| US9690446B2 (en) | 2006-09-06 | 2017-06-27 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| US12204747B2 (en) | 2006-09-06 | 2025-01-21 | Apple Inc. | Portable electronic device performing window operations with gestures on a touchscreen |
| US11023122B2 (en) | 2006-09-06 | 2021-06-01 | Apple Inc. | Video manager for portable multifunction device |
| US11921969B2 (en) | 2006-09-06 | 2024-03-05 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| JP2010503126A (en) * | 2006-09-06 | 2010-01-28 | アップル インコーポレイテッド | Portable electronic devices that perform similar actions for different gestures |
| US11736602B2 (en) | 2006-09-06 | 2023-08-22 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
| US12028473B2 (en) | 2006-09-06 | 2024-07-02 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
| US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
| US12189913B2 (en) | 2006-09-06 | 2025-01-07 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| JP2015084233A (en) * | 2006-09-06 | 2015-04-30 | アップル インコーポレイテッド | Portable electronic devices that perform similar actions for different gestures |
| US10838617B2 (en) | 2006-09-06 | 2020-11-17 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
| US11240362B2 (en) | 2006-09-06 | 2022-02-01 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
| US10778828B2 (en) | 2006-09-06 | 2020-09-15 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
| US9927970B2 (en) | 2006-09-06 | 2018-03-27 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
| US11592952B2 (en) | 2006-09-06 | 2023-02-28 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| US11106326B2 (en) | 2006-09-06 | 2021-08-31 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| US10656778B2 (en) | 2006-09-06 | 2020-05-19 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| US11481112B2 (en) | 2006-09-06 | 2022-10-25 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
| US10222977B2 (en) | 2006-09-06 | 2019-03-05 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
| US10228815B2 (en) | 2006-09-06 | 2019-03-12 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| US11481106B2 (en) | 2006-09-06 | 2022-10-25 | Apple Inc. | Video manager for portable multifunction device |
| JP2008108233A (en) * | 2006-09-28 | 2008-05-08 | Kyocera Corp | Mobile terminal and control method thereof |
| US11586348B2 (en) | 2007-01-07 | 2023-02-21 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
| US9760272B2 (en) | 2007-01-07 | 2017-09-12 | Apple Inc. | Application programming interfaces for scrolling operations |
| US10481785B2 (en) | 2007-01-07 | 2019-11-19 | Apple Inc. | Application programming interfaces for scrolling operations |
| US9367232B2 (en) | 2007-01-07 | 2016-06-14 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
| US10254949B2 (en) | 2007-01-07 | 2019-04-09 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
| US11169691B2 (en) | 2007-01-07 | 2021-11-09 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
| US10732821B2 (en) | 2007-01-07 | 2020-08-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
| US9448712B2 (en) | 2007-01-07 | 2016-09-20 | Apple Inc. | Application programming interfaces for scrolling operations |
| US10817162B2 (en) | 2007-01-07 | 2020-10-27 | Apple Inc. | Application programming interfaces for scrolling operations |
| KR100888007B1 (en) | 2007-02-05 | 2009-03-09 | 한국과학기술원 | Digital graffiti |
| JP2008257622A (en) * | 2007-04-09 | 2008-10-23 | Sharp Corp | Electronic device, operation control method, program for executing operation control method, and recording medium for recording the program |
| US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
| US11507255B2 (en) | 2007-06-29 | 2022-11-22 | Apple Inc. | Portable multifunction device with animated sliding user interface transitions |
| US10761691B2 (en) | 2007-06-29 | 2020-09-01 | Apple Inc. | Portable multifunction device with animated user interface transitions |
| US12131007B2 (en) | 2007-06-29 | 2024-10-29 | Apple Inc. | Portable multifunction device with animated user interface transitions |
| US11604559B2 (en) | 2007-09-04 | 2023-03-14 | Apple Inc. | Editing interface |
| US11861138B2 (en) | 2007-09-04 | 2024-01-02 | Apple Inc. | Application menu user interface |
| US11010017B2 (en) | 2007-09-04 | 2021-05-18 | Apple Inc. | Editing interface |
| US10620780B2 (en) | 2007-09-04 | 2020-04-14 | Apple Inc. | Editing interface |
| US12474817B2 (en) | 2007-09-04 | 2025-11-18 | Apple Inc. | Editing interface |
| US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
| US10628028B2 (en) | 2008-01-06 | 2020-04-21 | Apple Inc. | Replacing display of icons in response to a gesture |
| US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
| US8917245B2 (en) | 2008-05-20 | 2014-12-23 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
| JP2010009104A (en) * | 2008-06-24 | 2010-01-14 | Suijinsha:Kk | Electronic book viewer |
| US10656824B2 (en) | 2008-07-17 | 2020-05-19 | Nec Corporation | Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method |
| JP2016026352A (en) * | 2008-07-17 | 2016-02-12 | 日本電気株式会社 | Information processing device, program and information processing method |
| US9933932B2 (en) | 2008-07-17 | 2018-04-03 | Nec Corporation | Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method |
| JP2010204743A (en) * | 2009-02-27 | 2010-09-16 | Toshiba Corp | Information processor, information display method, and program |
| JP2011245275A (en) * | 2010-05-24 | 2011-12-08 | General Electric Co <Ge> | Handheld x-ray image viewing system and method |
| US9733793B2 (en) | 2011-02-10 | 2017-08-15 | Konica Minolta, Inc. | Image forming apparatus and terminal device each having touch panel |
| JP2013145449A (en) * | 2012-01-13 | 2013-07-25 | Sharp Corp | Information terminal device |
| JP2013054783A (en) * | 2012-12-18 | 2013-03-21 | Toshiba Corp | Information processor, information display method, and program |
| WO2014119716A1 (en) | 2013-01-31 | 2014-08-07 | Necカシオモバイルコミュニケーションズ株式会社 | Document browsing device, method for turning over pages of electronic document, and program |
| KR102228335B1 (en) | 2013-06-28 | 2021-03-17 | 오렌지 | Method of selection of a portion of a graphical user interface |
| JP2016528600A (en) * | 2013-06-28 | 2016-09-15 | オランジュ | How to select parts of a graphical user interface |
| US10474346B2 (en) | 2013-06-28 | 2019-11-12 | Orange | Method of selection of a portion of a graphical user interface |
| KR20210005753A (en) * | 2013-06-28 | 2021-01-14 | 오렌지 | Method of selection of a portion of a graphical user interface |
| JP2015056096A (en) * | 2013-09-13 | 2015-03-23 | シャープ株式会社 | Information processor |
| JP2018156589A (en) * | 2017-03-21 | 2018-10-04 | 富士ゼロックス株式会社 | Input device, image forming apparatus, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2000163444A (en) | Portable information devices and information storage media | |
| JP4542637B2 (en) | Portable information device and information storage medium | |
| JP2000163193A (en) | Portable information devices and information storage media | |
| JP5075473B2 (en) | Portable information device and information storage medium | |
| JP5111003B2 (en) | Portable information device, electronic book, information storage medium, portable information device control method, and electronic book control method | |
| JP2000163443A (en) | Portable information devices and information storage media | |
| US20240272788A1 (en) | Electronic text manipulation and display | |
| US5563996A (en) | Computer note pad including gesture based note division tools and method | |
| KR101967632B1 (en) | Tablet having user interface | |
| US9310998B2 (en) | Electronic device, display method, and display program | |
| AU2010292231A2 (en) | A system and method for displaying, navigating and selecting electronically stored content on a multifunction handheld device | |
| JP6271125B2 (en) | Electronic device, display method, and program | |
| JP2004355106A (en) | Touch interface of computer | |
| JP2010134938A (en) | Portable information apparatus and information storage medium | |
| CN104035658A (en) | Display Apparatus And Display Method | |
| JP2012018687A (en) | Portable information apparatus and information storage medium | |
| JP2016001486A (en) | Portable information apparatus, electronic book, and information storage medium | |
| JP5835592B2 (en) | Portable information device, electronic book and information storage medium | |
| JP5764542B2 (en) | Portable information device, electronic book and information storage medium | |
| JP2013050972A (en) | Portable information apparatus, electronic book and program | |
| JP2013041609A (en) | Portable information apparatus, server, electronic book, program and information storage medium | |
| JP2013041607A (en) | Portable information apparatus, server, electronic book, program and information storage medium | |
| JP2013041608A (en) | Portable information apparatus, server, electronic book, program and information storage medium | |
| JP2013050971A (en) | Portable information apparatus, server, electronic book, program and information storage medium | |
| JP2013041610A (en) | Portable information apparatus, electronic book and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060207 |