JP2002516428A - Input device, method of using the same, and input system - Google Patents

Input device, method of using the same, and input system

Info

Publication number
JP2002516428A
JP2002516428A JP2000550019A JP2000550019A JP2002516428A JP 2002516428 A JP2002516428 A JP 2002516428A JP 2000550019 A JP2000550019 A JP 2000550019A JP 2000550019 A JP2000550019 A JP 2000550019A JP 2002516428 A JP2002516428 A JP 2002516428A
Authority
JP
Japan
Prior art keywords
input device
image
input
function
mouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000550019A
Other languages
Japanese (ja)
Inventor
ファラエウス、クリステル
ウゴソン、オラ
エリクソン、ペッター
Original Assignee
シー テクノロジーズ アクチボラゲット
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from SE9801535A external-priority patent/SE511855C2/en
Priority claimed from SE9803455A external-priority patent/SE513940C2/en
Application filed by シー テクノロジーズ アクチボラゲット filed Critical シー テクノロジーズ アクチボラゲット
Publication of JP2002516428A publication Critical patent/JP2002516428A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)
  • Character Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

(57)【要約】 入力装置は、マウス機能と少なくとも1つの入力機能とを有する。入力装置は、画像を記録する画像記録手段(8)を備える。これらの画像は、マウス機能と入力機能の両方を提供するのに使用される。これらの画像は入力装置又は何らかの他の装置において処理される。 (57) [Summary] The input device has a mouse function and at least one input function. The input device includes image recording means (8) for recording an image. These images are used to provide both mouse and input functions. These images are processed on an input device or some other device.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】 (発明の属する技術分野) 本発明は、マウス機能と少なくとも1つの入力機能とを有して、入力機能を提
供するための画像記録手段を備える入力装置に関する。また、本発明は、入力装
置を使用してマウス機能と少なくとも1つの入力機能とを提供する方法、及び、
マウス機能と少なくとも1つの入力機能とを有する入力システムに関する。
The present invention relates to an input device having a mouse function and at least one input function, and having an image recording unit for providing an input function. The present invention also provides a method for providing a mouse function and at least one input function using an input device, and
The present invention relates to an input system having a mouse function and at least one input function.

【0002】 (従来の技術) 今日、パソコンは、一般にコンピュータマウスを備えており、それを使用して
コンピュータ画面上でカーソルを位置付ける。この位置付けを行うのに、ユーザ
はマウスを面上で移動させ、手の動きがマウスの位置付けを指示する。マウスは
、マウスがどのように移動されているかを示し、従ってカーソルがどのように移
動されるべきかを示す位置付け信号を生成する。この目的のために、マウスは一
般にトラックボールを備え、マウスが面上を移動する際にトラックボールが面に
対する摩擦により回転し、位置センサを駆動し、位置センサが位置付け信号を生
成する。また、普通、マウスは、1つ以上のボタン手段をユーザがクリックする
ことによって、コンピュータに命令を提供するのにも使用することができる。し
かしながら、以下の説明における「マウス機能」という用語は、カーソル等を位
置付ける機能だけを指すとする。
2. Description of the Related Art Today, personal computers generally include a computer mouse, which is used to position a cursor on a computer screen. To do this, the user moves the mouse over the surface and the movement of the hand indicates the position of the mouse. The mouse generates a positioning signal that indicates how the mouse is being moved, and thus indicates how the cursor should be moved. For this purpose, the mouse generally comprises a trackball, which rotates by friction with the surface as the mouse moves over the surface, drives a position sensor, and the position sensor generates a positioning signal. In general, a mouse can also be used to provide instructions to a computer by a user clicking one or more button means. However, the term "mouse function" in the following description refers only to the function of positioning a cursor or the like.

【0003】 テキスト及び画像をコンピュータに入力するために、手で把持されたスキャナ
が使用されることもあり、スキャナは、感光センサを使用して入力されるべきテ
キストあるいは画像を画像化する。スキャナは、一度に限られた範囲のテキスト
ないし画像しか画像化することができない。従って、1個あるいは数個の単語あ
るいは画像全体を記録するには、スキャナをテキスト/画像に沿って動かして数
個のサブ画像を記録しなければならない。一般に、スキャナは何らかの位置セン
サを備え、それにより、これらのサブ画像がコンピュータの中でどのように記憶
されるかが決定され、それらから復号画像が生成できるようになっている。
[0003] Hand-held scanners may be used to enter text and images into a computer, and the scanners use a photosensitive sensor to image the text or image to be entered. Scanners can only image a limited range of text or images at a time. Thus, to record one or several words or an entire image, the scanner must be moved along the text / image to record several sub-images. Generally, the scanner will include some position sensor, which determines how these sub-images will be stored in the computer and from which decoded images can be generated.

【0004】 マウス機能と入力機能とを1つのケースに結合して、単一コードでコンピュー
タに接続することが公知である。
It is known to combine a mouse function and an input function into one case and connect to a computer with a single code.

【0005】 例えば、米国特許4,906,843号は、結合されたマウス、光学スキャナ
、デジタル化パッドを示す。マウスモードにおいて、トラックボールが使用され
、それが2つの位置センサを駆動し、位置センサが位置付け信号を生成する。ス
キャナモードにおいては、CCDラインセンサと共に位置センサが使用され、文
字又は図形情報をコンピュータに入力する。
[0005] For example, US Pat. No. 4,906,843 shows a combined mouse, optical scanner, and digitizing pad. In the mouse mode, a trackball is used, which drives two position sensors, which generate positioning signals. In the scanner mode, a position sensor is used together with a CCD line sensor to input character or graphic information to a computer.

【0006】 米国特許5,355,146号は、結合されたマウス機能とスキャナ機能を備
えた同様の装置を示し、これもトラックボールとCCDラインセンサを利用する
US Pat. No. 5,355,146 shows a similar device with combined mouse and scanner functions, also utilizing a trackball and a CCD line sensor.

【0007】 欧州特許0782321号は、マウス機能とスキャナ機能とを有する更に別の
入力装置を示す。この場合も、トラックボールがマウス機能に使用されるが、ラ
インセンサの代わりにエリアセンサ(area sensor)が使用される。エリアセンサ
は、単一ステップで文書を画像化することができるので、文書の上を移動される
必要がない。これは、画像データを位置データと関係付けるためのソフトウエア
を必要としないという利点を持つ。
[0007] EP 0 822 321 shows yet another input device having a mouse function and a scanner function. Also in this case, the trackball is used for the mouse function, but an area sensor is used instead of the line sensor. The area sensor can image the document in a single step so that it does not need to be moved over the document. This has the advantage that no software is required to associate the image data with the position data.

【0008】 米国特許5,633,489号は、結合されたマウスとバーコード読み取り器
を示す。マウス機能はトラックボールの使用により提供され、バーコード読み取
り器は、マウスの下部からレーザビームを生成するレーザダイオードと、反射光
の強度変化を検出する光検出器とを備える。
US Pat. No. 5,633,489 shows a combined mouse and barcode reader. The mouse function is provided by the use of a trackball, and the barcode reader includes a laser diode that generates a laser beam from below the mouse, and a photodetector that detects changes in the intensity of the reflected light.

【0009】 これらの公知の入力装置は、どれも、どちらかと言うと機械的に複雑な設計の
可動部分と多数のセンサを備える。また、これらの装置は、1つのケースに結合
された複数の機能の間の制限された共同作用を提供するにすぎない。
Each of these known input devices comprises a rather mechanically complex design of moving parts and a large number of sensors. Also, these devices only provide limited synergy between multiple functions combined in one case.

【0010】 (発明の要約) このようなわけで、本発明の目的は、前記欠点を減らすような、マウス機能と
少なくとも1つの入力機能とを有する入力装置、及び、その入力装置を使用して
マウス機能と入力機能を提供する方法を提供することである。
SUMMARY OF THE INVENTION [0010] Thus, it is an object of the present invention to provide an input device having a mouse function and at least one input function, and an input device using the input device, which reduces the above-mentioned drawbacks. The object is to provide a method for providing a mouse function and an input function.

【0011】 この目的は、請求項1記載の入力装置、請求項19記載の方法、請求項24記
載の入力システムによって達成される。好ましい実施の形態は、請求項2乃至1
8、及び請求項20乃至23に、それぞれ記載されている。
This object is achieved by an input device according to claim 1, a method according to claim 19, and an input system according to claim 24. Preferred embodiments are described in claims 2 to 1.
8 and claims 20 to 23, respectively.

【0012】 本発明による入力装置は、このように、前記入力機能を提供する画像記録手段
を備え、この画像記録手段はマウス機能を提供するのにも使用される。
The input device according to the present invention thus includes the image recording means for providing the input function, and the image recording means is also used for providing the mouse function.

【0013】 画像記録手段をこれらの機能の1つだけに使用する代わりに、本発明では、そ
れらは、マウス機能と入力機能の両方を提供するのに使用され、それにより、こ
れらの機能の統合が改善される。更に、トラックボールを省略し、両方の機能を
同じセンサ技術に基づいて構築し、同じハードウェア及び/又はソフトウェアに
よって両機能のための信号を扱うことができる。これにより、従来例におけるよ
うに2つの機能が単に同じケースに収まっているだけでなく、2つの機能の真の
統合が得られる。更に、可動部品なしの入力装置を提供することができるように
なり、これは、耐性及び製造において有利である。以下の説明で明らかとなるよ
うに、位置決定手段やラスタのような形態の付加的手段を必要としない入力装置
を提供することも可能となる。
Instead of using image recording means for only one of these functions, in the present invention they are used to provide both mouse and input functions, thereby integrating these functions Is improved. Further, the trackball can be omitted, both functions built on the same sensor technology, and the signals for both functions can be handled by the same hardware and / or software. This provides a true integration of the two functions, rather than just the two functions being in the same case as in the prior art. Furthermore, it becomes possible to provide an input device without moving parts, which is advantageous in terms of ruggedness and manufacturing. As will be apparent from the following description, it is also possible to provide an input device that does not require additional means such as a position determining means and a raster.

【0014】 この文脈において、本特許明細書では、入力機能という用語は、ユーザが情報
をレシーバに記憶させ処理させるために入力することのできる機能を指し、目的
を位置付けるために使用されるマウス機能ではない。
In this context, in this patent specification, the term input function refers to a function that can be entered by a user to store and process information in a receiver, a mouse function used to locate a purpose. is not.

【0015】 更に、マウス機能は、カーソル等を面あるいは空間内で位置付けるのに使用す
ることができる。
Furthermore, the mouse function can be used to position a cursor or the like in a plane or space.

【0016】 より具体的には、この入力装置は、マウス機能を提供するための位置付け信号
、及び前記入力機能を提供するための入力信号を発信するのに適用するのが有利
であり、位置付け信号及び入力信号は画像記録手段によって記録される画像に基
づく。位置付け信号はコンピュータ画面上でカーソルを制御するのに使用するこ
とができ、入力信号はコンピュータに入力されるべき情報を含むことができる。
More specifically, the input device is advantageously applied to emit a positioning signal for providing a mouse function, and an input signal for providing the input function. And the input signal is based on the image recorded by the image recording means. Positioning signals can be used to control a cursor on a computer screen, and input signals can include information to be input to a computer.

【0017】 位置付け信号及び入力信号はIR信号、無線信号、その他の適当な方法でリー
ド線上の電気信号として発信することができる。勿論、入力装置は位置付け信号
と入力信号以外の信号も発信することができ、例えば、クリックに基づく指示信
号を発信することもできる。信号のレシーバはコンピュータあるいはその他の入
力装置でよく、そこへ位置付け信号及び/又は他の情報が入力される。この入力
装置は、なるべく少ない付属品で多機能を持つことが所望される小型形態コンピ
ュータと共に使用するのに特に適している。
The locating and input signals can be transmitted as IR signals, wireless signals, or other suitable methods as electrical signals on the leads. Of course, the input device can also transmit signals other than the positioning signal and the input signal. For example, the input device can also transmit an instruction signal based on a click. The signal receiver may be a computer or other input device into which the positioning signal and / or other information is input. The input device is particularly suited for use with small form factor computers where it is desired to have multiple functions with as few accessories as possible.

【0018】 画像記録手段は、マウス機能を提供するための第1画像記録部と、入力機能を
提供するための第2画像記録部とを備えることができる。これが特に有利となる
のは、2つの機能に対して異なる画像記録特性が所望される場合であり、例えば
、画像記録に異なる焦点が所望される場合である。例えば、マウス機能を使用し
ているときに、ユーザは、従来のマウスを移動させるのと同様に入力装置を面に
沿って移動させたくなるかも知れないし、また入力機能を使用しているときに、
入力装置から離れた位置にある対象物を画像化するカメラとして入力装置を使用
したくなるかも知れない。この場合、異なる画像記録部は異なる焦点を備えた異
なるレンズを備えることができる。例えば、これらの画像記録部は入力装置の異
なる側に配置して共通のハードウェア及びソフトウェアを有することができる。
The image recording means can include a first image recording unit for providing a mouse function and a second image recording unit for providing an input function. This is particularly advantageous when different image recording characteristics are desired for the two functions, for example when different focal points are desired for image recording. For example, when using the mouse function, the user may want to move the input device along a surface as if moving a conventional mouse, and when using the input function. ,
It may be tempting to use the input device as a camera that images objects that are remote from the input device. In this case, different image recording units can have different lenses with different focal points. For example, these image recorders can be located on different sides of the input device and have common hardware and software.

【0019】 あるいは、画像記録部は、マウス機能と入力機能の両方を提供するのに使用さ
れる1つの画像記録部を備えることもできる。この実施の形態の利点は、入力装
置の構成要素が少なくなり、1つのビームパスだけですむ点である。
Alternatively, the image recorder may include one image recorder used to provide both mouse and input functions. The advantage of this embodiment is that the input device has fewer components and only one beam path is required.

【0020】 画像記録部が備えるセンサは、画像を記録するのに使用することのできるセン
サならどのうようなものでも良いが、好ましくは、二次元センサ面を備えた感光
センサ、いわゆるエリアセンサが良い。
The sensor included in the image recording unit may be any sensor as long as it can be used to record an image. Preferably, a photosensitive sensor having a two-dimensional sensor surface, a so-called area sensor, is used. good.

【0021】 入力装置のより簡単な実施の形態において、位置付け信号と入力信号の両方が
本質的に画像記録手段によって記録された実際の画像から構成してよい。この場
合、本質的に、画像の全ての処理は信号のレシーバ、例えばコンピュータにおい
て行われる。その場合、コンピュータは信号を適当な方法で処理するためのソフ
トウェアを備えなければならない。そのようなソフトウェアはすでにコンピュー
タに記憶されているものでも良いし、あるいは、例えば、本発明による入力装置
に含まれ、入力装置が使用されるときにレシーバに転送されるものであっても良
い。
In a simpler embodiment of the input device, both the positioning signal and the input signal may consist essentially of the actual image recorded by the image recording means. In this case, essentially all processing of the image takes place in the receiver of the signal, for example a computer. In that case, the computer must have software to process the signals in an appropriate manner. Such software may already be stored on the computer, or may be included, for example, in an input device according to the invention and transferred to a receiver when the input device is used.

【0022】 入力装置からの信号のレシーバは、信号が位置付け信号としてのものであるか
、入力信号としてのものであるかを区別して、信号をどのように処理すべきかを
知ることができる必要がある。この目的のために、入力装置は位置付け信号と入
力信号を出力する際に、レシーバが位置付け信号を受信するのか入力信号を受信
するのかを区別できるように出力するように構成されている。例えば、入力装置
は、異なる信号に対して異なるプロトコルを使用することができる。
The receiver of the signal from the input device needs to be able to distinguish whether the signal is a positioning signal or an input signal and know how to process the signal. is there. For this purpose, the input device, when outputting the positioning signal and the input signal, is configured to output so that the receiver can distinguish between receiving the positioning signal and the input signal. For example, the input device may use different protocols for different signals.

【0023】 好ましくは、入力装置もユーザがマウス機能と入力機能のどちらの使用を希望
しているのかを知り、画像記録器によって記録される画像がどのように処理され
るべきかを知る必要がある。この目的のために、入力装置は、好ましくは、切り
替え手段、例えばボタンを備え、ユーザが入力装置を作動させるときに異なる機
能を切り替えるように構成される。
Preferably, the input device also needs to know whether the user wants to use the mouse function or the input function, and to know how the image recorded by the image recorder should be processed. is there. For this purpose, the input device preferably comprises switching means, for example a button, which is configured to switch between different functions when the user activates the input device.

【0024】 好ましくは、少なくともマウス機能用に、画像記録手段は複数の画像を記録す
る際に、各画像の内容が以前にある画像の内容と重複するように記録するように
構成される。これは、予想される移動速度に対して充分に高い周波数で画像を記
録することによって達成することができる。画像が重複することによって、それ
らの相対的位置が決定され、特別な位置決定手段を使用する必要がない。
[0024] Preferably, at least for a mouse function, the image recording means is configured to record, when recording a plurality of images, the contents of each image so as to overlap the contents of a previous image. This can be achieved by recording the image at a frequency high enough for the expected speed of movement. The overlapping of the images determines their relative positions and does not require the use of special positioning means.

【0025】 ひとたび画像が記録されると、次の処理が入力装置内の画像処理手段において
行われるか、あるいは入力装置からの信号のレシーバにおいて行われることがで
きる。少なくとも入力信号が入力装置において処理されることの利点は、入力装
置が隣接するレシーバに接続されることなくスタンドアロン型として使用できる
こと、入力された情報を入力装置のディスプレイ上に直接示すことができ、ユー
ザは実際に記録された情報が自分が記録しようとしていたものであるかどうかを
確認することができること、及び情報をより圧縮された形式でレシーバに転送す
ることができることである。更に、入力装置は、画像処理用の特別なソフトウェ
アをレシーバに備えることなしにマウスをサポートするいかなるレシーバにも接
続することができる。
Once the image has been recorded, the next processing can take place in the image processing means in the input device or in the receiver of the signal from the input device. At least the advantage of the input signal being processed at the input device is that the input device can be used stand-alone without being connected to an adjacent receiver, the input information can be shown directly on the display of the input device, The user should be able to check whether the information actually recorded is what he / she was trying to record, and be able to transfer the information to the receiver in a more compressed format. In addition, the input device can be connected to any receiver that supports a mouse without having special software on the receiver for image processing.

【0026】 このように、入力装置は、マウス機能と入力機能の両方に使用される画像処理
手段を備えるのが有利である。これらの画像処理手段は入力装置のどの機能が使
用されているかによって、異なるプログラムモジュールに従って動作する処理装
置を備えることができる。
Thus, the input device advantageously comprises image processing means used for both the mouse function and the input function. These image processing means can include processing devices that operate according to different program modules depending on which function of the input device is used.

【0027】 また、入力装置において画像を処理するために、入力装置は、部分的に重複す
る内容を使用することによって画像の相対的位置を決定するための手段を備える
のが有利である。画像の相対的位置を決定する手段は、共通の画像処理手段に含
め、ソフトウェアによって実現することができる。
Also, for processing the image at the input device, the input device advantageously comprises means for determining the relative position of the image by using partially overlapping content. The means for determining the relative position of the image is included in the common image processing means and can be realized by software.

【0028】 マウス機能が線形位置付けだけに使用される場合、画像の相対的位置を水平方
向に決定するだけで充分である。しかしながら、二次元的に使用した場合、相対
的位置は水平方向と垂直方向の両方で決定されなければならない。
If the mouse function is used only for linear positioning, it is sufficient to determine the relative position of the images horizontally. However, when used two-dimensionally, the relative position must be determined both horizontally and vertically.

【0029】 有利な実施の形態において、入力装置は、画像の相対的位置に基づく位置付け
信号を生成する手段を備える。位置付け信号は、例えば、2つの画像の記録の間
にどのように入力装置が移動されたかを示す1つ以上のベクトル、あるいは1つ
以上の位置付け座標から成る。位置付け信号を生成する手段は、共通画像処理手
段に含め、ソフトウェアによって実現することができる。
[0029] In an advantageous embodiment, the input device comprises means for generating a positioning signal based on the relative position of the images. The positioning signal may comprise, for example, one or more vectors, or one or more positioning coordinates, indicating how the input device has been moved between the recordings of the two images. The means for generating the positioning signal is included in the common image processing means and can be realized by software.

【0030】 入力装置は、手で持てるようにして、どこにでも運ぶことができるようにして
おくのが有利である。この技術によって、ユーザは、個人的マウスと、個人的に
記憶させた設定と個人的情報を備えた入力装置とを持つことができる。
Advantageously, the input device is hand-held and can be carried anywhere. With this technology, a user can have a personal mouse and an input device with personally stored settings and personal information.

【0031】 特に有利な実施の形態において、入力装置は、入力装置をレシーバに無線で接
続するためのトランスミッタを備えることができ、これにより、入力装置の使い
勝手が更に良くなる。この目的のために、ブルートゥース(Bluetooth)規格を使
用するのが有利である。
In a particularly advantageous embodiment, the input device can comprise a transmitter for wirelessly connecting the input device to a receiver, which further enhances the usability of the input device. For this purpose, it is advantageous to use the Bluetooth standard.

【0032】 また、入力装置は、スキャナ機能を備えることによって、入力装置がテキスト
及び/又は画像の記録に使用できるようにするのが有利である。
It is also advantageous that the input device has a scanner function so that the input device can be used for recording text and / or images.

【0033】 入力機能はカメラ機能を備えることもでき、その場合、画像記録手段は入力装
置から離れた場所にある対象物を画像化するのに利用される。
The input function can also include a camera function, in which case the image recording means is used to image an object at a location remote from the input device.

【0034】 入力機能は、手書き/描きの、即ち手で生成された情報を入力する機能を備え
ることもできる。スキャナ機能、カメラ機能、手書き/描き機能のそれぞれは、
唯一の入力機能であっても良いし、あるいはいくつかの入力機能のうちの1つで
あっても良い。
The input function may also include a function for inputting handwritten / drawn, ie, manually generated information. Each of the scanner function, camera function, and handwriting / drawing function
It may be the only input function, or one of several input functions.

【0035】 このように、入力装置は複数の機能を持つことができ、それらはすべて、画像
記録手段によって記録され、共通ハードウェア及びソフトウェアによって効果的
に処理された画像に基づく。
Thus, the input device can have multiple functions, all based on images recorded by the image recording means and effectively processed by common hardware and software.

【0036】 本発明の第2の面によると、本発明は、入力装置を使用して、マウス機能と少
なくとも1つの入力機能とを提供する方法に関し、どの機能が所望されるかを検
出するステップと、入力装置を使用して少なくとも1つの画像を記録するステッ
プと、どの機能が所望されているかによって異なる方法で前記少なくとも1つの
画像を処理するステップとから成る。
According to a second aspect of the invention, the invention relates to a method for providing a mouse function and at least one input function using an input device, the step of detecting which function is desired Recording at least one image using an input device; and processing the at least one image in a different manner depending on which function is desired.

【0037】 本発明によるこの方法の利点は、本発明による前述の入力装置の説明から明ら
かである。
The advantages of this method according to the invention are evident from the above description of the input device according to the invention.

【0038】 本発明の第3の面によると、本発明は、マウス機能と少なくとも1つの入力機
能とを有する入力システムに関し、画像を記録するための画像記録手段と、画像
記録手段により記録された画像を処理してマウス機能と少なくとも1つの入力機
能を提供するための画像処理手段とを備え、画像記録手段は第1のケースに収め
られ、画像処理手段は第2のケースに収められる。
According to a third aspect of the present invention, the present invention relates to an input system having a mouse function and at least one input function, wherein the image recording means for recording an image and the image recorded by the image recording means. Image processing means for processing an image to provide a mouse function and at least one input function is provided. The image recording means is contained in a first case, and the image processing means is contained in a second case.

【0039】 従って、入力システムでは画像記録手段が入力装置に配置され、画像処理手段
がコンピュータ又はその他のレシーバに配置され、そこに入力装置が接続され、
そこへ入力装置が記録画像を送信する。画像記録手段及び画像記録手段により記
録された画像の処理について先にのべたことは、すべて、入力システムにも適用
することができる。
Therefore, in the input system, the image recording means is arranged on the input device, the image processing means is arranged on the computer or other receiver, and the input device is connected thereto,
The input device transmits the recorded image there. Everything that has been said about the image recording means and the processing of the images recorded by the image recording means can also be applied to the input system.

【0040】 以下、本発明の実施の形態について、添付図面を参照しながら詳細に説明する
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

【0041】 (好ましい実施の形態の説明) 以下は、マウス機能と、スキャナ機能と、カメラ機能と、手書き/描き情報を
入力する機能とを有する、本発明による入力装置の実施の形態の説明である。
(Description of Preferred Embodiment) The following is a description of an embodiment of an input device according to the present invention having a mouse function, a scanner function, a camera function, and a function of inputting handwriting / drawing information. is there.

【0042】 (装置の設計) 図1は、この実施の形態による入力装置の設計を示す。装置は、従来のハイラ
イトペンとほぼ同様な形状を有するケースを備える。ケースの一方の短い側は、
ウインドウ2を有し、これを介して、画像が記録され、入力装置の様々な画像に
基づく機能に供される。
(Design of Apparatus) FIG. 1 shows a design of an input apparatus according to this embodiment. The device includes a case having a shape substantially similar to a conventional highlight pen. One short side of the case is
It has a window 2 through which images are recorded and subjected to various image-based functions of the input device.

【0043】 ケース1は、本質的に、光学部3と、電子回路部4と、電力供給部5とを備え
る。
The case 1 essentially includes an optical unit 3, an electronic circuit unit 4, and a power supply unit 5.

【0044】 光学部3は、発光ダイオード6と、レンズシステム7と、感光センサ8の形の
画像記録手段とを備え、感光センサ8は電子回路部4とのインターフェースを構
成する。
The optical section 3 comprises a light-emitting diode 6, a lens system 7, and image recording means in the form of a photosensitive sensor 8, which constitutes an interface with the electronic circuit section 4.

【0045】 LED6の役割は、ウインドウの下にある面を照射することである。LED6
の前に光を放散するためのディフューザ(diffuser)が搭載されている。
The role of the LED 6 is to illuminate the surface below the window. LED6
There is a diffuser to dissipate the light in front of it.

【0046】 レンズシステム7の役割は、感光センサ8上のウインドウ2の下にある面の画
像をできるだけ正確に投影することである。レンズシステムは、2つの位置の間
で移動可能であり、そのうち第2の位置は破線で示されている。第1の位置が使
用されるのは、入力装置のウインドウの直下にある面から画像を記録するときで
あり、マウス機能と、スキャナ機能と、手書き/描き機能を主要目的とする。第
2の位置が使用されるのは、入力装置から離れた場所にある対象物から画像を記
録するときであり、カメラ機能を主要目的とするが、他の機能にも使用すること
ができる。
The role of the lens system 7 is to project the image of the surface under the window 2 on the photosensitive sensor 8 as accurately as possible. The lens system is movable between two positions, of which the second position is indicated by a dashed line. The first position is used when recording an image from the surface directly below the window of the input device, with the primary purpose of a mouse function, a scanner function, and a handwriting / drawing function. The second position is used when recording an image from an object remote from the input device, which is primarily for camera functions, but can be used for other functions as well.

【0047】 本例において、感光センサ8は、内蔵されたA/Dコンバータを含む二次元的
正方形CCDユニット(CCD=charge coupled device)を備える。このよう
なセンサは、簡単に入手できる。センサ8は、ウインドウ2に少し角度をつけて
取り付けられ、回路基板11に搭載される。
In this example, the photosensitive sensor 8 includes a two-dimensional square CCD unit (CCD = charge coupled device) including a built-in A / D converter. Such sensors are readily available. The sensor 8 is mounted on the window 2 at a slight angle and mounted on the circuit board 11.

【0048】 入力装置への電力供給は、ケース内の別の区画13内に搭載されたバッテリ1
2から得る。
The power supply to the input device is performed by the battery 1 mounted in another compartment 13 in the case.
Obtain from 2.

【0049】 図2のブロック図は、電子回路部4を模式的に示す。これは、プロセッサ20
を備え、プロセッサ20は、バス21を介して、プロセッサのプログラムが記憶
されているROM22と、プロセッサの動作メモリを構成しセンサからの画像が
記憶される読み/書きメモリ23と、制御論理部24と、センサ8と、LED6
とに接続される。プロセッサ20、バス21、メモリ22,23、制御論理部2
4、付属ソフトウェアが、一緒になって、画像処理手段を構成する。
The block diagram of FIG. 2 schematically shows the electronic circuit section 4. This is the processor 20
The processor 20 includes, via a bus 21, a ROM 22 storing a processor program, a read / write memory 23 forming an operation memory of the processor and storing an image from a sensor, and a control logic unit 24. , Sensor 8 and LED 6
And connected to. Processor 20, bus 21, memories 22, 23, control logic 2
4. The attached software together constitutes an image processing means.

【0050】 制御論理部24は、多数の周辺機器に接続され、そこには、ケースに取り付け
られたディスプレイ25、外部コンピュータとの情報のやりとりに使用されるト
ランシーバ26、ユーザが入力装置を制御してマウス機能、スキャナ機能、カメ
ラ機能、手書き/描き機能の間で入力装置を調整するためのボタン27、従来の
マウス上のクリックボタンに対応するボタン27’、光ビームを出してユーザが
自分の入力している情報を知り易くするトレーサLED28、ペンが使用可能で
あることを示すLEDのようなインジケータ29が含まれる。メモリ、センサ8
、周辺機器への制御信号は、制御論理部24で生成される。制御論理は、プロセ
ッサに対する割り込みの生成及び順位付けをも扱う。ボタン27,27’、無線
トランシーバ26、ディスプレイ25、トレーサLED28、及びLED6は、
制御論理部24内のレジスタにおけるプロセッサ書き込み及び読み出しによりア
クセスされる。ボタン27及び27’は、作動されると、プロセッサ20への割
り込みを発生する。
The control logic unit 24 is connected to a number of peripheral devices, including a display 25 mounted on a case, a transceiver 26 used for exchanging information with an external computer, and a user controlling an input device. Button 27 for adjusting the input device among the mouse function, scanner function, camera function, and handwriting / drawing function, button 27 'corresponding to a click button on a conventional mouse, and emits a light beam to the user. Included are a tracer LED 28 to make it easier to understand the information being entered, and an indicator 29 such as an LED indicating that the pen is available. Memory, sensor 8
, Control signals to the peripheral devices are generated by the control logic unit 24. The control logic also handles the generation and prioritization of interrupts for the processor. Buttons 27, 27 ', wireless transceiver 26, display 25, tracer LED 28, and LED 6
It is accessed by a processor write and read in a register in the control logic 24. Buttons 27 and 27 ', when activated, generate an interrupt to processor 20.

【0051】 (装置の動作) 入力装置の様々な機能、即ち、マウス機能、スキャナ機能、手書き/描き機能
、及びカメラ機能について説明をする。これらの機能はすべてセンサ8を介して
記録された画像に基づく。最初の3つの機能が使用される場合、複数の画像の記
録は、各画像の内容が以前の画像の内容と重複するようになされる。画像が記録
される間、画像の相対的位置、即ち、それらの内容の間の最適な対応を可能にす
る位置が決定される。次に、ユーザが選択した機能に従って処理が行われる。画
像を記録する際、入力装置は、ウインドウ2を面に接触させて面上を移動させる
こともできれば、レンズシステムの設定に従って面から少しあるいは大きく離し
て保持することもできる。面は平面である必要はない。例えば、テキストを有す
る紙、模様のついた壁紙が貼られた壁面、甘いものが入った容器であってもよい
。要は、内容が変化する画像を記録し、画像の相対的位置が画像の内容によって
決定できれば良い。
(Operation of Apparatus) Various functions of the input apparatus, that is, a mouse function, a scanner function, a handwriting / drawing function, and a camera function will be described. All of these functions are based on images recorded via the sensor 8. If the first three functions are used, the recording of multiple images is such that the content of each image overlaps the content of the previous image. While the images are being recorded, the relative positions of the images, i.e. the positions that allow the optimal correspondence between their contents, are determined. Next, processing is performed according to the function selected by the user. When recording an image, the input device can either move the window 2 over the surface by contacting the surface, or hold the window 2 slightly or greatly away from the surface according to the settings of the lens system. The plane need not be planar. For example, it may be paper having text, a wall surface on which a patterned wallpaper is pasted, or a container containing sweets. The point is that an image whose contents change is recorded, and the relative position of the image can be determined based on the contents of the image.

【0052】 (マウス機能) まず、ユーザが入力装置をマウスとして使用したいとする。この場合、ユーザ
はボタン27で装置をマウス機能に設定し、それにより入力装置はマウスモード
での動作を開始し、入力装置がマウスとして動作すべきコンピュータにログ・イ
ンする(logs into)。続いて、ユーザは入力装置のウインドウ2をパタン化さ
れた面、例えばマウスパッドに向ける。ユーザはボタン27の1つを押して入力
装置を作動させ、それにより、プロセッサ20がLED6に指令を出して所定の
周波数、好ましくは少なくとも50Hzのストロボパルスの生成を開始させる。
続いて、ユーザは入力装置を従来のマウスと同様に面上で移動させ、それにより
部分的に重複する内容の画像がセンサ8によって記録され、読み/書きメモリ2
3に記憶される。画像が画像として、即ち、複数の画素によって記憶され、各画
素は白から黒までの範囲のグレースケール値を有する。
(Mouse Function) First, it is assumed that the user wants to use the input device as a mouse. In this case, the user sets the device to the mouse function with the button 27, whereby the input device starts operating in the mouse mode, and the input device logs into the computer to be operated as a mouse. Subsequently, the user points the window 2 of the input device to a patterned surface, for example, a mouse pad. The user presses one of the buttons 27 to activate the input device, causing the processor 20 to command the LED 6 to start generating a strobe pulse at a predetermined frequency, preferably at least 50 Hz.
Subsequently, the user moves the input device on the surface in the same way as a conventional mouse, whereby an image of partially overlapping content is recorded by the sensor 8 and the read / write memory 2 is read.
3 is stored. The image is stored as an image, that is, by a plurality of pixels, each pixel having a gray scale value ranging from white to black.

【0053】 図3のフローチャートは、マウス機能が使用されるときに入力装置がどのよう
に動作するかをより詳細に示す。ステップ300において、最初の画像が記録さ
れる。ステップ301において、次の画像が記録される。この画像の内容は、先
行する画像の内容と部分的に重複する。
The flowchart of FIG. 3 shows in more detail how the input device operates when the mouse function is used. In step 300, the first image is recorded. In step 301, the next image is recorded. The content of this image partially overlaps with the content of the preceding image.

【0054】 ステップ301において画像が記録されると、それが先行画像とどのように重
複するかを垂直方向及び水平方向に決定する処理が開始され、ステップ302に
おいて、これらの画像の内容の間で最適なマッチング得られる相対的位置が決定
される。この目的のために、画像の間のすべての可能な重複位置が画素レベルで
調べられ、重複測定が次のように決定される。 1) 各重複画素位置に対して、2つの妥当な画素のグレースケール値が、も
し白でなければ、加算される。どちらの画素も白でないような画素位置はプラス
位置として指定される。 2) すべてのプラス位置に対するグレースケール和が合計される。 3) 各画素位置の隣接部分が調べられる。重複画素位置がプラス位置の隣で
なく、白でない画素と白でない画素位置から成る場合、非白画素のグレースケー
ル値が点2における和から減算され、定数によって乗算されることもある。 4) 前述のように最高の重複測定値を提供する重複位置が選択される。
Once the images have been recorded in step 301, a process is started to determine how they overlap the previous image in the vertical and horizontal directions, and in step 302 the content of these images is The relative position at which the best match is obtained is determined. For this purpose, all possible overlap positions between the images are examined at the pixel level, and the overlap measurement is determined as follows. 1) For each duplicate pixel location, the grayscale values of the two valid pixels are added if not white. Pixel locations where neither pixel is white are designated as plus locations. 2) The gray scale sums for all plus positions are summed. 3) The adjacent part of each pixel position is examined. If the overlapping pixel location is not next to the plus location and consists of non-white and non-white pixel locations, the grayscale value of the non-white pixel may be subtracted from the sum at point 2 and multiplied by a constant. 4) The overlap location that provides the highest overlap measurement is selected as described above.

【0055】 我々のスエーデン特許出願第9704924−1号及び対応の米国特許出願第
024,641号は、最適重複位置を見つけるのに画像をマッチングさせる他の
方法を記載している。これらの出願の内容は、本明細書において参照される。
[0055] Our Swedish patent application number 9704924-1 and corresponding US patent application Ser. No. 024,641 describe other methods of matching images to find optimal overlap locations. The contents of these applications are referred to herein.

【0056】 現在の画像と先行画像との間の最適重複位置が決定されると、先行画像は破棄
され、それにより現在の画像が、次に記録される画像に対して、先行画像となる
Once the optimal overlap position between the current image and the previous image has been determined, the previous image is discarded, so that the current image becomes the previous image with respect to the next image to be recorded.

【0057】 2つの画像の相対的位置を決定することにより、移動ベクトルが得られ、それ
は、これらの2つの画像の記録の間で、入力装置がどのくらいどの方向に移動さ
れたかを示す。続いて、この移動ベクトルを含む位置付け信号が、ステップ30
3において、無線トランシーバ26により、入力装置がマウスとして動作してい
るコンピュータに送信される。コンピュータは、その移動ベクトルを使用して画
面上でカーソルを位置付ける。続いて、ステップ301に戻る。速度を速めるた
めに、以上のステップは部分的に平行して行うことができ、例えば、現在の画像
と先行画像との相対的位置の決定がなされている間に、次の画像の記録を開始す
ることができる。
By determining the relative position of the two images, a movement vector is obtained, which indicates how and in what direction the input device has been moved between the recordings of these two images. Subsequently, the positioning signal including the movement vector is transmitted to step 30.
At 3, the wireless transceiver 26 transmits the input device to a computer operating as a mouse. The computer uses the movement vector to position the cursor on the screen. Subsequently, the process returns to step 301. In order to increase the speed, the above steps can be performed partially in parallel, for example, while the determination of the relative position between the current image and the preceding image is made, start recording the next image can do.

【0058】 マウスモードにおいて、ボタン27’は、コンピュータへ命令を入力するため
のクリックボタンとして使用することができる。
In the mouse mode, button 27 ′ can be used as a click button for inputting commands to a computer.

【0059】 (手書き/描く(drawing)機能) 次に、ユーザが手書き/描きテキストをコンピュータに入力したいとする。こ
の場合、ユーザは、ボタン27を使用して入力装置を手書き/描き機能に設定し
、それにより入力装置は手書き/描きモードでの動作を開始する。ユーザが続い
て入力装置を作動させると、プロセッサ20はLED6に指令を出し、所定の周
波数でのストロボパルスの生成を開始させる。続いて、ユーザは、選択された面
に向けられた入力装置によって入力したいテキストを「書く」。センサ8が部分
的に重複する内容の画像を記録し、それらを読み/書きメモリに記憶する。トレ
ーサLED28は、連続的に面上の移動パスを輝点によって示し、ユーザが移動
の状態を見れるようにする。テキストは、一度に、一文字入力される。各文字の
間で、ユーザは、例えば、短時間作動ボタン27を開放する、あるいは短時間入
力装置を移動させないことによって、1つの情報単位が入力されたことを示す。
(Handwriting / Drawing Function) Next, it is assumed that the user wants to input handwritten / drawn text into the computer. In this case, the user sets the input device to the handwriting / drawing function using the button 27, whereby the input device starts operating in the handwriting / drawing mode. When the user subsequently activates the input device, the processor 20 commands the LED 6 to start generating strobe pulses at a predetermined frequency. Subsequently, the user "writes" the text he wants to enter with the input device directed at the selected surface. The sensor 8 records images of partially overlapping content and stores them in a read / write memory. The tracer LED 28 continuously indicates the movement path on the surface by a bright spot, so that the user can see the movement state. Text is entered one character at a time. Between each character, the user indicates that one information unit has been input, for example, by releasing the short-time operation button 27 or not moving the input device for a short time.

【0060】 図4は、入力装置が手書き/描きモードでどのように動作するかをより詳細に
示す。最初の3つのステップは、マウスモードにおいて行われるものに対応する
。入力装置が作動されると、ステップ400において最初の画像が記録される。
内容がこの先行画像と重複する次の画像が、ステップ401で、記録され、ステ
ップ402でそれらの相対的位置が重複内容から決定され、それにより、移動ベ
クトルが得られる。
FIG. 4 shows in more detail how the input device operates in the handwriting / drawing mode. The first three steps correspond to those performed in mouse mode. When the input device is activated, the first image is recorded at step 400.
The next image whose content overlaps with the preceding image is recorded at step 401, and at step 402 their relative position is determined from the overlapping content, thereby obtaining a motion vector.

【0061】 続いて、プロセッサ20は、1つの情報単位の入力が完了したかどうかを、ス
テップ403で判定する。もしNoであれば、ステップ401に戻り、次の画像
が記録される。入力が完了されれば、当該情報単位に対して決定された移動ベク
トルをICRモジュールに読み出し、ICRモジュールは、移動ベクトルがどの
文字を表しているかを判定する(ステップ404)。続いて、判定された文字が
メモリ内の文字コードフォーマットに記憶され(ステップ405)、入力装置は
、新しい情報単位を入力する準備ができていることを知らせる(ステップ406
)。
Subsequently, the processor 20 determines whether or not the input of one information unit has been completed in Step 403. If No, the process returns to step 401 and the next image is recorded. When the input is completed, the movement vector determined for the information unit is read out to the ICR module, and the ICR module determines which character the movement vector represents (step 404). Subsequently, the determined character is stored in a character code format in memory (step 405), and the input device indicates that it is ready to input a new information unit (step 406).
).

【0062】 入力され判定された文字は、好ましくは、文字コードフォーマットでコンピュ
ータへ無線トランスミッタ26を介して転送され、コンピュータ画面上に直接示
される。入力装置がスタンドアロン型として使用されている場合は、文字はディ
スプレイ25上で示すことができる。
The entered and determined characters are preferably transferred to the computer in a character code format via the wireless transmitter 26 and shown directly on the computer screen. If the input device is used as a stand-alone device, the characters can be shown on the display 25.

【0063】 図5は、入力装置が文字「R」を形成する移動パス内を移動されたときに重複
内容を持つ画像が記録される様子を示す。簡単にするため、画像の内容は、図5
においては、示されていない。
FIG. 5 shows a state in which an image having overlapping contents is recorded when the input device is moved in a movement path forming the character “R”. For simplicity, the content of the image is shown in FIG.
Are not shown.

【0064】 また、ユーザが描き機能を使用したいことを指示した場合には、ステップ40
0乃至403だけが行われる。図6は、描き機能が使用された場合に、入力装置
によって決定された図5内の画像の相対的位置に基づいて、入力装置又はコンピ
ュータのディスプレ上に入力された文字Rが再現される様子を示す。この場合、
記録された文字の「描かれた画像」は、移動ベクトルによって示され、解釈され
た文字ではない。明らかに、このようにして、任意に描かれた図や文字が入力装
置又はコンピュータに入力することができる。
If the user instructs to use the drawing function, step 40
Only 0 to 403 are performed. FIG. 6 shows how a character R entered on an input device or a computer display is reproduced based on the relative position of the image in FIG. 5 determined by the input device when the drawing function is used. Is shown. in this case,
The "drawn image" of the recorded character is indicated by the movement vector and is not the interpreted character. Obviously, in this way, arbitrarily drawn figures and characters can be input to the input device or the computer.

【0065】 (スキャナ機能) 次に、ユーザは、紙、新聞、本などの情報担持体上の所定のテキストを記録す
るために入力装置を使用したいとする。この場合、ユーザはボタン27を使用し
て入力装置をスキャナ機能に設定し、それにより入力装置はスキャナモードでの
動作を開始する。
(Scanner Function) Next, it is assumed that the user wants to use the input device to record a predetermined text on an information carrier such as paper, newspaper, or book. In this case, the user sets the input device to the scanner function using the button 27, whereby the input device starts operating in the scanner mode.

【0066】 続いて、ユーザは、テキストのある紙面上でテキスト記録を開始したい場所に
入力装置を向け、ボタン27を使用して入力装置を作動させ、記録されるべきテ
キストの上を、テキストを読むときのように、通過させる。トレーサLED28
が光ビームを出し、行を追いやすくする。ユーザが入力装置を作動させると、プ
ロセッサ20がLED6に指令を出し、マウス機能の説明で述べたと同様に画像
が記録される。入力装置が選択されたテキストの上を通過した後、あるいは、文
字の列の終わりに来たとき、ユーザは装置を紙から離し、作動ボタンを解除し、
それにより、プロセッサ20はLED6をオフにする。
Subsequently, the user points the input device to the place where the user wants to start text recording on the paper with the text, activates the input device using the button 27, and places the text on the text to be recorded. Let through, as when reading. Tracer LED28
Emits a light beam, making it easier to follow the line. When the user activates the input device, the processor 20 commands the LED 6 and an image is recorded as described in the description of the mouse function. After the input device has passed over the selected text or at the end of the string of characters, the user releases the device from the paper, releases the activation button,
Thereby, the processor 20 turns off the LED 6.

【0067】 図7のフローチャートは、入力装置がこのモードにおいてどのように動作する
のかをより詳細に示す。ステップ700において、最初の画像が記録される。ス
テップ701において、この先行する画像と内容が重複する新しい画像が記録さ
れる。ステップ702において、現在の画像と先行画像との間の最適重複位置が
、マウス機能について説明したのと同様の方法で決定される。この位置において
、画像は一緒にされ1つの全体の復号画像となる(ステップ703)。ステップ
704において、入力装置は、文字の入力が完了したかどうかを検出する。もし
、Noであれば、ステップ701に戻る。ユーザが作動ボタンを解除して入力が
完了したこを示すと、全体の復号画像が入力信号としてOCRソフトウェアに入
力され、それが画像内の文字を判定し解釈する(ステップ705)。判定され解
釈された文字は、ASCIIコードのような所定の文字コードフォーマットで、
OCRソフトウェアからの出力信号として得られる。それらは、解釈された文字
用のメモリ領域内の読み/書きメモリに記憶される。文字判定及び文字コードフ
ォーマットにおける記憶が完了すると、プロセッサはインジケータ29を作動さ
せ、ユーザに、新しい文字列を記録する準備が整ったことを知らせる(ステップ
706)。
The flowchart of FIG. 7 shows in more detail how the input device operates in this mode. In step 700, the first image is recorded. In step 701, a new image having the same content as the preceding image is recorded. In step 702, the optimal overlap position between the current image and the previous image is determined in a manner similar to that described for the mouse function. At this location, the images are combined into one entire decoded image (step 703). In step 704, the input device detects whether the input of the character has been completed. If No, the process returns to step 701. When the user releases the activation button to indicate that the input is complete, the entire decoded image is input to the OCR software as an input signal, which determines and interprets the characters in the image (step 705). Characters determined and interpreted are in a predetermined character code format such as ASCII code,
Obtained as an output signal from OCR software. They are stored in a read / write memory in a memory area for interpreted characters. Upon completion of the character determination and storage in the character code format, the processor activates indicator 29 to inform the user that the new string is ready to be recorded (step 706).

【0068】 解釈された文字は、無線トランシーバ26を介して、文字コードフォーマット
でコンピュータ又は他のレシーバに転送することができる。
The interpreted characters can be transmitted via the wireless transceiver 26 in a character code format to a computer or other receiver.

【0069】 このように、前述のステップは、プロセッサ20により、関連装置及び適当な
ソフトウェアを介して行われる。そのようなソフトウェアは、市場で入手できな
い場合、前記指示を参考に、当業者であれば作ることができる。
Thus, the foregoing steps are performed by the processor 20 via the associated devices and appropriate software. If such software is not available on the market, one of ordinary skill in the art can make, referring to the instructions above.

【0070】 図8a乃至cは、文字列FIGS. 8 a to 8 c show character strings.

【外1】 が記録されるときに入力装置がどのように動作するかを示す。図8aは、紙の上
のテキストを示す。図8bは、センサによって画像が記録されていく様子を示す
。図からわかるように、画像の内容は、部分的に重複する。例えば、文字lは、
画像1において完全に現れ、画像2において部分的に表れる。重複の度合いは、
引っ張り速度、即ち、センサ8の内容が読み出される周波数に対してユーザがテ
キストの上で入力装置を移動させる速度に依存する。図8cは、復号画像全体を
示す。尚、画像は、まだ画素の形で記憶されている。この方法が実行されると、
[Outside 1] Shows how the input device works when is recorded. FIG. 8a shows text on paper. FIG. 8b shows how an image is being recorded by the sensor. As can be seen, the contents of the images partially overlap. For example, the letter l is
It appears completely in image 1 and partially in image 2. The degree of overlap is
The pulling speed, ie the speed at which the user moves the input device over the text relative to the frequency at which the content of the sensor 8 is read, depends. FIG. 8c shows the entire decoded image. Note that the image is still stored in the form of pixels. When this method is performed,

【外2】 というテキストがASCIIコードとして入力装置の読み/書きメモリに記憶さ
れる。
[Outside 2] Is stored in the read / write memory of the input device as an ASCII code.

【0071】 (カメラ機能) 次に、ユーザが入力装置から離れた所にある対象物の画像を記録したいとする
。この「対象物」は、例えば、三次元的であってもよいし、あるいは本の中の画
像であってもよい。この場合、ユーザはボタン27を使用して入力装置をカメラ
機能に設定し、それにより、入力装置はカメラモードでの動作を開始し、レンズ
システム7の位置が、入力装置から離れた所にある画像を記録するのに適当な位
置に変更される。続いて、ユーザは入力装置を作動させ、それによりプロセッサ
がセンサ8からの画像の読み取りを開始する。読み取られた画像は入力装置のデ
ィスプレイ25上で表示することもできるし、あるいは入力装置が接続されてい
て無線トランシーバ26を介して画像が記録される際に画像が転送されるコンピ
ュータ上で表示することもできる。ユーザは、画像の表示に満足したら、ボタン
27を押す。これにより、対象物の画像が記録される。対象物の画像が記録され
ると、ユーザは入力装置に対して記録された画像をディスプレイ7上に表示する
ように指示することもできるし、あるいは、無線トランシーバ26を介して画像
をコンピュータに転送するよう指示することもできる。
(Camera Function) Next, it is assumed that the user wants to record an image of an object located away from the input device. This “object” may be, for example, three-dimensional or an image in a book. In this case, the user sets the input device to the camera function using the button 27, whereby the input device starts operating in the camera mode, and the position of the lens system 7 is remote from the input device. The position is changed to a position suitable for recording an image. Subsequently, the user activates the input device, which causes the processor to start reading the image from the sensor 8. The read image can be displayed on the display 25 of the input device or on a computer to which the input device is connected and to which the image is transferred when the image is recorded via the wireless transceiver 26. You can also. The user presses the button 27 when satisfied with the display of the image. Thereby, an image of the object is recorded. When the image of the object is recorded, the user can instruct the input device to display the recorded image on the display 7 or transfer the image to the computer via the wireless transceiver 26. You can also tell them to do so.

【0072】 図9のフローチャートは、入力装置がカメラモードにおいてどのように動作す
るかを示す。ステップ901において、画像のサイズが入力装置のディスプレ2
5上で示される。ユーザは、画像の表示に満足すれば、ボタン27を押す。これ
により、画像は凍結され、ステップ902においてバッファメモリに記録される
。画像は、複数の画素によって記録され、画素は白から黒までのグレースケール
値あるいは色彩値を有することができる。ユーザは、次に、現在の画像を保持す
るかどうかを選択する。ユーザが画像の保持を希望すれば、処理はステップ90
3まで実線に沿って進行し、画像はメモリ23に記憶される。画像が記憶される
と、装置は、ステップ904において、新しい画像を記録する準備ができている
ことを示す。ユーザが画像の保持を希望しない場合、処理はステップ902から
破線に沿ってステップ901に戻り、新しい画像が記録される。
The flowchart of FIG. 9 shows how the input device operates in the camera mode. In step 901, the size of an image is displayed on the input device display 2.
5 shown above. The user presses the button 27 when satisfied with the display of the image. Thus, the image is frozen and recorded in the buffer memory in step 902. An image is recorded by a plurality of pixels, which can have grayscale or color values from white to black. The user then selects whether to keep the current image. If the user wants to keep the image, the process proceeds to step 90
3, the image proceeds along the solid line, and the image is stored in the memory 23. Once the image is stored, the device indicates at step 904 that it is ready to record a new image. If the user does not want to keep the image, the process returns from step 902 along the dashed line to step 901 where a new image is recorded.

【0073】 (他の実施の形態) 上記実施の形態は一例にすぎない。本発明による入力装置は、以上述べた機能
のすべてを備える必要はない。マウス機能を、スキャナ機能、カメラ機能、手書
き機能、その他の入力機能の1つ以上と組み合わせることも可能である。
(Other Embodiments) The above embodiment is merely an example. The input device according to the invention need not have all of the functions described above. The mouse function can be combined with one or more of a scanner function, a camera function, a handwriting function, and other input functions.

【0074】 前述の実施の形態において、記録された情報の処理はすべて入力装置において
行われるが、これは、本質的なことではない。前述の過程は、実際の画像記録を
除いて、画像が転送される外部コンピュータ又は何らかの外部装置内の画像処理
手段によって行うこともできる。
In the above-described embodiment, all the processing of the recorded information is performed in the input device, but this is not essential. The above process, except for the actual image recording, can also be performed by an image processing means in an external computer or some external device to which the image is transferred.

【0075】 前述の実施の形態においては、画像の記録が単一の感光センサによって行われ
るが、例えば、第2感光センサをケースの他端部に配置することもできる。この
場合、第1センサを備える一方の端部をマウス機能に使用し、第2センサを備え
る他端部を入力機能の1つに使用することもできる。
In the above-described embodiment, the recording of an image is performed by a single photosensitive sensor. However, for example, the second photosensitive sensor can be disposed at the other end of the case. In this case, one end provided with the first sensor can be used for the mouse function, and the other end provided with the second sensor can be used for one of the input functions.

【0076】 マウスモード、手書きモード、描きモードにおいて、記録される画像は必ずし
も重複内容を有する必要はない。これらのモードにおいて、位置指示を有する特
殊な基板を使用することができる。例えば、位置は座標として書くことができ、
座標を読み出して、カーソル又は移動指示に対する位置付け信号を提供するため
に解釈し、描かれた画像又は文字の再生を行うこともできる。しかしながら、こ
のためには、特殊な基板やソフトウェアが位置指示の解釈に必要になるという短
所がある。
In the mouse mode, the handwriting mode, and the drawing mode, images to be recorded do not necessarily have to have overlapping contents. In these modes, special substrates with position indications can be used. For example, a location can be written as coordinates,
The coordinates can also be read and interpreted to provide a positioning signal for a cursor or movement instruction, and a rendered image or character can be played. However, this has the disadvantage that a special board or software is required for interpreting the position indication.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明による入力装置の実施の形態を模式的に示す。FIG. 1 schematically shows an embodiment of an input device according to the present invention.

【図2】 本発明による入力装置の実施の形態における電子回路のブロック図である。FIG. 2 is a block diagram of an electronic circuit in the embodiment of the input device according to the present invention.

【図3】 マウス機能のフローチャートである。FIG. 3 is a flowchart of a mouse function.

【図4】 手書き/描き機能のフローチャートである。FIG. 4 is a flowchart of a handwriting / drawing function.

【図5】 手書き/描き情報の入力に関連して面がどのように画像化されるかを模式的に
示す図である。
FIG. 5 is a diagram schematically showing how a surface is imaged in relation to input of handwritten / drawn information.

【図6】 手書き/描き入力がどのようにディスプレイ上に表示されるかを示す。FIG. 6 illustrates how handwriting / drawing input is displayed on a display.

【図7】 スキャナ機能のフローチャートである。FIG. 7 is a flowchart of a scanner function.

【図8a】 スキャナモードにおいてテキストがどのように記録されるかを模式的に示す。FIG. 8a schematically shows how text is recorded in the scanner mode.

【図8b】 スキャナモードにおいてテキストがどのように記録されるかを模式的に示す。FIG. 8b schematically shows how text is recorded in the scanner mode.

【図8c】 スキャナモードにおいてテキストがどのように記録されるかを模式的に示す。FIG. 8c schematically illustrates how text is recorded in the scanner mode.

【図9】 カメラ機能のフローチャートである。FIG. 9 is a flowchart of a camera function.

【手続補正書】特許協力条約第34条補正の翻訳文提出書[Procedural Amendment] Submission of translation of Article 34 Amendment of the Patent Cooperation Treaty

【提出日】平成12年5月30日(2000.5.30)[Submission date] May 30, 2000 (2000.5.30)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Correction target item name] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【特許請求の範囲】[Claims]

───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 9803455−6 (32)優先日 平成10年10月9日(1998.10.9) (33)優先権主張国 スウェーデン(SE) (31)優先権主張番号 60/105,780 (32)優先日 平成10年10月27日(1998.10.27) (33)優先権主張国 米国(US) (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,UG,ZW),E A(AM,AZ,BY,KG,KZ,MD,RU,TJ ,TM),AE,AL,AM,AT,AU,AZ,BA ,BB,BG,BR,BY,CA,CH,CN,CU, CZ,DE,DK,EE,ES,FI,GB,GD,G E,GH,GM,HR,HU,ID,IL,IN,IS ,JP,KE,KG,KP,KR,KZ,LC,LK, LR,LS,LT,LU,LV,MD,MG,MK,M N,MW,MX,NO,NZ,PL,PT,RO,RU ,SD,SE,SG,SI,SK,SL,TJ,TM, TR,TT,UA,UG,US,UZ,VN,YU,Z A,ZW Fターム(参考) 5B029 AA01 BB02 BB09 BB15 DD10 5B047 AA01 AA27 AB02 BA03 BB04 CB07 CB16 5B068 AA01 BC03 BD02 BD09 BD25 BD26 BE06 BE15 5B087 AA05 BB08 BC03 BC26 BC32 DG02 ──────────────────────────────────────────────────の Continuation of the front page (31) Priority claim number 9803455-6 (32) Priority date October 9, 1998 (1998. 10.9) (33) Priority claim country Sweden (SE) (31) Priority claim number 60 / 105,780 (32) Priority date October 27, 1998 (Oct. 27, 1998) (33) Priority claim country United States (US) (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SL, SZ, UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU , TJ, TM), AE, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, JP, KE, KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG , MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, US, UZ, VN, YU, ZA, ZWF terms (reference) 5B029 AA01 BB02 BB09 BB15 DD10 5B047 AA01 AA27 AB02 BA03 BB04 CB07 CB16 5B068 AA01 BC03 BD02 BD09 BD25 BD26 BE06 BE15 5B087 AA05 BB08 BC02 BC32 BC32 BC32 BC32

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 マウス機能と少なくとも1つの入力機能とを有する入力装置
であって、前記入力機能を提供するための画像記録手段(8)を備え、 画像記録手段(8)がマウス機能を提供するのにも使用されることを特徴とす
る入力装置。
1. An input device having a mouse function and at least one input function, comprising an image recording means (8) for providing the input function, wherein the image recording means (8) provides a mouse function. An input device characterized in that it is also used for:
【請求項2】 請求項1記載の入力装置であって、入力装置は、マウス機能
を提供するための位置付け信号と、入力機能を提供するための入力信号とを発信
すべく構成され、位置付け信号と入力信号は、前記画像記録手段(8)を使用し
て記録される画像に基づくことを特徴とする入力装置。
2. The input device according to claim 1, wherein the input device is configured to transmit a positioning signal for providing a mouse function and an input signal for providing an input function, and the positioning signal. And an input signal based on an image recorded using the image recording means (8).
【請求項3】 請求項1又は2記載の入力装置であって、前記画像記録手段
(8)は、マウス機能を提供するための第1画像記録装置と、入力機能を提供す
るための第2画像記録装置とを備えることを特徴とする入力装置。
3. The input device according to claim 1, wherein said image recording means comprises a first image recording device for providing a mouse function and a second image recording device for providing an input function. An input device, comprising: an image recording device.
【請求項4】 請求項1又は2記載の入力装置であって、前記画像記録手段
(8)は、マウス機能と入力機能の両方を提供するのに使用される画像記録装置
を備えることを特徴とする入力装置。
4. The input device according to claim 1, wherein said image recording means comprises an image recording device used to provide both a mouse function and an input function. Input device.
【請求項5】 請求項1乃至4のいずれかに記載の入力装置であって、前記
画像記録手段が少なくとも1つのエリア・センサ(area sensor)を備えることを
特徴とする入力装置。
5. An input device according to claim 1, wherein said image recording means comprises at least one area sensor.
【請求項6】 請求項2乃至5のいずれかに記載の入力装置であって、位置
付け信号と入力信号の両方が本質的に前記画像から構成されることを特徴とする
入力装置。
6. The input device according to claim 2, wherein both the positioning signal and the input signal consist essentially of the image.
【請求項7】 請求項2乃至6のいずれかに記載の入力装置であって、レシ
ーバが自身の受信する信号が位置付け信号であるか入力信号であるかを同定でき
るように前記入力装置が位置付け信号及び入力信号を出力することを特徴とする
入力装置。
7. The input device according to claim 2, wherein the input device is positioned so that a receiver can identify whether a signal received by the receiver is a positioning signal or an input signal. An input device for outputting a signal and an input signal.
【請求項8】 請求項1乃至7のいずれかに記載の入力装置であって、更に
切り替え手段(27)を備え、ユーザにより作動されると、入力装置を異なる機
能に設定することを特徴とする入力装置。
8. The input device according to claim 1, further comprising switching means (27), wherein the input device is set to a different function when activated by a user. Input device to do.
【請求項9】 請求項1乃至8のいずれかに記載の入力装置であって、前記
画像記録手段(8)は、少なくともマウス機能に対して、複数の画像を記録する
際に各画像の内容が先行画像の内容と重複するように記録することを特徴とする
入力装置。
9. The input device according to claim 1, wherein said image recording means (8) is adapted to record a plurality of images at least for a mouse function. An input device for recording the content of the input image so as to overlap the content of the preceding image.
【請求項10】 請求項1乃至9のいずれかに記載の入力装置であって、マ
ウス機能と入力機能の両方に使用される画像処理手段(20−24)を更に備え
ることを特徴とする入力装置。
10. The input device according to claim 1, further comprising image processing means (20-24) used for both a mouse function and an input function. apparatus.
【請求項11】 請求項9又は10記載の入力装置であって、部分的に重複
する内容によって画像の相対的位置を決定する手段(20−24)を更に備える
ことを特徴とする入力装置。
11. The input device according to claim 9, further comprising means (20-24) for determining a relative position of an image based on partially overlapping contents.
【請求項12】 請求項11記載の入力装置であって、画像の相対的位置を
決定する手段(20−24)が、画像の相対的位置を水平方向及び垂直方向に決
定することを特徴とする入力装置。
12. The input device according to claim 11, wherein the means (20-24) for determining a relative position of the image determines the relative position of the image in a horizontal direction and a vertical direction. Input device to
【請求項13】 請求項11又は12記載の入力装置であって、画像の相対
的位置に基づいて位置付け信号を生成する手段(20−24)を更に備えること
を特徴とする入力装置。
13. The input device according to claim 11, further comprising means (20-24) for generating a positioning signal based on a relative position of an image.
【請求項14】 請求項1乃至13のいずれかに記載の入力装置であって、
手で操作されることを特徴とする入力装置。
14. The input device according to claim 1, wherein:
An input device which is operated by hand.
【請求項15】 請求項1乃至14のいずれかに記載の入力装置であって、
入力装置をレシーバに無線接続するトランスミッタ(26)を更に備えることを
特徴とする入力装置。
15. The input device according to claim 1, wherein:
An input device, further comprising a transmitter (26) for wirelessly connecting the input device to a receiver.
【請求項16】 請求項1乃至15のいずれかに記載の入力装置であって、
前記少なくとも1つの入力機能がスキャナ機能を含むことを特徴とする入力装置
16. The input device according to claim 1, wherein:
The input device, wherein the at least one input function includes a scanner function.
【請求項17】 請求項1乃至16のいずれかに記載の入力装置であって、
前記入力機能は、入力装置から離れた場所にある対象物を画像化するカメラ機能
を含むことを特徴とする入力装置。
17. The input device according to claim 1, wherein:
The input device according to claim 1, wherein the input function includes a camera function of imaging an object located at a location distant from the input device.
【請求項18】 請求項1乃至17のいずれかに記載の入力装置であって、
前記入力機能が手書き/描き情報を入力する機能を含むことを特徴とする入力装
置。
18. The input device according to claim 1, wherein:
The input device, wherein the input function includes a function of inputting handwritten / drawn information.
【請求項19】 入力装置を使用してマウス機能と少なくとも1つの入力機
能を提供する方法であって、 前記機能のうちどの機能が所望されているかを検出するステップと、 入力装置によって少なくとも1つの画像を記録するステップと、 前記機能のうちどの機能が所望されているかによって、異なる方法で、前記少
なくとも1つの画像を処理するステップと からなる方法。
19. A method for providing a mouse function and at least one input function using an input device, the method comprising: detecting which of the functions is desired; Recording an image; and processing the at least one image differently depending on which of the functions is desired.
【請求項20】 請求項19記載の方法であって、マウス機能が所望された
場合、更に、部分的に重複する少なくとも2つの画像を記録するステップと、こ
れらの画像の相対的位置を水平方向および垂直方向の両方で決定するステップと
、画像の相対的位置に基づいて位置付け信号を決定するステップと、当該位置付
け信号を使用してコンピュータ画面上のカーソルを制御するステップとを備える
ことを特徴とする方法。
20. The method according to claim 19, further comprising the step of recording at least two partially overlapping images when mouse function is desired, and for horizontally positioning the images relative to each other. And determining both in the vertical direction, determining a positioning signal based on the relative position of the image, and controlling a cursor on a computer screen using the positioning signal. how to.
【請求項21】 請求項19又は20記載の方法であって、前記入力機能は
文字入力機能であって、文字入力機能が所望された場合、更に、 部分的に重複する複数の画像であって、一緒になって入力されるべき文字を画
像化する、画像を記録するステップと、それらの画像を水平方向及び垂直方向に
一緒にして復号画像にするステップと、復号画像内の文字を同定するステップと
、同定された文字を解釈するステップと、それらの文字を文字コードフォーマッ
トに記憶するステップとを備えることを特徴とする方法。
21. The method according to claim 19, wherein the input function is a character input function, and if the character input function is desired, furthermore, a plurality of partially overlapping images. Image the characters to be input together, record the images, combine the images horizontally and vertically into a decoded image, and identify the characters in the decoded image A method comprising: interpreting identified characters; and storing the characters in a character code format.
【請求項22】 請求項19乃至21のいずれかに記載の方法であって、前
記入力機能が手書き/描き情報を入力する機能であって、手書き/描き機能が所
望された場合、更に、 部分的に重複する内容を有する複数の画像を記録するステップと、それらの画
像の水平方向及び垂直方向の相対的位置を決定するステップと、画像の相対的位
置に基づいて入力装置の移動を決定するステップとを備えることを特徴とする方
法。
22. The method according to claim 19, wherein the input function is a function for inputting handwriting / drawing information, and if the handwriting / drawing function is desired, further comprising: Recording a plurality of images having substantially overlapping contents, determining horizontal and vertical relative positions of the images, and determining movement of the input device based on the relative positions of the images And a step.
【請求項23】 請求項22記載の方法であって、更に、入力装置の移動が
どの文字を表すかを解釈するステップと、その文字を文字コードフォーマットに
記憶するステップとを備えることを特徴とする方法。
23. The method of claim 22, further comprising the step of interpreting which character the movement of the input device represents, and storing the character in a character code format. how to.
【請求項24】 マウス機能と少なくとも1つの入力機能とを有する入力シ
ステムであって、画像を記録する画像記録手段(8)と、画像記録手段によって
記録された画像を処理しマウス機能と前記少なくとも1つの入力機能とを提供す
る画像処理手段(20−24)とを備え、画像記録手段は第1のケースに配置さ
れ、画像処理手段は第2のケースに配置されることを特徴とするシステム。
24. An input system having a mouse function and at least one input function, comprising: an image recording means (8) for recording an image; and a mouse function for processing an image recorded by the image recording means. An image processing means (20-24) for providing one input function, wherein the image recording means is arranged in the first case and the image processing means is arranged in the second case. .
JP2000550019A 1998-04-30 1999-04-30 Input device, method of using the same, and input system Pending JP2002516428A (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
SE9801535A SE511855C2 (en) 1998-04-30 1998-04-30 Handwritten character recording device for characters, symbols, graphs, calligraphy
US9132398P 1998-06-30 1998-06-30
US60/091,323 1998-06-30
SE9803455A SE513940C2 (en) 1998-04-30 1998-10-09 Unit and input system with mouse function and input function and ways to use the unit
US10578098P 1998-10-27 1998-10-27
US60/105,780 1998-10-27
US9803455-6 1998-10-27
US9801535-7 1998-10-27
PCT/SE1999/000718 WO1999060468A1 (en) 1998-04-30 1999-04-30 Input unit, method for using the same and input system

Publications (1)

Publication Number Publication Date
JP2002516428A true JP2002516428A (en) 2002-06-04

Family

ID=27484809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000550019A Pending JP2002516428A (en) 1998-04-30 1999-04-30 Input device, method of using the same, and input system

Country Status (9)

Country Link
EP (1) EP1073944A1 (en)
JP (1) JP2002516428A (en)
KR (1) KR20010052282A (en)
CN (1) CN1152296C (en)
AU (1) AU758036B2 (en)
BR (1) BR9910083A (en)
CA (1) CA2331073A1 (en)
IL (1) IL139104A0 (en)
WO (1) WO1999060468A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003523572A (en) * 2000-02-18 2003-08-05 アノト・アクティエボラーク Configuration of input unit
WO2004019198A1 (en) * 2002-08-26 2004-03-04 Taizo Saito Pen-type computer input device
JP2010518504A (en) * 2007-02-08 2010-05-27 アイエスブイ カンパニー リミテッド Optical pen-type mouse capable of adjusting the size of display object and method for adjusting the size of display object using the optical pen-type mouse

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10004965C2 (en) * 2000-02-04 2003-08-21 Bosch Gmbh Robert Device for the manual operation of devices in a vehicle
WO2001061631A1 (en) 2000-02-16 2001-08-23 Telefonaktiebolaget Lm Ericsson (Publ) Printer pen
US6693623B1 (en) 2000-02-16 2004-02-17 Telefonaktiebolaget Lm Ericsson (Publ) Measuring applications for an electronic reading device
WO2001061449A2 (en) * 2000-02-16 2001-08-23 Telefonaktiebolaget Lm Ericsson (Publ) Specially formatted paper based applications of a mobile phone
US6832116B1 (en) 2000-02-16 2004-12-14 Telefonaktiebolaget L M Ericsson (Publ) Method and system for controlling an electronic utility device using an electronic reading device
US6611259B1 (en) 2000-02-16 2003-08-26 Telefonaktiebolaget Lm Ericsson (Publ) System and method for operating an electronic reading device user interface
EP1256048A2 (en) * 2000-02-16 2002-11-13 Telefonaktiebolaget LM Ericsson (publ) A system and method for operating an electronic reading device user interface
US6885878B1 (en) 2000-02-16 2005-04-26 Telefonaktiebolaget L M Ericsson (Publ) Method and system for using an electronic reading device as a general application input and navigation interface
US6813396B1 (en) * 2000-02-16 2004-11-02 Telefonatiebolaget L.M. Ericsson (Publ) Method for sharing information between electronic reading devices
US6593908B1 (en) 2000-02-16 2003-07-15 Telefonaktiebolaget Lm Ericsson (Publ) Method and system for using an electronic reading device on non-paper devices
US6952497B1 (en) 2000-02-16 2005-10-04 Telefonaktiebolaget L M Ericsson (Publ) Method and system for electronically recording transactions and performing security function
US6839623B1 (en) 2000-02-16 2005-01-04 Telefonaktiebolaget Lm Ericsson (Publ) Positioning applications for an electronic reading device
US6992655B2 (en) 2000-02-18 2006-01-31 Anoto Ab Input unit arrangement
US7054487B2 (en) 2000-02-18 2006-05-30 Anoto Ip Lic Handelsbolag Controlling and electronic device
US6839453B1 (en) 2000-05-16 2005-01-04 The Upper Deck Company, Llc Method and apparatus for authenticating unique items such as sports memorabilia
DE10034284A1 (en) * 2000-07-14 2002-01-24 Siemens Ag Input device for handwriting recognition for an electronic information and communication system and method for acquiring input data
KR20030017924A (en) * 2001-08-25 2003-03-04 윤덕기 A pan type wireless beem mouse
KR100461769B1 (en) * 2001-10-31 2004-12-14 삼성전자주식회사 Stylus with exterior-type camera lens module and portable telephone therewith
US9024880B2 (en) 2004-08-11 2015-05-05 Pixart Imaging Inc. Interactive system capable of improving image processing
TWI236289B (en) 2004-08-11 2005-07-11 Pixart Imaging Inc Interactive device capable of improving image processing
CN2738325Y (en) * 2004-10-15 2005-11-02 段西京 Photoelectrical pen type mouse
WO2006107245A1 (en) * 2005-04-05 2006-10-12 Lk Innovatronic Method to control a display
US7996589B2 (en) 2005-04-22 2011-08-09 Microsoft Corporation Auto-suggest lists and handwritten input
US8054512B2 (en) 2007-07-30 2011-11-08 Palo Alto Research Center Incorporated System and method for maintaining paper and electronic calendars
CN107037891A (en) * 2015-08-19 2017-08-11 原建桥 A kind of combined type computer mouse

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4797544A (en) * 1986-07-23 1989-01-10 Montgomery James R Optical scanner including position sensors
US4804949A (en) * 1987-03-20 1989-02-14 Everex Ti Corporation Hand-held optical scanner and computer mouse

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003523572A (en) * 2000-02-18 2003-08-05 アノト・アクティエボラーク Configuration of input unit
WO2004019198A1 (en) * 2002-08-26 2004-03-04 Taizo Saito Pen-type computer input device
JP2010518504A (en) * 2007-02-08 2010-05-27 アイエスブイ カンパニー リミテッド Optical pen-type mouse capable of adjusting the size of display object and method for adjusting the size of display object using the optical pen-type mouse

Also Published As

Publication number Publication date
IL139104A0 (en) 2001-11-25
AU758036B2 (en) 2003-03-13
KR20010052282A (en) 2001-06-25
CN1152296C (en) 2004-06-02
CN1303495A (en) 2001-07-11
WO1999060468A1 (en) 1999-11-25
AU4179499A (en) 1999-12-06
EP1073944A1 (en) 2001-02-07
BR9910083A (en) 2000-12-26
CA2331073A1 (en) 1999-11-25

Similar Documents

Publication Publication Date Title
JP2002516428A (en) Input device, method of using the same, and input system
US6906699B1 (en) Input unit, method for using the same and input system
US6525306B1 (en) Computer mouse with integral digital camera and method for using the same
US20110234497A1 (en) Computer peripheral for scanning
US7072081B2 (en) Compact portable 2D/ 3D image capture system
JP2003174578A (en) Electronic camera, image display device and image display method
CN112135034A (en) Photographing method and device based on ultrasonic waves, electronic equipment and storage medium
EP1573500B1 (en) Projection apparatus and image acquisition method
AU758514B2 (en) Control device and method of controlling an object
JP2006098250A (en) Car navigation system
US20210124424A1 (en) Method for controlling camera and electronic device therefor
JP2002516427A (en) Device and method for recording handwritten information
JP2002514021A (en) Device for recording information in different modes
US6715686B1 (en) Device for recording information in different modes
MXPA00010541A (en) Input unit, method for using the same and input system
JP2002109517A (en) Digitizer and information processing system
SE513940C2 (en) Unit and input system with mouse function and input function and ways to use the unit
EP1073990A1 (en) Device for recording information in different modes
JP2001033541A (en) Distance detecting device and its distance display method
MXPA00010548A (en) Device and method for recording hand-written information
JP2002132444A (en) Mouse
SE511855C2 (en) Handwritten character recording device for characters, symbols, graphs, calligraphy
JPH04109353A (en) Small computer provided with image reader
JP2004320535A (en) Electronic apparatus
JPH07154543A (en) Picture read unit and picture equipment able to mount the picture read unit