JP6208718B2 - Dynamic placement on-screen keyboard - Google Patents
Dynamic placement on-screen keyboard Download PDFInfo
- Publication number
- JP6208718B2 JP6208718B2 JP2015142348A JP2015142348A JP6208718B2 JP 6208718 B2 JP6208718 B2 JP 6208718B2 JP 2015142348 A JP2015142348 A JP 2015142348A JP 2015142348 A JP2015142348 A JP 2015142348A JP 6208718 B2 JP6208718 B2 JP 6208718B2
- Authority
- JP
- Japan
- Prior art keywords
- key
- touch
- virtual keyboard
- keys
- user input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 54
- 230000015654 memory Effects 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 3
- 238000004587 chromatography analysis Methods 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 76
- 230000008569 process Effects 0.000 description 32
- 238000004422 calculation algorithm Methods 0.000 description 25
- 230000009471 action Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000001994 activation Methods 0.000 description 3
- 238000013499 data model Methods 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000005574 cross-species transmission Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
- G06F3/04895—Guidance during keyboard input operation, e.g. prompting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、イベント作動を引き起こさずユーザが手または指を表面に載置できる滑らか
なタッチ感応表面に関する。より具体的に、タッチ表面はテキストやコマンドを入力する
ため使用されるオンスクリーンキーボードを提示するダイナミックディスプレイである。
The present invention relates to a smooth touch-sensitive surface that allows a user to place a hand or finger on the surface without causing event actuation. More specifically, the touch surface is a dynamic display that presents an on-screen keyboard that is used to enter text and commands.
人から機械へテキストやデータを入力する主要な手段としての現代のキーボードの起源
は、19世紀の初期タイプライタにまで遡る。コンピュータの開発にともない、テキスト
やデータを入力する主要な手段として使用するタイプライタキーボードを改良することは
自然な発展であった。タイプライタとその後のコンピュータキーボードにおけるキーの実
装は機械的実装から電気的実装に進化し、最終的には電子的実装へと進化したが、キー自
体のサイズと配置と機械的性質は殆ど変わっていない。
The origin of modern keyboards as the primary means of entering text and data from man to machine dates back to the early typewriters of the 19th century. With the development of computers, it was a natural development to improve the typewriter keyboard used as the main means for inputting text and data. The implementation of keys on typewriters and subsequent computer keyboards has evolved from mechanical to electrical and eventually to electronic, but the size, layout, and mechanical properties of the keys themselves have largely changed. Absent.
コンピュータは「デスクトップ」構成から「ラップトップ」、「ノートブック」、「ネ
ットブック」、または「ポータブル」として知られる、よりポータブルな構成へと進化し
た。ラップトップコンピュータには通常、装置の一部として機械式キーボードが一体化さ
れている。この種の一体型キーボードには、デスクトップコンピュータとともに通常使用
される単独型キーボードにサイズと感触が似ているという利点がある。ただし、キーボー
ドを組み込むことにより、ポータブルコンピュータはディスプレイとキーボードという2
つの部分を有する。殆どのポータブルコンピュータ機種は「折り畳み」設計を採用してお
り、キーボード部分は基部を形成し、ディスプレイ部分は蓋を形成している。ポータブル
コンピュータにキーボードが存在することで、ポータブルコンピュータのサイズは本来あ
るべきサイズのほぼ2倍になる。
Computers have evolved from a “desktop” configuration to a more portable configuration known as a “laptop”, “notebook”, “netbook”, or “portable”. Laptop computers typically have an integrated mechanical keyboard as part of the device. This type of integrated keyboard has the advantage that it is similar in size and feel to a stand-alone keyboard typically used with desktop computers. However, by incorporating a keyboard, a portable computer has a display and a keyboard.
Has one part. Most portable computer models employ a “folding” design, where the keyboard part forms the base and the display part forms the lid. The presence of a keyboard in a portable computer makes the size of the portable computer almost twice the size it should be.
過去10年間に「タブレット」コンピュータと一般的に呼ばれる新しいポータブル計算
装置の形が登場している。通常、この種のポータブル計算装置は一体化キーボードを持た
ない代わりに、主要なヒューマン・コンピュータ・インターフェイス手段としてタッチに
専ら依存する。多くの人々は、日常生活に浸透しているタブレットとゆくゆくは「タッチ
表面」が将来的に人が「コンピュータ」とやり取りする標準的手段になると考えている。
In the past decade, a new form of portable computing device, commonly referred to as a “tablet” computer, has emerged. Typically, this type of portable computing device relies solely on touch as the primary human computer interface means instead of having an integrated keyboard. Many people believe that tablets and eventually “touch surfaces” that permeate everyday life will become the standard way for people to interact with “computers” in the future.
この新しいタッチ中心コンピューティングのパラダイムには多くの利点があるが、1つ
の顕著な短所はキーボードの不在である。タッチスクリーンコンピュータには外付け周辺
キーボードを通常接続できるが、外付け周辺キーボードは装置の趣旨にそぐわないもので
あり、従来のラップトップコンピュータを凌ぐタッチスクリーンコンピュータの利点が打
ち消されてしまう。
While this new touch-centric computing paradigm has many advantages, one notable disadvantage is the absence of a keyboard. An external peripheral keyboard can usually be connected to the touch screen computer, but the external peripheral keyboard is not suitable for the purpose of the apparatus, and the advantages of the touch screen computer over the conventional laptop computer are negated.
計算装置の進化はタッチ方式ユーザインターフェイスを目指しており、キーボードの着
想の自然な進化として、キーボードはコンピュータディスプレイの仮想世界に組み込まれ
るようになった。
The evolution of computing devices is aimed at touch-type user interfaces, and as a natural evolution of the keyboard concept, the keyboard has been incorporated into the virtual world of computer displays.
Auerらは米国特許第4,725,694号で、模擬キーボードの1つ以上の画像が
コンピュータのタッチ感応画面に表示され、模擬キーのタッチに応じてしかるべき制御信
号が生成されるシステムを説明している。このコンセプトのその後の改良版では、キーボ
ードの画像が画面の専用部分を占有するのではなく、コンピュータで実行する他のアプリ
ケーションの上に表示され浮動する。ユーザはカーソルポインタを重ねることにより、ま
たは指またはスタイラスを使用しタッチスクリーンを介してキーに直接タッチすることに
より、この「オンスクリーンキーボード」または「仮想キーボード」を操作する。
Auer et al., In US Pat. No. 4,725,694, describe a system in which one or more images of a simulated keyboard are displayed on a touch sensitive screen of a computer and appropriate control signals are generated in response to the touch of a simulated key. doing. In a later refinement of this concept, the keyboard image does not occupy a dedicated portion of the screen, but is displayed and floated on top of other applications running on the computer. The user operates this “on-screen keyboard” or “virtual keyboard” by overlaying the cursor pointer or by directly touching a key via the touch screen using a finger or stylus.
オンスクリーンキーボードは、例えばAuerによって説明されたオンスクリーンキー
ボードは、一部の公共情報キオスク、個人用デジタル補助装置(PDA)、スマートフォ
ン、タブレット、物理的キーボードを収容できないほど小さい他の手持ち型コンピュータ
等、標準キーボードを欠く装置で主に使用されている。オンスクリーンキーボードは、肉
体的な問題があって従来の電気機械式キーボードを使えない人々にもしばしば利用されて
いる。
On-screen keyboards, for example as described by Auer, are some public information kiosks, personal digital assistants (PDAs), smartphones, tablets, other handheld computers that are too small to accommodate a physical keyboard, etc. Mainly used in devices lacking a standard keyboard. On-screen keyboards are often used by people who have physical problems and cannot use conventional electromechanical keyboards.
PDAやスマートフォンのような小さいタッチスクリーン装置には、従来のタッチタイ
ピング法により複数の指を使ってオンスクリーンキーボードでタイプすることができるに
あたって十分な画面サイズがない。その結果、多数の発明は従来のキーボードレイアウト
より必要な物理的スペースが小さい代替テキスト入力方法の提供に努めてきた。
Small touch screen devices such as PDAs and smartphones do not have enough screen size to be able to type on an on-screen keyboard using multiple fingers by conventional touch typing methods. As a result, many inventions have sought to provide alternative text input methods that require less physical space than conventional keyboard layouts.
Groverらは米国特許第5,818,437号で、各キーに複数の文字を割り当て
ることによって必要な個別のキー数を減らすシステムを説明している。これによりキーの
数は減り、画面上に占めるスペースは小さくなる。このほかに、同様にオンスクリーンキ
ーボードのサイズを縮小すること、および/または小さい画面でテキストの入力を容易に
すること、を目指す他の発明は、Leeの米国特許第6,292,179号、Kaehl
erの米国特許第5,128,672号、Vargasの米国特許第5,748,512
号、Niemeierの米国特許5,547,482号、Van Kleeckの米国特
許第6,008,799号、およびPerlinの米国特許第6,031,525号を含
む。
Grover et al., US Pat. No. 5,818,437, describes a system that reduces the number of individual keys required by assigning multiple characters to each key. This reduces the number of keys and reduces the space occupied on the screen. In addition, another invention that aims to reduce the size of the on-screen keyboard and / or facilitate text entry on a small screen is also disclosed by Lee US Pat. No. 6,292,179, Kaehl
er US Pat. No. 5,128,672, Vargas US Pat. No. 5,748,512
No. 5, Niemeier US Pat. No. 5,547,482, Van Kleeck US Pat. No. 6,008,799, and Perlin US Pat. No. 6,031,525.
これらの発明には小さいオンスクリーンキーボードでテキストを入力する上で様々な利
点があるが、従来のキーボードでの標準「10指」タイピングに匹敵する速度でテキスト
を入力することはできない。
While these inventions have various advantages in entering text with a small on-screen keyboard, they cannot enter text at a speed comparable to standard “10-finger” typing on a conventional keyboard.
タイピング速度を加速するため、Robinsonらは米国特許第7,277,088
号で、曖昧排除アルゴリズムにより、ユーザがオンスクリーンキーボードのキーで語の各
文字をさほど正確に選ばなくてもよくするシステムを説明している。さほど正確でなくて
もよいため、ユーザは速くタイプできる。
To accelerate typing speed, Robinson et al., US Pat. No. 7,277,088.
Describes a system in which the disambiguation algorithm does not require the user to select each letter of a word with the keys of an on-screen keyboard. Since it doesn't have to be very accurate, the user can type quickly.
Kushlerらは米国特許第7,098,896号で、1本の指(またはスタイラス
)でテキストを入力できるシステムを説明している。このシステムでユーザは所望の語の
最初の文字を表すキーに指を下し、タッチ表面に接触したまま語の続きの各文字のキーへ
指をスライドさせる。これには、文字ごとにオンスクリーンキーボードで指を上げ下げす
る動作を解消してテキスト入力を加速するという利点がある。曖昧排除アルゴリズムによ
りユーザはさほど正確に文字を選ばなくてもよく、速度はさらに加速する。
Kuschler et al., US Pat. No. 7,098,896, describes a system that allows text to be entered with one finger (or stylus). With this system, the user places his finger on the key representing the first letter of the desired word and slides the finger onto the key of each letter in the word while touching the touch surface. This has the advantage of accelerating text input by eliminating the action of raising and lowering the finger on-screen keyboard for each character. The disambiguation algorithm does not require the user to select a character so accurately, and the speed is further accelerated.
スマートフォンで最速タイピングの世界記録を設定するため、Kushlerらによっ
て説明された技術を実用化したSwype(登録商標)が使用された。新記録達成者は規
定の語句を毎分61語の速度で入力した。注目に値する速度だが、これは1指入力による
ものであり、10指タイピングで可能な最高速度を大きく下回る。
In order to set the world record of the fastest typing on a smartphone, Swiss (registered trademark), which has put the technology described by Kushler et al. Into practical use, was used. The new record achiever entered the prescribed words at a rate of 61 words per minute. This is a remarkable speed, but this is due to one finger input, well below the maximum speed possible with 10 finger typing.
別のアプローチでは音声認識システムを使用し、発声によりテキストを入力する。この
技術は最近大幅に進歩したが、たとえ100%正確に機能したとしても、ユーザが発声に
よるテキスト入力を望まない場合は多々ある(可聴範囲内で他人への配慮やプライバシー
が求められる場合等)。したがって、ある種のキーボードの理論的枠組みでテキストを入
力する代替方法は引き続き求められる。
Another approach uses a speech recognition system and inputs text by utterance. Although this technology has made significant progress recently, even if it works 100% correctly, there are many cases where the user does not want to input text by speaking (such as when consideration for others or privacy is required within the audible range). . Thus, there remains a need for alternative ways of entering text in some keyboard theoretical framework.
10指タイピングが可能な大きいタッチスクリーンの場合は、従来のキーボードで習得
されたタイピングスタイルにほぼ匹敵する迅速なテキスト入力方法を見つけることが望ま
れる。それには3つの重要課題がある。第1に、10指オンスクリーンキーボードに要求
される比較的大きいディスプレイ面積を克服しなければならない。第2に、機械式キーボ
ードで一般的な触覚フィードバックの欠如を克服しなければならない。第3に、ユーザが
従来の電気機械式キーボードで通常やるようにオンスクリーンキーボードの「ホーム列(
home-row)」位置に指を載置できるようにしなければならない。
For large touch screens capable of 10-finger typing, it is desirable to find a quick text input method that is roughly comparable to the typing style learned with conventional keyboards. There are three important issues. First, the relatively large display area required for a 10-finger on-screen keyboard must be overcome. Second, the lack of haptic feedback that is common with mechanical keyboards must be overcome. Thirdly, the “home row” of the on-screen keyboard, as a user would normally do with a conventional electromechanical keyboard (
home-row) "position must be able to place a finger.
Marsdenらは米国特許出願第2009/0073128号で、ユーザがタッチ感
応表面に指を載置することを可能にすることにより、また互いに相関的に機能するタッチ
センサと振動センサを使用し目的とするキー押下を検出することにより、問題を克服して
いる。ただしこの方法では、キーボードのキーが固定位置にあり、ポータブル装置のダイ
ナミックディスプレイでかなりのスペースを占める。また、キーの位置が固定されている
ため、ユーザは指が正しい場所をタップしていることを確認するため注意を払わなければ
ならない。キーのぎざぎざ等の触覚マーカは、ユーザがキーを見ずに感じるのに役立つ。
ただし、タッチスクリーン装置に触覚マーカを配置することは実際的でない。
Marsden et al. In US Patent Application No. 2009/0073128 aims to use touch and vibration sensors that function by allowing the user to place a finger on a touch-sensitive surface and also in correlation with each other. The problem is overcome by detecting key presses. However, with this method, the keyboard keys are in a fixed position and take up considerable space on the dynamic display of the portable device. Also, since the key position is fixed, the user must pay attention to confirm that the finger is tapping the correct location. Tactile markers such as jagged keys help the user feel without looking at the keys.
However, it is not practical to place a tactile marker on the touch screen device.
従来の電気機械式キーボードは長年にわたり「ホーム列」のコンセプトを採用してきた
。ホーム列とは、ユーザがタイピングに取り掛かるときに指を向け載置するキーである。
このコンセプトは特に、キーを見ずに10本の指でタイプすることを習得したユーザにと
って重要である。ホーム列に置くことにより(ホーム列上の特定のキーに見られる専用「
マーカ」を使用することを含む)、ユーザは所望の文字、記号、数字、または機能をタイ
プするにあたって指をどこへ動かすべきかを知る。このためユーザは指を見ずに速やかに
タイプでき、作文に集中できる。
Traditional electromechanical keyboards have adopted the “home row” concept for many years. The home column is a key for placing a finger toward the user when he / she starts typing.
This concept is particularly important for users who have mastered typing with 10 fingers without looking at the keys. By placing it in the home column (a dedicated “
Including using a “marker”), the user knows where to move his finger to type the desired letter, symbol, number, or function. Therefore, the user can type quickly without looking at the finger, and can concentrate on writing.
今日の社会におけるコンピュータ、eメール、およびテキストメッセージングの普及に
より、(タイピング授業の対象者が秘書の仕事を目指す人々に限られていた)一世代前よ
り「タッチタイパー」の割合は増加した。事実、現在ではしばしば幼い子どもの教育課程
の早期にキーボード技能が指導されている。10指(「タッチ」)タイピングは今なお最
も速く最も確実な周知の作文方法である。
The prevalence of computers, e-mail, and text messaging in today's society has increased the percentage of “touch typers” over the last generation (who were subject to typing classes were limited to those seeking secretarial work). In fact, keyboard skills are often taught early in the curriculum of young children. Ten-finger (“touch”) typing is still the fastest and most reliable known writing method.
本発明は、ユーザがタッチ感応画面に表示されたオンスクリーンキーボードのキーに指
を載置することを可能にし、且つオンスクリーンキーボードの位置、向き、形、およびサ
イズを動的に規定する、システムおよび方法を提供する。ユーザがキーに指を置くため注
意を払うのではなく(通常は前記キーの触覚マーカを頼りに指を置く)、システムはユー
ザの指が既に載置されている場所へオンスクリーンキーボードの位置を動的に移動させる
。
The present invention allows a user to place a finger on a key of an on-screen keyboard displayed on a touch-sensitive screen, and dynamically defines the position, orientation, shape, and size of the on-screen keyboard And providing a method. Rather than paying attention to the user placing a finger on the key (usually placing the finger on the key's tactile marker), the system moves the on-screen keyboard to the location where the user's finger is already placed. Move dynamically.
本発明の一態様において、プロセスは「ホーム列規定イベント」を定義する。ホーム列
規定イベントはユーザによって遂行される行為であり、これをもとにシステムはオンスク
リーンキーボードのホーム列の位置を再規定する。この位置はユーザの行為に基づき動的
に設定される。
In one aspect of the invention, the process defines a “home column definition event”. The home row definition event is an action performed by the user, and based on this, the system redefines the position of the home row of the on-screen keyboard. This position is dynamically set based on the user's action.
本発明の別の態様において、ホーム列規定イベントは、ユーザが所定の時間(例えば1
秒)にわたり両手の全4本の指をタッチ感応表面に同時に載置することと、定義される。
In another aspect of the invention, the home column definition event is generated by the user for a predetermined time (eg, 1
Defined as placing all four fingers of both hands simultaneously on the touch-sensitive surface for a second).
本発明のさらに別の態様において、ホーム列規定イベントは、ユーザがタッチ感応表面
で両手の全4本の指をダブルタップし、2回目のタップの後に指を表面に載置することと
、定義される。
In yet another aspect of the present invention, the home column definition event is defined as a user double-tapping all four fingers of both hands on a touch-sensitive surface and placing the finger on the surface after the second tap. Is done.
本発明のさらに別の態様において、ホーム列規定イベントは、ユーザが両手の全4本の
指をタッチ感応表面に同時に載置し、その後瞬間的に指を押し付けることと、定義される
。
In yet another aspect of the invention, a home column definition event is defined as a user placing all four fingers of both hands simultaneously on a touch sensitive surface and then pressing the fingers instantaneously thereafter.
これらの行為(ならびに他の行為)はユーザによって開始され、ユーザの指がホーム列
載置位置にあることをシステムに伝える。その後、本発明のシステムはオンスクリーンキ
ーボードを適当な方向に向ける。尚、ホーム列のキーは必ずしも連続線上に並ぶわけでは
ない(殆どの電気機械式キーボードでホーム列のキーは連続線上に並ぶ)。ホーム列の各
キーの位置は、タッチセンサによって感知されるホーム列規定イベントのときのユーザの
8本の指の配置によって規定され、「ホーム列載置キー」ではないキーの位置は推定され
る。したがってホーム列は、それぞれの手の配置に応じて2つの別々の線に沿って並ぶこ
とがあり、2つの曲線を形成することさえある。
These actions (as well as other actions) are initiated by the user and tell the system that the user's finger is in the home row placement position. The system of the present invention then directs the on-screen keyboard in the appropriate orientation. Note that the home row keys are not necessarily arranged on a continuous line (the home row keys are arranged on a continuous line in most electromechanical keyboards). The position of each key in the home row is defined by the arrangement of the user's eight fingers at the home row definition event sensed by the touch sensor, and the position of the key that is not the “home row placement key” is estimated. . Thus, the home row may line up along two separate lines depending on the placement of each hand and even form two curves.
この方法で、本発明のシステムは、ユーザがタッチ感応ディスプレイ表面に指を下して
載置することと、ユーザが仮想キーをタップすることによってタイプしようとすることと
を、区別する必要がある。かかる方法はMarsdenの米国特許出願第2009/00
73128号で説明されている。
In this way, the system of the present invention needs to distinguish between the user placing his finger down on the touch-sensitive display surface and the user trying to type by tapping a virtual key. . Such a method is described in Marsden US Patent Application No. 2009/00.
73128.
ホーム列規定イベントが起こるとシステムは様々な方法でユーザにフィードバックを提
供する。本発明の一態様において、システムはユーザの指の下にオンスクリーンキーボー
ドを表示することによって視覚的なフィードバックを提供する。本発明の別の態様におい
て、システムは可聴合図を提供する。本発明のさらに別の態様において、システムはタッ
チスクリーンを瞬間的に振動させる。
When a home queue definition event occurs, the system provides feedback to the user in various ways. In one aspect of the invention, the system provides visual feedback by displaying an on-screen keyboard under the user's finger. In another aspect of the invention, the system provides an audible cue. In yet another aspect of the invention, the system momentarily vibrates the touch screen.
本発明の一態様において、オンスクリーンキーボードは、ユーザの選好に従い、タイピ
ングが行われている間は連続的に可視状態を保つ。あるいは、オンスクリーンキーボード
はホーム列規定イベントの後に透明になる。本発明の別の態様において、オンスクリーン
キーボードは半透明となり、ユーザはキーボードを通して下の画面内容を見ることができ
る。
In one aspect of the present invention, the on-screen keyboard remains visible while typing is being performed according to user preferences. Alternatively, the on-screen keyboard becomes transparent after the home row definition event. In another aspect of the invention, the on-screen keyboard is translucent and the user can see the screen content below through the keyboard.
本発明のさらに別の態様において、オンスクリーンキーボードはユーザがタイプしてい
るときに可視状態と不可視状態を繰り返す。ユーザが「隠れた」オンスクリーンキーボー
ドをタップするたびにオンスクリーンキーボードは一時的に現れ、ユーザ設定可能時間後
に徐々に消える。
In yet another aspect of the invention, the on-screen keyboard repeats visible and invisible states as the user is typing. Each time the user taps a “hidden” on-screen keyboard, the on-screen keyboard appears temporarily and gradually disappears after a user configurable time.
本発明のさらに別の態様では、特定のキーだけがキーストロークの後に可視となる。一
時的に可視となるキーは、直前のテキスト入力作業の後に続く見込みが最も高いキーであ
る(システムに蓄積された語および文字データベースに基づき判断)。
In yet another aspect of the invention, only certain keys are visible after a keystroke. The key that is temporarily visible is the key that is most likely to follow the previous text entry task (determined based on word and character databases stored in the system).
本発明のさらに別の態様では、ホーム列位置に指を載置しているユーザが載置している
指で表面を押すと、オンスクリーンキーボードが一時的に可視となる。
In yet another aspect of the present invention, the on-screen keyboard becomes temporarily visible when the user placing the finger at the home row position presses the surface with the placed finger.
本発明のさらに別の態様では、ユーザがタッチセンサ領域の外側の囲いの端でダブルタ
ップやトリプルタップ等の所定の動作を行うと、オンスクリーンキーボードが可視となる
。
In yet another aspect of the present invention, the on-screen keyboard becomes visible when the user performs a predetermined operation such as a double tap or a triple tap at the outer edge of the touch sensor area.
本発明の一態様において、ホーム列載置キーはそれぞれの手の4本の指が載置される8
個のキーと定義される。本発明のさらに別の態様では、全8本の指を使用しないユーザに
対処するため、載置キーは8個のキーより少なくてよい。
In one aspect of the present invention, the home row placement key has 8 fingers placed on each hand 8.
Defined as keys. In yet another aspect of the invention, there are fewer placement keys than eight keys to accommodate users who do not use all eight fingers.
本発明の別の態様において、システムは、意図された方向での特定の指の動きに従って
意図されたキーを絞り込む。例えばユーザは薬指を上げ、やや下に動かし、タップする。
ユーザの指の動きが十分でなく隣接キーの仮想位置に達しなかったとしても、ユーザは載
置位置から設定可能な閾距離で指を動かし、隣接キーの方向にタップしたのだから、ユー
ザの意図は明らかに隣接キーを選ぶことであった。この例では隣接キーでタップが行われ
なかったとしても、システムは隣接キーを選択する。
In another aspect of the invention, the system narrows down the intended key according to a particular finger movement in the intended direction. For example, the user raises the ring finger, moves it slightly down, and taps it.
Even if the user's finger movement was not enough and the virtual position of the adjacent key was not reached, the user moved the finger at a settable threshold distance from the placement position and tapped in the direction of the adjacent key. Was obviously to choose an adjacent key. In this example, the system selects the adjacent key even if the adjacent key is not tapped.
本発明の別の態様において、システムは直前のテキストに基づき各キーが選択される確
率を調整する。ユーザがタップする見込みが最も高いキーを判断するため、この確率は以
前の段落で説明したタップ位置アルゴリズムとともに使用される。
In another aspect of the invention, the system adjusts the probability that each key is selected based on the immediately preceding text. This probability is used in conjunction with the tap position algorithm described in the previous paragraph to determine the key that the user is most likely to tap.
本発明のさらに別の態様において、システムはオンスクリーンキーボードでタイプする
「ユーザの漂動(drift)」を自動的に計上する。各キーの感触がないため、ユーザの手
はタイピングのときに僅かにずれやすい。システムは、意図されたキーの中心をユーザが
タップした実際の位置と比較することによってこの挙動を追跡する。連続するキーイベン
トのスペースで一貫した漂動が検出されると、システムはその漂動に対処するためキーの
位置をずらす。この場合もやはり、ユーザがキーの位置に注意を払うのではなく、システ
ムはユーザの指が既に置かれている場所にキーを移動させる。
In yet another aspect of the present invention, the system automatically accounts for “user drift” typing on the on-screen keyboard. Since there is no touch of each key, the user's hand tends to shift slightly when typing. The system tracks this behavior by comparing the intended key center with the actual position tapped by the user. When a consistent drift is detected in the space of successive key events, the system shifts the key position to deal with the drift. Again, rather than the user paying attention to the position of the key, the system moves the key to where the user's finger is already placed.
ユーザが遠く漂動しタッチ感応領域から外れると、システムは可聴、可視、および/ま
たは振動合図によりユーザに警告する。
As the user drifts far away from the touch sensitive area, the system alerts the user with an audible, visible, and / or vibrational cue.
本発明の別の態様において、方法およびシステムはポータブル計算装置の表面、タッチ
センサ境界外で、ユーザのタップを監視する。例えばユーザは、スペースバー作動を指示
するため装置の囲いの端をタップするかもしれない。他のタップイベントと同様、システ
ムはタッチセンサと振動センサからの信号を相関してタップ位置を判断する。タッチセン
サによって信号の不在が検出されると、システムはそのイベントを「外部タップ」(すな
わち装置の表面、タッチセンサ境界外でのタップ)として認識する。外部タップは囲いに
おけるその位置に応じて一意な振動波形を生成する。これらの波形の特性はデータベース
に蓄積され、外部タップの凡その位置を一意に識別するため使用される。識別された外部
タップはキーボード機能(スペース、バックスペース等)に割り当てることができる。
In another aspect of the invention, the method and system monitor a user's taps on the surface of the portable computing device, outside the touch sensor boundary. For example, the user may tap the end of the device enclosure to indicate a space bar operation. As with other tap events, the system correlates signals from the touch sensor and vibration sensor to determine the tap position. When the absence of a signal is detected by the touch sensor, the system recognizes the event as an “external tap” (ie, a tap on the surface of the device, outside the touch sensor boundary). The external tap generates a unique vibration waveform depending on its position in the enclosure. These waveform characteristics are stored in a database and used to uniquely identify the approximate location of the external tap. The identified external taps can be assigned to keyboard functions (space, backspace, etc.).
下記図面を参照し本発明の好適な例と代替例を以下に詳細に説明する。 The preferred and alternative embodiments of the present invention are described in detail below with reference to the following drawings.
図1は、英数字入力のための適応型オンスクリーンキーボードユーザインターフェイス
を提供する例示的装置100のブロック図である。装置100は、CPU(プロセッサ)
110へ入力を提供する1つ以上のタッチセンサ120を含む。タッチセンサ120は、
表面がタッチされるときにプロセッサ110に接触イベントを通知する。一実施形態にお
いて、タッチセンサ120またはプロセッサ110はハードウェアコントローラを含み、
ハードウェアコントローラはタッチセンサ120によって生成される原信号を解釈し、公
知の通信プロトコルを使用し使用可能なデータポートを通じてプロセッサ110へ情報を
伝達する。装置100は1つ以上の振動センサ130を含み、振動センサ130は、タッ
チセンサ120と同様に、表面がタップされるときにプロセッサ110へ信号を伝達する
。プロセッサ110は、センサ120、130から受信する信号に基づきディスプレイ1
40(タッチ表面)上に提示されるキーボード画像を生成する。ユーザにしかるべき聴覚
信号を案内として送るため(例えばエラー信号)、プロセッサ110にはスピーカ150
も結合されている。ユーザにしかるべき触覚フィードバックを提供するため(例えばエラ
ー信号)、プロセッサ110にはバイブレータ155も結合されている。プロセッサ11
0はメモリ160とデータ通信し、メモリ160は、一時ストレージおよび/または永久
ストレージの組み合わせ、読取専用および書込可能メモリ(ランダムアクセスメモリまた
はRAM)、読取専用メモリ(ROM)、フラッシュメモリ、ハードドライブ、フロッピ
ディスク等の書込可能不揮発性メモリ、その他を含む。メモリ160はプログラムメモリ
170を含み、プログラムメモリ170は、オペレーティングシステム171、適応型オ
ンスクリーンキーボード(「OSK」)ソフトウェアコンポーネント172、他の何らか
のアプリケーションプログラム173等、あらゆるプログラムおよびソフトウェアを含む
。メモリ160はデータメモリ180をも含み、データメモリ180は語データベース1
81と、ユーザオプションおよび選好の記録182と、装置100の何らかの素子に必要
な他の何らかのデータ183とを、含む。
FIG. 1 is a block diagram of an
One or more touch sensors 120 that provide input to 110 are included. The touch sensor 120
Notify the
The hardware controller interprets the original signal generated by the touch sensor 120 and communicates information to the
A keyboard image presented on 40 (touch surface) is generated. In order to send an appropriate auditory signal to the user as a guide (eg an error signal), the
Is also coupled. A
0 is in data communication with
81, a record of user options and
センサ120、130からの信号に基づきプロセッサ110によってホーム列イベント
が検出されると、プロセッサ110はディスプレイ140上でユーザの指の下に仮想オン
スクリーンキーボードを配置する。ユーザがタイプするにつれ、プロセッサ110はキー
作動ごとにユーザの指の配置とタップされた位置を絶えず監視し、オンスクリーンキーボ
ードをユーザがタイプする場所に位置付けるため、各キー(およびキーボード全体)の位
置、向き、およびサイズを調整する。これにより、オンスクリーンキーボードの当初の位
置からのユーザの指の「漂動」または動きを計上することできる。ユーザが一方向に遠く
漂動しタッチセンサ領域の端に達すると、プロセッサ110は可聴および/または触覚警
告を出力する。
When a home column event is detected by
ユーザは随時、ホーム列規定イベント(上記)を開始することによってオンスクリーン
キーボードの位置を手動で再割り当てできる。
At any time, the user can manually reassign the position of the on-screen keyboard by initiating a home column definition event (above).
一実施形態では、ユーザが「ホームキー」(典型的英語キーボードのFおよびJキー)
と一般的に呼ばれるキーの上に人さし指を置くと、バイブレータ155により触覚フィー
ドバックが提供される。一実施形態では、ユーザがキーの上に指を置くと左と右で若干異
なる振動数を使用し瞬時の振動が発せられる。このようにしてユーザはプロセッサ110
がオンスクリーンキーボードの位置を動的に変更することを選ばない場合に、手を固定ホ
ーム列位置に戻すことを選ぶことができる。別の実施形態において、これらの振動の強さ
は固定ホーム列のホームキーに対する指の位置に応じて変化できる。
In one embodiment, the user can enter a “home key” (F and J keys on a typical English keyboard)
When a forefinger is placed on a key commonly referred to as, a
If does not choose to dynamically change the position of the on-screen keyboard, it can choose to return the hand to a fixed home row position. In another embodiment, the intensity of these vibrations can vary depending on the position of the finger relative to the home key in the fixed home row.
装置100は、ユーザが指や仮想キーボードを見ずにタイプすることを可能にする。し
たがって、キーボードは常に見えなくてもよいということになる。このため貴重な画面ス
ペースを別の目的に使用できる。
The
一実施形態では、可視、部分的に可視、不可視、または半透明の状態でキーボードの外
観が変化する。ホーム列規定イベントが発生すると、またはユーザが設定可能な閾時間に
わたってタイプせず指を載置すると、フルキーボードが現れる。ユーザがタイプし始める
とキーボードは徐々に消え、ホーム列規定イベント、タイピングを休止すること、4本の
指を同時に押すこと、または一意に識別できる他の何らかのジェスチャを含み、ただしこ
れらに限定されない、行為のいずれか1つを、ユーザが遂行するまで、不可視となる。別
の実施形態において、キーボードは徐々に消え完全に不可視となるのではなく、半透明に
なるため、ユーザはキーの場所を見分けることができるばかりでなく、オンスクリーンキ
ーボードの「下」にある画面内容を見ることもできる。
In one embodiment, the appearance of the keyboard changes in a visible, partially visible, invisible, or translucent state. A full keyboard appears when a home row definition event occurs or a finger is placed without typing for a user settable threshold time. When the user begins to type, the keyboard gradually disappears, including but not limited to home row definition events, pausing typing, pressing four fingers simultaneously, or some other uniquely identifiable gesture, It becomes invisible until the user performs any one of the actions. In another embodiment, the keyboard disappears gradually and becomes completely invisible, rather than translucent, so that the user can not only see where the keys are, but also the screen “under” the on-screen keyboard. You can also see the contents.
一実施形態において、キーボードは、タップされたキーと、タップされたキーを取り囲
むキーを、一時的に「照らす」、またはタップされたキーからの距離に比例して半透明に
表示する。これによりキーボードのタップされた領域は短時間明るくなる。
In one embodiment, the keyboard temporarily “illuminates” the keys that are tapped and the keys surrounding the tapped keys, or displays translucently in proportion to the distance from the tapped keys. This brightens the tapped area of the keyboard for a short time.
一実施形態において、キーボードは、次に選択される確率が最も高いキーがその確率に
比例して発光することにより、「部分的に」可視となる。ユーザがあるキーをタップする
と直ちに、その後に続く見込みのある別のキーが可視または半可視となる。選択される見
込みが高いキーは視認されやすくなり、そうでないキーは視認されづらくなる。このよう
にしてキーボードは最も見込みのある次のキーにユーザを「案内」する。
In one embodiment, the keyboard is “partially” visible by causing the key with the highest probability of being selected next to illuminate in proportion to that probability. As soon as the user taps a key, another key that is likely to follow is visible or semi-visible. Keys that are likely to be selected are easily visible, and keys that are not likely to be selected are difficult to visually recognize. In this way, the keyboard “guides” the user to the next most probable key.
一実施形態では、ユーザがタッチ感応表面を取り囲む囲いの外縁でタップジェスチャ(
例えば素早く連続するダブルまたはトリプルタップ)を行うことにより、オンスクリーン
キーボードは一時的に可視となる。
In one embodiment, the user can tap gestures at the outer edge of the enclosure that surrounds the touch-sensitive surface.
By performing a quick continuous double or triple tap, for example, the on-screen keyboard becomes temporarily visible.
ユーザは、ユーザインターフェイスプログラムの選好設定を通じて様々なオンスクリー
ンキーボード視覚表示モードを選択できる。
The user can select various on-screen keyboard visual display modes through preference settings in the user interface program.
図2A−Fは装置100によって遂行される例示的プロセスを示す。図2A−Fに示す
フローチャートは例示の目的で使用され、本発明のソフトウェアを完全に詳述するもので
はない。
2A-F illustrate an exemplary process performed by
図2Aは、OSKソフトウェアコンポーネント172から提供される命令に基づきプロ
セッサ100によって実行されるプロセス200を示す。ブロック206でプロセス20
0が最初に開始されるときには、最小載置時間、指タッチ数閾値、漂動距離閾値、キー閾
値等の様々なシステム変数が初期化される。ブロック208で、プロセッサ250はタッ
チスクリーンの領域内で接触が起きたことを通知されるまで待つ。その後ブロック210
では、センサ120、130の1つ以上からの信号に基づきホーム列検出が行われる。ホ
ーム列検出については図2Bでより詳細に説明する。ブロック212では、これから表示
される仮想キーボードのキーの位置がセンサ信号に基づき判断される。キー位置判断につ
いては図2Cでより詳細に説明する。次にブロック216でキー作動が処理される(詳細
については図2DおよびEを参照されたい)。ブロック218では、ユーザの指の漂動が
センサ信号に基づき検出される。その後ブロック220では、ブロック210−218で
下された判断の少なくとも1つに基づきディスプレイ140に仮想キーボードが提示され
る。ユーザが8本の指を外し、その後タッチスクリーンに触れると、プロセス200が繰
り返される。
FIG. 2A shows a
When 0 is first started, various system variables such as minimum placement time, finger touch count threshold, drift distance threshold, and key threshold are initialized. At
Then, home row detection is performed based on signals from one or more of the
図2Bはホーム列検出プロセス210を示す。決定ブロック234で、プロセス210
はユーザが最小時間(すなわち最小載置閾値)にわたってタッチスクリーン上に指を載置
したか否かを判断する。決定ブロック236で、プロセス210は適当数の指がタッチ表
面上に載置されることにより、ホーム列規定イベントが始まるか否かを判断する。ブロッ
ク234または236で条件が満たされない場合、プロセス210はオンスクリーンキー
ボードの位置を変えずに終了する。
FIG. 2B shows the home
Determines whether the user has placed his / her finger on the touch screen for a minimum amount of time (ie, a minimum placement threshold). At
指の載置時間と指数の条件が満たされる場合、プロセッサ110は載置されている指の
位置を判断する。ブロック240を参照されたい。その後、ブロック242でKeySp
aceIndex(「KSI」)値が判断される。KSIは、ユーザの指のサイズと間隔
に合わせてオンスクリーンキーボードをカスタマイズするために使用される。
When the finger placement time and the index condition are satisfied, the
The aceIndex (“KSI”) value is determined. KSI is used to customize the on-screen keyboard to fit the user's finger size and spacing.
KSIは同じユーザであってもホーム列規定イベントのたびに変化することがある。一
実施形態では、それぞれの手の全4本の指がタッチ表面に載置されるとホーム列規定イベ
ントが始まる。この場合、KSIは次式によって与えられる。
The KSI may change at each home row regulation event even for the same user. In one embodiment, the home row definition event begins when all four fingers of each hand are placed on the touch surface. In this case, KSI is given by:
KSI=(平均載置キー間隔)/(モデル化公称間隔)=[(a+b+c)/3]/A=
(a+b+c)/3A
ここで、
A=キー間のモデル化公称距離(通常19mm)
a=載置キー1と載置キー2との間の測定距離
b=載置キー2と載置キー3との間の距離
c=載置キー3と載置キー4との間の距離
ホーム列規定イベントの開始に使用される載置指が4本に満たない場合は、KSI式を
相応に調整できる(データベースに蓄積された1セットのユーザ選好で規定)。KSIは
以降のプロセスで使用される。
KSI = (average placement key interval) / (modeled nominal interval) = [(a + b + c) / 3] / A =
(A + b + c) / 3A
here,
A = Modeled nominal distance between keys (usually 19mm)
a = Measurement distance between the
標準オンスクリーンキーボードのデータモデルはシステムのメモリに蓄積される。この
データモデルでオンスクリーンキーボードレイアウトは2つの部分に、すなわち右手で通
常タイプされるキーと、左手で通常タイプされるキーとに、分割される。さらに、各キー
は、その特定のキーをタイプする見込みが最も高い指によって載置されているホーム列載
置キーに関係付けられる(「関係載置キー」と定義)。データモデルでは各キーの位置が
その関係載置キーからの相対的測定値として規定される。
The standard on-screen keyboard data model is stored in system memory. In this data model, the on-screen keyboard layout is divided into two parts: a key normally typed with the right hand and a key normally typed with the left hand. In addition, each key is associated with a home row placement key placed by a finger that is most likely to type that particular key (defined as a “relevant placement key”). In the data model, the position of each key is defined as a relative measured value from its associated placement key.
各キーの位置を判断する例示的式は次の通りである。 An exemplary formula for determining the position of each key is as follows:
キー(x’,y’)=キーモデル(x*KSI,y*KSI)
ここで、
x=関係載置キー(RRK)の中心からの公称蓄積x距離
y=RRKの中心からの公称蓄積y距離
2つ以上のキーの修正キー位置が重なり合うことはあり得る。この場合、重なり合うキ
ーのサイズは重なり合いがなくなるまで縮小される。
Key (x ′, y ′) = Key model (x * KSI, y * KSI)
here,
x = nominal accumulated x distance from the center of the relational placement key (RRK) x = nominal accumulated y distance from the center of RRK It is possible that the modified key positions of two or more keys overlap. In this case, the size of the overlapping keys is reduced until there is no overlapping.
X−Y軸の向きは載置キーごとに別々に判断される。左右のセクタごとに、セクタ内の
載置キーに曲線が適合される。次に、各キーのX−Y軸は、キーの中心で曲線に対し正接
(x軸)および直交・正接(y軸)となるよう向けられる。
The orientation of the XY axes is determined separately for each placement key. For each left and right sector, a curve is fitted to the placement key in the sector. Next, the XY axes of each key are oriented to be tangent (x axis) and orthogonal / tangent (y axis) to the curve at the center of the key.
図2Cはキー位置割当プロセス212を示す。プロセス212はキーボードの各キーご
とに繰り返される。ブロック252では、[RestingKey,Δx,Δy]の形で
関連載置キー位置を基準とする予め蓄積された各キーの位置がデータベース181から引
き出される。例えば、文字「R」を表すキーは載置キーL1(通常は文字「F」)に関連
し、L1の左上に位置する。したがって、そのデータセットは[L1,−5,19](ミ
リメートル単位)となる。各キーにつき同様のデータがデータベース181から引き出さ
れる。ブロック254では、データベースから引き出されたオフセットにKSIを乗算す
ることによって各キーにつき新しい相対オフセットが計算される。ブロック258では、
ブロック254で求めた新しいオフセットを関連載置キーの絶対位置に加えることによっ
て各キーの絶対座標が求められる。決定ブロック260で、プロセス212はキーが重な
り合っているか否かを検査し、重なり合っている場合は、重なり合いをなくすためブロッ
ク262でキーのサイズと位置が調整される。その後、プロセス212はプロセス200
へ復帰する。
FIG. 2C shows a key
The absolute coordinates of each key are determined by adding the new offset determined in
Return to.
図2Dはキー作動処理プロセス216を示す。これにより実際のキーイベントが判断さ
れ、出力される。プロセス216は、有効なタッチ・タップ・イベントが発生したか否か
を検査する決定ブロック270で始まる。これは、Marsdenらの米国特許出願第2
009/0073128号で詳しく説明されているように、タッチセンサ120と振動セ
ンサ130との相関により判断される。ブロック272では、キー採点アルゴリズムを適
用することによって候補キーが採点される。次いで、得点が最も高いキーはブロック27
4で出力され、プロセス216は復帰する。
FIG. 2D shows the
As described in detail in No. 009/0073128, the determination is made based on the correlation between the touch sensor 120 and the
4 and
図2Eは、図2Dのブロック272からのキー採点アルゴリズムのプロセスを示す。ブ
ロック280では、ユーザのタップがどこで行われたかを判断し、近接するキーを「候補
キー」として規定するため、タッチセンサ120と振動センサ130によって受信される
信号が相関される。(タップが行われたキーのみならず)タップ領域を取り囲むキーを検
討することにより、プロセッサ110はユーザのタイピングスタイルの曖昧さを計上する
。決定ブロック282で、プロセス272はユーザがタイプするため載置キーから指を動
かしたか否かを検査する。尚、典型的なタイピングスタイルでは、たとえ10本の指でタ
ッチするタイピストでさえ全4本の指を常時絶えず載置するわけではない。したがって、
正しいキーがタイプされるため載置キーで変化が起こることは前提条件ではない。ただし
、候補キーの近くで載置キーの状態に変化が生じる場合は(またはこれが候補キーそのも
のである場合は)、ブロック284で説明するように、かかる変化から有用な情報を得る
ことができる。ブロック284では、状態変化が検出されたタップの近くにある載置キー
と、ブロック280で計算されたタップの位置との間で、仮想線が計算される。仮想線は
タップ位置を越えて延出する。ブロック284では、投影された線が通過するキーが判断
され、プロセッサ110はそれらのキーの得点を相応に増加させる。このようにしてタッ
プ位置が所望のキーの真上でなくても、そのキーの方向での相対的動きはそのキーに相関
される。ブロック288で、プロセッサ110はタイプされた先行の語および文字をデー
タメモリ181に蓄積された言語データに比較し、考慮に入れる。これは、文字対統計的
頻度(letter-pair statistical frequency)、部分一致予測(partial-match predictio
n)、語間予測(inter-word prediction)、語内予測(intra-word prediction)等、公
知の曖昧排除法(disambiguation method)を含む。それぞれの候補キーにはしかるべき
得点が割り当てられる。ブロック290では、ユーザの意図する選択の最高計算確率を表
す最高得点を持つ候補キーが判断され、プロセス272は復帰する。
FIG. 2E shows the process of the key scoring algorithm from
It is not a prerequisite that a change occurs with the placement key because the correct key is typed. However, if there is a change in the state of the placement key near the candidate key (or if this is the candidate key itself), useful information can be obtained from such change, as described in
n), including known disambiguation methods such as inter-word prediction and intra-word prediction. Each candidate key is assigned an appropriate score. At
図2Fは、ユーザがタイプするときに意図せず手を動かす(「漂動」)場合に対処する
漂動検出プロセス218を示す。ブロック300で、プロセス218は実際のタップ位置
を表示された目的キーの現在の中心に比較し、XおよびY座標の差をΔXおよびΔYとし
て蓄積する。ブロック302では、これらの差が以前のキーストロークからの以前の累計
に加えられる。決定ブロック304で、プロセッサ110はいずれかの方向での累積差が
「DriftThreshold」(データメモリ182に蓄積されたユーザ選好または
デフォルトデータから規定)と呼ばれる予め蓄積された変数を超過するか否かを検査する
。閾値を超過する場合、プロセッサ110はブロック308で最後の位置規定イベント以
降の全ΔXおよびΔYの平均によりキーボード全体の位置を移動させる。累積差がキーボ
ード全体のDriftThresholdを超過しない場合は、ブロック316で選択さ
れた個々のキーにつき同様の計算が行われる。ブロック318で、プロセッサ110はブ
ロック316の後に個々のキーの累積差がユーザ規定キー閾値を超過するか否かを検査し
、超過する場合はブロック320でその位置を調整する。キー閾値は、関連キーの現在位
置に比較したタップ位置の許容誤差である。キー閾値を超過した場合、関連キーは移動さ
れる。ブロック308の後、ブロック318の決定がいいえの場合、またはブロック32
0の後、プロセッサ110はブロック310で、新しい位置が他のキーと重なり合うか否
かを、またキーボード全体がタッチセンサの境界内にとどまっているか否かを、検査する
。いずれかの検査で衝突がある場合はブロック312で「ベストフィット」アルゴリズム
により衝突が是正され、終了する。衝突が見つからない場合、プロセス218は復帰する
。
FIG. 2F shows a
After 0, the
本発明の方法によりユーザはオンスクリーンキーボードが見えない状態でもタイプでき
るが、ユーザがキーを見たくなるときもある。例えば、ユーザが所望の文字に対応するキ
ーがどれなのか分からない場合、または特定の文字が独立した数字および/または記号層
にある場合である。別のユーザは各文字の位置を丸暗記してタイプできない場合もある。
このような、および他の理由から、装置の画面上にオンスクリーンキーボードを見えるよ
うに提示することは重要である。
The method of the present invention allows the user to type even when the on-screen keyboard is not visible, but sometimes the user may want to see the keys. For example, if the user does not know which key corresponds to the desired character, or if a particular character is in an independent number and / or symbol layer. Another user may not be able to type by memorizing the position of each character.
For these and other reasons, it is important to present an on-screen keyboard that is visible on the screen of the device.
蓄積されたユーザの選好に従い、オンスクリーンキーボードはタイピングが行われてい
る最中にも連続的に可視状態を保つことができる。あるいは、オンスクリーンキーボード
はホーム列規定イベントの後に透明になる。一実施形態において、オンスクリーンキーボ
ードは半透明となり、ユーザはキーボードを通して下の画面内容を見ることができる。
According to the stored user preferences, the on-screen keyboard can remain visible continuously while typing is in progress. Alternatively, the on-screen keyboard becomes transparent after the home row definition event. In one embodiment, the on-screen keyboard is translucent and the user can see the screen content below through the keyboard.
キーボードが不可視に設定される場合は、他の内容を全画面で表示できる。ボタン等の
他のアクティブなユーザインターフェイス要素が不可視のオンスクリーンキーボードの下
に位置する場合がある。この場合、装置100はそのような要素に向けられたユーザの入
力を傍受し、オンスクリーンキーボードを可視にし、それが実際に存在することをユーザ
に知らせる。そしてユーザは、キーボード上の該当するキーを押すことによってキーボー
ドを「片付ける」ことにすることができる。尚、キーボードを片付けることはキーボード
を不可視にすることと同じではない。キーボードを片付けることとは、タッチスクリーン
装置で一般的に行われるように、画面からキーボードを「最小化」することを意味する。
If the keyboard is set invisible, other content can be displayed in full screen. Other active user interface elements such as buttons may be located below the invisible on-screen keyboard. In this case, the
一実施形態において、オンスクリーンキーボードはユーザがタイプしているときに可視
状態と不可視状態を繰り返す。ユーザが「隠れた」オンスクリーンキーボードをタップす
るたびにオンスクリーンキーボードは一時的に現れ、ユーザ設定可能時間後に徐々に消え
る。
In one embodiment, the on-screen keyboard repeats visible and invisible states as the user is typing. Each time the user taps a “hidden” on-screen keyboard, the on-screen keyboard appears temporarily and gradually disappears after a user configurable time.
一実施形態では、特定のキーだけが各キーストローク後に可視となる。一時的に可視と
なるキーは、直前のテキスト入力作業の後に続く見込みが最も高いキーである(システム
に蓄積された語および文字データベースに基づき判断)。
In one embodiment, only certain keys are visible after each keystroke. The key that is temporarily visible is the key that is most likely to follow the previous text entry task (determined based on word and character databases stored in the system).
一実施形態では、ホーム列位置に指を載置しているユーザが載置している指で表面を押
すと、タッチセンサ120によって感知される変化に基づき、オンスクリーンキーボード
が一時的に可視となる。
In one embodiment, when a user placing a finger at a home row position presses the surface with a placed finger, the on-screen keyboard is temporarily visible based on changes sensed by the touch sensor 120. Become.
一実施形態では、ユーザがタッチセンサ領域の外側の囲いの端でダブルタップやトリプ
ルタップ等の所定の動作を行うと、オンスクリーンキーボードが可視となる。
In one embodiment, the on-screen keyboard becomes visible when the user performs a predetermined action, such as a double tap or triple tap, at the edge of the outer enclosure of the touch sensor area.
オンスクリーンキーボードは通常、出現するように設定された場合に、一般的には挿入
キャラット(または類似する標識)によって視覚的に表示されるテキスト挿入条件が存在
するときに(オペレーティングシステム171によって指示)、出現する。
On-screen keyboards are typically set to appear when there is a text insertion condition that is typically visually displayed by an insertion carat (or similar indicator) (indicated by operating system 171). ,Appear.
一実施形態では、FおよびJホーム列キーで一般的に使用される触覚マーカが触覚フィ
ードバック(タッチスクリーンで発生する振動等)によって模擬される。触覚フィードバ
ックは、ユーザがそれらのキーに指を載置したときに提供される。このようにしてユーザ
はキーボードを同じ画面上の位置に静止させることを選ぶ場合に、タッチだけで(見ずに
)手の正しい配置を確認できる。
In one embodiment, haptic markers commonly used with F and J home column keys are simulated by haptic feedback (such as vibrations generated on a touch screen). Haptic feedback is provided when the user places a finger on those keys. In this way, when the user chooses to keep the keyboard stationary at the same position on the screen, the user can confirm the correct placement of the hand with just a touch (without looking at it).
キーボードの精度を高めるため統計的言語モデルが使用される。タッチ/タップイベン
トによるキーの選択が曖昧な場合はプロセッサ110が統計モデルを呼び出し、ユーザが
目的とする見込みが最も高いキーを提供する。
A statistical language model is used to increase the accuracy of the keyboard. If the key selection by the touch / tap event is ambiguous, the
本発明では所望のキーについての永続的決定をその場で下さなければならないため、こ
の「曖昧排除」は他のテキスト入力システムで使われている他の方法と異なる。語の選択
をユーザに向けて表示し出力を修正するためのエンド・オブ・ワード・デリニエーション
(end-of-word delineation)はない。代わりに、ユーザがキーをタップするたびに決定
を下さなければならず、キー作動を目的のアプリケーションプログラム(すなわちテキス
ト入力プログラム)へ送らなければならない。
This “disambiguation” is different from other methods used in other text entry systems, because the present invention must make a permanent decision on the desired key on the fly. There is no end-of-word delineation to display word selections to the user and modify the output. Instead, each time the user taps a key, a decision must be made and the key activation must be sent to the intended application program (ie, a text input program).
部分一致文字予測(partial-match letter prediction)、現在語予測(current-word
prediction)、次語予測(next-word prediction)、接続次語予測(conjunctive next-w
ord prediction)等、数通りの統計的分析法を使用できる。以降の節ではこれらを詳しく
説明する。
Partial-match letter prediction, current-word prediction
prediction), next-word prediction, connected next-word prediction (conjunctive next-w
several statistical analysis methods can be used, such as ord prediction). The following sections explain these in detail.
部分一致による予測
この場合に有用な周知のアルゴリズムは、データ圧縮のため当初発明された部分一致に
よる予測(PPM)である。キーボードに応用されたPPMアルゴリズムは、既に出来し
た(長さk)の文字列から最も見込みの高い次の文字を予測するために使われる。計算時
間および資源は値kとともに指数関数的に増大する。したがって、まずまずの曖昧排除結
果をもたらす最も低いk値を使用するべきである。
Prediction by partial match A well-known algorithm useful in this case is partial match prediction (PPM) originally invented for data compression. The PPM algorithm applied to the keyboard is used to predict the most probable next character from a character string of already made (length k). The computation time and resources increase exponentially with the value k. Therefore, the lowest k value that gives reasonable disambiguation results should be used.
一例としてk=2とする。本発明のプロセスは入力された過去の2文字に注目し、タイ
プされる見込みが最も高い次の文字の確率をデータベースから比較する。例えば下記の下
線が引かれた文字は、見込みが最も高い次の文字を予測するために使われる。
As an example, k = 2. The process of the present invention looks at the past two characters entered and compares the probability of the next character most likely to be typed from the database. For example, the underlined character below is used to predict the next character with the highest likelihood.
An
An
An e
An ex
An exa
An exam
An examp
An exampl
An example
このアルゴリズムで可能性のあるキーの合計数Aに必要なデータ蓄積量は次の通りであ
る。
An
An
An e
An ex
An e xa
An ex am
An exa mp
An exam pl
An exam le
The amount of data required for the total number A of possible keys in this algorithm is as follows.
Ak+1
典型的なオンスクリーンキーボードの場合、このプロセスは1MB未満のデータを消費
する。
A k + 1
For a typical on-screen keyboard, this process consumes less than 1 MB of data.
各言語につき統計モデルが構築される(kは小さい値)。共通根を持つ言語で表は類似
することがある。また、モデルはユーザがテキストを入力するにつれ動的に更新する。こ
うしてシステムはユーザのタイピングパターンを学習し、時間が経つにつれより正確にタ
イピングパターンを予測する。
A statistical model is built for each language (k is a small value). The tables may be similar in languages with a common root. The model also dynamically updates as the user enters text. Thus, the system learns the user's typing pattern and predicts the typing pattern more accurately over time.
言語異形はオペレーティングシステムのコントロールパネルを通じて設定される言語別
辞書の形で提供される。コントロールパネルはシステムロケールから現在のユーザの言語
を識別し、適切な予測辞書を選択する。辞書は、新語識別と共通語使用採点を提供する連
続的に実行する「systray」アプリケーションを使用して照会される。
Language variants are provided in the form of a language dictionary set through the operating system control panel. The control panel identifies the current user's language from the system locale and selects the appropriate prediction dictionary. The dictionary is queried using a continuously running “system” application that provides new word identification and common word usage scoring.
一実施形態では、意図されるキー作動を絞り込むため、ある言語で一般的に使用される
語からなるデータベースが使用される。アルゴリズムはこれまでにタイプされた文字を語
データベースに単に比較し、データベースでの一致に基づき最も見込みのある次の文字を
予測する。
In one embodiment, a database of words commonly used in a language is used to narrow down the intended keystrokes. The algorithm simply compares the characters typed so far to a word database and predicts the next most likely character based on a match in the database.
例えばユーザが「Hel」とタイプしたとする。語データベースで起こりうる一致は次
の通りである。
For example, assume that the user types “Hel”. Possible matches in the word database are:
Hello(50)
Help(20)
Hell(15)
Helicopter(10)
Hellacious(5)
各語の横の数字は100で正規化された使用「頻度」を表す。(便宜上、この例の合計
頻度は100になるが、通常はそうならない)。
Hello (50)
Help (20)
Hell (15)
Helicopter (10)
Helacius (5)
The number next to each word represents the usage “frequency” normalized by 100. (For convenience, the total frequency in this example is 100, but this is usually not the case).
「Hel」の後に続く見込みが最も高い候補文字は次の通りである。 The candidate characters most likely to follow “Hel” are as follows.
L(70)−語「Hello」、「Hell」、および「Hellacious」で加算
された確率
P(20)
I(20)
この例は、文字L、P、およびIが互いに近接している点がとりわけ有用である。ユー
ザは数通りのキー(例えばI、O、P、またはL)に近い位置をタップする可能性がある
。語予測を加えることにより選択は大幅に絞り込まれる。この例で最も見込みのある次の
文字は明らかに「L」である。
L (70) —Probability P (20) added by the words “Hello”, “Hell”, and “Hellacioous”
I (20)
This example is particularly useful in that the letters L, P, and I are close to each other. The user may tap a position close to several keys (eg, I, O, P, or L). Selection is greatly narrowed by adding word prediction. The next most probable letter in this example is clearly "L".
尚、この語予測アルゴリズム実装はオンスクリーンキーボードに従来使われているもの
と異なる。なぜならこれは実際には語予測システムではなく、語データベースを使用する
文字予測システムだからである。
Note that this word prediction algorithm implementation is different from what is conventionally used for on-screen keyboards. This is because it is not actually a word prediction system, but a character prediction system that uses a word database.
一実施形態では、選択される見込みが最も高いキーをさらに絞り込むため語対が使用さ
れる。簡素な語予測では現在の語の最初の文字を絞り込むための文脈がない。これは完全
に曖昧である。(この曖昧排除はその語の2番目以降の文字で若干低減される。)ある語
の最初の数文字の曖昧性は、現在の語の直前に入力された語を考慮に入れることにより大
幅に低減される。これは「次語予測」と呼ばれる。
In one embodiment, word pairs are used to further narrow down the keys that are most likely to be selected. Simple word prediction has no context to narrow down the first letter of the current word. This is completely ambiguous. (This disambiguation is slightly reduced for the second and subsequent characters of the word.) The ambiguity of the first few characters of a word is greatly increased by taking into account the word entered immediately before the current word. Reduced. This is called “next word prediction”.
例えば入力された語が「Cleankeys」だったなら、データベースに蓄積された
一般的な次の語は下記の通りである。
For example, if the input word is “Cleankeys”, the general next words stored in the database are as follows.
Keyboard(80)
Inc.(20)
Is(20)
Will(15)
Makes(10)
Touch(5)
ユーザが次の語の先頭としてIキーとKキーの間を曖昧にタップする場合、次語予測ア
ルゴリズムは絞り込みを支援する(この場合は「K」が勝つ)。
Keyboard (80)
Inc. (20)
Is (20)
Will (15)
Makes (10)
Touch (5)
If the user taps unambiguously between the I and K keys as the beginning of the next word, the next word prediction algorithm assists in the refinement (in this case “K” wins).
ロジックでは、タイプされた以前の語を検討するコンセプトは、タイプされた以前のk
個の語まで展開されるものと決めてもよい。例えばk=2の場合、システムはデータベー
ス内の全ての語につき第2度次語(次の次の語)を有するデータベースを蓄積する。換言
すると、2つの前の語の組み合わせに注目し、後に続く見込みが最も高い語を判断する。
ただし、これはスペースと計算能力の点でたちまち不利となる。組み合わせの殆どは出来
しないため、そのように多くの組み合わせを蓄積することは実際的でなく、有益でもない
。
In logic, the concept of considering a previous word typed is the previous k typed
You may decide to expand to a single word. For example, if k = 2, the system stores a database having the second degree (next next word) for every word in the database. In other words, focus on the combination of the two previous words and determine the word that is most likely to follow.
However, this is immediately disadvantageous in terms of space and computing power. Since most combinations are not possible, accumulating so many combinations is not practical or useful.
ただし、検討に値する大きな例外がある。非常に多数の次語候補を持つ語である。接続
詞や冠詞として知られる品詞がこれに該当する。
However, there are major exceptions that deserve consideration. It is a word with a large number of next word candidates. This includes parts of speech known as conjunctions and articles.
英語で最も使われる7つの接続詞は次の通りである。 The seven most commonly used conjunctions in English are:
and、but、or、for、yet、so、nor。 and, but, or, for, yet, so, nor.
英語の冠詞は次の通りである。 The English articles are:
the、a、an。 the, a, an.
これらの10語を特別扱いすることにより、システムは第1文字予測を改善する。 By treating these 10 words specially, the system improves the first character prediction.
kick the_という句を検討する。 Consider the phrase kick the_.
データベース内の全ての名詞は冠詞「the」にとって最も見込みのある次語候補とな
るため、次語予測アルゴリズムから得られるメリットは殆どない。ただし、冠詞「the
」の前の「kick」の文脈が記憶されるなら、有意義な次次語選択が達成される。具体
的には「kick_the」という新しい「語」がデータベースに蓄積される。この新し
い要素の次語候補は次の通りである。
Since all nouns in the database are the most probable next word candidates for the article “the”, there is little merit obtained from the next word prediction algorithm. However, the article "the
If the context of “kick” before “is stored, meaningful next word selection is achieved. Specifically, a new “word” “kick_the” is stored in the database. The next word candidates for this new element are as follows.
Ball(50)
Bucket(20)
Habit(15)
Can(10)
Tires(5)
したがって、句「kick_the_」の後に続く見込みが最も高い次の文字が文字「
B」であると確信を持って予測できる。
Ball (50)
Bucket (20)
Habit (15)
Can (10)
Tires (5)
Thus, the next character most likely to follow the phrase “kick_the_”
B ”can be predicted with certainty.
接続詞または冠詞と組み合わされた状態で見つかる語は、それらの品詞と組み合わされ
て新しい語要素を形成する。
Words found in conjunction with conjunctions or articles are combined with those parts of speech to form new word elements.
ここで説明する文字単位予測システムと語本位予測システムとの顕著な違いは、文字ご
とに予測の方向を動的に変える能力にある。例えば、ある特定のキーについて推測を誤り
、その後に所望の語が明らかとなる場合、アルゴリズムは間違った文字について行った選
択を破棄し、新たに判断された目的の語に基づき残りの文字に予測を適用する。
A significant difference between the character unit prediction system and the word standard prediction system described here is the ability to dynamically change the direction of prediction for each character. For example, if the guess is incorrect for a particular key and then the desired word is revealed, the algorithm discards the selection made for the wrong character and predicts the remaining characters based on the newly determined target word. Apply.
例:
語が進むにつれ、最初の文字「B」が「H」であるべきだったことが明らかとなる(こ
れらの文字はqwertyキーボードレイアウトで互いに近いため間違えやすい)。その
最初の文字を完全に確定し、「B」から始まる語だけを検討するのではなく、システムは
2番目の文字を予測するにあたって別の候補も検討する。したがって、後続のキーの最初
の文字としてB、H、およびGが検討される。誤りは波及せず、ユーザは潜在的に多数の
訂正を行う代わりに1回の訂正を行うだけでよい。
As the word progresses, it becomes clear that the first letter “B” should have been “H” (these letters are easy to mistake because they are close to each other in the qwerty keyboard layout). Rather than fully finalizing the first letter and considering only the words starting with “B”, the system also considers other candidates in predicting the second letter. Therefore, B, H, and G are considered as the first letter of subsequent keys. The error does not spill over and the user need only make one correction instead of potentially multiple corrections.
入力される新たなキーごとに、当該キーに近接するキーと他の曖昧な候補が後続の文字
を判断する際の可能性として検討される。
For each new key that is entered, a key close to the key and other ambiguous candidates are considered as possibilities for determining the subsequent character.
ユーザが誤りを犯しバックスペースを使ってこれを訂正すると、システムはそのデータ
をアルゴリズムに投入し、相応に調整を行うことができる。
If the user makes an error and corrects this using backspace, the system can put that data into the algorithm and make adjustments accordingly.
例えば、ユーザがキーボードの中央であるキーを曖昧に入力すると、採点アルゴリズム
は可能性のある候補として「H」、「J」、および「N」を指示する。これらの3文字の
得点は許容範囲内であり、最高得点が取られる。例えば、アルゴリズムは文字「J」を最
も見込みがある候補として返し、キーボードはこれを出力するとする。この直後、ユーザ
は<バックスペース>と「H」を明確にタイプし、誤りを訂正する。
For example, if the user ambiguously inputs the key at the center of the keyboard, the scoring algorithm will indicate “H”, “J”, and “N” as possible candidates. These three-letter scores are within acceptable limits and the highest score is taken. For example, the algorithm returns the letter “J” as the most likely candidate and the keyboard outputs it. Immediately after this, the user clearly types <backspace> and “H” to correct the error.
この情報は採点アルゴリズムにフィードバックされ、採点アルゴリズムは、曖昧なキー
が当初入力されたときに「J」より高く「H」を採点したサブアルゴリズムがどれなのか
を調べる。それらのアルゴリズムの重みは増加されるため、同じ曖昧な入力が再び起こる
なら文字「H」が選択される。このようにユーザの訂正に直接基づいてフィードバックル
ープが提供される。
This information is fed back to the scoring algorithm, which examines which sub-algorithm scored higher than “J” and “H” when the ambiguous key was initially entered. Since the weights of those algorithms are increased, the letter “H” is selected if the same ambiguous input occurs again. Thus, a feedback loop is provided based directly on user corrections.
勿論、アルゴリズムのためではなくユーザ自身がタイピングの誤りを犯すこともある。
アルゴリズムはユーザがタイプしたものを正確に出力する。したがって、ユーザ訂正フィ
ードバックループを開始するべきか否かを判断するときには注意を払わなければならない
。通常これは問題のキーが曖昧だったときにのみ起こる。
Of course, the user himself / herself may make a typing error, not for the algorithm.
The algorithm outputs exactly what the user typed. Therefore, care must be taken when determining whether to initiate a user correction feedback loop. Usually this only happens when the key in question is ambiguous.
ユーザ設定可能オプションにより、キーボードは明らかに間違っていた語を訂正するた
めバックスペースと新たな文字を発行できる。上の例で、論理にかなった語選択が「ha
bit」のみであると予測器が判断すると、キーボードはバックスペースを発行し、「b
」を「h」に変更し、後続の文字を再発行する(場合によっては語を完成させる)。
User configurable options allow the keyboard to issue backspace and new characters to correct words that were clearly wrong. In the above example, the logical word selection is “ha
If the predictor determines that only "bit", the keyboard issues a backspace and "b"
"To" h "and reissue subsequent characters (possibly completing a word).
キーの曖昧排除には多数の要因が関与し、全てのアルゴリズムはキーの立候補を増加さ
せる可能性がある。このアプローチは採点と呼ばれる。全てのアルゴリズムは重み付けさ
れ、合計される。ユーザのタイピングスタイルおよび環境に合わせて採点アルゴリズムを
調整するため、重み付けは動的に変更される。
Numerous factors contribute to key ambiguity, and all algorithms can increase the number of key candidates. This approach is called scoring. All algorithms are weighted and summed. The weighting is dynamically changed to adjust the scoring algorithm to the user's typing style and environment.
図3Aは、タッチ感応ディスプレイ352が前面に組み込まれた典型的な手持ち型タブ
レットコンピュータ350と本発明の一実施形態に従って設計および使用されるキーボー
ド354の概略図を示す。本発明に従って使用されるキーボード354はテキストを生成
し、生成されたテキストはテキスト表示領域358のテキスト挿入位置360に出力され
る。本願における用語「キーボード」は、タッチ感応ディスプレイに提示されるキーボー
ドを含む、タッチおよびタップ感応表面で実現されるキーボードを指す。キーボード35
4は、殆どのキーボードに見られる標準「QWERTY」配置に概ね配置された個々のキ
ーでユーザによって選ばれる各言語のアルファベット文字を表示する。
FIG. 3A shows a schematic diagram of a typical
4 displays the alphabetic characters of each language selected by the user with individual keys generally arranged in the standard “QWERTY” arrangement found on most keyboards.
一実施形態において、キーボード(ならびに個々のキー)の向き、位置、およびサイズ
は、ユーザの入力挙動に従って適応的に変更される。ユーザが特定の方法でタッチ表面3
52に指を載置すると、システムは載置している指によって決まる位置へキーボード35
4を移動させる。ユーザはキーボード354であるキーを作動させようとするときに、指
を上げ、認識できる力で表面352を叩くことにより、所望のキーを「タップ」する。タ
ッチセンサ領域352の外側の領域362、364で行われるユーザのタップは振動セン
サによって検出され、スペースバー等のキーボード機能に割り当てることもできる。
In one embodiment, the orientation, position, and size of the keyboard (and individual keys) are adaptively changed according to user input behavior. The user touches the touch surface 3 in a specific way
When a finger is placed on 52, the system moves the keyboard 35 to a position determined by the placed finger.
4 is moved. When the user attempts to activate a key, which is the
タッチセンサ信号の不在は実際には値ゼロの信号であり、タップ(または振動)センサ
と相関され、タップ位置を一意に識別するために使用できる。一実施形態において、領域
362、364で示される領域等、タッチセンサ領域352の外側の特定の領域の振動信
号は一意であり、システムによってデータベースに蓄積される。タップイベントとともに
タッチ信号の不在が発生すると、システムはタップの振動特性をデータベースに蓄積され
た振動特性に比較し、外部タップの位置を判断する。一実施形態において、下外側境界領
域362はスペース機能に割り当てられ、右外側境界領域364はバックスペース機能に
割り当てられる。
The absence of the touch sensor signal is actually a zero value signal, correlated with the tap (or vibration) sensor, and can be used to uniquely identify the tap position. In one embodiment, the vibration signals for a particular area outside the
図3Bは例示的仮想オンスクリーンキーボード370の概略図である。キーボード37
0は2つの半分に、すなわち左半分372と右半分374(ユーザの左および右手に相関
)とに、分割されている。2つの独立した半分372、374は互いに揃っていない。ユ
ーザの指が通常載置される8個のキー378は、それらのキーに通常使われる指に応じて
太字のラベルで表示されている(例えばL1は左手の人さし指を表し、L4は左手の小指
を表す)。他の非ホーム列キーは、従来のタッチタイピング手法でそれらのキーのタイピ
ングに通常使われる指を示すラベルで表示されている。ただし、図3Bに示す指配置を使
用しないタイピングスタイルも多数あり、ラベルが専ら説明の目的で使われていることに
注意されたい。
FIG. 3B is a schematic diagram of an exemplary virtual on-
0 is divided into two halves, a
キーボードの左半分372では従来の電気機械式キーボードのように全てのキーが水平
の列に並べられている。一実施形態では、右半分374に見られるように、ホーム列キー
がユーザの4本の指の通常の載置位置により良好に適合するため円弧に沿って分散されて
いる。非ホーム列キーも同様にホーム列載置キーに対する相対位置に従って分散されてい
る。一実施形態では、各キーのサイズもユーザがキーを選ぶ統計的見込みに従って変化で
きる(見込みが高いほどキーは大きい)。
In the
図3Cは、本発明の一実施形態に従って傾いた仮想オンスクリーンキーボード384の
概略図である。ユーザは、典型的手持ち型タブレットコンピュータ394のタッチ感応表
面392で手390をユーザが望む任意の位置および向きに載置できる。この場合、手は
通常より離れており、装置394の直線端に対し傾いている。ユーザは「ホーム列規定イ
ベント」を指示する行為を開始する。「ホーム列規定イベント」は、全8本の指を短いユ
ーザ規定可能時間にわたり載置すること、表面392で全8本の指を同時にダブルタップ
してから表面392に載置すること、または表面392に載置した全8本の指を同時に押
し付けること、を含み、ただしこれらに限定されない。別の実施形態では、ホーム列規定
イベントを開始するにあたって全8本の指は必要とされない。例えば中指がない人は、そ
の手の3本の指だけでホーム列規定イベントを開始できる。ユーザはタブレットコンピュ
ータ394で手290を斜めに載置しているため、コンピュータ294のプロセッサは仮
想オンスクリーンキーボード384を生成し斜めに表示している。
FIG. 3C is a schematic diagram of a virtual on-
排他的な所有権または特権を請求する本発明の実施形態は次のように定義される。 Embodiments of the invention that claim exclusive ownership or privilege are defined as follows.
Claims (10)
タッチ感応ディスプレイと、前記タッチ感応ディスプレイに結合された複数のタッチセンサとを有する電子機器において、
前記複数のタッチセンサにより生成された複数の信号に基づいて、ホーム列規定イベントを検出するステップと、
前記ホーム列規定イベントを検出したことに応じて、
仮想キーボードの複数のキーの各キーを表示するための、前記タッチ感応ディスプレイ上のそれぞれの位置を決定するステップと、
前記タッチ感応ディスプレイ上に前記仮想キーボードを表示するステップであって、前記仮想キーボードの前記複数のキーの各キーが前記タッチ感応ディスプレイ上のそれぞれの決定された位置の各々に表示される、ステップと、
前記仮想キーボードにおけるユーザ入力を検出するステップと、
前記ユーザ入力が前記仮想キーボードの前記複数のキーのうちの第1のキーに対応することを決定するステップと、
前記仮想キーボードにおける次のユーザ入力を検出するステップと、
前記次のユーザ入力の検出に応じて、
前記次のユーザ入力が曖昧であることを決定するステップと、
前記第1のキーと記録された言語データとの比較に少なくとも部分的に基づいて、少なくとも前記第1のキーと前記次のユーザ入力とで前記ユーザが何をタイプしようとするのかを予測するステップと、
少なくとも前記第1のキーと前記次のユーザ入力とで前記ユーザが何をタイプしようとするのかの前記予測に基づいて、前記次のユーザ入力が前記仮想キーボードの前記複数のキーのうちの第2のキーに対応することを決定するステップと、
前記仮想キーボードの前記複数のキーのうちの少なくとも1つのキーの視覚的特性を変更し、前記変更された視覚的特性で前記少なくとも1つのキーを表示するステップと、
を有する方法。 A method,
In an electronic device having a touch-sensitive display and a plurality of touch sensors coupled to the touch-sensitive display,
Detecting a home column defining event based on a plurality of signals generated by the plurality of touch sensors;
In response to detecting the home column definition event,
Determining a respective position on the touch-sensitive display for displaying each key of the plurality of keys of the virtual keyboard;
Displaying the virtual keyboard on the touch-sensitive display, wherein each key of the plurality of keys of the virtual keyboard is displayed at each determined position on the touch-sensitive display; and ,
Detecting a Ruyu chromatography The input put on the virtual keyboard,
A step of pre Kiyu over The input decides that corresponds to the first key of the plurality of keys of the virtual keyboard,
Detecting a next user input on the virtual keyboard;
In response to detecting the next user input,
Determining that the next user input is ambiguous;
Before SL based at least in part on a comparison of the first key and the recorded language data, to predict whether to try what type the user with at least the first key and the next user input Steps,
Based on the prediction of what the user intends to type at least with the first key and the next user input, the next user input is a second of the plurality of keys of the virtual keyboard. Determining to correspond to a key of
Changing a visual characteristic of at least one key of the plurality of keys of the virtual keyboard and displaying the at least one key with the changed visual characteristic;
Having a method.
前記第2のキーの前記それぞれの位置と、前記次のユーザ入力に対応する前記タッチ感応ディスプレイ上の位置との間の、第1の位置変化に少なくとも部分的に基づいて、第1の漂動を決定するステップと、
第1の所定の閾値を超える前記第1の漂動に少なくとも部分的に基づいて、前記第2のキーに対する前記それぞれの決定された位置を変更するステップと、
を有する、請求項1に記載の方法。 Changing the visual characteristics of the at least one key comprises:
A first drift based at least in part on a first position change between the respective position of the second key and a position on the touch-sensitive display corresponding to the next user input. A step of determining
Changing the respective determined position relative to the second key based at least in part on the first drift exceeding a first predetermined threshold;
The method of claim 1, comprising:
前記第3のキーの前記それぞれの位置と、前記更なるユーザ入力に対応する前記タッチ感応ディスプレイ上の位置との間の、第2の位置変化に少なくとも部分的に基づいて、第2の漂動を決定するステップと、
前記第1の位置変化と前記第2の位置変化との組み合わせが、第2の所定の閾値を満たすかを決定するステップと、
前記第1の位置変化と前記第2の位置変化との前記組み合わせが前記第2の所定の閾値を満たすと決定したことに少なくとも部分的に基づいて、前記仮想キーボードの前記複数のキーの各キーに対する前記それぞれの決定された位置を変更するステップと、
をさらに有する、請求項2に記載の方法。 Detecting a further user input corresponding to a third key of the plurality of keys of the virtual keyboard;
A second drift based at least in part on a second position change between the respective position of the third key and a position on the touch-sensitive display corresponding to the further user input. A step of determining
Determining whether a combination of the first position change and the second position change satisfies a second predetermined threshold;
Each key of the plurality of keys of the virtual keyboard based at least in part on determining that the combination of the first position change and the second position change satisfies the second predetermined threshold Changing the respective determined position with respect to
The method of claim 2 further comprising:
を有する、請求項1に記載の方法。 Changing the visual characteristic of the at least one key includes changing the visual characteristic of the at least one key and the visual of other keys adjacent to the at least one key on the virtual keyboard. Changing the physical characteristics;
The method of claim 1, comprising:
を有する、請求項1に記載の方法。 Changing the visual characteristic of the at least one key changes the displayed magnitude associated with the at least one key;
The method of claim 1, comprising:
を有する、請求項1に記載の方法。 Changing the visual characteristic of the at least one key changes a displayed direction associated with the at least one key;
The method of claim 1, comprising:
前記1つ以上のプログラムが、
前記複数のタッチセンサにより生成された複数の信号に基づいて、ホーム列規定イベントを検出し、
前記ホーム列規定イベントを検出したことに応じて、
仮想キーボードの複数のキーの各キーを表示するための、前記タッチ感応ディスプレイ上のそれぞれの位置を決定し、
前記タッチ感応ディスプレイ上に前記仮想キーボードを表示することであって、前記仮想キーボードの前記複数のキーの各キーが前記タッチ感応ディスプレイ上のそれぞれの決定された位置の各々に表示される、ように表示し、
前記仮想キーボードにおけるユーザ入力を検出し、
前記ユーザ入力が前記仮想キーボードの前記複数のキーのうちの第1のキーに対応することを決定し、
前記仮想キーボードにおける次のユーザ入力を検出し、
前記次のユーザ入力の検出に応じて、
前記次のユーザ入力が曖昧であることを決定し、
前記第1のキーと記録された言語データとの比較に少なくとも部分的に基づいて、少なくとも前記第1のキーと前記次のユーザ入力とで前記ユーザが何をタイプしようとするのかを予測し、
少なくとも前記第1のキーと前記次のユーザ入力とで前記ユーザが何をタイプしようとするのかの前記予測に基づいて、前記次のユーザ入力が前記仮想キーボードの前記複数のキーのうちの第2のキーに対応することを決定し、
前記仮想キーボードの前記複数のキーのうちの少なくとも1つのキーの視覚的特性を変更し、前記変更された視覚的特性で前記少なくとも1つのキーを表示する、
命令を含む、コンピュータで読み取り可能な記録媒体。 A computer readable program that stores one or more programs executed by one or more processors of an electronic device having (i) a touch sensitive display and (ii) a plurality of touch sensors coupled to the touch sensitive display. Recording medium,
The one or more programs are
Detecting a home column defining event based on a plurality of signals generated by the plurality of touch sensors;
In response to detecting the home column definition event,
Determining a respective position on the touch-sensitive display for displaying each key of the plurality of keys of the virtual keyboard;
Displaying the virtual keyboard on the touch-sensitive display, wherein each key of the plurality of keys of the virtual keyboard is displayed at each determined position on the touch-sensitive display. Display
To detect the Ruyu over The input put on the virtual keyboard,
It determines that the previous Kiyu over The input corresponds to the first key of the plurality of keys of the virtual keyboard,
Detecting the next user input on the virtual keyboard;
In response to detecting the next user input,
Determining that the next user input is ambiguous;
Before SL based at least in part on a comparison of the first key and the recorded language data to predict whether to try to what type the user with at least the first key and the next user input ,
Based on the prediction of what the user intends to type at least with the first key and the next user input, the next user input is a second of the plurality of keys of the virtual keyboard. Decide to correspond to the key of
Changing a visual characteristic of at least one key of the plurality of keys of the virtual keyboard and displaying the at least one key with the changed visual characteristic;
A computer-readable recording medium containing instructions.
タッチ感応ディスプレイと、
前記タッチ感応ディスプレイに結合された複数のタッチセンサと、
前記タッチ感応ディスプレイと前記複数のタッチセンサと通信する1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを格納したメモリであって、前記1つ以上のプログラムが、
前記複数のタッチセンサにより生成された複数の信号に基づいて、ホーム列規定イベントを検出し、
前記ホーム列規定イベントを検出したことに応じて、
仮想キーボードの複数のキーの各キーを表示するための、前記タッチ感応ディスプレイ上のそれぞれの位置を決定し、
前記タッチ感応ディスプレイ上に前記仮想キーボードを表示することであって、前記仮想キーボードの前記複数のキーの各キーが前記タッチ感応ディスプレイ上のそれぞれの決定された位置の各々に表示される、ように表示し、
前記仮想キーボードにおけるユーザ入力を検出し、
前記ユーザ入力が前記仮想キーボードの前記複数のキーのうちの第1のキーに対応することを決定し、
前記仮想キーボードにおける次のユーザ入力を検出し、
前記次のユーザ入力の検出に応じて、
前記次のユーザ入力が曖昧であることを決定し、
前記第1のキーと記録された言語データとの比較に少なくとも部分的に基づいて、少なくとも前記第1のキーと前記次のユーザ入力とで前記ユーザが何をタイプしようとするのかを予測し、
少なくとも前記第1のキーと前記次のユーザ入力とで前記ユーザが何をタイプしようとするのかの前記予測に基づいて、前記次のユーザ入力が前記仮想キーボードの前記複数のキーのうちの第2のキーに対応することを決定し、
前記仮想キーボードの前記複数のキーのうちの少なくとも1つのキーの視覚的特性を変更し、前記変更された視覚的特性で前記少なくとも1つのキーを表示する、
命令を含む、前記メモリと、
を有する電子機器。 Electronic equipment,
Touch sensitive display,
A plurality of touch sensors coupled to the touch-sensitive display;
One or more processors in communication with the touch-sensitive display and the plurality of touch sensors;
A memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising:
Detecting a home column defining event based on a plurality of signals generated by the plurality of touch sensors;
In response to detecting the home column definition event,
Determining a respective position on the touch-sensitive display for displaying each key of the plurality of keys of the virtual keyboard;
Displaying the virtual keyboard on the touch-sensitive display, wherein each key of the plurality of keys of the virtual keyboard is displayed at each determined position on the touch-sensitive display. Display
To detect the Ruyu over The input put on the virtual keyboard,
It determines that the previous Kiyu over The input corresponds to the first key of the plurality of keys of the virtual keyboard,
Detecting the next user input on the virtual keyboard;
In response to detecting the next user input,
Determining that the next user input is ambiguous;
Before SL based at least in part on a comparison of the first key and the recorded language data to predict whether to try to what type the user with at least the first key and the next user input ,
Based on the prediction of what the user intends to type at least with the first key and the next user input, the next user input is a second of the plurality of keys of the virtual keyboard. Decide to correspond to the key of
Changing a visual characteristic of at least one key of the plurality of keys of the virtual keyboard and displaying the at least one key with the changed visual characteristic;
Said memory comprising instructions;
Electronic equipment having
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US41827910P | 2010-11-30 | 2010-11-30 | |
US61/418,279 | 2010-11-30 | ||
US201161472799P | 2011-04-07 | 2011-04-07 | |
US61/472,799 | 2011-04-07 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013542153A Division JP5782133B2 (en) | 2010-11-30 | 2011-11-30 | Dynamic placement on-screen keyboard |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015232889A JP2015232889A (en) | 2015-12-24 |
JP6208718B2 true JP6208718B2 (en) | 2017-10-04 |
Family
ID=46172548
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013542153A Active JP5782133B2 (en) | 2010-11-30 | 2011-11-30 | Dynamic placement on-screen keyboard |
JP2015142348A Active JP6208718B2 (en) | 2010-11-30 | 2015-07-16 | Dynamic placement on-screen keyboard |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013542153A Active JP5782133B2 (en) | 2010-11-30 | 2011-11-30 | Dynamic placement on-screen keyboard |
Country Status (5)
Country | Link |
---|---|
EP (2) | EP2646894A2 (en) |
JP (2) | JP5782133B2 (en) |
KR (1) | KR101578769B1 (en) |
CN (2) | CN103443744B (en) |
WO (2) | WO2012075197A2 (en) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9551572B2 (en) | 2011-11-08 | 2017-01-24 | Sony Corporation | Sensor device, analyzing device, and recording medium for detecting the position at which an object touches another object |
JP2017084404A (en) * | 2012-02-23 | 2017-05-18 | パナソニックIpマネジメント株式会社 | Electronic apparatus |
US20150261310A1 (en) * | 2012-08-01 | 2015-09-17 | Whirlscape, Inc. | One-dimensional input system and method |
US8816985B1 (en) | 2012-09-20 | 2014-08-26 | Cypress Semiconductor Corporation | Methods and apparatus to detect a touch pattern |
EP3760617B1 (en) * | 2012-10-25 | 2023-03-22 | Shenyang Sinochem Agrochemicals R&D Co., Ltd. | Substituted pyrimidine compound and uses thereof |
CN105027064A (en) | 2012-11-27 | 2015-11-04 | 汤姆逊许可公司 | Adaptive virtual keyboard |
WO2014083368A1 (en) | 2012-11-27 | 2014-06-05 | Thomson Licensing | Adaptive virtual keyboard |
JP6165485B2 (en) * | 2013-03-28 | 2017-07-19 | 国立大学法人埼玉大学 | AR gesture user interface system for mobile terminals |
JP5801348B2 (en) | 2013-06-10 | 2015-10-28 | レノボ・シンガポール・プライベート・リミテッド | Input system, input method, and smartphone |
US9483176B2 (en) * | 2013-07-08 | 2016-11-01 | Samsung Display Co., Ltd. | Method and apparatus to reduce display lag of soft keyboard presses |
JP6154690B2 (en) * | 2013-07-22 | 2017-06-28 | ローム株式会社 | Software keyboard type input device, input method, electronic device |
US9335831B2 (en) | 2013-10-14 | 2016-05-10 | Adaptable Keys A/S | Computer keyboard including a control unit and a keyboard screen |
CN103885632B (en) * | 2014-02-22 | 2018-07-06 | 小米科技有限责任公司 | Input method and device |
US10175882B2 (en) * | 2014-07-31 | 2019-01-08 | Technologies Humanware Inc. | Dynamic calibrating of a touch-screen-implemented virtual braille keyboard |
JP6330565B2 (en) * | 2014-08-08 | 2018-05-30 | 富士通株式会社 | Information processing apparatus, information processing method, and information processing program |
CN104375647B (en) * | 2014-11-25 | 2017-11-03 | 杨龙 | Exchange method and electronic equipment for electronic equipment |
CN105718069B (en) * | 2014-12-02 | 2020-01-31 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN106155502A (en) * | 2015-03-25 | 2016-11-23 | 联想(北京)有限公司 | A kind of information processing method and electronic equipment |
JP6153588B2 (en) * | 2015-12-21 | 2017-06-28 | レノボ・シンガポール・プライベート・リミテッド | Information processing apparatus, sensing layout updating method, and program |
KR101682214B1 (en) * | 2016-04-27 | 2016-12-02 | 김경신 | an electric ink keyboard |
US10234985B2 (en) | 2017-02-10 | 2019-03-19 | Google Llc | Dynamic space bar |
CN107704186B (en) * | 2017-09-01 | 2022-01-18 | 联想(北京)有限公司 | Control method and electronic equipment |
CN107493365A (en) * | 2017-09-13 | 2017-12-19 | 深圳传音通讯有限公司 | The switching method and switching device of a kind of dial for smart machine |
US11159673B2 (en) * | 2018-03-01 | 2021-10-26 | International Business Machines Corporation | Repositioning of a display on a touch screen based on touch screen usage statistics |
US10725506B2 (en) * | 2018-08-21 | 2020-07-28 | Dell Products, L.P. | Context-aware user interface (UI) for multi-form factor information handling systems (IHSs) |
CN109582211B (en) * | 2018-12-25 | 2021-08-03 | 努比亚技术有限公司 | Touch area adaptation method and device and computer readable storage medium |
JP2020135529A (en) * | 2019-02-21 | 2020-08-31 | シャープ株式会社 | Touch panel, compound machine, program and control method of touch panel |
US11150751B2 (en) * | 2019-05-09 | 2021-10-19 | Dell Products, L.P. | Dynamically reconfigurable touchpad |
EP4004695A4 (en) * | 2019-09-18 | 2022-09-28 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
KR102690934B1 (en) * | 2022-03-03 | 2024-08-05 | 대진대학교 산학협력단 | Method for entering characters at high speed in metaverse environment |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4725694A (en) * | 1986-05-13 | 1988-02-16 | American Telephone And Telegraph Company, At&T Bell Laboratories | Computer interface device |
JP3260240B2 (en) * | 1994-05-31 | 2002-02-25 | 株式会社ワコム | Information input method and device |
US6278441B1 (en) * | 1997-01-09 | 2001-08-21 | Virtouch, Ltd. | Tactile interface system for electronic data display system |
EP1717679B1 (en) * | 1998-01-26 | 2016-09-21 | Apple Inc. | Method for integrating manual input |
US7768501B1 (en) * | 1998-05-01 | 2010-08-03 | International Business Machines Corporation | Method and system for touch screen keyboard and display space sharing |
US6525717B1 (en) * | 1999-12-17 | 2003-02-25 | International Business Machines Corporation | Input device that analyzes acoustical signatures |
KR100556072B1 (en) * | 2001-09-21 | 2006-03-07 | 레노보 (싱가포르) 피티이. 엘티디. | Input apparatus, computer apparatus, method for identifying input object, method for identifying input object in keyboard, and computer program |
US6947028B2 (en) * | 2001-12-27 | 2005-09-20 | Mark Shkolnikov | Active keyboard for handheld electronic gadgets |
ATE538430T1 (en) * | 2002-07-04 | 2012-01-15 | Koninkl Philips Electronics Nv | AUTOMATICALLY ADJUSTING VIRTUAL KEYBOARD |
JP2004341813A (en) * | 2003-05-15 | 2004-12-02 | Casio Comput Co Ltd | Display control method for input device and input device |
KR100537280B1 (en) * | 2003-10-29 | 2005-12-16 | 삼성전자주식회사 | Apparatus and method for inputting character using touch screen in portable terminal |
US20050122313A1 (en) * | 2003-11-11 | 2005-06-09 | International Business Machines Corporation | Versatile, configurable keyboard |
US20050190970A1 (en) * | 2004-02-27 | 2005-09-01 | Research In Motion Limited | Text input system for a mobile electronic device and methods thereof |
US20060066590A1 (en) * | 2004-09-29 | 2006-03-30 | Masanori Ozawa | Input device |
JP2006127488A (en) * | 2004-09-29 | 2006-05-18 | Toshiba Corp | Input device, computer device, information processing method, and information processing program |
JP4417224B2 (en) * | 2004-10-25 | 2010-02-17 | 本田技研工業株式会社 | Fuel cell stack |
US9019209B2 (en) * | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
FR2891928B1 (en) * | 2005-10-11 | 2008-12-19 | Abderrahim Ennadi | TOUCH SCREEN KEYBOARD UNIVERSAL MULTILINGUAL AND MULTIFUNCTION |
US7659887B2 (en) * | 2005-10-20 | 2010-02-09 | Microsoft Corp. | Keyboard with a touchpad layer on keys |
CA2698737C (en) * | 2007-09-19 | 2017-03-28 | Cleankeys Inc. | Cleanable touch and tap-sensitive surface |
KR101352994B1 (en) * | 2007-12-10 | 2014-01-21 | 삼성전자 주식회사 | Apparatus and method for providing an adaptive on-screen keyboard |
KR101456490B1 (en) * | 2008-03-24 | 2014-11-03 | 삼성전자주식회사 | Touch screen keyboard display method and apparatus thereof |
TWI360762B (en) * | 2008-09-05 | 2012-03-21 | Mitake Information Corp | On-screen virtual keyboard system |
US8633901B2 (en) * | 2009-01-30 | 2014-01-21 | Blackberry Limited | Handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device |
CN101937313B (en) * | 2010-09-13 | 2019-11-12 | 中兴通讯股份有限公司 | A kind of method and device of touch keyboard dynamic generation and input |
-
2011
- 2011-11-30 JP JP2013542153A patent/JP5782133B2/en active Active
- 2011-11-30 KR KR1020137016964A patent/KR101578769B1/en active IP Right Grant
- 2011-11-30 CN CN201180064220.5A patent/CN103443744B/en active Active
- 2011-11-30 WO PCT/US2011/062721 patent/WO2012075197A2/en active Application Filing
- 2011-11-30 WO PCT/US2011/062723 patent/WO2012075199A2/en active Application Filing
- 2011-11-30 EP EP11844775.4A patent/EP2646894A2/en not_active Withdrawn
- 2011-11-30 CN CN201610489534.4A patent/CN106201324B/en active Active
- 2011-11-30 EP EP11844754.9A patent/EP2646893A2/en not_active Withdrawn
-
2015
- 2015-07-16 JP JP2015142348A patent/JP6208718B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015232889A (en) | 2015-12-24 |
WO2012075197A2 (en) | 2012-06-07 |
EP2646894A2 (en) | 2013-10-09 |
JP2014514785A (en) | 2014-06-19 |
CN106201324B (en) | 2019-12-13 |
CN103443744A (en) | 2013-12-11 |
KR101578769B1 (en) | 2015-12-21 |
WO2012075197A3 (en) | 2012-10-04 |
KR20140116785A (en) | 2014-10-06 |
EP2646893A2 (en) | 2013-10-09 |
JP5782133B2 (en) | 2015-09-24 |
CN103443744B (en) | 2016-06-08 |
CN106201324A (en) | 2016-12-07 |
WO2012075199A3 (en) | 2012-09-27 |
WO2012075199A2 (en) | 2012-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6208718B2 (en) | Dynamic placement on-screen keyboard | |
US20210132796A1 (en) | Systems and Methods for Adaptively Presenting a Keyboard on a Touch-Sensitive Display | |
US9110590B2 (en) | Dynamically located onscreen keyboard | |
US10126942B2 (en) | Systems and methods for detecting a press on a touch-sensitive surface | |
JP5730667B2 (en) | Method for dual-screen user gesture and dual-screen device | |
US8300023B2 (en) | Virtual keypad generator with learning capabilities | |
US20150067571A1 (en) | Word prediction on an onscreen keyboard | |
US9304602B2 (en) | System for capturing event provided from edge of touch screen | |
US20160077733A1 (en) | Method and device having touchscreen keyboard with visual cues | |
US20130285926A1 (en) | Configurable Touchscreen Keyboard | |
EP2950184A1 (en) | Input method and apparatus of circular touch keyboard | |
US20110063231A1 (en) | Method and Device for Data Input | |
US20040140956A1 (en) | System and method for continuous stroke word-based text input | |
US20160132119A1 (en) | Multidirectional button, key, and keyboard | |
JP2006524955A (en) | Unambiguous text input method for touch screen and reduced keyboard | |
US20180164910A1 (en) | Wide touchpad | |
JP2013503387A (en) | Pressure sensitive user interface for mobile devices | |
Walmsley et al. | Disambiguation of imprecise input with one-dimensional rotational text entry | |
EP2660692A1 (en) | Configurable touchscreen keyboard | |
Anu Bharath et al. | Performance of accessible gesture-based indic keyboard | |
JP2012118840A (en) | Key input device and key input program | |
Kuno et al. | Meyboard: A QWERTY-Based Soft Keyboard for Touch-Typing on Tablets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160701 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20161003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170203 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6208718 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |