JP2011227703A - Touch panel input device capable of two-point detection - Google Patents
Touch panel input device capable of two-point detection Download PDFInfo
- Publication number
- JP2011227703A JP2011227703A JP2010096851A JP2010096851A JP2011227703A JP 2011227703 A JP2011227703 A JP 2011227703A JP 2010096851 A JP2010096851 A JP 2010096851A JP 2010096851 A JP2010096851 A JP 2010096851A JP 2011227703 A JP2011227703 A JP 2011227703A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- points
- point
- touch panel
- input control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、タッチパネル入力装置に関する。 The present invention relates to a touch panel input device.
タッチパネル入力装置に関しては種々の提案がなされており、例えば特許文献1や特許文献2には、2点のタッチ位置が検出可能なアナログ抵抗膜方式タッチパネルが提案されている。
しかしながら、タッチパネルの活用おいては具体的に検討しなければならない種々の問題があり、特に多点の検知が可能なタッチパネルについては実用面における検討が未だ不充分である。 However, there are various problems that need to be specifically examined in the use of touch panels, and practical studies are still insufficient for touch panels that can detect multiple points.
本発明の課題は、上記に鑑み、2点検知可能なタッチパネルを活用した実用的なタッチパネル入力装置を提供することにある。 In view of the above, an object of the present invention is to provide a practical touch panel input device utilizing a touch panel capable of detecting two points.
上記課題を達成するため、本発明は、表示およびタッチパネル機能を備えたタッチパネル表示画面と、タッチパネル表示画面上に同時にタッチされる2点の位置の第1方向成分の相対位置関係、第1成分とは異なる第2成分の相対位置関係および2点のタッチに関する時間情報に基づき情報入力を行う入力制御部とを有することを特徴とする2点検知可能なタッチパネル入力装置を提供する。これによって、2点検知能力を生かした情報入力が可能となる。本発明の具体的な特徴によればタッチパネル表示画面は矩形形状を有し、第1方向成分は矩形形状の一辺に平行な方向であるとともに、第2方向成分はこの一辺に垂直な他の一辺に平行な方向である。 In order to achieve the above object, the present invention provides a touch panel display screen having a display and a touch panel function, a relative positional relationship between first position components at two points touched simultaneously on the touch panel display screen, and a first component. There is provided a touch panel input device capable of two-point detection, characterized by having an input control unit that inputs information based on the relative positional relationship between different second components and time information regarding two-point touch. As a result, information input utilizing the two-point detection capability becomes possible. According to a specific feature of the present invention, the touch panel display screen has a rectangular shape, the first direction component is a direction parallel to one side of the rectangular shape, and the second direction component is the other side perpendicular to the one side. Is parallel to the direction.
本発明の他の具体的な特徴によれば、入力制御部は、同時刻における2点の第1成分および第2成分の一方における相対的大小関係に基づき入力制御を行う。これによって例えば2点の上下関係または左右関係に基づく入力が可能となり、さらにこれらの関係は相対的なので厳密な2点の絶対位置に依存しない入力が可能となる。 According to another specific feature of the present invention, the input control unit performs input control based on a relative magnitude relationship in one of the two first components and the second component at the same time. Thus, for example, an input based on the vertical relationship or the horizontal relationship between two points is possible, and furthermore, since these relationships are relative, an input that does not depend on the exact absolute position of the two points is possible.
本発明の他の具体的な特徴によれば、入力制御部は、同時刻における2点間の相対距離に基づき入力制御を行う。これによって方向によらない2点の距離に基づく入力が可能となり、さらに相対距離が情報なので厳密な2点の絶対位置に依存しない入力が可能となる。 According to another specific feature of the present invention, the input control unit performs input control based on a relative distance between two points at the same time. As a result, input based on the distance between the two points regardless of the direction becomes possible, and furthermore, since the relative distance is information, it is possible to input without depending on the exact absolute position of the two points.
本発明のより具体的な特徴によれば、上記同時刻における2点の第1成分および第2成分の一方または2点間の相対距離に基づく入力制御部の入力は、所定時間2点の位置が変化しないとき確定される。これにより、誤って2点をタッチしたときの想定外の入力を防止し、意図的に所定時間だけ2点のタッチ位置を動かさずに維持したときに入力を行うようにすることができる。 According to a more specific feature of the present invention, the input of the input control unit based on the relative distance between one or two points of the first component and the second component of the two points at the same time is the position of the two points for a predetermined time. Determined when does not change. As a result, it is possible to prevent an unexpected input when two points are touched by mistake, and to perform an input when the touch positions of the two points are intentionally maintained without moving for a predetermined time.
本発明の他の特徴によれば、入力制御部は、2点の絶対位置およびこの絶対位置からの時間経過に従う2点の相対位置変化に基づき、2点の絶対位置の組み合わせに基づく入力を行う。これによって、入力情報を決定する2点の絶対位置の組み合わせおよびその入力の実行を確実に行うことができる。より具体的な特徴によれば入力制御部は、1点目を支点として2点目位置が変化する時、これを前記時間経過に従う2点の相対位置変化として検知する。 According to another feature of the present invention, the input control unit performs input based on a combination of two absolute positions based on the absolute position of the two points and the relative position change of the two points as time elapses from the absolute position. . As a result, it is possible to reliably perform a combination of two absolute positions for determining input information and the input. According to a more specific feature, when the position of the second point changes with the first point as a fulcrum, the input control unit detects this as a change in the relative position of the two points with the passage of time.
本発明の他の特徴によれば、入力制御部は、所定時間内に2点のタッチを検知したとき2点タッチに基づく入力制御を行うとともに1点目のタッチ検知から2点目のタッチを検知する時間が所定時間を越えるとき2点タッチに基づく入力制御とは異なる入力制御を行う。これによって、厳密に2点を同時にタッチしなくても2点タッチに基づく入力を行えるとともに、1点目タッチと2点目タッチで2点同時タッチとは別の入力を行うことができる。より具体的には、入力制御部は、1点目のタッチ検知から2点目のタッチを検知する時間が所定時間を越えるとき2点目のタッチに基づき前記1点目のタッチの入力制御とは異なる入力制御を行う。なお、2点タッチと看做す所定時間と2点目タッチで1点目タッチとは別の入力を行うための所定時間を異なるよう設定すれば誤操作を排除してより操作者の意図に沿った入力を行うことができる。 According to another feature of the present invention, the input control unit performs input control based on the two-point touch when the two-point touch is detected within a predetermined time, and performs the second touch from the first touch detection. When the detection time exceeds a predetermined time, input control different from input control based on two-point touch is performed. Accordingly, it is possible to perform input based on the two-point touch without strictly touching the two points simultaneously, and to perform input different from the two-point simultaneous touch by the first point touch and the second point touch. More specifically, the input control unit performs input control of the first touch based on the second touch when the time from the first touch detection to the second touch detection exceeds a predetermined time. Performs different input controls. It should be noted that if the predetermined time for performing the two-point touch and the predetermined time for performing the input different from the first point touch for the second point touch are set differently, the erroneous operation is eliminated and the operator's intention is more met. Can be input.
本発明の他の特徴によれば入力制御部は、2点の時間経過に従う平行移動の検知に基づいて2点タッチに基づく入力制御を行う。これによって手に操作上の負担をかけない状態で、2点操作による入力を行うことができる。より具体的な特徴によれば、入力制御部は、同時刻における2点の相対位置および時間経過に従う平行移動の検知に基づいて2点タッチに基づく入力制御を行う。これによって、入力情報を決定する2点の相対位置情報およびその入力の実行を確実に行うことができる。 According to another aspect of the present invention, the input control unit performs input control based on a two-point touch based on detection of parallel movement over time at two points. As a result, it is possible to perform an input by a two-point operation without placing an operational burden on the hand. According to a more specific feature, the input control unit performs input control based on a two-point touch based on detection of a relative movement of two points at the same time and a parallel movement according to the passage of time. Thereby, the relative position information of the two points for determining the input information and the execution of the input can be surely performed.
本発明の他の特徴によれば、入力制御部は、時間経過に伴う2点の第1成分および第2成分の一方の相対関係の変化に基づいて入力制御を行う。これによって、2点の2次元的な位置が厳密でなくても位置次元的な第1成分および第2成分の一方の相対関係の変化により容易に入力をおこなうことができる。 According to another feature of the present invention, the input control unit performs input control based on a change in the relative relationship between one of the two first components and the second component over time. As a result, even if the two-dimensional positions of the two points are not precise, it is possible to easily input by changing the relative relationship of one of the first and second components in the position dimension.
本発明の他の特徴によれば、入力制御部は、時間経過に伴う2点の第1成分の相対関係の変化方向と時間経過に伴う2点の第2成分の相対関係の変化方向が逆であることに基づいて入力制御を行う。これによって2点のタッチ位置をねじる動作による入力を行うことができる。 According to another aspect of the present invention, the input control unit reverses the change direction of the relative relationship between the two first components over time and the change direction of the relative relationship between the two second components over time. Input control is performed based on the above. As a result, it is possible to perform an input by an operation of twisting the two touch positions.
上記2点のタッチ位置のねじり動作検知のより具体的な例として、入力制御部は、時間経過に伴う2点の第1成分の相対関係の変化方向と時間経過に伴う2点の第2成分の相対関係の変化方向が逆であるとき円の入力制御を行う。これによって2つの指により円弧を描く自然な動作により円の入力を行うことができる。さらに具体的な特徴によれば、入力制御部は、所定時点でタッチされている2点の相対距離を円の直径とする。これにより、例えばまず2点にタッチすることで直径を決めあとは大まかに短い円弧を描くことによって円の入力が可能となる。これは1点で円を描いて入力するよりも極めて効率的で容易な入力手段となる。 As a more specific example of the torsional motion detection of the two touch positions, the input control unit may change the direction of the relative relationship between the two first components with time and the second second component with time. When the relative change direction of the circle is opposite, the circle input control is performed. Thus, a circle can be input by a natural operation of drawing an arc with two fingers. According to a more specific feature, the input control unit sets a relative distance between two points touched at a predetermined time as the diameter of the circle. Thus, for example, by touching two points first, after determining the diameter, a circle can be input by drawing a roughly short arc. This is a very efficient and easy input means compared to drawing a circle at one point.
上記のように、本発明によれば、種々の有用な情報入力が可能でかつ操作が直感的かつ容易なタッチパネル入力装置を提供することができる。 As described above, according to the present invention, it is possible to provide a touch panel input device that can input various useful information and is intuitive and easy to operate.
図1は、本発明の実施の形態に係るタッチパネル入力装置の実施例1を示すブロック図である。実施例1は車両のナビゲーションシ装置(以下カーナビ装置)2を構成しており、装置全体を制御するコンピュータからなる制御部4を有し、運転者による操作部6の操作に応じて、カーナビ装置2を制御する。この制御部4の機能は記憶部8に格納されたソフトウエアによって実行される。記憶部8は、またカーナビ装置2の制御に必要な種々のデータを一時的に格納する。また、制御部4は表示ドライバ10を介して抵抗膜式タッチパネル表示部12の表示を制御し、操作部6の操作に必要なGUI表示を行うとともに制御結果の表示を行う。 FIG. 1 is a block diagram showing Example 1 of the touch panel input device according to the embodiment of the present invention. The first embodiment constitutes a vehicle navigation system device (hereinafter referred to as a car navigation device) 2, which has a control unit 4 composed of a computer for controlling the entire device, and the car navigation device according to the operation of the operation unit 6 by the driver. 2 is controlled. The function of the control unit 4 is executed by software stored in the storage unit 8. The storage unit 8 also temporarily stores various data necessary for controlling the car navigation device 2. Further, the control unit 4 controls the display of the resistive touch panel display unit 12 via the display driver 10, displays a GUI display necessary for the operation of the operation unit 6, and displays a control result.
抵抗膜式タッチパネル表示部12は表示部であるとともにタッチパネル入力装置となっていて、表示に直接タッチすることにより入力操作を行うGUI操作部となっている。また、抵抗膜式タッチパネル表示部12は、上下左右のタッチ位置情報を出力する4線の出力線(図1では、簡単のため情報伝達方向を示す一本の線で図示)によって制御部4に接続されており、制御部4はこの4線の出力を分析処理することにより、2点のタッチ位置およびその移動を検知することが可能である。この2点のタッチ位置検知による入力の詳細については、後述する。 The resistive touch panel display unit 12 is a display unit and a touch panel input device, and is a GUI operation unit that performs an input operation by directly touching the display. In addition, the resistive touch panel display unit 12 is connected to the control unit 4 by four output lines (in FIG. 1, shown as a single line indicating the information transmission direction for simplicity) that outputs the touch position information of the top, bottom, left, and right. The controller 4 is connected, and the four-wire output is analyzed to detect the two touch positions and their movement. Details of the input by detecting the touch position of these two points will be described later.
GPS部18は、GPSシステムに基づいて衛星および最寄の放送局よりカーナビ装置2の搭載された車両の絶対位置情報である緯度、経度、および高度の情報を得て制御部4に送る。制御部4は、GPS部14からの絶対位置情報を処理し、地図記憶部16の提供する地図上での車両の位置を抵抗膜式タッチパネル表示部12に表示する。 The GPS unit 18 obtains latitude, longitude, and altitude information, which are absolute position information of the vehicle on which the car navigation device 2 is mounted, from the satellite and the nearest broadcasting station based on the GPS system and sends the information to the control unit 4. The control unit 4 processes the absolute position information from the GPS unit 14 and displays the position of the vehicle on the map provided by the map storage unit 16 on the resistive touch panel display unit 12.
カーナビ装置2は、地図記憶部16に記憶する地図情報の更新等のために無線で外部と通信するため、無線通信部18およびケーブル経由の入出力部20を備えている。なお、無線通信部は、通常の電話回線によるものであってもよいし、専用の近距離無線通信部であってもよい。これらの無線通信部18および入出力部20は地図情報の入手の他、カーナビシステムまたはGPSシステムについて機能のバージョンアップやメンテナンスデータが発生したとき、外部と通信してこれらの情報を入手することができる。なお、制御部4への操作情報入力は、操作部6または抵抗膜式タッチパネル表示部12からの操作に加え、マイク19から音声によっても行うことができる。また、運転者等への情報出力は抵抗膜式タッチパネル表示部12での表示に加え、スピーカ21により音声によっても行うことができる。 The car navigation device 2 includes a wireless communication unit 18 and an input / output unit 20 via a cable in order to communicate with the outside wirelessly in order to update map information stored in the map storage unit 16. The wireless communication unit may be a normal telephone line or a dedicated short-range wireless communication unit. In addition to obtaining map information, these wireless communication unit 18 and input / output unit 20 may communicate with the outside to obtain such information when a function upgrade or maintenance data is generated for a car navigation system or a GPS system. it can. The operation information input to the control unit 4 can be performed by voice from the microphone 19 in addition to the operation from the operation unit 6 or the resistive touch panel display unit 12. In addition to the display on the resistive touch panel display unit 12, information output to the driver or the like can be performed by voice through the speaker 21.
図2から図9は、図1の抵抗膜式タッチパネル表示部(以下、「表示部」と略称)12における表示および2点タッチ検知に関連する種々の機能を説明するための表示画面図である。なお、カーナビ装置において、表示部12は車両の中央部付近に配置されるのが常であるが、右ハンドル車の場合を例にとり、運転者または助手席乗車者が表示部12におけるタッチパネルを利用して種々のGUI操作をどのように行うかについて説明する。 2 to 9 are display screen diagrams for explaining various functions related to display and two-point touch detection in the resistive touch panel display unit (hereinafter, abbreviated as “display unit”) 12 of FIG. . In the car navigation system, the display unit 12 is usually arranged near the center of the vehicle, but the driver or passenger in the passenger seat uses the touch panel on the display unit 12 as an example of a right-hand drive vehicle. How to perform various GUI operations will be described.
まず、図2は、表示部12上に表示されるメニューにタッチしてメニュー選択を行うGUI操作を行う場合を示す。図2は、運転者が操作している場合であって、この場合、操作する手は左手22となる。2点にタッチするには親指とそれ以外の任意の指のいずれか(例えば中指)を用いるのが種々の操作において最も自由度が大きいが、運転席に座った運転者が左手22を自然に表示部12においた場合、図2(A)に示すように親指の指先は他の指の指先よりも低い位置になる。従って親指のタッチ位置24とはそれ以外の任意の指のいずれか(例えば中指であり、以下中指を例にとって説明する)のタッチ位置26を結んだ線は通常、右下がりとなる。 First, FIG. 2 shows a case where a GUI operation for selecting a menu is performed by touching a menu displayed on the display unit 12. FIG. 2 shows a case where the driver is operating. In this case, the operating hand is the left hand 22. To touch two points, using either the thumb or any other finger (for example, the middle finger) is the most flexible in various operations, but the driver sitting in the driver's seat naturally holds the left hand 22 When placed on the display portion 12, the fingertip of the thumb is positioned lower than the fingertips of the other fingers as shown in FIG. Therefore, the line connecting the touch position 26 of any other finger (for example, the middle finger, which will be described below by taking the middle finger as an example) is usually downwardly to the right.
制御部4は、表示部12からの情報に基づき右下がりの2点が同時タッチ状態にあることを検知すると、表示ドライバ10に指示して図2のような左手用メニューレイアウトを表示部12に表示させる。具体的に述べると、左手用メニューレイアウトでは、左手22の親指以外のタッチが予定される行先メニュー28、オーディオメニュー30およびエアコンメニュー32が表示部12の左上寄りに配置されるとともに、親指のタッチが予定される決定エリア34は、表示部12の右下寄りに配置される。なお、制御部4が左手用メニュー表示を指示する段階では、親指のタッチ位置24と中指のタッチ位置26の絶対位置はどこでもよく、同時タッチ状態の2点を結んだ線が相対的に右下がりであることだけが判定の情報となる。 When the control unit 4 detects that two lower right points are in the simultaneous touch state based on the information from the display unit 12, the control unit 4 instructs the display driver 10 to display the left-hand menu layout as shown in FIG. Display. Specifically, in the left-hand menu layout, the destination menu 28, the audio menu 30, and the air conditioner menu 32 where a touch other than the thumb of the left hand 22 is scheduled are arranged on the upper left side of the display unit 12, and the touch of the thumb The decision area 34 scheduled for is arranged near the lower right side of the display unit 12. When the control unit 4 instructs the left hand menu display, the absolute position of the thumb touch position 24 and the middle finger touch position 26 may be anywhere, and the line connecting the two points in the simultaneous touch state is relatively lower right. Only that is the determination information.
次に、このような左手用レイアウトにおけるメニュー選択について説明する。例えば中指がメニューの一つ(例えば行先メニュー28)にタッチされ、同時に親指が決定エリア34にタッチされていると判断されると、親指のタッチ位置24と中指のタッチ位置26の絶対位置が検出され、それに応答して図2(A)のようにタッチが検知された行先メニュー28および決定エリア34が太枠で表示される。この状態で、親指の決定エリア34へのタッチを継続したまま中指のタッチ位置をずらすことによって他のメニューを選択することも可能であり、これに応答して太枠表示が行先メニュー28からオーディオメニュー30またはエアコンメニュー32に移動する。このようなメニュー選択の移動は、白矢印36に示すように左手22を上下に平行移動することによって可能である。そしてこのような左手22の平行移動によって親指が白矢印38に示すように上下に平行移動してもそのタッチ状態が保持されるよう、決定エリア34は上下に長く設定されている。 Next, menu selection in such a left-hand layout will be described. For example, when it is determined that the middle finger is touched on one of the menus (for example, the destination menu 28) and the thumb is touched on the decision area 34 at the same time, the absolute positions of the thumb touch position 24 and the middle finger touch position 26 are detected. In response to this, the destination menu 28 and the decision area 34 in which a touch is detected are displayed in a thick frame as shown in FIG. In this state, it is also possible to select another menu by shifting the touch position of the middle finger while continuing to touch the determination area 34 of the thumb, and in response to this, a thick frame display is displayed from the destination menu 28 as an audio. Move to menu 30 or air conditioner menu 32. Such menu selection can be moved by moving the left hand 22 up and down as indicated by the white arrow 36. The determination area 34 is set to be long in the vertical direction so that the touch state is maintained even when the thumb moves in parallel up and down as indicated by the white arrow 38 by the parallel movement of the left hand 22.
なお、メニュー選択の変更は、上記のように左手22を上下に平行移動する場合に限らず、左手の自然な動きに応じて任意の2点タッチを行うことが可能である。手の他の動きの例については後述する。また、必ずしも上記のように2点のタッチ状態を保ったままで手の移動を行う必要はなく、一度指を表示部12から完全に離し、その後、新たな選択のために中指および親指のタッチを行ってもよい。また、2点のタッチは完全に同時に行う必要はなく、まず中指でメニューのいずれかにタッチしてから親指で決定エリア34にタッチしてもよい。逆に、先に親指で決定エリア34にタッチしてからこれを支点として中指でメニューのいずれかにタッチしてもよい。図2のように左手用レイアウトが表示されてからのメニュー選択画面では、メニューのいずれかおよび決定エリア34の2点の同時タッチ状態が検出されない限り、これに反応してメニューおよび決定エリアが太枠表示に変わることはない。 Note that the menu selection is not limited to the case where the left hand 22 is translated up and down as described above, and any two-point touch can be performed according to the natural movement of the left hand. Examples of other hand movements will be described later. In addition, it is not always necessary to move the hand while maintaining the two-point touch state as described above, and once the finger is completely removed from the display unit 12, the middle finger and the thumb are then touched for a new selection. You may go. Further, it is not necessary to touch the two points completely at the same time. First, one of the menus may be touched with the middle finger and the decision area 34 may be touched with the thumb. Conversely, the decision area 34 may be first touched with the thumb and then touched on any of the menus with the middle finger as a fulcrum. In the menu selection screen after the left-hand layout is displayed as shown in FIG. 2, the menu and the decision area are thickened in response to any of the menus and the decision area 34 unless two simultaneous touch states are detected. There is no change to the frame display.
メニュー選択を確定させるためには、例えば、図2(A)のように行先メニュー28および決定メニュー34が太枠表示となっている状態において、中指および親指のタッチを継続したまま黒矢印40で示すように親指を中指に向かってスライドさせる。この親指の動きによって決定エリア34が行先メニュー24に向かってドラグされ、例えば両者が重なるまでドラグされた状態になると行先メニュー28の選択が確定される。そして左手22を表示部12から離すと図2(B)に示すように選択が確定された行先メニュー28の表示色が変わり、メニューの選択が確定されたことを表示する。 In order to confirm the menu selection, for example, in the state where the destination menu 28 and the decision menu 34 are displayed in a thick frame as shown in FIG. Slide your thumb toward the middle finger as shown. The decision area 34 is dragged toward the destination menu 24 by the movement of the thumb. For example, when the two are overlapped with each other, the selection of the destination menu 28 is confirmed. When the left hand 22 is released from the display unit 12, as shown in FIG. 2B, the display color of the destination menu 28 for which the selection has been confirmed changes, indicating that the menu selection has been confirmed.
図3は、表示部12を右ハンドル車の助手席側から操作する場合の表示画面図であり、この場合、操作する手は右手42となる。助手席に座った同乗者が右手42を自然に表示部12においた場合、図3(A)に示すように右手42の親指の指先は他の指の指先よりも低い位置になる。従って親指のタッチ位置44と中指のタッチ位置46を結んだ線は通常、左下がりとなる。 FIG. 3 is a display screen diagram when the display unit 12 is operated from the passenger seat side of the right-hand drive vehicle. In this case, the operating hand is the right hand 42. When the passenger sitting in the passenger seat naturally places the right hand 42 on the display unit 12, the fingertip of the thumb of the right hand 42 is lower than the fingertips of the other fingers as shown in FIG. Therefore, the line connecting the touch position 44 of the thumb and the touch position 46 of the middle finger is usually left-down.
この場合、制御部4は、表示部12からの情報に基づき左下がりの2点が同時タッチ状態にあることを検知すると、表示ドライバ10に指示して図3のような右手用メニューレイアウトを表示部12に表示させる。具体的に述べると、右手用メニューレイアウトでは、行先メニュー48、オーディオメニュー50およびエアコンメニュー52は表示部12の右上寄りに配置されるとともに、親指のタッチが予定される決定エリア54は、表示部12の左下寄りに配置される。このように図3において表示部12の左側から右手で操作する際のレイアウトは、図2のように表示部12の右側から左手で操作する場合と左右対称なので、感覚的に同様の操作となり、混乱することがない。なお、左手レイアウト決定の場合と同様、制御部4が右手用メニュー表示を指示する段階では、同時タッチ状態の2点を結んだ線が相対的に左下がりであることだけが判定の情報となる。 In this case, when the control unit 4 detects that two points on the lower left are in the simultaneous touch state based on the information from the display unit 12, the control unit 4 instructs the display driver 10 to display the right-hand menu layout as shown in FIG. This is displayed on the unit 12. More specifically, in the right-hand menu layout, the destination menu 48, the audio menu 50, and the air conditioner menu 52 are arranged near the upper right of the display unit 12, and the decision area 54 where a thumb touch is scheduled is displayed on the display unit. 12 is arranged on the lower left side. In this way, the layout when operating with the right hand from the left side of the display unit 12 in FIG. 3 is symmetrical to the case of operating with the left hand from the right side of the display unit 12 as shown in FIG. There is no confusion. As in the case of determining the left-hand layout, at the stage where the control unit 4 instructs the right-hand menu display, only the fact that the line connecting the two points in the simultaneous touch state is relatively lower left is the determination information. .
次に、図3の右手用レイアウトにおけるメニュー選択について説明する。基本的には図2の右手用レイアウトと同様なので、異なるところを中心に簡略に説明する。例えば中指がメニューの一つ(例えばオーディオメニュー50)にタッチされ、同時に親指が決定エリア54にタッチされていると判断されると、図2と同様にして親指のタッチ位置44と中指のタッチ位置46の絶対位置が検出され、それに応答して図3(A)のようにタッチが検知されたオーディオメニュー50および決定エリア54が太枠で表示される。以下、図3では、図2とは手の異なった動きによる2点タッチの例を示すが、図2や図3に限ることなく、自然な手の動きによる2点タッチが可能であることはいうまでもない。 Next, menu selection in the right-hand layout in FIG. 3 will be described. Since it is basically the same as the right-hand layout shown in FIG. For example, if it is determined that the middle finger is touched on one of the menus (for example, the audio menu 50) and the thumb is touched on the decision area 54 at the same time, the thumb touch position 44 and the middle finger touch position are determined as in FIG. The absolute position 46 is detected, and in response to this, the audio menu 50 and the decision area 54 in which a touch is detected are displayed in a thick frame as shown in FIG. In the following, FIG. 3 shows an example of a two-point touch by a different hand movement from that in FIG. 2, but the two-point touch by a natural hand movement is possible without being limited to FIG. 2 and FIG. Needless to say.
図3では、親指の決定エリア34へのタッチを支点としてこれを中心に右手42を白矢印56のように回転させることにより中指のタッチ位置をずらし、他のメニューを選択することが可能である。また、親指は必ずしも固定している必要はなく、決定エリア54の中で自然な移動を伴ってもよい。このような中指のタッチ位置の移動に応答して太枠表示がオーディオメニュー50から行先メニュー48またはエアコンメニュー52に移動する。 In FIG. 3, by touching the thumb determination area 34 as a fulcrum, the right hand 42 is rotated as shown by a white arrow 56 to shift the touch position of the middle finger, and another menu can be selected. . Further, the thumb does not necessarily have to be fixed, and may naturally move in the decision area 54. In response to the movement of the touch position of the middle finger, the thick frame display moves from the audio menu 50 to the destination menu 48 or the air conditioner menu 52.
なお、このようなメニュー選択の変更は、必ずしも上記のように2点のタッチ状態を保ったまま行う必要はなく、一度指を表示部12から完全に離し、その後新たな選択のために中指および親指のタッチを行ってもよいことは図2(A)の場合と同様である。また、2点のタッチは完全に同時に行う必要がないことも図2(A)の場合と同様である。図3のように右手用レイアウトにおいても、このレイアウトが表示されてからのメニュー選択画面では、メニューのいずれかおよび決定エリア54の2点の同時タッチ状態が検出されない限り、これに反応してメニューおよび決定エリアが太枠表示に変わることはないからである。 Note that such a menu selection change does not necessarily have to be performed while maintaining the two-point touch state as described above, and once the finger is completely removed from the display unit 12, and then the middle finger and the new finger are selected for a new selection. The thumb touch may be performed as in the case of FIG. Similarly to the case of FIG. 2A, it is not necessary to touch two points completely at the same time. Even in the right-hand layout as shown in FIG. 3, on the menu selection screen after this layout is displayed, unless a simultaneous touch state of any of the menus and the decision area 54 is detected, the menu is reacted accordingly. This is because the decision area does not change to a thick frame display.
メニュー選択の確定は、図3(A)と同様にして、例えば、図3(A)のようにオーディオメニュー50および決定メニュー54が太枠表示となっている状態において、中指および親指のタッチを継続したまま黒矢印58で示すように親指を中指に向かってスライドさせ、決定エリア54をオーディオメニュー50に向かってドラグすれば、両者が重なる時点でオーディオメニュー50の選択が確定される。そして右手42を表示部12から離すと図3(B)に示すように選択が確定されたオーディオメニュー50の表示色が変わり、メニューの選択が確定されたことを表示する The menu selection is confirmed in the same manner as in FIG. 3A, for example, when the audio menu 50 and the decision menu 54 are displayed in a thick frame as shown in FIG. If the user continues to slide the thumb toward the middle finger as indicated by the black arrow 58 and drags the decision area 54 toward the audio menu 50, the selection of the audio menu 50 is finalized when the two overlap. Then, when the right hand 42 is released from the display unit 12, the display color of the audio menu 50 whose selection has been confirmed changes as shown in FIG. 3B, indicating that the menu selection has been confirmed.
なお、制御部4は、右下がりの2点同時タッチ状態が検知されたときであっても車両が走行中の場合は図2の左手用レイアウトを表示せず、代わりに「走行中は運転者によるメニュー変更操作禁止」の旨を表示部12上の表示またはスピーカ21のアナウンスにより運転者に告知する。これは、走行中の運転者の操作による事故を防止するためである。なお、制御部4が左下がりの2点同時タッチ状態が検知されたときは車両が停止中であっても走行中であっても図3の左手用レイアウトが表示されるので、走行中であれば助手席の同乗者にメニューの変更を依頼することができる。ここで、右手用レイアウトが表示されているとき、運転者の右手または左手の不自然な姿勢により右下がりの2点タッチをすることも不可能ではないが、運転者がこのような危険な行動を取らないよう、事前に使用説明書において告知徹底を行う。 Note that the control unit 4 does not display the left-hand layout of FIG. 2 when the vehicle is traveling even when the right-down two-point simultaneous touch state is detected, The menu change operation is prohibited ”is notified to the driver by display on the display unit 12 or announcement of the speaker 21. This is to prevent accidents caused by the operation of the driver while traveling. Note that when the control unit 4 detects a two-point simultaneous touch state with a lower left, the left-hand layout of FIG. 3 is displayed whether the vehicle is stopped or traveling, You can ask the passenger in the passenger seat to change the menu. Here, when the layout for the right hand is displayed, it is not impossible to make a two-point touch to the lower right due to the unnatural posture of the driver's right or left hand, but the driver is Thoroughly notify the user in advance in order to avoid taking them.
図4は、図2(B)のようにして行先メニューの選択が決定することにより自動的に表示される行先入力用の表示画面図を示す。図4(A)は左手用レイアウトであり、図2(A)と同様にしてタッチされた2点を結んだ線が相対的に右下がりであることが検知されることにより表示される。図4では、親指のタッチ位置60と親指以外の指(図4では例として人差指)のタッチ位置62の2点の相対位置を検知している。 FIG. 4 shows a display screen diagram for destination input that is automatically displayed when the selection of the destination menu is determined as shown in FIG. FIG. 4A shows a left-hand layout, which is displayed by detecting that the line connecting the two touched points is relatively lower right as in FIG. 2A. In FIG. 4, two relative positions of the touch position 60 of the thumb and the touch position 62 of a finger other than the thumb (for example, the index finger in FIG. 4) are detected.
図4(A)に示した行先入力用の表示画面の左手用レイアウトでは、左手22の親指以外のタッチが予定される「あかさたなはまやらわ」の「あ」以外の各行をそれぞれ意味する「K」、「S」、「T」、「N」、「H」、「M」、「Y」、「R」、「W」の子音ボタン群64(簡単のため代表として「K」のみに番号付与)が表示部12の画面上端近傍に配置されるとともに、親指のタッチが予定される「あいうえお」の各段をそれぞれ意味する「a」、「i」、「u」、「e」、「o」の母音ボタン群66(簡単のため代表として「a」のみに番号付与)が表示部12の画面右端近傍に配置される。 In the left-hand layout of the display screen for destination input shown in FIG. 4A, each line other than “A” of “Akasata Hamawara” where a touch other than the thumb of the left hand 22 is scheduled is indicated. K ”,“ S ”,“ T ”,“ N ”,“ H ”,“ M ”,“ Y ”,“ R ”,“ W ”consonant button group 64 (for simplicity, only“ K ”is representative. Numbering) is arranged in the vicinity of the upper end of the screen of the display unit 12 and “a”, “i”, “u”, “e”, A group of “o” vowel buttons 66 (for simplicity, only “a” is numbered as a representative) is arranged near the right end of the screen of the display unit 12.
次に、上記のような左手用レイアウトにおける仮名文字入力について説明する。例えば人差指が子音ボタン群64の一つ(例えば「T」)にタッチされ、同時に親指が母音ボタン群66の一つ(例えば「u」)にタッチされていると判断されると、親指のタッチ位置60と人差指のタッチ位置62の絶対位置が検出され、それに応答して図4(A)のようにタッチが検知された子音ボタン「T」および母音ボタン「u」が太枠で表示される。これらの組み合わせはローマ字の「Tu」、すなわち仮名の「つ」を意味する。このようにして、親指以外の指による子音ボタンのいずれかおよび親指による母音ボタンの2点タッチにより任意の子音と母音の組合せを指定することができる。なお、「あ」行の仮名については、親指以外の指によるブランクボタン68へのタッチと親指による母音ボタンの2点タッチにより指定することができる。さらに「ん」の指定については、親指以外の指によるブランクボタン68へのタッチと親指による「n」ボタン70の2点タッチにより指定することができる。 Next, input of kana characters in the left-hand layout as described above will be described. For example, if it is determined that the index finger is touched on one of the consonant button groups 64 (for example, “T”) and the thumb is touched on one of the vowel button groups 66 (for example, “u”), the thumb touches. The absolute position of the position 60 and the touch position 62 of the index finger is detected, and in response to this, the consonant button “T” and the vowel button “u” whose touch is detected are displayed in a thick frame as shown in FIG. . These combinations mean the Roman letter “Tu”, that is, the kana “tsu”. In this way, any combination of consonants and vowels can be specified by two-point touch of any one of the consonant buttons with a finger other than the thumb and the vowel button with the thumb. The pseudonym of the “A” line can be designated by touching the blank button 68 with a finger other than the thumb and two-point touching with a vowel button with the thumb. Furthermore, “n” can be designated by touching the blank button 68 with a finger other than the thumb and two-point touch of the “n” button 70 with the thumb.
なお、上記の入力では濁音、半濁音、撥音、促音、拗音などの入力はできないが、行先入力は新規入力ではなく、元々地図上に登録されている地名などを検索するための情報なので、入力される文字列が増えることによってその配列からソフトウエアで推測することにより該当部分を濁音、半濁音、撥音、促音、拗音に自動修正する。なお、表示部において「G」、「P」、「Ky」などの子音ボタンの数を増やせば、濁音、半濁音、撥音、促音、拗音を直接入力することも可能である。 Note that the above input does not allow you to input muddy sounds, semi-turbid sounds, repellent sounds, prompt sounds, stuttering, etc., but the destination input is not a new input, it is information for searching place names etc. originally registered on the map. As the number of generated character strings increases, the corresponding portion is automatically corrected to muddy sound, semi-turbid sound, repelling sound, sounding sound, and roaring sound by inferring from the arrangement by software. If the number of consonant buttons such as “G”, “P”, and “Ky” is increased on the display unit, it is also possible to directly input a muddy sound, a semi-turbid sound, a repellent sound, a prompt sound, and a stuttering sound.
仮名入力においても、2点のタッチは完全に同時に行う必要はなく、まず人差指でまず子音ボタン群64またはブランクボタン68のいずれかにタッチしてから親指で母音ボタン群66または「n」ボタン70のいずれかにタッチしてもよいし、その逆でもよい。2点の組合せより指定された仮名の入力を確定させるためには、例えば、図4(A)のように子音ボタン群64の「T」ボタンおよび母音ボタン群66の「u」ボタンが太枠表示となっている状態において、人差指および親指のタッチを継続したまま黒矢印72で示すように親指を人差指に向かってスライドさせる。この親指の動きによって母音ボタン群66の「u」ボタンが子音ボタン群64の決定エリア34が行先メニュー24に向かってドラグされ、例えば所定以上両者が接近すると子音と母音の組合せによる仮名の入力が確定する。そして入力が新規確定した仮名は、入力ウインドウ74に「つ」のごとく確定済みの文字に続けて大文字で表示される。上記のような子音ボタンに母音ボタンをドラグしてくっつけることにより、仮名を確定させる操作は、仮名のローマ字書きに準じた感覚での操作となり、違和感が少ない。これは日本語のローマ字入力に適するが、類似した子音および母音の組合せ文字構造を持つハングル文字の入力にも適する。なお、ハングル文字の場合、パッチムの付加は文字の基本構成を入力したあと図4の「n」ボタン70または80のように母音ボタン群の列に配置されるパッチムボタンおよび子音ボタンの組合せを続けて追加指定することにより入力する。 In the kana input, it is not necessary to touch the two points completely at the same time. First, the forefinger first touches either the consonant button group 64 or the blank button 68, and then the vowel button group 66 or the “n” button 70 with the thumb. Either of these may be touched or vice versa. In order to confirm the input of the kana specified by the combination of two points, for example, as shown in FIG. 4A, the “T” button of the consonant button group 64 and the “u” button of the vowel button group 66 are bold. In the displayed state, the thumb is slid toward the index finger as indicated by the black arrow 72 while touching the index finger and thumb. By the movement of the thumb, the “u” button of the vowel button group 66 is dragged from the decision area 34 of the consonant button group 64 toward the destination menu 24. Determine. Then, the kana whose input has been newly confirmed is displayed in capital letters after the confirmed character in the input window 74 as “T”. By dragging the vowel button to the consonant button as described above, the operation for confirming the kana becomes an operation according to the romanized writing of the kana, and there is little discomfort. This is suitable for Japanese Romaji input, but is also suitable for inputting Korean characters with a similar consonant and vowel combination character structure. In the case of a Hangul character, the addition of the patch is continued by inputting the basic structure of the character and then combining the combination of the patch button and the consonant button arranged in the row of vowel buttons like the “n” button 70 or 80 in FIG. Input by specifying the additional.
図4の行先入力行先入力用の表示画面には、さらに数字入力用のテンキーボタン76が表示部12の画面中央部近傍に表示される。このようなテンキーボタン76の配置は、子音ボタン群64を表示部12の画面上端近傍に配置するとともに母音ボタン群66を表示部12の画面右端近傍に配置し、画面中央部に空きスペースを確保したことにより可能となる。テンキーボタン76による数字入力は通常通りテンキーボタンのいずれかをタッチする1点タッチにより行う。この場合、左手用レイアウト決定における任意位置の2点タッチのうちの1点目のタッチとの混同を避けるため、テンキーの1点タッチが検知されてから、所定時間(例えば1秒)待って、2点目が続けてタッチされないことを確認してから数字入力を確定する。逆に言えば、2点タッチを行う場合は、同時である必要はないものの、2点目のタッチを1点目のタッチから所定時間以内に続けて行うべきことがユーザに要請されることになる。このようにして、所定時間の設定により、1点タッチか2点タッチかの識別が行われる。 In the destination input destination input display screen of FIG. 4, a numeric keypad 76 for inputting numbers is further displayed near the center of the screen of the display unit 12. Such an arrangement of the numeric key buttons 76 arranges the consonant button group 64 in the vicinity of the upper end of the screen of the display unit 12 and arranges the vowel button group 66 in the vicinity of the right end of the screen of the display unit 12 to secure an empty space in the center of the screen. This is possible. Numeric input using the numeric key buttons 76 is performed by one-point touch in which one of the numeric key buttons is touched as usual. In this case, in order to avoid confusion with the first touch of the two-point touch at an arbitrary position in the left-hand layout determination, wait for a predetermined time (for example, one second) after the ten-point touch of the numeric keypad is detected, After confirming that the second point is not touched continuously, confirm the number input. Conversely, when performing a two-point touch, the user is required to perform the second point touch within a predetermined time after the first point touch, although it is not necessary to be simultaneous. Become. In this way, identification of one-point touch or two-point touch is performed by setting the predetermined time.
図4(B)は、行先入力のための右手用レイアウトであり、図3(A)と同様にしてタッチされた2点を結んだ線が相対的に左下がりであることが検知されることにより表示される。図4(B)に示した右手用レイアウトでは、右手42の親指以外のタッチが予定される子音ボタン群64およびブランクボタン68が図4(A)と同様にして表示部12の画面上端近傍に配置される。このとき操作上の便のために図4(B)のようにその位置を若干右側にシフトしてレイアウトされる。しかしながら、子音の配置順自体は混乱を避けるため図4(A)と同様となっている。また、レイアウトの余裕があれば、子音ボタン群64およびブランクボタン68のレイアウトは図4(A)の左手用レイアウトと図4(B)の右手用レイアウトで全く共通としてもよい。 FIG. 4B shows a right-hand layout for a destination input, and it is detected that a line connecting two touched points is relatively leftward as in FIG. 3A. Is displayed. In the right-hand layout shown in FIG. 4B, the consonant button group 64 and the blank button 68 that are expected to be touched except for the thumb of the right hand 42 are located near the upper end of the screen of the display unit 12 in the same manner as in FIG. Be placed. At this time, for convenience of operation, the layout is shifted slightly to the right as shown in FIG. However, the consonant arrangement order itself is the same as in FIG. 4A to avoid confusion. If there is a margin for the layout, the consonant button group 64 and the blank button 68 may be completely the same for the left-hand layout in FIG. 4A and the right-hand layout in FIG. 4B.
これに対し、図4(B)における右手用レイアウトでは、右手42の親指のタッチが予定される母音ボタン群78および「n」ボタン80が、図4(A)の左手用レイアウトとは異なり、表示部12の画面左端近傍に配置される。但し、縦方向のボタンの配列自体は混乱を避けるため図4(A)と同じである。右手用レイアウトでは、このようなレイアウトにより、図3(A)と同様にして右手の自然な姿勢により仮名入力が行えるようにしている。図4(B)の右手用レイアウトにおける子音ボタンと母音ボタンの組合せによる仮名の指定および母音ボタンのドラグによる仮名入力の確定については図4(A)の左手用レイアウトの場合と同様なので説明は省略する。但し、入力ウインドウ82は手の影にならないよう、図4(B)では画面左寄りにシフトされている。なお、図4(B)の右手用レイアウトにおけるテンキーボタン76の配置は、図4(A)の左手用レイアウトにおけるものと共通である。 On the other hand, in the layout for the right hand in FIG. 4B, the vowel button group 78 and the “n” button 80 that are expected to touch the thumb of the right hand 42 are different from the layout for the left hand in FIG. The display unit 12 is arranged near the left end of the screen. However, the arrangement of the buttons in the vertical direction is the same as that in FIG. 4A to avoid confusion. In the layout for the right hand, such a layout allows the kana to be input with the natural posture of the right hand in the same manner as in FIG. The specification of kana by the combination of consonant buttons and vowel buttons in the right-hand layout of FIG. 4B and the confirmation of kana input by dragging the vowel buttons are the same as in the left-hand layout of FIG. To do. However, the input window 82 is shifted to the left of the screen in FIG. The arrangement of the numeric key buttons 76 in the right-hand layout in FIG. 4B is the same as that in the left-hand layout in FIG.
図4による行先入力の結果、入力ウインドウ78または82に所望の行先が表示されたとき、入力ウインドウ78または82をタッチすると表示部12には自車位置を含む地図が表示され、ナビゲーションが開始される。なお、図2と同様にして制御部4は、右下がりの2点同時タッチ状態が検知されたときであっても車両が走行中の場合は図4(A)の左手用レイアウトを表示せず、代わりに「走行中は運転者によるメニュー変更操作禁止」の旨を表示部12上の表示またはスピーカ21のアナウンスにより運転者に告知する。 When a desired destination is displayed in the input window 78 or 82 as a result of the destination input shown in FIG. 4, when the input window 78 or 82 is touched, a map including the vehicle position is displayed on the display unit 12, and navigation is started. The In the same way as in FIG. 2, the control unit 4 does not display the left-hand layout in FIG. 4A when the vehicle is traveling even when the two-point simultaneous touching state of lower right is detected. Instead, the driver is informed by the display on the display unit 12 or the announcement of the speaker 21 that the menu change operation is prohibited by the driver while driving.
図5から図9は、自車の位置84を含む地図86が表示部12に表示され、ナビゲーションが行われている状態における地図の拡大縮小操作を説明する画面図である。まず、図5は、走行中における左手操作と右手操作の違いを説明する画面図である。上記で説明したように右ハンドル車の場合、左手操作は運転者によって行われ、右手操作は助手席の同乗者によって行われる。この違いにより、本発明では右手操作と左手操作が異なるよう構成し、運転者に負担をかけないようにして危険を防止するとともに、助手席の同乗者からはその意図をより反映した操作が行えるよう構成している。 FIG. 5 to FIG. 9 are screen views illustrating a map enlargement / reduction operation in a state where a map 86 including the position 84 of the host vehicle is displayed on the display unit 12 and navigation is performed. First, FIG. 5 is a screen diagram for explaining the difference between the left hand operation and the right hand operation during traveling. As described above, in the case of a right-hand drive vehicle, the left hand operation is performed by the driver, and the right hand operation is performed by the passenger in the passenger seat. Due to this difference, the present invention is configured so that the right-hand operation and the left-hand operation are different from each other to prevent danger by not placing a burden on the driver, and an operation that more reflects the intention can be performed from the passenger in the passenger seat. It is configured as follows.
図5(A)は、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることが検知されており、その結果として左手操作であることを認識する。この場合は、2点の絶対位置がどこにあるかにかかわらずその相対位置のみを情報として以後の処理を行うので、運転者に正確なタッチ位置を要求することなく、左手の自然なタッチのみに基づいて処理が行われる。これに対し、図5(B)は、親指のタッチ位置92と人差指のタッチ位置94の2点を結んだ線が相対的に左下がりであることが検知されており、その結果として右手操作であることを認識する。この場合は、親指のタッチ位置92と人差指のタッチ位置94の2点の絶対位置を検知し、その2点を結ぶ線を対角線とする矩形領域96を認識して以後の処理を行うので、情報量が多くなる。そしてこの認識のため同乗者による右手操作の場合は、正確な2点のタッチを期待する。 In FIG. 5A, it is detected that the line connecting the two points of the thumb touch position 88 and the index finger touch position 90 is relatively right-down, and as a result, the left-hand operation is recognized. To do. In this case, since the subsequent processing is performed using only the relative position as information regardless of where the absolute position of the two points is, only the natural touch of the left hand is required without requiring an accurate touch position from the driver. Processing is performed based on this. On the other hand, in FIG. 5B, it is detected that the line connecting the two points of the thumb touch position 92 and the index finger touch position 94 is relatively left-down, and as a result, the right-hand operation is performed. Recognize that there is. In this case, the absolute position of the two points of the thumb touch position 92 and the index finger touch position 94 is detected, and a rectangular region 96 having a diagonal line connecting the two points is recognized, and the subsequent processing is performed. The amount increases. For this recognition, in the case of a right-hand operation by the passenger, an accurate two-point touch is expected.
図6は、図5(B)のようにして地図86に矩形領域96が認識された場合、その領域を表示部12いっぱいに拡大する操作を示す画面図である。矩形領域96を拡大するためには、図6(A)に示すように、親指および人差指をそれぞれのタッチ位置92および94から黒矢印98および100で示すように互いに離間するようスライドさせ、その後、右手42を表示部12から離す。制御部4は、この動きを拡大操作として認識し、図6(A)の矩形領域96内の地図部分を図(6(B)の地図102のように表示部12いっぱいに拡大する。このようにして、走行中の右手操作では、表示されている地図の所望の部分を切り取って表示部12いっぱいに拡大することができる。 FIG. 6 is a screen diagram showing an operation for enlarging the area to the display unit 12 when the rectangular area 96 is recognized on the map 86 as shown in FIG. To enlarge the rectangular area 96, as shown in FIG. 6A, the thumb and index finger are slid away from each touch position 92 and 94 as indicated by black arrows 98 and 100, and then The right hand 42 is moved away from the display unit 12. The control unit 4 recognizes this movement as an enlargement operation, and enlarges the map portion in the rectangular area 96 in FIG. 6A to the full display unit 12 as in the map 102 in FIG. Thus, in the right-hand operation while traveling, a desired portion of the displayed map can be cut out and enlarged to the full display unit 12.
図7は、図6の経過を経て地図が拡大された履歴がある場合において、その地図を所望の点を中心に所定の縮小率にて広域側に縮小する操作を示す画面図である。つまり、それ以前に右手により操作された履歴がある場合がこの縮小操作に該当する。図7(A)は、右手42の人差指のタッチ点104を検知することにより、縮小後の地図の中心位置106を決定する。この場合は1点タッチとなるので、2点タッチの1点目タッチと区別するため所定時間(例えば1秒)待って、その後2点目のタッチがないと1点タッチと認識する。そして中心位置106が決定されたあと右手42を表示部12から離すと、図7(B)に示すように中心位置106が地図の中央に来るように縮小地図108が表示される。このときの縮小率は1点タッチが行われる毎に所定率で縮小が行われるのでさらに縮小したい場合は、人差指による1点タッチを繰り返すことになる。それらの操作の途中で拡大の中心点を変更するのは任意である。 FIG. 7 is a screen diagram showing an operation of reducing the map to a wide area side at a predetermined reduction rate centering on a desired point when there is a history of the map being enlarged through the process of FIG. That is, the reduction operation is performed when there is a history of operations performed with the right hand before that. In FIG. 7A, the center position 106 of the reduced map is determined by detecting the touch point 104 of the index finger of the right hand 42. In this case, since it is a one-point touch, it waits for a predetermined time (for example, one second) in order to distinguish it from the first point touch of the two-point touch. When the right hand 42 is released from the display unit 12 after the center position 106 is determined, the reduced map 108 is displayed so that the center position 106 is at the center of the map as shown in FIG. At this time, the reduction rate is reduced at a predetermined rate every time one-point touch is performed. Therefore, when further reduction is desired, one-point touch with the index finger is repeated. It is optional to change the center point of the enlargement in the middle of these operations.
なお、図6および図7は、左下がりの2点タッチが検知された場合の右手操作として説明したが、車両が停止している場合は、右下がりの2点タッチが検知された場合においても、図5(B)のような矩形領域の設定が行われる。これは、運転中でない場合、危険なしに運転者に正確な操作を要求してもよいからであり、運転者は車両を停止させることによって、地図における所望の領域の拡大および所望の1点を中心とする地図の縮小を行うことができる。 6 and 7 are described as a right-hand operation when a left-pointing two-point touch is detected. However, when the vehicle is stopped, a right-down two-point touch is detected. A rectangular area as shown in FIG. 5B is set. This is because, when not driving, the driver may request an accurate operation without danger, and the driver stops the vehicle so that the desired area on the map is enlarged and the desired one point is obtained. The map at the center can be reduced.
図8は、図5(A)のようにして、2点の絶対位置がどこにあるかにかかわらず、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることだけを検知する場合において、地図の拡大操作を行う際の画面図である。この状態において地図を拡大するためには、図8(A)のように親指および人差指をそれぞれのタッチ位置88および90から白矢印110および112で示すように互いに離間するようスライドさせ、その後、左手22を表示部12から離す。制御部4は、この動きを拡大操作として認識し、図8(B)に示すように地図の中心部を固定して所定倍率で拡大した地図114を表示部12に表示する。このようにして、走行中の左手操作では、地図の位置の指定なしに、拡大操作が行われたことのみを検知して地図の中心を固定して拡大を行う。また、拡大率の指定もないので、地図は一回の拡大操作を検知する毎に所定率で拡大される。従ってさらに拡大したい場合は、2点タッチ位置の離間操作を繰り返すことになる。 As shown in FIG. 5A, the line connecting the two points of the thumb touch position 88 and the index finger touch position 90 is relatively right, regardless of where the absolute positions of the two points are. FIG. 11 is a screen diagram when a map enlargement operation is performed in the case of detecting only that it is falling. To enlarge the map in this state, as shown in FIG. 8A, the thumb and index finger are slid away from each touch position 88 and 90 as indicated by white arrows 110 and 112, and then the left hand 22 is separated from the display unit 12. The control unit 4 recognizes this movement as an enlargement operation, and displays the map 114 enlarged at a predetermined magnification while fixing the center of the map as shown in FIG. 8B. In this way, in the left-hand operation while traveling, only the enlargement operation is detected without specifying the map position, and the map center is fixed and enlarged. Further, since there is no designation of an enlargement rate, the map is enlarged at a predetermined rate every time an enlargement operation is detected. Therefore, when further enlargement is desired, the separation operation of the two-point touch position is repeated.
図9は、図5(A)のようにして、2点の絶対位置がどこにあるかにかかわらず、親指のタッチ位置88および人差指のタッチ位置90の2点を結んだ線が相対的に右下がりであることだけを検知する場合において、図8とは逆に地図の縮小操作を行う際の画面図である。この状態において地図114を縮小するためには、図9(A)のように親指および人差指をそれぞれのタッチ位置116および118から白矢印120および122で示すように互いに接近するようスライドさせ、その後、左手22を表示部12から離す。制御部4は、この動きを縮小操作として認識し、図9(B)に示すように地図の中心部を固定して所定倍率で縮小した地図124を表示部12に表示する。このようにして、走行中の左手操作では、縮小操作の場合に縮小を行う。縮小率についても指定はなく、地図は一回の縮小操作を検知する毎に所定率で縮小される。従ってさらに縮小したい場合は、2点タッチ位置の接近操作を繰り返すことになる。 In FIG. 9, the line connecting the two points of the thumb touch position 88 and the index finger touch position 90 is relatively right, regardless of where the absolute positions of the two points are, as shown in FIG. FIG. 9 is a screen diagram when a map reduction operation is performed contrary to FIG. 8 in the case of detecting only a downward movement. In order to reduce the map 114 in this state, the thumb and index finger are slid toward each other as indicated by white arrows 120 and 122 from the respective touch positions 116 and 118 as shown in FIG. The left hand 22 is moved away from the display unit 12. The control unit 4 recognizes this movement as a reduction operation, and displays a map 124 that is reduced at a predetermined magnification while fixing the center of the map as shown in FIG. 9B. In this way, in the left-hand operation while traveling, the reduction is performed in the case of the reduction operation. There is no designation for the reduction rate, and the map is reduced at a predetermined rate each time a reduction operation is detected. Accordingly, when further reduction is desired, the approaching operation at the two-point touch position is repeated.
図10は、図1の実施例1における制御部4の動作のフローチャートである。入出力部20から車両のエンジン(または電気自動車の場合は「モーター」、以下「エンジン」で代表)のがオンとなったことが伝えられるとフローがスタートし、ステップS2において表示すべき地図の初期縮尺が設定される。この初期縮尺は前回エンジンがオフになったときのものを記憶しておいてこれを採用してもよいし、毎回エンジンがオンになるたびに所定縮尺を採用するようにしてもよい。次いで、ステップSS4でGPS部14からの自車位置を示すGPS情報が取得されるとともに、ステップS6に至って自車位置を中心とする地図がステップS2で設定された倍率にて表示部12に表示される。 FIG. 10 is a flowchart of the operation of the control unit 4 in the first embodiment of FIG. The flow starts when the input / output unit 20 informs that the vehicle engine (or “motor” in the case of an electric vehicle, hereinafter “engine”) is turned on, and the flow of the map to be displayed in step S2 starts. An initial scale is set. This initial scale may be stored and used when the engine was previously turned off, or may be adopted at a predetermined scale each time the engine is turned on. Next, GPS information indicating the vehicle position from the GPS unit 14 is acquired from the GPS unit 14 in step SS4, and the map centering on the vehicle position is displayed on the display unit 12 at the magnification set in step S2 in step S6. Is done.
次いで、ステップS8では、操作部6によってメニュー表示を求める操作が行われたかどうかチェックする。ステップS8でメニュー表示操作が行われたことが検知されるとステップS10のメニュー選択処理に進む。これは、図2および図3で説明した操作を実行する処理であるがその詳細は後述する。メニュー処理が完了すると、ステップS12では、メニュー選択が確定したかどうかチェックし、確定していればステップS14に進んで行先入力メニューが選択されたかどうかチェックする。そして行先入力メニューの選択が確認された場合はステップS16の行先入力処理を実行し、その結果に基づいてステップS18の地図表示に移行する。行先入力処理の詳細は後述する。 Next, in step S8, it is checked whether an operation for obtaining menu display has been performed by the operation unit 6. When it is detected in step S8 that the menu display operation has been performed, the process proceeds to the menu selection process in step S10. This is a process for executing the operation described with reference to FIGS. 2 and 3, the details of which will be described later. When the menu processing is completed, in step S12, it is checked whether the menu selection has been confirmed. If so, the process proceeds to step S14 to check whether the destination input menu has been selected. If the selection of the destination input menu is confirmed, the destination input process of step S16 is executed, and the process proceeds to the map display of step S18 based on the result. Details of the destination input process will be described later.
一方、ステップS14で行先入力メニューの選択でないと判断されるとステップS20に進み、オーディオ処理またはエアコン処理等の他メニューの処理を行ってステップS18の地図表示に移行する。またステップS12でメニュー選択の確定が確認されない場合は、直ちにステップS18の地図表示に移行する。 On the other hand, if it is determined in step S14 that the destination input menu is not selected, the process proceeds to step S20, where other menu processing such as audio processing or air conditioning processing is performed, and the process proceeds to map display in step S18. If the confirmation of menu selection is not confirmed in step S12, the process immediately shifts to the map display in step S18.
ステップS18で地図が表示されるとステップS22で地図へのタッチが検知されたかどうかチェックする。また、ステップS8でメニュー表示操作が検知されない時はステップS6の地図表示を継続してステップS22の地図タッチ検知に移行する。ステップS22で地図タッチが検知されるとステップS24の地図タッチ処理に入る。その詳細は後述する。地図タッチ処理が完了すると、ステップS26に移行する。一方、ステップS22で地図タッチが検知されない時は直接ステップS26に移行する。ステップS26では、でエンジンがオフになったかどうかチェックし、エンジンオフが検知されないときはステップS4に戻る。以下、ステップS26でエンジンオフが検知されない限り、ステップS2からステップS26を繰り返し、各操作が検知されないときはステップS4で取得されるGPS情報を更新しながら地図表示を継続してナビゲーションを行うとともに、各操作が行われたときはそれに対応する。一方、ステップS26でエンジンオフが検知された時はフローを終了する。 When a map is displayed in step S18, it is checked in step S22 whether or not a touch on the map has been detected. If no menu display operation is detected in step S8, the map display in step S6 is continued and the process proceeds to map touch detection in step S22. When a map touch is detected in step S22, the map touch process in step S24 is started. Details thereof will be described later. When the map touch process is completed, the process proceeds to step S26. On the other hand, when no map touch is detected in step S22, the process directly proceeds to step S26. In step S26, it is checked whether or not the engine has been turned off. If engine off is not detected, the process returns to step S4. Hereinafter, unless engine off is detected in step S26, step S2 to step S26 are repeated. When each operation is not detected, the map information is continuously updated while the GPS information acquired in step S4 is updated. When each operation is performed, it corresponds to it. On the other hand, when engine-off is detected in step S26, the flow ends.
図11は、図10のステップS10におけるメニュー選択処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS32で右ハンドル車であるかどうかチェックする。右ハンドル車でなければステップS34で以下の処理における「右」、「左」をそれぞれ「左」、「右」に逆転させて読替え処理する旨の処理を行ってステップS36に移行する。一方、右ハンドル車であることが確認された場合は直接ステップS36に移行する。これらの左右逆転処理は、カーナビ装置2が車両に設置された時に必要となるもので、右ハンドル車であるか左ハンドル車であるかの情報は無線通信部18または入出力部20による車両との情報交換によって取得する。左右逆転読替えを行うかどうかの判断は、カーナビ装置2が一度車両に設置されたあとは答えが同じになるが、カーナビ装置2が持ち出し可能なポータブルのもので、その後右ハンドル車にも左ハンドル車にも持ち込まれる可能性がある場合は、処理の混乱による事故を自動的に避ける意義のあるものである。 FIG. 11 is a flowchart showing details of the menu selection process in step S10 of FIG. 10. When the flow starts, it is first checked in step S32 whether the vehicle is a right-hand drive vehicle. If the vehicle is not a right-hand drive vehicle, in step S34, “right” and “left” in the following processing are reversed to “left” and “right”, respectively, and a reading process is performed, and the process proceeds to step S36. On the other hand, if it is confirmed that the vehicle is a right-hand drive vehicle, the process directly proceeds to step S36. These left and right reversing processes are required when the car navigation device 2 is installed in the vehicle. Information on whether the vehicle is a right-hand drive vehicle or a left-hand drive vehicle is obtained from the vehicle by the wireless communication unit 18 or the input / output unit 20. Acquired by exchanging information. The decision on whether to perform left-right reverse reading is the same after the car navigation device 2 is once installed in the vehicle, but it is a portable one that the car navigation device 2 can take out, and then the right-hand drive car also has a left-hand drive. If there is a possibility of being brought into a car, it is meaningful to automatically avoid accidents caused by confusion in processing.
ステップS16以降は、ステップS34における左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。まず、ステップS36では、右手レイアウトの表示が行われるとともに所定時間のカウントが開始される。そしてステップS38で右手レイアウト表示後所定時間が経過したかどうかのチェックが行われ、所定時間経過がなければステップS40で2点同時タッチ状態が検知されるかどうかチェックする。2点同時タッチ状態が検知されるとステップ42に移行し、検知された2点が右下がりかどうかチェックする。そして、右下がり2点であることが検知されると、運転者による左手操作がなされたものと看做し、ステップS44に進んで走行中かどうかチェックする。そして走行中でないことが確認されるとステップS46に進み、右手レイアウト表示に代えて左手レイアウト表示を行い、運転者による左手操作を可能としてステップS48に移行する。 Step S16 and subsequent steps show processing for the case of a right-hand drive vehicle when left / right reverse reading in step S34 is not performed. First, in step S36, a right-hand layout is displayed and counting for a predetermined time is started. In step S38, it is checked whether a predetermined time has elapsed after the right-hand layout display. If the predetermined time has not elapsed, it is checked in step S40 whether a two-point simultaneous touch state is detected. When the two-point simultaneous touch state is detected, the process proceeds to step 42, and it is checked whether or not the two detected points are lowered to the right. Then, if it is detected that the point is two points to the lower right, it is considered that the driver has performed a left-hand operation, and the process proceeds to step S44 to check whether the vehicle is traveling. If it is confirmed that the vehicle is not traveling, the process proceeds to step S46, where the left hand layout display is performed instead of the right hand layout display, and the driver can perform the left hand operation, and the process proceeds to step S48.
一方ステップS44で走行中であることが検知されるとステップS50に進み、走行中は運転者によるメニュー選択操作は禁止されていることを告知し、ステップS52で右手レイアウト表示を行ってステップS48に移行する。なお、ステップS52は左手レイアウト表示がなされている場合にステップS52に至った時にこれに代えて右手レイアウト表示をおこなうためのものであり、はじめから右手レイアウトが表示されている時はステップS52では何も行わず、右手レイアウト表示を継続する。なお、ステップ42において検知された2点が右下がりであることが検知されない場合は左下がりの2点が検知されたことに相当し、これは助手席の同乗者による右手操作であることを意味するので、ステップS54で右手レイアウト表示を行ってステップS48に移行する。なお、ステップS54も左手レイアウト表示がなされている場合にステップS54に至った時にこれに代えて右手レイアウト表示をおこなうためのものであり、はじめから右手レイアウトが表示されている時はステップS54では何も行わず、右手レイアウトを継続してステップS48に移行する。 On the other hand, if it is detected in step S44 that the vehicle is traveling, the process proceeds to step S50, the driver is informed that the menu selection operation is prohibited during traveling, the right-hand layout is displayed in step S52, and the process proceeds to step S48. Transition. Step S52 is for displaying a right-hand layout instead of the left-hand layout when the left-hand layout is displayed, and when the right-hand layout is displayed from the beginning. No right-hand layout display is continued. If it is not detected that the two points detected in step 42 are right-down, it corresponds to detection of two points left-down, which means that the right-hand operation is performed by a passenger in the passenger seat. Therefore, the right-hand layout display is performed in step S54, and the process proceeds to step S48. Note that step S54 is also for performing right hand layout display when step S54 is reached when left hand layout display is being performed, and in step S54 when the right hand layout is displayed from the beginning. The right hand layout is continued and the process proceeds to step S48.
ステップS48では、図2(A)または図3(A)のように、メニューの一つと決定エリア34の両者へのタッチが検知されたかどうかチェックし、検知があればその検知情報に基づいてステップS56でその2点を更新記憶するとともに2点に対応するエリアを太枠表示する。なお、タッチ位置に変更がなく検知された2点の記憶に変更がなければ同じ情報が上書き更新され、太枠表示されるエリアも変わらない。そしてステップS58に進み、ステップS36で開始された所定時間カウントをリセットし、改めて時間カウントをスタートさせ、ステップS60に移行する。 In step S48, as shown in FIG. 2 (A) or FIG. 3 (A), it is checked whether a touch on one of the menu and the decision area 34 has been detected, and if there is a detection, the step is performed based on the detection information. In S56, the two points are updated and stored, and the area corresponding to the two points is displayed in a thick frame. If there is no change in the memory of the two detected points without change in the touch position, the same information is overwritten and updated, and the area displayed in a thick frame is not changed. Then, the process proceeds to step S58, the predetermined time count started in step S36 is reset, the time count is started again, and the process proceeds to step S60.
ステップS60では、図2(A)の黒矢印40または図3(A)の黒矢印58で示すような決定エリア34または54のメニューへの接近ドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS62に進み、メニュー選択を確定してフローを終了する。また、ステップS38で所定時間の経過が検知されたときは直ちにフローを終了する。一方、ステップS60で接近ドラグが検知されなかったときはステップS38に戻り、以下、ステップS60で接近ドラグが検知されるかステップS38で所定時間の経過が検知されない限り、ステップS38からステップS60を繰り返し、走行と停止の状況変化やメニューへのタッチ変更に対応する。なお、ステップS40で2点の同時タッチ状態が検知されないとき、またはステップS54でメニューの一つと決定エリアとの2点タッチを検知されないときは、ステップS38に戻る。 In step S60, it is checked whether an approach drag to the menu of the decision area 34 or 54 as shown by the black arrow 40 in FIG. 2A or the black arrow 58 in FIG. When the approach drag is detected, the process proceeds to step S62, the menu selection is confirmed, and the flow ends. If the passage of the predetermined time is detected in step S38, the flow is immediately terminated. On the other hand, when the approach drag is not detected in step S60, the process returns to step S38. Hereinafter, unless the approach drag is detected in step S60 or the elapse of the predetermined time is not detected in step S38, steps S38 to S60 are repeated. Corresponds to changes in driving and stopping situations and touch changes to menus. Note that when the two-point simultaneous touch state is not detected in step S40, or when the two-point touch between one of the menus and the determination area is not detected in step S54, the process returns to step S38.
なお、図11のフローにおいてステップS60での接近ドラグの検知をもってメニュー選択を確定しているのは、誤って2点タッチしたとしても直ちにメニュー選択を確定せず、もうワンステップの確認操作を入れる安全策を意味する。しかし、このような安全策よりも操作をシンプルにすることを優先する場合は、ステップS58およびステップS60を省略し、ステップS48でメニューの一つと決定エリアとの2点タッチが検知されてステップS54からステップ56に移行した後、直ちにステップS62に進み、メニュー選択を確定するよう構成してもよい。このように構成した場合は、図2(A)または図3(A)において、メニューの一つと決定エリア34の両者へのタッチが検知され、タッチされた領域が太枠のように変わった時点でメニュー選択が確定する。 In the flow of FIG. 11, the menu selection is confirmed when the approach drag is detected in step S60. Even if two points are touched accidentally, the menu selection is not confirmed immediately, and another one-step confirmation operation is performed. Means safety measures. However, when priority is given to simplifying the operation over such safety measures, step S58 and step S60 are omitted, and a two-point touch between one of the menus and the decision area is detected in step S48, and step S54 is performed. After proceeding from step S56 to step S56, the process may proceed to step S62 immediately to confirm the menu selection. In such a configuration, when a touch on one of the menu and the decision area 34 is detected in FIG. 2A or FIG. 3A and the touched area changes like a thick frame. The menu selection is confirmed with.
図12は、図10のステップS16における行先入力処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS72で左右逆転処理を行う。これは、図11のステップS32およびステップS34と同じものである。ステップS72の左右逆転処理が終わるとフローはステップS74以下に進む。図11と同様にして、ステップS74以下では、左右逆転処理において左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。 FIG. 12 is a flowchart showing details of the destination input process in step S16 of FIG. 10. When the flow starts, the left / right reverse process is first performed in step S72. This is the same as step S32 and step S34 in FIG. When the left / right reverse processing in step S72 ends, the flow proceeds to step S74 and thereafter. In the same manner as in FIG. 11, in step S74 and subsequent steps, processing for the case of a right-hand drive vehicle when left-right reverse reading is not performed in the left-right reverse processing is shown.
まず、ステップS76では、右手レイアウトの表示が行われるとともに所定時間のカウントが開始される。そしてステップS76で右手レイアウト表示後、所定時間が経過したかどうかのチェックが行われ、所定時間経過がなければステップS78で1点タッチが検知されるかどうかチェックする。そして、1点タッチ状態が検知されるとステップ80に移行し、所定の識別時間が経過したかどうかチェックする。この識別時間は、2点タッチが厳密に同時には行われないことを前提とし、ステップS78で検知された1点タッチが、2点タッチを意図している場合の1点タッチか、それとも意図しての1点タッチかを識別するためのものである。そして、ステップS80で識別時間が経過したことが検知されない場合はステップS82に進み、2点同時タッチ状態の検知の有無をチェックする。この検知ができない場合はステップS80に戻り、以下、識別時間が経過するか2点同時タッチ状態が検知されるかしない限りステップS80およびステップS82を繰り返す。 First, in step S76, a right-hand layout is displayed and a predetermined time is started. Then, after displaying the right hand layout in step S76, it is checked whether or not a predetermined time has elapsed. If the predetermined time has not elapsed, it is checked in step S78 whether or not a one-point touch is detected. When a one-point touch state is detected, the process proceeds to step 80 to check whether a predetermined identification time has elapsed. This identification time is based on the premise that two-point touches are not performed at exactly the same time, and is the one-point touch when the one-point touch detected in step S78 is intended for two-point touch, or is intended. This is to identify whether the touch is one point. If it is not detected in step S80 that the identification time has elapsed, the process proceeds to step S82 to check whether or not a two-point simultaneous touch state is detected. If this detection is not possible, the process returns to step S80, and thereafter, steps S80 and S82 are repeated unless the identification time elapses or a two-point simultaneous touch state is detected.
ステップS82で2点同時タッチ状態が検知されるとステップS84の左右レイアウト切換処理に入る。この処理は、図11のステップS42からステップS46およびステップS50からステップS54と同じ処理であり、右手レイアウトと左手レイアウトの切換および走行中の左手レイアウトを禁止するためのものである。そしてステップS84の左右レイアウト切換処理が終わるとステップS86に移行する。 When the two-point simultaneous touch state is detected in step S82, the left / right layout switching process in step S84 is started. This process is the same process as step S42 to step S46 and step S50 to step S54 in FIG. 11, and is for switching the right hand layout and the left hand layout and prohibiting the left hand layout during traveling. Then, when the left and right layout switching process in step S84 is completed, the process proceeds to step S86.
ステップS86では、図4のように、子音ボタン群64またはブランクボタン68の一つと母音ボタン群66(または78)または「n」ボタン70(または80)の一つの両者へのタッチが検知されたかどうかチェックし、検知があればその検知情報に基づいてステップS88でその2点を更新記憶するとともに2点に対応するエリアを太枠表示してステップS90に移行する。なお、図11のフローと同様、タッチ位置に変更がなく検知された2点の記憶に変更がなければ同じ情報が上書き更新され、太枠表示されるエリアも変わらない。 In step S86, as shown in FIG. 4, whether a touch on one of the consonant button group 64 or the blank button 68 and one of the vowel button group 66 (or 78) or the “n” button 70 (or 80) has been detected. If there is a detection, the two points are updated and stored in step S88 based on the detection information, and the area corresponding to the two points is displayed in a thick frame, and the process proceeds to step S90. Similar to the flow of FIG. 11, the same information is overwritten and updated, and the area displayed in a thick frame does not change if there is no change in the memory of the two detected points without change in the touch position.
ステップS90では、図4(A)の黒矢印72または図4(B)の黒矢印82で示すような母音ボタン(または「N」ボタン)の子音ボタン(またはブランクボタン)への接近ドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS92に進み、一字分の仮名文字入力を確定記憶してステップS94に移行する。一方、ステップで識別時間の経過が検知された時は1点タッチであったと看做してステップS96に移行し、これが図4のテンキー76の一つへのタッチであるかどうかチェックする。そしてテンキータッチであった場合はステップS98に進み、数字入力を確定してステップS94に移行する。このように数字入力については1点タッチと識別時間の経過のみで一文字分の数字入力を確定する。 In step S90, an approach drag to the consonant button (or blank button) of the vowel button (or “N” button) as shown by the black arrow 72 in FIG. 4A or the black arrow 82 in FIG. 4B is performed. Check if it was broken. When the approach drag is detected, the process proceeds to step S92, where the input of one character of kana characters is confirmed and stored, and the process proceeds to step S94. On the other hand, when the elapse of the identification time is detected in the step, it is considered that the touch is one point, and the process proceeds to step S96, and it is checked whether this is a touch on one of the numeric keys 76 in FIG. If it is a numeric keypad touch, the process proceeds to step S98, the numeric input is confirmed, and the process proceeds to step S94. As described above, for the numeric input, the numeric input for one character is determined only by one point touch and the identification time.
ステップS94で所定時間カウントをリセットし、改めてカウントをスタートさせてステップS100に移行する。ここでの所定時間リセットスタートは次の文字入力操作を末意義があるので、ステップS74でスタートさせた所定時間とは異なった文字入力待ちに好適な時間に設定することも可能である。なお、ステップS96でテンキーの一つへのタッチであることが検知できない場合は、意味のない1点タッチであったと看做して何も入力を確定せず直ちにステップS100に移行する。 In step S94, the count is reset for a predetermined time, the count is started again, and the process proceeds to step S100. Since the predetermined time reset start here is meaningful for the next character input operation, it can be set to a time suitable for character input waiting different from the predetermined time started in step S74. If it is not detected in step S96 that the touch is on one of the numeric keys, the touch is regarded as meaningless one-point touch, and no input is confirmed and the process immediately proceeds to step S100.
ステップS100では、ステップS92で新たに確定記憶した一文字分を含め、記憶されている仮名文字列から行先を推定可能かどうかチェックする。そして文字数が少なく推定ができないときはさらに文字を入力することを可能にするためステップS76に戻る。また、ステップS78で1点タッチが検知されないとき、またはステップS86で子音ボタン群等の一つと母音ボタン群等の一つの両者へのタッチが検知されなかったとき、またはステップS90で所定時間内の母音ボタンドラグが検知できなかったときもステップS76に戻る。以下、ステップS100で行先が推定可能であると判断されるかまたはステップS76で所定時間の経過が検知されるかしない限り、ステップS76からステップS100を繰り返し、新たな文字入力を可能とするとともに走行と停止の状況変化や右手/左手レイアウト変更に対応する。 In step S100, it is checked whether the destination can be estimated from the stored kana character string including the one character newly determined and stored in step S92. If the number of characters is small and cannot be estimated, the process returns to step S76 in order to allow further characters to be input. Further, when a one-point touch is not detected at step S78, or when a touch on one of the consonant button group and one of the vowel button group is not detected at step S86, or within a predetermined time at step S90. Even when the vowel button drag cannot be detected, the process returns to step S76. Thereafter, unless it is determined in step S100 that the destination can be estimated or the elapse of a predetermined time is detected in step S76, step S76 to step S100 are repeated to enable new character input and travel. It responds to changes in the situation of stop and right hand / left hand layout.
一方、ステップS100において行先推定が可能と判断されたときはステップS102に進み、入力された文字列に基づいて行先を推定しフローを終了する。なお、ステップS76で所定時間の経過が検知されたときは直ちにフローを終了する。なお、図12のフローにおいてステップS90での接近ドラグの検知をもって仮名入力を確定しているのは、図11の場合と同様、誤って2点タッチしたとしても直ちに仮名入力を確定せず、もうワンステップの確認操作を入れる安全策を意味する。しかし、このような安全策よりも操作をシンプルにすることを優先する場合は、図11の場合と同様、ステップS90を省略し、ステップS86で子音ボタン群等の一つと母音ボタン群等の一つの2点タッチが検知されれば直ちにステップS92に進み、仮名入力を確定するよう構成してもよい。このように構成した場合は、図4において、子音ボタン群等の一つと母音ボタン群等の一つの2点タッチが検知され、タッチされた領域が太枠のように変わった時点でメニュー選択が確定する。 On the other hand, when it is determined in step S100 that the destination can be estimated, the process proceeds to step S102, where the destination is estimated based on the input character string, and the flow ends. Note that when the passage of the predetermined time is detected in step S76, the flow is immediately terminated. In the flow of FIG. 12, the kana input is confirmed by detecting the approaching drag in step S90, as in the case of FIG. This means a safety measure with a one-step confirmation operation. However, when priority is given to simplifying the operation over such safety measures, step S90 is omitted as in the case of FIG. 11, and one of the consonant button group and one of the vowel button group and the like are omitted in step S86. If two two-point touches are detected, the process may immediately proceed to step S92 to confirm the kana input. In the case of such a configuration, in FIG. 4, when a two-point touch such as one of consonant buttons and one of vowel buttons is detected and the touched area changes like a thick frame, the menu selection is performed. Determine.
図13は、図10のステップS24における地図タッチ処理の詳細を示すフローチャートであり、フローがスタートするとまずステップS112で左右逆転処理を行う。これは、図12のステップS72と同様、図11のステップS32およびステップS34と同じものである。ステップS112の左右逆転処理が終わるとフローはステップS114以下に進む。図11および図12と同様にして、ステップS114以下では、左右逆転処理において左右逆転読替えが行われない場合の右ハンドル車の場合についての処理を示す。 FIG. 13 is a flowchart showing details of the map touch process in step S24 of FIG. 10. When the flow starts, the left / right reverse process is first performed in step S112. This is the same as step S32 and step S34 in FIG. 11 as in step S72 in FIG. When the left / right reverse processing in step S112 ends, the flow proceeds to step S114 and the subsequent steps. Similarly to FIGS. 11 and 12, in step S <b> 114 and subsequent steps, processing for the case of a right-hand drive vehicle when left / right reverse reading is not performed in the left / right reverse processing is shown.
まず、ステップS114では、図10のステップS22で地図タッチが検知されてから所定時間内に2点同時タッチ状態が検知されるかどうかチェックする。2点同時タッチ状態が検知されるとステップ116に移行し、検知された2点が右下がりかどうかチェックする。そして、右下がり2点であることが検知されると、運転者による左手操作がなされたものと看做し、ステップS118に進んで走行中かどうかチェックする。そして走行中であることが検知されるとステップS120に移行する。 First, in step S114, it is checked whether a two-point simultaneous touch state is detected within a predetermined time after the map touch is detected in step S22 of FIG. When the two-point simultaneous touch state is detected, the process proceeds to step 116, and it is checked whether the two detected points are lowered to the right. Then, if it is detected that the point is two points to the lower right, it is considered that the driver has performed a left hand operation, and the process proceeds to step S118 to check whether the vehicle is traveling. When it is detected that the vehicle is traveling, the process proceeds to step S120.
ステップS120からステップS126は、図8および図9の操作に該当するものである。まずステップS120では、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点が相対的に接近するドラグが行われたかどうかチェックする。そして接近ドラグが検知されるとステップS122に進み、表示されている地図の中心を固定して所定比率で地図を縮小し、ステップS124に移行する。これは、図9の操作に該当する。一方、ステップS120において所定時間内の接近ドラグが検知できなかったときは、直接ステップS124に移行する。 Steps S120 to S126 correspond to the operations in FIGS. First, in step S120, it is checked whether or not dragging is performed so that the two points relatively approach within a predetermined time after the two-point simultaneous touch state is detected in step S114. If an approach drag is detected, the process proceeds to step S122, the center of the displayed map is fixed, the map is reduced at a predetermined ratio, and the process proceeds to step S124. This corresponds to the operation of FIG. On the other hand, when the approach drag within the predetermined time cannot be detected in step S120, the process directly proceeds to step S124.
ステップS124では、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点が相対的に離間するドラグが行われたかどうかチェックする。そして離間ドラグが検知されるとステップS126に進み、表示されている地図の中心を固定して所定比率で地図を拡大し、フローを終了する。これは、図8の操作に該当する。一方、ステップS124において所定時間内の離間ドラグが検知できなかったときは、直ちにフローを終了する。この場合は地図の縮尺に変化は生じない。なお、図13においては、ステップS120およびステップS122の位置とステップS124およびステップS126の位置を差替えてもよい。 In step S124, it is checked whether or not a drag that relatively separates the two points has been performed within a predetermined time after the two-point simultaneous touch state is detected in step S114. When the separation drag is detected, the process proceeds to step S126, the center of the displayed map is fixed, the map is enlarged at a predetermined ratio, and the flow is ended. This corresponds to the operation of FIG. On the other hand, if the separation drag within the predetermined time cannot be detected in step S124, the flow is immediately terminated. In this case, the map scale does not change. In FIG. 13, the positions of steps S120 and S122 may be replaced with the positions of steps S124 and S126.
一方、ステップS116で右下がり2点が検知されなかったときは、検知された2点が左下がりであることを意味するのでステップS128に移行し、検知された2点の絶対位置が決定する領域を記憶する。これは、図5(B)における操作の状態に該当する。次いでステップS130において所定時間が経過したかどうかチェックし、経過が検知されない場合はステップS132に進んで検知された2点を相対的に離間するドラグが行われたかどうかチェックする。そして離間ドラグが検知されなければステップS130に戻り、以下、ステップS130とステップS132を繰り返して所定時間内の2点間ドラグを待つ。そしてステップS132で2点間ドラグが検知されるとステップS134に進み、ステップS128で決定記憶された領域内の地図を表示部12いっぱいに拡大し、フローを終了する。これは、図6の操作の状態に該当する。一方、ステップS130で所定時間経過が検知された時は直ちにフローを終了する。この場合は地図の拡大は行われない。 On the other hand, when the two points that are descending to the right are not detected in step S116, it means that the two detected points are descending to the left. Therefore, the process proceeds to step S128, and the absolute position of the detected two points is determined. Remember. This corresponds to the state of operation in FIG. Next, in step S130, it is checked whether or not a predetermined time has passed. If no progress has been detected, the process proceeds to step S132, and it is checked whether or not a drag that relatively separates the two detected points has been performed. If no separation drag is detected, the process returns to step S130, and thereafter, steps S130 and S132 are repeated to wait for a drag between two points within a predetermined time. When a drag between two points is detected in step S132, the process proceeds to step S134, the map in the area determined and stored in step S128 is enlarged to the full display unit 12, and the flow ends. This corresponds to the state of operation in FIG. On the other hand, when the elapse of the predetermined time is detected in step S130, the flow is immediately terminated. In this case, the map is not enlarged.
また、ステップS114において、図10のステップS22で地図タッチが検知されてから所定時間内の2点同時タッチ状態が検知されないときは、図10のステップS22で1点タッチが検知されたことを意味するから、ステップS136に移行する。ステップS136では、図10のステップS22で地図タッチが検知される直前に2点タッチ位置で決定された領域内の地図が拡大された履歴があるかどうかチェックする。そしてこのような履歴があればステップS138に進み、図10のステップS22で検知されたタッチ位置を中心に地図を所定比率で縮小してフローを終了する。これは、図7の操作に該当する。一方、ステップS136で拡大履歴が検知されない場合は直ちにフローを終了する。この場合は地図の拡大は行われない。 Further, in step S114, when the two-point simultaneous touch state within a predetermined time after the map touch is detected in step S22 of FIG. 10, it means that the one-point touch is detected in step S22 of FIG. Therefore, the process proceeds to step S136. In step S136, it is checked whether or not there is a history of enlargement of the map in the area determined at the two-point touch position immediately before the map touch is detected in step S22 of FIG. If there is such a history, the process proceeds to step S138, the map is reduced at a predetermined ratio around the touch position detected in step S22 of FIG. 10, and the flow is terminated. This corresponds to the operation of FIG. On the other hand, if no enlargement history is detected in step S136, the flow is immediately terminated. In this case, the map is not enlarged.
上記実施例1に示した種々の特徴は、その具体的な実施に限るものではなく、開示した利点を享受できる限り種々の実施において活用可能である。例えば、上記実施例1では右手用レイアウトと左手レイアウトの切換を走行中かどうかの検知と関連づけており、これは、走行中であっても比較的危険の少ない一定の操作を運転者に許すとともに、助手席の同乗者からは走行中であっても複雑な総祖や正確さを要する操作を可能とするものであって、一律に走行中の操作を制限する場合よりもフレキシブルな操作を可能とする点で有用である。また、実施例1では、運転者による操作であるか同乗者による操作であるかを右下がり2点が検知されるか左下がり2点が検知されるかによって判断しており、この構成は運転者か同乗者かを識別する他の手段を要しない点で有用である。しかしながら、右手用レイアウトを運転者が無理な姿勢で操作することによる事故を絶対に防止することを重視する場合は、運転者か同乗者かを識別する赤外線検知等を別途設け、これによって右手用レイアウトと左手用レイアウトを切り換えるよう攻勢してもよい。また、構成を簡単にしてカーナビ操作による事故を防止することを優先する場合は、右手用レイアウトであるか左手用レイアウトであるかにかかわらず、走行中の複雑な操作を禁止するように構成してもよい。以上いずれの場合においても、手の構造に合わせた右手用レイアウトと左手用レイアウトの切り換えは、手による2点操作を容易にする上で有用である。 The various features shown in the first embodiment are not limited to the specific implementation, but can be utilized in various implementations as long as the disclosed advantages can be enjoyed. For example, in the first embodiment, the switching between the right-hand layout and the left-hand layout is associated with detection of whether or not the vehicle is traveling, which allows the driver to perform a certain operation with relatively little danger even while traveling. , Passengers in the passenger seat can perform operations that require complex ancestors and accuracy even while driving, and can be operated more flexibly than when operating in a uniform manner It is useful in that. Further, in the first embodiment, whether the operation is performed by the driver or the passenger is determined based on whether two lower right points or two left lower points are detected. This is useful in that it does not require any other means for discriminating between passengers and passengers. However, if it is important to prevent accidents caused by the driver operating the right-hand layout in an unreasonable posture, an infrared detector that distinguishes between the driver and passenger is provided separately. You may attack to switch between layout and left-hand layout. In addition, when priority is given to simplifying the configuration and preventing accidents due to car navigation operations, it is configured to prohibit complex operations while driving regardless of whether the layout is for the right hand or the left hand. May be. In any of the above cases, switching between the right hand layout and the left hand layout in accordance with the hand structure is useful for facilitating the two-point operation by hand.
また、上記実施例1はカーナビにおける実施を示したが、開示された種々の特徴のいくつかはカーナビにおける実施に限るものではなく、開示した利点を享受できる限り種々の機器において実施可能である。例えば、デジタルスチルカメラやデジタルムービーカメラにおけるタッチパネル表示部、携帯電話などのモバイル機器におけるタッチパネル表示部において広く活用が可能である。さらには、上記において開示された右手による2点タッチ操作と左手による2点タッチ操作の切り換えなど種々の特徴のいくつかは表示機能を有さないタッチパネルにおいても活用可能なものである。 Moreover, although the said Example 1 showed implementation in a car navigation system, some of the various disclosed features are not restricted to implementation in a car navigation system, and can be implemented in various devices as long as they can enjoy the disclosed advantages. For example, it can be widely used in a touch panel display unit in a digital still camera and a digital movie camera, and a touch panel display unit in a mobile device such as a mobile phone. Furthermore, some of various features such as switching between the two-point touch operation with the right hand and the two-point touch operation with the left hand disclosed above can also be used in a touch panel having no display function.
図14は、本発明の実施の形態に係るタッチパネル入力装置の実施例2を示すブロック図である。実施例2はデジタルカメラ202を構成しており、装置全体を制御するコンピュータからなる制御部204を有し、デジタルカメラ操作者による操作部206の操作に応じて、デジタルカメラ202を制御する。この制御部204の機能は記憶部208に格納されたソフトウエアによって実行される。記憶部208は、またデジタルカメラ202の制御に必要な種々のデータを一時的に格納する。また、制御部204は表示ドライバ210を介して抵抗膜式タッチパネル表示部212の表示を制御し、操作部206の操作に必要なGUI表示を行うとともに制御結果の表示を行う。 FIG. 14 is a block diagram showing Example 2 of the touch panel input device according to the embodiment of the present invention. The second embodiment constitutes a digital camera 202, has a control unit 204 that is a computer that controls the entire apparatus, and controls the digital camera 202 in accordance with the operation of the operation unit 206 by the digital camera operator. The function of the control unit 204 is executed by software stored in the storage unit 208. The storage unit 208 also temporarily stores various data necessary for controlling the digital camera 202. Further, the control unit 204 controls the display of the resistive touch panel display unit 212 via the display driver 210, displays a GUI necessary for the operation of the operation unit 206 and displays a control result.
抵抗膜式タッチパネル表示部212は表示部であるとともにタッチパネル入力装置となっていて、表示に直接タッチすることにより入力操作を行うGUI操作部となっている。また、抵抗膜式タッチパネル表示部212の構成は図1の実施例1と同様のものであり、制御部204は抵抗膜式タッチパネル表示部212の4線の出力を分析処理することにより、2点のタッチ位置およびその移動を検知することが可能である。 The resistive touch panel display unit 212 is a display unit and a touch panel input device, and is a GUI operation unit that performs an input operation by directly touching the display. Further, the configuration of the resistive touch panel display unit 212 is the same as that of the first embodiment shown in FIG. 1, and the control unit 204 analyzes the output of the four lines of the resistive touch panel display unit 212 to obtain two points. It is possible to detect the touch position and its movement.
実施例2において実施例1の説明を準用して理解できる部分は10の位および1の位の数字が共通の200番台の番号を付して原則として説明を省略するとともに、以下デジタルカメラ特有の構成について説明する。まず、撮影モードにおいて、デジタルカメラ202は、焦点調節可能な光学系252によって結像する光学増を撮像部254によって電子画像に変換し、制御部204の画像処理部256によって圧縮を含む画像処理を行って画像記憶部258に格納する。画像記憶部258はデジタルカメラ202内蔵の画像メモリまたはデジタルカメラ202に着脱可能なメモリカードとして構成される。 In the second embodiment, parts that can be understood by applying the description of the first embodiment to the first embodiment are given the numbers of the 200 series in which the numbers of the tenth place and the first place are common, and the explanation is omitted in principle. The configuration will be described. First, in the shooting mode, the digital camera 202 converts an optical increase formed by the focus-adjustable optical system 252 into an electronic image by the imaging unit 254, and performs image processing including compression by the image processing unit 256 of the control unit 204. And store it in the image storage unit 258. The image storage unit 258 is configured as an image memory built in the digital camera 202 or a memory card that can be attached to and detached from the digital camera 202.
上記の撮影モードにおいて、撮像部254によって撮像された画像は表示ドライバ210によって抵抗膜式タッチパネル表示部212に表示される。つまり、このような撮像モードにおいては、抵抗膜式タッチパネル表示部212は、撮像の構図決めのために被写体像を表示するファインダースクリーンの機能を果たす。このとき、抵抗膜式タッチパネル表示部212に表示される被写体像の所望部分を例えば親指でタッチすることによりタッチ位置が記憶され、記憶された位置に対応する被写体部分に対しフォーカス機構260によりオートフォーカスが行われる。オートフォーカスの焦点調節判断は画像処理部256の情報に基づき制御部204が行う。また、記憶されたタッチ位置に対応する被写体部分を基準に露出制御部262が光学系252の絞りおよび撮像部254の露出時間およびゲインを制御することで露出制御を行う。露出制御の判断も、画像処理部の情報に基づき制御部204が行う。 In the above photographing mode, the image captured by the imaging unit 254 is displayed on the resistive touch panel display unit 212 by the display driver 210. That is, in such an imaging mode, the resistive touch panel display unit 212 functions as a finder screen that displays a subject image for determining an imaging composition. At this time, by touching a desired portion of the subject image displayed on the resistive touch panel display unit 212 with, for example, a thumb, the touch position is stored, and the focus mechanism 260 automatically focuses the subject portion corresponding to the stored position. Is done. The focus adjustment determination for autofocus is performed by the control unit 204 based on information from the image processing unit 256. The exposure control unit 262 controls exposure by controlling the aperture of the optical system 252 and the exposure time and gain of the imaging unit 254 based on the subject portion corresponding to the stored touch position. Determination of exposure control is also performed by the control unit 204 based on information from the image processing unit.
なお、抵抗膜式タッチパネル表示部212から親指を一度離すとタッチ位置の記憶がキャンセルされ次にタッチした位置が新たに記憶される。このようにタッチが継続する限り最初にタッチした
位置を記憶することにより、タッチを継続する際に指が抵抗膜式タッチパネル表示部212上でずれることによりタッチ位置が所望の位置から不用意に変化することを防止できる。そしてタッチを継続しながら例えば人差指で抵抗膜式タッチパネル表示部212の任意の位置をタッチするとシャッタレリーズが行われ、撮影が完了する。
Note that once the thumb is released from the resistive touch panel display unit 212, the storage of the touch position is canceled and the next touched position is newly stored. By storing the first touched position as long as the touch continues as described above, the touch position is inadvertently changed from a desired position by the finger being displaced on the resistive touch panel display unit 212 when the touch is continued. Can be prevented. Then, for example, when an arbitrary position on the resistive touch panel display unit 212 is touched with the index finger while the touch is continued, shutter release is performed, and photographing is completed.
撮影モードによって画像記憶258に記憶された画像は、再生モードの設定により、抵抗膜式タッチパネル表示部212に再生表示することができる。このような再生画像については、拡大縮小が可能であり、その操作は実施例1において説明した操作を準用することができる。 The image stored in the image storage 258 by the shooting mode can be reproduced and displayed on the resistive touch panel display unit 212 by setting the reproduction mode. Such a reproduced image can be enlarged or reduced, and the operation described in the first embodiment can be applied mutatis mutandis.
ここで、上記において説明を省略した図14の構成について、若干の補足を行うと、まず、GPS部214の情報は、撮影場所情報として画像とともに画像記憶部に記憶される。また、スピーカ221は、デジタルカメラ202の操作案内に利用される。さらに、入出力部220および無線通信部218は、画像記憶部258に格納されている画像をデジタルカメラ202外部に送信するときに利用することができる。 Here, when a little supplement is made to the configuration of FIG. 14 that is not described above, first, the information of the GPS unit 214 is stored in the image storage unit together with the image as shooting location information. The speaker 221 is used for operation guidance of the digital camera 202. Further, the input / output unit 220 and the wireless communication unit 218 can be used when an image stored in the image storage unit 258 is transmitted to the outside of the digital camera 202.
図15は、実施例2に示したデジタルカメラ202の撮影モードにおいて抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図である。図15(A)は、右手264の親指で抵抗膜式タッチパネル表示部212の所望の位置をタッチした状態を示し、このタッチに応答してタッチ位置表示266が行われている。このタッチ位置表示はタッチされた位置を示すとともにタッチ位置が記憶されたことを示している。このような親指による1点タッチ状態で親指の位置がずれてもタッチ位置表示266が動くことはない。また、親指を抵抗膜式タッチパネル表示部212から離すとタッチ位置記憶がキャンセルされ、タッチ位置表示266消えるので新たなタッチで記憶位置を設定することが可能である。 FIG. 15 is a screen diagram showing a subject image displayed on the resistive touch panel display unit 212 in the photographing mode of the digital camera 202 shown in the second embodiment. FIG. 15A shows a state where a desired position of the resistive touch panel display unit 212 is touched with the thumb of the right hand 264, and a touch position display 266 is performed in response to this touch. The touch position display indicates a touched position and indicates that the touch position is stored. The touch position display 266 does not move even if the position of the thumb is shifted in such a one-point touch state with the thumb. Further, when the thumb is released from the resistive touch panel display unit 212, the touch position storage is canceled and the touch position display 266 disappears, so that the storage position can be set by a new touch.
撮影前の構図決めにおいては、デジタルカメラ202がぶれると抵抗膜式タッチパネル表示部212に表示される被写体像も動く。このとき、画像と記憶されたタッチ位置の両者がともに動くと基準がなくなって画像の所望位置の指定がし難くなるが、上記のようにして最初のタッチ位置を記憶固定することにより、仮にその後画像が動いても、デジタルカメラ202を動かすことで容易にタッチ位置と当初の画像の所望位置を元通りに合わせることができる。 In determining the composition before shooting, the subject image displayed on the resistive touch panel display unit 212 also moves when the digital camera 202 is shaken. At this time, if both the image and the stored touch position move together, the reference is lost and it becomes difficult to specify the desired position of the image. However, by temporarily storing the first touch position as described above, Even if the image moves, the touch position and the desired position of the original image can be easily matched to each other by moving the digital camera 202.
図15(B)は、右手264の親指のタッチを継続したまま抵抗膜式タッチパネル表示部212の任意の位置268をタッチした状態を示しており、制御部204はこのような2点タッチ状態の成立によりシャッタレリーズ操作が行われたものと判断してその状態における撮像部254の画像情報を画像処理部256で処理して画像記憶部258に記憶格納させる。 FIG. 15B shows a state in which an arbitrary position 268 of the resistive touch panel display unit 212 is touched while continuing to touch the thumb of the right hand 264, and the control unit 204 is in such a two-point touch state. If it is determined that the shutter release operation has been performed, the image information of the imaging unit 254 in that state is processed by the image processing unit 256 and stored in the image storage unit 258.
なお、実施例2では、シャッタレリーズボタン位置が抵抗膜式タッチパネル表示部212の任意の位置となるので、構図決めに専念でき、操作が簡単になる。しかしながら2点目のタッチによってシャッタレリーズを行う構成はこれに限られるものではなく、例えば図15(B)の位置268のように操作しやすい位置にシャッタボタンを表示するよう構成してもよい。このようなシャッタボタン位置表示は、最初のタッチ位置266の記憶が行われたのと同時に行う。このような構成によれば、任意位置の2点目タッチによりシャッタレリーズを行うことができないが、その反面、表示されたシャッタボタン位置以外を不用意にタッチすることで誤ってシャッタレリーズが行われるのを防止することができる。実施例2は、デジタルカメラ202の使用者のカスタム設定により、このようなシャッタレリーズボタン表示モードも選択できるよう構成してもよい。 In the second embodiment, since the shutter release button position is an arbitrary position on the resistive touch panel display unit 212, it is possible to concentrate on determining the composition and simplify the operation. However, the configuration in which the shutter release is performed by touching the second point is not limited to this. For example, the shutter button may be displayed at a position that is easy to operate, such as a position 268 in FIG. Such shutter button position display is performed at the same time as the first touch position 266 is stored. According to such a configuration, the shutter release cannot be performed by the second point touch at an arbitrary position, but on the other hand, the shutter release is erroneously performed by inadvertently touching other than the displayed shutter button position. Can be prevented. The second embodiment may be configured such that such a shutter release button display mode can be selected by a custom setting of the user of the digital camera 202.
図16は、図14の実施例2における制御部204の動作のフローチャートである。デジタルカメラ202の電源オン操作が行われるとフローがスタートし、ステップS142においてデジタルカメラの立上処理が行われ、ステップS144で初期状態として撮影モードを設定してステップS146に移行する。ステップS146では再生モード設定の手動操作が行われたかどうかチェックし操作がなければステップS148に進む。 FIG. 16 is a flowchart of the operation of the control unit 204 in the second embodiment of FIG. When the power on operation of the digital camera 202 is performed, the flow starts. In step S142, the digital camera is started up. In step S144, the shooting mode is set as an initial state, and the process proceeds to step S146. In step S146, it is checked whether the reproduction mode setting manual operation has been performed. If there is no operation, the process proceeds to step S148.
ステップS148では、1点タッチが検知されるかどうかチェックする。そして1点タッチ状態が検知されるとステップ148に移行し、タッチが検知された位置を記憶する。一方、ステップS148で1点タッチが検知されない時はステップS146に進み、以下ステップS146とステップS148を繰り返して再生モード設定操作が行われない限り1点タッチの検知を待つ。ステップS150で検知位置が記憶されるとステップS152に進んで記憶位置を表示する。この表示は、図15(A)のタッチ位置表示266に該当する。 In step S148, it is checked whether a one-point touch is detected. When the one-point touch state is detected, the process proceeds to step 148, and the position where the touch is detected is stored. On the other hand, when a one-point touch is not detected in step S148, the process proceeds to step S146, and thereafter, steps S146 and S148 are repeated to wait for a one-point touch detection unless a playback mode setting operation is performed. When the detected position is stored in step S150, the process proceeds to step S152 to display the stored position. This display corresponds to the touch position display 266 in FIG.
さらにステップS154では、記憶位置に撮像されている被写体部分に対する画像処理部256の情報に基づき制御部204がフォーカス機構260に指示を出して光学系252を駆動し、この部分のコントラストが最大になるようフォーカス調整を行う。この結果、図15(A)のタッチ位置表示266の部分の被写体にピントが合う状態となる。フォーカス指示のあとステップS156では、記憶位置に撮像されている被写体部分に対する画像処理部256の情報に基づき制御部204が露出制御部262に指示を出して光学系252の絞りおよび撮像部254の露出時間を制御する。この結果、図15(A)のタッチ位置表示266の部分の被写体が適正露出となる状態に露出制御が行われる。 In step S154, the control unit 204 instructs the focus mechanism 260 based on the information of the image processing unit 256 for the subject imaged at the storage position to drive the optical system 252, and the contrast of this part is maximized. Adjust the focus. As a result, the subject in the portion of the touch position display 266 in FIG. 15A is brought into focus. In step S156 after the focus instruction, the control unit 204 issues an instruction to the exposure control unit 262 based on the information of the image processing unit 256 with respect to the subject imaged at the storage position, and the exposure of the aperture of the optical system 252 and the exposure of the imaging unit 254. Control the time. As a result, exposure control is performed so that the subject in the portion of the touch position display 266 in FIG.
次いで、ステップS158では、ステップS148で1点タッチが検知されてから所定時間が経過したかどうかチェックする。この所定時間は例えば2秒程度であり、1点目タッチにより関心のある被写体部分を決定してから2点目タッチ検知によるシャッタレリーズを待つための時間として設定される。後述のように、この所定時間内に2点目タッチが検知されない場合は1点目タッチの記憶がキャンセルされる。 Next, in step S158, it is checked whether or not a predetermined time has elapsed since the one-point touch was detected in step S148. The predetermined time is, for example, about 2 seconds, and is set as a time for waiting for a shutter release by the second point touch detection after the subject portion of interest is determined by the first point touch. As will be described later, when the second point touch is not detected within the predetermined time, the storage of the first point touch is cancelled.
ステップS158で所定時間経過が検知されないときはステップS160に進んで1点タッチが解除されたかどうかチェックする。1点タッチ解除が検知されない場合は、ステップS162に進み、1点目タッチを継続して2点目をタッチした結果として2点同時タッチ状態が生じたかどうかチェックする。そして、2点同時タッチ状態が検知されるとステップS164に進んでシャッタレリーズが行われ、ステップS166の撮像処理に移行する。一方、ステップS162で2点同時タッチ状態が検知されない場合はステップS158に戻り、以下、所定時間が経過するか1点タッチが解除されるかしない限りステップS158からステップS162を繰り返して2点目タッチを待つ。 When the elapse of the predetermined time is not detected in step S158, the process proceeds to step S160, and it is checked whether or not the one-point touch is released. If the one-point touch release is not detected, the process proceeds to step S162 to check whether the two-point simultaneous touch state has occurred as a result of continuing the first point touch and touching the second point. When the two-point simultaneous touch state is detected, the process proceeds to step S164, shutter release is performed, and the process proceeds to the imaging process in step S166. On the other hand, if the two-point simultaneous touch state is not detected in step S162, the process returns to step S158, and then the second point touch is repeated by repeating steps S158 to S162 unless a predetermined time elapses or the one-point touch is released. Wait for.
ステップ166の撮像処理は画像処理部によって画像圧縮を行うとともに圧縮画像を画像記憶部258に記憶する処理である。撮像処理では、並行して記憶対象となる画像が所定時間抵抗膜式タッチパネル表示部212に静止画として表示される。ステップS166の撮像処理が終了するとステップS168に進み、デジタルカメラ202の電源オフ操作が行われたかどうかチェックする。そして、電源オフ操作が検知されたときはフローを終了する。 The imaging process in step 166 is a process of performing image compression by the image processing unit and storing the compressed image in the image storage unit 258. In the imaging process, images to be stored in parallel are displayed as still images on the resistive touch panel display unit 212 for a predetermined time. When the imaging process of step S166 is completed, the process proceeds to step S168, and it is checked whether or not the digital camera 202 is turned off. When the power-off operation is detected, the flow ends.
一方、ステップ158で所定時間経過が検知されたとき、またはステップS160で1点タッチ解除が検知されたときはステップS170に移行し、1点タッチの記憶をキャンセルするとともにステップS172で図15(A)に示すようなタッチ位置表示266位置表示をキャンセルしステップS168に移行する。このようなステップS170およびステップS172の機能により、新たな1点目タッチ位置の決定に入ることができる。 On the other hand, when the elapse of a predetermined time is detected in step 158, or when one-point touch release is detected in step S160, the process proceeds to step S170, and the memory of one-point touch is canceled, and in FIG. ) Cancels the touch position display 266 position display as shown in FIG. With such functions of step S170 and step S172, determination of a new first point touch position can be entered.
一方、ステップS146において再生モード設定操作が検知されたときはステップS174に移行して再生モード処理が行われる。再生モード処理では、最新画像等から始まる所定の順序による画像送りによる全画面再生、サムネイル画像による画像選択、スライドショー表示などが可能である。また、再生モード処理では定期的にステップS176に移行して撮影モード設定操作の有無をチェックし、操作がなければステップS174に戻って再生モードを継続する。ステップS176で撮影モード設定操作が検知されるとステップS178で撮影モードを設定してステップS168に進む。 On the other hand, when a reproduction mode setting operation is detected in step S146, the process proceeds to step S174, and reproduction mode processing is performed. In the playback mode processing, full-screen playback by sending images in a predetermined order starting from the latest image, image selection by thumbnail images, slide show display, and the like are possible. In the playback mode process, the process periodically proceeds to step S176 to check whether or not there is a shooting mode setting operation. If there is no operation, the process returns to step S174 to continue the playback mode. If a shooting mode setting operation is detected in step S176, the shooting mode is set in step S178, and the process proceeds to step S168.
前述のように、ステップS168で電源オフ操作が検知されるとフローは終了となるが、電源オフ操作の検知がない場合はステップS146に戻る。以下、ステップS168で電源オフ操作が検知されない限りステップS146からステップS168を繰り返し、基本的には撮影モードの種々の操作に対応するとともに適宜再生モードへの移行操作および撮影モードへの復帰操作に対応する。 As described above, the flow ends when the power-off operation is detected in step S168, but if the power-off operation is not detected, the process returns to step S146. Thereafter, unless a power-off operation is detected in step S168, steps S146 to S168 are repeated, basically corresponding to various operations in the shooting mode, as well as operations for switching to the playback mode and returning to the shooting mode as appropriate. To do.
以上説明した図16のフローから明らかなように、実施例2では、検知されるタッチが1点目か2点目かを識別し、それぞれに応答する機能が変えられる。その具体例として、1点目タッチにより画面位置の指定機能が応答し、2点目タッチによりシャッタレリーズ機能が応答するものを示した。しかし本発明のこの特徴は画面位置指定機能とシャッタレリーズ機能への使い分けに限るものではなく、種々の異なった機能に1点目タッチと2点目タッチ検知を割り当てることが可能である。 As apparent from the flow of FIG. 16 described above, in the second embodiment, the function of identifying whether the detected touch is the first point or the second point and responding to each is changed. As a specific example, the screen position designation function responds by the first point touch, and the shutter release function responds by the second point touch. However, this feature of the present invention is not limited to the use of the screen position designation function and the shutter release function, and the first point touch and the second point touch detection can be assigned to various different functions.
なお、図16のフローでは、1点目タッチ位置が記憶された後にデジタルカメラ202を振ると、記憶された画面上のタッチ位置の部分に表示される画像も移動することになる。従って、フォーカス調節および露出調節の対象となる被写体部分も変化する。従って、デジタルカメラ202を振って図15(A)のタッチ位置表示266に所望被写体を合わせることでその被写体部分に対するフォーカス調節および露出調節を行うことができる。これに対し、実施例2ではフォーカスロックおよび露出調節ロックモードも可能であって、このようなロックモードが選択された時は、タッチ位置の記憶およびタッチ位置266の表示とともにタッチ位置記憶時点の撮像部254の該当被写体部分の画像データも記憶され、その記憶画像データに基づいてフォーカス調節および露出調節が行われる。従ってこのようなロックモードでは、1点目タッチ後にデジタルカメラ202を振っても、1点目タッチ時にタッチ位置にあった被写体部分へのフォーカス調節および露出調節状態を維持することができる。 In the flow of FIG. 16, if the digital camera 202 is shaken after the first point touch position is stored, the image displayed at the stored touch position portion on the screen is also moved. Accordingly, the subject portion that is subject to focus adjustment and exposure adjustment also changes. Therefore, by adjusting the desired subject to the touch position display 266 of FIG. 15A by shaking the digital camera 202, focus adjustment and exposure adjustment can be performed on the subject portion. On the other hand, the focus lock and the exposure adjustment lock mode are also possible in the second embodiment. When such a lock mode is selected, the touch position is stored and the touch position 266 is displayed and the image is captured at the time of the touch position storage. Image data of the corresponding subject portion of the unit 254 is also stored, and focus adjustment and exposure adjustment are performed based on the stored image data. Therefore, in such a lock mode, even if the digital camera 202 is shaken after the first point touch, it is possible to maintain the focus adjustment and exposure adjustment state for the subject portion that was at the touch position at the time of the first point touch.
上記のロックモードを実施する場合を図16で説明すると、ステップSステップS152とステップS154の間にロックモード設定の有無をチェックするステップが挿入され、ロックモード設定が検知されるとタッチ位置検知時点の該当部分の画像データを記憶するステップを経てステップS154に移行する。従ってこの場合、ステップS154およびステップS156は、リアルタイムで撮像部254から取得される記憶タッチ位置に該当する被写体部分データではなく、上記のようにして記憶された被写体部分データに基づいて行われることになる。また、ロックモードにおいてステップS170に進んだときはステップS172の後に被写体画像データの記憶もキャンセルしてステップS168に移行する。 The case where the lock mode is performed will be described with reference to FIG. 16. A step for checking whether or not the lock mode is set is inserted between steps S152 and S154. After the step of storing the image data of the corresponding part, the process proceeds to step S154. Therefore, in this case, step S154 and step S156 are performed based on the subject part data stored as described above, not the subject part data corresponding to the stored touch position acquired from the imaging unit 254 in real time. Become. When the process proceeds to step S170 in the lock mode, the storage of the subject image data is canceled after step S172, and the process proceeds to step S168.
次に本発明の実施の形態に係るタッチパネル入力装置の実施例3について説明する。実施例3は車両のカーナビ装置に関するもので、その構成の大半は実施例1と共通である。従って、基本的には図1から図13を流用するとともに同一部分については同じ番号を流用し、異なるところについてのみ説明する。実施例3は、実施例1と同様にして、運転中の運転者による操作の際、タッチした2点の絶対位置がどこにあるかにかかわらず、2点結んだ線が相対的に右下がりであることだけを検知して、危険のない簡単なタッチ位置移動で地図の拡大操作を行うことができるよう構成される。しかしながら実施例1では図8および図9のように2点間の距離が離間するか接近するかによって拡大または縮小を決定していたのに対し、実施例3は別の操作方法により拡大縮小を行うよう構成される。他の点に関しては、実施例3は実施例1と共通なので説明は省略する。 Next, Example 3 of the touch panel input device according to the embodiment of the present invention will be described. The third embodiment relates to a car navigation system for a vehicle, and most of the configuration is the same as that of the first embodiment. Therefore, FIG. 1 to FIG. 13 are basically diverted, the same numbers are used for the same parts, and only different points are described. In the third embodiment, in the same manner as in the first embodiment, when an operation by a driving driver is performed, the line connecting the two points is relatively lower right regardless of where the absolute positions of the two touched points are. It is configured to detect a certain thing and to perform a map enlargement operation with a simple touch position movement without danger. However, in the first embodiment, enlargement or reduction is determined depending on whether the distance between two points is separated or approached as shown in FIGS. 8 and 9, whereas in the third embodiment, enlargement / reduction is performed by another operation method. Configured to do. In other respects, the third embodiment is common with the first embodiment, and thus the description thereof is omitted.
図17は、上記のような実施例3において、図5(A)のような左手操作検知状態から、2点の絶対位置がどこにあるかにかかわらず運転中の運転者による危険のない操作によって地図の拡大を行う際の画面図である。但し、図17では、タッチ位置の間隔を広く取るために親指と中指で2点タッチを行ったものとして説明する。なお、言うまでもないが、検知はタッチの位置が問題なのであって、自然なタッチが行えるならどの指で操作するかは任意である。図17(A)では、左手302の親指および中指でそれぞれのタッチ位置304および306にてタッチし、そこから白矢印308および310で示すように指の間隔は基本的には変えないまま平行移動的にスライドさせ、その後、左手302を表示部12から離した状態を示す。このとき、制御部4は、タッチされた2点の間隔312が基準間隔314より大きいかどうか判断する。 FIG. 17 shows an example of the above-described third embodiment in which the driver is operating without danger from the left-hand operation detection state shown in FIG. 5A regardless of where the absolute positions of the two points are. It is a screen figure at the time of enlarging a map. However, in FIG. 17, it is assumed that a two-point touch is performed with the thumb and middle finger in order to increase the interval between touch positions. Needless to say, the position of the touch is a problem in detection, and any finger can be operated as long as a natural touch can be made. In FIG. 17A, the left and right thumbs 302 and 306 are touched at the touch positions 304 and 306, respectively, and as shown by white arrows 308 and 310, the distance between the fingers is basically unchanged and moved in parallel. It shows a state in which the left hand 302 is moved away from the display unit 12 after that. At this time, the control unit 4 determines whether the interval 312 between the two touched points is larger than the reference interval 314.
図17(A)の場合は、タッチされた2点の間隔312の方が基準間隔314より大きいのでその判断および白矢印308および310の平行移動的スライドあったことをもって拡大操作と認識し、図17(B)に示すように地図の中心部を固定して図17(A)から拡大した地図114を表示部12に表示する。このようにして、実施例3においても、走行中に左手操作を行った場合には、地図の位置の指定なしに、拡大操作が行われたことのみを検知して地図の中心を固定して拡大を行う。制御部4は、さらにタッチ後平行移動を行って手302を表示部12から離すまでの操作、つまり白矢印308および310で示すスライド軌跡についてスライド量およびスライド速度を判定し、両者の積に基づいて拡大率を決定する。このようにして、操作者はスライド量および速度を大まかに変えることにより、拡大率の調節を行うことができる。そして図17(B)では、このようにして決定された拡大率に従って拡大された拡大地図114が表示される。なお、拡大率が所望のものより小さかった時は、図17に示すような幅広の2点タッチと平行スライドを繰り返すことになる。また、拡大しすぎた場合は、以下に説明する操作によって地図を縮小することができる。 In the case of FIG. 17A, since the interval 312 between the two touched points is larger than the reference interval 314, it is recognized as an enlargement operation based on the determination and the parallel movement of the white arrows 308 and 310. As shown in FIG. 17 (B), the center of the map is fixed and the map 114 enlarged from FIG. In this way, also in the third embodiment, when the left hand operation is performed during traveling, the center of the map is fixed by detecting only the enlargement operation without specifying the map position. Magnify. The control unit 4 further determines the slide amount and the slide speed for the operation until the hand 302 is moved away from the display unit 12, that is, the slide trajectory indicated by the white arrows 308 and 310, after performing the parallel movement after the touch, and based on the product of both. To determine the enlargement ratio. In this way, the operator can adjust the enlargement ratio by roughly changing the slide amount and speed. In FIG. 17B, an enlarged map 114 enlarged according to the magnification determined in this way is displayed. If the enlargement ratio is smaller than desired, a wide two-point touch and parallel slide as shown in FIG. 17 are repeated. In addition, if the image is enlarged too much, the map can be reduced by an operation described below.
図18は、実施例3において、図5(A)のような左手操作検知状態から、2点の絶対位置がどこにあるかにかかわらず運転中の運転者による危険のない操作によって地図の縮小を行う際の画面図である。図18では、間隔を狭めた親指と人差指で2点タッチを行ったものとして説明する。図18(A)では、左手302の親指および人差指でそれぞれのタッチ位置316および318にてタッチし、そこから白矢印320および322で示すように指の間隔は基本的には変えないまま平行移動的にスライドさせ、その後、左手302を表示部12から離した状態を示す。このとき、図17と同様にして制御部4は、タッチされた2点の間隔324が図17と同様の基準間隔314より大きいかどうか判断する。 FIG. 18 shows a map reduction according to the third embodiment from the left-hand operation detection state as shown in FIG. 5 (A) by a dangerous operation by the driving driver regardless of where the absolute positions of the two points are. It is a screen figure at the time of performing. In FIG. 18, it is assumed that a two-point touch is performed with a thumb and an index finger with a narrow interval. In FIG. 18 (A), the left hand 302 and the forefinger are touched at the touch positions 316 and 318, respectively, and from there, as indicated by white arrows 320 and 322, the finger spacing is basically unchanged without changing. It shows a state in which the left hand 302 is moved away from the display unit 12 after that. At this time, similarly to FIG. 17, the control unit 4 determines whether or not the interval 324 between the two touched points is larger than the reference interval 314 similar to FIG.
図18(A)の場合は、タッチされた2点の間隔324の方が基準間隔314より小さいのでその判断および白矢印320および322の平行移動的スライドあったことをもって縮小操作と認識し、図18(B)に示すように地図の中心部を固定して図18(A)から縮小した地図124を表示部12に表示する。このようにして、実施例3においては、走行中に左手操作を行った場合、地図の位置の指定なしに縮小操作が行われたことのみを検知して地図の中心を固定して縮小を行う。制御部4は、図17の場合と同様にして、白矢印320および322で示すスライド軌跡についてスライド量およびスライド速度を判定し、両者の積に基づいて縮小率を決定する。このようにして、縮小の場合においても、操作者はスライド量および速度を大まかに変えることにより、縮小率の調節を行うことができる。そして図18(B)では、このようにして決定された縮小率に従って縮小された縮小地図124が表示される。なお、拡大の場合と同様、縮小率が所望のものより小さかった時は、図18に示すような幅狭の2点タッチと平行スライドを繰り返すことになる。また、縮小拡大しすぎた場合は、図17の幅広2点タッチと平行スライドによって地図を拡大することができる。 In the case of FIG. 18A, since the interval 324 between the two touched points is smaller than the reference interval 314, it is recognized as a reduction operation based on the determination and the parallel movement of the white arrows 320 and 322. As shown in FIG. 18 (B), the center of the map is fixed and the map 124 reduced from FIG. 18 (A) is displayed on the display unit 12. In this way, in the third embodiment, when a left hand operation is performed during traveling, only the reduction operation is performed without specifying the map position, and the map center is fixed and the reduction is performed. . As in the case of FIG. 17, the control unit 4 determines the slide amount and slide speed for the slide trajectory indicated by the white arrows 320 and 322, and determines the reduction ratio based on the product of both. Thus, even in the case of reduction, the operator can adjust the reduction ratio by roughly changing the slide amount and speed. In FIG. 18B, a reduced map 124 reduced in accordance with the reduction rate determined in this way is displayed. As in the case of enlargement, when the reduction ratio is smaller than desired, narrow two-point touch and parallel slide as shown in FIG. 18 are repeated. If the image is excessively reduced or enlarged, the map can be enlarged by the wide two-point touch and the parallel slide shown in FIG.
実施例3における図17(A)または図18(A)の基準間隔314は、幅広および幅狭の2点タッチを行う際において操作者によって操作しやすい指の間隔を元に、幅広か幅狭かの識別が適切に行える幅をトライアルアンドエラーによって予め設定しておくことができる。実施例3に示すように、本発明によれば、2点タッチにおいてタッチ位置間の幅を入力情報として利用することができる。また、2点タッチ状態を継続したタッチ位置変化を入力情報として利用することができる。 The reference interval 314 in FIG. 17A or FIG. 18A in the third embodiment is wide or narrow based on the finger interval that is easy to operate by the operator when performing a two-point touch of wide and narrow. The range in which such identification can be appropriately performed can be set in advance by trial and error. As shown in the third embodiment, according to the present invention, the width between touch positions can be used as input information in a two-point touch. In addition, a touch position change in which the two-point touch state is continued can be used as input information.
図19は、実施例3の場合における図10のステップS24の地図タッチ処理の詳細を示すフローチャートである。その大部分は実施例1に関する図13と共通なので、共通するステップには共通のステップ番号を付し、必要のない限り、説明を省略する。具体的に述べると、図19においてステップS112からステップS118、ステップS136およびステップS13は図13と共通である。上記のように実施例3は、運転中の運転者による左手操作に関するものなので、図19においてステップS118で走行中であることが検知されたあとの処理が図13と異なることになる。そしてこの部分の処理が、図17および図18に示した操作に関連する。 FIG. 19 is a flowchart showing details of the map touch processing in step S24 of FIG. 10 in the case of the third embodiment. Most of them are the same as those in FIG. 13 relating to the first embodiment, and therefore common steps are given common step numbers, and description thereof is omitted unless necessary. Specifically, step S112 to step S118, step S136, and step S13 in FIG. 19 are the same as those in FIG. As described above, the third embodiment relates to the left-hand operation performed by the driver who is driving, and therefore the processing after it is detected that the vehicle is traveling in step S118 in FIG. 19 is different from that in FIG. This process is related to the operations shown in FIGS.
さて、図19において、ステップS118で走行中であることが検知されるとステップS182に進み、ステップS114で2点同時タッチ状態が検知されてから所定時間内にその2点がタッチを継続しながら平行スライドされたかどうかチェックする。そして平行スライドが検知されるとステップS184に進み、図17(A)の白矢印308、310または、図18(A)の白矢印320、322に該当するスライド量を判定する。さらにステップS86では、白矢印308、310または、白矢印320、322におけるスライド速度を判定する。 In FIG. 19, when it is detected that the vehicle is traveling in step S118, the process proceeds to step S182, and the two points are touched within a predetermined time after the two-point simultaneous touch state is detected in step S114. Check if it was slid parallel. When a parallel slide is detected, the process proceeds to step S184, and the slide amount corresponding to the white arrows 308 and 310 in FIG. 17A or the white arrows 320 and 322 in FIG. Further, in step S86, the slide speed at the white arrows 308 and 310 or the white arrows 320 and 322 is determined.
次いでステップS188では、ステップS184で判定されたスライド量およびステップS186で判定されたスライド速度を掛け算しその積の値に基づいて地図の拡大率または縮小率を決定する。つまり、ステップS188で決定される拡大率または縮小率は、例えば、スライド量が同じでスライド速度が2倍のとき、またはスライド量が2倍でスライド速度が同じのとき、それぞれ2倍となる。また、例えばスライド量およびスライド速度がともに2倍のとき、ステップS188で判定される拡大率または縮小率は、4倍となる。以上のように、スライド量およびスライド速度はいずれもスライド状態の情報であり、ステップS188では、感覚的に丁寧なスライドを行うほど判定される拡大または縮小の度合いは少なく微妙な調節が行われ、感覚的に激しいスライドを行うほど大幅な拡大または縮小が行われることになる。 Next, at step S188, the map enlargement ratio or reduction ratio is determined based on the product value obtained by multiplying the slide amount determined at step S184 and the slide speed determined at step S186. That is, the enlargement rate or reduction rate determined in step S188 is doubled when the slide amount is the same and the slide speed is double, or when the slide amount is double and the slide speed is the same, for example. For example, when the slide amount and the slide speed are both doubled, the enlargement ratio or reduction ratio determined in step S188 is four times. As described above, the slide amount and the slide speed are both information on the slide state, and in step S188, the degree of enlargement or reduction determined as the sensuous and polite slide is performed is small, and fine adjustment is performed. The larger the sensory slide, the greater the expansion or reduction.
ステップS188において拡大率または縮小率が決定されるとステップS190に進み、タッチされている2点間の距離が所定の基準以上かどうかがチェックされる。この所定基準は図17(A)または図18(A)の基準間隔214に該当する。そして、ステップS190において2点間距離が所定以上であることが確認されるとステップS192に進み、中心を固定するとともにステップS188で決定された拡大率に基づく地図の拡大を行ってフローを終了する。一方、ステップS190において2点間距離が所定以下であることが確認されるとステップS194に進み、中心を固定するとともにステップS188で決定された縮小率に基づく地図の縮小を行ってフローを終了する。 When the enlargement ratio or reduction ratio is determined in step S188, the process proceeds to step S190, and it is checked whether the distance between the two touched points is equal to or greater than a predetermined reference. This predetermined reference corresponds to the reference interval 214 in FIG. 17 (A) or FIG. 18 (A). If it is confirmed in step S190 that the distance between the two points is equal to or greater than the predetermined value, the process proceeds to step S192, the center is fixed, and the map is enlarged based on the enlargement ratio determined in step S188, and the flow is finished. . On the other hand, if it is confirmed in step S190 that the distance between the two points is equal to or smaller than the predetermined value, the process proceeds to step S194, the center is fixed, and the map is reduced based on the reduction ratio determined in step S188, and the flow is ended. .
図19のステップS196は、図13のステップS128からステップS134をまとめて2点決定領域内地図拡大処理として図示したものであり、その内容は図13と同じである。つまり、図19のステップS196は、図13と同様にして、ステップS116において左下がり2点タッチが検知されたことによって実行されるものであり、タッチされる2点の絶対位置に基づきその2点によって決定される領域内の地図を表示部12いっぱいに拡大し、フローを終了するものである。 Step S196 in FIG. 19 illustrates step S128 to step S134 in FIG. 13 as a two-point determination area map enlargement process, and the contents thereof are the same as those in FIG. That is, step S196 in FIG. 19 is executed when a left-pointing two-point touch is detected in step S116 in the same manner as in FIG. 13, and the two points are determined based on the absolute positions of the two touched points. The map in the area determined by is expanded to the full display unit 12, and the flow ends.
本発明の種々の特徴は上記の実施例に限らず広く活用可能である。例えば、実施例3では、図17および図18のように、タッチした2点の幅の判定および2点の平行移動的スライドにより情報を入力するよう構成している。これは、不用意に2点にタッチした際の誤入力を防止し、2点タッチの後のスライドを待って入力を実行するものであるが、迅速な入力を優先する場合は、2点タッチを検知した時点で直ちに入力を実行するよう構成してもよい。この場合、図19のフローにおいてステップS182からステップS188を省略し、ステップS118で走行中であることを検知した後、直ちにステップS190の2点間距離の判定に入るよう構成する。 The various features of the present invention are not limited to the above embodiments and can be widely used. For example, in the third embodiment, as shown in FIGS. 17 and 18, information is input by determining the width of two touched points and sliding the two points in parallel. This prevents accidental input when two points are inadvertently touched, and waits for the slide after the two-point touch to execute input. However, if priority is given to quick input, two-point touch is performed. It may be configured to execute input immediately upon detecting this. In this case, steps S182 to S188 are omitted in the flow of FIG. 19, and after detecting that the vehicle is traveling in step S118, the determination of the distance between the two points in step S190 is started immediately.
図20は、本発明の実施の形態に係るタッチパネル入力装置の実施例4を示すブロック図である。実施例4はデジタルカメラ402を構成しているが、その内容の大半は図14の実施例2におけるデジタルカメラ202と同様のものである。従って、共通の部分には共通の番号を付して説明を省略する。また、構成は若干異なるが実施例2に準じて理解できる部分には10の位および1の位の数字が共通の400番台の番号を付し、必要に応じ下記に説明を追加する。なお、これら追加説明部分は特に実施例4のみに特有のものではなく、実施例2においてもこのような構成を有するよう構成することは任意である。 FIG. 20 is a block diagram showing Example 4 of the touch panel input device according to the embodiment of the present invention. The fourth embodiment constitutes the digital camera 402, but most of the contents are the same as those of the digital camera 202 in the second embodiment of FIG. Accordingly, common portions are denoted by common numbers and description thereof is omitted. In addition, although the configuration is slightly different, parts that can be understood according to the second embodiment are given numbers in the 400s in common with the 10's and 1's, and explanations are added as necessary. Note that these additional explanation portions are not particularly specific to the fourth embodiment, and the second embodiment may be arbitrarily configured to have such a configuration.
なお、図14の実施例2でもそうであるが、図20の実施例4の抵抗膜式タッチパネル表示部212はデジタルカメラ402の背面のほぼ全域にわたって設けられている大型のものであり、光学系452を両手で構えて被写体に向けたとき、デジタルカメラ402の背面から被写体像を観察することができるとともに、デジタルカメラ402保持している両手の親指で自然に抵抗膜式タッチパネル表示部212にタッチすることができる構成となっている。 As is the case with the second embodiment of FIG. 14, the resistive touch panel display unit 212 of the fourth embodiment of FIG. 20 is a large-sized one provided over almost the entire back surface of the digital camera 402, and the optical system. When the hand 452 is held with both hands and pointed at the subject, the subject image can be observed from the back of the digital camera 402 and the resistive touch panel display 212 is naturally touched with the thumbs of both hands held by the digital camera 402. It is the structure which can do.
また、図20の実施例4では、光学系452がズームレンズ系となっており、制御部404の制御によりズーム機構470が光学系452のレンズ構成を駆動してその焦点距離を変えることにより光学ズームを行う。ズーミングは抵抗膜式タッチパネル表示部212へのタッチによって操作され、この操作に応じ、上記のような光学系452による光学ズームだけでなく画像処理部256による電子ズームも併用してズーミングが実行される。上記のように、ズーム操作は、デジタルカメラ402を両手で保持して被写体に向けて被写体を観察しながら、抵抗膜式タッチパネル表示部212上にくる両手の親指により自然に行うことができる。 In Example 4 of FIG. 20, the optical system 452 is a zoom lens system, and the zoom mechanism 470 drives the lens configuration of the optical system 452 under the control of the control unit 404 to change the focal length thereof. Zoom. Zooming is operated by touching the resistive touch panel display unit 212. In response to this operation, zooming is performed using not only the optical zoom by the optical system 452 as described above but also the electronic zoom by the image processing unit 256. . As described above, the zoom operation can be naturally performed with the thumbs of both hands on the resistive touch panel display unit 212 while observing the subject while holding the digital camera 402 with both hands.
さらに、加速度センサ472は、デジタルカメラ402の姿勢変化を検出するとともに静止状態でも重力加速度を検知することが可能となっており、抵抗膜式タッチパネル表示部212におけるズーミング操作がデジタルカメラ402を縦に構えて行われたか横に構えて行われたかを検出する。抵抗膜式タッチパネル表示部212によるズーム操作については、以下に詳述する。 Further, the acceleration sensor 472 can detect a change in posture of the digital camera 402 and can detect gravitational acceleration even in a stationary state, and a zooming operation on the resistive touch panel display unit 212 causes the digital camera 402 to move vertically. It is detected whether it was done by holding it or holding it sideways. The zoom operation by the resistive touch panel display unit 212 will be described in detail below.
図21は、実施例4のデジタルカメラ402を横にして両手で構えた状態において抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図であり、ズームアップにより被写体像を拡大するときの様子を示している。具体的に説明すると、図21(A)は、デジタルカメラを両手で保持した際の右手の親指474および左手の親指476で抵抗膜式タッチパネル表示部212にタッチすることで拡大したい範囲478の左右の辺を指定し、その後タッチを継続したまま矢印480および矢印482に示すように両親指を外側にスライドさせてタッチしている2点間の水平距離を増加させる状態を示す。 FIG. 21 is a screen diagram illustrating a subject image displayed on the resistive touch panel display unit 212 in a state where the digital camera 402 according to the fourth embodiment is held sideways with both hands, and when the subject image is enlarged by zooming up. The state of is shown. More specifically, FIG. 21A shows the left and right sides of a range 478 to be expanded by touching the resistive touch panel display unit 212 with the thumb 474 of the right hand and the thumb 476 of the left hand when the digital camera is held with both hands. In this state, the horizontal distance between the two touched points is increased by sliding the both thumbs outward as indicated by arrows 480 and 482 while the touch is continued.
その後、スライド途中の任意の時点で抵抗膜式タッチパネル表示部212から両手親指を離すと、これに応答し、図21(A)の状態で指定されていた拡大範囲478が図21(B)のように抵抗膜式タッチパネル表示部212の画面一杯に拡大画像484として拡大表示される。ここで、デジタルカメラ402の裏面にタッチしたまま抵抗膜式タッチパネル表示部212の枠外に両親指を離間スライドさせた場合も抵抗膜式タッチパネル表示部212から両手親指を離したものと認識される。 After that, when the thumb of both hands is released from the resistive touch panel display unit 212 at an arbitrary point during the slide, the enlarged range 478 designated in the state of FIG. As described above, the enlarged image 484 is enlarged and displayed on the full screen of the resistive touch panel display unit 212. Here, when both thumbs are slid apart from the resistive touch panel display unit 212 while touching the back surface of the digital camera 402, it is recognized that both thumbs are separated from the resistive touch panel display unit 212.
なお、図21(A)の両手親指による2点同時タッチ後に2点間水平距離の増加させるスライド操作は任意の速度で行ってよい。すなわち、図21(A)から図21(B)への拡大率は、専ら図21(A)での拡大範囲478の大きさに依存し、親指のスライド速度にかかわらず、拡大範囲478が抵抗膜式タッチパネル表示部212の画面一杯に拡大されるまで処理可能な最高速度にてズームアップが行われる。このとき光学ズームで対処できなければ、電子ズームも動員される。但し、拡大範囲478が小さすぎて、これを画面一杯拡大するズーム能力範囲を超える時は、可能な最大拡大を行った時点でズームアップは停止する。 Note that the slide operation for increasing the horizontal distance between two points after the two-point simultaneous touch with both thumbs in FIG. 21A may be performed at an arbitrary speed. That is, the enlargement ratio from FIG. 21A to FIG. 21B depends exclusively on the size of the enlargement range 478 in FIG. 21A, and the enlargement range 478 is resistant regardless of the slide speed of the thumb. Zoom-in is performed at the highest speed that can be processed until the screen of the membrane touch panel display unit 212 is enlarged. At this time, if the optical zoom cannot cope, an electronic zoom is also mobilized. However, if the enlargement range 478 is too small and exceeds the zoom capability range for full-screen enlargement, the zoom-up is stopped when the maximum possible enlargement is performed.
ところで、上記における図21(A)での拡大範囲478の指定はあくまで拡大率の目安であって、左手親指474および右手親指476で指定した絶対位置としての区画478そのものが図21(B)のように拡大されるわけではない。つまり、拡大は、区画478の絶対位置にかかわらずその左右辺の間の水平距離に基づいて同心的に行われる。これは光学ズームがその性質上画面中心について同心的に行われるためである。もともと左手親指474および右手親指476によって正確に画面中心部分を指定するのは困難であるが、これによって区画468の絶対位置にこだわらずに拡大率を感覚的に指定できる。従って、極端な場合、区画478が著しく左または右に偏っていたとしても、区画478情報は、その左右辺の間の水平距離が拡大倍率算出の情報として採用されるのであって、区画478を切り取って図21(B)のように拡大するための絶対位置情報として採用されるわけではない。このように、本発明のズーム操作における区画指定情報は、画像の一部の切り出し情報とは意味が異なる。なお、電子ズームにあっては、指定した区画478の絶対位置に基づいてその部分を切り取り拡大することは可能であるが、上記のような光学ズームとの整合性のため、実施例4では電子ズームにおいても、区画478の指定情報を、画面切り出しのための絶対情報ではなく拡大倍率算出のための相対情報として取り扱うよう構成している。従って電子ズームの拡大も、区画478の絶対位置にかかわらず、算出された拡大率に従って同心的に行われる。 By the way, the designation of the enlargement range 478 in FIG. 21A is only a guide for the enlargement ratio, and the section 478 itself as the absolute position designated by the left thumb 474 and the right thumb 476 is the same as that shown in FIG. Is not enlarged. That is, the enlargement is performed concentrically based on the horizontal distance between the left and right sides regardless of the absolute position of the section 478. This is because optical zoom is performed concentrically about the center of the screen due to its nature. Originally, it is difficult to accurately specify the center portion of the screen with the left thumb 474 and the right thumb 476, but this makes it possible to specify the enlargement ratio sensuously regardless of the absolute position of the section 468. Therefore, in an extreme case, even if the section 478 is significantly left or right, the horizontal distance between the left and right sides of the section 478 information is used as information for calculating the enlargement magnification. It is not adopted as absolute position information for cutting out and enlarging as shown in FIG. Thus, the section designation information in the zoom operation of the present invention has a different meaning from the cutout information of a part of the image. In the electronic zoom, it is possible to cut out and enlarge the portion based on the absolute position of the designated section 478. However, for consistency with the optical zoom as described above, the electronic zoom is used in the fourth embodiment. Also in zooming, the designation information of the section 478 is handled as relative information for calculating the enlargement magnification, not absolute information for cutting out the screen. Therefore, the enlargement of the electronic zoom is also performed concentrically according to the calculated enlargement ratio regardless of the absolute position of the section 478.
図22は、図21と同様にして実施例4のデジタルカメラ402を横にして両手で構えた状態において抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図であるが、ズームダウンにより被写体像を縮小するときの様子を示している。具体的に説明すると、図22(A)は、デジタルカメラを両手で保持した際の右手の親指474および左手の親指476で抵抗膜式タッチパネル表示部212にタッチし、その後タッチを継続したまま矢印486および矢印488に示すように両親指を内側にスライドさせてタッチしている2点間の水平距離を減少させる状態を示す。 FIG. 22 is a screen view showing a subject image displayed on the resistive touch panel display unit 212 in a state where the digital camera 402 according to the fourth embodiment is held sideways with both hands as in FIG. Shows a state when the subject image is reduced. More specifically, FIG. 22A shows an arrow in which the resistive touch panel display unit 212 is touched with the thumb 474 of the right hand and the thumb 476 of the left hand when the digital camera is held with both hands and the touch is continued thereafter. A state in which the horizontal distance between the two touched points is decreased by sliding both thumbs inward as indicated by 486 and an arrow 488 is shown.
その後、スライド途中の任意の時点で抵抗膜式タッチパネル表示部212から両手親指を離すと、これに応答し、図22(A)で画面一杯に表示されていた部分が図22(B)の対応部分490に縮小されるとともに撮影範囲がワイドになった画像が抵抗膜式タッチパネル表示部212に表示される。なお、縮小の際には、図22(B)における対応部分490の外側の画像が縮小前の図22(A)の状態では見えず、縮小指定を画面上の区画として指定することは直感的意義が薄い。そこで縮小の場合の縮小倍率は、図22(A)の矢印486および矢印488の移動量および移動早さの積によって決定する。例えば、移動量が同じで移動早さが2倍のときまたは移動量が2倍で移動早さが同じときはいずれも縮小倍率を2倍にするとともに両者がともに2倍のときは縮小倍率の4倍にする。これによって、直感的に親指の動きに連動した縮小倍率の指定を行うことができる。 Thereafter, when the thumb of both hands is released from the resistive touch panel display unit 212 at an arbitrary point during the slide, the portion displayed in full screen in FIG. 22 (A) responds to this and corresponds to FIG. 22 (B). An image that is reduced to the portion 490 and has a wide shooting range is displayed on the resistive touch panel display unit 212. When reducing, the image outside the corresponding portion 490 in FIG. 22B cannot be seen in the state of FIG. 22A before reduction, and it is intuitive to specify the reduction designation as a section on the screen. Insignificant. Therefore, the reduction ratio in the case of reduction is determined by the product of the movement amount and the movement speed of the arrows 486 and 488 in FIG. For example, when the moving amount is the same and the moving speed is double, or when the moving amount is double and the moving speed is the same, the reduction magnification is doubled, and when both are double, the reduction magnification is 4 times. Thereby, it is possible to intuitively specify the reduction ratio linked to the movement of the thumb.
なお、上記のとおり実施例4では、操作者の直感に沿うよう、拡大倍率の指定にあたっては図21(A)のように拡大対象範囲を当初の指のタッチ位置によって画面内で指定することにより、また縮小倍率の指定に当たっては図22(A)のように指の動きの激しさ度合いによって指定を行うよう構成している。しかしながら、拡大縮小両者とも当初の指のタッチ位置によりその率を指定するか、または拡大縮小両者とも指の動きの激しさ度合いによって行うよう構成してもよい。いずれにしても、使用者は拡大率および縮小率の指定原理を知らなくても、直感的に両手親指をタッチ後離間または接近させることにより所望のズームを行うことができる。そしてズームが不足または過剰であれば逆の操作をしてこれを修正することができ、このような操作の習熟により適切な指の動きをつかむことが可能となる。 As described above, in the fourth embodiment, in order to specify the enlargement magnification, the enlargement target range is designated on the screen by the initial finger touch position as shown in FIG. In addition, when designating the reduction ratio, as shown in FIG. 22 (A), the designation is made according to the degree of intensity of finger movement. However, both the enlargement and reduction may be configured to specify the rate according to the initial finger touch position, or both the enlargement and reduction may be performed according to the degree of intensity of finger movement. In any case, even if the user does not know the principle of specifying the enlargement ratio and the reduction ratio, the user can perform desired zoom by intuitively moving the thumbs of both hands apart or approaching after touching. If the zoom is insufficient or excessive, it can be corrected by performing the reverse operation, and it becomes possible to grasp an appropriate finger movement by learning such an operation.
図23は、実施例4のデジタルカメラ402を縦にして両手で構えた状態において抵抗膜式タッチパネル表示部212に表示される被写体画像を示す画面図である。この場合も矢印492および矢印494でそれぞれ示される右手親指478および左手親指476の水平方向の動きによる抵抗膜式タッチパネル表示部212上のタッチ2点間の水平距離の増減に応じズームアップおよびズームダウンが可能となる。このとき、図20の加速度センサ472による重力加速度検知により、抵抗膜式タッチパネル表示部212の短辺に平行な方向水平方向であると判断さる。このようにして、加速度センサ472による縦横方向検知によって、図21および図22では抵抗膜式タッチパネル表示部212の長辺に平行な2点間距離の変化が、図23では抵抗膜式タッチパネル表示部212の短辺に平行な2点間距離の変化が、それぞれズーム操作として検出される。図23における縦位置保持状態でのズームアップおよびズームダウンの詳細は、図21および図22における横位置保持状態での操作と同様なのでせつめいを省略する。 FIG. 23 is a screen diagram illustrating a subject image displayed on the resistive touch panel display unit 212 in a state where the digital camera 402 of Example 4 is held vertically with both hands. Also in this case, zooming up and zooming down according to the increase or decrease in the horizontal distance between two touch points on the resistive touch panel display unit 212 due to the horizontal movement of the right thumb 478 and the left thumb 476 indicated by the arrows 492 and 494, respectively. Is possible. At this time, it is determined that the direction is parallel to the short side of the resistive touch panel display 212 by the gravitational acceleration detection by the acceleration sensor 472 of FIG. In this way, the longitudinal and lateral direction detection by the acceleration sensor 472 causes a change in the distance between two points parallel to the long side of the resistive touch panel display unit 212 in FIGS. 21 and 22, and in FIG. 23 the resistive touch panel display unit. Changes in the distance between two points parallel to the short side of 212 are respectively detected as zoom operations. The details of zoom-up and zoom-down in the vertical position holding state in FIG. 23 are the same as those in the horizontal position holding state in FIGS.
図24は、図20の実施例4における制御部404の動作のフローチャートである。図24のフローチャートは、図16における実施例2デジタルカメラの制御部204の動作と同様の部分が多いので、共通するステップには同一のステップ番号を付して説明を省略するとともに、異なるステップを太字で明示する。 FIG. 24 is a flowchart of the operation of the control unit 404 in the fourth embodiment of FIG. The flowchart of FIG. 24 has many parts similar to the operation of the control unit 204 of the digital camera of the second embodiment in FIG. 16, and therefore, common steps are denoted by the same step numbers and description thereof is omitted, and different steps are performed. Specify in bold.
実施例4では、図24に示すように、ステップS148で1点タッチが検知されたときステップS202に移行し、1点タッチ検知の後所定時間内に2点目がタッチされて2点同時タッチ状態が検知されたかどうかチェックする。この所定時間は極めて短時間(例えば0.5秒)に設定されており、操作者としては2点同時タッチを意図したものに多少のずれがあってもこの所定時間内に収まり、それが2点同時タッチとして認識されるよう設計されている。つまり、操作者が意図して1点目タッチの後に2点目をタッチしたものと2点同時タッチを意図したものとを識別するのがステップS202設置の目的である。そしてステップS202で実質的な2点同時タッチが検知されるとステップS204のズーム処理に進み、これが完了するとステップS146に戻る。以上のステップS202およびステップS204は、図21から図23に説明した両手親指の同時タッチによるズーム機能に該当するものであり、ステップS204の詳細は後述する。 In the fourth embodiment, as shown in FIG. 24, when a one-point touch is detected in step S148, the process proceeds to step S202, and after the one-point touch is detected, the second point is touched within a predetermined time and two points are touched simultaneously. Check if the condition is detected. This predetermined time is set to an extremely short time (for example, 0.5 seconds), and even if there is a slight deviation in what the operator intends to touch at two points simultaneously, it falls within this predetermined time. Designed to be recognized as simultaneous point touch. That is, the purpose of the installation in step S202 is to discriminate between what the operator intends to touch the second point after the first point touch and what is intended to simultaneously touch the two points. When a substantial two-point simultaneous touch is detected in step S202, the zoom process proceeds to step S204. When this is completed, the process returns to step S146. The above steps S202 and S204 correspond to the zoom function by simultaneous touching with both thumbs described in FIGS. 21 to 23, and details of step S204 will be described later.
一方、ステップS202で所定時間内2点同地タッチが検知されない場合はステップS206に進み、ステップS148で検知された1点目のタッチ位置が所定時間不変かどうかチェックする。これは、ステップS148からステップS202を経てステップS206に至ったときは、被写体中のフォーカスおよび露出調節位置の指定操作であると想定し、その位置が所定時間ずれずに維持されているかどうかをチェックすることを意味する。ステップS206における所定時間は例えば1秒であり、操作者がフォーカスおよび露出調節位置の指定の意図をもってタッチ位置で指を止めている自然な時間幅として設定される。そして、ステップS206において1点目のタッチ位置が所定時間不変であることが確認されるとステップS208のフォーカスおよび露出調節処理に移行する。ステップS208の内容は、図16のステップS150から156と同じものである。一方、ステップS206で所定時間内に1点目タッチ位置のずれが生じたときは位置指定の誤操作と判断してステップS146に戻り、ステップS148での1点目再タッチを待つ。つまり、図16の実施例2では、ステップS148の1点タッチ検知後直ちにその位置についてフォーカスおよび露出調節に入っているところ、図24の実施例4では、ズーム操作との識別および誤操作のないことの確認を行った上で1点タッチ検知位置についてのフォーカスおよび露出調節に入るよう構成されている。 On the other hand, if a two-point simultaneous touch within a predetermined time is not detected in step S202, the process proceeds to step S206, and it is checked whether or not the first touch position detected in step S148 is unchanged for a predetermined time. When this reaches step S206 from step S148 to step S202, it is assumed that it is an operation for designating the focus and exposure adjustment position in the subject, and it is checked whether or not the position has been maintained for a predetermined time. It means to do. The predetermined time in step S206 is, for example, 1 second, and is set as a natural time width in which the operator stops the finger at the touch position with the intention of specifying the focus and exposure adjustment position. When it is confirmed in step S206 that the first touch position is unchanged for a predetermined time, the process proceeds to the focus and exposure adjustment process in step S208. The contents of step S208 are the same as steps S150 to 156 in FIG. On the other hand, if a shift of the first point touch position occurs within a predetermined time in step S206, it is determined that the position designation is erroneous, and the process returns to step S146 to wait for the first point retouch in step S148. That is, in the second embodiment of FIG. 16, the focus and exposure adjustment are started immediately after the one-point touch detection in step S148. In the fourth embodiment of FIG. 24, there is no discrimination from the zoom operation and no erroneous operation. After confirming the above, the focus and exposure adjustment for the one-point touch detection position is entered.
図25は、図24のステップS204におけるズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS212で加速度センサ472による水平方向検知が行われ、この検知結果に基づいてタッチされている2点間の水平距離、すなわち抵抗膜式タッチパネル表示部212の短辺方向または長辺方向のいずれか一方に平行な方向成分における2点間の距離が算出される。これにより、タッチした2点が垂直方向にずれていても、その水平方向成分のみが2点間水平距離として算出される。そしてステップS216に進み、ステップS214で算出された値をタッチ開始時点の2点間水平距離として記憶するとともに、その時刻を記憶する。 FIG. 25 is a flowchart showing details of the zoom process in step S204 of FIG. When the flow starts, first, the horizontal direction is detected by the acceleration sensor 472 in step S212, and the horizontal distance between the two touched points based on the detection result, that is, the short side direction of the resistive touch panel display unit 212 is detected. Alternatively, the distance between two points in the direction component parallel to one of the long side directions is calculated. Thereby, even if the two touched points are shifted in the vertical direction, only the horizontal component is calculated as the horizontal distance between the two points. In step S216, the value calculated in step S214 is stored as the horizontal distance between the two points at the start of touching, and the time is stored.
次いでステップS218では所定時間(例えば1秒)の経過がチェックされ、未経過ならばステップS220に進んで、指のスライドの結果として2点間の距離に変化が生じたかどうかチェックする。そして変化が検知されるとステップS222に移行し、変化後の2点間水平距離およびその時刻を記憶してステップS224に移行する。ステップS224では2点タッチが解除されたかどうかチェックし、解除がなければステップS218に戻る。なお、ステップS220で2点間水平距離に変化がない場合もステップS218に戻る。以下、所定時間が経過するまでは2点タッチが解除されない限りステップS218からステップS224を繰り返し、2点間の水平距離に変化がある毎にステップS222でその距離および時刻を更新記憶する。 Next, in step S218, the elapse of a predetermined time (for example, 1 second) is checked. If not, the process proceeds to step S220, and it is checked whether or not the distance between the two points has changed as a result of the finger slide. When a change is detected, the process proceeds to step S222, the horizontal distance between the two points after the change and the time are stored, and the process proceeds to step S224. In step S224, it is checked whether or not the two-point touch is released. If there is no release, the process returns to step S218. Note that if the horizontal distance between the two points does not change in step S220, the process returns to step S218. Thereafter, unless the two-point touch is released until the predetermined time elapses, steps S218 to S224 are repeated, and each time the horizontal distance between the two points changes, the distance and time are updated and stored in step S222.
一方、ステップS224で2点タッチの解除が検知されたときはステップS226に進み、ステップS222での記憶更新結果の最新情報に基づいてタッチ解除時点の2点間水泳距離および時刻を確定する。そしてステップS228でタッチ開始時点およびタッチ終了時点の2点間水平距離の比較から2点間水平距離が増加しているかどうかチェックする。増加が確認されるとステップS230の拡大ズーム処理を行ってステップS232に移行し、2点間水平距離関連の全記憶を消去してフローを終了する。拡大ズーム処理の詳細は後述する。一方、ステップS228で2点間水平距離の増加が確認されない場合は2短観水平距離が減少したことを意味するからステップS234に進み、縮小ズーム処理を行ってステップS232に移行する。縮小ズーム処理の詳細についても後述する。なお、ステップS218において2点間水平距離に変化がないまま又は変化があっても2点タッチが解除されないまま所定時間が経過したことが確認された場合は直接ステップS232に移行し、ズーム操作を行わないまま記憶を消去してフローを終了する。 On the other hand, when the release of the two-point touch is detected in step S224, the process proceeds to step S226, and the two-point swimming distance and time at the time of the touch release are determined based on the latest information of the storage update result in step S222. In step S228, it is checked whether the horizontal distance between the two points is increased or not by comparing the horizontal distance between the two points at the touch start time and the touch end time. When the increase is confirmed, the enlargement zoom process of step S230 is performed, and the process proceeds to step S232, where all the memories related to the horizontal distance between the two points are erased, and the flow ends. Details of the enlargement zoom processing will be described later. On the other hand, if the increase in the horizontal distance between the two points is not confirmed in step S228, it means that the 2 TANKAN horizontal distance has decreased, the process proceeds to step S234, the reduction zoom process is performed, and the process proceeds to step S232. Details of the reduction zoom processing will also be described later. If it is confirmed in step S218 that the horizontal distance between the two points has not changed or the predetermined time has passed without the two-point touch being released even if there is a change, the process directly proceeds to step S232 and the zoom operation is performed. The memory is erased without performing and the flow is ended.
図26は、図25のステップS230における拡大ズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS242においてタッチ開始時点2点水平距離を抵抗膜式タッチパネル表示部212の左右の辺の間の水平距離で割り、拡大倍率を求める。ここでタッチ開始時点2点水平距離は、図25のステップS216で記憶されたものであり、図21(A)における拡大希望範囲478の左右の辺の間の水平距離に該当する。 FIG. 26 is a flowchart showing details of the enlargement zoom process in step S230 of FIG. When the flow starts, first, in step S242, the two-point horizontal distance at the touch start time is divided by the horizontal distance between the left and right sides of the resistive touch panel display unit 212 to obtain an enlargement magnification. Here, the two-point horizontal distance at the touch start time is stored in step S216 in FIG. 25 and corresponds to the horizontal distance between the left and right sides of the desired enlargement range 478 in FIG.
次いで、ステップS244では、デジタルカメラ402が現在電子ズーム領域にあるかどうかチェックする。ここで、電子ズーム領域にあるということは、光学ズームによってテレ端(最望遠側ズーム端)まで光学像をズームアップした上でさらに画像処理によりで画像を拡大した状態であることを意味する。電子ズーム領域でなければ、光学ズームによるテレ側へのズームアップが可能なのでステップS246に進み、ステップS242で算出した拡大倍率に到達しているかどうかをチェックする。ズームアップ開始当初は当然拡大倍率が未達なのでステップS248に進み、所定の速度(メカ上可能な最高速)でズーム機構470を駆動して所定量(可能な最小単位)のズームアップを行う。次いでステップS250で光学ズームがテレ端に達したかどうかチェックし、テレ端でなければステップS246に戻って拡大倍率に到達するか光学ズームがテレ端に達するまでステップS246からステップS250を繰り返す。 In step S244, it is checked whether the digital camera 402 is currently in the electronic zoom area. Here, being in the electronic zoom region means that the optical image is zoomed up to the telephoto end (the telephoto side zoom end) by optical zooming, and then the image is further enlarged by image processing. If it is not the electronic zoom region, zooming to the tele side by optical zoom is possible, so the process proceeds to step S246, and it is checked whether or not the enlargement magnification calculated in step S242 has been reached. Naturally, since the enlargement magnification has not yet reached at the beginning of zoom-up, the process proceeds to step S248, and the zoom mechanism 470 is driven at a predetermined speed (the highest possible speed in terms of mechanism) to perform a predetermined amount (the smallest possible unit) of zoom-up. Next, in step S250, it is checked whether or not the optical zoom has reached the tele end. If it is not the tele end, the process returns to step S246 and the steps from step S246 to step S250 are repeated until the enlargement magnification is reached or the optical zoom reaches the tele end.
そして、ステップS246で拡大倍率への到達が確認されると、所望のズームアップが達成できたことになるので直ちにフローを終了する。一方、ステップS250で光学ズームがテレ端に達したことが確認されると光学ズームだけでは拡大倍率が達成できないのでステップS252に移行する。ステップS252では、ズームアップの減速補正分を差引いた拡大倍率が達成されているかどうかチェックする。ここで、減速補正分とは光学ズームと電子ズームの間の違和感をなくすためのものであり、電子ズームの終了近辺でズーム速度を減速させ、光学ズームによるメカ駆動停止を模倣するものである。減速補正分とは電子ズームのうちこの減速補正のための倍率変化分を意味する。 When it is confirmed in step S246 that the enlargement magnification has been reached, the desired zoom-up has been achieved and the flow is immediately terminated. On the other hand, if it is confirmed in step S250 that the optical zoom has reached the telephoto end, the magnification cannot be achieved with only the optical zoom, and the process proceeds to step S252. In step S252, it is checked whether the enlargement magnification obtained by subtracting the zoom-up deceleration correction amount has been achieved. Here, the deceleration correction is for eliminating the uncomfortable feeling between the optical zoom and the electronic zoom, and imitates the mechanical drive stop by the optical zoom by reducing the zoom speed near the end of the electronic zoom. The deceleration correction amount means a change in magnification for the deceleration correction in the electronic zoom.
ステップS252でズームアップの減速補正分を差引いた拡大倍率の達成が確認されない場合はステップS254に進み、光学ズームの最高速度を模した所定の拡大速度および拡大量にてズームズームアップを行う。そしてこの場合の拡大は画像中心を基準として同心的に行われる。次いでステップS256で、電子ズームがズームアップの減速補正分を差引いて拡大限界(テレ端)に達したかどうかチェックし、テレ端でなければステップS252に戻って電子ズームが減速補正分を差し引いた上で拡大倍率に到達するかテレ端に達するまでステップS252からステップS256を繰り返す。そして、ステップS252で減速補正分を差引いた拡大倍率への到達が確認されると、ステップS258に進み、拡大電子ズーム減速停止処理により残余の拡大処理を行って拡大倍率を達成し、フローを終了する。一方ステップS256で、減速補正分を差引いた上で電子ズームがテレ端に達したことが確認された場合も、ステップS258に進み、拡大電子ズーム減速停止処理により残余の拡大処理を行って拡大倍率を達成し、フローを終了する。 If it is not confirmed in step S252 that the enlargement magnification obtained by subtracting the zoom-up deceleration correction amount is reached, the process proceeds to step S254, and zoom zoom-in is performed at a predetermined enlargement speed and enlargement amount simulating the maximum speed of the optical zoom. The enlargement in this case is performed concentrically with the image center as a reference. Next, in step S256, it is checked whether or not the electronic zoom has reached the enlargement limit (tele end) by subtracting the zoom-up deceleration correction amount, and if it is not the tele end, the process returns to step S252 to subtract the deceleration correction amount. Steps S252 to S256 are repeated until the enlargement magnification is reached or the telephoto end is reached. When it is confirmed in step S252 that the enlargement magnification obtained by subtracting the deceleration correction amount is reached, the flow proceeds to step S258, the enlargement magnification is achieved by performing the enlargement processing of the remaining by the enlargement electronic zoom deceleration stop processing, and the flow ends. To do. On the other hand, if it is confirmed in step S256 that the electronic zoom has reached the tele end after subtracting the deceleration correction amount, the process proceeds to step S258, and the enlargement magnification is performed by performing the remaining enlargement process by the enlargement electronic zoom deceleration stop process. To complete the flow.
また、ステップS244で現在電子ズーム領域であることが検知されたときはステップS260に進み、電子ズームが既にテレ端にあるかどうかのチェックが行われる。そしてテレ端でなければステップS252に進み、以下、上記において光学ズームを経由してステップS252に至ったと同様の処理を実行する。一方、ステップS260で電子ズームがテレ端に達していることが確認された場合は直ちにフローを終了する。 If it is detected in step S244 that the current area is the electronic zoom area, the process advances to step S260 to check whether the electronic zoom is already at the tele end. If it is not the tele end, the process proceeds to step S252, and thereafter, the same processing as that in step S252 is performed via the optical zoom. On the other hand, if it is confirmed in step S260 that the electronic zoom has reached the tele end, the flow is immediately terminated.
図27は、図25のステップS234における縮小ズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS262において2点間水平距離の変化量が算出されるとともにステップS264において2点間水平距離の変化速度が算出される。これらは、図25のステップS216およびステップS222における記憶値に基づくものである。そしてステップS266において、これら2点間水平距離の変化量と変化速度の積に基づいて縮小倍率が求められる。 FIG. 27 is a flowchart showing details of the reduction zoom process in step S234 of FIG. When the flow starts, first, the amount of change in the horizontal distance between the two points is calculated in step S262, and the rate of change in the horizontal distance between the two points is calculated in step S264. These are based on the stored values in step S216 and step S222 of FIG. In step S266, the reduction ratio is obtained based on the product of the change amount and the change speed of the horizontal distance between the two points.
次いで、ステップS268では、デジタルカメラ402が現在電子ズーム領域にあるかどうかチェックする。現在電子ズーム領域であることが検知されたときはステップS270に進み、ステップS266で算出された縮小倍率が電子ズームで達成可能なものであるかどうかチェックされる。これは、縮小倍率が大きすぎて撮像されている画像情報では足りず、光学ズームによってもっと広角の画像情報を得なければ縮小倍率が達成できないような状態にないかどうかのチェックを意味する。 In step S268, it is checked whether the digital camera 402 is currently in the electronic zoom area. When it is detected that the current area is the electronic zoom area, the process proceeds to step S270, and it is checked whether or not the reduction magnification calculated in step S266 is achievable by the electronic zoom. This means that the image information captured because the reduction magnification is too large is not sufficient, and it is checked whether the reduction magnification cannot be achieved unless image information of a wider angle is obtained by optical zoom.
ステップS270で電子ズームだけでは達成可能な縮小倍率でないことが確認されるとステップS272に進み、光学ズームの最高速度を模した所定の縮小速度および縮小量にてズームダウンの画像処理を行う。この場合の縮小処理についても画像中心を基準として同心的な縮小処理が行われる。そしてステップS274に進み、電子ズームが撮像情報の限界であるワイド端にあるかどうかのチェックが行われる。そしてワイド端でなければステップS272に戻り、電子ズームがワイド端に達するまでステップS272およびステップS274を繰り返し、電子ズームを実行する。そして電子ズームがワイド端に達すると直ちにステップS276に移行する。このように、ステップS270で電子ズームだけでは達成可能な縮小倍率でないことが予め確認されている場合は、電子ズーム減速処理をおこなわず直ちにステップS276以下の光学ズームによるズームダウンに移行する。 If it is confirmed in step S270 that the reduction ratio is not achievable with only the electronic zoom, the process proceeds to step S272, and zoom-down image processing is performed at a predetermined reduction speed and reduction amount simulating the maximum speed of the optical zoom. As for the reduction process in this case, concentric reduction process is performed based on the center of the image. In step S274, it is checked whether or not the electronic zoom is at the wide end, which is the limit of the imaging information. If it is not the wide end, the process returns to step S272, and steps S272 and S274 are repeated until the electronic zoom reaches the wide end to execute the electronic zoom. When the electronic zoom reaches the wide end, the process immediately proceeds to step S276. As described above, when it is confirmed in advance in step S270 that the reduction ratio cannot be achieved by only the electronic zoom, the electronic zoom decelerating process is not performed, and the process immediately proceeds to the zoom-down by the optical zoom in step S276 and the subsequent steps.
ステップS276では、ステップS266で算出した縮小倍率に到達しているかどうかをチェックする。ステップS274からの移行当初では当然縮小倍率が未達なのでステップS278に進み、ズームアップの場合と同様にして、所定の速度(メカ上可能な最高速)でズーム機構470を駆動して所定量(可能な最小単位)のズームダウンを行う。次いでステップS280で光学ズームがワイド端に達したかどうかチェックし、ワイド端でなければステップS276に戻って縮小倍率に到達するか光学ズームがワイド端に達するまでステップS276からステップS280を繰り返す。 In step S276, it is checked whether or not the reduction ratio calculated in step S266 has been reached. Naturally, since the reduction ratio has not yet reached at the beginning of the transition from step S274, the process proceeds to step S278, and the zoom mechanism 470 is driven at a predetermined speed (the highest possible mechanical speed) in the same manner as in the case of zooming up to a predetermined amount ( Zoom down the smallest possible unit. Next, in step S280, it is checked whether or not the optical zoom has reached the wide end. If it is not the wide end, the process returns to step S276 to repeat the steps S276 to S280 until the reduction magnification is reached or the optical zoom reaches the wide end.
そして、ステップS276で拡大倍率への到達が確認されると、所望のズームダウンが達成できたことになるので直ちにフローを終了する。一方、ステップS280で光学ズームがワイド端に達したことが確認された場合もこれ以上のズームダウンは不可能なのでフロー祖終了する。なお、ステップS268で現在電子ズーム領域でないことが確認された場合は直ちにステップS276に移行し、以下ステップS274の電子ズーム経由の場合に説明したと同様の光学ズームによるズームダウンを実行する。 When it is confirmed in step S276 that the enlargement magnification has been reached, the desired zoom-down has been achieved and the flow is immediately terminated. On the other hand, if it is confirmed in step S280 that the optical zoom has reached the wide end, further zoom-down is impossible, and the flow is terminated. If it is confirmed in step S268 that the current region is not the electronic zoom region, the process immediately proceeds to step S276, and the zoom-down by the optical zoom similar to that described in the case of via the electronic zoom in step S274 is executed.
一方、ステップS266で算出された縮小倍率が電子ズームで達成可能なものであることがステップS270で確認されたときはステップS282に移行し、ステップS272と同様にして、光学ズームの最高速度を模した所定の縮小速度および縮小量にてズームダウンの画像処理を行う。この場合の縮小処理も画像中心を基準とした同心的な縮小処理である。そしてステップS284では、ズームダウンの減速補正分を差引いた縮小倍率が達成されているかどうかチェックする。ここで、の減速補正分はズームアップの場合と同様にして光学ズームと電子ズームの間の違和感をなくすためのものであり、電子ズームの終了近辺でズーム速度を減速させ、ステップS276やステップS280からフローを終了する場合における光学ズームによるメカ駆動停止を模倣するものである。 On the other hand, when it is confirmed in step S270 that the reduction ratio calculated in step S266 can be achieved by electronic zoom, the process proceeds to step S282, and the maximum speed of the optical zoom is simulated in the same manner as in step S272. The zoom-down image processing is performed at the predetermined reduction speed and reduction amount. The reduction process in this case is also a concentric reduction process based on the image center. In step S284, it is checked whether or not a reduction ratio obtained by subtracting the zoom-down deceleration correction amount has been achieved. Here, the deceleration correction amount is for eliminating the uncomfortable feeling between the optical zoom and the electronic zoom as in the case of zooming up. The zoom speed is reduced near the end of the electronic zoom, and step S276 or step S280 is performed. The imitation of the mechanical drive stop by the optical zoom in the case of ending the flow.
ステップS282でズームダウンの減速補正分を差引いた縮小倍率の達成が確認されない場合はステップS282に戻り、以下、電子ズームが減速補正分を差し引いた上で縮小倍率に到達するまでステップS282とステップS284を繰り返す。そして、ステップS284で減速補正分を差引いた縮小倍率への到達が確認されると、ステップS286に進み、縮小電子ズーム減速停止処理により残余の縮小処理を行って縮小拡大倍率を達成し、フローを終了する。このように、縮小の場合は電子ズームだけで縮小倍率が達成できる場合は光学ズームを模した減速停止処理を行うとともに、光学ズームに縮小処理を引き継ぐ場合は、上記のように減速停止処理を行わずに光学ズームに移行する。 If it is not confirmed in step S282 that the reduction ratio obtained by subtracting the zoom-down deceleration correction amount is reached, the process returns to step S282, and thereafter, steps S282 and S284 are performed until the electronic zoom reaches the reduction magnification after subtracting the deceleration correction amount. repeat. When it is confirmed in step S284 that the reduction magnification obtained by subtracting the deceleration correction amount is reached, the flow proceeds to step S286, the remaining reduction processing is performed by the reduction electronic zoom deceleration stop processing, and the reduction enlargement magnification is achieved. finish. As described above, in the case of reduction, when the reduction magnification can be achieved only with the electronic zoom, the deceleration stop process simulating the optical zoom is performed, and when the reduction process is succeeded to the optical zoom, the deceleration stop process is performed as described above. Without moving to optical zoom.
次に本発明の実施の形態に係るタッチパネル入力装置の実施例5について説明する。実施例5は
デジタルカメラに関するもので、静止画撮影に加え動画撮影も可能なものとして構成されている。その基本構成は実施例4と同様なので図20を援用する。また、ズーミング操作についても図21や図22のようデジタルカメラを構えた両手の親指の離間および接近によってズームアップおよびダウンを行う。但し、動画撮影の場合は撮影前ではなく撮影中のズーミング操作となるとともに、ズーミングの到達点だけでなくズーム速度も含めたズーム途中経過の操作も重要となる。図28はこのような動画撮影モードを中心として図20の構成を援用した場合の制御部404の機能を説明するフローチャートである。
Next, Example 5 of the touch panel input device according to the embodiment of the present invention will be described. The fifth embodiment relates to a digital camera, and is configured to be capable of moving image shooting in addition to still image shooting. Since the basic configuration is the same as that of the fourth embodiment, FIG. As for the zooming operation, zooming up and down is performed by separating and approaching the thumbs of both hands holding the digital camera as shown in FIGS. However, in the case of moving image shooting, a zooming operation is performed during shooting, not before shooting, and an operation in the middle of zooming including not only the zooming arrival point but also the zoom speed is important. FIG. 28 is a flowchart for explaining the function of the control unit 404 when the configuration of FIG. 20 is used focusing on such a moving image shooting mode.
実施例5のデジタルカメラ404についても、電源オン操作が行われると図28のフローがスタートし、ステップS292でデジタルカメラの立上処理が行わるとともに、ステップS294で初期状態として静止画の撮影モードを設定してステップS294に移行する。ステップS294では動画撮影モードの手動操作が行われたかどうかチェックし、操作が検知されるとステップS298に移行する。 Also for the digital camera 404 of the fifth embodiment, when the power-on operation is performed, the flow of FIG. 28 starts, the digital camera startup processing is performed in step S292, and the still image shooting mode is set as the initial state in step S294. Is set and the process proceeds to step S294. In step S294, it is checked whether or not a manual operation in the moving image shooting mode has been performed. If an operation is detected, the process proceeds to step S298.
ステップS298では、動画撮影モードが設定されてから所定時間以内に1点タッチが検知されるかどうかチェックする。この所定時間は例えば10秒程度の比較的長い時間に設定されるが、ステップS298でこの時間の経過が検知されると動画撮影モードを一旦終了してステップS296に戻ることになる。そして、ステップS296で再度動画撮影モードの設定が確認されるとステップS298に移行し、1点タッチの検知を待つ。そしてステップS298で所定時間内の1点タッチ状態が検知されるとステップ300に移行し、タッチが検知された位置における被写体情報を記憶する。つまり、動画撮影モードにおける1点タッチの意義は主要被写体追尾情報の記憶のためであって、抵抗膜式タッチパネル表示部212に表示されている被写体における1点タッチ部分の色、パターン、特徴点の配置などが主要被写体特定情報としてステップS300で記憶されることになる。 In step S298, it is checked whether a one-point touch is detected within a predetermined time after the moving image shooting mode is set. The predetermined time is set to a relatively long time, for example, about 10 seconds. When the elapse of this time is detected in step S298, the moving image shooting mode is temporarily ended and the process returns to step S296. When the setting of the moving image shooting mode is confirmed again in step S296, the process proceeds to step S298 and waits for detection of a one-point touch. When a one-point touch state within a predetermined time is detected in step S298, the process proceeds to step 300, and subject information at the position where the touch is detected is stored. That is, the significance of the one-point touch in the moving image shooting mode is to store the main subject tracking information, and the color, pattern, and feature point of the one-point touch portion on the subject displayed on the resistive touch panel display unit 212 are recorded. The arrangement and the like are stored as main subject specifying information in step S300.
次いで、ステップS302では、ステップS300で記憶された情報に基づき動画撮影中の主要被写体に対する追尾フォーカスおよび追尾露出調整を準備する処理を行ってステップS304に移行する。ステップS302で準備された追尾フォーカスおよび追尾露出調整の実行は以後、録画の録画開始から停止まで継続されることになる。ステップS304では、ステップS298で1点タッチが検知されてから所定時間が経過したかどうかチェックする。この所定時間は例えば2秒程度であり、1点目タッチにより追尾対象の主要被写体を決定してから2点目タッチ検知による動画撮影開始を待つための時間として設定される。後述のように、この所定時間内に2点目タッチが検知されない場合は1点目タッチに基づく追尾情報の記憶がキャンセルされる。 Next, in step S302, processing for preparing tracking focus and tracking exposure adjustment for the main subject during moving image shooting is performed based on the information stored in step S300, and the process proceeds to step S304. The execution of the tracking focus and tracking exposure adjustment prepared in step S302 is continued from the start to the end of recording. In step S304, it is checked whether a predetermined time has elapsed since the one-point touch was detected in step S298. This predetermined time is, for example, about 2 seconds, and is set as a time for waiting for the start of moving image shooting by the second point touch detection after the main subject to be tracked is determined by the first point touch. As will be described later, when the second point touch is not detected within the predetermined time, the storage of the tracking information based on the first point touch is cancelled.
ステップS304で所定時間経過が検知されないときはステップS306に進んで1点タッチが解除されたかどうかチェックする。1点タッチ解除が検知されない場合は、ステップS308に進み、1点目タッチを継続して2点目をタッチした結果として2点同時タッチ状態が生じたかどうかチェックする。そして、2点同時タッチ状態が検知されるとステップS310に進んで録画を開始する。これによって画像処理部256によって動画画像圧縮を行うとともに圧縮画像を画像記憶部258に記憶する処理が開始し、録画停止指示までこれが継続される。一方、ステップS308で2点同時タッチ状態が検知されない場合はステップS304に戻り、以下、所定時間が経過するか1点タッチが解除されるかしない限りステップS304からステップS308を繰り返して2点目タッチを待つ。 When the elapse of the predetermined time is not detected in step S304, the process proceeds to step S306 to check whether the one-point touch is released. If the one-point touch release is not detected, the process proceeds to step S308 to check whether the two-point simultaneous touch state has occurred as a result of continuing the first point touch and touching the second point. When a two-point simultaneous touch state is detected, the process proceeds to step S310 to start recording. As a result, the image processing unit 256 performs the moving image compression and starts the process of storing the compressed image in the image storage unit 258, and continues until the recording stop instruction. On the other hand, if the two-point simultaneous touch state is not detected in step S308, the process returns to step S304, and then the second point touch is repeated by repeating steps S304 to S308 unless a predetermined time elapses or the one-point touch is released. Wait for.
ステップS310で録画が開始されると、これと並行してステップS312では所定時間内の2点同時タッチおよびスライドがあったかどうかチェックする。ここでの所定時間は図24のステップS202におけるものと同様ものもので、両手親指によるズーミングのための意図的な2点タッチ操作を検知するためのものである。そしてこれが検知されるとステップS314の動画撮影ズーム処理が行われる。その詳細は後述する。ステップS312の動画撮影ズーム処理が完了するとステップS316で1点のダブルタッチが行われたどうかが検知される。これは2点同時タッチ状態が生じないようにして所定間隔で連続してタッチが行われたことの検知であって、ダブルタッチの位置はどこでもよくまた同じ場所でのタッチでなくてもよい。そしてダブルタッチが検知されるとステップS318に進み録画を停止してステップS320に移行する。また、ステップS316で1点ダブルタッチが検知されないときはステップS312に戻り、ズーミング操作を可能にしながら動画撮影を継続する。 When recording is started in step S310, in parallel with this, in step S312, it is checked whether or not there is a two-point simultaneous touch and slide within a predetermined time. The predetermined time here is the same as that in step S202 of FIG. 24, and is for detecting an intentional two-point touch operation for zooming with both thumbs. When this is detected, the moving image shooting zoom process of step S314 is performed. Details thereof will be described later. When the moving image shooting zoom process in step S312 is completed, it is detected in step S316 whether one point of double touch has been performed. This is detection that the touches are continuously performed at a predetermined interval so that the two-point simultaneous touch state does not occur, and the position of the double touch may be anywhere and may not be a touch at the same place. When a double touch is detected, the process proceeds to step S318, the recording is stopped, and the process proceeds to step S320. If no one-point double touch is detected in step S316, the process returns to step S312 to continue moving image shooting while enabling a zooming operation.
一方、ステップS304で所定時間の経過が検知されたとき、またはステップS306で1点タッチ解除が検知されたときはステップS422に進み、ステップS302における追尾準備処理をキャンセルしてステップS320に移行する。また、ステップS296で動画撮影モードの設定が検知されなかったときは直ちにステップS324の静止画撮影モードおよび再生モード処理に移行する。このステップS324は図24における実施例4のステップS146からステップS148、ステップS202からステップS208、ステップS158からステップS166、およびステップS170からステップS178と同じ処理である。 On the other hand, when the elapse of a predetermined time is detected in step S304, or when one-point touch release is detected in step S306, the process proceeds to step S422, the tracking preparation process in step S302 is canceled, and the process proceeds to step S320. If the moving image shooting mode setting is not detected in step S296, the process immediately proceeds to the still image shooting mode and playback mode processing in step S324. This step S324 is the same processing as step S146 to step S148, step S202 to step S208, step S158 to step S166, and step S170 to step S178 of the fourth embodiment in FIG.
また、図28のステップS320は図24のステップS168と同じものであって、デジタルカメラ202の電源オフ操作が行われたかどうかチェックする。そして、電源オフ操作が検知されたときはフローを終了する。一方、ステップS320で電源オフ操作の検知がない場合は静止画撮影モードに復帰してステップS296に戻る。以下、ステップS320で電源オフ操作が検知されない限りステップS296からステップS320を繰り返し、静止画撮影モードの動作を基本に、動画撮影モードが設定された場合における撮影開始と停止およびズーミングの操作に対応するとともに、再生モードへの移行操作および静止画撮影モードへの復帰操作に対応する。 Further, step S320 in FIG. 28 is the same as step S168 in FIG. 24, and it is checked whether or not the power-off operation of the digital camera 202 has been performed. When the power-off operation is detected, the flow ends. On the other hand, if no power-off operation is detected in step S320, the process returns to the still image shooting mode and returns to step S296. Hereinafter, unless a power-off operation is detected in step S320, steps S296 to S320 are repeated to correspond to the operation of starting and stopping shooting and zooming when the moving image shooting mode is set based on the operation of the still image shooting mode. In addition, it corresponds to an operation for shifting to the reproduction mode and an operation for returning to the still image shooting mode.
図29は、図28のステップS314における動画撮影ズーム処理の詳細を示すフローチャートである。フローがスタートすると、まず、ステップS322において2点間の水平距離が所定量増加したかどうかのチェックが行われる。この所定量は検知および制御可能な最小単位である。2点間水平距離の所定量増加が検知されるとステップS334に移行し、光学ズームがテレ端にあるかどうかがチェックされる。そしてテレ端でなければステップS336に移行し、光学ズームによってステップS332の検知に対応した所定量だけズームアップを行ってステップS338に移行する。一方、ステップS332で2点間の水平距離所定量増加が検知されない場合、またはステップS334で光学ズームがテレ端にあることが検知された場合は直接ステップS338に移行する。 FIG. 29 is a flowchart showing details of the moving image shooting zoom process in step S314 of FIG. When the flow starts, first, in step S322, it is checked whether the horizontal distance between the two points has increased by a predetermined amount. This predetermined amount is the smallest unit that can be detected and controlled. When a predetermined amount increase in the horizontal distance between the two points is detected, the process proceeds to step S334 to check whether the optical zoom is at the tele end. If it is not the tele end, the process proceeds to step S336, the optical zoom is performed to zoom in by a predetermined amount corresponding to the detection in step S332, and the process proceeds to step S338. On the other hand, if an increase in the predetermined amount of the horizontal distance between the two points is not detected in step S332, or if it is detected in step S334 that the optical zoom is at the tele end, the process proceeds directly to step S338.
ステップS338では、2点間の水平距離が所定量減少したかどうかのチェックが行われる。この所定量も検知および制御可能な最小単位である。2点間水平距離の所定量減少が検知されるとステップS340に移行し、光学ズームがワイド端にあるかどうかがチェックされる。そしてワイド端でなければステップS342に移行し、光学ズームによってステップS338の検知に対応した所定量だけズームダウンを行ってステップS344に移行する。一方、ステップS338で2点間の水平距離所定量減少が検知されない場合、またはステップS340で光学ズームがワイド端にあることが検知された場合は直接ステップS344に移行する。 In step S338, it is checked whether the horizontal distance between the two points has decreased by a predetermined amount. This predetermined amount is also the smallest unit that can be detected and controlled. When a predetermined amount decrease in the horizontal distance between the two points is detected, the process proceeds to step S340, and it is checked whether the optical zoom is at the wide end. If it is not the wide end, the process proceeds to step S342, the optical zoom is performed to zoom down by a predetermined amount corresponding to the detection in step S338, and the process proceeds to step S344. On the other hand, if a decrease in the predetermined amount of the horizontal distance between the two points is not detected in step S338, or if it is detected in step S340 that the optical zoom is at the wide end, the process directly proceeds to step S344.
ステップS344では、2同時タッチ状態が解除されたかどうかのチェックが行われる。そして2点同時タッチ解除が検知されるとフローを終了する。一方、ステップS344で2点同時タッチ解除が検知されないときはステップS346に進み、所定時間2点間の距離が無変化である状態が続くかどうかチェックする。そして無変化状態が検知されるとフローを終了する。一方、ステップS346で無変化の検知がない場合はズーム操作が継続されているのでステップS332に戻り、以下、2点同時タッチの解除または所定時間以上の2点間距離無変化が検知されない限りステップS332からステップS346を繰り返し、動画撮影中のズーム操作に対応する。フローから理解されるとおり、ズーム操作はアップダウンが任意に可能である。またズーム速度は2点間水平距離を決める両手親指の動きにより任意に変えることができる。 In step S344, it is checked whether or not the two simultaneous touch state has been released. When the two-point simultaneous touch release is detected, the flow ends. On the other hand, if the simultaneous two-point touch release is not detected in step S344, the process proceeds to step S346, and it is checked whether or not the state in which the distance between the two points remains unchanged for a predetermined time continues. When the unchanged state is detected, the flow ends. On the other hand, if no change is detected in step S346, the zoom operation is continued, so the process returns to step S332, and the following steps are performed unless the simultaneous release of two points or the change in the distance between two points over a predetermined time is detected. Steps S <b> 332 to S <b> 346 are repeated to correspond to a zoom operation during moving image shooting. As understood from the flow, the zoom operation can arbitrarily be up and down. The zoom speed can be arbitrarily changed by the movement of the thumbs of both hands that determines the horizontal distance between the two points.
図30は、図14に示す実施例2のデジタルカメラ、または図20に示す実施例4のデジタルカメラの再生モードにおいて抵抗膜式タッチパネル表示部212に表示される再生画像を示す画面図である。図30(A)は、再生画像502が全画面表示されている場合においてこれを編集のため矩形に切取り記憶する操作を示しており、右手504の親指のタッチ位置506と人差指のタッチ位置508の2点を結ぶ線を対角線とする矩形領域510を認識する。この認識は、誤操作を避けるため、2点タッチ位置が所定時間(例えば2秒)変化しないことを確認して行われる。つまり、操作側から見れば、矩形の対角となる2点を二つの指で所定時間意識的にタッチし続けることによって切取り部分の指定およびその記憶を実行させることができる。そして2点が認識されると図30(B)のように矩形領域510が切り取られ、その画像データが別途記憶される。 FIG. 30 is a screen diagram showing a playback image displayed on the resistive touch panel display unit 212 in the playback mode of the digital camera of the second embodiment shown in FIG. 14 or the digital camera of the fourth embodiment shown in FIG. FIG. 30A shows an operation of cutting and storing a reproduction image 502 in a rectangular shape for editing when the reproduced image 502 is displayed on the full screen. The touch position 506 of the thumb of the right hand 504 and the touch position 508 of the index finger are shown. A rectangular region 510 whose diagonal is a line connecting two points is recognized. This recognition is performed after confirming that the two-point touch position does not change for a predetermined time (for example, 2 seconds) in order to avoid an erroneous operation. That is, when viewed from the operation side, it is possible to execute designation and storage of a cut-out portion by consciously touching two points that are diagonal to the rectangle with two fingers for a predetermined time. When two points are recognized, a rectangular area 510 is cut out as shown in FIG. 30B, and the image data is stored separately.
図31は、図30と同様にして、図14に示す実施例2のデジタルカメラ、または図20に示す実施例4のデジタルカメラの再生モードにおいて抵抗膜式タッチパネル表示部212に表示される再生画像を示す画面図である。図31(A)の場合は、全画面表示されている再生画像502の一部を編集のため円形に切取り記憶する操作を示しており、右手504の親指および人差指の当初のタッチ位置512および514がまず記憶される。そして当初のタッチから所定時間(例えば2秒)以内で右手512をスライド回転させた結果の矢印516および518に示す親指と人差指の移動状況が検知される。図31(A)の例では、右手504を時計回りに回転させているが、この結果、矢印520および522で示すように2点間の垂直間隔が減少し、一方、矢印524および526で示すように2点間の水平距離が拡大する。このようして、2点の水平間隔(X軸方向成分)と垂直間隔(Y軸方向成分)の変化方向が逆であることが検知されると、タッチしている親指および人差指がそれぞれ弧を描いて回転させられたものと判定し、当初記憶した親指のタッチ位置512および人差指のタッチ位置を直径とする円領域528を認識する。そして図31(B)のように、認識された円領域528が切り取られ、その画像データが別途記憶される。 31 is a reproduction image displayed on the resistive touch panel display unit 212 in the reproduction mode of the digital camera of the second embodiment shown in FIG. 14 or the digital camera of the fourth embodiment shown in FIG. FIG. In the case of FIG. 31A, an operation of cutting and storing a part of the reproduced image 502 displayed on the full screen in a circular shape for editing is shown, and the initial touch positions 512 and 514 of the thumb and index finger of the right hand 504 are shown. Is memorized first. Then, the movement status of the thumb and index finger indicated by arrows 516 and 518 as a result of sliding the right hand 512 within a predetermined time (for example, 2 seconds) from the initial touch is detected. In the example of FIG. 31A, the right hand 504 is rotated clockwise, but as a result, the vertical spacing between the two points decreases as indicated by arrows 520 and 522, while indicated by arrows 524 and 526. Thus, the horizontal distance between the two points increases. In this way, when it is detected that the change direction of the horizontal interval (X-axis direction component) and the vertical interval (Y-axis direction component) of the two points are opposite, the touching thumb and index finger each arc. It is determined that it has been drawn and rotated, and a circular area 528 whose diameter is the touch position 512 of the thumb and the touch position of the index finger that are initially stored is recognized. Then, as shown in FIG. 31B, the recognized circular area 528 is cut out, and the image data is stored separately.
図32は、実施例2のデジタルカメラの動作に関する図16のフローチャートまたは実施例4のデジタルカメラの動作に関する図24のフローチャートにおけるそれぞれステップS174の再生モードの詳細をステップS176とともに示すフローチャートである。フローがスタートすると、まずステップS352で最新撮影画像が抵抗膜式タッチパネル表示部212に全画面表示される。そしてステップS354でスライドショー操作が行われたかどうかチェックする。操作がなければステップS356で画像送り操作の有無をチェックする。操作があればステップS358に進んで操作に従って全画面表示画像を前後の画像に変更してステップS360に移行する。また、操作がなければステップS356かラ直接ステップS360に移行する。 FIG. 32 is a flowchart showing the details of the playback mode in step S 174 together with step S 176 in the flowchart of FIG. 16 relating to the operation of the digital camera of the second embodiment or the flowchart of FIG. 24 relating to the operation of the digital camera of the fourth embodiment. When the flow starts, first, in step S352, the latest photographed image is displayed on the full screen on the resistive touch panel display unit 212. In step S354, it is checked whether a slide show operation has been performed. If there is no operation, it is checked in step S356 whether or not there is an image feed operation. If there is an operation, the process proceeds to step S358, and the full-screen display image is changed to the previous and subsequent images according to the operation, and the process proceeds to step S360. If there is no operation, the process proceeds to step S356 or directly to step S360.
ステップS360ではサムネイル表示を行うための操作があったかどうかチェックする。そして操作があればステップS362のサムネイル表示および選択処理に移行する。この処理はまず複数画像のサムネイルを一覧表示するとともに必要に応じその送り操作に応答し、さらにサムネイルのうちの一つを選択するものである。そしてサムネイルの選択が行われるとステップS464に移行して選択画像を全画面表示してステップS366に移行する。一方、ステップS360でサムネイル操作が検知されない場合は直接ステップS366に移行する。上記のようにして、ステップS366に至った時は、ステップS352による最新撮影画像の全画面表示、またはステップS358で画像送りにより変更された画像の全画面表示、またはステップS364においてサムネイル選択の結果表示された画像の全画面表示のいずれかが行われている状態となる。 In step S360, it is checked whether or not there is an operation for performing thumbnail display. If there is an operation, the process proceeds to the thumbnail display and selection process in step S362. This process first displays a list of thumbnails of a plurality of images, responds to the feeding operation as necessary, and further selects one of the thumbnails. When a thumbnail is selected, the process proceeds to step S464, the selected image is displayed on the full screen, and the process proceeds to step S366. On the other hand, if no thumbnail operation is detected in step S360, the process directly proceeds to step S366. As described above, when step S366 is reached, the latest captured image is displayed in full screen in step S352, or the image changed by image feed in step S358 is displayed in full screen, or the result of thumbnail selection in step S364 is displayed. One of the displayed images is displayed on the full screen.
ステップS366はこのような画像の全画面表示状態において1点タッチが検知されるかどうかチェックする。そして1点タッチ状態が検知されるとステップ368に移行し、1点タッチ検知の後所定時間内に2点目がタッチされて2点同時タッチ状態が検知されたかどうかチェックする。この所定時間は極めて短時間(例えば0.5秒)に設定されており、操作者としては2点同時タッチを意図したものに多少のずれがあってもこの所定時間内に収まり、それが2点同時タッチとして認識されるよう設計されている。つまり、操作者が意図して1点目タッチの後に2点目をタッチしたものと2点同時タッチを意図したものとを識別するのがステップS368設置の目的である。そしてステップS368で実質的な2点同時タッチが検知されるとステップS370に進み、2点のタッチ位置を記憶する。 In step S366, it is checked whether or not a one-point touch is detected in such an image full-screen display state. When the one-point touch state is detected, the process proceeds to step 368, and it is checked whether the second point is touched within a predetermined time after the one-point touch detection and the two-point simultaneous touch state is detected. This predetermined time is set to an extremely short time (for example, 0.5 seconds), and even if there is a slight deviation in what the operator intends to touch at two points simultaneously, it falls within this predetermined time. Designed to be recognized as simultaneous point touch. That is, the purpose of the installation in step S368 is to discriminate between what the operator intends to touch the second point after the first point touch and what is intended to simultaneously touch the two points. If a substantial two-point simultaneous touch is detected in step S368, the process proceeds to step S370, and the two touch positions are stored.
次いで、ステップS372において記憶された2点位置を基準にその後の所定時間(例えば2秒)以上にわたってタッチされている2点の位置が不変に保たれているかどうかチェックする。そして2点位置に変化があればステップS374に進み、2点タッチ位置の変化の結果、2点の水平間隔(X軸方向成分)と垂直間隔(Y軸方向成分)の変化方向が逆であるかどうかチェックする。このチェックの結果2点間隔XY軸成分変化方向が逆であることが検知されると、ステップS376に進んで回転操作がなされたものと判断し、ステップS378に移行する。ステップS378では、ステップS370で記憶されている当の2点のタッチ位置を直径とする円領域を認識し、認識した円領域の画像を切り取って記憶するとともにステップS176に移行する。これは、図31で示した機能に該当する。 Next, it is checked whether or not the positions of the two points touched for a predetermined time (for example, 2 seconds) or more are kept unchanged with reference to the two point positions stored in step S372. If there is a change in the two-point position, the process proceeds to step S374, and as a result of the change in the two-point touch position, the change directions of the two-point horizontal interval (X-axis direction component) and the vertical interval (Y-axis direction component) are reversed. Check if it is. As a result of this check, if it is detected that the two-point interval XY-axis component change direction is reversed, it proceeds to step S376 and determines that a rotation operation has been performed, and proceeds to step S378. In step S378, a circular area whose diameter is the touch position of the two points stored in step S370 is recognized, and an image of the recognized circular area is cut out and stored, and the process proceeds to step S176. This corresponds to the function shown in FIG.
一方、ステップS372において記憶された2点位置を基準にその後の所定時間以上にわたってタッチされている2点の位置が不変に保たれていることが確認されると、ステップS380に移行し、ステップS370で記憶した2点を結ぶ線を対角線とする矩形領域を認識する。そして認識した矩形領域の画像を切り取って記憶するとともにステップS176に移行する。これは、図30で示した機能に該当する。 On the other hand, if it is confirmed that the position of the two points touched for a predetermined time or longer is maintained unchanged with reference to the two point positions stored in step S372, the process proceeds to step S380, and step S370 is performed. Recognize a rectangular area whose diagonal line is a line connecting two points stored in. Then, the image of the recognized rectangular area is cut out and stored, and the process proceeds to step S176. This corresponds to the function shown in FIG.
ステップS176は、図32の機能を理解しやすくするために図16のフローチャートまたは図24のフローチャートのステップを記載したものであって、撮影モード設定操作が行われたかどうかをチェックするものである。そしてこの設定が検知されない場合、フローは図32の頭にあるステップS352に戻る。また、ステップS354においてスライドショー操作が行われたことが検知されるとステップS382のスライドショー処理に移行し、スライドショーを実行する。そしてスライドショー処理の中でスライドショーが完了させられるとステップS452に戻る。以下、ステップS167で再生モード終了操作が検知されない限りステップS352からステップS382およびステップS176を繰り返し、再生モードにおける種々の操作に対応する。そしてステップS176において撮影モード設定操作が検知されると図16または図24におけるステップS168に移行する。 Step S176 describes the steps of the flowchart of FIG. 16 or the flowchart of FIG. 24 for easy understanding of the function of FIG. 32, and checks whether or not a shooting mode setting operation has been performed. If this setting is not detected, the flow returns to step S352 at the beginning of FIG. If it is detected in step S354 that a slide show operation has been performed, the process proceeds to a slide show process in step S382, and the slide show is executed. When the slide show is completed in the slide show process, the process returns to step S452. Hereinafter, unless a playback mode end operation is detected in step S167, steps S352 to S382 and step S176 are repeated to correspond to various operations in the playback mode. When the shooting mode setting operation is detected in step S176, the process proceeds to step S168 in FIG.
本発明は、例えば車両のナビゲーションシ装置やデジタルカメラなどのタッチパネル入力装置等に適用することができる。 The present invention can be applied to a touch panel input device such as a vehicle navigation system or a digital camera.
12、212 タッチパネル表示画面
4、204、404 入力制御部
12, 212 Touch panel display screen 4, 204, 404 Input control unit
Claims (16)
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010096851A JP2011227703A (en) | 2010-04-20 | 2010-04-20 | Touch panel input device capable of two-point detection |
US13/579,378 US9250800B2 (en) | 2010-02-18 | 2011-02-17 | Touch-panel input device |
CN2011800196740A CN102844732A (en) | 2010-02-18 | 2011-02-17 | Touch-panel input device |
PCT/JP2011/053347 WO2011102406A1 (en) | 2010-02-18 | 2011-02-17 | Touch-panel input device |
US14/978,082 US9760280B2 (en) | 2010-02-18 | 2015-12-22 | Touch-panel input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010096851A JP2011227703A (en) | 2010-04-20 | 2010-04-20 | Touch panel input device capable of two-point detection |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011227703A true JP2011227703A (en) | 2011-11-10 |
Family
ID=45042975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010096851A Pending JP2011227703A (en) | 2010-02-18 | 2010-04-20 | Touch panel input device capable of two-point detection |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011227703A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103248813A (en) * | 2012-02-07 | 2013-08-14 | 奥林巴斯映像株式会社 | Photographic equipment and operating control method thereof |
WO2013132552A1 (en) * | 2012-03-06 | 2013-09-12 | Necカシオモバイルコミュニケーションズ株式会社 | Terminal device and method for controlling terminal device |
JP2014010649A (en) * | 2012-06-29 | 2014-01-20 | Rakuten Inc | Information processing device, authentication device, information processing method and information processing program |
JP2014013609A (en) * | 2013-09-20 | 2014-01-23 | Square Enix Co Ltd | Information processing apparatus, information processing method, and game device |
JP2014149796A (en) * | 2013-02-04 | 2014-08-21 | Sharp Corp | Position detection apparatus, image processing apparatus, and position detection method |
JP2015075894A (en) * | 2013-10-08 | 2015-04-20 | キヤノン株式会社 | Display control device, and control method of display control device |
JP2015219630A (en) * | 2014-05-15 | 2015-12-07 | 株式会社リコー | Information processor, information processing method and program |
JP2017004543A (en) * | 2016-07-27 | 2017-01-05 | 株式会社スクウェア・エニックス | Information processing apparatus, information processing method, and game device |
JP2019097770A (en) * | 2017-11-30 | 2019-06-24 | フクダ電子株式会社 | Display method in biological information monitor and biological information monitor |
JP7584880B2 (en) | 2017-11-30 | 2024-11-18 | フクダ電子株式会社 | Display method for biological information monitor and biological information monitor |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854976A (en) * | 1994-08-10 | 1996-02-27 | Matsushita Electric Ind Co Ltd | Resistance film system touch panel |
JP2000163031A (en) * | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | Portable information equipment and information storage medium |
JP2001060143A (en) * | 1999-08-24 | 2001-03-06 | Kenwood Corp | Resistance film type touch panel |
JP2001134382A (en) * | 1999-11-04 | 2001-05-18 | Sony Corp | Graphic processor |
JP2001290585A (en) * | 2000-01-31 | 2001-10-19 | Canon Inc | Position information processor, position information processing method and program, and operation device and its method and program |
JP2007516481A (en) * | 2003-08-29 | 2007-06-21 | ノキア コーポレイション | Method and apparatus for recognizing two-point user input with a touch-based user input device |
JP2007279638A (en) * | 2006-04-12 | 2007-10-25 | Xanavi Informatics Corp | Navigation device |
JP2008027183A (en) * | 2006-07-21 | 2008-02-07 | Sharp Corp | Information processor |
JP2009104268A (en) * | 2007-10-22 | 2009-05-14 | Hitachi Displays Ltd | Coordinate detection device and operation method using touch panel |
JP2009146374A (en) * | 2007-12-11 | 2009-07-02 | J Touch Corp | Method for controlling multipoint touch controller |
JP2009525538A (en) * | 2006-01-30 | 2009-07-09 | アップル インコーポレイテッド | Gesture using multi-point sensing device |
JP2009276926A (en) * | 2008-05-13 | 2009-11-26 | Ntt Docomo Inc | Information processor and display information editing method thereof |
WO2009145024A1 (en) * | 2008-05-28 | 2009-12-03 | シャープ株式会社 | Input detection device, input detection method, program, and recording medium |
JP2009289157A (en) * | 2008-05-30 | 2009-12-10 | Digital Electronics Corp | Display device, control method for display device and program for making computer realize the control method |
WO2010008088A1 (en) * | 2008-07-17 | 2010-01-21 | 日本電気株式会社 | Information processing apparatus, storage medium on which program has been recorded, and object shifting method |
JP2010026710A (en) * | 2008-07-17 | 2010-02-04 | Sony Corp | Information processor, information processing method, and information processing program |
JP2010048661A (en) * | 2008-08-21 | 2010-03-04 | Denso It Laboratory Inc | Car navigation system |
WO2010041826A2 (en) * | 2008-10-06 | 2010-04-15 | Samsung Electronics Co., Ltd. | Method and apparatus for managing lists using multi-touch |
JP2011502314A (en) * | 2007-10-29 | 2011-01-20 | フリースケール セミコンダクター インコーポレイテッド | Touch screen driver for detecting multiple simultaneous touches and method of using the same |
-
2010
- 2010-04-20 JP JP2010096851A patent/JP2011227703A/en active Pending
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854976A (en) * | 1994-08-10 | 1996-02-27 | Matsushita Electric Ind Co Ltd | Resistance film system touch panel |
JP2000163031A (en) * | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | Portable information equipment and information storage medium |
JP2001060143A (en) * | 1999-08-24 | 2001-03-06 | Kenwood Corp | Resistance film type touch panel |
JP2001134382A (en) * | 1999-11-04 | 2001-05-18 | Sony Corp | Graphic processor |
JP2001290585A (en) * | 2000-01-31 | 2001-10-19 | Canon Inc | Position information processor, position information processing method and program, and operation device and its method and program |
JP2007516481A (en) * | 2003-08-29 | 2007-06-21 | ノキア コーポレイション | Method and apparatus for recognizing two-point user input with a touch-based user input device |
JP2009525538A (en) * | 2006-01-30 | 2009-07-09 | アップル インコーポレイテッド | Gesture using multi-point sensing device |
JP2007279638A (en) * | 2006-04-12 | 2007-10-25 | Xanavi Informatics Corp | Navigation device |
JP2008027183A (en) * | 2006-07-21 | 2008-02-07 | Sharp Corp | Information processor |
JP2009104268A (en) * | 2007-10-22 | 2009-05-14 | Hitachi Displays Ltd | Coordinate detection device and operation method using touch panel |
JP2011502314A (en) * | 2007-10-29 | 2011-01-20 | フリースケール セミコンダクター インコーポレイテッド | Touch screen driver for detecting multiple simultaneous touches and method of using the same |
JP2009146374A (en) * | 2007-12-11 | 2009-07-02 | J Touch Corp | Method for controlling multipoint touch controller |
JP2009276926A (en) * | 2008-05-13 | 2009-11-26 | Ntt Docomo Inc | Information processor and display information editing method thereof |
WO2009145024A1 (en) * | 2008-05-28 | 2009-12-03 | シャープ株式会社 | Input detection device, input detection method, program, and recording medium |
JP2009289157A (en) * | 2008-05-30 | 2009-12-10 | Digital Electronics Corp | Display device, control method for display device and program for making computer realize the control method |
JP2010026710A (en) * | 2008-07-17 | 2010-02-04 | Sony Corp | Information processor, information processing method, and information processing program |
WO2010008088A1 (en) * | 2008-07-17 | 2010-01-21 | 日本電気株式会社 | Information processing apparatus, storage medium on which program has been recorded, and object shifting method |
JP2010048661A (en) * | 2008-08-21 | 2010-03-04 | Denso It Laboratory Inc | Car navigation system |
WO2010041826A2 (en) * | 2008-10-06 | 2010-04-15 | Samsung Electronics Co., Ltd. | Method and apparatus for managing lists using multi-touch |
JP2012504837A (en) * | 2008-10-06 | 2012-02-23 | サムスン エレクトロニクス カンパニー リミテッド | List management method and apparatus using multi-touch |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103248813A (en) * | 2012-02-07 | 2013-08-14 | 奥林巴斯映像株式会社 | Photographic equipment and operating control method thereof |
JP2016181305A (en) * | 2012-03-06 | 2016-10-13 | 日本電気株式会社 | Terminal device and control method of terminal device |
WO2013132552A1 (en) * | 2012-03-06 | 2013-09-12 | Necカシオモバイルコミュニケーションズ株式会社 | Terminal device and method for controlling terminal device |
JPWO2013132552A1 (en) * | 2012-03-06 | 2015-07-30 | Necカシオモバイルコミュニケーションズ株式会社 | Terminal device and method for controlling terminal device |
JP2014010649A (en) * | 2012-06-29 | 2014-01-20 | Rakuten Inc | Information processing device, authentication device, information processing method and information processing program |
US10216401B2 (en) | 2012-06-29 | 2019-02-26 | Rakuten, Inc. | Information processing device and method for multi-touch user interface |
JP2014149796A (en) * | 2013-02-04 | 2014-08-21 | Sharp Corp | Position detection apparatus, image processing apparatus, and position detection method |
JP2014013609A (en) * | 2013-09-20 | 2014-01-23 | Square Enix Co Ltd | Information processing apparatus, information processing method, and game device |
JP2015075894A (en) * | 2013-10-08 | 2015-04-20 | キヤノン株式会社 | Display control device, and control method of display control device |
JP2015219630A (en) * | 2014-05-15 | 2015-12-07 | 株式会社リコー | Information processor, information processing method and program |
JP2017004543A (en) * | 2016-07-27 | 2017-01-05 | 株式会社スクウェア・エニックス | Information processing apparatus, information processing method, and game device |
JP2019097770A (en) * | 2017-11-30 | 2019-06-24 | フクダ電子株式会社 | Display method in biological information monitor and biological information monitor |
JP7584880B2 (en) | 2017-11-30 | 2024-11-18 | フクダ電子株式会社 | Display method for biological information monitor and biological information monitor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011102406A1 (en) | Touch-panel input device | |
JP5502584B2 (en) | Digital camera | |
JP2011197848A (en) | Touch-panel input device | |
JP2011227703A (en) | Touch panel input device capable of two-point detection | |
JP5702546B2 (en) | Touch panel input device | |
JP6181351B2 (en) | In-vehicle information system, in-vehicle device, information terminal | |
CN106062514B (en) | Interaction between a portable device and a vehicle head unit | |
JP5975794B2 (en) | Display control apparatus, display control method, program, and storage medium | |
JP6656393B2 (en) | Operating authority transfer determination device and operating authority transfer determining method | |
JP6647103B2 (en) | Display control device and control method thereof | |
JP2011215539A (en) | Digital camera | |
US20200007750A1 (en) | Electronic apparatus and control method for electronic apparatus | |
JP5702540B2 (en) | Touch panel input device | |
JP7340150B2 (en) | Operation image display device, operation image display system, and operation image display program | |
JP5848792B2 (en) | Digital camera | |
JP2013207608A (en) | Character input device and character input program | |
TWM564749U (en) | Vehicle multi-display control system | |
JP6120541B2 (en) | Display control apparatus and control method thereof | |
JP4645665B2 (en) | Operating hand projection system and program for operating hand projection system | |
US12137288B2 (en) | Imaging device with blur indication | |
JP5789018B2 (en) | Electronic device, control method, program | |
JP5789017B2 (en) | Electronic device, control method, program | |
JP6249770B2 (en) | Character input device | |
JP6534311B2 (en) | Electronic device, control method, program | |
JP2006244290A (en) | Operation device for portable terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140701 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141104 |