JP2005141340A - Web site retrieval system - Google Patents

Web site retrieval system Download PDF

Info

Publication number
JP2005141340A
JP2005141340A JP2003375084A JP2003375084A JP2005141340A JP 2005141340 A JP2005141340 A JP 2005141340A JP 2003375084 A JP2003375084 A JP 2003375084A JP 2003375084 A JP2003375084 A JP 2003375084A JP 2005141340 A JP2005141340 A JP 2005141340A
Authority
JP
Japan
Prior art keywords
screen
mother
keyword
icon
icons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003375084A
Other languages
Japanese (ja)
Inventor
Lopez Roberto
ロベルト ロペス
Tomohiro Sato
知裕 佐藤
Hiroko Tochigi
博子 栃木
Masami Suzuki
雅実 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003375084A priority Critical patent/JP2005141340A/en
Publication of JP2005141340A publication Critical patent/JP2005141340A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a Web site retrieval system for easily narrowing down a retrieval range. <P>SOLUTION: In this Web site retrieval system 10 including a screen 12, the screen is irradiated with an infrared light from the front side of the screen by an infrared light source 18, and when a person manually touches the screen in that condition, a computer 26 detects the touch position of the hand based on a video signal from a camera 22. When a keyword is set, a mother icon showing the retrieval keyword is displayed on a screen, and the thumb nail image of a Web site retrieved with the keyword by a search engine integrated into the computer is successively displayed in the surrounding of the mother icon as a slave icon. When the user manually touches the screen to drag the two mother icons displayed on the screen to make them approach each other, the computer sets the keyword obtained by performing the AND of the keywords of the two mother icons in the search engine. Thus, it is possible to update the keyword only by making the two mother icons approach each other. Therefore, it is possible to more easily execute the update of the keyword than at the time of executing it by a keyboard. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明はウェブサイト検索システムに関し、特にたとえば、人間が大画面スクリーンの前に立ち人間の手でタッチすることによって大画面上の座標を獲得できる大画面タッチパネルを利用して、インタネットのウェブサイトを検索する検索システムに関する。   The present invention relates to a website search system, and more particularly, for example, an Internet website is created using a large screen touch panel that allows a human to acquire coordinates on a large screen by standing in front of the large screen and touching with a human hand. The present invention relates to a search system for searching.

従来、インタネットのウェブサイト(Website)を検索するために数多くの検索エンジンが実用に供されている。   Conventionally, a number of search engines have been put into practical use for searching Internet websites.

従来の検索エンジンでは、キーワードを入力しなければ検索できず、したがって、1つのキーワードで検索した後に検索範囲を絞り込むときには、論理積結合した2つ以上のキーワードを入力し直す必要がある。   In a conventional search engine, a search cannot be performed unless a keyword is input. Therefore, when a search range is narrowed down after searching with one keyword, it is necessary to re-input two or more keywords that are logically connected.

したがって、目的の検索結果を得るまでにはキーワードの入力を繰り返す必要があり、手間がかかるという問題がある。   Therefore, it is necessary to repeat the input of keywords until the desired search result is obtained, which is troublesome.

それゆえに、この発明の主たる目的は、簡単に検索範囲を絞り込むことができる、ウェブサイト検索システムを提供することである。   Therefore, a main object of the present invention is to provide a website search system capable of easily narrowing a search range.

請求項1の発明は、キーワードを入力することによってスクリーン上にそのキーワードを表すマザーアイコンを表示するとともに、検索エンジンを用いてそのキーワードで検索したウェブサイトのサムネイル画像をマザーアイコンの周囲に子アイコンとして順次表示する、ウェブサイト検索システムであって、スクリーン上に表示されている2つのマザーアイコンが接近したかどうか判断する接近判断手段、および接近判断手段が2つのマザーアイコンの接近を判断したとき各マザーアイコンのキーワードを論理積で結合したキーワードを検索エンジンに設定するキーワード更新手段を備える、ウェブサイト検索システムである。   According to the first aspect of the present invention, by inputting a keyword, a mother icon representing the keyword is displayed on the screen, and a thumbnail image of a website searched with the keyword using a search engine is displayed around the mother icon as a child icon. Is a website search system that sequentially displays as an access determination means for determining whether or not two mother icons displayed on the screen have approached, and when the approach determination means determines the approach of the two mother icons A website search system including keyword update means for setting a keyword obtained by combining keywords of each mother icon by logical product in a search engine.

請求項1の発明は、たとえば大画面タッチパネルを用いるウェブサイト検索システムである。この大画面タッチパネルは、スクリーンの前方に人間が立って、人間が手によってスクリーンに直接タッチすると、その手や人間の体によって遮光領域が形成され、その手による遮光領域のたとえば中心座標が、スクリーン上の手のタッチ位置として検出される。   The invention of claim 1 is a website search system using, for example, a large screen touch panel. In this large screen touch panel, when a person stands in front of the screen and the person directly touches the screen with a hand, a light shielding area is formed by the hand or the human body, and the center coordinates of the light shielding area by the hand are, for example, It is detected as the touch position of the upper hand.

キーワードを入力することによってスクリーン上にそのキーワードを表すマザーアイコンを表示するとともに、検索エンジンを用いてそのキーワードで検索したウェブサイトのサムネイル画像をマザーアイコンの周囲に子アイコンとして順次表示する。スクリーン上において2つのマザーアイコンが接近されると、たとえばコンピュータで構成されるキーワード更新手段が、たとえばキーワードAとキーワードBとの論理積A*Bでキーワードを更新する。したがって、検索エンジンは、そのキーワードA*Bで新たにウェブサイトの検索を実行する。   By inputting a keyword, a mother icon representing the keyword is displayed on the screen, and thumbnail images of websites searched by the keyword using a search engine are sequentially displayed as child icons around the mother icon. When two mother icons are brought close to each other on the screen, for example, a keyword updating unit configured by a computer updates the keyword by, for example, a logical product A * B of the keyword A and the keyword B. Therefore, the search engine newly searches the website with the keyword A * B.

請求項2の発明は、接近判断手段は2つのマザーアイコン間の距離が所定値より小さくなったとき、2つのマザーアイコンの接近を判断する、請求項1記載のウェブサイト検索システムである。   The invention according to claim 2 is the website search system according to claim 1, wherein the approach determining means determines the approach of the two mother icons when the distance between the two mother icons becomes smaller than a predetermined value.

請求項2の発明では、たとえばコンピュータで構成される接近判断手段は、2つのマザーアイコンが一定距離以上接近したとき、両者が接近したと判断する。   In the invention of claim 2, for example, the approach judging means constituted by a computer judges that the two mother icons are approached when the two mother icons are approached by a certain distance or more.

請求項の3の発明は、大画面タッチパネルの具体的構成に向けられるものであり、スクリーンは大画面タッチパネルのスクリーンであり、大画面タッチパネルは赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、および赤外カメラからの映像信号を受けるコンピュータを含み、コンピュータは、映像信号に基づいてスクリーンにタッチしている手の位置の検出するとともに、手でマザーアイコンにタッチした状態でその手を動かすことによってマザーアイコンをドラッグする、請求項1または2記載のウェブサイト検索システムである。   The invention of claim 3 is directed to a specific configuration of a large screen touch panel, the screen is a screen of a large screen touch panel, the large screen touch panel is a screen made of a material capable of transmitting infrared light, and the front of the screen. An infrared light source that irradiates the front surface of the screen with infrared light, an infrared camera that is provided behind the screen and captures the back surface of the screen, and a computer that receives video signals from the infrared camera. The website search system according to claim 1 or 2, wherein the position of the hand touching the screen is detected based on the signal, and the mother icon is dragged by moving the hand while touching the mother icon with the hand. It is.

請求項3の発明では、大画面スクリーン上で手でアイコンを操作するので、たとえばイベント会場などにおいて大勢の人間にその検索結果を見せたいとき、手だけでキーワードが設定できるので、スクリーンを見ている人間にもキーワードの設定が非常にわかり易いい。   In the invention of claim 3, since the icon is operated by hand on the large screen, when the search result is shown to a large number of people at an event venue, for example, the keyword can be set only by hand. It is very easy for humans to find keywords.

この発明によれば、スクリーン上に表示された2つのマザーアイコンを近づけるだけで2つのキーワードの論理積で検索が行なわれるため、従来の一般的な検索エンジンのように、検索対象を絞り込むときにキーワードを入力し直す必要がなく、より効率的にウェブサイトの検索を行なうことができる。   According to the present invention, the search is performed by the logical product of the two keywords simply by bringing the two mother icons displayed on the screen close to each other. Therefore, when the search target is narrowed down as in the conventional general search engine. There is no need to re-enter keywords, and the website can be searched more efficiently.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1に示すこの実施例のウェブサイト検索システム10は、大画面タッチパネルを構成する、たとえば250×180cm程度のサイズのプラスチックスクリーン12を含む。ただし、このサイズは単なる一例であり、用途に応じて任意に変更可能である。プラスチックスクリーン12は、赤外光透過可能材料、たとえばポリカーボネイトなどのプラスチックからなり、全体としてたとえば乳白色である。ただし、このプラスチックスクリーン12は完全な透明ではない。なぜなら、このプラスチックスクリーン12は、後述のプロジェクタ30から映像を映写するための投影スクリーンとして機能する必要があるからである。また、このプラスチックスクリーン12は、比較的大きい剛性を有する。なぜなら、この大画面タッチパネルシステム10では、図1に示すように、プラスチックスクリーン12の前方の人間14が、自分の手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の位置(点または領域)を指示するからである。つまり、プラスチックスクリーン12には人間の手が触っても容易には変形しない程度の剛性が必要である。   A website search system 10 of this embodiment shown in FIG. 1 includes a plastic screen 12 having a size of, for example, about 250 × 180 cm, constituting a large screen touch panel. However, this size is merely an example and can be arbitrarily changed according to the application. The plastic screen 12 is made of a material that can transmit infrared light, for example, plastic such as polycarbonate, and is generally milky white, for example. However, the plastic screen 12 is not completely transparent. This is because the plastic screen 12 needs to function as a projection screen for projecting an image from the projector 30 described later. The plastic screen 12 has a relatively large rigidity. This is because, in this large screen touch panel system 10, as shown in FIG. 1, a person 14 in front of the plastic screen 12 directly touches the plastic screen 12 with his / her hand 16, thereby This is because a point or a region is designated. That is, the plastic screen 12 needs to have a rigidity that does not easily deform even when a human hand touches it.

ただし、実施例ではプラスチックでスクリーン12を形成した。しかしながら、ガラスや他の赤外光透過材料が用いられてもよい。   However, in the example, the screen 12 was formed of plastic. However, glass or other infrared light transmissive materials may be used.

このプラスチックスクリーン12の前方上方には、スクリーン12の前面12aの全面に赤外光を投射するための赤外光源18が設けられる。この赤外光源18としては、ハロゲンランプまたはブラックライトなどが利用可能である。この赤外光源18を設ける位置は基本的にはプラスチックスクリーン12のサイズに依存して決定されるが、実施例のプラスチックスクリーン12が上記サイズであれば、たとえば、赤外光源18は、プラスチックスクリーン12の前面12aから200−400cm離れた高さ200−300cmの位置に配置される。これらの数値は単なる例示である。赤外光源18から投射された赤外光はプラスチックスクリーン12の前面12aから入射し、このスクリーン12を透過して背面12bに至る。   An infrared light source 18 for projecting infrared light onto the entire front surface 12 a of the screen 12 is provided above the plastic screen 12. As the infrared light source 18, a halogen lamp or black light can be used. The position where the infrared light source 18 is provided is basically determined depending on the size of the plastic screen 12. If the plastic screen 12 of the embodiment is the above size, for example, the infrared light source 18 may be a plastic screen. The twelve front surfaces 12a are arranged at a height of 200-300 cm, which is 200-400 cm apart. These numbers are merely illustrative. Infrared light projected from the infrared light source 18 enters from the front surface 12a of the plastic screen 12, passes through the screen 12, and reaches the back surface 12b.

プラスチックスクリーン12の後方には、ミラー20が設けられる。このミラー20はプラスチックスクリーン12の背面12bの全面を映出できる大きさにされかつその位置に配置される。実施例ではプラスチックスクリーン12がたとえば250×180cmであれば、ミラー20はたとえば150×110cm程度の大きさにされ、プラスチックスクリーン12の背面12bからたとえば200cm後方に配置される。これらの数値も単なる例示である。   A mirror 20 is provided behind the plastic screen 12. The mirror 20 is sized so as to be able to project the entire back surface 12b of the plastic screen 12, and is disposed at that position. In the embodiment, if the plastic screen 12 is, for example, 250 × 180 cm, the mirror 20 has a size of, for example, about 150 × 110 cm, and is disposed, for example, 200 cm behind the back surface 12b of the plastic screen 12. These numbers are also merely examples.

プラスチックスクリーン12の後方には、このミラー20の表面に合焦されたモノクロカメラ22が設けられる。このモノクロカメラ22には赤外フィルタ24が装着される。したがって、このカメラ22は全体としては、赤外カメラとして機能する。そのため、モノクロカメラ22および赤外フィルタ24は赤外カメラに代えられてもよい。このカメラ22はミラー20を通してプラスチックスクリーン12の背面全面を撮影する。   Behind the plastic screen 12, a monochrome camera 22 focused on the surface of the mirror 20 is provided. An infrared filter 24 is attached to the monochrome camera 22. Therefore, the camera 22 functions as an infrared camera as a whole. Therefore, the monochrome camera 22 and the infrared filter 24 may be replaced with an infrared camera. The camera 22 photographs the entire back surface of the plastic screen 12 through the mirror 20.

カメラ22からの映像信号は、図2からよくわかるように、A/D変換器28によって映像信号データに変換されて、コンピュータ26に入力される。   The video signal from the camera 22 is converted into video signal data by the A / D converter 28 and input to the computer 26, as can be seen from FIG.

この図1に示す実施例では、プラスチックスクリーン12の後方に、プロジェクタ30が設けられる。このプロジェクタ30は、前述のようにプラスチックスクリーン12の背面12bの全面に映像を投射するためのものである。実施例では、プロジェクタ30は、ミラー20を通して、背面12bの全面に投影できるようにされる。プロジェクタ30から投射された映像(光学像)は、ミラー20で反射されて、プラスチックスクリーン12の背面12bに投影される。したがって、このプラスチックスクリーン12の前面12aから、その投影された映像を見ることができる。   In the embodiment shown in FIG. 1, a projector 30 is provided behind the plastic screen 12. The projector 30 is for projecting an image on the entire back surface 12b of the plastic screen 12 as described above. In the embodiment, the projector 30 can project onto the entire surface of the back surface 12 b through the mirror 20. The image (optical image) projected from the projector 30 is reflected by the mirror 20 and projected onto the back surface 12 b of the plastic screen 12. Therefore, the projected image can be seen from the front surface 12a of the plastic screen 12.

なお、ミラー20を用いる理由は、プラスチックスクリーン12の後方のスペースを可及的小さくするためである。したがって、当然のことではあるが、ミラー20を省略することができる。この場合には、上述のカメラ22がプラスチックスクリーン12の背面12bの全域を直接撮影し、プロジェクタ30からプロジェクタスクリーン12の背面12bに映像が直接投射される。   The reason for using the mirror 20 is to make the space behind the plastic screen 12 as small as possible. Therefore, as a matter of course, the mirror 20 can be omitted. In this case, the above-described camera 22 directly captures the entire area of the back surface 12b of the plastic screen 12, and an image is directly projected from the projector 30 onto the back surface 12b of the projector screen 12.

図2に示すように、コンピュータ26にはたとえば半導体メモリやハードディスクなどの内部メモリ32が内蔵されるとともに、必要に応じて、メモリインタフェース34を介して、半導体メモリである外部メモリ36が接続される。内部メモリ32は、後述のフロー図に示すようなプログラムを予め記憶するプログラムメモリとして、さらには画像処理のためのワーキングメモリやレジスタなどとして利用される。プロジェクタ30を用いる場合には、内部メモリ32はさらに、プロジェクタ30のためのビデオメモリ(VRAM)としても用いられる。   As shown in FIG. 2, an internal memory 32 such as a semiconductor memory or a hard disk is built in the computer 26, and an external memory 36, which is a semiconductor memory, is connected via a memory interface 34 as necessary. . The internal memory 32 is used as a program memory for previously storing a program as shown in a flowchart described later, and further as a working memory or a register for image processing. When the projector 30 is used, the internal memory 32 is further used as a video memory (VRAM) for the projector 30.

なお、外部メモリ36としては、半導体メモリ以外に、磁気記録媒体、光学式記録媒体、光磁気記録媒体などが用いられ得るが、ここでは便宜上すべて「メモリ」の用語を使用する。したがって、「メモリ」というときは、あらゆる形式の記憶媒体または記録媒体を指すものと理解されたい。   In addition to the semiconductor memory, a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or the like can be used as the external memory 36, but the term “memory” is used here for convenience. Therefore, the term “memory” should be understood to refer to any type of storage medium or recording medium.

なお、コンピュータ26は、さらに、ランプドライバ38を制御し、赤外光源18のオン/オフを制御するとともに、必要な場合には、その赤外光源18の輝度を調節する。   The computer 26 further controls the lamp driver 38 to control on / off of the infrared light source 18 and adjusts the luminance of the infrared light source 18 when necessary.

図1実施例の大画面タッチパネルシステム10では、先に概説したように、プラスチックスクリーン12の前方の人間14が、手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の座標位置を指示する。そのタッチ位置の検出方法は、具体的には、同時係属中の特願2003−116122号に詳細に説明されるので、引用によってその説明を取り入れるが、ここでは簡単にその原理を説明する。   In the large-screen touch panel system 10 of FIG. 1 embodiment, as outlined above, the human 14 in front of the plastic screen 12 directly touches the plastic screen 12 with the hand 16 so that the coordinate position on the plastic screen 12 is reached. Instruct. The method of detecting the touch position is specifically described in detail in Japanese Patent Application No. 2003-116122, which is currently pending, and the description thereof will be incorporated by reference. However, the principle will be briefly described here.

プラスチックスクリーン12の前に人間が立って、その手16で、図1に示すようにプラスチックスクリーン12の前面12aの任意の場所を押さえ(タッチし)、その状態で、コンピュータ26は、赤外線カメラ22からの図3に示すような映像のピクセルデータを取り込む。そして、コンピュータ26は、このピクセルデータを処理することによって、たとえば図4に示す適正サイズの黒領域のデータのみを残し、残った適正黒領域の中心座標をタッチ点(または領域)のデータとして、検出する。   A human stands in front of the plastic screen 12 and presses (touches) an arbitrary place on the front surface 12a of the plastic screen 12 with its hand 16 as shown in FIG. The pixel data of the video as shown in FIG. Then, the computer 26 processes the pixel data to leave only the data of the appropriate size black area shown in FIG. 4, for example, and uses the remaining center coordinates of the appropriate black area as touch point (or area) data. To detect.

ただし、スクリーン12を同時にタッチする手が2つ以上であっても、コンピュータ26はそれぞれの手のタッチ位置を個別に同定することができる。   However, even if there are two or more hands touching the screen 12 at the same time, the computer 26 can individually identify the touch position of each hand.

そして、コンピュータ26は、モデムなどを含むインタフェース38を介してインタネット40に接続できるようにされている。また、このコンピュータ26の内部メモリ32には、マルチエンジン検索プログラム42が予め組み込まれている。このマルチエンジン検索プログラム42を使うことによって、コンピュータ26は多数のインタネット検索エンジンを同時に起動してウェブサイトを検索することができる。   The computer 26 can be connected to the Internet 40 via an interface 38 including a modem. A multi-engine search program 42 is preinstalled in the internal memory 32 of the computer 26. By using the multi-engine search program 42, the computer 26 can search a website by simultaneously starting a number of Internet search engines.

図1に示すシステム10を用いてウェブサイトを検索するとき、スクリーン12上のキーワード領域44に予め登録されているキーワード“A”,“B”,…のどれかをユーザが片手でタッチすることによって検索キーワードを選択指定する。キーワードが指定されると、キーワード領域44にキーワードとともに登録されている画像がキーワードアイコンまたはマザーアイコンMIとしてスクリーン12の画像表示領域に表示される。そして、コンピュータ26は、マルチエンジン検索プログラム42を用いてその指定されたキーワードに従って検索する。したがって、コンピュータ26にはキーワードに関連して検索されたウェブサイトからサムネイル画像が取り込まれる。各キーワードに関連するウェブサイトのサムネイル画像が、画像表示領域46において、子アイコンCIとしてマザーアイコンMIの周囲に順次表示される。図5は、画像表示領域46に2つのマザーアイコンAおよびBが表示され、各マザーアイコンAおよびBから、子アイコンA1,A2,…およびB1,B2,…が表示されている様子を示している。   When searching for a website using the system 10 shown in FIG. 1, the user touches one of the keywords “A”, “B”,... Registered in the keyword area 44 on the screen 12 with one hand. Select a search keyword with. When a keyword is designated, an image registered with the keyword in the keyword area 44 is displayed in the image display area of the screen 12 as a keyword icon or a mother icon MI. Then, the computer 26 searches using the multi-engine search program 42 according to the designated keyword. Therefore, the thumbnail image is taken into the computer 26 from the website searched in relation to the keyword. Thumbnail images of websites related to each keyword are sequentially displayed around the mother icon MI as child icons CI in the image display area 46. FIG. 5 shows a state in which two mother icons A and B are displayed in the image display area 46, and child icons A1, A2,... And B1, B2,. Yes.

さらに、図5に示すブックマーク領域48は、一般のインタネット検索ソフトでも用いられているブックマーク(お気に入り)と同様に、ウェブサイトのURLを登録するための領域である。   Further, the bookmark area 48 shown in FIG. 5 is an area for registering the URL of the website, similarly to the bookmark (favorite) used in general Internet search software.

このブックマーク領域48へ登録するためには、図6において「ブックマーク登録」と示しているように、画像表示領域46に表示されている子アイコンCIaを片手で一定時間、たとえば2秒以上タッチする。そうすると、コンピュータ26は子アイコンが2秒以上タッチされ続けていることを判断して、その子アイコンCIaを、図6の例では、ブックマーク領域48のブックマークVIIに移動させ、内部メモリ32(図2)にそのブックマーク登録をストアする。   In order to register in the bookmark area 48, as shown as “bookmark registration” in FIG. 6, the child icon CIa displayed in the image display area 46 is touched with one hand for a certain time, for example, 2 seconds or more. Then, the computer 26 determines that the child icon continues to be touched for 2 seconds or more, and moves the child icon CIa to the bookmark VII in the bookmark area 48 in the example of FIG. 6, and the internal memory 32 (FIG. 2). Store the bookmark registration in.

図6には2つのズームアップ、「ズームアップ1」および「ズームアップ2」が図解されているが、「ズームアップ1」は、子アイコンのサムネイル画像を拡大して表示する場合であり、図6の例では、子アイコンCIbが拡大されている。「ズームアップ1」で子アイコンを拡大表示するためには、具体的には、この実施例では、該当の子アイコンCIbを両手で同時にタッチすればよい。なお、ここでいう「両手」には1人の人間の両方の手だけでなく、異なる人間の2つの手も含まれることに留意されたい。ただし、コンピュータ26か「両手」か「片手」かを判別するためには、先に説明した黒領域の大きさを判断すればよい。つまり、黒領域が所定以上の面積のとはき「両手」と、黒領域がそれより小さいときには「片手」と判断すればよい。   FIG. 6 illustrates two zoom-ups, “zoom-up 1” and “zoom-up 2”. “Zoom-up 1” is a case where a thumbnail image of a child icon is enlarged and displayed. In the example of FIG. 6, the child icon CIb is enlarged. In order to enlarge and display a child icon by “zoom up 1”, specifically, in this embodiment, the corresponding child icon CIb may be touched simultaneously with both hands. It should be noted that the “both hands” here include not only both hands of one person but also two hands of different persons. However, in order to determine whether the computer 26 is “both hands” or “one hand”, the size of the black region described above may be determined. That is, it is only necessary to determine that the black area has an area larger than a predetermined area, “two hands”, and if the black area is smaller than that, “one hand”.

また、「ズームアップ2」は、先に説明したブックマーク領域48に登録されているURLをアクセスする場合に使用される方法である。この「ズームアップ2」で登録済みのURLを呼び出すには、具体的には、この実施例では、ブックマーク領域48の該当のブックマーク、図6の例ではブックマークIIを片手でタッチすればよい。   “Zoom-up 2” is a method used when accessing a URL registered in the bookmark area 48 described above. In order to call the URL registered with “Zoom-up 2”, specifically, in this embodiment, the corresponding bookmark in the bookmark area 48, or the bookmark II in the example of FIG. 6 may be touched with one hand.

さらに、画像表示領域46において、サムネイル画像ないしアイコンは、「ドラッグ」の手法を用いてアイコンを移動させることができる。マザーアイコンの場合には、画像表示領域46上においてアイコンを片手でタッチした状態でその手を移動させればよい。子アイコンの場合には、画像表示領域46上においてアイコンを両手で同時にタッチしまま両手を移動させればよい。   Further, in the image display area 46, the thumbnail image or icon can be moved using the “drag” technique. In the case of a mother icon, the hand may be moved while the icon is touched on the image display area 46 with one hand. In the case of a child icon, both hands may be moved while simultaneously touching the icon with both hands on the image display area 46.

このようなウェブサイト検索システム10の検索動作について、図8のフロー図を参照して説明する。   The search operation of the website search system 10 will be described with reference to the flowchart of FIG.

図8の最初のステップS1では、コンピュータ26は、キーワード入力が行なわれたかどうか判断する。具体的には、コンピュータ26は、図5に示すキーワード領域44に予め登録されているキーワードのどれかにユーザの手がタッチしたかどうかを判断する。そして、キーワード領域44のどれかのキーワードがタッチされたとき、コンピュータ26は、ステップS3で、そのキーワードのマザーアイコンMIを作成して、画像表示領域46(図5)へ表示する。ただし、マザーアイコンMIのサムネイル画像は予め準備されているので、ステップS3では、コンピュータ26は、実際には、内部メモリ32または外部メモリ36(図2)に予めストアされているサムネイル画像の画像データを読み出して表示メモリ(VRAM)中に転送するだけでよい。   In the first step S1 of FIG. 8, the computer 26 determines whether or not a keyword is input. Specifically, the computer 26 determines whether or not the user's hand has touched any of the keywords registered in advance in the keyword area 44 shown in FIG. When any keyword in the keyword area 44 is touched, the computer 26 creates a mother icon MI of the keyword and displays it in the image display area 46 (FIG. 5) in step S3. However, since the thumbnail image of the mother icon MI is prepared in advance, in step S3, the computer 26 actually stores the image data of the thumbnail image stored in advance in the internal memory 32 or the external memory 36 (FIG. 2). Need only be read out and transferred into the display memory (VRAM).

ただし、キーワードの入力を音声で行なえるようにしている場合には、図2に示すマイク50を用いる。このマイク50からの音声がA/D変換器52によって音声データに変換され、コンピュータ26に入力される。コンピュータ26には図示しないが内部メモリ32に音声認識機能(アプリケーション)を設定しているので、コンピュータ26はマイク50から入力された音声を認識することによって、キーワードをキーワード領域44から呼び出して、画像表示領域46に表示することができる。   However, when the keyword can be inputted by voice, the microphone 50 shown in FIG. 2 is used. The sound from the microphone 50 is converted into sound data by the A / D converter 52 and input to the computer 26. Although the computer 26 has a voice recognition function (application) set in the internal memory 32 (not shown), the computer 26 recognizes the voice input from the microphone 50, thereby calling a keyword from the keyword area 44, and It can be displayed in the display area 46.

ステップS1でキーワード入力が検出されたとき、ステップS3でそのキーワードのマザーアイコンを画像表示領域46に表示するが、それとともに、コンピュータ26はマルチエンジン検出プログラムを起動して、多数の検索エンジンにそのキーワードを与える。したがって、多数の検索エンジンが同時にそのキーワードでウェブサイトの検索を行い、そのキーワードで検索したウェブサイトのサムネイル画像が図5に示すように、マザーアイコンMIの周りに、順次、子アイコンとして表示される。   When a keyword input is detected in step S1, a mother icon of the keyword is displayed in the image display area 46 in step S3. At the same time, the computer 26 starts a multi-engine detection program and sends it to a number of search engines. Give keywords. Accordingly, a number of search engines search the website with the keyword at the same time, and thumbnail images of the website searched with the keyword are sequentially displayed as child icons around the mother icon MI as shown in FIG. The

なお、具体的には、キーワードが入力されたかどうかを別のルーチンで検出し、その別のルーチンでキーワード入力のイベントが発生したとき、このステップS1で“YES”を判断する。   Specifically, it is detected in another routine whether or not a keyword has been input, and when a keyword input event occurs in the other routine, “YES” is determined in this step S1.

ステップS5ではコンピュータ26はユーザの手がスクリーン26(図1,図5)をタッチしたかどうか判断する。ただし、ステップS1と同様に、手がタッチしたかどうかを別のルーチンで検出し、手検出のイベントが発生したとき、このステップS5で“YES”と判断する。そして、ステップS1と同様に、ステップS5で“NO”が判断されると、ステップS1に戻る。   In step S5, the computer 26 determines whether or not the user's hand has touched the screen 26 (FIGS. 1 and 5). However, as in step S1, whether or not the hand has touched is detected by another routine, and when a hand detection event occurs, “YES” is determined in step S5. Then, as in step S1, if “NO” is determined in step S5, the process returns to step S1.

ステップS7では、スクリーン12にタッチした手のタッチ位置を座標データとして読み取ることによって、その手がどれかのアイコンにタッチしているかどうか判断する。ただし、ここでいう「アイコン」には、画像表示領域46に表示されているアイコンだけでなく、ブックマーク領域48に登録設定されているアイコンも含む。つまり、このステップS7では、手が画像表示領域46のアイコンかまたはブックマーク領域48のアイコンにタッチしているときには、“YES”と判断される。そして、“NO”が判断されると、ステップS5に戻る。   In step S7, the touch position of the hand touching the screen 12 is read as coordinate data to determine whether the hand touches any icon. However, the “icon” here includes not only the icon displayed in the image display area 46 but also the icon registered and set in the bookmark area 48. That is, in this step S7, when the hand is touching the icon of the image display area 46 or the icon of the bookmark area 48, “YES” is determined. If “NO” is determined, the process returns to step S5.

次のステップS9では、コンピュータ26は、手がタッチしているアイコンが画像表示領域46の子アイコンかどうか判断する。このステップS9では、具体的には、手のタッチ位置の座標が各アイコンの領域内に含まれるかどうか判断することによって、そのタッチ位置が子アイコンの位置であるかどうか判断する。   In the next step S <b> 9, the computer 26 determines whether the icon touched by the hand is a child icon of the image display area 46. Specifically, in this step S9, it is determined whether or not the touch position is the position of the child icon by determining whether or not the coordinates of the touch position of the hand are included in the area of each icon.

タッチしているアイコンが子アイコンであるとき、このステップS9で“YES”が判断され、次のステップS11で、その子アイコンにタッチしているのは「両手」かどうか判断する。そして、両手で子アイコンにタッチしているときには、ステップS13で、その子アイコンを、図6の「ズームアップ1」で示すように、拡大表示する。   When the touched icon is a child icon, “YES” is determined in this step S9, and in the next step S11, it is determined whether or not it is “both hands” that touches the child icon. When the child icon is touched with both hands, the child icon is enlarged and displayed as shown by “Zoom-up 1” in FIG. 6 in step S13.

ステップS11で“NO”が判断された場合には、コンピュータ26は、次のステップS15で、片手で子アイコンをタッチしてから一定時間経過したかどうか判断する。このステップS15は、図示しないタイマから一定時間経過を計測したというイベントが入力されたとき、“YES”を判断する。   If “NO” is determined in the step S11, the computer 26 determines whether or not a predetermined time has passed since the child icon was touched with one hand in a next step S15. This step S15 determines “YES” when an event that a predetermined time has elapsed is input from a timer (not shown).

そして、一定時間に達しないうちに手を離したときには、コンピュータ26は、ステップS15で“NO”を判断し、次のステップS17で、その子アイコンを画像表示領域46から掃き出す。先に説明したように、キーワードを入力すると、画像表示領域46において、キーワード(マザーアイコン)の周りにそのキーワードで検索したウェブサイトのサムネイル画像が子アイコンとして次々に表示されるのであるが、この実施例では、その子アイコンで示すウェブサイトを見ない(アクセスしない)ことを積極的に意思表示する1つの態様として、掃き出し動作を設定しているのである。   When the computer 26 is released before the predetermined time is reached, the computer 26 determines “NO” in step S15, and sweeps the child icon from the image display area 46 in the next step S17. As described above, when a keyword is input, thumbnail images of websites searched with the keyword are sequentially displayed as child icons around the keyword (mother icon) in the image display area 46. In the embodiment, the sweep-out operation is set as one aspect of positively displaying intention to not see (not access) the website indicated by the child icon.

ステップS15で“YES”を判断したとき、コンピュータ26は、続いて、ステップS19で、その子アイコンで表されるウェブサイトのURLをブックマーク領域48へ「お気に入り」として登録する。   If “YES” is determined in the step S15, the computer 26 subsequently registers the URL of the website represented by the child icon as a “favorite” in the bookmark area 48 in a step S19.

一方、先のステップS9で“NO”が判断された場合には、手でタッチしているアイコンがマザーアイコンかブックマークアイコンである。   On the other hand, if “NO” is determined in the previous step S9, the icon touched by hand is a mother icon or a bookmark icon.

そして、ステップS21では、タッチしているのはマザーアイコンかどうか判断する。ただし、この図8では、説明の便宜上、ステップS21では、そのマザーアイコンがたとえば図5で示す「マザーアイコンA」かどうかを判断するようにしている。そして、このステップS21では、(タッチしているアイコンがマザーアイコンAでないときにではなく、)タッチしているアイコンがマザーアイコンではないときに“NO”を判断するようにしている。   In step S21, it is determined whether or not the touch is the mother icon. However, in FIG. 8, for convenience of explanation, in step S21, it is determined whether or not the mother icon is, for example, “mother icon A” shown in FIG. In step S21, “NO” is determined when the touched icon is not the mother icon (not when the touched icon is not the mother icon A).

ステップS21で“YES”が判断されたときは、すなわち、タッチしているアイコンがマザーアイコンAであったとき、コンピュータ26は、そのマザーアイコンAが他のマザーアイコン、たとえば図5に示すマザーアイコンBに接近したかどうか判断する。もし、図9に示すように、マザーアイコンAとマザーアイコンBをドラッグして両者を接近させたとすると、2のマザーアイコン間の距離Dが所定値以下になったとき、このステップS23で“YES”が判断できる。ただし、マザーアイコンAをマザーアイコンBに接近させるためには、図9のように両方のマザーアイコンをともにドラッグで移動させる方法だけでなく、一方のマザーアイコンには何もせず、他方のマザーアイコンだけをドラッグして一方のマザーアイコンに接近させる方法がある。いずれにしても、接近判断手段を構成するステップS23で“YES”が判断されたときには、画像表示領域46内において、2つのマザーアイコン、たとえば図5に示すマザーアイコンAとマザーアイコンBとが互いに接近したことを意味し、この場合には、コンピュータ26は、次のステップS25において、キーワードAとキーワードBとを論理積(AND)したキーワード「A*B」を多数の検索エンジンに設定する。したがって、このステップS25はキーワード更新手段を構成することになり、キーワードが「A*B」で更新されると、キーワードAおよびキーワードBはともに検索の対象ではなくなる。つまり、この段階で、コンピュータ26は、2つのキーワードのANDしたキーワードを設定し直して、検索エンジンを作動させる。したがって、これ以後、各検索エンジンは、キーワード「A*B」によってウェブサイトを検索し、そのため、画像表示領域46には、そのキーワード「A*B」で検索されたウェブサイトのサムネイル画像が子アイコンとして次々に表示されることになる。   When “YES” is determined in step S21, that is, when the touched icon is the mother icon A, the computer 26 determines that the mother icon A is another mother icon, for example, the mother icon shown in FIG. It is determined whether or not B is approached. If, as shown in FIG. 9, the mother icon A and the mother icon B are dragged to bring them closer together, when the distance D between the two mother icons is less than or equal to a predetermined value, “YES” in this step S23. "Can be judged. However, in order to bring the mother icon A closer to the mother icon B, not only the method of moving both mother icons by dragging them as shown in FIG. There is a way to move only one mother icon by dragging. In any case, when “YES” is determined in step S23 constituting the approach determination means, two mother icons, for example, the mother icon A and the mother icon B shown in FIG. In this case, the computer 26 sets the keyword “A * B” obtained by ANDing the keyword A and the keyword B in a number of search engines in the next step S25. Therefore, this step S25 constitutes a keyword updating means, and when the keyword is updated with “A * B”, both the keyword A and the keyword B are no longer search targets. That is, at this stage, the computer 26 resets the keyword obtained by ANDing the two keywords and operates the search engine. Therefore, thereafter, each search engine searches the website by the keyword “A * B”. Therefore, the thumbnail image of the website searched by the keyword “A * B” is stored in the image display area 46. It will be displayed one after another as an icon.

このように、画像表示領域46上で2つのマザーアイコンを接近させるだけで、検索エンジンに設定するキーワードを、2つのキーワードをAND(論理積)したキーワードに変更できるので、従来のように、新たなキーワードを設定し直すためにキーボードを操作したり、音声入力をし直す必要がない。したがって、簡単にキーワードを変更できる。   In this way, the keyword set in the search engine can be changed to a keyword obtained by ANDing two keywords just by bringing the two mother icons close to each other on the image display area 46. There is no need to operate the keyboard or re-input voice to reset the correct keyword. Therefore, the keyword can be easily changed.

なお、先のステップS21で“NO”が判断されたとき、つまり、タッチしているアイコンが子アイコンでも、マザーアイコンでもないときには、ステップS27で、そのアイコンが、ブックマーク領域48に登録されているアイコンかどうか判断する。“NO”ならそのままステップS5に戻るが、“YES”なら、ステップS29で、先の図6の「ズームアップ2」のように、ブックマーク領域48に登録されているアイコンをズームアップする。すなわち、そのアイコンで表されるウェブサイトのURLへアクセスする。   If “NO” is determined in the previous step S21, that is, if the touched icon is neither a child icon nor a mother icon, the icon is registered in the bookmark area 48 in step S27. Determine if it is an icon. If “NO”, the process directly returns to step S5. If “YES”, the icon registered in the bookmark area 48 is zoomed up in step S29 as in “Zoom-up 2” of FIG. That is, the URL of the website represented by the icon is accessed.

なお、上述の実施例ではプラスチックスクリーン12の前方から赤外光源18によって赤外光をスクリーン上に照射し、他方コンピュータ26はカメラ22の映像信号スクリーン12の後方で赤外光が遮光される領域を検出した。しかしながら、人間の手はそれ自体が赤外光を発するものであるから、スクリーン12を透過した赤外光を検出するようにしてもよい。この場合には、コンピュータ26はカメラ22からの映像信号を分析して赤外光が存在する領域(赤外光領域)を検出するようにすればよい。   In the above embodiment, the infrared light source 18 irradiates the screen with infrared light from the front of the plastic screen 12, while the computer 26 is a region where the infrared light is shielded behind the video signal screen 12 of the camera 22. Was detected. However, since the human hand itself emits infrared light, the infrared light transmitted through the screen 12 may be detected. In this case, the computer 26 may analyze the video signal from the camera 22 and detect an area where infrared light exists (infrared light area).

また、上述の実施例では、多数の検索エンジンで同じ同時にキーワードでウェブサイトを検索するようにしたが、検索エンジンを1つだけ用いる場合でも、この発明は適用できる。   Further, in the above-described embodiment, a website is searched for with the same keyword simultaneously using many search engines. However, the present invention can be applied even when only one search engine is used.

さらに、実施例では、手でスクリーンをタッチすることによってスクリーン上の位置をポインティングする大画面タッチパネルにウェブサイト検索システムを組み込んだが、通常のコンピュータとディスプレイとを用い、マウスでアイコンをドラッグするシステムであっても、この発明は適用できる。   Furthermore, in the embodiment, the website search system is incorporated into a large screen touch panel that points the position on the screen by touching the screen with a hand. However, the system uses a normal computer and a display and drags an icon with a mouse. Even if it exists, this invention is applicable.

図1はこの発明の一実施例のウェブサイト検索システムを示す図解図である。FIG. 1 is an illustrative view showing a website search system according to an embodiment of the present invention. 図2は図1の実施例のブロック図である。FIG. 2 is a block diagram of the embodiment of FIG. 図3は図1の実施例においてプラスチックスクリーンの前方の人間が手でスクリーンにタッチしたときの実際の映像を示す。FIG. 3 shows an actual image when a person in front of the plastic screen touches the screen with a hand in the embodiment of FIG. 図4はスクリーンにタッチした手によって作られた黒領域の一例を示す図解図である。FIG. 4 is an illustrative view showing an example of a black region created by a hand touching the screen. 図5は図1の実施例においてスクリーンに形成される3つの表示領域を示す図解図である。FIG. 5 is an illustrative view showing three display areas formed on the screen in the embodiment of FIG. 図6はスクリーン上でのズームアップ動作やブックマーク登録動作を示す図解図である。FIG. 6 is an illustrative view showing a zoom-up operation and a bookmark registration operation on the screen. 図7はスクリーン上でのドラッグ動作を示す図解図である。FIG. 7 is an illustrative view showing a drag operation on the screen. 図8は図1の実施例におけるウェブサイト検索動作を示すフロー図である。FIG. 8 is a flowchart showing the website search operation in the embodiment of FIG. 図9は2つのマザーアイコンを接近させた状態を例示する図解図である。FIG. 9 is an illustrative view illustrating a state in which two mother icons are brought close to each other.

符号の説明Explanation of symbols

10 …ウェブサイト検索システム
12 …クスクリーン
16 …手
26 …コンピュータ
30 …プロジェクタ
32 …内部メモリ
38 …インタネットインタフェース
40 …インタネット
42 …マルチエンジン検索プログラム
44 …キーワード領域
46 …画像表示領域
48 …ブックマーク領域
50 …マイク
DESCRIPTION OF SYMBOLS 10 ... Website search system 12 ... Screen 16 ... Hand 26 ... Computer 30 ... Projector 32 ... Internal memory 38 ... Internet interface 40 ... Internet 42 ... Multi-engine search program 44 ... Keyword area 46 ... Image display area 48 ... Bookmark area 50 …Microphone

Claims (3)

キーワードを入力することによってスクリーン上にそのキーワードを表すマザーアイコンを表示するとともに、検索エンジンを用いてそのキーワードで検索したウェブサイトのサムネイル画像を前記マザーアイコンの周囲に子アイコンとして順次表示する、ウェブサイト検索システムであって、
前記スクリーン上に表示されている2つのマザーアイコンが接近したかどうか判断する接近判断手段、および
前記接近判断手段が2つのマザーアイコンの接近を判断したとき各マザーアイコンのキーワードを論理積で結合したキーワードを前記検索エンジンに設定するキーワード更新手段を備える、ウェブサイト検索システム。
A mother icon representing the keyword is displayed on the screen by inputting the keyword, and thumbnail images of websites searched by the keyword using a search engine are sequentially displayed around the mother icon as child icons. A site search system,
An approach judging means for judging whether or not two mother icons displayed on the screen are approached, and when the approach judging means judges the approach of the two mother icons, the keywords of the respective mother icons are combined by a logical product. A website search system comprising keyword update means for setting a keyword in the search engine.
前記接近判断手段は前記2つのマザーアイコン間の距離が所定値より小さくなったとき、2つのマザーアイコンの接近を判断する、請求項1記載のウェブサイト検索システム。   2. The website search system according to claim 1, wherein when the distance between the two mother icons becomes smaller than a predetermined value, the approach determining unit determines the approach of the two mother icons. 前記スクリーンは大画面タッチパネルのスクリーンであり、
前記大画面タッチパネルは
赤外光を透過できる材料からなるスクリーン、
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、および
前記赤外カメラからの映像信号を受けるコンピュータを含み、
前記コンピュータは、前記映像信号に基づいて前記スクリーンにタッチしている手の位置の検出するとともに、前記手で前記マザーアイコンにタッチした状態でその手を動かすことによって前記マザーアイコンをドラッグする、請求項1または2記載のウェブサイト検索システム。
The screen is a screen of a large screen touch panel,
The large screen touch panel is a screen made of a material capable of transmitting infrared light,
An infrared light source that irradiates the front surface of the screen with infrared light from the front of the screen;
An infrared camera that is provided behind the screen and captures a back surface of the screen; and a computer that receives a video signal from the infrared camera,
The computer detects a position of a hand touching the screen based on the video signal, and drags the mother icon by moving the hand while touching the mother icon with the hand. Item 3. A website search system according to item 1 or 2.
JP2003375084A 2003-11-05 2003-11-05 Web site retrieval system Pending JP2005141340A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003375084A JP2005141340A (en) 2003-11-05 2003-11-05 Web site retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003375084A JP2005141340A (en) 2003-11-05 2003-11-05 Web site retrieval system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009007139A Division JP5050153B2 (en) 2009-01-16 2009-01-16 Website search system

Publications (1)

Publication Number Publication Date
JP2005141340A true JP2005141340A (en) 2005-06-02

Family

ID=34686549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003375084A Pending JP2005141340A (en) 2003-11-05 2003-11-05 Web site retrieval system

Country Status (1)

Country Link
JP (1) JP2005141340A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007066662A1 (en) * 2005-12-05 2009-05-21 パイオニア株式会社 Content search device, content search system, server device for content search system, content search method, computer program, and content output device with search function
JP7477235B1 (en) 2023-12-25 2024-05-01 Art-Tra株式会社 Electronic device, display control method, and application program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2007066662A1 (en) * 2005-12-05 2009-05-21 パイオニア株式会社 Content search device, content search system, server device for content search system, content search method, computer program, and content output device with search function
JP7477235B1 (en) 2023-12-25 2024-05-01 Art-Tra株式会社 Electronic device, display control method, and application program

Similar Documents

Publication Publication Date Title
US11797131B2 (en) Apparatus and method for image output using hand gestures
AU2019216686C1 (en) System for organizing and displaying information on a display device
US10025477B1 (en) Nested zoom in windows on a touch sensitive device
US8468463B2 (en) Image processing apparatus, image processing method and computer readable medium
RU2654133C2 (en) Three-dimensional object browsing in documents
US20110210928A1 (en) Information processing apparatus, information processing method, and program
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
JP2008505382A (en) Discontinuous zoom
US9811197B2 (en) Display apparatus and controlling method thereof
US20230195802A1 (en) Data processing method and apparatus
JP2004523811A (en) Providing input signals
JP2009251702A (en) Information processing unit, information processing method, and information processing program
JP5050153B2 (en) Website search system
KR20120140291A (en) Terminal and method for displaying data thereof
US20140359521A1 (en) Method of moving a cursor on a screen to a clickable object and a computer system and a computer program thereof
JP3355708B2 (en) Command processing device
WO2018196693A1 (en) Method for displaying image list and mobile terminal
JP2005141340A (en) Web site retrieval system
JP2016208079A (en) Information processing device, information processing method and program
JP2003216301A (en) Display device, display method, program for realizing its method by using computer and recording medium with its program recorded
JP2017531889A (en) Character string storage method and apparatus
JP5716057B2 (en) Display device, display method, and program
JP3355707B2 (en) Command processing device
US20230325216A1 (en) System for organizing and displaying information on a display device
JP4067467B2 (en) Information retrieval display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080918

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090128

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090220