JP5084798B2 - Application state recognition method, apparatus and program - Google Patents

Application state recognition method, apparatus and program Download PDF

Info

Publication number
JP5084798B2
JP5084798B2 JP2009193015A JP2009193015A JP5084798B2 JP 5084798 B2 JP5084798 B2 JP 5084798B2 JP 2009193015 A JP2009193015 A JP 2009193015A JP 2009193015 A JP2009193015 A JP 2009193015A JP 5084798 B2 JP5084798 B2 JP 5084798B2
Authority
JP
Japan
Prior art keywords
application
image data
feature amount
state recognition
application state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009193015A
Other languages
Japanese (ja)
Other versions
JP2011044074A (en
Inventor
健一 西川
祐人 川端
健 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009193015A priority Critical patent/JP5084798B2/en
Publication of JP2011044074A publication Critical patent/JP2011044074A/en
Application granted granted Critical
Publication of JP5084798B2 publication Critical patent/JP5084798B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Digital Computer Display Output (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータ上で動作するアプリケーション(AP)を通じて操作を行うユーザに対して、ユーザが操作を円滑に行うことを支援する技術に関するものである。   The present invention relates to a technique for supporting a user who performs an operation smoothly through an application (AP) running on a computer so that the user can smoothly perform the operation.

ユーザによる操作を支援するには、現在のユーザやアプリケーションの状態を知る必要がある。現状態を知らないと、状態に依らずに適用可能な汎用的な支援に留まり、個別の状況に適合した具体的で個別的な支援を行うことができないためである。   To support user operations, it is necessary to know the current user and application status. This is because if the current state is not known, the general support can be applied regardless of the state, and specific and individual support suitable for each situation cannot be performed.

ユーザやアプリケーションの状態を知る従来手法として、アプリケーションプログラムやOSが提供する情報を利用する方法がある。例えば、Microsoft(登録商標)社製OSであるWindows(登録商標)では、「AutoIt」や「Spy++」というツールが知られている。これらのツールでは、OS上でのウィンドウの基本的な情報(例えばタイトル、クラス、サイズなど)の取得、ウィンドウやプロセス等とOSとの間でやりとりされるメッセージの取得などを行うことができる。そこで、これらの情報を複合的に組み合わせることで、アプリケーションの状態を一定レベルにおいて取得することが可能である。   As a conventional method of knowing the state of a user or an application, there is a method of using information provided by an application program or an OS. For example, in Windows (registered trademark) which is an OS made by Microsoft (registered trademark), tools such as “AutoIt” and “Spy ++” are known. With these tools, it is possible to acquire basic information (for example, title, class, size, etc.) of a window on the OS, and to acquire a message exchanged between the window and process and the OS. Therefore, by combining these pieces of information in a composite manner, it is possible to acquire the application state at a certain level.

"AutoIt Script Home Page"、[online]、[平成21年8月13日検索]、URL<https://www.autoitscript.com/>"AutoIt Script Home Page", [online], [Search August 13, 2009], URL <https://www.autoitscript.com/> "Home Page: Spy++"、[online]、[平成21年8月13日検索]、URL< https://msdn.microsoft.com/en-us/library/aa264396(VS.60).aspx>"Home Page: Spy ++", [online], [Search August 13, 2009], URL <https://msdn.microsoft.com/en-us/library/aa264396 (VS.60) .aspx>

しかし上記の方法では、ユーザの操作する環境によっては、ユーザ支援に必要な情報を充分に取得することができないという問題がある。例えば、セキュリティ強化の目的で導入されることが多くなっているシンクライアント環境では、多くの場合非常に限られた情報しか取得することができない。シンクライアントの実装方式として比較的ポピュラーな画面情報を転送する方式では、従来手法を使うとアプリケーションの充分な情報を取得することができない。   However, the above method has a problem that information necessary for user support cannot be acquired sufficiently depending on the environment operated by the user. For example, in a thin client environment that is often introduced for the purpose of enhancing security, in many cases, only very limited information can be acquired. In a method of transferring relatively popular screen information as a thin client mounting method, it is not possible to acquire sufficient information of an application using a conventional method.

本発明は、上記事情に鑑みてなされたものであり、その目的とするところは、従来手法ではアプリケーションやOSから充分な情報を取得することができないような環境下であっても、アプリケーションの動作状態を認識することが可能なシステムを提供することにある。   The present invention has been made in view of the above circumstances, and the object of the present invention is to operate the application even in an environment where conventional methods cannot acquire sufficient information from the application or the OS. The object is to provide a system capable of recognizing a state.

上記目的を達成するために、本発明は、コンピュータ上で動作するアプリケーションの動作状態を認識するアプリケーション状態認識装置において、前記アプリケーションが表示装置に出力している情報を画像データとして取得する画像データ取得手段と、取得された画像データに対してノイズ除去や正規化等の前処理を行う前処理手段と、前処理された画像データの特徴量を抽出する特徴量抽出手段と、画像データの特徴量からアプリケーションの動作状態を識別するための学習データを識別辞書として予め記憶した記憶手段と、抽出した特徴量に基づき前記識別辞書からアプリケーションの動作状態を識別する識別手段とを備えたことを特徴とする。   In order to achieve the above object, the present invention provides an application state recognition device for recognizing an operation state of an application running on a computer, and obtaining image data that obtains information output from the application to a display device as image data. Means, preprocessing means for performing preprocessing such as noise removal and normalization on the acquired image data, feature quantity extraction means for extracting feature quantities of the preprocessed image data, and feature quantities of the image data A learning unit for previously storing learning data for identifying the operation state of the application as an identification dictionary; and an identification unit for identifying the operation state of the application from the identification dictionary based on the extracted feature amount. To do.

本発明によれば、アプリケーションの動作により表示装置に画面表示される画像データに対して画像認識を行うことにより該アプリケーションの動作状態を識別するので、従来手法のようにカメラ等の特別なデバイスを別途用意することや複雑な初期設定を行うことなどは必要ない。したがって汎用的な技術として種々の環境下でアプリケーションの動作状態を取得することができる。   According to the present invention, since the operation state of the application is identified by performing image recognition on the image data displayed on the display device by the operation of the application, a special device such as a camera is used as in the conventional method. There is no need to prepare separately or perform complicated initial settings. Therefore, the operation state of the application can be acquired under various environments as a general technique.

また、本発明の好適な態様としては、前記前処理部において、取得された画像データに対して該画像データの可変領域を所定の固定値又は固定パターンに置換することを特徴するものが挙げられる。すなわち、単純に画像データに対する画像認識を行っただけでは細かな動作状態による違いを検出しすぎて誤認識しがちなところ、具体的には入力画像と識別辞書中の画像において動作状態によって可変な画像部分(可変領域)を、一律的なパターンで塗り潰してから認識させる。これにより、データの入力状態などにより生じる画像上の違いを無視したアプリケーションの動作状態を、より確実に認識することを可能にする。   Further, as a preferred aspect of the present invention, the pre-processing unit may replace the variable area of the acquired image data with a predetermined fixed value or fixed pattern for the acquired image data. . That is, if image recognition is simply performed on image data, a difference due to a small operation state is detected too much and misrecognition is likely to occur. Specifically, the input image and the image in the identification dictionary are variable depending on the operation state. The image portion (variable region) is recognized after being filled with a uniform pattern. This makes it possible to more reliably recognize the operation state of the application ignoring the difference on the image caused by the data input state.

以上説明したように本発明によれば、特別な機器や設定を必要とせずに、画面上の画像データに対する画像認識により、アプリケーションの現在の動作状態を把握することができる。また、従来技術ではアプリケーションの動作状態の違いが画像上の違いに表れることで誤認識しやすいところを、前処理段階において無視してよい状態による画像状態の違いを除去することで、より確実な認識を可能にした。これにより、ユーザによる次操作の提案やエラー状態からの回復、自律動作など様々な応用が可能になり、ユーザによるアプリケーション操作をより強力に支援できるようになる。   As described above, according to the present invention, the current operating state of an application can be grasped by image recognition for image data on a screen without requiring any special equipment or setting. In addition, in the conventional technology, the difference in the operating state of the application appears in the difference on the image, and it is more reliable by removing the difference in the image state due to the state that can be ignored in the preprocessing stage. Recognized. As a result, various applications such as a proposal of the next operation by the user, recovery from an error state, and autonomous operation are possible, and the application operation by the user can be supported more strongly.

アプリケーション状態認識システムの構成図Configuration diagram of application state recognition system アプリケーション状態認識システムの動作を説明するフローチャートFlow chart explaining operation of application state recognition system ユーザ支援アプリケーションの動作を説明するフローチャートFlow chart explaining operation of user support application 可変領域の置換処理を説明する図Diagram explaining variable area replacement processing 可変領域の置換処理を説明する図Diagram explaining variable area replacement processing

本発明の一実施の形態について図面を参照して説明する。図1は、本発明のアプリケーション状態認識システムの構成図である。本実施の形態に係るアプリケーション状態認識システムでは、ユーザ支援アプリケーションに対して他のアプリケーションの動作状態を認識・提供するサービスを行う。すなわち、図1に示すように、コンピュータ10にはOS11上で複数の既存アプリケーションAP1,AP2,…が動作している。各既存アプリケーションAP1,AP2は、ユーザ1に対するユーザインタフェイスとして、キーボードやマウス等の入力デバイス15及び表示装置であるディスプレイ16を利用する。   An embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram of an application state recognition system of the present invention. In the application state recognition system according to the present embodiment, a service for recognizing and providing the operation state of another application is provided to the user support application. That is, as shown in FIG. 1, a plurality of existing applications AP1, AP2,. Each existing application AP1, AP2 uses an input device 15 such as a keyboard and a mouse and a display 16 as a display device as a user interface for the user 1.

ユーザ支援アプリケーション20は、既存アプリケーションAP1,AP2,…を操作するユーザ1に対して、その操作を支援するアプリケーションである。該ユーザ支援アプリケーション20には様々な形態が考えられ、例えば、現在の画面上の既存アプリケーションAP1,AP2,…の状態をもとに次操作を提案するものや、ユーザ1がエラー状態と判断される状態に陥った時に回復手順を示し回復支援をするもの、自動操作システムに状況を判断しつつ自律的な動作を行う機能を追加するものなど挙げられる。本発明に係るアプリケーション状態認識システム100は、該ユーザ支援アプリケーション20に対して既存アプリケーションAP1,AP2,…の動作状態を認識し、該認識結果を提供するものである。   The user support application 20 is an application that supports the operation of the user 1 who operates the existing applications AP1, AP2,. Various forms of the user support application 20 are conceivable. For example, the user support application 20 proposes the next operation based on the state of the existing applications AP1, AP2,... On the current screen, or the user 1 is determined to be in an error state. Such as adding a function to perform autonomous operation while judging the situation in an automatic operation system. The application state recognition system 100 according to the present invention recognizes the operation state of the existing applications AP1, AP2,... With respect to the user support application 20, and provides the recognition result.

以下にアプリケーション状態認識システム100について詳述する。本発明に係るアプリケーション状態認識システム100は、構成自体は一般的な画像認識システムと同等のものであり、図1に示すように、画像取得部110,前処理部120,特徴抽出部130,識別部140,識別辞書150とを備えている。また、本発明に係るアプリケーション状態認識システム100は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。さらに、本発明に係るアプリケーション状態認識システム100やユーザ支援アプリケーション20の動作環境や実装形態は不問である。すなわち、既存アプリケーションAP1,AP2,…が動作するコンピュータと同一コンピュータ上で動作してもよいし、例えばシンクライアント環境のように他のコンピュータ上で動作してもよい。さらに、アプリケーション状態認識システム100の各部も単一のコンピュータではなく複数のコンピュータに分散させて実装してもよい。   The application state recognition system 100 will be described in detail below. The application state recognition system 100 according to the present invention has the same configuration as that of a general image recognition system. As shown in FIG. 1, the image acquisition unit 110, the preprocessing unit 120, the feature extraction unit 130, the identification Unit 140 and identification dictionary 150. The application state recognition system 100 according to the present invention can also be realized by a computer and a program, and can be recorded on a recording medium or provided through a network. Furthermore, the operating environment and mounting form of the application state recognition system 100 and the user support application 20 according to the present invention are not questioned. That is, it may operate on the same computer as the computer on which the existing applications AP1, AP2,... Operate, or may operate on another computer such as a thin client environment. Furthermore, each part of the application state recognition system 100 may be distributed and implemented in a plurality of computers instead of a single computer.

画像取得部110は、OS11やそれに付随するシステムライブラリ等の提供する機能を用いてディスプレイ16上に表示されている、ウィンドウやスクリーン全体などを画像データとして取得する。   The image acquisition unit 110 acquires, as image data, a window, an entire screen, or the like displayed on the display 16 using functions provided by the OS 11 or a system library associated therewith.

前処理部120では、画像データに対して認識処理をしやすくするための処理を行う。具体的には、認識の際に余計なノイズなどをできるだけ除去するために行う二値化や画像サイズなどを一定の値に揃える正規化などの処理を行う。さらに、前処理部120では、必要に応じて画像データから特定される可変領域の置換処理を行う。可変領域及び置換処理については後述する。   The preprocessing unit 120 performs processing for facilitating recognition processing on image data. Specifically, processing such as binarization performed to remove extraneous noise as much as possible at the time of recognition or normalization that aligns the image size to a constant value is performed. Further, the pre-processing unit 120 performs variable region replacement processing specified from the image data as necessary. The variable area and replacement process will be described later.

特徴抽出部130では、画像データを認識するために、該画像データをより少数の情報で表す特徴量を特徴ベクトルとして抽出する。特徴量を算出する方法については、様々な形で検討されている既存手法が豊富に存在するため、それらを利用する。具体的には、SIFT特徴量やHoG特徴量、Haar−like特徴量などの様々な特徴量が利用可能である。また、後述する識別部140でテンプレートマッチ法を利用する場合は、前処理部120で画像サイズの正規化など適切な前処理が行ってあれば、画像のデータをそのまま特徴量とする。   In order to recognize the image data, the feature extraction unit 130 extracts a feature amount representing the image data with a smaller number of information as a feature vector. Regarding the method for calculating the feature amount, since there are abundant existing methods that have been studied in various forms, they are used. Specifically, various feature amounts such as SIFT feature amount, HoG feature amount, and Haar-like feature amount can be used. Further, when the template matching method is used in the identification unit 140 described later, if appropriate preprocessing such as normalization of the image size is performed in the preprocessing unit 120, the image data is used as a feature amount as it is.

識別部140では、事前に学習した情報を保管するなどして作成した識別辞書150の情報(学習データ)を参照し、入力された画像の特徴ベクトルを元に入力画像の識別・分類を行う。識別・分類は、入力画像が、認識したい状態を示すクラスのいずれに属するかを決定する処理である。クラスは、区別して認識したい状態の数だけ予め用意しておく。通常、識別辞書150中の全てのデータをその特徴ベクトルを元に、幾つかの有限のクラスに分割する。その上で、クラスを代表する特徴ベクトル(別途算出する)や辞書中の全データの特徴ベクトルと、入力画像の特徴ベクトルを比較することで、入力画像の属するクラスを識別する。比較する際はユークリッド距離が最小となるベクトルを選ぶやり方やニューラルネットワークを利用するやり方、サポートベクタマシンを利用するやり方、テンプレートマッチ法を利用する方法など、様々な既存の手法があり、それらを利用する。   The identification unit 140 refers to information (learning data) in the identification dictionary 150 created by storing information learned in advance, and identifies and classifies the input image based on the feature vector of the input image. Identification / classification is processing for determining which of the classes indicating the state to be recognized the input image belongs to. Prepare as many classes as you want to distinguish and recognize. Normally, all data in the identification dictionary 150 is divided into several finite classes based on the feature vectors. Then, the class to which the input image belongs is identified by comparing the feature vector representing the class (calculated separately) or the feature vector of all data in the dictionary with the feature vector of the input image. When comparing, there are various existing methods, such as selecting a vector that minimizes the Euclidean distance, using a neural network, using a support vector machine, and using a template matching method. To do.

次に、図2を参照して本発明に係るアプリケーション状態認識システムの動作について説明する。   Next, the operation of the application state recognition system according to the present invention will be described with reference to FIG.

図2に示すように、まず画像取得部110が、サービス提供先のアプリケーション(本実施の形態ではユーザ支援アプリケーション20)等からの要求に応じて、ディスプレイ16上に表示されている画像データを取得する(ステップS1)。なお、前記要求には必要に応じて、認識対象となる既存アプリケーションAP1,AP2,…や更にそのウィンドウ等を指定するようにしてもよい。次に、前処理部120が前処理として、画像データに対して後段の識別処理における画像認識が行いやすくするよう画像処理を行う(ステップS2)。次に、特徴抽出部130が、前処理された画像データから特徴量として特徴ベクトルを抽出する(ステップS3)。そして、識別部140が、抽出された特徴量と識別辞書150中のデータを比較して、画像データの属するクラスを判別して、該クラスをアプリケーションの動作状態としてサービス提供先のアプリケーションに返す(ステップS4)。   As shown in FIG. 2, first, the image acquisition unit 110 acquires image data displayed on the display 16 in response to a request from a service providing destination application (the user support application 20 in the present embodiment) or the like. (Step S1). Note that the request may specify the existing applications AP1, AP2,. Next, the preprocessing unit 120 performs image processing as preprocessing so as to facilitate image recognition in the subsequent identification processing on the image data (step S2). Next, the feature extraction unit 130 extracts a feature vector as a feature amount from the preprocessed image data (step S3). Then, the identification unit 140 compares the extracted feature quantity with the data in the identification dictionary 150 to determine the class to which the image data belongs, and returns the class to the service providing destination application as the application operating state ( Step S4).

次に、図3を参照して本発明に係るアプリケーション状態認識システムを用いたユーザ支援アプリケーションの動作について説明する。ここでは、ユーザ支援アプリケーション20として、既存アプリケーションAP1,AP2,…を操作するユーザ1に対してその操作を支援するものを例にとって説明する。   Next, the operation of the user support application using the application state recognition system according to the present invention will be described with reference to FIG. Here, the user support application 20 will be described by taking as an example an application that assists the user 1 who operates the existing applications AP1, AP2,.

図3に示すように、ユーザ支援アプリケーション20は、動作状態の認識対象である既存アプリケーションAP1,AP2,…の画像領域(ウィンドウなど)を指定して、アプリケーション状態認識システム100に対して動作状態の認識を依頼する(ステップS11)。アプリケーション状態認識システム100は、図2を参照して前述した動作にしたがって既存アプリケーションAP1,AP2,…の動作状態を識別・応答する(ステップS12)。ユーザ支援アプリケーション20は、取得した動作状態に基づき次操作の支援などのユーザ支援処理を行う(ステップS13)。なお、該ユーザ支援処理については従来周知のものと同様なので詳述は省略する。   As shown in FIG. 3, the user support application 20 designates image areas (windows, etc.) of existing applications AP1, AP2,... Recognition is requested (step S11). The application state recognition system 100 identifies and responds to the operation states of the existing applications AP1, AP2,... According to the operation described above with reference to FIG. The user support application 20 performs user support processing such as support for the next operation based on the acquired operation state (step S13). Since the user support process is the same as that conventionally known, detailed description thereof is omitted.

ところで本願発明では既存アプリケーションAP1,AP2,…の動作状態を把握する手段として、表示画面の画像データを画像認識技術により解析するという手法をとっている。しかし、単純に画面画像に対する画像認識を行っただけでは、テキストエリアへの入力状況などによる違いを過度に検出してしまい、誤認識の可能性が高くなるという課題がある。   By the way, in the present invention, as a means for grasping the operation state of the existing applications AP1, AP2,..., A method of analyzing the image data on the display screen by an image recognition technique is employed. However, simply performing image recognition on a screen image causes excessive detection of a difference due to an input situation in a text area, and there is a problem that the possibility of erroneous recognition increases.

そこで本願発明では、前処理部120において、必要に応じて可変領域を所定の固定値又は固定パターンに置換する処理を行う。ここで、「可変領域」とは、アプリケーションの動作状態が属するクラスは同じであるが、その動作状態によって内容が変わる可能性のある領域を意味する。例えば、住所入力画面における住所入力用のテキスト領域などが該当する。   Therefore, in the present invention, the preprocessing unit 120 performs a process of replacing the variable area with a predetermined fixed value or fixed pattern as necessary. Here, the “variable area” means an area that has the same class to which the application operating state belongs, but whose contents may change depending on the operating state. For example, it corresponds to a text area for address input on the address input screen.

具体的には前処理部120は、入力文字列の違いやラジオボタンなどの選択状況の違いなどを区別して認識したくない場合は、細かな状態の違いを区別したくない可変領域を一定の色やパターンで塗り潰す。その後、特徴量の計算を行うことで、文字列の違いなどの状態の違いを無視した確度の高い認識が可能になる。   Specifically, if the pre-processing unit 120 does not want to distinguish between different input character strings or different selection statuses such as radio buttons, the pre-processing unit 120 defines a variable region that does not want to distinguish between minor state differences. Fill with color or pattern. After that, by calculating the feature amount, it becomes possible to recognize with high accuracy ignoring the state difference such as the character string difference.

さらに、テキスト入力中とテキスト未入力というような複数の状態を区別したい場合、なんらかのテキストが入力されている場合は、テキスト入力中を示す固定の文字列に置換するなどといった方法により、区別が可能である。可変領域に画像が描画されている場合でも同様に特定の画像に置換するなどの手法が適用できる。また、例えば未入力状態の画像における可変領域において、未入力を示す一定の固定パターンで塗り潰す必要があるケースもある。この手法を応用することで、任意の複数の状態を区別して認識することが可能である。   Furthermore, if you want to distinguish between multiple states, such as text input and text not input, if some text is input, you can distinguish it by replacing it with a fixed character string indicating that text is being input. It is. Even when an image is drawn in the variable area, a technique such as replacement with a specific image can be applied. Further, for example, there is a case where it is necessary to fill a variable area in an uninput image with a fixed pattern indicating non-input. By applying this method, it is possible to distinguish and recognize any plurality of states.

図4に前処理部における置換処理の一例を示す。図4は、あるアプリケーションの特定ウィンドウとして、テキスト領域、ラジオボタン、可変な図形領域を持つウィンドウに対して、入力状況に依らずにウィンドウの属するクラス(名前、住所など入力ウィンドウ)を識別するために、画像に施す前処理例の概要を示す図であり、処理を行う前と後とを示している。処理内容は、可変な領域を背景色などの固定色や固定パターンで塗り潰す処理である。   FIG. 4 shows an example of replacement processing in the preprocessing unit. FIG. 4 shows a window having a text area, a radio button, and a variable graphic area as a specific window of an application to identify a class to which the window belongs (input window such as name and address) regardless of the input status. FIG. 6 is a diagram showing an outline of a pre-processing example applied to an image, and shows before and after processing. The processing content is a process of filling a variable area with a fixed color such as a background color or a fixed pattern.

このような処理を施すためには、認識の精度を制御したい可変領域を指定する必要がある。一つの方法は、図2などで示した状態認識のフローと同様の画像の認識を行い、必要となる可変領域の認識を行う方法である。文字列の矩形領域の検出については、フーリエ記述子を用いた文字認識など、既存の手法を適用することが可能である。その他、一般の画像であっても、既存のSIFT特徴量などを利用し、指定の可変領域を示す画像と同様の特徴量を持つ画像を検出することで、可変領域の認識が可能である。   In order to perform such processing, it is necessary to designate a variable region for which recognition accuracy is to be controlled. One method is a method of recognizing a necessary variable area by performing image recognition similar to the state recognition flow shown in FIG. For detection of a rectangular region of a character string, an existing method such as character recognition using a Fourier descriptor can be applied. In addition, even a general image can be recognized by using an existing SIFT feature value or the like and detecting an image having the same feature value as an image showing a designated variable region.

ただし、上記の方法はどのような画像が現れるか予測ができないため、汎用的な適用には好ましいとは言えない。そこで、汎用的な方法の一つを図5を参照して説明する。図5は可変領域の検出例を図示したものである。   However, since the above method cannot predict what kind of image will appear, it is not preferable for general-purpose application. Therefore, one of general-purpose methods will be described with reference to FIG. FIG. 5 illustrates an example of variable area detection.

図5に示す検出方法では、文字領域や画像領域などの一般の可変領域の検出をするために、識別辞書150の学習データを作成する際に、学習対象の画像における可変領域を手動で指定し、可変領域を塗り潰して固定領域に変換し、特徴量を計算し、変換したものと変換していないもの双方を保存しておく。その際、変換した各固定領域(矩形であることを前提とする)のウィンドウや画面等の左上隅を原点として、左上隅と右下隅の座標を画像の特徴量と共に可変領域を示す座標として記録しておく。前処理部120では、入力画像に対して、識別辞書150に記録しておいた各データの可変領域の座標で表される領域を固定領域にそれぞれ置換する。特徴抽出部130は、置換後の各画像データについてそれぞれ特徴量を算出する。そして識別部140は、各特徴量と識別辞書150中の各データとを比較し、最も類似した特徴量が示す動作状態を識別結果とする。但し、この方法を適用する条件としては、画像の大きさが学習時と認識時で同じである、という条件がある。   In the detection method shown in FIG. 5, when creating learning data of the identification dictionary 150 in order to detect general variable areas such as character areas and image areas, the variable areas in the learning target image are manually designated. The variable area is filled and converted into a fixed area, the feature amount is calculated, and both the converted and unconverted areas are stored. At that time, the upper left corner of the window or screen of each converted fixed area (assuming that it is rectangular) is the origin, and the coordinates of the upper left corner and the lower right corner are recorded as the coordinates indicating the variable area together with the image feature amount. Keep it. The preprocessing unit 120 replaces the area represented by the coordinates of the variable area of each data recorded in the identification dictionary 150 with the fixed area for the input image. The feature extraction unit 130 calculates a feature amount for each piece of image data after replacement. Then, the identification unit 140 compares each feature amount with each data in the identification dictionary 150, and uses the operation state indicated by the most similar feature amount as the identification result. However, as a condition for applying this method, there is a condition that the size of the image is the same during learning and during recognition.

他に、より汎用的に適用できる方法としては、学習用の画像だけでなく、入力画像に対しても、可変領域を手動で指定し可変領域を塗り潰して固定領域に変換してから特徴量を計算し、認識させるという方法がある。   In addition, as a method that can be applied more generally, not only the image for learning but also the input image, the variable region is manually specified, the variable region is filled and converted into the fixed region, and then the feature amount is set. There is a method of calculating and recognizing.

このように本発明に係るアプリケーション状態認識システムによれば、既存アプリケーションAP1,AP2,…が表示する表示画面の画像データに基づき当該アプリケーションの動作状態を認識するので、特別な機器や設定を必要とすることなく種々の動作環境下での認識処理が可能となる。また、従来技術ではアプリケーションの動作状態の違いが画像上の違いに表れることで誤認識しやすいところを、前処理段階において無視してよい状態による画像状態の違いを除去することで、より確実な認識を可能にした。これにより、ユーザによる次操作の提案やエラー状態からの回復、自律動作など様々な応用が可能になり、ユーザによるアプリケーション操作をより強力に支援できるようになる。   As described above, the application state recognition system according to the present invention recognizes the operation state of the application based on the image data of the display screen displayed by the existing applications AP1, AP2,. This makes it possible to perform recognition processing under various operating environments. In addition, in the conventional technology, the difference in the operating state of the application appears in the difference on the image, and it is more reliable by removing the difference in the image state due to the state that can be ignored in the preprocessing stage. Recognized. As a result, various applications such as a proposal of the next operation by the user, recovery from an error state, and autonomous operation are possible, and the application operation by the user can be supported more strongly.

1…ユーザ、10…コンピュータ、11…OS、15…入力デバイス、16…ディスプレイ、20…ユーザ支援アプリケーション、100…アプリケーション状態認識システム、110…画像取得部、120…前処理部、130…特徴抽出部、140…識別部、150…識別辞書。   DESCRIPTION OF SYMBOLS 1 ... User, 10 ... Computer, 11 ... OS, 15 ... Input device, 16 ... Display, 20 ... User support application, 100 ... Application state recognition system, 110 ... Image acquisition part, 120 ... Pre-processing part, 130 ... Feature extraction Part, 140 ... identification part, 150 ... identification dictionary.

Claims (5)

コンピュータ上で動作するアプリケーションの動作状態をアプリケーション状態認識装置が認識する方法において、
アプリケーション状態認識装置の画像データ取得手段が、前記アプリケーションが表示装置に出力している情報を画像データとして取得するステップと、
アプリケーション状態認識装置の前処理手段が、取得された画像データに対して該画像データの可変領域を所定の固定値又は固定パターンに置換する処理を含む前処理を行うステップと、
アプリケーション状態特徴量抽出手段が、前処理された画像データの特徴量を抽出するステップと、
アプリケーション状態の識別手段が、識別辞書として記憶手段に予め記憶されている、画像データの特徴量からアプリケーションの動作状態を識別するための学習データと、前記画像データの特徴量とに基づきアプリケーションの動作状態を識別するステップとを備えた
ことを特徴とするアプリケーション状態認識方法。
In an application state recognition apparatus for recognizing an operation state of an application operating on a computer,
Image data acquisition means of the application state recognition device acquires the information output by the application to the display device as image data;
Preprocessing means of the application state recognition device performs preprocessing including processing for replacing the variable region of the image data with a predetermined fixed value or fixed pattern for the acquired image data;
An application state feature amount extracting unit extracting a feature amount of the preprocessed image data; and
The application state identification unit stores learning data for identifying the operation state of the application from the feature amount of the image data stored in the storage unit in advance as an identification dictionary, and the operation of the application based on the feature amount of the image data. An application state recognition method comprising: a step of identifying a state.
前記識別辞書には、画像データに対して該画像データの可変領域を所定の固定値又は固定パターンに置換したものの特徴量と置換していないものの特徴量の双方について学習データを記憶しておく
ことを特徴とする請求項記載のアプリケーション状態認識方法。
In the identification dictionary, learning data is stored for both the feature amount of the image data in which the variable region of the image data is replaced with a predetermined fixed value or fixed pattern and the feature amount of the image data that is not replaced. The application state recognition method according to claim 1 .
前記置換有りの学習データには可変領域の座標情報を含み、
前記前処理ステップでは、識別辞書の学習データを参照して可変領域の座標情報を取得して該座標情報で示された領域を所定の固定値又は固定パターンに置換する
ことを特徴とする請求項記載のアプリケーション状態認識方法。
The learning data with replacement includes coordinate information of a variable region,
The preprocessing step is characterized in that the coordinate information of the variable area is obtained by referring to the learning data of the identification dictionary, and the area indicated by the coordinate information is replaced with a predetermined fixed value or fixed pattern. 2. The application state recognition method according to 2.
コンピュータ上で動作するアプリケーションの動作状態を認識するアプリケーション状態認識装置において、
前記アプリケーションが表示装置に出力している情報を画像データとして取得する画像データ取得手段と、
取得された画像データに対して該画像データの可変領域を所定の固定値又は固定パターンに置換する処理を含む前処理を行う前処理手段と、
前処理された画像データの特徴量を抽出する特徴量抽出手段と、
画像データの特徴量からアプリケーションの動作状態を識別するための学習データを識別辞書として予め記憶した記憶手段と、
抽出した特徴量に基づき前記識別辞書からアプリケーションの動作状態を識別する識別手段とを備えた
ことを特徴とするアプリケーション状態認識装置。
In an application state recognition device for recognizing an operation state of an application operating on a computer,
Image data acquisition means for acquiring information output to the display device by the application as image data;
Preprocessing means for performing preprocessing on the acquired image data, including processing for replacing a variable region of the image data with a predetermined fixed value or fixed pattern ;
Feature amount extraction means for extracting the feature amount of the preprocessed image data;
Storage means for preliminarily storing learning data for identifying the operation state of the application from the feature amount of the image data as an identification dictionary;
An application state recognition apparatus comprising: an identification unit that identifies an operation state of an application from the identification dictionary based on the extracted feature amount.
コンピュータを、請求項4記載のアプリケーション状態認識装置の各手段として機能させる
ことを特徴とするアプリケーション状態認識プログラム。
An application state recognition program for causing a computer to function as each means of the application state recognition device according to claim 4.
JP2009193015A 2009-08-24 2009-08-24 Application state recognition method, apparatus and program Active JP5084798B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009193015A JP5084798B2 (en) 2009-08-24 2009-08-24 Application state recognition method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009193015A JP5084798B2 (en) 2009-08-24 2009-08-24 Application state recognition method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2011044074A JP2011044074A (en) 2011-03-03
JP5084798B2 true JP5084798B2 (en) 2012-11-28

Family

ID=43831449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009193015A Active JP5084798B2 (en) 2009-08-24 2009-08-24 Application state recognition method, apparatus and program

Country Status (1)

Country Link
JP (1) JP5084798B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5683354B2 (en) * 2011-03-30 2015-03-11 株式会社エヌ・ティ・ティ・データ Monitoring device and monitoring method
US9684787B2 (en) * 2014-04-08 2017-06-20 Qualcomm Incorporated Method and system for inferring application states by performing behavioral analysis operations in a mobile device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171506A (en) * 2000-11-30 2002-06-14 Nri & Ncc Co Ltd Computer operation management system and operation management method
JP4731454B2 (en) * 2006-12-11 2011-07-27 株式会社日立製作所 Fault detection system and fault detection method
JP4842917B2 (en) * 2007-12-07 2011-12-21 富士通株式会社 Automatic processing program for subsequent processing, automatic processing device for subsequent processing, and automatic processing method for subsequent processing

Also Published As

Publication number Publication date
JP2011044074A (en) 2011-03-03

Similar Documents

Publication Publication Date Title
CN109961009B (en) Pedestrian detection method, system, device and storage medium based on deep learning
CN110837403B (en) Robot process automation
US10769427B1 (en) Detection and definition of virtual objects in remote screens
JP6489005B2 (en) Information processing system, information processing method, and program
WO2020029466A1 (en) Image processing method and apparatus
EP3333767A1 (en) In-field data acquisition and formatting
CN111738252B (en) Text line detection method, device and computer system in image
CN113095292A (en) Gesture recognition method and device, electronic equipment and readable storage medium
JP5354747B2 (en) Application state recognition method, apparatus and program
JP5084798B2 (en) Application state recognition method, apparatus and program
CN111949356A (en) Popup window processing method and device and electronic equipment
CN111723235A (en) Music content identification method, device and equipment
KR20220118859A (en) A image data augmentation system using data preprocessing algorithm and the method using the same
CN110110660B (en) Method, device and equipment for analyzing hand operation behaviors
CN112446850A (en) Adaptation test method and device and electronic equipment
CN111552829A (en) Method and apparatus for analyzing image material
US20170277722A1 (en) Search service providing apparatus, system, method, and computer program
CN111476090A (en) Watermark identification method and device
CN115205589B (en) Object recognition method, device, electronic equipment and storage medium
US11657489B2 (en) Segmentation of continuous dynamic scans
JP5541868B2 (en) Image search command system and operation control method thereof
CN110851349A (en) Page abnormal display detection method, terminal equipment and storage medium
JP2020115327A5 (en) Augmented reality document editing methods, programs and systems
JP5519556B2 (en) Image analysis apparatus, server, program and method for recognizing object based on reference image from analysis target images
US20160241848A1 (en) Method of Testing Graphics Displayed by a Display Device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110613

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120904

R150 Certificate of patent or registration of utility model

Ref document number: 5084798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350