JP2017102838A - Database construction system for article recognition algorism machine-learning - Google Patents
Database construction system for article recognition algorism machine-learning Download PDFInfo
- Publication number
- JP2017102838A JP2017102838A JP2015237644A JP2015237644A JP2017102838A JP 2017102838 A JP2017102838 A JP 2017102838A JP 2015237644 A JP2015237644 A JP 2015237644A JP 2015237644 A JP2015237644 A JP 2015237644A JP 2017102838 A JP2017102838 A JP 2017102838A
- Authority
- JP
- Japan
- Prior art keywords
- data
- sensor
- vehicle
- recognition
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、或るセンサの出力から機械学習を用いたアルゴリズムを通じて、例えば、物体の存在又は状態等の事象を認識又は検出する技術に係り、より詳細には、自動車等の車両の走行中に、周辺の車両、歩行者又はその他の障害物等を車載のセンサを用いて検出する場合などに利用可能な機械学習を用いた認識アルゴリズムに於ける機械学習のためのデータベースを構築するためのシステムに係る。 The present invention relates to a technique for recognizing or detecting an event such as the presence or state of an object through an algorithm using machine learning from an output of a certain sensor, and more particularly, during traveling of a vehicle such as an automobile. , A system for constructing a database for machine learning in a recognition algorithm using machine learning that can be used when detecting nearby vehicles, pedestrians or other obstacles using a vehicle-mounted sensor Concerning.
例えば、走行中の車両その他の移動体に於いて、カメラ、LIDAR(Laser Imaging Detection and Ranging)、レーダー等の車載センサを用いて先行する車両若しくは移動体又はその他の障害物等の物体の検出を行う技術が種々提案されている。これらの車載センサによる物体の検出に於いては、車両又は移動体の周囲の状態や検出対象となる物体の状態等によって、検出能に得手不得手が存在し、例えば、カメラの撮像による物体検出の場合、日中など、明るい環境下では精度良く物体の検出が達成できるが、夜間では、物体の検出精度が低下し、又、車載センサと物体との距離に依存して、物体の存在の有無、物体までの距離の精度が変化するといったことがある。一方、LIDARによる物体検出の場合、その検出精度は、周囲の明るさにはさほどに影響を受けず、また、物体までの距離、方角を高精度に検出可能であるが、雨天時には、検出精度が低下し、また、一般的には、物体の種類の認識精度については、カメラの撮像による物体検出に比してやや低下する。そこで、従前より、上記の如き、車両又は移動体に搭載されるセンサによって、その周囲の物体の存在及び/又はその状態の認識又は検出を行う場合に、種類の異なる複数のセンサを用いて、これらのセンサから得られた出力から、それぞれ、物体の認識又は検出を行う構成、或いは、これらのセンサから得られた出力を統合して、物体の認識又は検出を行う構成が種々提案されている。 For example, in a moving vehicle or other moving body, detection of an object such as a preceding vehicle or moving body or other obstacles using an in-vehicle sensor such as a camera, LIDAR (Laser Imaging Detection and Ranging), radar, etc. Various techniques have been proposed. In the detection of objects by these in-vehicle sensors, there are weaknesses in detection performance depending on the surrounding state of the vehicle or moving body, the state of the object to be detected, etc., for example, object detection by imaging with a camera In this case, the detection of an object can be achieved with high accuracy in a bright environment such as during the day, but the detection accuracy of the object decreases at night, and the presence of the object depends on the distance between the vehicle-mounted sensor and the object. Presence / absence and accuracy of distance to the object may change. On the other hand, in the case of object detection by LIDAR, the detection accuracy is not significantly affected by the brightness of the surroundings, and the distance and direction to the object can be detected with high accuracy. In general, the recognition accuracy of the type of object is slightly lower than that of object detection by imaging with a camera. Therefore, from the past, when performing the recognition or detection of the presence of the surrounding object and / or its state by the sensor mounted on the vehicle or the moving body as described above, using a plurality of different types of sensors, Various configurations for recognizing or detecting an object from outputs obtained from these sensors, or configurations for recognizing or detecting an object by integrating outputs obtained from these sensors, have been proposed. .
例えば、特許文献1に於いては、LIDARにて得られる自車両の前方の他車両の位置情報を表すLIDAR点列を、カメラにより得られた画像にて特定された車両の前方の他車両の端部に重畳して、他車両の端部の位置を特定することが開示されている。また、特許文献2では、走行中の車両前方の物体を認識装置に於いて、2台の電子式カメラ1、2で撮像した画像のステレオ画像処理とレーザレンジファインダとのそれぞれにより、車両前方の平面領域に於いて、物体の存在する位置を検出して、それらの検出結果に於ける物体の存在の検出の頻度を、それぞれに重み付けをして合算し、合算値が閾値以上の位置に物体が存在すると判定する構成が提案されている。この場合、重み付けの割合を学習によって調節することが記載されている。特許文献3では、走行中の車両前方の物体の認識に於いて、レーザレーダにより特定された各反射点の位置に基づき、略等距離の位置に略車両幅の範囲内に存在する反射点群を車両候補点群とし、この車両候補点群をカメラの座標系に座標変換してカメラにより抽出される矩形領域と照合し、座標変換後の車両候補点群が矩形領域とほぼ一致すれば、その車両候補点群を前方車両と判断する構成が記載されている。特許文献4に於いては、車両前方の画像データから抽出される特徴量ベクトルを1次元の状態に変換した状態量からリスク情報を参照してリスクの程度を検出する装置に於いて、リスクの程度を決定するリスク情報がドライバの操作情報から抽出される情報を教師情報として、特徴量ベクトルの1次元に変換された状態量と教師情報との相関関係を用いて、リスク情報の学習を行うことが提案されている。特許文献5では、車両の走行中に路面に照射されたレーザ光の反射強度(反射光データ)から路面状態を判定する装置に於いて、かかる判定のために用いられる反射光データが、既知の路面上に於ける車両の走行中に得られた反射光データを用いた学習によって生成される構成が開示されている。そして、特許文献6に於いては、走行中の車両前方の物体の認識に於いて、実走行時の撮像画像中の注視領域について、カメラ画像に於けるエッジヒストグラムとレーザレーダに於ける受光強度ヒストグラムとから、車両候補領域についてのX,Y方向ベクトル及びレーザベクトルが作成、融合されてフュージョンベクトルが生成され、ベクトル空間に於いて、かかるフュージョンベクトルと予め準備された辞書フュージョンベクトルとの距離が小さいときに、車両候補領域が車両であると予測するといった構成が開示されている。 For example, in Patent Document 1, the LIDAR point sequence representing the position information of the other vehicle in front of the host vehicle obtained by LIDAR is used as the position of the other vehicle in front of the vehicle specified by the image obtained by the camera. It is disclosed that the position of the end portion of another vehicle is specified by being superimposed on the end portion. Further, in Patent Document 2, an object in front of a running vehicle is recognized by a recognition device using stereo image processing of images taken by two electronic cameras 1 and 2 and a laser range finder, respectively. In the plane area, the position where the object exists is detected, and the frequency of detection of the presence of the object in the detection result is weighted and added together. The structure which determines with exists is proposed. In this case, it is described that the weighting ratio is adjusted by learning. In Patent Document 3, in recognition of an object in front of a traveling vehicle, a group of reflection points that are present at approximately equidistant positions within a range of approximately vehicle widths based on the position of each reflection point specified by a laser radar. Is a vehicle candidate point cloud, and this vehicle candidate point cloud is coordinate-converted to the camera coordinate system and collated with a rectangular area extracted by the camera. If the vehicle candidate point cloud after the coordinate conversion substantially matches the rectangular area, A configuration is described in which the vehicle candidate point group is determined to be a forward vehicle. In Patent Document 4, in a device that detects the degree of risk by referring to risk information from a state quantity obtained by converting a feature vector extracted from image data ahead of the vehicle into a one-dimensional state, The risk information is learned by using the correlation between the state quantity converted to one dimension of the feature quantity vector and the teacher information, with the risk information for determining the degree extracted from the operation information of the driver as the teacher information. It has been proposed. In Patent Document 5, in an apparatus for determining a road surface state from the reflection intensity (reflected light data) of laser light irradiated on a road surface while a vehicle is traveling, reflected light data used for such determination is known. A configuration is disclosed that is generated by learning using reflected light data obtained while a vehicle is traveling on a road surface. And in patent document 6, in recognition of the object ahead of the vehicle in driving | running | working, about the gaze area | region in the captured image at the time of actual driving | running | working, the edge histogram in a camera image, and the light reception intensity in a laser radar From the histogram, X and Y direction vectors and laser vectors for the vehicle candidate region are created and fused to generate a fusion vector. In the vector space, the distance between the fusion vector and the prepared dictionary fusion vector is A configuration is disclosed that predicts that the vehicle candidate region is a vehicle when the vehicle is small.
ところで、上記の走行中の車両の前方の先行車や障害物等の物体を、カメラ、LIDAR、レーダー等を用いて検出する場合のように、或る検出又は認識対象物を複数の種類のセンサを用いて検出又は認識する形式の物体の検出又は認識に於いては、既に触れた如く、センサの種類によって、精度良く検出できる対象或いは環境に違いがあることから、検出能に得手不得手があり、従って、或る検出対象に対して、或いは、或る検出環境に於いて、一方のセンサでは、精度良く物体の存在及び/又は種類の認識が可能であるが、他方のセンサでは、単独では、精度の良い認識が困難である場合や、そもそも、適切な信号処理、例えば、物体の種類の認識のための処理など、が確立していない場合もある。また、センサの種類によっては、使用中に、精度の良い認識を実行するための処理条件が変化することもある。そのような場合、即ち、或るセンサの出力から、物体の存在、種類の認識及び/又は運動状態の推定(以下、「物体の認識」と称する。)のための適切な信号処理方法、条件又は手順が未知、不確定、変動的である場合に、かかるセンサの出力について適切な信号処理方法、条件又は手順を調節する方法として、機械学習の手法により、そのセンサの出力と、それとは別の、精度良く物体の認識の可能な状態にあるセンサの出力を用いた検出結果とを照合して、前者のセンサの出力からできるだけ精度の良い物体の認識が達成されるように、信号処理方法、条件又は手順を構成又は調節するといったことが考えられる。即ち、第一のセンサの検出結果を教師データとして、第二のセンサの出力から検出結果を得るための信号処理方法、条件又は手順を機械学習によって構成又は調節するといった構成によれば、第二のセンサによる検出結果の精度の向上が期待される。その際、一般的には、教師データの精度が高く、かつ、データベースが大量・多様であるほど、即ち、様々な距離、向き、種類の車両等のデータが多く含まれているほど、機械学習の結果として得られる第二のセンサによる検出結果の精度が向上することが知られている。 By the way, as in the case where an object such as a preceding vehicle or an obstacle in front of the traveling vehicle is detected using a camera, a LIDAR, a radar, or the like, a certain detection or recognition target is detected by a plurality of types of sensors. In detecting or recognizing objects in the form of detecting or recognizing using a sensor, as already mentioned, there are differences in the object or environment that can be detected accurately depending on the type of sensor. Therefore, with respect to a certain detection target or in a certain detection environment, one sensor can accurately recognize the presence and / or type of an object, but the other sensor alone However, there are cases where accurate recognition is difficult, or proper signal processing, for example, processing for recognition of an object type, has not been established in the first place. In addition, depending on the type of sensor, processing conditions for performing accurate recognition may change during use. In such a case, that is, an appropriate signal processing method and conditions for the presence of an object, recognition of the type and / or estimation of a motion state (hereinafter referred to as “object recognition”) from the output of a certain sensor. Alternatively, if the procedure is unknown, uncertain, or variable, the appropriate signal processing method, condition, or procedure for the output of such a sensor can be adjusted by machine learning techniques to separate it from the sensor output. The signal processing method is performed so that the object can be recognized as accurately as possible from the output of the former sensor by collating with the detection result using the output of the sensor in a state where the object can be recognized with high accuracy. It is conceivable to configure or adjust conditions or procedures. That is, according to the configuration in which the detection result of the first sensor is used as teacher data and the signal processing method, condition, or procedure for obtaining the detection result from the output of the second sensor is configured or adjusted by machine learning, the second It is expected that the accuracy of detection results by these sensors will be improved. At that time, in general, the higher the accuracy of the teacher data and the larger and more diverse the database, that is, the more data such as vehicles of various distances, orientations and types, the more machine learning is performed. It is known that the accuracy of the detection result obtained by the second sensor obtained as a result of this is improved.
この点に関し、所謂「機械学習」を用いた或るセンサの信号処理方法、条件又は手順の構成又は調節、即ち、機械学習を用いた認識アルゴリズムの構築、に於いては、大量の教師あり学習データ、即ち、機械学習に於いて教師データとなる第一のセンサの検出結果と、入力データとなる第二のセンサの出力及び/又は検出結果とを照合させたデータが必要となる。かかる照合データに関して、従前では、人が手動で第一のセンサの検出結果と第二のセンサの出力及び/又は検出結果とにタグ付けをするなどの処理によって、教師データ又は学習データを作成していた。しかし、手動で、大量の教師あり学習データを低コストに作ることは困難であり、また、データの種類によっては、手動で教師データを作成すること自体が困難な場合がある。例えば、車両前方を撮影した画像に於いて、先行車の像にバウンディングボックス(画像内に設定する枠)を与える場合、その像が良好であれば、手動でバウンディングボックスを付与することも容易であるが、逆光状態や夜間に撮影された画像に於いて、先行車の像に正確にバウンディングボックスを与えることは難しく、また、LIDARで取得されたポイントクラウドやミリ波レーダーの強度マップなどのように形状が複雑であったり、境界があいまいなデータのための教師データを手動で作成することも容易ではない。更に、車両の速度など、画像や動画から直接観測できない情報に対して教師データを手動で与えることも困難である。従って、機械学習を用いた認識アルゴリズムの構築のための大量の教師あり学習データを調製するためには、かかる学習データを人の手動によらず、自動的に収集できるようになっていることが好ましい。 In this regard, a large amount of supervised learning in the signal processing method of a sensor using so-called “machine learning”, the construction or adjustment of conditions or procedures, ie the construction of a recognition algorithm using machine learning. Data, that is, data obtained by collating the detection result of the first sensor serving as teacher data with the output and / or detection result of the second sensor serving as input data in machine learning is required. With respect to such collation data, conventionally, teacher data or learning data is created by a process in which a person manually tags the detection result of the first sensor and the output and / or detection result of the second sensor. It was. However, it is difficult to manually create a large amount of supervised learning data at a low cost, and it may be difficult to manually create teacher data depending on the type of data. For example, in an image taken in front of the vehicle, if a bounding box (frame set in the image) is given to the image of the preceding vehicle, it is easy to manually attach the bounding box if the image is good. However, it is difficult to accurately give a bounding box to the image of the preceding vehicle in backlit or night-time images. Also, such as point cloud acquired by LIDAR and millimeter wave radar intensity map It is not easy to manually create teacher data for data having a complicated shape or ambiguous boundaries. Furthermore, it is difficult to manually provide teacher data for information such as vehicle speed that cannot be observed directly from images and moving images. Therefore, in order to prepare a large amount of supervised learning data for constructing a recognition algorithm using machine learning, it is possible to automatically collect such learning data regardless of a human manual operation. preferable.
かくして、本発明の一つの課題は、複数の種類のセンサを用いて車両の周辺の他車両、歩行者、障害物等の物体の認識を実行する技術であって、或るセンサの検出結果を教師データとして用いた、別のセンサの出力から物体の認識を実行するための機械学習のための、教師あり学習データを自動的に収集して、教師あり学習データのデータベースを構築するシステムを提供することである。 Thus, one object of the present invention is a technique for recognizing objects such as other vehicles, pedestrians, and obstacles around a vehicle using a plurality of types of sensors, and the detection result of a certain sensor is obtained. Provide a system for automatically collecting supervised learning data and constructing a supervised learning data database for machine learning to perform object recognition from the output of another sensor used as supervised data It is to be.
上記の課題は、センサの出力に基づいて車両の周囲領域の物体の認識を実行するアルゴリズムの構成又は調節のための機械学習に用いる教師あり学習データを蓄積するデータベースを構築するシステムであって、
逐次的に車両の周囲領域の状態を検出する第一のセンサと、
第一のセンサの逐次的に得られた出力データに基づいて車両の周囲領域の物体の認識を逐次的に行う第一の物体認識手段と、
逐次的に車両の周囲領域の状態を検出する第二のセンサと、
第一の物体認識手段による物体の認識結果データの信頼度が所定の度合以上のときに、第二のセンサの逐次的に得られた出力データを機械学習に於ける入力データとして用い、第一の物体認識手段により逐次的に認識された物体の認識結果データを機械学習に於ける教師データとして用いて、教師データと該教師データに対応する入力データの対応付けを行うデータ対応付け手段と、
対応付けされた入力データと教師データとの組を機械学習のための教師あり学習データとして格納する学習データ格納手段と
を含むシステムによって達成される。
The above problem is a system for constructing a database for storing supervised learning data used for machine learning for configuration or adjustment of an algorithm for performing recognition of an object in a surrounding area of a vehicle based on an output of a sensor,
A first sensor for sequentially detecting the state of the surrounding area of the vehicle;
First object recognition means for sequentially recognizing objects in the surrounding area of the vehicle based on output data obtained sequentially by the first sensor;
A second sensor for sequentially detecting the state of the surrounding area of the vehicle;
When the reliability of the recognition result data of the object by the first object recognition means is equal to or higher than a predetermined degree, the output data obtained sequentially from the second sensor is used as input data in machine learning. Data association means for associating teacher data with input data corresponding to the teacher data, using the recognition result data of the objects sequentially recognized by the object recognition means as teacher data in machine learning;
This is achieved by a system including learning data storage means for storing a set of associated input data and teacher data as supervised learning data for machine learning.
上記の構成に於いて、「センサ」は、任意のセンサであってよいところ、典型的には、車両の周囲領域の状態を画像として検出するカメラ、LIDAR、ミリ波レーダー等の車両の周囲領域の状態の検出に通常使用されるものであってよい。「物体の認識を実行するアルゴリズムの構成又は調節」とは、ここに於いては、既に述べた如く、或るセンサの出力に基づいて、物体の認識を実行するための適切な信号処理方法、条件又は手順を構成し、或いは、既に構成されたアルゴリズムに於ける種々の条件を調節することである。機械学習の分野に於いてよく知られている如く、機械学習を用いて物体認識のアルゴリズムを構築又は開発する場合には、或るセンサの出力(入力データ)に対して正解である認識結果(教師データ)を対応させたデータ群を参照して、そのセンサの任意の出力が与えられたときに正解の認識結果を与えるように、演算処理や判定処理の構成及び/又はそれらに於いて使用される種々のパラメータ等の決定が為される。「アルゴリズムの構成又は調節」とは、そういった演算処理や判定処理の構成及び/又は種々のパラメータ等の決定のことを意味している。なお、本発明に於いては、「物体の認識」という場合には、上記の如く、物体の存在の検出及び/又は物体の種類の識別(静止しているか否か、検出された物体が、車両、人、動物又はその他の障害物のいずれであるかなどの識別)及び/又は物体の運動状態(位置、姿勢(向き)、速度など)の推定を意味するものとする。また、上記に於いて、第一のセンサと第二のセンサとは、典型的には、それぞれ、別々の種類又は別々の仕様(計測位置、計測角度範囲、感度が異なる場合など)のセンサ、例えば、カメラと、LIDARとの組み合わせなどであるが、いくつかの実施の態様に於いて、同一の種類のセンサであってもよい。「第一の物体認識手段」は、「第一のセンサ」の種類に応じて、この分野に於いて公知の任意の手法によって第一のセンサの出力に基づいて、物体の認識の結果を与える手段であってよい。 In the above configuration, the “sensor” may be an arbitrary sensor. Typically, the surrounding area of the vehicle such as a camera, a LIDAR, or a millimeter wave radar that detects the state of the surrounding area of the vehicle as an image. It may be one normally used for detecting the state of The “configuration or adjustment of an algorithm for performing object recognition” as used herein means an appropriate signal processing method for performing object recognition based on the output of a certain sensor, as already described. Configure conditions or procedures, or adjust various conditions in an already configured algorithm. As is well known in the field of machine learning, when an object recognition algorithm is constructed or developed using machine learning, a recognition result (corrected) for an output (input data) of a certain sensor ( Configuration and / or use of arithmetic processing and judgment processing so that a correct recognition result is given when an arbitrary output of the sensor is given with reference to a data group corresponding to (teacher data) Various parameters are determined. The “algorithm configuration or adjustment” means such a configuration of arithmetic processing and determination processing and / or determination of various parameters. In the present invention, in the case of “recognition of an object”, as described above, detection of the presence of an object and / or identification of the type of the object (whether the object is stationary or not, It shall mean the identification of whether it is a vehicle, person, animal or other obstacle) and / or estimation of the motion state (position, posture (orientation), speed, etc.) of the object. In the above, the first sensor and the second sensor are typically sensors of different types or different specifications (measurement position, measurement angle range, sensitivity is different, etc.), For example, a combination of a camera and LIDAR may be used, but in some embodiments, the same type of sensor may be used. The “first object recognition means” gives the result of object recognition based on the output of the first sensor by any method known in this field depending on the type of the “first sensor”. It may be a means.
上記の構成に於いては、端的に述べれば、上記の如く、少なくとも二つのセンサ、即ち、第一のセンサと第二のセンサが準備され、それぞれが、それぞれの態様に従って、逐次的に車両の周囲領域の状態の検出を実行させられる。ここに於いて、第一のセンサとしては、上記の如く、その出力に基づいて物体の認識を実行するアルゴリズムが確定されているものが選択され、第二のセンサとしては、機械学習により、その出力に基づいて物体の認識を実行するアルゴリズムが構成又は調節されるべきものが選択される。そして、第一のセンサの出力に基づいて逐次的に得られた物体の認識結果データ(物体が存在している場合も存在していない場合も含まれていてよい。)が機械学習に於ける教師データとして選択され、第二のセンサの出力が機械学習に於ける入力データとして選択され、これらのデータの対応付けが為され、教師あり学習データとしてデータベースに格納されることとなる。 In the above configuration, in short, at least two sensors, that is, a first sensor and a second sensor, are prepared as described above, and each of them is sequentially configured according to the respective mode. Detection of the state of the surrounding area is executed. In this case, as the first sensor, as described above, a sensor for which an algorithm for performing object recognition is determined based on the output is selected, and the second sensor is selected by machine learning. The algorithm that performs object recognition based on the output is selected to be configured or adjusted. Then, object recognition result data (which may or may not be present) obtained sequentially based on the output of the first sensor may be included in machine learning. It is selected as teacher data, the output of the second sensor is selected as input data in machine learning, these data are associated, and stored in the database as supervised learning data.
かかる第一のセンサの物体の認識結果データと第二のセンサの出力との対応付けと教師あり学習データの格納とは、コンピュータの処理によって自動的に実行される。これらの処理は、一つの態様に於いては、例えば、第一のセンサの出力データ、第一のセンサの物体の認識結果データ及び第二のセンサの出力データを任意のデータ記憶装置に蓄積しておき、後で(オフライン処理で)、車両の走行ログデータを参照しながら、第一のセンサの物体の認識結果データと第二のセンサの出力との対応付けと教師あり学習データの格納とが実行されてもよい。データ記憶装置は、自車に搭載されたものであってもよく、或いは、データがネットワーク通信を介して外部の施設に設けられたデータ記憶装置へ送信され、蓄積されるようになっていてもよい。また、別の態様として、車両の走行中などに、逐次的に実行されてよい。なお、上記の構成にあるように、第一のセンサによる物体の認識結果データと第二のセンサの出力との対応付けとは、第一のセンサによる物体の認識結果データの信頼度が所定度合以上であるときに、即ち、第一のセンサによる物体の認識結果データが教師データとして利用可能な状態のときにのみ実行される。 The correspondence between the recognition result data of the object of the first sensor and the output of the second sensor and the storage of the supervised learning data are automatically executed by a computer process. In one embodiment, for example, the output data of the first sensor, the recognition result data of the object of the first sensor, and the output data of the second sensor are stored in an arbitrary data storage device. In addition, later (by offline processing), referring to the traveling log data of the vehicle, the correspondence between the recognition result data of the object of the first sensor and the output of the second sensor, and storage of supervised learning data, May be executed. The data storage device may be mounted on the host vehicle, or the data may be transmitted to and stored in a data storage device provided in an external facility via network communication. Good. Moreover, as another aspect, you may perform sequentially, during driving | running | working of a vehicle. As described above, the correspondence between the recognition result data of the object by the first sensor and the output of the second sensor indicates that the reliability of the recognition result data of the object by the first sensor is a predetermined degree. Only when the above is true, that is, when the recognition result data of the object by the first sensor is available as teacher data.
上記の本発明の構成に於いては、更に、第二のセンサの出力データに基づいて得られる物体認識結果が教師データとして用いられる構成が含まれていてよい。即ち、第二のセンサによる物体認識アルゴリズムが構成される前は、第一のセンサの出力データに基づく物体認識結果が教師データとして用いられ、第二のセンサによる物体認識アルゴリズムが構成された後には、第一のセンサの出力に基づく物体認識データと第二のセンサの出力に基づく物体認識データとを統合したものを教師データとして、これと、現に得られている第二のセンサの出力との対応付けを行うようになっていてもよい。この場合、第二のセンサの出力に基づく物体認識アルゴリズムについて、学習データのループが形成され、更なる精度の向上が期待される。 The above-described configuration of the present invention may further include a configuration in which an object recognition result obtained based on the output data of the second sensor is used as teacher data. That is, before the object recognition algorithm by the second sensor is configured, the object recognition result based on the output data of the first sensor is used as teacher data, and after the object recognition algorithm by the second sensor is configured, , Which is obtained by integrating the object recognition data based on the output of the first sensor and the object recognition data based on the output of the second sensor as teacher data, and the output of the second sensor actually obtained The association may be performed. In this case, a learning data loop is formed for the object recognition algorithm based on the output of the second sensor, and further improvement in accuracy is expected.
かくして、上記の本発明の装置は、更に、第二のセンサの逐次的に得られた出力データに基づいて車両の周囲領域の物体の認識を逐次的に行う第二の物体認識手段を含み、データ対応付け手段が更に第二の物体認識手段により逐次的に認識された物体の認識結果データも機械学習に於ける教師データとして用いるよう構成されていてよい。かかる構成によれば、ループの繰り返し処理によって物体認識精度が向上できることとなり、データ量の不足を補う効果も得られることとなる。なお、第二のセンサの出力データに基づいて得られた物体の認識結果データを教師データとして使用して学習データのループを形成する構成に於いて、かかる物体の認識結果データは、それを各種の制御に使用するときよりも高い信頼度を有していることが好ましい。従って、第二のセンサの出力データに基づいて得られた物体の認識結果データは、その信頼度が各種の制御に使用するときに満たすべき度合よりも高い所定度合以上であるときに、教師データとして用いられるようになっていてよい。 Thus, the above-described apparatus of the present invention further includes second object recognition means for sequentially recognizing objects in the surrounding area of the vehicle based on the output data sequentially obtained by the second sensor, The data association means may further be configured to use the recognition result data of the objects sequentially recognized by the second object recognition means as teacher data in machine learning. According to such a configuration, the object recognition accuracy can be improved by the loop repetitive processing, and the effect of compensating for the shortage of the data amount can be obtained. In the configuration in which the recognition result data of the object obtained based on the output data of the second sensor is used as teacher data to form a learning data loop, the recognition result data of the object It is preferable to have a higher degree of reliability than when used for the control. Accordingly, the recognition result data of the object obtained based on the output data of the second sensor is the teacher data when the reliability is equal to or higher than a predetermined degree higher than the degree to be satisfied when used for various controls. May be used.
更に、別の態様に於いては、少なくとも二つのセンサが使用される場合に、それぞれの物体の認識結果データの信頼度に応じて、その都度、少なくとも二つのセンサのうちの物体の認識結果データの信頼度の高い方を第一のセンサとして選択し(ただし、信頼度が所定度合以上であるとき)、他方を第二のセンサとして選択するようになっていてもよい。また、第一のセンサとして、複数のセンサを用い、第一の物体認識手段は、複数のセンサの出力を統合して(センサフュージョン)物体の認識結果を与えるよう構成されていてもよく、そのような場合も、本発明の範囲に属することは理解されるべきである。 Furthermore, in another aspect, when at least two sensors are used, the recognition result data of the object of at least two sensors is used each time depending on the reliability of the recognition result data of each object. May be selected as the first sensor (provided that the reliability is equal to or higher than a predetermined level), and the other is selected as the second sensor. Further, a plurality of sensors may be used as the first sensor, and the first object recognition means may be configured to integrate the outputs of the plurality of sensors (sensor fusion) to give an object recognition result. It should be understood that such cases are also within the scope of the present invention.
かくして、上記の本発明によれば、複数の種類のセンサを用いて自車の周辺の車両、歩行者、障害物等の物体の認識を実行する技術に於いて、或るセンサの検出結果を教師データとして用いた別のセンサの出力から物体の認識を実行するための機械学習のための、教師あり学習データを自動的に調製し収集して、教師あり学習データのデータベースを構築するシステムを提供することが可能となる。かかる構成によれば、使用者の労力、システムの構築に要するコストが大幅に低減され、或いは、人的に構築が非常に困難な場合でも、教師あり学習データのデータベースの構築が可能となる利点が得られる。また、第二のセンサによる物体認識アルゴリズムを学習データの調製に利用することで、学習データ蓄積と機械学習による物体認識アルゴリズム構成のループを形成する構成が設けられている場合には、物体認識アルゴリズムの精度が向上し、これにより、得られるデータベースの精度、多様性、量が向上することとなり、更なる物体認識アルゴリズムの精度の向上が期待される。即ち、学習データ蓄積と機械学習による物体認識アルゴリズム構成のループ処理を繰り返せば、繰り返すほど、より精度が高く多様な教師あり学習データのデータベースを、より大量に若しくは効率的に構築することが可能となる。 Thus, according to the present invention described above, in a technique for recognizing an object such as a vehicle, a pedestrian, or an obstacle around the host vehicle using a plurality of types of sensors, the detection result of a certain sensor is obtained. A system for constructing a database of supervised learning data by automatically preparing and collecting supervised learning data for machine learning to execute object recognition from the output of another sensor used as supervised data It becomes possible to provide. According to such a configuration, it is possible to greatly reduce the user's labor and the cost required for system construction, or to construct a database of supervised learning data even when it is very difficult to construct manually. Is obtained. In addition, by using the object recognition algorithm by the second sensor for the preparation of learning data, if there is a configuration that forms a loop of object recognition algorithm configuration by learning data accumulation and machine learning, the object recognition algorithm As a result, the accuracy, diversity, and quantity of the resulting database are improved, and further improvement in the accuracy of the object recognition algorithm is expected. In other words, if the loop processing of object recognition algorithm configuration by learning data accumulation and machine learning is repeated, it becomes possible to construct a larger amount or more efficiently a database of supervised learning data with higher accuracy and variety. Become.
本発明のその他の目的及び利点は、以下の本発明の好ましい実施形態の説明により明らかになるであろう。 Other objects and advantages of the present invention will become apparent from the following description of preferred embodiments of the present invention.
SC…カメラ画像出力
SL…LIDAR点群出力
SR…ミリ波レーダー出力
Rr、Rr1、Rr2…認識結果
SC ... Camera image output SL ... LIDAR point cloud output SR ... Millimeter wave radar output Rr, Rr1, Rr2 ... Recognition results
以下に添付の図を参照しつつ、本発明を幾つかの好ましい実施形態について詳細に説明する。図中、同一の符号は、同一の部位を示す。 The present invention will now be described in detail with reference to a few preferred embodiments with reference to the accompanying drawings. In the figure, the same reference numerals indicate the same parts.
システムの基本的な構成と作動
本発明による物体認識アルゴリズムの機械学習のための学習データ収集を実行するデータベース構築システムに於いては、「発明の概要」の欄で述べた如く、端的に述べれば、第一のセンサの出力に基づいて逐次的に得られた物体の認識結果を教師データとして、そして、第二のセンサの逐次的な出力を入力データとして、それぞれ用いて、第二のセンサの出力に基づいて物体を認識するためのアルゴリズムを構成又は調節する機械学習に利用される「教師あり学習データ」の調製、収集及び蓄積が逐次的に実行される。ここに於いて、機械学習に利用される「教師あり学習データ」とは、第二のセンサの出力と、これに対応付けられた第一のセンサの認識結果との組となる。従って、データベース構築システムは、基本的な構成として、第一のセンサと、第一のセンサの出力に基づいて逐次的に物体を認識する認識手段と、第二のセンサと、認識手段による逐次的に得られた認識結果と逐次的に得られた第二のセンサの出力との対応付けを行う対応付け手段と、対応付けられた第二のセンサの出力と第一のセンサの認識結果との組を「教師あり学習データ」として格納するデータ格納手段とから構成される。第一のセンサに基づいて逐次的に物体を認識する認識手段と、対応付け手段と、データ格納手段とは、コンピュータシステム、即ち、通常の形式の、双方向コモン・バスにより相互に連結されたCPU、ROM、RAM及び入出力ポート装置を有するマイクロコンピュータ及び駆動回路を含むシステムにより実現され、上記の各手段の作動は、かかるシステムに於けるコンピュータプログラムの実行によって、自動的に達成される。
Basic Configuration and Operation of the System In the database construction system that executes learning data collection for machine learning of the object recognition algorithm according to the present invention, as described in the “Summary of Invention” section, The recognition result of the object obtained sequentially based on the output of the first sensor is used as teacher data, and the sequential output of the second sensor is used as input data. Preparation, collection and storage of “supervised learning data” used for machine learning to construct or adjust an algorithm for recognizing an object based on the output are sequentially performed. Here, “supervised learning data” used for machine learning is a set of the output of the second sensor and the recognition result of the first sensor associated therewith. Therefore, the database construction system has, as a basic configuration, a first sensor, a recognition unit for sequentially recognizing an object based on the output of the first sensor, a second sensor, and a sequential by the recognition unit. An association means for associating the obtained recognition results with the output of the second sensor sequentially obtained, the output of the associated second sensor and the recognition result of the first sensor Data storage means for storing the set as “supervised learning data”. The recognition means for sequentially recognizing the object based on the first sensor, the association means, and the data storage means are connected to each other by a computer system, that is, a normal type bidirectional bidirectional bus. It is realized by a system including a microcomputer having a CPU, a ROM, a RAM, and an input / output port device and a driving circuit, and the operation of each means described above is automatically achieved by execution of a computer program in the system.
上記の如き、本発明によるデータベース構築システムの、最も基本的な実施形態の一つは、図1(A)に例示されている如き、車両の周辺領域の物体の認識のためのシステムのためのデータベースの構築に利用される。同図を参照して、かかるデータベース構築システムに於いては、まず、「第一のセンサ」として、車載カメラが採用され、「第二のセンサ」として、車載のLIDARが採用される。カメラとLIDARとは、それぞれ、車両の周辺領域(特に、前方領域)に於ける物体の認識を行うためにこの分野で使用されている任意の、或いは、公知の形式のものであってよい。また、図示の実施形態の場合には、第一のセンサである車載カメラの画像出力SCは、物体認識部へ逐次的に与えられ、そこに於いて、カメラにより撮影された画像に於ける物体の像の存在及び/又は種類、例えば、(先行する)車両、歩行者、動物、路側帯の固定物、路上の障害物等の識別が、この分野で使用されている任意の、或いは、公知の形式にて実行され、認識結果Rrが逐次的に出力される。そして、カメラ画像に基づいて得られた認識結果Rrと、かかるカメラ画像と略同時期に或いは同一の領域についてLIDARの出力データである点群データSLとが対応付け部へ逐次的に与えられ、対応付け部に於いて、認識結果Rrと、これに対応する点群データSLとを、前者を教師データとして、後者を入力データとして、対応付けする処理が実行されて、学習データが逐次的に調製され、調製された学習データが逐次的にデータベース、即ち、データ格納手段へ格納される。なお、図1(A)に例示の構成に於いて、カメラとLIDARとは、車両に搭載されるが、物体認識部、対応付け部、データベースは、車両に搭載されてもよく、或いは、外部の任意の施設に設置されていてよい。物体認識部、対応付け部、データベースが外部施設に設置される場合には、カメラとLIDARの出力及び/又は物体認識部の認識結果は、任意の形式の無線通信手段、ネットワーク等を通じて、外部施設へ送信されるようになっていてよい。 As described above, one of the most basic embodiments of the database construction system according to the present invention is for a system for recognizing an object in a surrounding area of a vehicle as illustrated in FIG. Used for database construction. Referring to the figure, in this database construction system, first, an in-vehicle camera is adopted as the “first sensor”, and an in-vehicle LIDAR is adopted as the “second sensor”. Each of the camera and the LIDAR may be of any or well-known type used in this field for recognizing an object in the surrounding area (particularly the front area) of the vehicle. In the case of the illustrated embodiment, the image output SC of the in-vehicle camera that is the first sensor is sequentially given to the object recognition unit, in which the object in the image taken by the camera The presence and / or type of images of, eg, (preceding) vehicles, pedestrians, animals, roadside belt fixtures, roadside obstacles, etc., are any or known The recognition result Rr is sequentially output. Then, the recognition result Rr obtained based on the camera image and the point cloud data SL, which is the output data of LIDAR, about the same region as the camera image or the same region are sequentially given to the association unit, In the associating unit, a process of associating the recognition result Rr and the corresponding point cloud data SL with the former as teacher data and the latter as input data is executed, and the learning data is sequentially obtained. The prepared learning data is sequentially stored in a database, that is, data storage means. In the configuration illustrated in FIG. 1A, the camera and the LIDAR are mounted on the vehicle, but the object recognition unit, the association unit, and the database may be mounted on the vehicle, or It may be installed in any facility. When the object recognizing unit, the associating unit, and the database are installed in an external facility, the output of the camera and LIDAR and / or the recognition result of the object recognizing unit is transmitted to the external facility through any form of wireless communication means, network, etc. May be sent to.
対応付け処理の例
上記の対応付け部に於ける学習データの調製、即ち、第二のセンサの出力と第一のセンサの認識結果との対応付け処理は、第一のセンサの認識結果と第二のセンサの出力とのそれぞれの表現形式又は態様に応じて、種々の、任意の方法、例えば、上記の一連の特許文献に記載されている処理手順又はその他の任意の手順により達成可能である。例えば、図1(A)の如く、第一のセンサの認識結果として、カメラ画像に基づく認識結果Rrを採用し、第二のセンサの出力として、LIDARの点群データSLを採用した場合の対応付け処理は、図1(B)に例示されている処理によって達成されてよい。具体的には、同図を参照して、対応付け部に於いて、まず、カメラ画像に基づく認識結果Rrの取得(ステップ10)と、LIDARの点群データの取得(ステップ12)とが実行される。ここに於いて、カメラ画像に基づく認識結果Rrの表現形式は、例えば、画像内に於いて、車両の像又はその他の物体の像の範囲が、その像の物体の種類を特定した状態で画定されたものであってよく、像の範囲は、画像内の座標又は画像に撮像されている空間に於ける座標で表されていてよい。また、LIDARの点群データは、検出点(光の反射点)の各々の空間に於ける位置座標で表されていてよい。かくして、それぞれのデータの取得が為されると、LIDARの点群データを、LIDARの点群データの処理として一般的な態様にて、空間内の位置によって、グループ分けして部分点群に分割される(ステップ14)。ここに於いて、分割パターンは、任意に予め定められたものであってよく、例えば、等立体角分割による分割方法や、各点について、その点と最近傍点との距離が閾値未満のものを同一グループとし、閾値以上のものを別グループとするという処理による分割方法などが採用されてよい。
Example of association processing Preparation of learning data in the above-described association unit, that is, association processing between the output of the second sensor and the recognition result of the first sensor, Depending on the expression form or aspect of each of the outputs of the two sensors, it can be achieved by various arbitrary methods, for example, the processing procedures described in the above series of patent documents or any other arbitrary procedures. . For example, as shown in FIG. 1A, the case where the recognition result Rr based on the camera image is adopted as the recognition result of the first sensor and the LIDAR point cloud data SL is adopted as the output of the second sensor. The attaching process may be achieved by the process illustrated in FIG. Specifically, referring to the figure, in the associating unit, first, recognition result Rr based on camera image (step 10) and LIDAR point cloud data acquisition (step 12) are executed. Is done. Here, the expression format of the recognition result Rr based on the camera image is defined, for example, in a state in which the range of the image of the vehicle or the other object in the image specifies the type of the object of the image. The range of the image may be represented by coordinates in the image or coordinates in the space captured by the image. Further, the LIDAR point cloud data may be represented by position coordinates in each space of detection points (light reflection points). Thus, when each data is acquired, the LIDAR point cloud data is divided into partial point clouds by grouping according to the position in the space in a general manner as processing of the LIDAR point cloud data. (Step 14). Here, the division pattern may be arbitrarily determined in advance, for example, a division method by equal solid angle division, or for each point, the distance between the point and the nearest point is less than a threshold value. A division method or the like based on a process of setting the same group and a group having a threshold value or more as another group may be employed.
しかる後、上記で得られた部分点群をカメラ画像に投影し(ステップ16)、部分点群毎に、カメラ画像内の認識対象の像、例えば、車両の像の範囲に含まれる点の数の割合が算出される(ステップ18)。ここに於いて、カメラ画像への部分点群の投影は、認識対象の像の範囲の表現形式と点群データの表現形式に応じて、認識対象の像の物体の存在する空間の座標と点群データの表現されている空間の座標とが互いに整合するように、両者の幾何学的な変換を用いて実行されてよい。なお、カメラ画像に基づく認識結果Rrに於いては、典型的には、或る物体の像が認識された場合に、その存在の信頼度或いは確からしさの程度が、パーセントなどの割合で表される(例えば、存在確率が75%など)。その場合には、カメラ画像内の認識対象の像の範囲に含まれる点の数の割合の算出に於いて、照合の誤りを低減するために、認識結果に於いて、物体の存在の信頼度が所定度合以上の像の範囲に対してのみ、或いは、カメラから見て最も手前にある物体の像の範囲に対してのみ、像の範囲に含まれる点の数の割合の算出が実行されてよい。なお、上記の所定度合は、実験的に又は理論的に適宜設定されてよい。かくして、像の範囲に含まれる点の数の割合が、任意に設定される所定の閾値以上の部分点群が、認識対象、例えば、車両に属する点群として関連付けられ、所定の閾値未満の部分点群が、認識対象ではない物体に属する点群として関連付けられ、それぞれ、教師あり学習データとして、データベースへ格納される(ステップ20〜24)。 Thereafter, the partial point group obtained above is projected onto the camera image (step 16), and the number of points included in the range of the image to be recognized in the camera image, for example, the image of the vehicle, for each partial point group. Is calculated (step 18). In this case, the projection of the partial point cloud onto the camera image is performed according to the representation format of the range of the recognition target image and the representation format of the point cloud data. It may be performed using a geometric transformation between the two so that the coordinates of the space in which the group data is represented are aligned with each other. Note that, in the recognition result Rr based on the camera image, typically, when an image of a certain object is recognized, the degree of reliability or probability of existence is expressed as a percentage or the like. (For example, the existence probability is 75%). In that case, in calculating the ratio of the number of points included in the range of the image to be recognized in the camera image, the reliability of the existence of the object in the recognition result in order to reduce the matching error. The ratio of the number of points included in the image range is calculated only for the range of the image that is greater than or equal to the predetermined degree, or only for the range of the image of the object closest to the camera. Good. The predetermined degree may be appropriately set experimentally or theoretically. Thus, a partial point group in which the ratio of the number of points included in the range of the image is not less than a predetermined threshold that is arbitrarily set is associated as a recognition target, for example, a point group that belongs to the vehicle, and is a part that is less than the predetermined threshold The point cloud is associated as a point cloud belonging to an object that is not a recognition target, and is stored in the database as supervised learning data (steps 20 to 24).
図1(B)に例示の処理は、コンピュータの処理によって自動的に実行される。典型的には、カメラ(第一のセンサ)の出力データ、認識結果Rr(第一のセンサの物体の認識結果データ)及びLIDARの点群データ(第二のセンサの出力データ)を任意のデータ記憶装置に蓄積しておき、図1(B)に例示の、一連のデータの対応付けと教師あり学習データの格納とは、オフライン処理で、例えば、車両の走行ログデータ(センサのデータと伴に記憶される。)を参照しながら、実行されてよい。また、別の態様としては、データの対応付けと教師あり学習データの格納とは、センサデータの取得と伴に逐次的に実行されてよく、その場合、時々刻々に、教師あり学習データが調製されて、蓄積されていくこととなる。 The process illustrated in FIG. 1B is automatically executed by a computer process. Typically, output data of the camera (first sensor), recognition result Rr (recognition result data of the object of the first sensor), and LIDAR point cloud data (output data of the second sensor) are arbitrary data. The series of data association and supervised learning data storage illustrated in FIG. 1B stored in the storage device is offline processing, for example, vehicle log data (sensor data and accompanying data). May be executed with reference to FIG. As another aspect, data association and supervised learning data storage may be performed sequentially with sensor data acquisition, in which case supervised learning data is prepared from moment to moment. And will be accumulated.
蓄積された「教師あり学習データ」は、任意の態様にて、LIDARにより検出された点群データに基づいて物体の認識アルゴリズムを構成又は調節するための機械学習に用いられ、かくして、得られたアルゴリズムを用いて、LIDARにより検出された点群データに基づき、車両の周辺領域の物体の認識に利用され、認識結果が車両に於ける各種制御に利用されてよい。なお、カメラ画像に基づく認識結果も車両に於ける各種制御に利用されてよいことは理解されるべきである。また、図示の例は、対応付け処理の一つの例であり、第一のセンサに基づく認識結果(教師データ)と第二のセンサの出力(入力データ)の表現形式又は態様に応じた対応付け処理が実行されてよいことは理解されるべきである。重要なことは、逐次的に、第一のセンサに基づく認識結果と第二のセンサの出力とを取得し、それらの対応付けをして学習データを調製し、格納する処理を、コンピュータにより自動的に達成するという点である。 The accumulated “supervised learning data” was used in machine learning to construct or adjust an object recognition algorithm based on point cloud data detected by LIDAR in any manner, and thus obtained Based on the point cloud data detected by LIDAR using an algorithm, it may be used for recognition of an object in the surrounding area of the vehicle, and the recognition result may be used for various controls in the vehicle. It should be understood that the recognition result based on the camera image may also be used for various controls in the vehicle. The illustrated example is one example of the association processing, and the association is performed according to the expression format or form of the recognition result (teacher data) based on the first sensor and the output (input data) of the second sensor. It should be understood that processing may be performed. What is important is that the process of acquiring the recognition result based on the first sensor and the output of the second sensor in sequence, preparing the learning data by associating them, and storing them automatically by the computer Is to achieve it.
本発明によるデータベース構築システムのその他の実施形態の例
本発明によるデータベース構築システムは、図1(A)に例示した構成の他に、図2〜5に示される形態により実現されてよい。いずれの場合も、教師データと入力データのそれぞれの表現形式に応じた両者の対応付け処理が為されて、学習データの調製と格納が上記と同様に実行されてよい。
Examples of Other Embodiments of Database Construction System According to the Present Invention The database construction system according to the present invention may be realized by the forms shown in FIGS. 2 to 5 in addition to the configuration illustrated in FIG. In either case, the association processing between the teacher data and the input data according to the respective expression formats is performed, and the learning data may be prepared and stored in the same manner as described above.
(1)教師データとして、LIDARの出力に基づく認識結果を用いる場合(図2(A))
LIDARがカメラよりも正しい認識結果を得られる状況(逆光、夜間、雨天など)では、LIDARの出力に基づく認識結果を教師データとし、カメラ画像を入力データとして用いて学習データの調製及び蓄積が実行されてよい。この場合、学習データを用いて、カメラ画像に基づいて物体を認識するアルゴリズムが機械学習によって構成又は調節されることとなる。また、LIDARとカメラとのうちで、いずれが正しい認識結果を得られるかの状況に応じて、図1(A)の構成と図2(A)の構成のいずれかが選択できるようになっていてもよい。
(1) When the recognition result based on the output of LIDAR is used as the teacher data (FIG. 2A)
In situations where LIDAR can obtain a more accurate recognition result than the camera (backlight, night, rainy weather, etc.), the recognition result based on the output of LIDAR is used as teacher data, and learning data is prepared and stored using the camera image as input data May be. In this case, using learning data, an algorithm for recognizing an object based on a camera image is configured or adjusted by machine learning. Also, either the configuration of FIG. 1A or the configuration of FIG. 2A can be selected according to the situation in which a correct recognition result can be obtained between the LIDAR and the camera. May be.
(2)カメラ画像とLIDARの点群データとの双方を用いて物体の認識を実行する構成(センサフュージョン)の場合(図2(B)、(C))
この場合、カメラ画像とLIDARの点群データとに基づく物体の認識結果を教師データとし、入力データとして、LIDARの点群データ(図2(B))又はカメラ画像(図2(C))を用いて学習データの調製及び蓄積が実行されてよい。なお、教師データは、物体の認識結果から抽出される物体までの距離、物体の速度等の情報であってもよい。また、入力データとして用いるカメラ画像は、動画であってもよい。
(2) In the case of configuration (sensor fusion) in which object recognition is performed using both the camera image and the LIDAR point cloud data (FIGS. 2B and 2C)
In this case, the recognition result of the object based on the camera image and the LIDAR point cloud data is used as teacher data, and the LIDAR point cloud data (FIG. 2B) or the camera image (FIG. 2C) is used as input data. The learning data may be prepared and stored. The teacher data may be information such as the distance to the object and the speed of the object extracted from the recognition result of the object. The camera image used as input data may be a moving image.
(3)LIDARとミリ波レーダ(RADAR)とにより、物体の認識を行う構成の場合(図3(A)、(B))
図1(A)、図2(A)〜(C)の構成に於いて、カメラに代えて、ミリ波レーダーが用いられてもよい。ミリ波レーダーの出力SRは、レーダー反射強度マップとなるので、ミリ波レーダーを第一のセンサとして使用する場合には、物体認識部は、レーダー反射強度マップSRに基づいて任意の方式にて物体を認識する手段となり、教師データは、レーダー反射強度マップSRに基づく物体の認識結果Rrとなる(図3(A))。また、レーダー反射強度マップとLIDARの点群データとの双方を用いて物体の認識を実行する構成(センサフュージョン)の場合には、教師データは、レーダー反射強度マップSRとLIDARの点群データSLとに基づく物体の認識結果Rrとなり、入力データは、レーダー反射強度マップSR(図3(B))又はLIDARの点群データ(図示せず)となる。特に、ミリ波レーダーのレーダー反射強度マップをタグ付けするといった処理を人の手により行うことは、困難であるため、上記の如く、コンピュータにより自動的に処理できることは非常に有利である。
(3) In the case of a configuration in which an object is recognized by LIDAR and millimeter wave radar (RADAR) (FIGS. 3A and 3B)
In the configurations of FIGS. 1A and 2A to 2C, a millimeter wave radar may be used instead of the camera. Since the output SR of the millimeter wave radar is a radar reflection intensity map, when the millimeter wave radar is used as the first sensor, the object recognition unit uses any method based on the radar reflection intensity map SR. The teacher data becomes an object recognition result Rr based on the radar reflection intensity map SR (FIG. 3A). In the case of a configuration (sensor fusion) in which object recognition is performed using both the radar reflection intensity map and the LIDAR point cloud data, the teacher data is the radar reflection intensity map SR and the LIDAR point cloud data SL. The object recognition result Rr based on the above, and the input data is the radar reflection intensity map SR (FIG. 3B) or LIDAR point cloud data (not shown). In particular, since it is difficult to perform processing such as tagging a radar reflection intensity map of a millimeter wave radar by a human hand, it is very advantageous that the processing can be automatically performed by a computer as described above.
(4)その他の情報を学習データに付加する場合(図3(C))
カメラ画像、LIDARの点群データ或いはレーダー反射強度マップの他、任意のセンサ又は検出装置等により取得した車速等の車両の運動情報や天候等の環境情報Dtを学習データに付加するようになっていてもよい。この場合、車両の運動情報や環境情報に適合した機械学習が可能となることが期待される。
(4) When other information is added to the learning data (FIG. 3C)
In addition to camera images, LIDAR point cloud data or radar reflection intensity maps, vehicle motion information such as vehicle speed acquired by an arbitrary sensor or detection device, and environmental information Dt such as weather are added to learning data. May be. In this case, it is expected that machine learning adapted to vehicle motion information and environmental information is possible.
(5)複数の教師データを用いる場合(図4(A)、(B))
教師データとして、二種類以上のデータ(Rr1、Rr2)が用いられてもよい(上記までに説明された例では、一種類)。教師データが二つ以上の場合、それぞれのデータから適宜抽出される情報を対応付け処理に於いて用いられてよい。例えば、図4(A)の例では、教師データとして参照する情報として、カメラ画像に基づく認識結果Rr1からは、画像内の物体の像の位置や種類の情報を採用し、RADARのレーダー反射強度マップSRに基づく認識結果Rr2からは、物体までの距離、速度の情報を採用するといった態様であってよい。また、図4(B)の如く、機械学習の対象であるLIDARの点群データに於ける認識アルゴリズムが、一応の精度にて確立している場合には、LIDARの点群データSLに基づく認識結果Rr2が、二つ目の教師データとして採用されてよい。
(5) When using a plurality of teacher data (FIGS. 4A and 4B)
Two or more types of data (Rr1, Rr2) may be used as the teacher data (in the example described above, one type). When there are two or more teacher data, information appropriately extracted from each data may be used in the association process. For example, in the example of FIG. 4A, information on the position and type of the image of the object in the image is adopted as the information referred to as the teacher data from the recognition result Rr1 based on the camera image, and the radar reflection intensity of the RADAR From the recognition result Rr2 based on the map SR, information on the distance to the object and speed information may be adopted. In addition, as shown in FIG. 4B, when the recognition algorithm in the LIDAR point cloud data that is the object of machine learning is established with a certain degree of accuracy, the recognition based on the LIDAR point cloud data SL is performed. The result Rr2 may be adopted as the second teacher data.
(6)機械学習により得られた認識アルゴリズムによる認識結果を教師データとして用いる場合(図5(A)、(B))
データベースに格納された学習データを用いた機械学習によって、第二のセンサの出力に基づく物体の認識アルゴリズムが構成又は調節された後、更に、その認識アルゴリズムを用いた認識結果が教師データとして採用されてよい。例えば、図5(A)に例示されている構成の場合には、図1(A)にて説明された構成と同様に、まず、カメラ画像に基づく認識結果Rr1とLIDARの点群データSLとの対応付け処理を通じて学習データの調製と格納が或る程度の期間に亘って実行された後、かかる学習データを用いて、機械学習によりLIDARの点群データSLに基づいて物体の認識アルゴリズムが構成又は調節される。しかる後、その機械学習によって得られた物体の認識アルゴリズムにより、LIDARの点群データSLに基づく物体の認識が実行され、その認識結果Rr2も教師データとして、LIDARの点群データSLと対応付けされて、これにより、学習データの調製及び格納が実行される。ここに於いて、教師データがRr1、Rr2の二つとなるが、例えば、計測状況に応じて、適宜、より精度の高い教師データの一方が優先的に選択して、入力データに対応付けされるようになっていてよい。より具体的には、例えば、任意の手法で判定されてよい信頼度の高い認識結果の重みを大きくした態様にて、教師データRr1、Rr2の寄与の割合を調節して、一つの教師データを調製し、これを入力データへ対応付けするようになっていてもよい。この点に関し、機械学習によって構成され或いは調節された第二のセンサの出力に基づく物体の認識アルゴリズムの認識結果Rr2を教師データとして使用する場合、その結果の信頼度は、十分に高くなっていることが好ましい。従って、認識結果Rr2は、その信頼度が各種の制御に使用するときに満たすべき度合よりも高い所定度合以上であるときにのみ、教師データとして用いられるようになっていてよい。上記の処理に於いて、データベースに格納された学習データを用いた機械学習は、任意の態様にて実行されてよい。
(6) When using the recognition result by the recognition algorithm obtained by machine learning as teacher data (FIGS. 5A and 5B)
After the object recognition algorithm based on the output of the second sensor is constructed or adjusted by machine learning using learning data stored in the database, the recognition result using the recognition algorithm is further adopted as teacher data. It's okay. For example, in the case of the configuration illustrated in FIG. 5A, first, similarly to the configuration described in FIG. 1A, first, the recognition result Rr1 based on the camera image and the point cloud data SL of LIDAR After the learning data is prepared and stored for a certain period of time through the association process, an object recognition algorithm is configured based on the LIDAR point cloud data SL by machine learning using the learning data. Or adjusted. Thereafter, object recognition based on the LIDAR point cloud data SL is executed by the object recognition algorithm obtained by the machine learning, and the recognition result Rr2 is also associated with the LIDAR point cloud data SL as teacher data. Thus, the learning data is prepared and stored. Here, there are two teacher data, Rr1 and Rr2. For example, according to the measurement situation, one of the more accurate teacher data is preferentially selected and associated with the input data. It may be like this. More specifically, for example, by adjusting the ratio of the contribution of the teacher data Rr1 and Rr2 in a mode in which the weight of the recognition result with high reliability that can be determined by an arbitrary method is increased, one teacher data is obtained. It may be prepared and associated with input data. In this regard, when the recognition result Rr2 of the object recognition algorithm based on the output of the second sensor configured or adjusted by machine learning is used as teacher data, the reliability of the result is sufficiently high. It is preferable. Therefore, the recognition result Rr2 may be used as teacher data only when the reliability is equal to or higher than a predetermined degree higher than the degree to be satisfied when used for various controls. In the above processing, machine learning using the learning data stored in the database may be executed in an arbitrary manner.
上記の如く、データベースに格納された学習データを用いた機械学習により得られた認識結果を更に教師データとして利用する構成の場合、所謂、機械学習に於ける学習データのループが形成されることとなり、かかるループが繰り返されるほど、機械学習の対象となる認識アルゴリズムの認識精度の向上が期待される。 As described above, when the recognition result obtained by machine learning using learning data stored in the database is further used as teacher data, a so-called learning data loop in machine learning is formed. As the loop is repeated, the recognition accuracy of the recognition algorithm that is the object of machine learning is expected to improve.
更に、図5(B)に例示されている如く、種類の異なる二つのセンサの出力の双方に対して、それぞれの物体の認識アルゴリズムを、データベースに蓄積した学習データを用いて機械学習によって構成又は調節できるようになっていてもよい。図5(B)の例の場合、カメラ画像に基づく物体の認識と、LIDAR点群データに基づく物体の認識との二つが実行されるところ、それぞれの物体の認識のアルゴリズムが、データベースに格納された学習データを用いた機械学習により構成又は調節されることとなる。対応付け処理に於いては、種類の異なるセンサの出力の各々に対して、種類の異なるセンサの出力に基づく教師データが適宜対応付けされてよい(即ち、それぞれのセンサ毎に、学習データが調製される。)。かかる構成によれば、種類の異なるセンサの出力のそれぞれの物体の認識のアルゴリズムに於いて、機械学習に於ける学習データのループが形成され、双方のセンサに基づく物体の認識アルゴリズムの認識精度の向上が期待される。 Further, as illustrated in FIG. 5B, the recognition algorithm for each object is configured by machine learning using the learning data accumulated in the database for both outputs of two different types of sensors. It may be adjustable. In the case of the example of FIG. 5B, when object recognition based on the camera image and object recognition based on the LIDAR point cloud data are executed, each object recognition algorithm is stored in the database. It is configured or adjusted by machine learning using the learned data. In the association processing, teacher data based on the output of different types of sensors may be appropriately associated with each of the outputs of different types of sensors (that is, learning data is prepared for each sensor). .) According to such a configuration, a loop of learning data in machine learning is formed in each object recognition algorithm of different types of sensor outputs, and the recognition accuracy of the object recognition algorithm based on both sensors is improved. Improvement is expected.
かくして、上記の一連のデータベース構築システムによれば、或るセンサの検出結果を教師データとして用いた別のセンサの出力から物体の認識を実行するための機械学習のための、教師あり学習データを自動的に調整し収集して、教師あり学習データのデータベースを構築するシステムを提供することが可能となり、使用者の労力、システムの構築に要するコストが大幅に低減され、或いは、人的に構築が非常に困難な場合でも、教師あり学習データのデータベースの構築が可能となる利点が得られる。 Thus, according to the above series of database construction systems, supervised learning data for machine learning for executing recognition of an object from the output of another sensor using the detection result of one sensor as teacher data. It is possible to provide a system that automatically adjusts and collects and constructs a database of supervised learning data, which significantly reduces the labor of the user and the cost required to construct the system, or builds it manually. Even when it is very difficult, it is possible to construct a database of supervised learning data.
以上の説明は、本発明の実施の形態に関連してなされているが、当業者にとつて多くの修正及び変更が容易に可能であり、本発明は、上記に例示された実施形態のみに限定されるものではなく、本発明の概念から逸脱することなく種々の装置に適用されることは明らかであろう。 Although the above description has been made in relation to the embodiment of the present invention, many modifications and changes can be easily made by those skilled in the art, and the present invention is limited to the embodiment exemplified above. It will be apparent that the invention is not limited and applies to various devices without departing from the inventive concept.
例えば、本発明で用いられるセンサについて、交差点に設置された固定カメラの如く、車両の外部に固定されたセンサであってもよい。 For example, the sensor used in the present invention may be a sensor fixed outside the vehicle, such as a fixed camera installed at an intersection.
Claims (1)
逐次的に車両の周囲領域の状態を検出する第一のセンサと、
前記第一のセンサの逐次的に得られた出力データに基づいて車両の周囲領域の物体の認識を逐次的に行う第一の物体認識手段と、
逐次的に車両の周囲領域の状態を検出する第二のセンサと、
前記第一の物体認識手段による前記物体の認識結果データの信頼度が所定の度合以上のときに、前記第二のセンサの逐次的に得られた出力データを前記機械学習に於ける入力データとして用い、前記第一の物体認識手段により逐次的に認識された物体の認識結果データを前記機械学習に於ける教師データとして用いて、前記教師データと該教師データに対応する入力データの対応付けを行うデータ対応付け手段と、
前記対応付けされた入力データと教師データの組を前記機械学習のための教師あり学習データとして格納する学習データ格納手段と
を含むシステム。 A system for constructing a database for accumulating supervised learning data used for machine learning for configuration or adjustment of an algorithm for executing recognition of an object in a surrounding area of a vehicle based on an output of a sensor,
A first sensor for sequentially detecting the state of the surrounding area of the vehicle;
First object recognition means for sequentially recognizing objects in the surrounding area of the vehicle based on output data obtained sequentially by the first sensor;
A second sensor for sequentially detecting the state of the surrounding area of the vehicle;
When the reliability of the recognition result data of the object by the first object recognition means is equal to or higher than a predetermined level, output data obtained sequentially from the second sensor is used as input data in the machine learning. Using the recognition result data of the objects sequentially recognized by the first object recognition means as teacher data in the machine learning, and associating the teacher data with the input data corresponding to the teacher data. Data association means to perform;
A learning data storage means for storing a set of the associated input data and teacher data as supervised learning data for the machine learning.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015237644A JP6682833B2 (en) | 2015-12-04 | 2015-12-04 | Database construction system for machine learning of object recognition algorithm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015237644A JP6682833B2 (en) | 2015-12-04 | 2015-12-04 | Database construction system for machine learning of object recognition algorithm |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017102838A true JP2017102838A (en) | 2017-06-08 |
JP6682833B2 JP6682833B2 (en) | 2020-04-15 |
Family
ID=59017452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015237644A Active JP6682833B2 (en) | 2015-12-04 | 2015-12-04 | Database construction system for machine learning of object recognition algorithm |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6682833B2 (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019116518A1 (en) * | 2017-12-14 | 2019-06-20 | 株式会社日立製作所 | Object detection device and object detection method |
WO2019150918A1 (en) * | 2018-02-02 | 2019-08-08 | ソニー株式会社 | Information processing device, information processing method, program, and moving body |
CN110168559A (en) * | 2017-12-11 | 2019-08-23 | 北京嘀嘀无限科技发展有限公司 | For identification with positioning vehicle periphery object system and method |
CN110254438A (en) * | 2018-03-12 | 2019-09-20 | 松下知识产权经营株式会社 | Information processing unit and program recorded medium |
EP3547213A1 (en) | 2018-03-27 | 2019-10-02 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system and information processing method |
WO2019189661A1 (en) * | 2018-03-29 | 2019-10-03 | 国立大学法人奈良先端科学技術大学院大学 | Learning dataset creation method and device |
EP3605390A1 (en) | 2018-08-01 | 2020-02-05 | Panasonic Intellectual Property Corporation of America | Information processing method, information processing apparatus, and program |
EP3605395A1 (en) | 2018-08-02 | 2020-02-05 | Panasonic Intellectual Property Corporation of America | Information processing method and information processing system |
JP2020085886A (en) * | 2018-11-29 | 2020-06-04 | 財團法人工業技術研究院Industrial Technology Research Institute | Vehicle, vehicle positioning system, and method for positioning vehicle |
JP2020087036A (en) * | 2018-11-27 | 2020-06-04 | 日本電気通信システム株式会社 | Monitoring apparatus, monitoring system, monitoring method, and program |
WO2020116194A1 (en) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile body control device, and mobile body |
WO2020116195A1 (en) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile body control device, and mobile body |
JP2021504796A (en) * | 2017-11-21 | 2021-02-15 | ズークス インコーポレイテッド | Sensor data segmentation |
WO2021044486A1 (en) * | 2019-09-02 | 2021-03-11 | 三菱電機株式会社 | Automatic driving control device and automatic driving control method |
JP2021051542A (en) * | 2019-09-25 | 2021-04-01 | トヨタ自動車株式会社 | Learning data collection device |
WO2021100266A1 (en) * | 2019-11-18 | 2021-05-27 | 株式会社東海理化電機製作所 | Learning device, learning method, and measuring device |
WO2022097426A1 (en) * | 2020-11-04 | 2022-05-12 | 株式会社日立製作所 | Status determination device, status determination system, and status determination method |
WO2023127615A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127613A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127612A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127654A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127614A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023149089A1 (en) * | 2022-02-01 | 2023-08-10 | ソニーセミコンダクタソリューションズ株式会社 | Learning device, learning method, and learning program |
JP7417465B2 (en) | 2020-05-07 | 2024-01-18 | 株式会社トヨタマップマスター | Information processing device, information processing method, and information processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006182086A (en) * | 2004-12-27 | 2006-07-13 | Hitachi Ltd | Vehicle sensing device |
JP2013210207A (en) * | 2012-03-30 | 2013-10-10 | Nec Corp | Target identification device for radar image, target identification method, and target identification program |
US9014905B1 (en) * | 2014-01-28 | 2015-04-21 | Google Inc. | Cyclist hand signal detection by an autonomous vehicle |
-
2015
- 2015-12-04 JP JP2015237644A patent/JP6682833B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006182086A (en) * | 2004-12-27 | 2006-07-13 | Hitachi Ltd | Vehicle sensing device |
JP2013210207A (en) * | 2012-03-30 | 2013-10-10 | Nec Corp | Target identification device for radar image, target identification method, and target identification program |
US9014905B1 (en) * | 2014-01-28 | 2015-04-21 | Google Inc. | Cyclist hand signal detection by an autonomous vehicle |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11475573B2 (en) | 2017-11-21 | 2022-10-18 | Zoox, Inc. | Sensor data segmentation |
US11798169B2 (en) | 2017-11-21 | 2023-10-24 | Zoox, Inc. | Sensor data segmentation |
JP2021504796A (en) * | 2017-11-21 | 2021-02-15 | ズークス インコーポレイテッド | Sensor data segmentation |
JP7433227B2 (en) | 2017-11-21 | 2024-02-19 | ズークス インコーポレイテッド | sensor data segmentation |
CN110168559A (en) * | 2017-12-11 | 2019-08-23 | 北京嘀嘀无限科技发展有限公司 | For identification with positioning vehicle periphery object system and method |
JP2020507137A (en) * | 2017-12-11 | 2020-03-05 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | System and method for identifying and positioning objects around a vehicle |
WO2019116518A1 (en) * | 2017-12-14 | 2019-06-20 | 株式会社日立製作所 | Object detection device and object detection method |
WO2019150918A1 (en) * | 2018-02-02 | 2019-08-08 | ソニー株式会社 | Information processing device, information processing method, program, and moving body |
US11615628B2 (en) | 2018-02-02 | 2023-03-28 | Sony Corporation | Information processing apparatus, information processing method, and mobile object |
CN110254438A (en) * | 2018-03-12 | 2019-09-20 | 松下知识产权经营株式会社 | Information processing unit and program recorded medium |
US11017274B2 (en) | 2018-03-27 | 2021-05-25 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system and information processing method |
EP3547213A1 (en) | 2018-03-27 | 2019-10-02 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system and information processing method |
JP7083189B2 (en) | 2018-03-29 | 2022-06-10 | 国立大学法人 奈良先端科学技術大学院大学 | Training data set creation method and equipment |
JPWO2019189661A1 (en) * | 2018-03-29 | 2021-04-01 | 国立大学法人 奈良先端科学技術大学院大学 | Learning data set creation method and equipment |
US11276194B2 (en) | 2018-03-29 | 2022-03-15 | National University Corporation NARA Institute of Science and Technology | Learning dataset creation method and device |
WO2019189661A1 (en) * | 2018-03-29 | 2019-10-03 | 国立大学法人奈良先端科学技術大学院大学 | Learning dataset creation method and device |
EP3605390A1 (en) | 2018-08-01 | 2020-02-05 | Panasonic Intellectual Property Corporation of America | Information processing method, information processing apparatus, and program |
US11915099B2 (en) | 2018-08-01 | 2024-02-27 | Panasonic Intellectual Property Corporation Of America | Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data |
US11023775B2 (en) | 2018-08-02 | 2021-06-01 | Panasonic Intellectual Property Corporation Of America | Information processing method and information processing system |
CN110795985A (en) * | 2018-08-02 | 2020-02-14 | 松下电器(美国)知识产权公司 | Information processing method and information processing system |
EP3605395A1 (en) | 2018-08-02 | 2020-02-05 | Panasonic Intellectual Property Corporation of America | Information processing method and information processing system |
JP7347775B2 (en) | 2018-11-27 | 2023-09-20 | 日本電気通信システム株式会社 | Monitoring device, monitoring system, monitoring method, and program |
JP2020087036A (en) * | 2018-11-27 | 2020-06-04 | 日本電気通信システム株式会社 | Monitoring apparatus, monitoring system, monitoring method, and program |
JP2020085886A (en) * | 2018-11-29 | 2020-06-04 | 財團法人工業技術研究院Industrial Technology Research Institute | Vehicle, vehicle positioning system, and method for positioning vehicle |
US11024055B2 (en) | 2018-11-29 | 2021-06-01 | Industrial Technology Research Institute | Vehicle, vehicle positioning system, and vehicle positioning method |
JPWO2020116195A1 (en) * | 2018-12-07 | 2021-10-21 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile control device, and mobile |
JP7320001B2 (en) | 2018-12-07 | 2023-08-02 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile body control device, and mobile body |
US12125237B2 (en) | 2018-12-07 | 2024-10-22 | Sony Semiconductor Solutions Corporation | Information processing apparatus, information processing method, program, mobile-object control apparatus, and mobile object |
CN113168691A (en) * | 2018-12-07 | 2021-07-23 | 索尼半导体解决方案公司 | Information processing device, information processing method, program, mobile body control device, and mobile body |
JP7497298B2 (en) | 2018-12-07 | 2024-06-10 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile body control device, and mobile body |
WO2020116194A1 (en) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile body control device, and mobile body |
JPWO2020116194A1 (en) * | 2018-12-07 | 2021-10-21 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile control device, and mobile |
WO2020116195A1 (en) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, program, mobile body control device, and mobile body |
WO2021044486A1 (en) * | 2019-09-02 | 2021-03-11 | 三菱電機株式会社 | Automatic driving control device and automatic driving control method |
JP7383954B2 (en) | 2019-09-25 | 2023-11-21 | トヨタ自動車株式会社 | Learning data collection device |
JP2021051542A (en) * | 2019-09-25 | 2021-04-01 | トヨタ自動車株式会社 | Learning data collection device |
JP7285763B2 (en) | 2019-11-18 | 2023-06-02 | 株式会社東海理化電機製作所 | LEARNING APPARATUS, LEARNING METHOD, AND MEASURING APPARATUS |
WO2021100266A1 (en) * | 2019-11-18 | 2021-05-27 | 株式会社東海理化電機製作所 | Learning device, learning method, and measuring device |
JP2021081915A (en) * | 2019-11-18 | 2021-05-27 | 株式会社東海理化電機製作所 | Learning device, learning method and measurement device |
JP7417465B2 (en) | 2020-05-07 | 2024-01-18 | 株式会社トヨタマップマスター | Information processing device, information processing method, and information processing program |
JP7427569B2 (en) | 2020-11-04 | 2024-02-05 | 株式会社日立製作所 | Condition determination device, condition determination system, and condition determination method |
WO2022097426A1 (en) * | 2020-11-04 | 2022-05-12 | 株式会社日立製作所 | Status determination device, status determination system, and status determination method |
WO2023127614A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127654A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127612A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127613A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023127615A1 (en) * | 2021-12-28 | 2023-07-06 | ソニーグループ株式会社 | Information processing device, information processing method, information processing program, and information processing system |
WO2023149089A1 (en) * | 2022-02-01 | 2023-08-10 | ソニーセミコンダクタソリューションズ株式会社 | Learning device, learning method, and learning program |
Also Published As
Publication number | Publication date |
---|---|
JP6682833B2 (en) | 2020-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6682833B2 (en) | Database construction system for machine learning of object recognition algorithm | |
US11719788B2 (en) | Signal processing apparatus, signal processing method, and program | |
EP3229041B1 (en) | Object detection using radar and vision defined image detection zone | |
WO2020052540A1 (en) | Object labeling method and apparatus, movement control method and apparatus, device, and storage medium | |
JP6444835B2 (en) | Image processing apparatus, image processing program, and image processing system | |
US20190204834A1 (en) | Method and apparatus for object detection using convolutional neural network systems | |
EP2889641B1 (en) | Image processing apparatus, image processing method, program and image processing system | |
US11585896B2 (en) | Motion-based object detection in a vehicle radar using convolutional neural network systems | |
US8994823B2 (en) | Object detection apparatus and storage medium storing object detection program | |
US12091004B2 (en) | Travel lane estimation device, travel lane estimation method, and computer-readable non-transitory storage medium | |
US11676403B2 (en) | Combining visible light camera and thermal camera information | |
CN110969055A (en) | Method, apparatus, device and computer-readable storage medium for vehicle localization | |
CN108021899A (en) | Vehicle intelligent front truck anti-collision early warning method based on binocular camera | |
CN113002562A (en) | Vehicle control device and storage medium | |
US10839522B2 (en) | Adaptive data collecting and processing system and methods | |
US11938968B2 (en) | Trajectory design for image data acquisition for object detection/recognition | |
WO2023023336A1 (en) | Detected object path prediction for vision-based systems | |
WO2022244356A1 (en) | Light interference detection during vehicle navigation | |
US20230005249A1 (en) | Information processing apparatus, information processing system, information processing method, and information processing program | |
US20230230257A1 (en) | Systems and methods for improved three-dimensional data association using information from two-dimensional images | |
US20220309693A1 (en) | Adversarial Approach to Usage of Lidar Supervision to Image Depth Estimation | |
JP2019050622A (en) | Image processing apparatus, image processing method, image processing program, and image processing system | |
CN114132343A (en) | Vehicle tracking method, device, system and computer readable storage medium | |
US20230033243A1 (en) | Systems and methods for object proximity monitoring around a vehicle | |
WO2021106297A1 (en) | Provision device, vehicle management device, vehicle management system, vehicle management method, and vehicle management program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191129 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20191209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200309 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6682833 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |