JP7106332B2 - External recognition device - Google Patents
External recognition device Download PDFInfo
- Publication number
- JP7106332B2 JP7106332B2 JP2018079266A JP2018079266A JP7106332B2 JP 7106332 B2 JP7106332 B2 JP 7106332B2 JP 2018079266 A JP2018079266 A JP 2018079266A JP 2018079266 A JP2018079266 A JP 2018079266A JP 7106332 B2 JP7106332 B2 JP 7106332B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- recognition device
- external world
- unit
- world recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 31
- 238000013075 data extraction Methods 0.000 claims description 26
- 239000000284 extract Substances 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000003702 image correction Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 238000012546 transfer Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
Description
本発明は、外界認識装置に関する。 The present invention relates to an external world recognition device.
カメラ画像による情報分析の信頼性を向上させることができる車両用画像処理装置が知られている(例えば、特許文献1参照)。 A vehicle image processing device capable of improving the reliability of information analysis based on camera images is known (see, for example, Patent Literature 1).
特許文献1には、「自車前方を撮像する撮像手段により撮像された画像の中で、前方車両または道路白線または標識を含む注目領域とそれ以外の非注目領域とを設定し、撮像手段により撮像された画像の中の注目領域と非注目領域における輝度情報を検出する。そして、注目領域と非注目領域の輝度情報に基づいて画像処理による自車前方の状況分析が困難な走行環境にあるか否かを判定する。」と記載されている。 In Patent Document 1, ``In an image captured by an imaging means for imaging the front of the own vehicle, an attention area including a forward vehicle, a road white line, or a sign and a non-attention area are set, and the imaging means Detecting luminance information in an attention area and a non-attention area in a captured image, and performing image processing based on the luminance information of the attention area and the non-attention area in a driving environment where it is difficult to analyze the situation ahead of the vehicle. determine whether or not.”
近年、ステレオカメラ等の外界認識装置の高画素化に伴い、画像の容量が大きくなってきている。そのため、画像のデータを外部へ出力するときに転送遅延が生じるおそれがある。特許文献1では、このような転送遅延は考慮されていない。 2. Description of the Related Art In recent years, with the increase in the number of pixels of external recognition devices such as stereo cameras, the capacity of images has increased. Therefore, a transfer delay may occur when image data is output to the outside. Patent Document 1 does not consider such a transfer delay.
本発明の目的は、画像のデータを外部に出力するときに転送遅延を抑制することができる外界認識装置を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide an external world recognition device capable of suppressing a transfer delay when outputting image data to the outside.
上記目的を達成するために、本発明の一例は、画像を撮像する撮像部と、前記撮像部によって撮像された前記画像から複数種類のデータを生成するデータ生成部と、前記複数種類のデータからデータを抽出するデータ抽出部と、前記データ抽出部によって抽出されたデータを外部へ出力するデータ出力部と、車両を制御する制御装置からの要求を受け付ける要求受付部と、備える外界認識装置であって、前記要求は、電磁波又は音波を用いて物体の位置を検出するセンサによって検出された前記物体の位置に対応する画像上の位置を示す位置情報を含み、前記データ抽出部は、前記位置情報が示す画像上の位置のデータを抽出し、前記データ出力部は、前記データ抽出部によって抽出されたデータを前記制御装置へ出力する。
In order to achieve the above object, an example of the present invention includes: an imaging unit that captures an image; a data generation unit that generates a plurality of types of data from the image captured by the imaging unit; An external world recognition device comprising: a data extraction unit for extracting data; a data output unit for outputting the data extracted by the data extraction unit to the outside ; and a request reception unit for receiving a request from a control device for controlling a vehicle. the request includes position information indicating a position on the image corresponding to the position of the object detected by a sensor that detects the position of the object using electromagnetic waves or sound waves; and the data output section outputs the data extracted by the data extraction section to the control device .
本発明によれば、画像のデータを外部に出力するときに転送遅延を抑制することができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, transfer delay can be suppressed when image data is output to the outside. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
以下、図面を用いて、本発明の実施形態によるステレオカメラ(外界認識装置)の構成及び動作について説明する。なお、各図において、同一符号は同一部分を示す。 The configuration and operation of a stereo camera (external world recognition device) according to an embodiment of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code|symbol shows the same part.
(実施形態)
初めに、図1を用いて、システムの構成を説明する。図1は、本発明の実施形態によるステレオカメラ100を含むシステム1の構成図である。
(embodiment)
First, the configuration of the system will be described with reference to FIG. FIG. 1 is a configuration diagram of a system 1 including a
システム1は、ステレオカメラ100、自動運転ECU200(Electronic Control Unit)、ミリ波レーダ300、LIDAR400(Light Detecting And Ranging)等を備える。
The system 1 includes a
ステレオカメラ100は、同一の対象物体を異なる複数の視点から撮像し、得られた画像における見え方のずれ(視差)から対象物体までの距離を算出する。ステレオカメラ100は、一例として、イーサネット(登録商標)に準拠したLAN(Local Area Network)ケーブルで自動運転ECU200に接続される。ここで、イーサネットは、後述するCAN(Controller Area Network)よりも転送速度が速いため、大容量のデータを送信することに適している。
The
自動運転ECU200は、ミリ波レーダ300、LIDAR400等のセンサによって検出される対象物体の距離、角度、相対速度等に基づいて、車両の自動運転を制御する。自動運転ECU200は、一例として、CANに準拠した2線式バスでミリ波レーダ300、LIDAR400等のセンサと接続される。
The automatic driving ECU 200 controls automatic driving of the vehicle based on the distance, angle, relative speed, etc. of the target object detected by sensors such as the
ミリ波レーダ300は、ミリ波(電磁波)を用いて、対象物体の距離、角度、相対速度等を検出する。LIDAR400は、紫外線、可視光線、近赤外線等の光波(電磁波)を用いて、対象物体の距離、角度、相対速度等を検出する。
The
次に、図2を用いて、ステレオカメラ100の構成を説明する。図2は、本発明の実施形態によるステレオカメラ100の構成図である。
Next, the configuration of
ステレオカメラ100は、一例として、撮像部101、CPU102(Central Processing Unit)、メモリ103、画像処理部104、通信回路105から構成される。
The
撮像部101は、左撮像部101L、右撮像部101Rから構成され、画像を撮像する。詳細には、左撮像部101Lと右撮像部101Rはそれぞれ、レンズ等の光学素子とCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子から構成される。光学素子は、光を屈折させて、撮像素子上に像を結ぶ。撮像素子は、光学素子により屈折した光の像を受光し、その光の強さに応じた画像を生成する。
The
CPU102は、所定のプログラムを実行することで、後述する種々の機能を実現する。本実施形態では、CPU102は、例えば、対象物体の種別(歩行者、車両等)に基づいて車両制御に関する指令を生成する。
The
メモリ103は、例えば、FLASH等の不揮発性メモリ、RAM(Random Access Memory)等の揮発性メモリから構成され、種々の情報を記憶する。
The
画像処理部104は、FPGA(Field-Programmable Gate Array)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等の回路で構成される。画像処理部104は、例えば、画像の補正、視差の算出等を行う。画像処理部104の機能の詳細は、図3を用いて後述する。
The
通信回路105は、一例として、イーサネットに準拠したトランシーバ等から構成される。通信回路105は、種々のデータを送信又は受信する。
The
次に、図3を用いて、ステレオカメラ100の機能を説明する。図3は、本発明の実施形態によるステレオカメラ100の機能を示すブロック図である。
Next, functions of the
左撮像部101Lは、対象物体の第1の画像を撮像する。右撮像部101Rは、対象物体の第2の画像を撮像する。撮像された第1の画像と第2の画像は、「生画像」(RAWデータ)として、例えば、メモリ103に一時的に記憶される。
The
画像処理部104は、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045を備える。なお、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045は、それぞれ別体に構成されていてもよい。
The
画像補正部1041は、左撮像部101Lによって撮像された第1の画像と右撮像部101Rによって撮像された第2の画像を補正する。具体的には、画像補正部1041は、例えば、第1の画像と第2の画像の歪みや光軸ずれを補正する。補正された第1の画像と第2の画像は、「補正画像」として、例えば、メモリ103に一時的に記憶される。
The
視差算出部1042は、ステレオマッチングを行うことで、画像補正部1041によって補正された第1の画像と第2の画像から視差を算出する。視差算出部1042は、三角測量により視差から対象物体までの距離を算出する。視差算出部1042は、画像上の位置と視差に対応する距離とを関連付けた視差画像を生成する。視差画像(第1データ)は、例えば、メモリ103に記憶される。
The
立体物抽出部1043は、視差算出部1042によって生成された視差画像から、同等の距離に位置する物体を1つの立体物として抽出する。抽出された立体物のデータである立体物生情報(第2データ)は、例えば、メモリ103に記憶される。
The three-dimensional
立体グルーピング部1044は、立体物抽出部1043によって抽出された立体物を、輝度、エッジ等に基づいてグルーピングする。グルーピングされた立体物のデータである立体物グルーピング後情報(第3データ)は、例えば、メモリ103に記憶される。
The three-
物体識別部1045は、立体グルーピング部1044によってグルーピングされた立体物から対象物体が何(歩行者、車両等)であるかを識別する。
The
CPU102は、所定のプログラムを実行することで、車両制御部1021とデータ抽出部1022として機能する。車両制御部1021は、物体識別部1045によって識別された物体の種別に応じて車両を制御する指令を生成する。例えば、車両制御部1021は、歩行者が車両の進路上にいると判定した場合、車両を減速する指令を生成する。
データ抽出部1022は、後述する要求受付部1051によって受け付けられた自動運転ECU200からの要求に応じてメモリ103に記憶されたデータを抽出(選択)する。すなわち、データ抽出部1022は、複数種類のデータから所定のデータを抽出する。換言すれば、データ抽出部1022は、要求に応じてデータを抽出する。
The
通信回路105は、要求受付部1051とデータ出力部1052として機能する。要求受付部1051は、外部の自動運転ECU200から要求を受け付ける。データ出力部1052は、データ抽出部1022によって抽出されたデータを外部の自動運転ECU200へ出力する。換言すれば、データ出力部1052は、要求に応じてデータを出力する。
なお、画像補正部1041、視差算出部1042、立体物抽出部1043、及び立体グルーピング部1044は、撮像部101によって撮像された画像から複数種類のデータを生成するデータ生成部104aを構成する。
The
次に、図4を用いて、通信回路105の通信インタフェースを説明する。図4は、通信インタフェースの例を示す図である。
Next, the communication interface of
図4の表の2行目は、自動運転ECU200から通信回路105へ入力される「要求」を示す。図4の表の3行目は、通信回路105から自動運転ECU200へ出力される「要求に応じたデータ」を示す。
The second row of the table in FIG. 4 shows the “request” input from the
自動運転ECU200からの要求は、注目領域を示す情報としての画像上の座標値(画像上の位置を示す情報)、出力内容(データの種類)を示す情報としての種別ID、出力解像度(解像度)を示す情報としての画像の間引き度合若しくはオブジェクトの出力個数、出力頻度を示す情報としての単位時間(秒)あたりの出力回数(回/s)を含む。
The request from the automatic driving
注目領域は、例えば、ミリ波レーダ300、LIDAR400等のセンサによって検出される対象物体の距離、角度、相対速度等に基づいて自動運転ECU200によって立体物があるだろうと推定された部位である。種別IDは、出力されるべきデータの種別を示す。データの種別として、例えば、撮像部101で撮像された生画像(RAWデータ)、視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)がある。
The region of interest is, for example, a region estimated by the
次に、図5を用いて、ステレオカメラ100の動作を説明する。図5は、本発明の実施形態によるステレオカメラ100の動作を示すフローチャートである。
Next, the operation of
ステレオカメラ100は、自動運転ECU200から図4に示した要求を受け付ける(S10)。ステレオカメラ100は、S10で受け付けた要求に応じてメモリ103に記憶されたデータを抽出(選択)する(S15)。
The
ステレオカメラ100は、S15で抽出したデータを出力する(S20)。例えば、図4に示した要求に対して、ステレオカメラ100は、「画像上の座標値」によって示される注目領域について、「種別ID」によって示される種類のデータを、メモリ103から読み出し、読み出したデータを「画像の間引き度合/出力個数」によって示される出力解像度かつ「回/s」で示される出力頻度で自動運転ECU200へ出力(送信)する。なお、ステレオカメラ100は、同期情報を出力してもよい。
ここで、データ抽出部1022は、要求に含まれる「画像上の座標値」(位置情報が示す画像上の位置)のデータを抽出する。これにより、自動運転ECU200は、注目領域のみのデータを取得することができる。
Here, the
データ抽出部1022は、要求に含まれる「種別ID」が示す種類のデータを抽出する。これにより、自動運転ECU200は、所望の種類のデータのみを取得することができる。
The
データ出力部1052は、データ抽出部1022によって抽出されたデータを、要求に含まれる「画像の間引き度合/出力個数」によって示される出力解像度(解像度)で外部の自動運転ECU200へ出力する。これにより、自動運転ECU200は、所望の出力解像度のデータを取得することができる。
The
データ出力部1052は、データ抽出部1022によって抽出されたデータを、要求に含まれる「回/s」で示される出力頻度で外部へ出力する。これにより、自動運転ECU200は、所望の出力頻度でデータを取得することができる。
データ出力部1052は、データ抽出部1022によって抽出されたデータをイーサネットで外部の自動運転ECU200へ出力する。これにより、CAN等に比較して転送速度が向上する。
The
データ生成部104aは、視差、又は視差に対応する距離を示す視差画像(第1データ)を生成し、視差画像(第1データ)から立体物のデータを立体物生情報(第2データ)として抽出し、立体物生情報(第2データ)からグルーピングされた立体物グルーピング後情報(第3データ)を生成する。
The
データ抽出部1022は、種別IDが示す種類のデータを、生画像(RAWデータ)、視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)から抽出(選択)する。
The
物体識別部1045は、撮像部101によって撮像された画像から物体を識別する。データ抽出部1022は、閾値以上の重要度が関連付けられた物体のデータを抽出する。
The
システム1は、ステレオカメラ100(外界認識装置)と、電磁波を用いて物体の位置を検出するミリ波レーダ300、LIDAR400等のセンサと、自動運転ECU200(制御装置)と、を備える。
The system 1 includes a stereo camera 100 (external recognition device), sensors such as a
自動運転ECU200(制御装置)は、センサによって検出された物体の位置を画像上の位置に変換し、その位置の位置情報を含む要求をステレオカメラ100(外界認識装置)へ送信し、データ抽出部1022によって抽出されたデータをステレオカメラ100(外界認識装置)から受信し、受信したデータに基づいて車両を制御する。 The automatic driving ECU 200 (control device) converts the position of the object detected by the sensor into a position on the image, transmits a request including the position information of the position to the stereo camera 100 (external world recognition device), and the data extraction unit The data extracted by 1022 is received from the stereo camera 100 (external recognition device), and the vehicle is controlled based on the received data.
このようにして、自動運転ECU200は、さまざまな階層(撮像部101、画像補正部1041から立体グルーピング部1044等)のデータを抽出することができる。
In this way, the
以上説明したように、本実施形態によれば、画像のデータを外部に出力するときに転送遅延を抑制することができる。また、高画素化されたステレオカメラから出力されるデータの容量を小さくすることができる。 As described above, according to the present embodiment, transfer delay can be suppressed when image data is output to the outside. In addition, it is possible to reduce the volume of data output from a stereo camera with a high pixel count.
(変形例)
次に、図6及び図7を用いて、変形例を説明する。図6は、変形例のステレオカメラ100Aの機能を示すブロック図である。なお、本変形例のステレオカメラ100Aのハードウェア構成は、図2に示したステレオカメラ100と同じである。
(Modification)
Next, a modification will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a block diagram showing the functions of the
図6に示す本変形例では、通信回路105に要求受付部1051がない。本変形例のデータ抽出部1022Aは、物体識別部1045によって識別され、閾値以上の重要度が関連付けられた物体の画像上の位置(座標値)のデータを抽出する。すなわち、データ抽出部1022Aは、重要度の高い物体(歩行者、危険な部位)のデータを抽出する。なお、重要度と物体の種別は、例えば、メモリ103に関連付けて記憶される。
In this modification shown in FIG. 6, the
図7は、変形例のステレオカメラ100Aの動作を示すフローチャートである。
FIG. 7 is a flow chart showing the operation of the
ステレオカメラ100Aは、物体を識別する(S13)。ステレオカメラ100Aは、S13で識別された物体のうち、重要度の高い物体(歩行者、危険な部位)のデータを抽出する(S18)。ステレオカメラ100Aは、S18で抽出したデータを出力する(S20)。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
上記実施形態では、外界認識装置としてステレオカメラ100を採用したが、撮像素子の数は任意であり、単眼カメラであってもよい。
In the above embodiment, the
上記実施形態では、センサとしてミリ波レーダ、LIDARを例示したが、センサは、音波を用いて、対象物体の距離、角度、相対速度等を検出するソナーであってもよい。 In the above embodiments, millimeter wave radar and LIDAR are used as sensors, but the sensor may be a sonar that uses sound waves to detect the distance, angle, relative velocity, and the like of a target object.
上記実施形態では、理解を容易にするため、生画像(RAWデータ)、視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)等の画像に関するデータは、一例としてメモリ103に記憶されるものとしたが、画像処理部104の内蔵メモリに記憶されてもよい。
In the above embodiment, images such as raw images (RAW data), parallax images (first data), three-dimensional object biological information (second data), and information after three-dimensional object grouping (third data) are used for easy understanding. Data relating to are stored in the
上記実施形態では、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045は、一例として画像処理部104の機能として実現されるが、CPU102の機能として実現されてもよい。なお、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045のそれぞれが、ASIC等の回路として構成されていてもよい。
In the above-described embodiment, the
上記実施形態では、ステレオカメラ100と自動運転ECU200の間の規格としてイーサネットを採用したが、イーサネットと同等以上の転送速度を実現可能であれば他の規格であってもよい。
In the above embodiment, Ethernet is used as the standard between the
上記実施形態では、自動運転ECU200からの「要求」に画像上の座標値が含まれるが、画像上の座標値に代えて世界座標系等の他の座標系の座標値を含めてもよい。ステレオカメラ100のCPU102は、世界座標系の座標値を画像上の座標値に変換する。また、画像上の座標値に代えて車速を含めてもよい。データ抽出部1022は、車速が閾値以上(高速)の場合、例えば、高解像度画像と視差画像を抽出(選択)し、低解像度画像と視差画像を抽出(選択)する。
In the above-described embodiment, the "request" from the automatic driving
自動運転ECU200からの要求に、左撮像部101Lによって撮像された第1の画像のデータ、又は右撮像部101Rによって撮像された第2の画像のデータのいずれか又は両方を指定する情報を含めてもよい。データ抽出部1022、1022Aは、指定された画像のデータを抽出(選択)する。なお、車速は車速センサによって検出される。
The request from the automatic driving
自動運転ECU200は、ステレオカメラ100から受信した視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)等を参照して、検知物体候補がある場合、注目領域を示す情報としてその位置に対応する画像座標系または世界座標系の座標値を「要求」に含めて、再度、ステレオカメラ100に入力してもよい。
The
また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサ(CPU)がそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, and the like may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. Moreover, each of the above configurations, functions, and the like may be realized by software by a processor (CPU) interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in recording devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.
1…システム
100、100A…ステレオカメラ
101…撮像部
101L…左撮像部
101R…右撮像部
103…メモリ
104…画像処理部
104a…データ生成部
105…通信回路
300…ミリ波レーダ
400…LIDAR
1021…車両制御部
1022…データ抽出部
1022A…データ抽出部
1041…画像補正部
1042…視差算出部
1043…立体物抽出部
1044…立体グルーピング部
1045…物体識別部
1051…要求受付部
1052…データ出力部
DESCRIPTION OF SYMBOLS 1...
1021
Claims (9)
前記要求は、電磁波又は音波を用いて物体の位置を検出するセンサによって検出された前記物体の位置に対応する画像上の位置を示す位置情報を含み、
前記データ抽出部は、前記位置情報が示す画像上の位置のデータを抽出し、
前記データ出力部は、前記データ抽出部によって抽出されたデータを前記制御装置へ出力する
ことを特徴とする外界認識装置。 an imaging unit that captures an image, a data generation unit that generates a plurality of types of data from the image captured by the imaging unit, a data extraction unit that extracts data from the plurality of types of data, and the data extraction unit An external world recognition device comprising: a data output unit that outputs extracted data to the outside; and a request reception unit that receives a request from a control device that controls a vehicle ,
The request includes position information indicating a position on the image corresponding to the position of the object detected by a sensor that detects the position of the object using electromagnetic waves or sound waves;
The data extraction unit extracts data of a position on the image indicated by the position information,
The data output unit outputs the data extracted by the data extraction unit to the control device.
An external world recognition device characterized by:
前記データ出力部は、
前記要求に応じてデータを出力する
ことを特徴とする外界認識装置。 The external world recognition device according to claim 1 ,
The data output unit
An external world recognition device that outputs data in response to the request.
前記データ抽出部は、
前記要求に応じてデータを抽出する
ことを特徴とする外界認識装置。 The external world recognition device according to claim 2,
The data extractor is
An external world recognition device that extracts data according to the request.
前記要求は、
データの種類を示す種別IDを含み、
前記データ抽出部は、
前記種別IDが示す種類のデータを抽出する
ことを特徴とする外界認識装置。 The external world recognition device according to claim 1 ,
Said request is
including a type ID indicating the type of data,
The data extractor is
An external world recognition device, characterized by extracting data of a type indicated by the type ID.
前記要求は、
解像度を含み、
前記データ出力部は、
前記データ抽出部によって抽出されたデータを前記解像度で外部へ出力する
ことを特徴とする外界認識装置。 The external world recognition device according to claim 1 ,
Said request is
including resolution,
The data output unit
An external world recognition device, wherein the data extracted by the data extraction unit is output to the outside at the resolution.
前記要求は、
出力頻度を含み、
前記データ出力部は、
前記データ抽出部によって抽出されたデータを前記出力頻度で外部へ出力する
ことを特徴とする外界認識装置。 The external world recognition device according to claim 1 ,
Said request is
including output frequency,
The data output unit
An external world recognition device, wherein the data extracted by the data extraction unit is output to the outside at the output frequency.
前記データ生成部は、
視差、又は視差に対応する距離を示す第1データを生成し、
前記第1データから立体物のデータを第2データとして抽出し、
前記第2データからグルーピングされた第3データを生成し、
前記データ抽出部は、
前記種別IDが示す種類のデータを、前記画像のRAWデータ、前記第1データ、前記第2データ、前記第3データから抽出する
ことを特徴とする外界認識装置。 The external world recognition device according to claim 4 ,
The data generation unit
generating first data indicating a parallax or a distance corresponding to the parallax;
extracting data of a three-dimensional object from the first data as second data;
generating third data grouped from the second data;
The data extractor is
An external world recognition device, wherein the data of the type indicated by the type ID is extracted from the RAW data, the first data, the second data, and the third data of the image.
前記撮像部によって撮像された画像から物体を識別する物体識別部を備え、
前記データ抽出部は、
閾値以上の重要度が関連付けられた前記物体のデータを抽出する
ことを特徴とする外界認識装置。 The external world recognition device according to claim 1,
An object identification unit that identifies an object from the image captured by the imaging unit,
The data extractor is
An external world recognition device, characterized by extracting data of the object associated with a degree of importance equal to or greater than a threshold.
電磁波又は音波を用いて物体の位置を検出するセンサと、
前記センサによって検出された前記物体の位置を画像上の位置に変換し、その位置の位置情報を含む前記要求を前記外界認識装置へ送信し、前記データ抽出部によって抽出されたデータを前記外界認識装置から受信し、受信したデータに基づいて車両を制御する制御装置と、を備える
ことを特徴とするシステム。 A system including the external world recognition device according to claim 1 ,
a sensor that detects the position of an object using electromagnetic waves or sound waves;
converts the position of the object detected by the sensor into a position on the image, transmits the request including the position information of the position to the external world recognition device, and converts the data extracted by the data extraction unit to the external world recognition device. a controller that receives data from the device and controls the vehicle based on the received data .
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018079266A JP7106332B2 (en) | 2018-04-17 | 2018-04-17 | External recognition device |
PCT/JP2019/014915 WO2019203000A1 (en) | 2018-04-17 | 2019-04-04 | External environment recognition device |
CN201980025028.1A CN111937035A (en) | 2018-04-17 | 2019-04-04 | External recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018079266A JP7106332B2 (en) | 2018-04-17 | 2018-04-17 | External recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185666A JP2019185666A (en) | 2019-10-24 |
JP7106332B2 true JP7106332B2 (en) | 2022-07-26 |
Family
ID=68238894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018079266A Active JP7106332B2 (en) | 2018-04-17 | 2018-04-17 | External recognition device |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7106332B2 (en) |
CN (1) | CN111937035A (en) |
WO (1) | WO2019203000A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073322A1 (en) | 2012-11-08 | 2014-05-15 | 日立オートモティブシステムズ株式会社 | Object detection device and object detection method |
WO2017195650A1 (en) | 2016-05-13 | 2017-11-16 | ソニー株式会社 | Generation device and generation method, and reproduction device and reproduction method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008059260A (en) * | 2006-08-31 | 2008-03-13 | Fujitsu Ltd | Movement detection image creating device |
JP2014130429A (en) * | 2012-12-28 | 2014-07-10 | Ricoh Co Ltd | Photographing device and three-dimensional object area detection program |
JP6098318B2 (en) * | 2013-04-15 | 2017-03-22 | オムロン株式会社 | Image processing apparatus, image processing method, image processing program, and recording medium |
JP6313646B2 (en) * | 2014-04-24 | 2018-04-18 | 日立オートモティブシステムズ株式会社 | External recognition device |
JP2016019009A (en) * | 2014-07-04 | 2016-02-01 | 日立オートモティブシステムズ株式会社 | Information processing apparatus |
EP3410415B1 (en) * | 2016-01-28 | 2020-11-18 | Ricoh Company, Ltd. | Image processing device, imaging device, moving body device control system and image processing program |
-
2018
- 2018-04-17 JP JP2018079266A patent/JP7106332B2/en active Active
-
2019
- 2019-04-04 WO PCT/JP2019/014915 patent/WO2019203000A1/en active Application Filing
- 2019-04-04 CN CN201980025028.1A patent/CN111937035A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073322A1 (en) | 2012-11-08 | 2014-05-15 | 日立オートモティブシステムズ株式会社 | Object detection device and object detection method |
WO2017195650A1 (en) | 2016-05-13 | 2017-11-16 | ソニー株式会社 | Generation device and generation method, and reproduction device and reproduction method |
Also Published As
Publication number | Publication date |
---|---|
JP2019185666A (en) | 2019-10-24 |
WO2019203000A1 (en) | 2019-10-24 |
CN111937035A (en) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8224069B2 (en) | Image processing apparatus, image matching method, and computer-readable recording medium | |
US20220224825A1 (en) | Electronic device for recording image as per multiple frame rates using camera and method for operating same | |
US9420158B2 (en) | System and method for effectively implementing a lens array in an electronic device | |
TWI540462B (en) | Gesture recognition method and electronic apparatus using the same | |
EP3531418B1 (en) | Electronic device displaying interface for editing video data and method for controlling same | |
US11258962B2 (en) | Electronic device, method, and computer-readable medium for providing bokeh effect in video | |
CN110335302B (en) | Depth map generated from a single sensor | |
CN108683902B (en) | Target image acquisition system and method | |
KR102472156B1 (en) | Electronic Device and the Method for Generating Depth Information thereof | |
JP7123163B2 (en) | Depth processor and 3D image equipment | |
US10571246B2 (en) | Imaging processing apparatus, distance measuring apparatus and processing system | |
JPWO2015045504A1 (en) | Object detection device | |
TWI522968B (en) | Hand-held electronic apparatus, image capturing apparatus and method for obtaining depth information | |
KR102552923B1 (en) | Electronic device for acquiring depth information using at least one of cameras or depth sensor | |
US20230269492A1 (en) | Electronic device and method for displaying image in electronic device | |
JPWO2016051981A1 (en) | In-vehicle image recognition device | |
CN106934828B (en) | Depth image processing method and depth image processing system | |
KR101333459B1 (en) | Lane detecting method and apparatus thereof | |
KR102507746B1 (en) | Method for generating plural information using camera to sense plural wave bandwidth and apparatus thereof | |
JP7106332B2 (en) | External recognition device | |
JP2014026396A (en) | Movable surface boundary line recognition device, movable body having movable surface boundary line recognition device, movable surface boundary line recognition method, and movable surface boundary line recognition program | |
US20200410705A1 (en) | System and method for processing image related to depth | |
CN109309784B (en) | Mobile terminal | |
US20170078644A1 (en) | Controller applied to a three-dimensional (3d) capture device and 3d image capture device | |
JP2018146495A (en) | Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7106332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |