JP2024043269A - Processor - Google Patents
Processor Download PDFInfo
- Publication number
- JP2024043269A JP2024043269A JP2022148362A JP2022148362A JP2024043269A JP 2024043269 A JP2024043269 A JP 2024043269A JP 2022148362 A JP2022148362 A JP 2022148362A JP 2022148362 A JP2022148362 A JP 2022148362A JP 2024043269 A JP2024043269 A JP 2024043269A
- Authority
- JP
- Japan
- Prior art keywords
- image
- abnormality
- shutter method
- vehicle
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 161
- 230000005856 abnormality Effects 0.000 claims abstract description 154
- 238000000605 extraction Methods 0.000 claims abstract description 84
- 230000003287 optical effect Effects 0.000 claims abstract description 53
- 230000009471 action Effects 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 233
- 230000008569 process Effects 0.000 claims description 110
- 230000004044 response Effects 0.000 claims description 63
- 238000005096 rolling process Methods 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 7
- 230000000873 masking effect Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 11
- 230000002159 abnormal effect Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000003672 processing method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000010521 absorption reaction Methods 0.000 description 4
- 230000010287 polarization Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012508 change request Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000002054 transplantation Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
この明細書による開示は、自動運転等の高度な運転を実行する技術に関する。 The disclosure in this specification relates to technology for performing advanced driving such as automatic driving.
特許文献1には、車両に車載カメラ及び光レーダ等のパルス発光型光学センサを両方搭載することが開示されている。また、太陽光起因のフレアの発生状況を検出し、この結果に基づいて車載カメラの画像の信頼性を判定する車両制御装置が開示されている。
さて、車載カメラ及びパルス発光型光学センサを利用した自動運転の普及に伴い、パルス発光型光学センサが発したパルスが車載カメラに入射し、例えばフレア等の高輝度異常が発生することが頻発する可能性があることを、本発明者は見出した。しかしながら、特許文献1の装置では、このようなパルス発光型光学センサ起因の高輝度異常の発生形態が考慮されていない。
Now, with the spread of autonomous driving using in-vehicle cameras and pulse-emitting optical sensors, pulses emitted by pulse-emitting optical sensors are often incident on the in-vehicle camera, causing high-intensity abnormalities such as flare. The inventor has discovered that there is a possibility. However, the device of
この明細書の開示による目的のひとつは、パルス発光型光学センサ起因の高輝度異常の発生に対処可能な処理装置を提供することにある。 One of the objects of the disclosure of this specification is to provide a processing device that can deal with the occurrence of high brightness abnormalities caused by pulsed light emitting optical sensors.
ここに開示された態様のひとつは、自動運転を実行可能な車両(EV)において、所定のシャッタ方式をもつ車載カメラ(1,2,401)で撮影された画像に対する対応処理を運転アクションに反映させるために、少なくとも1つのプロセッサ(10b,310b)を備える処理装置であって、
少なくとも1つのプロセッサは、
画像を取得することと、
画像から、シャッタ方式に対応した抽出アルゴリズムを用いて、車載カメラにパルス発光型光学センサ(3,80)からの光パルス(LP)が入射したことによる高輝度異常が発生した異常発生画像を抽出することと、
異常発生画像に対する対応処理を、他の画像に対する対応処理とは異ならせることと、を実行するように構成されている、処理装置。
One of the aspects disclosed herein is that in a vehicle (EV) capable of autonomous driving, processing for images taken by an in-vehicle camera (1, 2, 401) with a predetermined shutter method is reflected in driving actions. A processing device comprising at least one processor (10b, 310b) to
At least one processor is
Obtaining an image;
From the image, use an extraction algorithm compatible with the shutter method to extract an abnormality image in which a high-intensity abnormality occurs due to the light pulse (LP) from the pulse-emitting optical sensor (3, 80) entering the in-vehicle camera. to do and
A processing device configured to perform processing for handling an abnormality image differently from handling processing for other images.
このような態様によると、パルス発光型光学センサからの光パルス(LP)が入射したことによる高輝度異常は、車載カメラのシャッタ方式に対応した抽出アルゴリズムを用いて抽出される。故に、車載カメラの特性に応じて、パルス発光型光学センサ起因の高輝度異常を抽出できる。そして、高輝度異常が発生した画像に対する対応処理は、他の画像とは異なるので、パルス発光型光学センサ起因の高輝度異常の発生に適切な対処を実施することができる。 According to this aspect, a high-intensity abnormality caused by the incidence of a light pulse (LP) from a pulse-emitting optical sensor is extracted using an extraction algorithm compatible with the shutter method of the vehicle-mounted camera. Therefore, it is possible to extract high-intensity abnormalities caused by the pulse-emitting optical sensor according to the characteristics of the vehicle-mounted camera. Since the handling process for an image in which a high brightness abnormality has occurred is different from that for other images, it is possible to take appropriate measures against the occurrence of a high brightness abnormality caused by a pulse emission type optical sensor.
なお、特許請求の範囲等に含まれる括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。 Note that the reference numerals in parentheses included in the claims etc. exemplarily indicate correspondence with parts of the embodiment described later, and are not intended to limit the technical scope.
以下、複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。 Hereinafter, a plurality of embodiments will be described based on the drawings. Note that redundant explanation may be omitted by assigning the same reference numerals to corresponding components in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiments previously described can be applied to other parts of the configuration. Furthermore, in addition to the combinations of configurations specified in the description of each embodiment, it is also possible to partially combine configurations of multiple embodiments even if not explicitly specified, as long as there is no particular problem with the combination. .
(第1実施形態)
図1に示される第1実施形態の処理装置10は、車両EVに搭載された電子制御装置(ECU,Electronic Control Unit)である。この車両EVは、自車両、ホスト車両を意味していてもよい。処理装置10は、同じく車両EVに搭載された車載カメラ1及びライダ(LiDAR,Light Detection and Ranging/Laser imaging Detection and Ranging)3と通信可能に接続されている。具体的に、処理装置10は、車載カメラ1及びライダ3と、ワイヤハーネス等の有線通信手段及び車載ネットワークとしてのCAN(登録商標)等の無線通信手段のうち少なくとも1種類を用いて、接続される。処理装置10は、車載カメラ1及びライダ3と共に、自動運転システムを構成していてもよい。
(First embodiment)
The
ここで、以下の説明で用いる前方、前側方、側方、後側方、後方、水平方向及び鉛直方向は、水平面上の車両EVを基準として定義されてよい。 Here, the front, front side, side, rear side, rear, horizontal direction, and vertical direction used in the following description may be defined with the vehicle EV on a horizontal plane as a reference.
車載カメラ1は、車両EVの外界を撮影するように構成されている。車載カメラ1は、車両EVの外界のうち、車両EVの前方、前側方、側方、後側方、後方等の所定の範囲を撮影するように配置されてよい。車載カメラ1は、1つの車両EVに複数搭載されてよい。この場合、複数の車載カメラ1は、車両EVの外界のうち、互いに異なる範囲を撮影するように配置されてよい。
The vehicle-mounted
ここでいう車載カメラ1とは、カメラヘッドと称される撮影機能部が独立してモジュール化されたものであってよい。例えば車載カメラ1は、光学系、撮像装置及び撮影回路を含む構成である。光学系は、例えば1つ以上のレンズを含む構成であり、撮影領域から入射する入射光を集光し、撮像素子上に結像させる。撮像素子は、例えばCCDセンサ又はCMOSセンサであり、互いに直交する第1方向及び第2方向に沿って2次元に配列された画素毎に光の検出結果を出力することができる。例えば第1方向は、車両EVの水平方向に沿って設定され、第2方向は、車両EVの鉛直方向に沿って設定される。
The vehicle-mounted
撮影回路は、撮像素子のシャッタタイミングを電気的に制御し、撮像素子の各画素の検出データを取得する。撮影回路は、さらに外部機器に対して映像信号として出力可能な画像データを生成してもよい。すなわち、撮影回路は、検出データを画像データの形態に変換して、外部機器に出力してもよい。 The photographing circuit electrically controls the shutter timing of the image sensor and acquires detection data of each pixel of the image sensor. The imaging circuit may further generate image data that can be output as a video signal to an external device. That is, the photographing circuit may convert the detection data into the form of image data and output it to an external device.
本実施形態の車載カメラ1は、シャッタ方式として、ローリングシャッタ方式を採用している。この方式において撮影回路は、撮像素子の各画素のうち、第1方向に沿った1ライン毎に各画素の検出結果を読み出す。撮影回路は、1ラインの検出結果の読み出しが完了すると、第2方向に1ライン分ずれた、次の1ラインの読み出しを実行する。画像を構成する全てのラインの読み出しが完了すると、1フレーム分の画像データを生成することができる。
The vehicle-mounted
すなわち1ライン毎に露光開始のタイミングがずれる。このため、ローリングシャッタ方式では、同じ1フレームの中でも、ライン毎に撮影タイミングのずれが発生すること、すなわち撮影時間に時間差が発生することが特徴である。 In other words, the timing of starting exposure is shifted for each line. For this reason, the rolling shutter method is characterized by the fact that even within the same frame, there is a shift in the photographing timing for each line, that is, there is a time difference in the photographing time.
ライダ3は、光パルスLPを発光し、その反射光により物体を検出するパルス発光型光学センサである。また、ライダ3は、光パルスLPを測定領域内に走査し、その反射光により測定領域に存在する物体を検出するパルス走査型光学センサである。さらに、ライダ3は、例えばToF(Time of Flight)方式により、物体の距離を測定する測距センサでもある。
The
ライダ3は、測定領域へ向けて投光した光パルスLPを、測定領域の範囲内にて走査し、物体によって反射された反射光を受光する。これによりライダ3は、測定領域に存在する物体及びその距離を検知することができる。
The
例えばライダ3は、発光部、受光部及び制御回路を含む構成である。発光部は、測定領域へ向けて光パルスLPを発光する光源を有する。光源は、1つであっても複数設けられてもよい。光源は、パルス状に光を発光可能であれば、例えばレーザダイオードであってもよく、LEDであってもよい。光源が発する光パルスLPは、直線偏光に偏光していてもよく、偏光していなくてもよい。発光部は、光源からの光パルスLPを集光する光学系を、さらに備えていてもよい。光パルスLPの走査は、ミラー、レンズ等の光学素子によって投光角を変更することにより実現されてもよく、発光部において光の位相及び干渉状態を制御することにより実現されてもよい。
For example, the
受光部は、光パルスLPが測定領域の物体に反射されて戻ってくる反射光を受光する受光素子を有する。受光素子としては、例えばAPD(Avalanche Photo Diode)、APDの一種であるSPAD(Single photon Avalanche Diode)を採用することができる。受光部は、反射光を集光する光学系を、さらに備えていてもよい。なお、反射光もまた、パルス状である可能性が高い。 The light receiving section includes a light receiving element that receives reflected light from the light pulse LP that is reflected by an object in the measurement area and returns. As the light receiving element, for example, an APD (Avalanche Photo Diode) or a SPAD (Single Photon Avalanche Diode), which is a type of APD, can be used. The light receiving section may further include an optical system that collects the reflected light. Note that there is a high possibility that the reflected light is also pulsed.
制御回路は、ライダ3の動作を制御する。具体的に、制御回路は、光源の発光タイミングと、走査方向とを、連動させるように制御する。
The control circuit controls the operation of the
処理装置10は、例えばコンピュータを主体として実現される。処理装置10を実現するコンピュータは、メモリ10a及びプロセッサ10bを少なくとも1つずつ有していてよい。メモリ10aは、プロセッサ10bにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実態的記憶媒体であってよい。さらにメモリ10aとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサ10bは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。
The
また、コンピュータは、メモリ10a、プロセッサ10b及びインターフェースを統合的に1つのチップで実現したSoC(System on a Chip)であってもよく、コンピュータの構成要素としてSoCを有していてもよい。また、処理装置10は、FPGA(Field-Programmable Gate Array)をコンピュータの要素又はコンピュータと別の要素として含んでいてもよい。プロセッサ10bは、FPGAに画像処理における単純な繰り返し処理を担当させるようにFPGAを制御し、処理の高速化を図ってもよい。
Further, the computer may be an SoC (System on a Chip) in which the
次に、図2を用いて、処理装置10の機能について詳細を説明する。処理装置10は、画像取得部51、フレア抽出部52、対応処理部53、物体認識部54及び運転計画部55を、プログラムを実行するプロセッサ10bにより実現される機能ブロックとして含む構成である。
Next, the functions of the
画像取得部51は、車載カメラ1が撮影した画像を取得する。具体的に、画像取得部51は、車載カメラ1が生成した画像データを取得してもよい。あるいは、処理装置10が車載カメラ1による検出データを車載カメラ1から取得し、これに基づいて生成された画像データを、画像取得部51が取得するようにしてもよい。
The
画像取得部51は、さらに、画像を撮影した車載カメラ1の情報を特定してもよい。車載カメラ1の情報には、シャッタ方式を含むカメラの仕様、露光時間(シャッタスピードともいう)等を含む撮影条件が含まれていてよい。画像取得部51が取得した画像データは、フレア抽出部52へ提供される。
The
フレア抽出部52は、画像取得部51が取得した画像において、例えば図3に示すように、車載カメラ1に他車両OVのパルス発光型光学センサ(例えばライダ80)からの光パルスLPが入射したことにより、高輝度異常(例えばフレア)が発生しているか否かを判断する。換言すると、フレア抽出部52は、光学センサ起因のフレアが発生した異常発生画像を抽出する。フレア抽出部52は、異常抽出部に相当する。
The flare extraction unit 52 detects, in the image acquired by the
異常発生画像の抽出には、画像を撮影した車載カメラ1のシャッタ方式に対応した抽出アルゴリズムが用いられる。抽出アルゴリズムは、メモリ10aにプログラムとして記憶されている。ここでの抽出アルゴリズムとは、当該シャッタ方式で撮影された画像に発生するフレアを検出できるように構成されていればよい。すなわち、抽出アルゴリズムは、他のシャッタ方式にも汎用的に適用できるものであってよく、当該シャッタ方式のみに特化したものでなくてもよい。
An extraction algorithm corresponding to the shutter method of the vehicle-mounted
ここで、ローリングシャッタ方式での異常発生画像の特徴を説明する。図4に示すように、ローリングシャッタ方式では、画像の1フレーム中の撮影時間の時間差が発生している。この時間差は、通常、ライダ3の光パルスLPの発光継続時間よりも大きい。したがって、画像の1フレームのうち一部分のみにフレアが発生する。より詳細には、図5に示すように、例えば画素の水平方向に沿った一部のラインHBLに対応した帯状部でのみフレアが発生することとなる。
Here, the characteristics of an abnormality occurrence image using the rolling shutter method will be explained. As shown in FIG. 4, in the rolling shutter method, a time difference occurs in the photographing time of one frame of an image. This time difference is usually larger than the light emission duration of the light pulse LP of the
さらなる理解のために、図4に示す例を説明する。図4の上段は、他車両OVのライダ80と車載カメラ1との関係を示している。図4の下段は、車載カメラ1が1フレーム撮影する際の露光について示しており、水平方向のラインのうち、上部のラインから下部のラインへ向かって時間差を発生させつつ、順々に露光が実施される様子が図示されている。各ラインの露光時間はそれぞれET1であるとする。ここで、時間t0において1フレームの露光が開始されるものとする。最上段のラインの露光開始(t0)から最下段の露光開始までの時間差Δtが発生する。時間t2は、1フレームの露光が完了する時間であり、t2=t0+Δtである。
For further understanding, the example shown in FIG. 4 will be explained. The upper part of FIG. 4 shows the relationship between the
図4の上段に示すように、ライダ3の光パルスLPが走査され、例えば時間t1に光パルスLPが車載カメラ1に入射したとする。ここで、t0<t1<t0+Δtであるとする。この場合、画像の鉛直方向のうち、中央部のラインHBLのみが光パルス入射時に露光していることになる。そうすると、例えば図5が夜間等の暗闇で撮影されたものとすると、中央部のラインHBLに対応する領域が極めて高輝度である一方、他の領域が暗闇を撮影した低輝度の画像となる。このように、領域によって顕著な輝度差が生じる。
As shown in the upper part of FIG. 4, it is assumed that the light pulse LP of the
また、この図5のフレームの前後のフレームが、光パルス非入射時に撮影されている場合、図6のように、高輝度領域がない、概ね全体が低輝度領域である。 Furthermore, when the frames before and after the frame in FIG. 5 are photographed when no light pulse is incident, as shown in FIG. 6, there is no high-luminance area and almost the entire frame is a low-luminance area.
なお、図5,6では、フレアが発生した高輝度領域にドットハッチングが施され、フレアが発生していない低輝度領域にハッチングが施されていない。 In FIGS. 5 and 6, dot hatching is applied to high-intensity areas where flare occurs, and no hatching is applied to low-intensity areas where flare does not occur.
ローリングシャッタ方式に対応した抽出アルゴリズムは、以下の第1の方法、第2の方法及び第3の方法のうち1種類を抽出方法として採用する。
The extraction algorithm compatible with the rolling shutter method employs one of the following three extraction methods:
第1の方法は、連続する複数のフレームを含む画像の時系列データに基づき、異常発生画像を抽出する方法である。例えばフレア抽出部52は、検査するフレームと、その1つ前のフレームとを比較してもよい。フレア抽出部52は、さらに検査対象の前の複数フレームを比較対象に加えてもよく、検査対象の後の1つ又は複数のフレームを比較対象に加えてもよい。具体的には、比較するフレーム間の特性の差が大きな場合に、フレア抽出部52は、フレアの発生を認定する。 The first method is to extract images in which an abnormality has occurred based on time-series data of images including a plurality of consecutive frames. For example, the flare extraction unit 52 may compare the frame to be inspected and the frame immediately before it. The flare extraction unit 52 may further add a plurality of frames before the inspection target to comparison targets, or may add one or more frames after the inspection target to comparison targets. Specifically, when the difference in characteristics between the frames to be compared is large, the flare extraction unit 52 determines that flare has occurred.
例えばフレア抽出部52は、輝度値をヒストグラム化した輝度値ヒストグラムが、フレーム間で大きく変化した場合、フレアの発生を認定してもよい。フレーム間での大きな変化とは、予め設定されたフレア発生判定条件を満たすような変化であってよい。フレア抽出部52は、輝度値に代えて色の変化を判断してもよい。 For example, the flare extraction unit 52 may determine that flare has occurred if a brightness value histogram obtained by converting brightness values into a histogram changes significantly between frames. A large change between frames may be a change that satisfies preset flare occurrence determination conditions. The flare extraction unit 52 may determine a change in color instead of the brightness value.
また、フレア抽出部52は、フレアの発生を検出するにあたってパーティクルフィルタ(Particle Filter)を用いてもよい。すなわち、上述の方法では検査対象のフレームと前後のフレームが直接比較されていたが、フレア抽出部52は、検査するフレームの前後のフレームから、パーティクルフィルタ等を用いて検査するフレームに推定される画像を特定し、これを実際の検査対象と比較してもよい。 Furthermore, the flare extraction unit 52 may use a particle filter to detect the occurrence of flare. That is, in the above method, the frame to be inspected and the frames before and after are directly compared, but the flare extraction unit 52 estimates the frame to be inspected from the frames before and after the frame to be inspected using a particle filter or the like. An image may be identified and compared to the actual object under examination.
第2の方法は、ラインと直交する鉛直方向の輝度値マップから、上述の帯状部に対応した一部分だけ値が異なる段差形状を抽出する方法である。図7にマップが図示されるように、フレア抽出部52は、同じラインの画素、すなわち水平方向の複数画素の輝度値の積算値又は平均値を算出し、当該積算値又は平均値の鉛直方向のマップを作成する。フレア抽出部52は、このマップにおいて、一部分のラインだけ積算値又は平均値が高い段差形状を検出し、当該段差形状の確認に従ってフレアの発生を認定する。 The second method is to extract, from a brightness value map in the vertical direction perpendicular to the line, a step shape whose value differs only in a portion corresponding to the above-mentioned band-shaped portion. As shown in the map in FIG. 7, the flare extraction unit 52 calculates the integrated value or average value of the luminance values of pixels on the same line, that is, multiple pixels in the horizontal direction, and Create a map of In this map, the flare extraction unit 52 detects a step shape in which only a part of the lines has a high integrated value or average value, and identifies the occurrence of flare according to the confirmation of the step shape.
なお、抽出アルゴリズムでは、第1の方法と第2の方法とが併用されるようにしてもよい。この場合、フレア抽出部52は、第1の方法及び第2の方法の両方でフレアが発生していると判断された場合にのみ、画像を異常発生画像と結論付けてもよい。 Note that in the extraction algorithm, the first method and the second method may be used together. In this case, the flare extraction unit 52 may conclude that the image is an abnormal image only when it is determined that flare has occurred using both the first method and the second method.
第3の方法は、第2の方法と同様の方法で段差形状を検出した後、フレア抽出部52は、車載カメラ1に対して、露光時間の変更要求を送信する。画像取得部51が当該変更要求に応じて露光時間が変更された画像を取得すると、フレア抽出部52は、第2の方法と同様の方法で当該画像の段差形状を検出する。ここで、ローリングシャッタ方式において露光時間を変更すると、光パルスLPに起因したフレアが発生するラインHBLは、露光時間に応じて変わる(後述する第6の対応処理の説明も参照)。フレア抽出部52は、露光時間に応じた段差形状の幅の変化を検出した場合、フレアの発生を認定する。
In the third method, after detecting the step shape using the same method as the second method, the flare extraction unit 52 transmits a request to change the exposure time to the vehicle-mounted
対応処理部53は、フレア抽出部52による抽出結果に応じて、画像処理における対応を決定する。対応処理部53は、異常発生画像でない正常な画像に対しては当該画像を信頼できると判断し、特別な対応処理を実施せず、当該画像をそのまま物体認識部54へ提供する対応処理を実行する。対応処理部53は、異常発生画像に対しては、フレアの発生を前提とした特別な対応処理を実施する。
The correspondence processing section 53 determines correspondence in image processing according to the extraction result by the flare extraction section 52. The response processing unit 53 determines that the image is reliable for normal images that are not abnormal images, and executes a response process that provides the image as it is to the
対応処理部53は、対応処理として、以下の第1の対応処理、第2の対応処理、第3の対応処理、第4の対応処理、第5の対応処理及び第6の対応処理のうち1種類を実行する。この対応処理は、通常、都度決定されるものではなく、例えば製品の設計段階で予め1種類の対応に設定されればよい。一方で、対応処理は、予め設定された条件に応じて、都度選択されてもよい。 The response processing unit 53 executes one of the following response processes: the first response process, the second response process, the third response process, the fourth response process, the fifth response process, and the sixth response process. This response process is not usually determined each time, but may be set in advance as one type of response, for example, at the product design stage. On the other hand, the response process may be selected each time according to preset conditions.
第1の対応処理は、異常発生画像に対応するフレームを、物体認識又は自動運転に用いることが規制されるように、全て削除する処理である。対応処理部53は、物体認識部54又は運転計画部55に対し、異常発生画像の削除を実行したことを、通知してもよい。
The first response process is a process of deleting all frames corresponding to images in which an abnormality has occurred so that their use for object recognition or automatic driving is restricted. The response processing unit 53 may notify the
第2の対応処理は、異常発生画像のうち、輝度値が高い部分だけを前のフレームの対応する画素から移植する処理である。移植とは画像の差し替えを意味していてよい。輝度値が高い部分とは、グローバルシャッタ方式にて走査される全てのラインのうち、フレアが発生したラインであってよく、段差形状が発生した部分であってよい。移植が困難な場合には、第1の対応処理と同様に、異常発生画像自体を削除してもよい。 The second correspondence process is a process in which only a portion of the image in which an abnormality occurs has a high luminance value and is transplanted from the corresponding pixel of the previous frame. Transplanting may mean replacing images. The portion with a high luminance value may be a line where flare occurs or a portion where a step shape occurs among all lines scanned by the global shutter method. If transplantation is difficult, the abnormality image itself may be deleted as in the first corresponding process.
第3の対応処理は、異常発生画像のうち、フレア発生部分(すなわち高輝度異常部)の明るさを暗くなるように補正する処理である。例えば高輝度異常部が、他の部分と同程度の明るさに補正されることにより、補正された画像を通常の画像と同じように物体認識又は自動運転に利用することができる。 The third response process is a process of correcting the brightness of the flare-occurring parts (i.e., high-brightness abnormal parts) in the image where an abnormality has occurred so that they become darker. For example, by correcting the high-brightness abnormal parts to the same brightness as other parts, the corrected image can be used for object recognition or autonomous driving in the same way as a normal image.
第4の対応処理は、異常発生画像のうち、輝度値が高い部分だけをマスキングする処理である。ここでのマスキングとは、物体認識又は自動運転において利用する対象から除外することを意味する。 The fourth corresponding process is a process of masking only the portions with high brightness values in the image where the abnormality has occurred. Masking here means excluding from objects used in object recognition or automatic driving.
第5の対応処理は、画像に信頼度を付与した上で、物体認識又は自動運転に用いる場合の処理である。第5の対応処理は、異常発生画像のうち、高輝度異常部の信頼度を、他の部分の信頼度よりも低下させる処理である。 The fifth correspondence process is a process in which images are given reliability and used for object recognition or automatic driving. The fifth response process is a process that lowers the reliability of a high-luminance abnormality part of the abnormality image than the reliability of other parts.
第6の対応処理は、車載カメラ1に対して、現状の異常発生画像の撮影条件として採用されていた露光時間に対して、次回撮影以降の露光時間を変更する要求を出力する処理である。例えば図4に示す露光時間ET1が、図8に示すより短い露光時間ET2に変更されることにより、光パルスLPが入射する時間に露光しているラインHBLの数が減少することから、1フレームの画像におけるフレアの影響範囲が小さくなる可能性がある。
The sixth response process is a process of outputting a request to the vehicle-mounted
さらに対応処理は、第6の対応処理と、第1~5の対応処理のうち1種類とを組み合わせた処理であってもよい。 Furthermore, the response process may be a process that combines the sixth response process with one of the first to fifth response processes.
対応処理部53は、上述の対応処理を実行した後、異常発生画像の全てを削除する場合を除き、異常発生画像を物体認識部54へ提供する。対応処理部53は、異常発生画像の全てを削除した場合においても、画像を削除したので提供できない旨を、物体認識部54に通知してもよい。
After executing the above-described handling process, the correspondence processing unit 53 provides the abnormality occurrence image to the
物体認識部54は、提供された車載カメラ1の画像に映り込んだ物体を認識する。物体認識は、例えば物体認識アルゴリズムを用いて実行される。物体認識アルゴリズムは、メモリ10aにプログラムとして記憶されている。物体認識アルゴリズムは、例えばニューラルネットワークを含む、学習済みモデルである物体認識モデルであってよい。物体認識モデルは、例えばセマンティックセグメンテーション(Semantic Segmentation)の手法を用いて、画像に映り込んだ物体を認識して出力する。
The
ここで、物体認識部54は、画像に付与された信頼度を、物体を認識する際に参照してもよい。物体認識部54は、画像に付与された信頼度に応じて、物体の認識判断及びその結果を変えてもよい。あるいは、物体認識部54は、画像に付与された信頼度に応じて、物体に付与する信頼度を設定してもよい。例えば画像に付与された信頼度が低い場合、その画像に映り込んだ物体の認識における信頼度も低く設定してよい。
Here, the
物体認識部54は、第5の対応処理にて画像が部分的に信頼度低下している場合、物体認識において、信頼度低下部分以外の部分の情報を重視して物体認識してもよい。物体認識部54は、第5の対応処理にて画像が部分的に信頼度低下している場合、その部分に映り込んだ物体に付与する信頼度を低く設定してよい。
When the reliability of the image partially decreases in the fifth correspondence process, the
物体認識部54は、さらに、ライダ3の検知結果から物体を認識してもよい。物体認識部54は、車載カメラ1の情報とライダ3の情報とを融合(fusion)し、物体の認識精度を高めてもよい。物体認識部54が認識した物体の情報は、運転計画部55へ提供される。
The
運転計画部55は、物体認識部54が認識した物体の情報を用いて、自動運転を計画し、自動運転の運転アクションを導出する。物体認識部54による物体の情報は、対応処理部53による対応処理に基づいているから、実質的に運転計画部55は、対応処理部53の結果に基づいた運転アクションを導出するといえる。具体的に、運転計画部55は、物体との衝突を回避するような車両EVの走行軌道及び走行速度を計画する。ここで、運転計画部55は、物体認識部54により認識された物体に付与された信頼度を参照して、自動運転を計画してもよい。
The driving
運転計画部55が導出した運転アクションに基づき、車両EVのパワートレーン、ブレーキアクチュエータ、ステアリングシステム等が駆動されることで、車両EVは自動運転されることとなる。なお、ここでいう自動運転は、例えばSAE J3016に規定されたレベル3以上の自動運転を意味していてよい。例えばレベル3は、条件付きで運転が自動化されたことを示す。レベル4は、高度に運転が自動化されたことを示す。レベル5は、完全に運転が自動化されたことを示す。
Based on the driving action derived by the driving
次に、処理装置10による処理のうち、異常発生画像を抽出し、抽出結果に応じて対応処理をする処理方法の例を、図9のフローチャートを用いて説明する。ステップS11~S15に示される一連の処理は、例えば車載カメラ1が画像を1フレーム生成する毎、又は、処理装置10が自動運転の計画の更新を開始する毎に、実行される。
Next, an example of a processing method by the
S11では、画像取得部51は、車載カメラ1から最新の画像(例えば1フレーム分)を取得する。S11の処理後、S12へ進む。
In S11, the
S12では、フレア抽出部52は、S11で取得した画像にフレアが発生しているか否かを判断する。具体的に、時系列データの差分で輝度値の大幅変化があるか否か(輝度値が予め設定された閾値以上変化しているか否か)が判断される。Yesの場合、S13へ進む。Noの場合、対応処理部53によって画像がそのまま物体認識部54へ提供され、一連の処理が終了される。
In S12, the flare extraction unit 52 determines whether flare has occurred in the image acquired in S11. Specifically, it is determined whether there is a significant change in the brightness value based on the difference in the time series data (whether the brightness value has changed by more than a preset threshold). If Yes, proceed to S13. In the case of No, the corresponding processing unit 53 provides the image as it is to the
S13では、対応処理部53は、S11で取得した最新の画像よりも1フレーム前のフレームに異常が発生しているか否かを判定する。Yesの場合、S15へ進む。Noの場合、S14へ進む。 In S13, the response processing unit 53 determines whether or not an abnormality has occurred in the frame one frame before the latest image acquired in S11. If the answer is Yes, proceed to S15. If the answer is No, proceed to S14.
S14では、対応処理部53は、S11で取得した最新の画像のうち、高輝度異常部を、1フレーム前の画像と差し替える。対応処理部53は、差し替え処理後の画像を物体認識部54へ提供する。S14を以って一連の処理を終了する。
In S14, the correspondence processing unit 53 replaces the high-brightness abnormal part in the latest image acquired in S11 with the image one frame before. The correspondence processing unit 53 provides the image after the replacement process to the
S15では、対応処理部53は、S11で取得した最新の画像を破棄する。S15を以って一連の処理を終了する。 In S15, the correspondence processing unit 53 discards the latest image acquired in S11. The series of processing ends at S15.
以上説明した第1実施形態によると、パルス発光型光学センサとしてのライダ80からの光パルスLPが入射したことによる高輝度異常は、車載カメラ1のシャッタ方式に対応した抽出アルゴリズムを用いて抽出される。故に、車載カメラ1の特性に応じて、ライダ80起因の高輝度異常を抽出できる。そして、高輝度異常が発生した画像に対する対応処理は、他の画像とは異なるので、ライダ80起因の高輝度異常の発生に適切な対処を実施することができる。
According to the first embodiment described above, the high brightness abnormality caused by the incidence of the light pulse LP from the
また、第1実施形態によると、ローリングシャッタ方式に対応した抽出アルゴリズムは、連続する複数のフレームを含む画像の時系列データを用いて、複数のフレーム間の特性の差を検出することに基づき、異常発生画像を抽出するアルゴリズムを含む。光パルスLPの入射は瞬間的な入射となるので、前後のフレーム等と比較することで、異常発生画像の抽出精度を高めることができる。 Further, according to the first embodiment, the extraction algorithm compatible with the rolling shutter method is based on detecting differences in characteristics between a plurality of frames using time series data of images including a plurality of consecutive frames. Contains an algorithm to extract abnormal images. Since the light pulse LP is incident instantaneously, by comparing with the previous and subsequent frames, etc., it is possible to improve the accuracy of extraction of the abnormality occurrence image.
また、第1実施形態によると、ローリングシャッタ方式に対応した抽出アルゴリズムは、車載カメラ1の撮像素子において撮影タイミングに時間差が発生する複数のラインと直交する方向の輝度値マップから、高輝度異常を示す輝度値の段差形状を検出することに基づき、異常発生画像を抽出するアルゴリズムを含む。光パルスLP及びローリングシャッタ特有の高輝度異常の特徴を的確に判別することにより、異常発生画像の抽出精度を高めることができる。
Further, according to the first embodiment, the extraction algorithm compatible with the rolling shutter method detects high brightness abnormalities from a brightness value map in a direction orthogonal to a plurality of lines in which time differences occur in photographing timing in the image sensor of the in-
また、第1実施形態によると、異常発生画像への対応処理は、異常発生画像に相当するフレームを、全て削除する処理を含む。異常発生画像の削除により、当該画像が自動運転に用いられることを適切に規制することができる。 Further, according to the first embodiment, the process for dealing with an abnormality image includes the process of deleting all frames corresponding to the abnormality image. By deleting the abnormality image, it is possible to appropriately restrict the use of the image for automatic driving.
また、第1実施形態によると、異常発生画像への対応処理は、異常発生画像のフレームのうち、高輝度異常が発生した部分を、その前のフレームに対応する画素から移植する処理を含む。移植により、異常発生画像を、高輝度異常が修復された画像として活用することができる。 Further, according to the first embodiment, the process for dealing with an abnormality image includes a process of transplanting a portion where a high-intensity abnormality has occurred from among the frames of the abnormality image from pixels corresponding to the previous frame. Through transplantation, an image in which an abnormality has occurred can be used as an image in which a high-intensity abnormality has been repaired.
また、第1実施形態によると、異常発生画像への対応処理は、異常発生画像のフレームのうち、高輝度異常が発生した部分を、自動運転において利用する対象から除外するようにマスキングする処理を含む。マスキングにより、画像の他の部分の活用可能性を残しつつ、異常部分の利用を適切に規制することができる。 Further, according to the first embodiment, the process for responding to an abnormality image includes a process of masking a part of the frame of the abnormality image in which a high-intensity abnormality has occurred so as to exclude it from the target to be used in automatic driving. include. By masking, it is possible to appropriately restrict the use of abnormal parts while leaving the possibility of using other parts of the image.
また、第1実施形態によると、画像に信頼度の情報を付与する構成において、異常発生画像への対応処理は、異常発生画像のフレームのうち、高輝度異常が発生した部分の信頼度を、他の部分の信頼度よりも低下させる処理を含む。自動運転を実現するにあたって、画像の各部分の信頼度を参照することで、画像情報を最大限活用することができる。 Further, according to the first embodiment, in the configuration in which reliability information is added to an image, the processing for responding to an abnormality image includes determining the reliability of a portion where a high-intensity abnormality has occurred in the frame of the abnormality image. Includes processing that lowers the reliability of other parts. In realizing autonomous driving, image information can be utilized to the fullest by referring to the reliability of each part of the image.
また、第1実施形態によると、異常発生画像への対応処理は、車載カメラ1に対して、現状の異常発生画像の撮影条件として採用されていた露光時間に対して、次回撮影以降の露光時間を変更する要求を出力する処理を含む。撮影条件を変更することにより、次回撮影以降に再び高輝度異常が発生する可能性を低下させることができる。
Further, according to the first embodiment, the process for responding to an abnormality image is performed by changing the exposure time from the next time onward to the exposure time that was adopted as the current photographing condition for the abnormality image for the in-
さらに、ローリングシャッタ方式に対応した抽出アルゴリズムは、露光時間を変更する要求に対応した露光時間の変更により、露光時間に応じた変化であって、高輝度異常が発生した部分の幅の変化を検出することに基づき、異常発生画像を抽出するアルゴリズムを含む。異常発生画像の削除により、当該画像が自動運転に用いられることを適切に規制することができる。 Furthermore, the extraction algorithm corresponding to the rolling shutter method includes an algorithm that extracts images in which an abnormality has occurred based on detecting a change in the width of the portion in which a high brightness abnormality has occurred, which is a change according to the exposure time, by changing the exposure time in response to a request to change the exposure time. By deleting the images in which an abnormality has occurred, it is possible to appropriately restrict the use of the images in question for autonomous driving.
また、第1実施形態によると、対応処理の結果に基づいて、自動運転の運転アクションが導出される。異常発生画像への対応処理は、他の画像への対応処理とは異なっているので、異常発生画像への対処を適切に実行し、自動運転における誤判断の発生を抑制することができる。 Further, according to the first embodiment, a driving action for automatic driving is derived based on the result of the response process. Since the process for dealing with an abnormality image is different from the process for other images, it is possible to appropriately deal with the abnormality image and suppress the occurrence of erroneous judgments during automatic driving.
(第2実施形態)
図10に示すように、第2実施形態は第1実施形態の変形例である。第2実施形態について、第1実施形態とは異なる点を中心に説明する。
(Second embodiment)
As shown in FIG. 10, the second embodiment is a modification of the first embodiment. The second embodiment will be described focusing on the differences from the first embodiment.
第2実施形態の車載カメラ2(図1,2も参照)は、シャッタ方式として、グローバルシャッタ方式を採用している。図10に示すグローバルシャッタ方式では、全ての画素が同時に露光開始される。すなわち、このため、ローリングシャッタ方式では、同じ1フレームにおいて、全ての画素が同じタイミングで撮影され、撮影時間に時間差が発生しないことが特徴となる。 The vehicle-mounted camera 2 of the second embodiment (see also FIGS. 1 and 2) employs a global shutter method as a shutter method. In the global shutter method shown in FIG. 10, exposure of all pixels is started at the same time. That is, for this reason, the rolling shutter method is characterized in that all pixels are photographed at the same timing in the same one frame, and there is no time difference in photographing time.
図10の上段は、撮影3回分の画像、詳細にはN-1枚目のフレーム、N枚目のフレーム及びN+1枚目のフレームを示している。ここでNは2以上の自然数とする。図10の下段は、車載カメラ2が周期的に3フレーム撮影する際の露光について示している。グローバルシャッタでは、同時にすべてのラインの露光が開始され、露光時間ETG後、同時にすべてのラインの露光が終了する。撮影は所定の周期で周期的に実行される。 The upper part of Figure 10 shows three captured images, specifically the N-1th frame, the Nth frame, and the N+1th frame. Here, N is a natural number equal to or greater than 2. The lower part of Figure 10 shows the exposure when the vehicle-mounted camera 2 periodically captures three frames. With a global shutter, exposure of all lines begins at the same time, and after the exposure time ETG, exposure of all lines ends at the same time. Capture is performed cyclically at a specified cycle.
下段における3本の縦線は、車載カメラ2に入射する光パルスLPを示している。車載カメラ1に入射する光パルスLPの周期は、例えば他車両OVのライダ80における走査の周期に依存する。車載カメラ2に入射する光パルスLPの周期は、撮影の周期とは異なる。例えば光パルスLPの周期は、撮影の周期よりも長い。そうすると、複数のフレームのうち一部のフレームの露光時間だけが、光パルスLPが車載カメラ2に入射するタイミングと一致する。
Three vertical lines in the lower row indicate light pulses LP that are incident on the vehicle-mounted camera 2. The period of the light pulse LP incident on the vehicle-mounted
図10の例では、N-1枚目のフレームが光パルスLPの影響を受けることによって、画像の全域が高輝度領域となる。一方、N枚目及びN+1枚目のフレームは光パルスLPの影響を全く受けないため、画像の全域が低輝度領域となる。 In the example of FIG. 10, the N-1th frame is affected by the light pulse LP, so that the entire image becomes a high-luminance region. On the other hand, since the N-th and N+1-th frames are not affected by the light pulse LP at all, the entire image becomes a low-luminance region.
フレア抽出部62は、グローバルシャッタ方式に対応した抽出アルゴリズムを用いる。抽出アルゴリズムは、第1実施形態で説明した第1の方法、すなわち連続する複数のフレームを含む画像の時系列データに基づき、異常発生画像を抽出する方法を抽出方法として採用する。 The flare extraction unit 62 uses an extraction algorithm compatible with the global shutter method. The extraction algorithm adopts the first method described in the first embodiment, that is, the method of extracting an abnormality image based on time-series data of an image including a plurality of consecutive frames.
対応処理部63は、異常発生画像の対応処理として、第1実施形態で説明した第1の対応処理及び以下に説明する第7の対応処理のうち1種類を実行する。 The response processing unit 63 executes one type of response processing for the abnormality image out of the first response process described in the first embodiment and the seventh response process described below.
第7の対応処理は、異常発生画像全体の明るさを暗くなるように補正する処理である。すなわち、画像全体の輝度値が低下させられる。この対応処理は、画像において、上方が残っている場合に適用でき、情報が全く残らない状態にまでの完全な白飛びが発生している場合は適用できない。対応処理部63は、第7の対応処理の実行を試みた場合であっても、第7の対応処理を適用不能と判定した場合には、フレームを削除する第1の対応処理を実行するようにしてもよい。 The seventh response process is a process of correcting the brightness of the entire abnormality image so that it becomes darker. That is, the brightness value of the entire image is reduced. This correspondence processing can be applied when the upper part remains in the image, but cannot be applied when complete whiteout has occurred to the extent that no information remains. Even if the response processing unit 63 attempts to execute the seventh response process, if it is determined that the seventh response process is not applicable, the response processing unit 63 executes the first response process of deleting the frame. You may also do so.
以上説明した第2実施形態によると、グローバルシャッタ方式に対応した抽出アルゴリズムは、連続する複数のフレームを含む画像の時系列データを用いて、複数のフレーム間の特性の差を検出することに基づき、異常発生画像を抽出するアルゴリズムを含む。光パルスLPの入射は瞬間的な入射となるので、前後のフレーム等と比較することで、異常発生画像の抽出精度を高めることができる。 According to the second embodiment described above, the extraction algorithm compatible with the global shutter method is based on detecting differences in characteristics between multiple frames using time-series data of images including multiple consecutive frames. , includes an algorithm for extracting anomaly images. Since the light pulse LP is incident instantaneously, by comparing with the previous and subsequent frames, etc., it is possible to improve the accuracy of extraction of the abnormality occurrence image.
また、第2実施形態によると、異常発生画像への対応処理は、異常発生画像全体の輝度値を低下させるように補正する処理を含む。全体の輝度値を低下させることにより、画像に情報が残っている場合に、正常な画像と同じように物体認識に用いることが可能となる。 Furthermore, according to the second embodiment, the processing for dealing with an abnormality image includes a process of correcting so as to reduce the brightness value of the entire abnormality image. By lowering the overall brightness value, if information remains in the image, it becomes possible to use it for object recognition in the same way as a normal image.
(第3実施形態)
図11~13に示すように、第3実施形態は第1実施形態の変形例である。第3実施形態について、第1実施形態とは異なる点を中心に説明する。
(Third embodiment)
As shown in FIGS. 11 to 13, the third embodiment is a modification of the first embodiment. The third embodiment will be described focusing on the differences from the first embodiment.
第3実施形態の処理装置210は、自車両EVのライダ3から発光した光パルスLPが物体に反射して自車両EVの車載カメラ1に入射することで発生するフレア(高輝度異常)への対応処理を実現している。
The
自車両EVのライダ起因のフレアが発生し易いシーンは、例えば図11に示すように、片側複数車線の道路において、自車両EVと他車両OVが並走する場面である。例えばライダ3及び車載カメラ1が車両EVの側方に向けて搭載されている場合、ライダ3から発光された光パルスLPが自車両EVに並走する他車両OVに反射され、車載カメラ1に入射することがある。
A scene in which rider-induced flare of the own vehicle EV is likely to occur is, for example, as shown in FIG. 11, a scene where the own vehicle EV and another vehicle OV run parallel to each other on a road with multiple lanes on each side. For example, when the
なお、第3実施形態の車載カメラ1は、シャッタ方式として、ローリングシャッタ方式を採用している。
The vehicle-mounted
処理装置210は、図12に示すように、画像取得部51、ライダ動作取得部256、フレア抽出部252、対応処理部253、物体認識部54及び運転計画部55を、プログラムを実行するプロセッサ10bにより実現される機能ブロックとして含む構成である。画像取得部51、物体認識部54及び運転計画部55は、第1実施形態と同様である。
As shown in FIG. 12, the
ライダ動作取得部256は、自車両EVのライダ3の動作を取得する。ライダ3の動作には、光パルスLPの走査方向及び発光タイミング等のライダ3の動作の情報が含まれる。
The rider
フレア抽出部252は、ローリングシャッタ方式に対応した抽出アルゴリズムを用いる。抽出アルゴリズムは、以下の第4の方法を抽出方法として採用する。 The flare extraction unit 252 uses an extraction algorithm that supports the rolling shutter method. The extraction algorithm uses the following fourth method as the extraction method.
第4の方法は、ライダ3の動作の情報等を用いて、車載カメラ1の露光時間内に光パルスLPが車載カメラ1に入射するか否かを判断する方法である。具体的に、フレア抽出部252は、光パルスLPの走査方向及び発光タイミング、及び直前の物体認識情報から、光パルスLPが認識されている物体に反射する反射光の発生位置及び発生タイミングを推定する。そして、フレア抽出部252は、ローリングシャッタにおける露光時間内において、反射光の発生位置が車載カメラ1の画角内に入っているか否かを判断する。
The fourth method is a method of determining whether or not the light pulse LP is incident on the vehicle-mounted
ここで、車載カメラ1の制御速度に対して、光速は十分早い。このため、反射光が進む光路及び光路を進む間の時間は、推定において無視することができる。また、物体認識情報は、物体認識部54から取得されるようにしてもよいし、車載カメラ1の画像から抽出されるようにしてもよい。
Here, the speed of light is sufficiently faster than the control speed of the vehicle-mounted
ここで、フレア抽出部52は、水平方向の画素の複数のラインのうち、反射光が撮影されると推定されるラインを、特定してもよい。フレア抽出部52は、露光時間内において、反射光の発生位置が車載カメラ1の画角内に入っている、あるいは、反射光が撮影されるラインが存在すると判断した場合に、そのフレームを構成する画像が、異常発生画像であると判断する。
Here, the flare extracting unit 52 may specify a line from which reflected light is estimated to be photographed among a plurality of lines of pixels in the horizontal direction. If the flare extraction unit 52 determines that the position where the reflected light is generated is within the field of view of the in-
抽出アルゴリズムは、第4の方法と、さらに第1~第3の方法のいずれか1種類を組み合わせて、精度を高めるようにした構成であってもよい。 The extraction algorithm may be configured to improve accuracy by combining the fourth method and any one of the first to third methods.
対応処理部253は、異常発生画像の対応処理として、第1実施形態で説明した第1~6の対応処理及び以下に説明する第8~9の対応処理のうち1種類を実行する。 The response processing unit 253 performs one of the first to sixth response processes described in the first embodiment and the eighth and ninth response processes described below as a response process for an image in which an abnormality has occurred.
第8の対応処理は、次回撮影以降のライダ3の光パルスLPの干渉を抑制するように、ライダ3の発光タイミングをずらす処理である。すなわち、対応処理部253は、車載カメラ1に予定されている次フレーム以降の撮影タイミングの情報と、ライダ3に予定されている発光タイミングの情報とを取得する。
The eighth corresponding process is a process of shifting the light emission timing of the
そして、対応処理部253は、車載カメラ1の露光時間外に、ライダ3の発光タイミングが発生するように、当該発光タイミングをずらす。対応処理部253は、ライダ3に対して発光タイミングの変更要求を送信するようにしてもよい。処理装置210がライダ3の動作を計画し、制御する主体である場合には、対応処理部253は、発光タイミングの変更を、処理装置210によるライダ動作計画に反映させればよい。
Then, the corresponding processing unit 253 shifts the light emission timing of the
第9の対応処理は、車載カメラ1で高輝度異常が発生する閾値より小さくなるように、ライダ3の発光パワーを制御する処理である。ライダ3を弱発光させることにより、次フレーム以降の撮影において、仮に光パルスLPが車載カメラ1に入射したとしても、画像を正常な状態に保つことができる。
The ninth response process is a process for controlling the light emission power of the
さらに対応処理は、第8,9の対応処理のうち1種類と、第1実施形態で説明した第1~5の対応処理のうち1種類とを組み合わせた処理を実行してもよい。 Furthermore, the response process may be a combination of one of the eighth and ninth response processes and one of the first to fifth response processes described in the first embodiment.
次に、処理装置210による処理のうち、異常発生画像を抽出し、抽出結果に応じて対応処理をする処理方法の例を、図13のフローチャートを用いて説明する。ステップS11~S15に示される一連の処理は、例えば車載カメラ1が画像を1フレーム生成する毎、又は、処理装置210が自動運転の計画の更新を開始する毎に、実行される。
Next, an example of a processing method of extracting an abnormality image and performing corresponding processing according to the extraction result among the processing performed by the
S21では、画像取得部51は、車載カメラ1から最新の画像(例えば1フレーム分)を取得する。S21の処理後、S22へ進む。
In S21, the
S22では、フレア抽出部252は、S21で取得した画像の画角内に、自車両EVのライダ3による反射光が撮影されていると推定されるか否かを判断する。Yesの場合、フレア抽出部252は、フレアが発生しているS23へ進む。Noの場合、対応処理部253によって画像がそのまま物体認識部54へ提供され、一連の処理が終了される。
In S22, the flare extraction unit 252 determines whether it is estimated that reflected light from the
S23では、対応処理部253は、S21で取得した最新の画像よりも1フレーム前のフレームが正常であるか否かを判定する。Yesの場合、S24へ進む。Noの場合、S25へ進む。 In S23, the correspondence processing unit 253 determines whether the frame one frame before the latest image acquired in S21 is normal. If Yes, proceed to S24. If No, proceed to S25.
S24では、対応処理部253は、S21で取得した最新の画像のうち、高輝度異常部を、1フレーム前の画像と差し替える。対応処理部253は、差し替え処理後の画像を物体認識部54へ提供する。S24の処理後、S26へ進む。
In S24, the correspondence processing unit 253 replaces the high-brightness abnormal part in the latest image acquired in S21 with the image one frame before. The correspondence processing unit 253 provides the image after the replacement process to the
S25では、対応処理部253は、S21で取得した最新の画像を破棄する。S25の処理後、S26へ進む。 In S25, the correspondence processing unit 253 discards the latest image acquired in S21. After processing in S25, the process advances to S26.
S26では、対応処理部253は、ライダ3の動作を変更する。具体的には、上述の発光タイミングをずらす変更又はライダ3を弱発光させる変更が実施される。S26を以って一連の処理を終了する。
In S26, the response processing unit 253 changes the operation of the
以上説明した第3実施形態によると、ローリングシャッタ方式に対応した抽出アルゴリズムは、パルス発光型光学センサとしてのライダ3の動作の情報を用いて、車載カメラ1の露光時間内に光パルスLPが車載カメラ1へ入射しているか否かを判断することに基づき、異常発生画像を抽出するアルゴリズムを含む。こうした判断によって、ライダ3起因の高輝度異常を極めて精度良く判別することができる。
According to the third embodiment described above, the extraction algorithm compatible with the rolling shutter method uses the information on the operation of the
また、第3実施形態によると、異常発生画像への対応処理は、次回撮影以降のライダ3の光パルスLPとの干渉を抑制するように、ライダ3の発光タイミングをずらすように要求する処理を含む。発光タイミングのずれにより、次回撮影以降に高輝度異常が発生することを抑制することができる。
Further, according to the third embodiment, the process for responding to an abnormality image includes a process for requesting to shift the light emission timing of the
また、第3実施形態によると、異常発生画像への対応処理は、車載カメラ1で高輝度異常が発生する閾値より小さくなるように、ライダ3の発光パワーを制御する処理を含む。ライダ3を弱発光させることにより、光パルスLPが仮に車載カメラ1に入射したとしても、高輝度異常が発生する可能性を低減することができる。
Further, according to the third embodiment, the processing for responding to the abnormality occurrence image includes processing for controlling the light emitting power of the
(第4実施形態)
第4実施形態は第3実施形態の変形例である。第4実施形態について、第3実施形態とは異なる点を中心に説明する。
(Fourth embodiment)
The fourth embodiment is a modification of the third embodiment. The fourth embodiment will be described focusing on the differences from the third embodiment.
第4実施形態の処理装置210は、第3実施形態のように、自車両EVのライダ3から発光した光パルスLPが物体に反射して自車両EVの車載カメラ2に入射することで発生するフレア(高輝度異常)への対応処理を実現している。ただし、第4実施形態の車載カメラ2(図12も参照)は、シャッタ方式として、第2実施形態と同様のグローバルシャッタ方式を採用している。
The
フレア抽出部262は、グローバルシャッタ方式に対応した抽出アルゴリズムを用いる。抽出アルゴリズムは、以下の第5の方法を抽出方法として採用する。 The flare extraction unit 262 uses an extraction algorithm compatible with the global shutter method. The extraction algorithm employs the following fifth method as an extraction method.
第5の方法は、ライダ3の動作の情報等を用いて、車載カメラ2の露光時間内に光パルスLPが車載カメラ2に入射するか否かを判断する方法である。但し、第5の方法は、グローバルシャッタ方式に最適化されているため、第4の方法のような反射光が撮影されるラインの特定までは実施しない方法である。
The fifth method is a method of determining whether or not the light pulse LP is incident on the vehicle-mounted camera 2 within the exposure time of the vehicle-mounted camera 2 using information on the operation of the
抽出アルゴリズムは、第5の方法と、さらに第1の方法とを組み合わせて、精度を高めるようにした構成であってもよい。 The extraction algorithm may be configured to improve accuracy by combining the fifth method and the first method.
対応処理部263は、異常発生画像の対応処理として、第1実施形態で説明した第1の対応処理、第2実施形態で説明した第7の対応処理、及び第3実施形態で説明した第8~9の対応処理のうち1種類を実行する。さらに対応処理は、第8,9の対応処理のうち1種類と、第1,7の対応処理のうち1種類とを組み合わせた処理を実行してもよい。 The response processing unit 263 performs the first response process described in the first embodiment, the seventh response process described in the second embodiment, and the eighth response process described in the third embodiment as the response process for the abnormality image. Execute one type of corresponding processing from ~9. Further, the corresponding process may be a combination of one type of the eighth and ninth corresponding processes and one type of the first and seventh corresponding processes.
(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although multiple embodiments have been described above, the present disclosure is not to be construed as being limited to those embodiments, and may be applied to various embodiments and combinations within the scope of the gist of the present disclosure. Can be done.
抽出アルゴリズムは、ニューラルネットワークを用いたアルゴリズムであってもよい。例えば画像をニューラルネットワークに入力すると、異常発生画像か否かを示す結果が出力されるようにしてもよい。 The extraction algorithm may be an algorithm using a neural network. For example, when an image is input to a neural network, a result indicating whether the image is an abnormal image may be output.
他の実施形態として、第3実施形態において、フレア抽出部252は、第1実施形態と同じ抽出アルゴリズム、すなわちライダ3の情報を用いないアルゴリズムを採用してもよい。
As another embodiment, in the third embodiment, the flare extraction unit 252 may employ the same extraction algorithm as in the first embodiment, that is, an algorithm that does not use information about the
他の実施形態として、第8の対応処理において、対応処理部253は、ライダ3の発光タイミングに代えて、車載カメラ1の撮影タイミングをずらしてもよい。対応処理部253は、ライダ3の発光タイミング及び車載カメラ1の撮影タイミングの両方をずらしてもよい。
As another embodiment, in the eighth response process, the response processing unit 253 may shift the photographing timing of the vehicle-mounted
他の実施形態として、処理装置210においてライダ動作取得部256は、V2V通信を用いて他車両OVのライダ80の動作を取得し、これを用いて自車両EVのライダ3と同様の対応をライダ80に対して実施してもよい。
As another embodiment, the rider
他の実施形態として、図14に示すように、自動運転システムが複数のECU310,312を含む構成であってもよい。例えばカメラECU310は、車載カメラ1,2の制御及び画像処理を実行するECUである。AD-ECU312は、自動運転を実行するECUである。
As another embodiment, as shown in FIG. 14, the automatic driving system may include a plurality of
カメラECU310は、例えばコンピュータを主体として実現される。カメラECU310を実現するコンピュータは、メモリ310a及びプロセッサ310bを少なくとも1つずつ有していてよい。メモリ310aは、プロセッサ310bにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実態的記憶媒体であってよい。さらにメモリ310aとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサ310bは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。
カメラECU310は、処理装置10,210の機能ブロックのうち、画像取得部51、フレア抽出部52,62,252,262、対応処理部53,63,253,263を含む構成であってよい。
The
AD-ECU312は、例えばコンピュータを主体として実現される。AD-ECU312を実現するコンピュータは、メモリ312a及びプロセッサ312bを少なくとも1つずつ有していてよい。メモリ312aは、プロセッサ312bにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実態的記憶媒体であってよい。さらにメモリ312aとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサ312bは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。
The AD-
AD-ECU312は、処理装置10,210の機能ブロックのうち、物体認識部54及び運転計画部55を含む構成であってよい。なお、物体認識部54は、カメラECU310側に含まれていてもよい。
The AD-
他の実施形態として、車載カメラ1,2は、例えば光学系において、バンドパスフィルタを、さらに含んでいてよい。バンドパスフィルタは、ライダ3,80が発光する光パルスLPによく用いられる800~1000nmの波長の光を減衰させる機能を有する。バンドパスフィルタは、800~1000nmの波長の光のエネルギー透過率が0.01よりも小さいという分光特性を有していてよい。
As another embodiment, the vehicle-mounted
他の実施形態として、図15に示す車載カメラ401は、例えば光学系において、偏光フィルタ402を、さらに含んでいてよい。偏光フィルタ402は、例えば車載カメラ401の鏡筒403の先端部に設けられている。図16に示すように、偏光フィルタ402は、互いに直交する吸収軸402a及び透過軸402bを有し、透過軸402b方向に偏光した光Pbを透過させ、吸収軸401a方向に偏光した光Paを吸収する性質を有する。
As another embodiment, the in-
偏光フィルタ402の吸収軸402aは、ライダ3の光パルスLPが物体に反射されることによる反射光を効率的に吸収すべく、反射光に想定される偏光方向に沿うように設定される。すなわちこの例の前提において、自車両EVのライダ3の光源3aは、直線偏光する光パルスLPを発光する。例えば、ライダ3が水平方向に沿った偏光方向に直線偏光する光パルスLPを発する場合、偏光フィルタ402の吸収軸402aは、水平方向に沿うように配置され、透過軸402bは、鉛直方向に沿うように配置される。そうすることで、鉛直方向に沿った偏光Pbのみが撮像素子404に入射する。すなわち、ライダ3の光パルスLPが撮像素子404に到達することは困難となる。
The
他の実施形態として、処理装置10,210は、自動運転レベル1,2の運転支援を実行可能な車両に適用されてもよい。
In another embodiment, the
本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The control unit and techniques described in this disclosure may be implemented by a special purpose computer comprising a processor programmed to perform one or more functions embodied by a computer program. Alternatively, the apparatus and techniques described in this disclosure may be implemented with dedicated hardware logic circuits. Alternatively, the apparatus and techniques described in this disclosure may be implemented by one or more special purpose computers configured by a combination of a processor executing a computer program and one or more hardware logic circuits. The computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.
(技術的思想の開示)
この明細書は、以下に列挙する複数の項に記載された複数の技術的思想を開示している。いくつかの項は、後続の項において先行する項を択一的に引用する多項従属形式(a multiple dependent form)により記載されている場合がある。これらの多項従属形式で記載された項は、複数の技術的思想を定義している。
(Disclosure of technical ideas)
This specification discloses multiple technical ideas described in multiple sections listed below. Some sections may be written in a multiple dependent form, in which subsequent sections alternatively cite preceding sections. The terms written in these multiple dependent forms define multiple technical ideas.
<技術的思想1>
自動運転を実行可能な車両(EV)において、所定のシャッタ方式をもつ車載カメラ(1,2,401)で撮影された画像に対する対応処理を運転アクションに反映させるために、少なくとも1つのプロセッサ(10b,310b)を備える処理装置であって、
前記少なくとも1つのプロセッサは、
前記画像を取得することと、
前記画像から、前記シャッタ方式に対応した抽出アルゴリズムを用いて、前記車載カメラにパルス発光型光学センサ(3,80)からの光パルス(LP)が入射したことによる高輝度異常が発生した異常発生画像を抽出することと、
前記異常発生画像に対する前記対応処理を、他の前記画像に対する前記対応処理とは異ならせることと、を実行するように構成されている、処理装置。
<
In a vehicle (EV) capable of autonomous driving, at least one processor (10b , 310b),
The at least one processor includes:
obtaining the image;
From the image, an extraction algorithm corresponding to the shutter method is used to determine the occurrence of an abnormality in which a high-intensity abnormality occurs due to the light pulse (LP) from the pulse-emitting optical sensor (3, 80) entering the vehicle-mounted camera. extracting the image;
A processing device configured to perform the following steps: making the handling process for the abnormality image different from the handling process for other images.
<技術的思想2>
前記シャッタ方式は、ローリングシャッタ方式であり、
前記抽出アルゴリズムは、連続する複数のフレームを含む前記画像の時系列データを用いて、前記複数のフレーム間の特性の差を検出することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、技術的思想1に記載の処理装置。
<Technical philosophy 2>
The shutter method is a rolling shutter method,
The extraction algorithm includes an algorithm for extracting the abnormality image based on detecting a difference in characteristics between the plurality of frames using time-series data of the image including a plurality of consecutive frames. The processing device according to
<技術的思想3>
前記シャッタ方式は、ローリングシャッタ方式であり、
前記抽出アルゴリズムは、前記車載カメラの撮像素子において撮影タイミングに時間差が発生する複数のラインと直交する方向の輝度値マップから、高輝度異常を示す輝度値の段差形状を検出することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、技術的思想1又は2に記載の処理装置。
<
The shutter method is a rolling shutter method,
The extraction algorithm is based on detecting a stepped shape of brightness values indicating a high brightness abnormality from a brightness value map in a direction perpendicular to a plurality of lines in which time differences occur in photographing timing in the image sensor of the in-vehicle camera. The processing device according to
<技術的思想4>
前記シャッタ方式は、ローリングシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記異常発生画像に相当するフレームを、全て削除する処理を含む、技術的思想1~3のいずれか1項に記載の処理装置。
<Technical philosophy 4>
The shutter method is a rolling shutter method,
The processing device according to any one of
<技術的思想5>
前記シャッタ方式は、ローリングシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記異常発生画像のフレームのうち、高輝度異常が発生した部分を、その前のフレームに対応する画素から移植する処理を含む、技術的思想1~3のいずれか1項に記載の処理装置。
<Technical philosophy 5>
The shutter method is a rolling shutter method,
<技術的思想6>
前記シャッタ方式は、ローリングシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記異常発生画像のフレームのうち、高輝度異常が発生した部分を、前記自動運転において利用する対象から除外するようにマスキングする処理を含む、技術的思想1~3、5のいずれか1項に記載の処理装置。
<Technical philosophy 6>
The shutter method is a rolling shutter method,
The technical idea is that the processing for responding to the abnormality image includes a process of masking a part of the frame of the abnormality image in which a high-intensity abnormality has occurred so as to exclude it from the target to be used in the automatic driving. The processing device according to any one of
<技術的思想7>
前記少なくとも1つのプロセッサは、
前記画像に前記画像の信頼度の情報を付与することを、さらに実行するように構成されており、
前記シャッタ方式は、ローリングシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記異常発生画像のフレームのうち、高輝度異常が発生した部分の信頼度を、他の部分の信頼度よりも低下させる処理を含む、技術的思想1~3、5、6のいずれか1項に記載の処理装置。
<Technical philosophy 7>
The at least one processor includes:
The image processing apparatus is configured to further perform the step of adding reliability information of the image to the image;
The shutter method is a rolling shutter method,
<技術的思想8>
前記シャッタ方式は、ローリングシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記車載カメラに対して、現状の前記異常発生画像の撮影条件として採用されていた露光時間に対して、次回撮影以降の前記露光時間を変更する要求を出力する処理を含む、技術的思想1~3、5~7のいずれか1項に記載の処理装置。
<Technical philosophy 8>
The shutter method is a rolling shutter method,
The processing for responding to the abnormality image includes requesting the in-vehicle camera to change the exposure time for the next time the image is taken, with respect to the exposure time currently adopted as the photographing condition for the abnormality image. The processing device according to any one of
<技術的思想9>
前記抽出アルゴリズムは、前記要求に対応した前記露光時間の変更により、前記露光時間に応じた、高輝度異常が発生した部分の幅の変化を検出することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、技術的思想8に記載の処理装置。
<Technical philosophy 9>
The extraction algorithm is an algorithm that extracts the image in which the abnormality occurs based on detecting a change in the width of the portion where the high-intensity abnormality occurs according to the exposure time by changing the exposure time in response to the request. The processing device according to Technical Idea 8, comprising:
<技術的思想10>
前記少なくとも1つのプロセッサは、
前記パルス発光型光学センサの動作を取得することを、さらに実行するように構成されており、
前記シャッタ方式は、ローリングシャッタ方式であり、
前記抽出アルゴリズムは、前記パルス発光型光学センサの動作の情報を用いて、前記車載カメラの露光時間内に前記光パルスが前記車載カメラへ入射しているか否かを判断することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、技術的思想1~9のいずれか1項に記載の処理装置。
<
The at least one processor includes:
further configured to obtain an operation of the pulsed light emitting optical sensor;
The shutter method is a rolling shutter method,
The extraction algorithm is based on determining whether or not the light pulse is incident on the vehicle-mounted camera within the exposure time of the vehicle-mounted camera, using information on the operation of the pulse-emitting optical sensor. The processing device according to any one of
<技術的思想11>
前記シャッタ方式は、グローバルシャッタ方式であり、
前記抽出アルゴリズムは、連続する複数のフレームを含む前記画像の時系列データを用いて、前記複数のフレーム間の特性の差を検出することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、技術的思想1に記載の処理装置。
<Technical Thought 11>
The shutter method is a global shutter method,
The extraction algorithm includes an algorithm for extracting the abnormality image based on detecting a difference in characteristics between the plurality of frames using time-series data of the image including a plurality of consecutive frames. The processing device according to
<技術的思想12>
前記シャッタ方式は、グローバルシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記異常発生画像に相当するフレームを、全て削除する処理を含む、技術的思想1又は11に記載の処理装置。
<Technical Thought 12>
The shutter method is a global shutter method,
The processing device according to
<技術的思想13>
前記シャッタ方式は、グローバルシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記異常発生画像全体の輝度値を低下させるように補正する処理を含む、技術的思想1又は11に記載の処理装置。
<Technical Thought 13>
The shutter method is a global shutter method,
The processing device according to
<技術的思想14>
前記少なくとも1つのプロセッサは、
前記パルス発光型光学センサの動作を取得することを、さらに実行するように構成されており、
前記シャッタ方式は、グローバルシャッタ方式であり、
前記抽出アルゴリズムは、前記パルス発光型光学センサの動作の情報を用いて、前記車載カメラの露光時間内に前記光パルスが前記車載カメラへ入射しているか否かを判断することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、技術的思想1、11~13のいずれか1項に記載の処理装置。
<Technical Thought 14>
The at least one processor includes:
further configured to obtain the operation of the pulsed light emitting optical sensor;
The shutter method is a global shutter method,
The extraction algorithm is based on determining whether or not the light pulse is incident on the vehicle-mounted camera within the exposure time of the vehicle-mounted camera, using information on the operation of the pulse-emitting optical sensor. The processing device according to any one of
<技術的思想15>
前記異常発生画像への前記対応処理は、次回撮影以降の前記パルス発光型光学センサの前記光パルスとの干渉を抑制するように、前記パルス発光型光学センサの発光タイミングをずらすように要求する処理を含む、技術的思想10又は14に記載の処理装置。
<Technical Thought 15>
The response process to the abnormality image is a process of requesting that the light emission timing of the pulse emission type optical sensor be shifted so as to suppress interference with the light pulse of the pulse emission type optical sensor from the next shooting onward. The processing device according to
<技術的思想16>
前記異常発生画像への前記対応処理は、前記車載カメラで高輝度異常が発生する閾値より小さくなるように、前記パルス発光型光学センサの発光パワーを制御する処理を含む、技術的思想10又は14に記載の処理装置。
<Technical Thought 16>
<技術的思想17>
前記少なくとも1つのプロセッサは、
前記対応処理の結果に基づいた前記自動運転の前記運転アクションを導出することと、をさらに実行するように構成されている、技術的思想1~16のいずれか1項に記載の処理装置。
<Technical Thought 17>
The at least one processor includes:
The processing device according to any one of
<技術的思想18>
自動運転を実行可能な車両(EV)において、所定のシャッタ方式をもつ車載カメラ(1,2,401)で撮影された画像に対する対応処理を運転アクションに反映させるために、少なくとも1つのプロセッサ(10b,310b)により実行される処理方法であって、
前記画像を取得することと、
前記画像から、前記シャッタ方式に対応した抽出アルゴリズムを用いて、前記車載カメラにパルス発光型光学センサ(3,80)からの光パルス(LP)が入射したことによる高輝度異常が発生した異常発生画像を抽出することと、
前記異常発生画像に対する前記対応処理を、他の前記画像に対する前記対応処理とは異ならせることと、を含む、処理方法。
<Technical Thought 18>
In a vehicle (EV) capable of autonomous driving, at least one processor (10b , 310b), the processing method being performed by
obtaining the image;
From the image, an extraction algorithm corresponding to the shutter method is used to determine the occurrence of an abnormality in which a high-intensity abnormality occurs due to the light pulse (LP) from the pulse-emitting optical sensor (3, 80) entering the vehicle-mounted camera. extracting the image;
A processing method comprising: making the handling process for the abnormality image different from the handling process for other images.
<技術的思想19>
自動運転システムであって、
自動運転を実行可能な車両(EV)に搭載され、所定のシャッタ方式をもち、画像を撮影する車載カメラ(1,2,401)と、
前記車載カメラで撮影された画像に対する対応処理を前記車両の運転アクションに反映させるために、少なくとも1つのプロセッサ(10b,310b)を備える処理装置(10,210,310)と、を具備し、
前記少なくとも1つのプロセッサは、
前記画像を取得することと、
前記画像から、前記シャッタ方式に対応した抽出アルゴリズムを用いて、前記車載カメラにパルス発光型光学センサ(3,80)からの光パルス(LP)が入射したことによる高輝度異常が発生した異常発生画像を抽出することと、
前記異常発生画像に対する前記対応処理を、他の前記画像に対する前記対応処理とは異ならせることと、を実行するように構成されている、自動運転システム。
<Technical Thought 19>
An automatic driving system,
An on-vehicle camera (1, 2, 401) that is installed in a vehicle (EV) capable of autonomous driving, has a predetermined shutter method, and captures images;
A processing device (10, 210, 310) including at least one processor (10b, 310b) in order to reflect the corresponding processing for the image taken by the on-vehicle camera in the driving action of the vehicle,
The at least one processor includes:
obtaining the image;
From the image, an extraction algorithm corresponding to the shutter method is used to determine the occurrence of an abnormality in which a high-intensity abnormality occurs due to the light pulse (LP) from the pulse-emitting optical sensor (3, 80) entering the vehicle-mounted camera. extracting the image;
An automatic driving system configured to perform the following steps: making the corresponding processing for the abnormality occurrence image different from the corresponding processing for other images.
<技術的思想20>
前記パルス発光型光学センサは、所定の偏光方向に直線偏光した前記光パルスを発光し、
前記車載カメラは、前記偏光方向に直線偏光した前記光パルスのうち少なくとも一部を、吸収可能に構成された偏光フィルタ(402)を、備える、技術的思想19に記載の自動運転システム。
<Technical Concept 20>
The pulse-emitting optical sensor emits the light pulse linearly polarized in a predetermined polarization direction,
The autonomous driving system described in Technical Idea 19, wherein the onboard camera is equipped with a polarizing filter (402) configured to absorb at least a portion of the light pulses linearly polarized in the polarization direction.
1,2,401:車載カメラ、3,80:ライダ(パルス発光型光学センサ)、10,210:処理装置、310:カメラECU(処理装置)、10b,310b:プロセッサ、EV:車両、LP:光パルス 1, 2, 401: Vehicle-mounted camera, 3, 80: Lidar (pulse emission type optical sensor), 10, 210: Processing device, 310: Camera ECU (processing device), 10b, 310b: Processor, EV: Vehicle, LP: light pulse
Claims (17)
前記少なくとも1つのプロセッサは、
前記画像を取得することと、
前記画像から、前記シャッタ方式に対応した抽出アルゴリズムを用いて、前記車載カメラにパルス発光型光学センサ(3,80)からの光パルス(LP)が入射したことによる高輝度異常が発生した異常発生画像を抽出することと、
前記異常発生画像に対する前記対応処理を、他の前記画像に対する前記対応処理とは異ならせることと、を実行するように構成されている、処理装置。 In a vehicle (EV) capable of autonomous driving, at least one processor (10b , 310b),
The at least one processor includes:
obtaining the image;
From the image, an extraction algorithm corresponding to the shutter method is used to determine the occurrence of an abnormality in which a high-intensity abnormality occurs due to the light pulse (LP) from the pulse-emitting optical sensor (3, 80) entering the vehicle-mounted camera. extracting the image;
A processing device configured to perform the following steps: making the handling process for the abnormality image different from the handling process for other images.
前記抽出アルゴリズムは、連続する複数のフレームを含む前記画像の時系列データを用いて、前記複数のフレーム間の特性の差を検出することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、請求項1に記載の処理装置。 The shutter method is a rolling shutter method,
The extraction algorithm includes an algorithm that extracts the abnormality image based on detecting a difference in characteristics between the plurality of frames using time-series data of the image including a plurality of consecutive frames. Item 1. The processing device according to item 1.
前記抽出アルゴリズムは、前記車載カメラの撮像素子において撮影タイミングに時間差が発生する複数のラインと直交する方向の輝度値マップから、高輝度異常を示す輝度値の段差形状を検出することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、請求項1に記載の処理装置。 The shutter method is a rolling shutter method,
The extraction algorithm is based on detecting a stepped shape of brightness values indicating a high brightness abnormality from a brightness value map in a direction perpendicular to a plurality of lines in which time differences occur in photographing timing in the image sensor of the in-vehicle camera. The processing device according to claim 1, comprising an algorithm for extracting an abnormality occurrence image.
前記異常発生画像への前記対応処理は、前記異常発生画像に相当するフレームを、全て削除する処理を含む、請求項1に記載の処理装置。 The shutter method is a rolling shutter method,
2. The processing device according to claim 1, wherein the processing for responding to the abnormality image includes a process of deleting all frames corresponding to the abnormality image.
前記異常発生画像への前記対応処理は、前記異常発生画像のフレームのうち、高輝度異常が発生した部分を、その前のフレームに対応する画素から移植する処理を含む、請求項1に記載の処理装置。 The shutter method is a rolling shutter method,
2. The process of responding to the abnormality image includes a process of transplanting a portion where a high-intensity abnormality has occurred from a pixel corresponding to a previous frame in a frame of the abnormality image. Processing equipment.
前記異常発生画像への前記対応処理は、前記異常発生画像のフレームのうち、高輝度異常が発生した部分を、前記自動運転において利用する対象から除外するようにマスキングする処理を含む、請求項1に記載の処理装置。 The shutter method is a rolling shutter method,
1 . The process of responding to the abnormality image includes a process of masking a part of the frame of the abnormality image in which a high-intensity abnormality occurs so as to exclude it from a target to be used in the automatic driving. The processing device described in .
前記画像に前記画像の信頼度の情報を付与することを、さらに実行するように構成されており、
前記シャッタ方式は、ローリングシャッタ方式であり、
前記異常発生画像への前記対応処理は、前記異常発生画像のフレームのうち、高輝度異常が発生した部分の信頼度を、他の部分の信頼度よりも低下させる処理を含む、請求項1に記載の処理装置。 The at least one processor includes:
The image processing apparatus is configured to further perform the step of adding reliability information of the image to the image;
The shutter method is a rolling shutter method,
2. The method according to claim 1, wherein the processing for responding to the abnormality image includes a process of lowering reliability of a portion where a high-intensity abnormality has occurred in a frame of the abnormality image than the reliability of other portions. Processing equipment as described.
前記異常発生画像への前記対応処理は、前記車載カメラに対して、現状の前記異常発生画像の撮影条件として採用されていた露光時間に対して、次回撮影以降の前記露光時間を変更する要求を出力する処理を含む、請求項1に記載の処理装置。 The shutter method is a rolling shutter method,
The processing for responding to the abnormality image includes requesting the in-vehicle camera to change the exposure time for the next time the image is taken, with respect to the exposure time currently adopted as the photographing condition for the abnormality image. The processing device according to claim 1, comprising processing for outputting.
前記パルス発光型光学センサの動作を取得することを、さらに実行するように構成されており、
前記シャッタ方式は、ローリングシャッタ方式であり、
前記抽出アルゴリズムは、前記パルス発光型光学センサの動作の情報を用いて、前記車載カメラの露光時間内に前記光パルスが前記車載カメラへ入射しているか否かを判断することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、請求項1に記載の処理装置。 The at least one processor includes:
further configured to obtain the operation of the pulsed light emitting optical sensor;
The shutter method is a rolling shutter method,
The extraction algorithm is based on determining whether or not the light pulse is incident on the vehicle-mounted camera within the exposure time of the vehicle-mounted camera, using information on the operation of the pulse-emitting optical sensor. Processing device according to claim 1, comprising an algorithm for extracting the generated image.
前記抽出アルゴリズムは、連続する複数のフレームを含む前記画像の時系列データを用いて、前記複数のフレーム間の特性の差を検出することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、請求項1に記載の処理装置。 The shutter method is a global shutter method,
The extraction algorithm includes an algorithm that extracts the abnormality image based on detecting a difference in characteristics between the plurality of frames using time-series data of the image including a plurality of consecutive frames. Item 1. The processing device according to item 1.
前記異常発生画像への前記対応処理は、前記異常発生画像に相当するフレームを、全て削除する処理を含む、請求項1に記載の処理装置。 The shutter method is a global shutter method,
2. The processing device according to claim 1, wherein the processing for responding to the abnormality image includes a process of deleting all frames corresponding to the abnormality image.
前記異常発生画像への前記対応処理は、前記異常発生画像全体の輝度値を低下させるように補正する処理を含む、請求項1に記載の処理装置。 The shutter method is a global shutter method,
2. The processing device according to claim 1, wherein the processing for responding to the abnormality image includes a process of correcting so as to reduce a luminance value of the entire abnormality image.
前記パルス発光型光学センサの動作を取得することを、さらに実行するように構成されており、
前記シャッタ方式は、グローバルシャッタ方式であり、
前記抽出アルゴリズムは、前記パルス発光型光学センサの動作の情報を用いて、前記車載カメラの露光時間内に前記光パルスが前記車載カメラへ入射しているか否かを判断することに基づき、前記異常発生画像を抽出するアルゴリズムを含む、請求項1に記載の処理装置。 The at least one processor includes:
further configured to obtain the operation of the pulsed light emitting optical sensor;
The shutter method is a global shutter method,
The extraction algorithm is based on determining whether or not the light pulse is incident on the vehicle-mounted camera within the exposure time of the vehicle-mounted camera, using information on the operation of the pulse-emitting optical sensor. 2. Processing device according to claim 1, comprising an algorithm for extracting generated images.
前記対応処理の結果に基づいた前記自動運転の前記運転アクションを導出することと、をさらに実行するように構成されている、請求項1に記載の処理装置。 The at least one processor includes:
The processing device according to claim 1, further configured to derive the driving action for the automatic driving based on the result of the corresponding processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022148362A JP2024043269A (en) | 2022-09-16 | 2022-09-16 | Processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022148362A JP2024043269A (en) | 2022-09-16 | 2022-09-16 | Processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024043269A true JP2024043269A (en) | 2024-03-29 |
Family
ID=90418436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022148362A Pending JP2024043269A (en) | 2022-09-16 | 2022-09-16 | Processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024043269A (en) |
-
2022
- 2022-09-16 JP JP2022148362A patent/JP2024043269A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107852465B (en) | Vehicle-mounted environment recognition device | |
JP5299513B2 (en) | Obstacle detection device and method, and obstacle detection system | |
EP3423865B1 (en) | Gated imaging apparatus, system and method | |
US9904859B2 (en) | Object detection enhancement of reflection-based imaging unit | |
CN104512411B (en) | Vehicle control system and imaging sensor | |
US11423663B2 (en) | Object detection device, object detection method, and non-transitory computer readable medium comprising computer program for object detection-use | |
JP6453490B2 (en) | Method and apparatus for recognizing and evaluating road surface reflections | |
WO2010137563A1 (en) | Image processing apparatus | |
US11877066B2 (en) | Adaptive illumination for a time-of-flight camera on a vehicle | |
JPWO2017110415A1 (en) | Vehicle sensor and vehicle equipped with the same | |
WO2017098709A1 (en) | Image recognition device and image recognition method | |
US11670083B2 (en) | Vision based light detection and ranging system using dynamic vision sensor | |
JP2018516799A5 (en) | ||
JP6701253B2 (en) | Exterior environment recognition device | |
US20240142628A1 (en) | Object detection device and object detection method | |
JP2024043269A (en) | Processor | |
JP2021050945A (en) | Object recognition device and object recognition program | |
US20240193908A1 (en) | Information processing apparatus and information processing method | |
JP2007096684A (en) | Outside environment recognizing device of vehicle | |
WO2021060397A1 (en) | Gating camera, automobile, vehicle lamp, image processing device, and image processing method | |
EP3227742B1 (en) | Object detection enhancement of reflection-based imaging unit | |
WO2023013776A1 (en) | Gating camera, vehicular sensing system, and vehicular lamp | |
JPWO2019142586A1 (en) | Image processing system and light distribution control system | |
WO2024009605A1 (en) | Image processing device and image processing method | |
US20240083346A1 (en) | Gating camera, vehicle sensing system, and vehicle lamp |