KR20210076139A - How to create car control settings - Google Patents

How to create car control settings Download PDF

Info

Publication number
KR20210076139A
KR20210076139A KR1020217015636A KR20217015636A KR20210076139A KR 20210076139 A KR20210076139 A KR 20210076139A KR 1020217015636 A KR1020217015636 A KR 1020217015636A KR 20217015636 A KR20217015636 A KR 20217015636A KR 20210076139 A KR20210076139 A KR 20210076139A
Authority
KR
South Korea
Prior art keywords
vehicle
raw data
sensor
sensors
computing unit
Prior art date
Application number
KR1020217015636A
Other languages
Korean (ko)
Inventor
카트린 마테스
Original Assignee
르노 에스.아.에스.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 르노 에스.아.에스. filed Critical 르노 에스.아.에스.
Publication of KR20210076139A publication Critical patent/KR20210076139A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0225Failure correction strategy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/023Avoiding failures by using redundant parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0016State machine analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Electric Motors In General (AREA)

Abstract

본 발명은 컴퓨팅 유닛(20) 및 자동차의 환경에 관련된 원시 데이터를 획득하도록 구성된 복수 개의 센서들(10, 11, 12)을 포함하는 자동차를 제어하는 방법으로서, 상기 컴퓨팅 유닛(20)은 상기 센서들에 의해 획득된 원시 데이터를 수신하도록 구성된, 자동차의 제어 방법에 관한 것이며, 상기 자동차의 제어 방법은, - 상기 컴퓨팅 유닛이 상기 센서들에 의해 획득된 원시 데이터를 수신하는 단계; - 상기 컴퓨팅 유닛은 자동차의 환경에 관련된 정보(S1, S2, S3) 및 각각의 항목의 정보를 획득하는데 오류가 있을 확률에 관련된 확률 계수들(P1, P2, P3)을 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계; 및 - 상기 정보 및 상기 확률 계수들에 따라 자동차의 제어 명령(C1)을 조성하는 단계; 를 포함한다. 본 발명에 의하면, 상기 자동차의 제어 방법은, - 상기 센서들 중 적어도 하나의 센서에 대해, 이러한 센서에 의해 송신된 원시 데이터의 품질에 관련된 품질 계수를 결정하는 단계; - 상기 품질 계수들 및 상기 확률 계수들에 따라 상기 제어 명령의 신뢰도를 추정하는 단계; 및 - 상기 제어 명령의 추정된 신뢰도에 따라 상기 제어 명령을 수정할지 말지를 결정하는 단계; 를 또 포함한다.The present invention is a method of controlling a vehicle comprising a computing unit (20) and a plurality of sensors (10, 11, 12) configured to obtain raw data related to the environment of the vehicle, wherein the computing unit (20) comprises the sensor It relates to a control method of a vehicle, configured to receive raw data obtained by the sensors, the control method of the vehicle comprising: - the computing unit receiving the raw data obtained by the sensors; - The computing unit obtains from the raw data information related to the environment of the vehicle (S1, S2, S3) and probability coefficients (P1, P2, P3) related to the probability of an error in obtaining information of each item from the raw data processing the raw data; and - formulating a control command (C1) of the vehicle according to said information and said probability coefficients; includes According to the invention, the method for controlling a motor vehicle comprises: determining, for at least one of the sensors, a quality factor related to the quality of the raw data transmitted by this sensor; - estimating the reliability of the control command according to the quality factors and the probability factors; and - determining whether to modify the control command according to the estimated reliability of the control command; also includes

Figure P1020217015636
Figure P1020217015636

Description

자동차 제어 설정들을 생성하는 방법How to create car control settings

본 발명은 일반적으로 자동차들의 운전자 지원에 관한 것이다.FIELD OF THE INVENTION The present invention relates generally to driver assistance in automobiles.

더 구체적으로 기술하면, 본 발명은 스티어링 시스템, 제동 시스템 또는 파워트레인과 같은 자동차의 하나 이상의 구동 부재들에 대한 제어 명령을 조성(造成)하는 방법에 관한 것이다.More particularly, the present invention relates to a method of generating control commands for one or more drive members of a motor vehicle, such as a steering system, a braking system or a powertrain.

본 발명은 또한 자동차의 환경에 관련된 원시 데이터를 획득하기에 적합한 복수 개의 센서들 및 컴퓨팅 유닛을 포함하는 자동차에 관한 것이다.The invention also relates to a motor vehicle comprising a plurality of sensors and a computing unit suitable for obtaining raw data relating to the environment of the vehicle.

본 발명은 더 구체적으로 기술하면 자율 주행 모드를 갖춘 차량에 적용된다. 따라서, 본 발명은 자동차, 항공 및 항공 우주 분야에 적용될 수 있을 것이다.The present invention is more specifically applied to a vehicle equipped with an autonomous driving mode. Accordingly, the present invention may be applied to automotive, aerospace and aerospace fields.

자동차의 주행을 용이하게 하고 더 안전하게 하기 위해, 자동차에 운전자 지원 시스템들을 장착하는 것은 공지된 관행이다. 상기 운전자 지원 시스템들은 (인간의 개입 없이) 자동차의 자율 주행을 허용하는 시스템들, 또는 자동차의 부분 자율 주행을 허용하는 시스템들(일반적으로는 예를 들어 비상 제동을 적용하거나 자동차 차선 중심에 자동차를 복귀시키도록 자동차를 일시적으로 제어하는 데 적합한 시스템들)일 수 있다.It is a known practice to equip motor vehicles with driver assistance systems to facilitate and make the driving of motor vehicles safer. Said driver assistance systems are systems that allow autonomous driving of a motor vehicle (without human intervention), or systems that allow partially autonomous driving of a motor vehicle (usually for example applying emergency braking or centering the vehicle in a vehicle lane). systems suitable for temporarily controlling the vehicle to return

이러한 시스템들이 자동차 주변 환경을 파악할 수 있게 하기 위해, 카메라 및 RADAR, LIDAR, SONAR 센서들 등과 같은 수많은 센서가 자동차 상에 배치된다.To enable these systems to understand the environment around the car, numerous sensors such as cameras and RADAR, LIDAR, SONAR sensors are placed on the car.

각각의 센서에는 각각의 센서의 특성과 단점이 있다. 환경 검출 오류들을 가장 잘 줄이기 위해, "데이터 융합(data fusion)"을 수행하는 것, 다시 말하면 단일 항목의 환경 데이터를 서로 다른 센서들로부터 획득하기 위해 서로 다른 센서들에 의해 송신된 데이터를 고려하는 것은 공지된 관행이다. 따라서, 각각의 센서의 특성을 활용하는 것이 가능하다.Each sensor has its own characteristics and disadvantages. To best reduce environmental detection errors, performing "data fusion", i.e. taking into account the data transmitted by different sensors to obtain a single item of environmental data from different sensors It is a known practice. Accordingly, it is possible to utilize the characteristics of each sensor.

공교롭게, 그러함에 불구하고, 자동차가 여전히 실수를 범하는 일, 다시 말하면 자동차가 상황을 잘못 파악하는 일이 벌어질 수 있다. 예를 들어, 자동차는 위험한 객체를 무해한 장애물로 잘못 간주하고 결과적으로는 비상 제동 커맨드를 실행하지 않을 수 있다.Coincidentally, nevertheless, it can happen that cars still make mistakes, that is, cars get things wrong. For example, a car may mistakenly consider a hazardous object as a harmless obstacle and not issue an emergency braking command as a result.

그러므로 이러한 오류들을 줄이는 것이 필요하다.Therefore, it is necessary to reduce these errors.

본 발명은 표준 ISO26262에 의해 정의된 바와 같은 기능 안전 레벨 ASIL D("Automotive Safety Integrity Level D"의 약어)를 충족시키는 새로운 방법 및 새로운 시스템을 제공한다.The present invention provides a new method and a new system for meeting the functional safety level ASIL D (abbreviation of "Automotive Safety Integrity Level D") as defined by the standard ISO26262.

더 구체적으로는, 본 발명에 따라 자동차를 제어하는 방법이 제안되며, 자동차의 제어 방법은,More specifically, a method for controlling a vehicle is proposed according to the present invention, the method for controlling a vehicle comprising:

- 자동차의 컴퓨팅 유닛이 자동차의 센서들에 의해 획득되고 자동차의 환경에 관련된 원시 데이터를 수신하는 단계;- the computing unit of the vehicle receiving raw data obtained by the sensors of the vehicle and relating to the environment of the vehicle;

- 상기 컴퓨팅 유닛은 자동차의 환경에 관련된 정보 및 각각의 항목의 정보를 획득하는데 오류가 있을 확률에 관련된 확률 계수를 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계;- the computing unit processing the raw data to obtain, from the raw data, information related to the environment of the vehicle and a probability coefficient related to a probability of an error in obtaining information of each item;

- 상기 정보 및 상기 확률 계수에 따라 자동차의 제어 명령을 조성하는 단계;- formulating a control command of the vehicle according to said information and said probability coefficient;

- 상기 센서들 중 적어도 제1 센서에 대해, 상기 제1 센서가 획득하는 상기 원시 데이터의 품질에 관련된 품질 계수를 결정하는 단계;- determining, for at least a first of said sensors, a quality factor related to the quality of said raw data obtained by said first sensor;

- 상기 품질 계수 및 상기 확률 계수에 따라 상기 제어 명령의 신뢰도를 추정하는 단계;- estimating the reliability of the control command according to the quality factor and the probability factor;

- 상기 제어 명령의 추정된 신뢰도에 따라 상기 제어 명령을 수정할지 말지를 결정하는 단계;- determining whether to modify the control command according to the estimated reliability of the control command;

를 포함한다.includes

따라서, 본 발명에 의하면, 자동차의 제어 명령이 완전히 안전하게 그대로 사용될 수 있는지 여부를 결정하기 위해 상기 센서들의 작동 조건들을 (이러한 센서들의 품질 계수들을 결정함으로써) 고려하는 것이 가능하다.Thus, according to the present invention, it is possible to take into account the operating conditions of the sensors (by determining the quality factors of these sensors) in order to determine whether the control command of the motor vehicle can be used completely and safely as it is.

예를 들어, 카메라에 의해 획득된 데이터가 고품질임을 고려할 수 있을 만큼 밝기가 양호한지 여부를 결정하는 것이 가능하다. 또한, LIDAR 센서에 의해 획득된 데이터가 고품질의 데이터인지 여부를 알기 위해, 자동차가 스프레이(spray)를 통과하고 있는지 여부를 결정하는 것이 가능하다.For example, it is possible to determine whether the brightness is good enough to consider that the data acquired by the camera is of high quality. In addition, in order to know whether the data obtained by the LIDAR sensor is of high quality, it is possible to determine whether the car is passing through a spray.

본 발명에 따른 제어 방법의 다른 유리하고 비-제한적인 특징들은 다음과 같다:Other advantageous and non-limiting features of the control method according to the invention are as follows:

- 상기 결정하는 단계에서, 상기 센서들 중 적어도 제1 센서의 품질 계수는 상기 센서들 중 적어도 하나의 다른 센서에 의해 획득된 원시 데이터에 따라 그리고/또는 제3자의 검출기에 의해 획득되고 상기 제1 센서에 의해 획득된 원시 데이터의 측정 조건들에 관련된 제3자의 데이터에 따라 결정되고;- in said determining step, the quality factor of at least a first of said sensors is obtained according to raw data obtained by at least one other of said sensors and/or by a detector of a third party and said first determined according to data of a third party related to measurement conditions of raw data obtained by the sensor;

- 상기 제3자의 검출기는 광 센서 또는 레인 센서 또는 자동차가 주행하고 있는 도로의 상태를 검출하기에 적합한 센서이며;- said third party detector is a light sensor or a rain sensor or a sensor suitable for detecting the condition of the road on which the vehicle is traveling;

- 상기 센서들 중 적어도 하나의 센서는 이미지 센서 또는 RADAR 센서 또는 LIDAR 센서이고;- at least one of said sensors is an image sensor or a RADAR sensor or a LIDAR sensor;

- 상기 처리하는 단계에서, 각각의 센서에 의해 송신된 원시 데이터는 자동차의 환경 내 객체들을 검출하고 상기 객체들을 분류하기 위해 다른 센서들에 의해 송신된 원시 데이터와는 별도로 처리되며, 각각의 확률 계수는 분류된 객체와 상기 센서에 연관되어 있고;- in the processing step, the raw data transmitted by each sensor is processed separately from the raw data transmitted by other sensors to detect and classify objects in the environment of the vehicle, each probability coefficient is associated with the classified object and the sensor;

- 상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 확률 계수를 고려하여 융합되며;- in the processing step, after processing the raw data, the processed data is fused taking into account each probability coefficient;

- 상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 품질 계수를 고려하여 융합되고;- in the processing step, after processing the raw data, the processed data is fused in consideration of each quality factor;

- 상기 추정하는 단계에서, 상기 제어 명령의 신뢰도는 또한 상기 처리된 데이터의 융합 결과에 따라 추정되며; 그리고- in the estimating step, the reliability of the control command is also estimated according to the fusion result of the processed data; And

- 상기 제어 명령을 수정할지 말지에 대한 결정은 또한 상기 센서들과는 다른 센서들로부터 획득된 중복 정보(redundancy information)에 따라 내려진다.- A decision as to whether or not to modify the control command is also made according to redundancy information obtained from sensors other than the sensors.

본 발명은 또한 자동차의 환경에 관련된 원시 데이터를 획득하기에 적합한 복수 개의 센서들 및 위에서 언급한 바와 같은 제어 방법을 구현하기에 적합한 컴퓨팅 유닛을 포함하는 자동차에 관한 것이다.The present invention also relates to a motor vehicle comprising a plurality of sensors suitable for acquiring raw data relating to the environment of the vehicle and a computing unit suitable for implementing a control method as mentioned above.

비-제한적인 예들로 제공된 첨부 도면들을 참조한 이하의 설명을 통해 본 발명의 내용 및 본 발명이 구현될 수 있는 방법을 이해할 수 있을 것이다.An understanding of the content of the present invention and how the present invention may be practiced may be understood by reading the following description with reference to the accompanying drawings, provided as non-limiting examples.

도 1은 본 발명에 따른 방법을 구현하기에 적합한 제어 시스템을 보여주는 도면이다.1 shows a control system suitable for implementing a method according to the invention;

본 발명은 특히 자동차의 자율 주행, 다시 말하면 인간의 개입이 없는 차량의 자율 주행을 허용하는 제어 시스템이 장착된 자동차에 적용된다.The invention applies in particular to autonomous driving of motor vehicles, ie motor vehicles equipped with a control system that allows autonomous driving of the vehicle without human intervention.

더 구체적으로, 본 발명은 자동차의 적어도 하나의 구동 부재를 제어하는 방법에 관한 것이다.More particularly, the present invention relates to a method of controlling at least one drive member of a motor vehicle.

이러한 구동 부재는 예를 들어 자동차의 파워트레인에 의해서나, 또는 스티어링 장치 또는 제동 장치에 의해 형성될 수 있다. 본 설명의 나머지 부분에서는, 이러한 모든 구동 부재들 모두가 자동차의 컴퓨팅 유닛에 의해 제어되는 것으로 간주될 것이다.Such a drive element can be formed, for example, by the powertrain of the motor vehicle, or by a steering device or a braking device. For the remainder of this description, it will be considered that all of these driving members are controlled by the computing unit of the vehicle.

도 1의 일부에 도시된 이러한 컴퓨팅 유닛(20)은 프로세서, 메모리 및 여러 입력 및 출력 인터페이스들을 포함한다.This computing unit 20, shown in part of FIG. 1, includes a processor, memory, and several input and output interfaces.

이는 여기서 블록들의 형태로 표현된, 별개이지만 상호 의존적인 알고리즘들을 구현하는 데 적합하다.It is suitable for implementing separate but interdependent algorithms, represented here in the form of blocks.

상기 컴퓨팅 유닛(20)의 메모리를 통해, 상기 컴퓨팅 유닛(20)은 상기 프로세서에 의한 실행으로 이하에서 설명될 방법의 구현이 허용되는 명령어들을 포함하는 컴퓨터 프로그램들로 이루어진 컴퓨터 애플리케이션을 저장한다.Via the memory of the computing unit 20 , the computing unit 20 stores a computer application consisting of computer programs comprising instructions that, by execution by the processor, allow the implementation of the method to be described below.

상기 컴퓨팅 유닛(20)의 출력 인터페이스들을 통해, 상기 컴퓨팅 유닛(20)은 상기 컴퓨팅 유닛(20)이 제어 명령(C1)을 상기 구동 부재들(30)에 송신할 수 있도록 상기 구동 부재들(30)에 접속되어 있다.Via the output interfaces of the computing unit 20 , the computing unit 20 is configured to send the driving members 30 such that the computing unit 20 can transmit a control command C1 to the driving members 30 . ) is connected to

상기 컴퓨팅 유닛(20)의 입력 인터페이스들을 통해, 상기 컴퓨팅 유닛(20)은 여러 센서(10, 11, 12, 13)(적어도 2개의 센서이지만, 바람직하게는 그 이상임)에 접속되어 있다.Via input interfaces of the computing unit 20 , the computing unit 20 is connected to several sensors 10 , 11 , 12 , 13 (at least two sensors, but preferably more).

이들은 임의 유형의 센서일 수 있다.These may be any type of sensor.

예를 들어, 자동차에는 자동차 주위의 모든 방향(다시 말하면, 360도)을 커버하도록 배향된 디지털 카메라(10), RADAR 센서(11), LIDAR 센서(12) 및 광 센서(13)가 장착될 수 있다.For example, a car could be equipped with a digital camera 10, RADAR sensor 11, LIDAR sensor 12, and light sensor 13 oriented to cover all directions (i.e. 360 degrees) around the car. have.

상기 광 센서(13)는 자동차의 조명을 자동으로 스위치 온하는 종래의 기능을 제공하는 것을 가능하도록 존재한다.The light sensor 13 is present to make it possible to provide the conventional function of automatically switching on the lighting of the vehicle.

이하 환경 센서들이라고 하는 다른 센서들(10, 11, 12)은 자동차를 자율적으로 제어하는 기능을 보장하도록 상기 환경 센서들(10, 11, 12)의 일부에 대해 존재한다.Other sensors 10 , 11 , 12 , hereinafter referred to as environmental sensors, are present for some of the environmental sensors 10 , 11 , 12 to ensure the ability to autonomously control the vehicle.

이러한 환경 센서들(10, 11, 12) 각각에는 특성과 단점이 있다. 예를 들어, 카메라는 맑은 날씨에 장애물을 잘 검출할 수 있지만 어둡거나 지나치게 밝은 빛에서는 검출이 불량하게 된다. 이와는 반대로, RADAR 또는 LIDAR 센서는 빛에 상관없이 장애물을 잘 검출할 수 있지만 스프레이나 악천후(비, 안개, 눈)가 있는 경우 부정확한 데이터를 제공하게 된다.Each of these environmental sensors 10 , 11 , 12 has characteristics and disadvantages. For example, a camera can detect obstacles well in clear weather, but poorly detects in dark or overly bright light. In contrast, RADAR or LIDAR sensors can detect obstacles well in any light, but will provide inaccurate data in the presence of spray or bad weather (rain, fog, snow).

여기서 상기 구동 부재들에 송신되는 제어 명령(C1)은 주로 상기 환경 센서들(10, 11, 12)에 의해 송신된 원시 데이터에 따라 조성될 것이다.Here, the control command C1 transmitted to the driving members will be mainly formulated according to the raw data transmitted by the environmental sensors 10 , 11 , 12 .

이때, 도 1을 참조하여 이러한 제어 명령(C1)이 조성되는 방식을 구체적으로 설명하는 것이 가능하다.At this time, it is possible to describe in detail the manner in which such a control command C1 is generated with reference to FIG. 1 .

실제로, 상기 컴퓨팅 유닛(20)은 반복적인 방식으로 다시 말하면 규칙적인 시간 간격으로 이하에서 설명되는 방법을 구현하도록 프로그램된다.In practice, the computing unit 20 is programmed to implement the method described below in an iterative manner, ie at regular time intervals.

이러한 방법은 7개의 주요 단계를 포함한다.This method comprises seven main steps.

제1 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 센서들(10, 11, 12, 13) 모두에 의해 획득된 원시 데이터를 판독한다.In a first step, the computing unit 20 reads raw data obtained by all of the sensors 10 , 11 , 12 , 13 .

여기서 고려된 예에서는, 상기 컴퓨팅 유닛(20)이 상기 카메라(10)에 의해, 상기 RADAR 센서(11)에 의해, 상기 LIDAR 센서(12)에 의해 그리고 상기 광 센서(13)에 의해 송신된 원시 데이터를 판독한다.In the example considered here, the raw material transmitted by the computing unit 20 by the camera 10 , by the RADAR sensor 11 , by the LIDAR sensor 12 and by the optical sensor 13 . read data.

예를 들어, 상기 카메라(10)의 경우, 상기 원시 데이터는 상기 카메라의 감광 센서의 각각 픽셀의 컬러 및 밝기 특성에 의해 형성된다. 상기 광 센서(13)의 경우, 상기 원시 데이터는 시간에 걸쳐 측정된 광 레벨들에 의해 형성된다.For example, in the case of the camera 10, the raw data is formed by the color and brightness characteristics of each pixel of the photosensitive sensor of the camera. In the case of the optical sensor 13, the raw data is formed by measured light levels over time.

제2 단계에서는, 상기 획득된 원시 데이터가 자동차의 환경에 관련된 정보를 상기 획득된 원시 데이터로부터 획득하도록 처리된다.In a second step, the obtained raw data is processed to obtain information related to the environment of the vehicle from the obtained raw data.

실제로, 상기 환경 센서들(10, 11, 12)에 의해 송신된 원시 데이터는 서로 별도로 처리된다.In practice, the raw data transmitted by the environmental sensors 10 , 11 , 12 are processed separately from each other.

그러한 목적은 상기 원시 데이터를 기반으로 자동차의 환경 내에 있는 객체들(장애물, 교통 표지, 제3자의 차량, 보행자 등)을 검출하고 이러한 객체들을 분류하며 각각 분류된 객체(S1, S2, S3)에, 이러한 객체의 검출 및 분류에서 오류가 있을 확률에 관련된 확률 계수(P1, P2, P3)를 할당하기 위한 것이다.The purpose is to detect objects (obstacles, traffic signs, third-party vehicles, pedestrians, etc.) in the environment of the vehicle based on the raw data, classify these objects, and assign to each classified object (S1, S2, S3). , for allocating probability coefficients (P1, P2, P3) related to the probability of an error in the detection and classification of these objects.

이러한 단계를 구현하기 위해, "CNN"("convolutional neural network") 기법들과 같은 기계 학습 기법들을 기반으로 하는 분류 방법들을 사용하는 것이 가능하다.To implement this step, it is possible to use classification methods based on machine learning techniques such as "CNN" ("convolutional neural network") techniques.

일 변형 예로서나 또는 추가로, 필터들 또는 임의의 다른 유형의 적절한 처리가 사용될 수 있다.As a variant or in addition, filters or any other type of suitable processing may be used.

요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은, 입력으로서 상기 카메라(10)로부터, 상기 RADAR 센서(11)로부터 그리고 상기 LIDAR 센서(12)로부터 원시 데이터를 입력으로서 제각기 수신하고 검출 및 분류되어 확률 계수(P1, P2, P3)에 연관된 각각의 객체의 설명(S1, S2, S3)을 출력으로서 별도로 전달하는 3개의 블록(B10, B11, B12)을 포함한다.In summary, as shown in FIG. 1 , the computing unit 20 receives raw data as input from the camera 10 , from the RADAR sensor 11 and from the LIDAR sensor 12 , respectively. and three blocks B10, B11, B12 that separately deliver as outputs the descriptions S1, S2, S3 of each object that are detected and classified and associated with the probability coefficients P1, P2, P3.

제3 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 환경 센서들(10, 11, 12) 각각에 대한 품질 계수(Q1, Q2, Q3)를 결정한다. 이러한 품질 계수(Q1, Q2, Q3)는 해당 센서에 의해 획득된 원시 데이터의 품질에 관련된 것이다.In the third step, the computing unit 20 determines the quality factors Q1 , Q2 , Q3 for each of the environmental sensors 10 , 11 , and 12 . These quality factors Q1, Q2, Q3 relate to the quality of the raw data obtained by the corresponding sensor.

실제로, 이러한 품질 계수(Q1, Q2, Q3)을 통해 해당 센서의 올바른 작동을 허용하기에 적합한 외부 조건들을 어느 정도 알 수 있는 것이 가능하다.Indeed, it is possible that these quality factors (Q1, Q2, Q3) give some indication of the external conditions suitable to allow the correct operation of the corresponding sensor.

다시 말하면, 이러한 품질 계수들(Q1, Q2, Q3)을 통해 이하의 사항을 결정하는 것이 가능하다:In other words, through these quality factors Q1, Q2, Q3 it is possible to determine:

- 상기 카메라(10)가 예를 들어 주변 광을 고려해 객체들을 정확하게 검출할 수 있는지 여부; 그리고- whether the camera 10 can accurately detect objects, for example taking into account ambient light; And

- 상기 RADAR 센서(11) 및 상기 LIDAR 센서(12)가 예를 들어 날씨를 고려해 객체들을 정확하게 검출할 수 있는지 여부.- Whether the RADAR sensor 11 and the LIDAR sensor 12 can accurately detect objects, for example taking into account the weather.

각각의 품질 계수(Q1, Q2, Q3)는 (실선 화살표로 표시된 바와 같은) 해당 센서에 의해 획득된 원시 데이터에 따라 결정되지만 (점선 화살표로 표시된 바와 같은) 다른 센서들에 의해 획득된 원시 데이터에 따라서도 결정된다.Each quality factor (Q1, Q2, Q3) is determined according to the raw data acquired by that sensor (as indicated by the solid arrow), but is dependent on the raw data acquired by the other sensors (as indicated by the dotted arrow). So it is also determined.

따라서, 날씨는 상기 카메라(10)에 의해 획득된 이미지들에 따라 결정될 수 있고, 주변 광은 상기 광 센서(13)에 의해 획득될 수 있다.Accordingly, the weather may be determined according to the images acquired by the camera 10 , and ambient light may be acquired by the light sensor 13 .

물론, 특히 날씨를 결정하기 위해 다른 센서들이 사용될 수 있다. 따라서, 자동차의 바퀴들에 위치하게 되고 자동차가 주행하고 있는 도로의 상태를 검출하기에 적합한 레인 센서(rain sensor) 및/또는 가속도계들을 사용하는 것이 가능할 것이다.Of course, other sensors may be used, particularly for determining the weather. Accordingly, it would be possible to use a rain sensor and/or accelerometers located on the wheels of the vehicle and suitable for detecting the condition of the road on which the vehicle is traveling.

상기 센서들(10, 11, 12, 13)로부터 획득된 원시 데이터는 이하의 방법들에 적용함으로써 각각의 품질 계수(Q1, Q2, Q3)를 결정하는 데 사용된다:Raw data obtained from the sensors 10, 11, 12, 13 are used to determine the respective quality factors Q1, Q2, Q3 by applying the following methods:

- 통계적 방법들(상기 카메라(10)로부터 획득된 원시 데이터의 경우, 특히 "브리크(BRIQUE)" 또는 "니크(NIQUE)" 방법들을 사용하는 것이 가능함); 및/또는- statistical methods (in the case of raw data obtained from the camera 10 it is possible in particular to use "BRIQUE" or "NIQUE" methods); and/or

- 주파수 방법들(상기 카메라(10)로부터 획득된 원시 데이터의 경우 이미지들의 선명도를 결정하도록 "선명도/블러(Sharpness/Blur)" 또는 "고-저 주파수 인덱스(High-Low Frequency Index)" 방법들을 사용하는 것도 가능하며, 상기 LIDAR 센서로부터 획득된 원시 데이터의 경우, "참조가 있는 RMSE(RMSE with reference), "HDMAP 및 GPS" 또는 "공분산 행렬/엔트로피 측정(covariance matrix/entropy measurement)" 방법들을 사용하는 것이 가능함).- Frequency methods (“Sharpness/Blur” or “High-Low Frequency Index” methods to determine the sharpness of images in the case of raw data obtained from the camera 10 ) It is also possible to use, for raw data obtained from the LIDAR sensor, “RMSE with reference,” “HDMAP and GPS” or “covariance matrix/entropy measurement” methods possible to use).

요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 3개의 블록(B10', B11', B12')을 포함하며, 3개의 블록(B10', B11', B12')은 상기 카메라(10)로부터 그리고/또는 상기 RADAR 센서(11)로부터 그리고/또는 상기 LIDAR 센서(12)로부터 그리고/또는 상기 광 센서(13)로부터 원시 데이터를 입력으로서 수신하고 그리고 상기 환경 센서들(10, 11, 12) 중 하나에 연관되고 주행 조건들을 고려해 이러한 센서에 의해 취해진 측정들의 정밀도 레벨에 관련된 품질 계수(Q1, Q2, Q3)를 출력으로서 각각 전달한다.In summary, as shown in FIG. 1 , the computing unit 20 includes three blocks B10', B11', and B12', and the three blocks B10', B11', and B12' are receiving as input raw data from the camera 10 and/or from the RADAR sensor 11 and/or from the LIDAR sensor 12 and/or from the light sensor 13 and the environmental sensors 10, 11, 12) and transmits as output the quality factors Q1, Q2, Q3, respectively, related to the level of precision of the measurements taken by this sensor taking into account driving conditions.

이하에서 자명해지겠지만, 각각의 환경 센서(10, 11, 12)에 대한 품질 계수를 추정하면 작동 조건들이 최선의 것으로 추정되고 결과적으로는 가장 신뢰할 수 있는 원시 데이터를 전달하는 하나 이상의 센서들을 선호하는 것이 가능하다.As will be apparent below, estimating the quality factor for each environmental sensor 10 , 11 , 12 results in the best estimate of the operating conditions and consequently one or more sensors that deliver the most reliable raw data. it is possible

제4 단계에서는, 여러 환경 센서(10, 11, 12)로부터 획득된 데이터를 융합하는 것이 제공된다.In a fourth step, it is provided to fuse data obtained from several environmental sensors 10 , 11 , 12 .

이를 위해서는, 한편으로는 상기 센서들에 의해 획득된 원시 데이터와 다른 한편으로는 블록들(B10, B11, B12)로부터 획득된 데이터를 융합하는 것이 가능할 것이다.To this end, it will be possible to fuse the raw data obtained by the sensors on the one hand and the data obtained from the blocks B10 , B11 , B12 on the other hand.

그러나 여기에서는 블록들(B10, B11, B12)로부터 획득된 데이터(다시 말하면, 설명들(S1, S2, S3))만이 융합되는 것으로 간주될 것이다.However, here only the data obtained from the blocks B10, B11, B12 (that is, the descriptions S1, S2, S3) will be considered to be fused.

이러한 데이터가 여기에서는 각각의 확률 계수(P1, P2, P3)를 고려하고 잠재적으로는 각각의 품질 계수(Q1, Q2, Q3)에 따라 융합된다.These data are here considered respective probability coefficients (P1, P2, P3) and potentially fused according to their respective quality factors (Q1, Q2, Q3).

"데이터 융합"이 의미하는 것은 이종 센서들(heterogeneous sensors)로부터 획득된 여러 데이터에 적용되고 자동차 주변에 있는 객체들의 검출 및 분류를 세분화하는 것을 가능하게 하는 수학적 방법이다.What "data fusion" means is a mathematical method that is applied to multiple data obtained from heterogeneous sensors and makes it possible to refine the detection and classification of objects in the vicinity of a car.

예를 들어, 상기 카메라(10)에 의해 획득된 이미지들로부터의 데이터는 상기 카메라(10)에 의해 획득된 이미지에서 검출된 객체들의 정확한 위치와 동역학(속도 및 가속도)을 양호하게 추정하기 위해 상기 RADAR 센서(11) 및 상기 LIDAR 센서(12)로부터의 데이터와 융합될 수 있다.For example, data from images acquired by the camera 10 may be used to better estimate the exact position and dynamics (velocities and accelerations) of objects detected in the images acquired by the camera 10 . It can be fused with data from the RADAR sensor 11 and the LIDAR sensor 12 .

그리고 나서, 상기 확률(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)은 객체들의 검출 및 분류를 위해 각각의 환경 센서(10, 11, 12)의 가중치들을 동적으로 조정하는 데 사용된다.Then, the probabilities (P1, P2, P3) and the quality factors (Q1, Q2, Q3) dynamically adjust the weights of each environmental sensor (10, 11, 12) for detection and classification of objects. used to

요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 검출된 객체들의 설명들(S1, S2, S3) 뿐 아니라 상기 확률(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)을 입력으로서 수신하며 여러 환경 센서에 의해 검출되고 상기 데이터 융합 알고리즘들에 의해 검사된 각각의 객체의 설명들(카테고리, 위치 및 동역학)을 포함하는 결과(D2)를 출력으로서 전달하는 블록(B1)을 포함한다.In summary, as shown in FIG. 1 , the computing unit 20 provides the descriptions S1 , S2 , S3 of the detected objects as well as the probability P1 , P2 , P3 and the quality factors Q1 , Q2, Q3) as input and deliver as output a result D2 containing descriptions (category, location and dynamics) of each object detected by several environmental sensors and examined by the data fusion algorithms. and a block (B1) to

이러한 결과(D2)에 의해, 제5 단계에서는, 상기 컴퓨팅 유닛(20)이 자동차의 여러 구동 부재(30)에 대한 제어 명령(C1)을 조성한다.Based on this result D2, in the fifth step, the computing unit 20 generates a control command C1 for various driving members 30 of the vehicle.

이를 위해서는, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)이 상기 블록(B1)으로부터의 결과(D2)를 입력으로서 수신하고 상기 제어 명령(C1)을 출력으로서 전달하는 블록(B2)을 포함한다.To this end, as shown in FIG. 1 , the computing unit 20 receives the result D2 from the block B1 as an input and transmits the control command C1 as an output to a block B2. include

이러한 제어 명령(C1)은 결과적으로 자동차 환경의 컴퓨팅 유닛(20)에 의한 평가를 고려해 생성된다.This control command C1 is consequently generated taking into account the evaluation by the computing unit 20 of the automotive environment.

이러한 평가에서의 임의의 오류가 자동차의 탑승자에 대해 위험한 결과들을 초래하는 것을 방지하기 위해, 상기 방법을 안전하게 하도록 2개의 추가 단계가 또한 제공된다.In order to prevent any error in this assessment from having dangerous consequences for the occupants of the motor vehicle, two additional steps are also provided to make the method safe.

제6 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 품질(Q1, Q2, Q3) 및 확률 계수들(P1, P2, P3)에 따라 상기 제어 명령(C1)의 신뢰도를 추정한다.In the sixth step, the computing unit 20 estimates the reliability of the control command C1 according to the qualities Q1 , Q2 , Q3 and the probability coefficients P1 , P2 , P3 .

실제로, 상기 제어 명령(C1)의 신뢰도는 신뢰도 계수(D3)에 의해 추정된다.Actually, the reliability of the control command C1 is estimated by the reliability coefficient D3.

이러한 신뢰도 계수(D3)를 계산하기 위한 알고리즘은 예를 들어 상기 품질 계수(Q1, Q2, Q3) 및 상기 확률 계수들(P1, P2, P3)을 상관시키는 방법에 기초하여 이루어질 수 있다.The algorithm for calculating the reliability coefficient D3 may be made based on, for example, a method of correlating the quality coefficients Q1, Q2, Q3 and the probability coefficients P1, P2, P3.

바람직하게는, 상기 신뢰도 계수(D3)는 주로 상기 품질 계수들(Q1, Q2, Q3)에 따라 결정될 것이다.Preferably, the reliability factor D3 will be mainly determined according to the quality factors Q1, Q2, Q3.

특히, 이러한 품질 계수들(Q1, Q2, Q3)이 상기 환경 센서들(10, 11, 12) 대다수가 자동차가 자동차 환경을 양호하게 파악할 수 없는 조건들에서 작동하고 있음을 나타내면, 이러한 정보는 (상기 확률 계수들의 값들에 관계없이) 신뢰도 계수(D3)를 결정하는데 고려될 것이다.In particular, if these quality factors (Q1, Q2, Q3) indicate that the majority of the environmental sensors (10, 11, 12) are operating in conditions where the vehicle cannot understand the vehicle environment well, this information is ( irrespective of the values of the probability coefficients) will be taken into account in determining the reliability coefficient D3.

다시 말하면, 상기 확률 계수들(P1, P2, P3)은 상기 품질 계수들(Q1, Q2, Q3)보다 낮은 통계적 가중치를 지닌다.In other words, the probability coefficients P1, P2, and P3 have a lower statistical weight than the quality coefficients Q1, Q2, and Q3.

더욱이, 주어진 센서의 품질 계수를 결정하는 데 사용되는 센서들의 갯수가 많을수록 신뢰도 계수(D3)의 계산에서 이러한 품질 계수의 가중치가 커지게 된다.Moreover, the greater the number of sensors used to determine the quality factor of a given sensor, the greater the weight of this quality factor in the calculation of the reliability factor D3.

신뢰성 계수(D3)를 계산하는 알고리즘은 다른 데이터를 고려할 수 있을 것이다. 따라서, 바람직하게는 상기 융합의 결과(D2)에 따라서도 신뢰도 계수(D3)가 추정될 것이다. 이런 방식으로, 상기 융합의 결과(D2)가 일치하지 않으면, 이러한 불일치는 신뢰도 계수(D3)를 계산하는데 고려될 수 있을 것이다.The algorithm for calculating the reliability factor D3 may take other data into account. Therefore, preferably, the reliability coefficient D3 will also be estimated according to the result D2 of the fusion. In this way, if the result (D2) of the fusion does not match, this discrepancy may be taken into account in calculating the confidence factor (D3).

요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 확률 계수들(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)과 아울러, 상기 융합의 결과(D2)를 입력으로서 수신하고 신뢰도 계수(D3)를 출력으로서 전달하는 블록(B3)을 포함한다.In summary, as shown in FIG. 1 , the computing unit 20 generates the probability coefficients P1 , P2 , P3 and the quality factors Q1 , Q2 , Q3 as well as the result of the fusion D2 ) as an input and a block B3 passing a confidence coefficient D3 as an output.

제7 단계에서는, 상기 컴퓨팅 유닛(20)이 이때 상기 제어 명령(C1)을 수정할지 말지에 대한 결정을 (이러한 결정을 상기 구동 부재(30)에 송신하기 전에) 내리게 된다.In a seventh step, the computing unit 20 makes a decision (before sending this decision to the driving member 30) whether or not to modify the control command C1 at this time.

이러한 결정은 주로 상기 신뢰도 계수(D3)를 고려하여 내려진다.This decision is mainly made in consideration of the reliability coefficient D3.

바람직하게는, 이러한 결정은 이때까지 고려된 센서들(10, 11, 12)과는 구별되는 센서로부터 획득된 중복 정보(D1)에 따라서 내려질 수 있을 것이다.Preferably, this determination may be made according to the redundancy information D1 obtained from a sensor distinct from the sensors 10 , 11 , 12 considered up to this point.

실제로, 상기 신뢰도 계수(D3)가 임계치 미만일 경우 그리고/또는 상기 중복 정보(D1)가 고려된 데이터 간 불일치를 나타낼 경우, 상기 컴퓨팅 유닛(20)은 상기 제어 명령(C1)의 수정을 요청할 것으로 예상된다.Indeed, when the confidence factor D3 is below a threshold and/or when the redundancy information D1 indicates a discrepancy between the considered data, the computing unit 20 is expected to request a correction of the control command C1 do.

이러한 수정으로 인한 동작은 예를 들어 자동차의 자율 주행 모드를 해제하거나 또는 하나 이상의 사전에 식별된 센서들로부터의 원시 데이터를 고려해 정지하는 것일 수 있다.The action resulting from this modification may be, for example, disabling the vehicle's autonomous driving mode or stopping it taking into account raw data from one or more pre-identified sensors.

요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 신뢰도 계수(D3)와 아울러 상기 중복 정보(D1)를 입력으로서 수신하고 상기 제어 명령(C1)을 수정하도록 하는 명령을 출력으로서 잠재적으로 전달하는 블록(B4)을 포함한다.In summary, as shown in FIG. 1 , the computing unit 20 receives the redundancy information D1 as well as the reliability coefficient D3 as input and outputs a command to modify the control command C1 . contains a block B4 that potentially passes as

이러한 블록(B4)은 ISO26262 표준의 의미 내에서 ASIL-D 안전 레벨을 보장하는 것이 목적인 알고리즘으로 형성된다.This block B4 is formed with an algorithm whose aim is to ensure an ASIL-D safety level within the meaning of the ISO26262 standard.

Claims (10)

컴퓨팅 유닛(20) 및 자동차의 환경에 관련된 원시 데이터를 획득하도록 구성된 복수 개의 센서들(10, 11, 12)을 포함하는 자동차를 제어하는 방법으로서,
상기 자동차의 제어 방법은,
- 상기 컴퓨팅 유닛(20)이 상기 센서들(10, 11, 12)에 의해 획득된 원시 데이터를 수신하는 단계;
- 상기 컴퓨팅 유닛(20)은 자동차의 환경에 관련된 정보(S1, S2, S3) 및 각각의 항목의 정보(S1, S2, S3)를 획득하는데 오류가 있을 확률에 관련된 확률 계수들(P1, P2, P3)을 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계; 및
- 상기 정보(S1, S2, S3) 및 상기 확률 계수들(P1, P2, P3)에 따라 자동차의 제어 명령(C1)을 조성하는 단계;
를 포함하며,
상기 자동차의 제어 방법은,
- 상기 센서들(10, 11, 12) 중 적어도 제1 센서에 대해, 상기 제1 센서(10, 11, 12)가 획득하는 상기 원시 데이터의 품질에 관련된 품질 계수(Q1, Q2, Q3)를 결정하는 단계;
- 상기 품질 계수들(Q1, Q2, Q3) 및 상기 확률 계수들(P1, P2, P3)에 따라 상기 제어 명령(C1)의 신뢰도를 추정하는 단계; 및
- 상기 제어 명령(C1)의 추정된 신뢰도에 따라 상기 제어 명령(C1)을 수정할지 말지를 결정하는 단계;
를 또 포함하는 것을 특징으로 하는, 자동차의 제어 방법.
A method of controlling a vehicle comprising a computing unit (20) and a plurality of sensors (10, 11, 12) configured to obtain raw data related to the environment of the vehicle, the method comprising:
The control method of the vehicle,
- receiving the raw data obtained by the sensors (10, 11, 12) by the computing unit (20);
- The computing unit 20 obtains the information (S1, S2, S3) related to the environment of the vehicle and the probability coefficients (P1, P2) related to the probability of an error in obtaining the information (S1, S2, S3) of each item , P3) processing the raw data to obtain from the raw data; and
- formulating a vehicle control command (C1) according to the information (S1, S2, S3) and the probability coefficients (P1, P2, P3);
includes,
The control method of the vehicle,
- for at least a first sensor among the sensors 10, 11, 12, a quality factor Q1, Q2, Q3 related to the quality of the raw data obtained by the first sensor 10, 11, 12; determining;
- estimating the reliability of the control command (C1) according to the quality factors (Q1, Q2, Q3) and the probability factors (P1, P2, P3); and
- determining whether to modify the control command (C1) according to the estimated reliability of the control command (C1);
Also comprising a, control method of a vehicle.
제1항에 있어서,
상기 결정하는 단계에서, 상기 센서들(10, 11, 12) 중 적어도 제1 센서의 품질 계수(Q1, Q2, Q3)는 상기 센서들(10, 11, 12) 중 적어도 하나의 다른 센서에 의해 획득된 원시 데이터에 따라 그리고/또는 제3자 검출기(13)에 의해 획득되고 상기 제1 센서(10, 11, 12)에 의해 획득된 원시 데이터의 측정 조건들에 관련된 제3자의 데이터에 따라 결정되는, 자동차의 제어 방법.
According to claim 1,
In the determining step, the quality factor Q1 , Q2 , Q3 of at least a first sensor among the sensors 10 , 11 , 12 is determined by at least one other sensor of the sensors 10 , 11 , 12 . Determination according to the obtained raw data and/or according to data of a third party relating to the measurement conditions of the raw data obtained by the third party detector 13 and obtained by the first sensor 10 , 11 , 12 . Being, the control method of the car.
제1항 또는 제2항에 있어서,
상기 제3자의 검출기(13)는 광 센서 또는 레인 센서 또는 자동차가 주행하고 있는 도로의 상태를 검출하도록 구성된 센서인, 자동차의 제어 방법.
3. The method of claim 1 or 2,
The third-party detector (13) is a light sensor or a rain sensor or a sensor configured to detect the condition of the road on which the vehicle is traveling.
제1항 내지 제3항 중 한 항에 있어서,
상기 센서들(10, 11, 12) 중 적어도 하나의 센서는 이미지 센서 또는 RADAR 센서 또는 LIDAR 센서인, 자동차의 제어 방법.
4. The method according to any one of claims 1 to 3,
At least one of the sensors (10, 11, 12) is an image sensor or a RADAR sensor or a LIDAR sensor.
제1항 내지 제4항 중 한 항에 있어서,
상기 처리하는 단계에서, 각각의 센서(10, 11, 12)에 의해 송신된 원시 데이터는 자동차의 환경 내 객체들을 검출하고 상기 객체들을 분류하기 위해 다른 센서들(10, 11, 12)에 의해 송신된 원시 데이터와는 별도로 처리되며, 각각의 확률 계수(P1, P2, P3)는 분류된 객체와 상기 센서(10, 11, 12)에 연관되어 있는, 자동차의 제어 방법.
5. The method of any one of claims 1 to 4,
In the processing step, the raw data transmitted by each sensor 10, 11, 12 is transmitted by other sensors 10, 11, 12 to detect and classify objects in the environment of the vehicle. Processed separately from the raw data, each probability coefficient (P1, P2, P3) is associated with a classified object and the sensor (10, 11, 12).
제1항 내지 제5항 중 한 항에 있어서,
상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 확률 계수(P1, P2, P3)를 고려하여 융합되는, 자동차의 제어 방법.
6. The method according to any one of claims 1 to 5,
In the processing step, after processing the raw data, the processed data is fused in consideration of respective probability coefficients (P1, P2, P3).
제1항 내지 제6항 중 한 항에 있어서,
상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 품질 계수(Q1, Q2, Q3)를 고려하여 융합되는, 자동차의 제어 방법.
7. The method according to any one of claims 1 to 6,
In the processing step, after processing the raw data, the processed data is fused in consideration of each quality factor (Q1, Q2, Q3).
제1항 내지 제7항 중 한 항에 있어서,
상기 추정하는 단계에서, 상기 제어 명령(C1)의 신뢰도는 또한 상기 처리된 데이터의 융합 결과에 따라 추정되는, 자동차의 제어 방법.
8. The method according to any one of claims 1 to 7,
In the estimating step, the reliability of the control command (C1) is also estimated according to a fusion result of the processed data.
제1항 내지 제8항 중 한 항에 있어서,
상기 제어 명령(C1)을 수정할지 말지에 대한 결정은 또한 상기 센서들(10, 11, 12)과는 다른 센서들로부터 획득된 중복 정보(redundancy information)에 따라 내려지는, 자동차의 제어 방법.
9. The method of any one of claims 1 to 8,
The determination of whether or not to modify the control command (C1) is also made according to redundancy information obtained from sensors other than the sensors (10, 11, 12).
자동차의 환경에 관련된 원시 데이터를 획득하도록 구성된 복수 개의 센서들(10, 11, 12) 및 컴퓨팅 유닛(20)을 포함하는 자동차에 있어서, 상기 컴퓨팅 유닛(20)은 제1항 내지 제9항 중 한 항에 기재된 제어 방법을 구현하도록 구성되는 것을 특징으로 하는, 자동차.10. A vehicle comprising a plurality of sensors (10, 11, 12) and a computing unit (20) configured to obtain raw data related to the environment of the vehicle, wherein the computing unit (20) is one of A motor vehicle, characterized in that it is configured to implement the control method according to claim 1 .
KR1020217015636A 2018-11-02 2019-10-29 How to create car control settings KR20210076139A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1860137 2018-11-02
FR1860137A FR3088041B1 (en) 2018-11-02 2018-11-02 PROCESS FOR DEVELOPING A DRIVING INSTRUCTIONS FOR A MOTOR VEHICLE
PCT/EP2019/079531 WO2020089230A1 (en) 2018-11-02 2019-10-29 Method for generating control settings for a motor vehicle

Publications (1)

Publication Number Publication Date
KR20210076139A true KR20210076139A (en) 2021-06-23

Family

ID=65951653

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217015636A KR20210076139A (en) 2018-11-02 2019-10-29 How to create car control settings

Country Status (7)

Country Link
US (1) US11657621B2 (en)
EP (1) EP3873786A1 (en)
JP (1) JP7439079B2 (en)
KR (1) KR20210076139A (en)
CN (1) CN112930290A (en)
FR (1) FR3088041B1 (en)
WO (1) WO2020089230A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020203829A1 (en) * 2020-03-25 2021-09-30 Robert Bosch Gesellschaft mit beschränkter Haftung Method for monitoring a vehicle system for recognizing the surroundings of a vehicle
FR3113317B1 (en) * 2020-08-10 2023-09-29 Valeo Systemes Dessuyage Method for using data from a selection of driving assistance sensors in a vehicle
FR3116252B1 (en) * 2020-11-19 2023-03-24 Renault Sas System and method of control adapted to perception
FR3120837A1 (en) * 2021-03-16 2022-09-23 Psa Automobiles Sa Vehicle with brightness change detection in the driving scenario
CN113515845A (en) * 2021-04-29 2021-10-19 北京大学(天津滨海)新一代信息技术研究院 Method and device for predicting reliability of atomic clock
CN116229425B (en) * 2023-05-08 2023-09-19 珠海骏驰智联科技有限公司 Unmanned vehicle obstacle detection method and system based on big data

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2900737B2 (en) * 1993-02-01 1999-06-02 トヨタ自動車株式会社 Inter-vehicle distance detection device
JP2002099906A (en) 2000-09-22 2002-04-05 Mazda Motor Corp Object-recognizing device
JP3931879B2 (en) * 2003-11-28 2007-06-20 株式会社デンソー Sensor fusion system and vehicle control apparatus using the same
JP4857840B2 (en) 2006-03-22 2012-01-18 日産自動車株式会社 Object detection method and object detection apparatus
JP2008299787A (en) 2007-06-04 2008-12-11 Mitsubishi Electric Corp Vehicle detector
JP2010132056A (en) 2008-12-03 2010-06-17 Fujitsu Ten Ltd Sensing device, sensing method, and vehicle control device
DE102009019792A1 (en) * 2009-05-02 2010-11-04 Leopold Kostal Gmbh & Co. Kg Control system for safely operating at least one functional component
US9544489B2 (en) * 2010-03-26 2017-01-10 Fortem Solutions Inc. Effortless navigation across cameras and cooperative control of cameras
US10207719B2 (en) * 2010-07-19 2019-02-19 Nxp Usa, Inc. Use of multiple internal sensors for measurements validation
US9221396B1 (en) * 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
JP5842862B2 (en) * 2013-05-14 2016-01-13 株式会社デンソー Collision mitigation device
DE102013212710A1 (en) * 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Sensor product, simulator and method for simulating sensor measurements, merging sensor measurements, validating a sensor model and designing a driver assistance system
DE102014205180A1 (en) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Method and device for operating a vehicle
JP6326985B2 (en) * 2014-06-04 2018-05-23 住友電気工業株式会社 Autonomous driving control device, vehicle, computer program, and autonomous driving control method
KR101610502B1 (en) * 2014-09-02 2016-04-07 현대자동차주식회사 Apparatus and method for recognizing driving enviroment for autonomous vehicle
DE102016202805A1 (en) * 2016-02-24 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Method and device for operating an environmental sensor of a vehicle
EP3506238A4 (en) * 2016-08-26 2019-11-27 Panasonic Intellectual Property Corporation of America Three-dimensional information processing method and three-dimensional information processing apparatus
US10315649B2 (en) * 2016-11-29 2019-06-11 Ford Global Technologies, Llc Multi-sensor probabilistic object detection and automated braking

Also Published As

Publication number Publication date
FR3088041A1 (en) 2020-05-08
JP7439079B2 (en) 2024-02-27
JP2022506262A (en) 2022-01-17
CN112930290A (en) 2021-06-08
US11657621B2 (en) 2023-05-23
WO2020089230A1 (en) 2020-05-07
FR3088041B1 (en) 2020-10-16
EP3873786A1 (en) 2021-09-08
US20220004782A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
KR20210076139A (en) How to create car control settings
CN110103984B (en) Managing autopilot complexity for a forward path using a perception system measure
US20230079730A1 (en) Control device, scanning system, control method, and program
EP3366539B1 (en) Information processing apparatus and information processing method
US11273835B2 (en) System for a vehicle
US20170297571A1 (en) Method and arrangement for monitoring and adapting the performance of a fusion system of an autonomous vehicle
US20200168094A1 (en) Control device, control method, and program
US20180297609A1 (en) Substitution of sensor measurement data
US11256251B2 (en) Enabling remote control of a vehicle
CN111507162B (en) Blind spot warning method and device based on cooperation of inter-vehicle communication
KR20190040550A (en) Apparatus for detecting obstacle in vehicle and control method thereof
US20180215391A1 (en) Methods and systems for detecting road surface using crowd-sourced driving behaviors
CN112693472A (en) Performance monitoring and evaluation of ADAS or autopilot features of a vehicle
CN108960083B (en) Automatic driving target classification method and system based on multi-sensor information fusion
GB2576206A (en) Sensor degradation
WO2019166084A1 (en) Automated driving system and method of autonomously driving a vehicle
CN110869865B (en) Method for operating a highly automated vehicle (HAF), in particular a highly automated vehicle
US20230202520A1 (en) Travel controller and method for travel control
US11807238B2 (en) Driving assistance system for a vehicle, vehicle having same and driving assistance method for a vehicle
CN113243017A (en) Determining whether image data is within a predetermined range that image analysis software is configured to analyze
US11852497B2 (en) Method for detecting false positives of an image-processing device of a camera
JP5103722B2 (en) Stop vehicle discrimination device
US20220306161A1 (en) Method for detecting inconsistencies in the outputs of perception systems of autonomous vehicles
KR20200116495A (en) Convergence system for converging environmental information about automobiles
US20230009269A1 (en) Lidar enhanced polynomial generation for lane centering