KR20210076139A - How to create car control settings - Google Patents
How to create car control settings Download PDFInfo
- Publication number
- KR20210076139A KR20210076139A KR1020217015636A KR20217015636A KR20210076139A KR 20210076139 A KR20210076139 A KR 20210076139A KR 1020217015636 A KR1020217015636 A KR 1020217015636A KR 20217015636 A KR20217015636 A KR 20217015636A KR 20210076139 A KR20210076139 A KR 20210076139A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- raw data
- sensor
- sensors
- computing unit
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000004927 fusion Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0225—Failure correction strategy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/023—Avoiding failures by using redundant parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/04—Monitoring the functioning of the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0016—State machine analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Electric Motors In General (AREA)
Abstract
본 발명은 컴퓨팅 유닛(20) 및 자동차의 환경에 관련된 원시 데이터를 획득하도록 구성된 복수 개의 센서들(10, 11, 12)을 포함하는 자동차를 제어하는 방법으로서, 상기 컴퓨팅 유닛(20)은 상기 센서들에 의해 획득된 원시 데이터를 수신하도록 구성된, 자동차의 제어 방법에 관한 것이며, 상기 자동차의 제어 방법은, - 상기 컴퓨팅 유닛이 상기 센서들에 의해 획득된 원시 데이터를 수신하는 단계; - 상기 컴퓨팅 유닛은 자동차의 환경에 관련된 정보(S1, S2, S3) 및 각각의 항목의 정보를 획득하는데 오류가 있을 확률에 관련된 확률 계수들(P1, P2, P3)을 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계; 및 - 상기 정보 및 상기 확률 계수들에 따라 자동차의 제어 명령(C1)을 조성하는 단계; 를 포함한다. 본 발명에 의하면, 상기 자동차의 제어 방법은, - 상기 센서들 중 적어도 하나의 센서에 대해, 이러한 센서에 의해 송신된 원시 데이터의 품질에 관련된 품질 계수를 결정하는 단계; - 상기 품질 계수들 및 상기 확률 계수들에 따라 상기 제어 명령의 신뢰도를 추정하는 단계; 및 - 상기 제어 명령의 추정된 신뢰도에 따라 상기 제어 명령을 수정할지 말지를 결정하는 단계; 를 또 포함한다.The present invention is a method of controlling a vehicle comprising a computing unit (20) and a plurality of sensors (10, 11, 12) configured to obtain raw data related to the environment of the vehicle, wherein the computing unit (20) comprises the sensor It relates to a control method of a vehicle, configured to receive raw data obtained by the sensors, the control method of the vehicle comprising: - the computing unit receiving the raw data obtained by the sensors; - The computing unit obtains from the raw data information related to the environment of the vehicle (S1, S2, S3) and probability coefficients (P1, P2, P3) related to the probability of an error in obtaining information of each item from the raw data processing the raw data; and - formulating a control command (C1) of the vehicle according to said information and said probability coefficients; includes According to the invention, the method for controlling a motor vehicle comprises: determining, for at least one of the sensors, a quality factor related to the quality of the raw data transmitted by this sensor; - estimating the reliability of the control command according to the quality factors and the probability factors; and - determining whether to modify the control command according to the estimated reliability of the control command; also includes
Description
본 발명은 일반적으로 자동차들의 운전자 지원에 관한 것이다.FIELD OF THE INVENTION The present invention relates generally to driver assistance in automobiles.
더 구체적으로 기술하면, 본 발명은 스티어링 시스템, 제동 시스템 또는 파워트레인과 같은 자동차의 하나 이상의 구동 부재들에 대한 제어 명령을 조성(造成)하는 방법에 관한 것이다.More particularly, the present invention relates to a method of generating control commands for one or more drive members of a motor vehicle, such as a steering system, a braking system or a powertrain.
본 발명은 또한 자동차의 환경에 관련된 원시 데이터를 획득하기에 적합한 복수 개의 센서들 및 컴퓨팅 유닛을 포함하는 자동차에 관한 것이다.The invention also relates to a motor vehicle comprising a plurality of sensors and a computing unit suitable for obtaining raw data relating to the environment of the vehicle.
본 발명은 더 구체적으로 기술하면 자율 주행 모드를 갖춘 차량에 적용된다. 따라서, 본 발명은 자동차, 항공 및 항공 우주 분야에 적용될 수 있을 것이다.The present invention is more specifically applied to a vehicle equipped with an autonomous driving mode. Accordingly, the present invention may be applied to automotive, aerospace and aerospace fields.
자동차의 주행을 용이하게 하고 더 안전하게 하기 위해, 자동차에 운전자 지원 시스템들을 장착하는 것은 공지된 관행이다. 상기 운전자 지원 시스템들은 (인간의 개입 없이) 자동차의 자율 주행을 허용하는 시스템들, 또는 자동차의 부분 자율 주행을 허용하는 시스템들(일반적으로는 예를 들어 비상 제동을 적용하거나 자동차 차선 중심에 자동차를 복귀시키도록 자동차를 일시적으로 제어하는 데 적합한 시스템들)일 수 있다.It is a known practice to equip motor vehicles with driver assistance systems to facilitate and make the driving of motor vehicles safer. Said driver assistance systems are systems that allow autonomous driving of a motor vehicle (without human intervention), or systems that allow partially autonomous driving of a motor vehicle (usually for example applying emergency braking or centering the vehicle in a vehicle lane). systems suitable for temporarily controlling the vehicle to return
이러한 시스템들이 자동차 주변 환경을 파악할 수 있게 하기 위해, 카메라 및 RADAR, LIDAR, SONAR 센서들 등과 같은 수많은 센서가 자동차 상에 배치된다.To enable these systems to understand the environment around the car, numerous sensors such as cameras and RADAR, LIDAR, SONAR sensors are placed on the car.
각각의 센서에는 각각의 센서의 특성과 단점이 있다. 환경 검출 오류들을 가장 잘 줄이기 위해, "데이터 융합(data fusion)"을 수행하는 것, 다시 말하면 단일 항목의 환경 데이터를 서로 다른 센서들로부터 획득하기 위해 서로 다른 센서들에 의해 송신된 데이터를 고려하는 것은 공지된 관행이다. 따라서, 각각의 센서의 특성을 활용하는 것이 가능하다.Each sensor has its own characteristics and disadvantages. To best reduce environmental detection errors, performing "data fusion", i.e. taking into account the data transmitted by different sensors to obtain a single item of environmental data from different sensors It is a known practice. Accordingly, it is possible to utilize the characteristics of each sensor.
공교롭게, 그러함에 불구하고, 자동차가 여전히 실수를 범하는 일, 다시 말하면 자동차가 상황을 잘못 파악하는 일이 벌어질 수 있다. 예를 들어, 자동차는 위험한 객체를 무해한 장애물로 잘못 간주하고 결과적으로는 비상 제동 커맨드를 실행하지 않을 수 있다.Coincidentally, nevertheless, it can happen that cars still make mistakes, that is, cars get things wrong. For example, a car may mistakenly consider a hazardous object as a harmless obstacle and not issue an emergency braking command as a result.
그러므로 이러한 오류들을 줄이는 것이 필요하다.Therefore, it is necessary to reduce these errors.
본 발명은 표준 ISO26262에 의해 정의된 바와 같은 기능 안전 레벨 ASIL D("Automotive Safety Integrity Level D"의 약어)를 충족시키는 새로운 방법 및 새로운 시스템을 제공한다.The present invention provides a new method and a new system for meeting the functional safety level ASIL D (abbreviation of "Automotive Safety Integrity Level D") as defined by the standard ISO26262.
더 구체적으로는, 본 발명에 따라 자동차를 제어하는 방법이 제안되며, 자동차의 제어 방법은,More specifically, a method for controlling a vehicle is proposed according to the present invention, the method for controlling a vehicle comprising:
- 자동차의 컴퓨팅 유닛이 자동차의 센서들에 의해 획득되고 자동차의 환경에 관련된 원시 데이터를 수신하는 단계;- the computing unit of the vehicle receiving raw data obtained by the sensors of the vehicle and relating to the environment of the vehicle;
- 상기 컴퓨팅 유닛은 자동차의 환경에 관련된 정보 및 각각의 항목의 정보를 획득하는데 오류가 있을 확률에 관련된 확률 계수를 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계;- the computing unit processing the raw data to obtain, from the raw data, information related to the environment of the vehicle and a probability coefficient related to a probability of an error in obtaining information of each item;
- 상기 정보 및 상기 확률 계수에 따라 자동차의 제어 명령을 조성하는 단계;- formulating a control command of the vehicle according to said information and said probability coefficient;
- 상기 센서들 중 적어도 제1 센서에 대해, 상기 제1 센서가 획득하는 상기 원시 데이터의 품질에 관련된 품질 계수를 결정하는 단계;- determining, for at least a first of said sensors, a quality factor related to the quality of said raw data obtained by said first sensor;
- 상기 품질 계수 및 상기 확률 계수에 따라 상기 제어 명령의 신뢰도를 추정하는 단계;- estimating the reliability of the control command according to the quality factor and the probability factor;
- 상기 제어 명령의 추정된 신뢰도에 따라 상기 제어 명령을 수정할지 말지를 결정하는 단계;- determining whether to modify the control command according to the estimated reliability of the control command;
를 포함한다.includes
따라서, 본 발명에 의하면, 자동차의 제어 명령이 완전히 안전하게 그대로 사용될 수 있는지 여부를 결정하기 위해 상기 센서들의 작동 조건들을 (이러한 센서들의 품질 계수들을 결정함으로써) 고려하는 것이 가능하다.Thus, according to the present invention, it is possible to take into account the operating conditions of the sensors (by determining the quality factors of these sensors) in order to determine whether the control command of the motor vehicle can be used completely and safely as it is.
예를 들어, 카메라에 의해 획득된 데이터가 고품질임을 고려할 수 있을 만큼 밝기가 양호한지 여부를 결정하는 것이 가능하다. 또한, LIDAR 센서에 의해 획득된 데이터가 고품질의 데이터인지 여부를 알기 위해, 자동차가 스프레이(spray)를 통과하고 있는지 여부를 결정하는 것이 가능하다.For example, it is possible to determine whether the brightness is good enough to consider that the data acquired by the camera is of high quality. In addition, in order to know whether the data obtained by the LIDAR sensor is of high quality, it is possible to determine whether the car is passing through a spray.
본 발명에 따른 제어 방법의 다른 유리하고 비-제한적인 특징들은 다음과 같다:Other advantageous and non-limiting features of the control method according to the invention are as follows:
- 상기 결정하는 단계에서, 상기 센서들 중 적어도 제1 센서의 품질 계수는 상기 센서들 중 적어도 하나의 다른 센서에 의해 획득된 원시 데이터에 따라 그리고/또는 제3자의 검출기에 의해 획득되고 상기 제1 센서에 의해 획득된 원시 데이터의 측정 조건들에 관련된 제3자의 데이터에 따라 결정되고;- in said determining step, the quality factor of at least a first of said sensors is obtained according to raw data obtained by at least one other of said sensors and/or by a detector of a third party and said first determined according to data of a third party related to measurement conditions of raw data obtained by the sensor;
- 상기 제3자의 검출기는 광 센서 또는 레인 센서 또는 자동차가 주행하고 있는 도로의 상태를 검출하기에 적합한 센서이며;- said third party detector is a light sensor or a rain sensor or a sensor suitable for detecting the condition of the road on which the vehicle is traveling;
- 상기 센서들 중 적어도 하나의 센서는 이미지 센서 또는 RADAR 센서 또는 LIDAR 센서이고;- at least one of said sensors is an image sensor or a RADAR sensor or a LIDAR sensor;
- 상기 처리하는 단계에서, 각각의 센서에 의해 송신된 원시 데이터는 자동차의 환경 내 객체들을 검출하고 상기 객체들을 분류하기 위해 다른 센서들에 의해 송신된 원시 데이터와는 별도로 처리되며, 각각의 확률 계수는 분류된 객체와 상기 센서에 연관되어 있고;- in the processing step, the raw data transmitted by each sensor is processed separately from the raw data transmitted by other sensors to detect and classify objects in the environment of the vehicle, each probability coefficient is associated with the classified object and the sensor;
- 상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 확률 계수를 고려하여 융합되며;- in the processing step, after processing the raw data, the processed data is fused taking into account each probability coefficient;
- 상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 품질 계수를 고려하여 융합되고;- in the processing step, after processing the raw data, the processed data is fused in consideration of each quality factor;
- 상기 추정하는 단계에서, 상기 제어 명령의 신뢰도는 또한 상기 처리된 데이터의 융합 결과에 따라 추정되며; 그리고- in the estimating step, the reliability of the control command is also estimated according to the fusion result of the processed data; And
- 상기 제어 명령을 수정할지 말지에 대한 결정은 또한 상기 센서들과는 다른 센서들로부터 획득된 중복 정보(redundancy information)에 따라 내려진다.- A decision as to whether or not to modify the control command is also made according to redundancy information obtained from sensors other than the sensors.
본 발명은 또한 자동차의 환경에 관련된 원시 데이터를 획득하기에 적합한 복수 개의 센서들 및 위에서 언급한 바와 같은 제어 방법을 구현하기에 적합한 컴퓨팅 유닛을 포함하는 자동차에 관한 것이다.The present invention also relates to a motor vehicle comprising a plurality of sensors suitable for acquiring raw data relating to the environment of the vehicle and a computing unit suitable for implementing a control method as mentioned above.
비-제한적인 예들로 제공된 첨부 도면들을 참조한 이하의 설명을 통해 본 발명의 내용 및 본 발명이 구현될 수 있는 방법을 이해할 수 있을 것이다.An understanding of the content of the present invention and how the present invention may be practiced may be understood by reading the following description with reference to the accompanying drawings, provided as non-limiting examples.
도 1은 본 발명에 따른 방법을 구현하기에 적합한 제어 시스템을 보여주는 도면이다.1 shows a control system suitable for implementing a method according to the invention;
본 발명은 특히 자동차의 자율 주행, 다시 말하면 인간의 개입이 없는 차량의 자율 주행을 허용하는 제어 시스템이 장착된 자동차에 적용된다.The invention applies in particular to autonomous driving of motor vehicles, ie motor vehicles equipped with a control system that allows autonomous driving of the vehicle without human intervention.
더 구체적으로, 본 발명은 자동차의 적어도 하나의 구동 부재를 제어하는 방법에 관한 것이다.More particularly, the present invention relates to a method of controlling at least one drive member of a motor vehicle.
이러한 구동 부재는 예를 들어 자동차의 파워트레인에 의해서나, 또는 스티어링 장치 또는 제동 장치에 의해 형성될 수 있다. 본 설명의 나머지 부분에서는, 이러한 모든 구동 부재들 모두가 자동차의 컴퓨팅 유닛에 의해 제어되는 것으로 간주될 것이다.Such a drive element can be formed, for example, by the powertrain of the motor vehicle, or by a steering device or a braking device. For the remainder of this description, it will be considered that all of these driving members are controlled by the computing unit of the vehicle.
도 1의 일부에 도시된 이러한 컴퓨팅 유닛(20)은 프로세서, 메모리 및 여러 입력 및 출력 인터페이스들을 포함한다.This
이는 여기서 블록들의 형태로 표현된, 별개이지만 상호 의존적인 알고리즘들을 구현하는 데 적합하다.It is suitable for implementing separate but interdependent algorithms, represented here in the form of blocks.
상기 컴퓨팅 유닛(20)의 메모리를 통해, 상기 컴퓨팅 유닛(20)은 상기 프로세서에 의한 실행으로 이하에서 설명될 방법의 구현이 허용되는 명령어들을 포함하는 컴퓨터 프로그램들로 이루어진 컴퓨터 애플리케이션을 저장한다.Via the memory of the
상기 컴퓨팅 유닛(20)의 출력 인터페이스들을 통해, 상기 컴퓨팅 유닛(20)은 상기 컴퓨팅 유닛(20)이 제어 명령(C1)을 상기 구동 부재들(30)에 송신할 수 있도록 상기 구동 부재들(30)에 접속되어 있다.Via the output interfaces of the
상기 컴퓨팅 유닛(20)의 입력 인터페이스들을 통해, 상기 컴퓨팅 유닛(20)은 여러 센서(10, 11, 12, 13)(적어도 2개의 센서이지만, 바람직하게는 그 이상임)에 접속되어 있다.Via input interfaces of the
이들은 임의 유형의 센서일 수 있다.These may be any type of sensor.
예를 들어, 자동차에는 자동차 주위의 모든 방향(다시 말하면, 360도)을 커버하도록 배향된 디지털 카메라(10), RADAR 센서(11), LIDAR 센서(12) 및 광 센서(13)가 장착될 수 있다.For example, a car could be equipped with a
상기 광 센서(13)는 자동차의 조명을 자동으로 스위치 온하는 종래의 기능을 제공하는 것을 가능하도록 존재한다.The
이하 환경 센서들이라고 하는 다른 센서들(10, 11, 12)은 자동차를 자율적으로 제어하는 기능을 보장하도록 상기 환경 센서들(10, 11, 12)의 일부에 대해 존재한다.
이러한 환경 센서들(10, 11, 12) 각각에는 특성과 단점이 있다. 예를 들어, 카메라는 맑은 날씨에 장애물을 잘 검출할 수 있지만 어둡거나 지나치게 밝은 빛에서는 검출이 불량하게 된다. 이와는 반대로, RADAR 또는 LIDAR 센서는 빛에 상관없이 장애물을 잘 검출할 수 있지만 스프레이나 악천후(비, 안개, 눈)가 있는 경우 부정확한 데이터를 제공하게 된다.Each of these
여기서 상기 구동 부재들에 송신되는 제어 명령(C1)은 주로 상기 환경 센서들(10, 11, 12)에 의해 송신된 원시 데이터에 따라 조성될 것이다.Here, the control command C1 transmitted to the driving members will be mainly formulated according to the raw data transmitted by the
이때, 도 1을 참조하여 이러한 제어 명령(C1)이 조성되는 방식을 구체적으로 설명하는 것이 가능하다.At this time, it is possible to describe in detail the manner in which such a control command C1 is generated with reference to FIG. 1 .
실제로, 상기 컴퓨팅 유닛(20)은 반복적인 방식으로 다시 말하면 규칙적인 시간 간격으로 이하에서 설명되는 방법을 구현하도록 프로그램된다.In practice, the
이러한 방법은 7개의 주요 단계를 포함한다.This method comprises seven main steps.
제1 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 센서들(10, 11, 12, 13) 모두에 의해 획득된 원시 데이터를 판독한다.In a first step, the
여기서 고려된 예에서는, 상기 컴퓨팅 유닛(20)이 상기 카메라(10)에 의해, 상기 RADAR 센서(11)에 의해, 상기 LIDAR 센서(12)에 의해 그리고 상기 광 센서(13)에 의해 송신된 원시 데이터를 판독한다.In the example considered here, the raw material transmitted by the
예를 들어, 상기 카메라(10)의 경우, 상기 원시 데이터는 상기 카메라의 감광 센서의 각각 픽셀의 컬러 및 밝기 특성에 의해 형성된다. 상기 광 센서(13)의 경우, 상기 원시 데이터는 시간에 걸쳐 측정된 광 레벨들에 의해 형성된다.For example, in the case of the
제2 단계에서는, 상기 획득된 원시 데이터가 자동차의 환경에 관련된 정보를 상기 획득된 원시 데이터로부터 획득하도록 처리된다.In a second step, the obtained raw data is processed to obtain information related to the environment of the vehicle from the obtained raw data.
실제로, 상기 환경 센서들(10, 11, 12)에 의해 송신된 원시 데이터는 서로 별도로 처리된다.In practice, the raw data transmitted by the
그러한 목적은 상기 원시 데이터를 기반으로 자동차의 환경 내에 있는 객체들(장애물, 교통 표지, 제3자의 차량, 보행자 등)을 검출하고 이러한 객체들을 분류하며 각각 분류된 객체(S1, S2, S3)에, 이러한 객체의 검출 및 분류에서 오류가 있을 확률에 관련된 확률 계수(P1, P2, P3)를 할당하기 위한 것이다.The purpose is to detect objects (obstacles, traffic signs, third-party vehicles, pedestrians, etc.) in the environment of the vehicle based on the raw data, classify these objects, and assign to each classified object (S1, S2, S3). , for allocating probability coefficients (P1, P2, P3) related to the probability of an error in the detection and classification of these objects.
이러한 단계를 구현하기 위해, "CNN"("convolutional neural network") 기법들과 같은 기계 학습 기법들을 기반으로 하는 분류 방법들을 사용하는 것이 가능하다.To implement this step, it is possible to use classification methods based on machine learning techniques such as "CNN" ("convolutional neural network") techniques.
일 변형 예로서나 또는 추가로, 필터들 또는 임의의 다른 유형의 적절한 처리가 사용될 수 있다.As a variant or in addition, filters or any other type of suitable processing may be used.
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은, 입력으로서 상기 카메라(10)로부터, 상기 RADAR 센서(11)로부터 그리고 상기 LIDAR 센서(12)로부터 원시 데이터를 입력으로서 제각기 수신하고 검출 및 분류되어 확률 계수(P1, P2, P3)에 연관된 각각의 객체의 설명(S1, S2, S3)을 출력으로서 별도로 전달하는 3개의 블록(B10, B11, B12)을 포함한다.In summary, as shown in FIG. 1 , the
제3 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 환경 센서들(10, 11, 12) 각각에 대한 품질 계수(Q1, Q2, Q3)를 결정한다. 이러한 품질 계수(Q1, Q2, Q3)는 해당 센서에 의해 획득된 원시 데이터의 품질에 관련된 것이다.In the third step, the
실제로, 이러한 품질 계수(Q1, Q2, Q3)을 통해 해당 센서의 올바른 작동을 허용하기에 적합한 외부 조건들을 어느 정도 알 수 있는 것이 가능하다.Indeed, it is possible that these quality factors (Q1, Q2, Q3) give some indication of the external conditions suitable to allow the correct operation of the corresponding sensor.
다시 말하면, 이러한 품질 계수들(Q1, Q2, Q3)을 통해 이하의 사항을 결정하는 것이 가능하다:In other words, through these quality factors Q1, Q2, Q3 it is possible to determine:
- 상기 카메라(10)가 예를 들어 주변 광을 고려해 객체들을 정확하게 검출할 수 있는지 여부; 그리고- whether the
- 상기 RADAR 센서(11) 및 상기 LIDAR 센서(12)가 예를 들어 날씨를 고려해 객체들을 정확하게 검출할 수 있는지 여부.- Whether the
각각의 품질 계수(Q1, Q2, Q3)는 (실선 화살표로 표시된 바와 같은) 해당 센서에 의해 획득된 원시 데이터에 따라 결정되지만 (점선 화살표로 표시된 바와 같은) 다른 센서들에 의해 획득된 원시 데이터에 따라서도 결정된다.Each quality factor (Q1, Q2, Q3) is determined according to the raw data acquired by that sensor (as indicated by the solid arrow), but is dependent on the raw data acquired by the other sensors (as indicated by the dotted arrow). So it is also determined.
따라서, 날씨는 상기 카메라(10)에 의해 획득된 이미지들에 따라 결정될 수 있고, 주변 광은 상기 광 센서(13)에 의해 획득될 수 있다.Accordingly, the weather may be determined according to the images acquired by the
물론, 특히 날씨를 결정하기 위해 다른 센서들이 사용될 수 있다. 따라서, 자동차의 바퀴들에 위치하게 되고 자동차가 주행하고 있는 도로의 상태를 검출하기에 적합한 레인 센서(rain sensor) 및/또는 가속도계들을 사용하는 것이 가능할 것이다.Of course, other sensors may be used, particularly for determining the weather. Accordingly, it would be possible to use a rain sensor and/or accelerometers located on the wheels of the vehicle and suitable for detecting the condition of the road on which the vehicle is traveling.
상기 센서들(10, 11, 12, 13)로부터 획득된 원시 데이터는 이하의 방법들에 적용함으로써 각각의 품질 계수(Q1, Q2, Q3)를 결정하는 데 사용된다:Raw data obtained from the
- 통계적 방법들(상기 카메라(10)로부터 획득된 원시 데이터의 경우, 특히 "브리크(BRIQUE)" 또는 "니크(NIQUE)" 방법들을 사용하는 것이 가능함); 및/또는- statistical methods (in the case of raw data obtained from the
- 주파수 방법들(상기 카메라(10)로부터 획득된 원시 데이터의 경우 이미지들의 선명도를 결정하도록 "선명도/블러(Sharpness/Blur)" 또는 "고-저 주파수 인덱스(High-Low Frequency Index)" 방법들을 사용하는 것도 가능하며, 상기 LIDAR 센서로부터 획득된 원시 데이터의 경우, "참조가 있는 RMSE(RMSE with reference), "HDMAP 및 GPS" 또는 "공분산 행렬/엔트로피 측정(covariance matrix/entropy measurement)" 방법들을 사용하는 것이 가능함).- Frequency methods (“Sharpness/Blur” or “High-Low Frequency Index” methods to determine the sharpness of images in the case of raw data obtained from the camera 10 ) It is also possible to use, for raw data obtained from the LIDAR sensor, “RMSE with reference,” “HDMAP and GPS” or “covariance matrix/entropy measurement” methods possible to use).
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 3개의 블록(B10', B11', B12')을 포함하며, 3개의 블록(B10', B11', B12')은 상기 카메라(10)로부터 그리고/또는 상기 RADAR 센서(11)로부터 그리고/또는 상기 LIDAR 센서(12)로부터 그리고/또는 상기 광 센서(13)로부터 원시 데이터를 입력으로서 수신하고 그리고 상기 환경 센서들(10, 11, 12) 중 하나에 연관되고 주행 조건들을 고려해 이러한 센서에 의해 취해진 측정들의 정밀도 레벨에 관련된 품질 계수(Q1, Q2, Q3)를 출력으로서 각각 전달한다.In summary, as shown in FIG. 1 , the
이하에서 자명해지겠지만, 각각의 환경 센서(10, 11, 12)에 대한 품질 계수를 추정하면 작동 조건들이 최선의 것으로 추정되고 결과적으로는 가장 신뢰할 수 있는 원시 데이터를 전달하는 하나 이상의 센서들을 선호하는 것이 가능하다.As will be apparent below, estimating the quality factor for each
제4 단계에서는, 여러 환경 센서(10, 11, 12)로부터 획득된 데이터를 융합하는 것이 제공된다.In a fourth step, it is provided to fuse data obtained from several
이를 위해서는, 한편으로는 상기 센서들에 의해 획득된 원시 데이터와 다른 한편으로는 블록들(B10, B11, B12)로부터 획득된 데이터를 융합하는 것이 가능할 것이다.To this end, it will be possible to fuse the raw data obtained by the sensors on the one hand and the data obtained from the blocks B10 , B11 , B12 on the other hand.
그러나 여기에서는 블록들(B10, B11, B12)로부터 획득된 데이터(다시 말하면, 설명들(S1, S2, S3))만이 융합되는 것으로 간주될 것이다.However, here only the data obtained from the blocks B10, B11, B12 (that is, the descriptions S1, S2, S3) will be considered to be fused.
이러한 데이터가 여기에서는 각각의 확률 계수(P1, P2, P3)를 고려하고 잠재적으로는 각각의 품질 계수(Q1, Q2, Q3)에 따라 융합된다.These data are here considered respective probability coefficients (P1, P2, P3) and potentially fused according to their respective quality factors (Q1, Q2, Q3).
"데이터 융합"이 의미하는 것은 이종 센서들(heterogeneous sensors)로부터 획득된 여러 데이터에 적용되고 자동차 주변에 있는 객체들의 검출 및 분류를 세분화하는 것을 가능하게 하는 수학적 방법이다.What "data fusion" means is a mathematical method that is applied to multiple data obtained from heterogeneous sensors and makes it possible to refine the detection and classification of objects in the vicinity of a car.
예를 들어, 상기 카메라(10)에 의해 획득된 이미지들로부터의 데이터는 상기 카메라(10)에 의해 획득된 이미지에서 검출된 객체들의 정확한 위치와 동역학(속도 및 가속도)을 양호하게 추정하기 위해 상기 RADAR 센서(11) 및 상기 LIDAR 센서(12)로부터의 데이터와 융합될 수 있다.For example, data from images acquired by the
그리고 나서, 상기 확률(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)은 객체들의 검출 및 분류를 위해 각각의 환경 센서(10, 11, 12)의 가중치들을 동적으로 조정하는 데 사용된다.Then, the probabilities (P1, P2, P3) and the quality factors (Q1, Q2, Q3) dynamically adjust the weights of each environmental sensor (10, 11, 12) for detection and classification of objects. used to
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 검출된 객체들의 설명들(S1, S2, S3) 뿐 아니라 상기 확률(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)을 입력으로서 수신하며 여러 환경 센서에 의해 검출되고 상기 데이터 융합 알고리즘들에 의해 검사된 각각의 객체의 설명들(카테고리, 위치 및 동역학)을 포함하는 결과(D2)를 출력으로서 전달하는 블록(B1)을 포함한다.In summary, as shown in FIG. 1 , the
이러한 결과(D2)에 의해, 제5 단계에서는, 상기 컴퓨팅 유닛(20)이 자동차의 여러 구동 부재(30)에 대한 제어 명령(C1)을 조성한다.Based on this result D2, in the fifth step, the
이를 위해서는, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)이 상기 블록(B1)으로부터의 결과(D2)를 입력으로서 수신하고 상기 제어 명령(C1)을 출력으로서 전달하는 블록(B2)을 포함한다.To this end, as shown in FIG. 1 , the
이러한 제어 명령(C1)은 결과적으로 자동차 환경의 컴퓨팅 유닛(20)에 의한 평가를 고려해 생성된다.This control command C1 is consequently generated taking into account the evaluation by the
이러한 평가에서의 임의의 오류가 자동차의 탑승자에 대해 위험한 결과들을 초래하는 것을 방지하기 위해, 상기 방법을 안전하게 하도록 2개의 추가 단계가 또한 제공된다.In order to prevent any error in this assessment from having dangerous consequences for the occupants of the motor vehicle, two additional steps are also provided to make the method safe.
제6 단계에서는, 상기 컴퓨팅 유닛(20)이 상기 품질(Q1, Q2, Q3) 및 확률 계수들(P1, P2, P3)에 따라 상기 제어 명령(C1)의 신뢰도를 추정한다.In the sixth step, the
실제로, 상기 제어 명령(C1)의 신뢰도는 신뢰도 계수(D3)에 의해 추정된다.Actually, the reliability of the control command C1 is estimated by the reliability coefficient D3.
이러한 신뢰도 계수(D3)를 계산하기 위한 알고리즘은 예를 들어 상기 품질 계수(Q1, Q2, Q3) 및 상기 확률 계수들(P1, P2, P3)을 상관시키는 방법에 기초하여 이루어질 수 있다.The algorithm for calculating the reliability coefficient D3 may be made based on, for example, a method of correlating the quality coefficients Q1, Q2, Q3 and the probability coefficients P1, P2, P3.
바람직하게는, 상기 신뢰도 계수(D3)는 주로 상기 품질 계수들(Q1, Q2, Q3)에 따라 결정될 것이다.Preferably, the reliability factor D3 will be mainly determined according to the quality factors Q1, Q2, Q3.
특히, 이러한 품질 계수들(Q1, Q2, Q3)이 상기 환경 센서들(10, 11, 12) 대다수가 자동차가 자동차 환경을 양호하게 파악할 수 없는 조건들에서 작동하고 있음을 나타내면, 이러한 정보는 (상기 확률 계수들의 값들에 관계없이) 신뢰도 계수(D3)를 결정하는데 고려될 것이다.In particular, if these quality factors (Q1, Q2, Q3) indicate that the majority of the environmental sensors (10, 11, 12) are operating in conditions where the vehicle cannot understand the vehicle environment well, this information is ( irrespective of the values of the probability coefficients) will be taken into account in determining the reliability coefficient D3.
다시 말하면, 상기 확률 계수들(P1, P2, P3)은 상기 품질 계수들(Q1, Q2, Q3)보다 낮은 통계적 가중치를 지닌다.In other words, the probability coefficients P1, P2, and P3 have a lower statistical weight than the quality coefficients Q1, Q2, and Q3.
더욱이, 주어진 센서의 품질 계수를 결정하는 데 사용되는 센서들의 갯수가 많을수록 신뢰도 계수(D3)의 계산에서 이러한 품질 계수의 가중치가 커지게 된다.Moreover, the greater the number of sensors used to determine the quality factor of a given sensor, the greater the weight of this quality factor in the calculation of the reliability factor D3.
신뢰성 계수(D3)를 계산하는 알고리즘은 다른 데이터를 고려할 수 있을 것이다. 따라서, 바람직하게는 상기 융합의 결과(D2)에 따라서도 신뢰도 계수(D3)가 추정될 것이다. 이런 방식으로, 상기 융합의 결과(D2)가 일치하지 않으면, 이러한 불일치는 신뢰도 계수(D3)를 계산하는데 고려될 수 있을 것이다.The algorithm for calculating the reliability factor D3 may take other data into account. Therefore, preferably, the reliability coefficient D3 will also be estimated according to the result D2 of the fusion. In this way, if the result (D2) of the fusion does not match, this discrepancy may be taken into account in calculating the confidence factor (D3).
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 확률 계수들(P1, P2, P3) 및 상기 품질 계수들(Q1, Q2, Q3)과 아울러, 상기 융합의 결과(D2)를 입력으로서 수신하고 신뢰도 계수(D3)를 출력으로서 전달하는 블록(B3)을 포함한다.In summary, as shown in FIG. 1 , the
제7 단계에서는, 상기 컴퓨팅 유닛(20)이 이때 상기 제어 명령(C1)을 수정할지 말지에 대한 결정을 (이러한 결정을 상기 구동 부재(30)에 송신하기 전에) 내리게 된다.In a seventh step, the
이러한 결정은 주로 상기 신뢰도 계수(D3)를 고려하여 내려진다.This decision is mainly made in consideration of the reliability coefficient D3.
바람직하게는, 이러한 결정은 이때까지 고려된 센서들(10, 11, 12)과는 구별되는 센서로부터 획득된 중복 정보(D1)에 따라서 내려질 수 있을 것이다.Preferably, this determination may be made according to the redundancy information D1 obtained from a sensor distinct from the
실제로, 상기 신뢰도 계수(D3)가 임계치 미만일 경우 그리고/또는 상기 중복 정보(D1)가 고려된 데이터 간 불일치를 나타낼 경우, 상기 컴퓨팅 유닛(20)은 상기 제어 명령(C1)의 수정을 요청할 것으로 예상된다.Indeed, when the confidence factor D3 is below a threshold and/or when the redundancy information D1 indicates a discrepancy between the considered data, the
이러한 수정으로 인한 동작은 예를 들어 자동차의 자율 주행 모드를 해제하거나 또는 하나 이상의 사전에 식별된 센서들로부터의 원시 데이터를 고려해 정지하는 것일 수 있다.The action resulting from this modification may be, for example, disabling the vehicle's autonomous driving mode or stopping it taking into account raw data from one or more pre-identified sensors.
요약하면, 도 1에 도시된 바와 같이, 상기 컴퓨팅 유닛(20)은 상기 신뢰도 계수(D3)와 아울러 상기 중복 정보(D1)를 입력으로서 수신하고 상기 제어 명령(C1)을 수정하도록 하는 명령을 출력으로서 잠재적으로 전달하는 블록(B4)을 포함한다.In summary, as shown in FIG. 1 , the
이러한 블록(B4)은 ISO26262 표준의 의미 내에서 ASIL-D 안전 레벨을 보장하는 것이 목적인 알고리즘으로 형성된다.This block B4 is formed with an algorithm whose aim is to ensure an ASIL-D safety level within the meaning of the ISO26262 standard.
Claims (10)
상기 자동차의 제어 방법은,
- 상기 컴퓨팅 유닛(20)이 상기 센서들(10, 11, 12)에 의해 획득된 원시 데이터를 수신하는 단계;
- 상기 컴퓨팅 유닛(20)은 자동차의 환경에 관련된 정보(S1, S2, S3) 및 각각의 항목의 정보(S1, S2, S3)를 획득하는데 오류가 있을 확률에 관련된 확률 계수들(P1, P2, P3)을 상기 원시 데이터로부터 획득하도록 상기 원시 데이터를 처리하는 단계; 및
- 상기 정보(S1, S2, S3) 및 상기 확률 계수들(P1, P2, P3)에 따라 자동차의 제어 명령(C1)을 조성하는 단계;
를 포함하며,
상기 자동차의 제어 방법은,
- 상기 센서들(10, 11, 12) 중 적어도 제1 센서에 대해, 상기 제1 센서(10, 11, 12)가 획득하는 상기 원시 데이터의 품질에 관련된 품질 계수(Q1, Q2, Q3)를 결정하는 단계;
- 상기 품질 계수들(Q1, Q2, Q3) 및 상기 확률 계수들(P1, P2, P3)에 따라 상기 제어 명령(C1)의 신뢰도를 추정하는 단계; 및
- 상기 제어 명령(C1)의 추정된 신뢰도에 따라 상기 제어 명령(C1)을 수정할지 말지를 결정하는 단계;
를 또 포함하는 것을 특징으로 하는, 자동차의 제어 방법.A method of controlling a vehicle comprising a computing unit (20) and a plurality of sensors (10, 11, 12) configured to obtain raw data related to the environment of the vehicle, the method comprising:
The control method of the vehicle,
- receiving the raw data obtained by the sensors (10, 11, 12) by the computing unit (20);
- The computing unit 20 obtains the information (S1, S2, S3) related to the environment of the vehicle and the probability coefficients (P1, P2) related to the probability of an error in obtaining the information (S1, S2, S3) of each item , P3) processing the raw data to obtain from the raw data; and
- formulating a vehicle control command (C1) according to the information (S1, S2, S3) and the probability coefficients (P1, P2, P3);
includes,
The control method of the vehicle,
- for at least a first sensor among the sensors 10, 11, 12, a quality factor Q1, Q2, Q3 related to the quality of the raw data obtained by the first sensor 10, 11, 12; determining;
- estimating the reliability of the control command (C1) according to the quality factors (Q1, Q2, Q3) and the probability factors (P1, P2, P3); and
- determining whether to modify the control command (C1) according to the estimated reliability of the control command (C1);
Also comprising a, control method of a vehicle.
상기 결정하는 단계에서, 상기 센서들(10, 11, 12) 중 적어도 제1 센서의 품질 계수(Q1, Q2, Q3)는 상기 센서들(10, 11, 12) 중 적어도 하나의 다른 센서에 의해 획득된 원시 데이터에 따라 그리고/또는 제3자 검출기(13)에 의해 획득되고 상기 제1 센서(10, 11, 12)에 의해 획득된 원시 데이터의 측정 조건들에 관련된 제3자의 데이터에 따라 결정되는, 자동차의 제어 방법.According to claim 1,
In the determining step, the quality factor Q1 , Q2 , Q3 of at least a first sensor among the sensors 10 , 11 , 12 is determined by at least one other sensor of the sensors 10 , 11 , 12 . Determination according to the obtained raw data and/or according to data of a third party relating to the measurement conditions of the raw data obtained by the third party detector 13 and obtained by the first sensor 10 , 11 , 12 . Being, the control method of the car.
상기 제3자의 검출기(13)는 광 센서 또는 레인 센서 또는 자동차가 주행하고 있는 도로의 상태를 검출하도록 구성된 센서인, 자동차의 제어 방법.3. The method of claim 1 or 2,
The third-party detector (13) is a light sensor or a rain sensor or a sensor configured to detect the condition of the road on which the vehicle is traveling.
상기 센서들(10, 11, 12) 중 적어도 하나의 센서는 이미지 센서 또는 RADAR 센서 또는 LIDAR 센서인, 자동차의 제어 방법.4. The method according to any one of claims 1 to 3,
At least one of the sensors (10, 11, 12) is an image sensor or a RADAR sensor or a LIDAR sensor.
상기 처리하는 단계에서, 각각의 센서(10, 11, 12)에 의해 송신된 원시 데이터는 자동차의 환경 내 객체들을 검출하고 상기 객체들을 분류하기 위해 다른 센서들(10, 11, 12)에 의해 송신된 원시 데이터와는 별도로 처리되며, 각각의 확률 계수(P1, P2, P3)는 분류된 객체와 상기 센서(10, 11, 12)에 연관되어 있는, 자동차의 제어 방법.5. The method of any one of claims 1 to 4,
In the processing step, the raw data transmitted by each sensor 10, 11, 12 is transmitted by other sensors 10, 11, 12 to detect and classify objects in the environment of the vehicle. Processed separately from the raw data, each probability coefficient (P1, P2, P3) is associated with a classified object and the sensor (10, 11, 12).
상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 확률 계수(P1, P2, P3)를 고려하여 융합되는, 자동차의 제어 방법.6. The method according to any one of claims 1 to 5,
In the processing step, after processing the raw data, the processed data is fused in consideration of respective probability coefficients (P1, P2, P3).
상기 처리하는 단계에서, 상기 원시 데이터를 처리한 후에, 상기 처리된 데이터는 각각의 품질 계수(Q1, Q2, Q3)를 고려하여 융합되는, 자동차의 제어 방법.7. The method according to any one of claims 1 to 6,
In the processing step, after processing the raw data, the processed data is fused in consideration of each quality factor (Q1, Q2, Q3).
상기 추정하는 단계에서, 상기 제어 명령(C1)의 신뢰도는 또한 상기 처리된 데이터의 융합 결과에 따라 추정되는, 자동차의 제어 방법.8. The method according to any one of claims 1 to 7,
In the estimating step, the reliability of the control command (C1) is also estimated according to a fusion result of the processed data.
상기 제어 명령(C1)을 수정할지 말지에 대한 결정은 또한 상기 센서들(10, 11, 12)과는 다른 센서들로부터 획득된 중복 정보(redundancy information)에 따라 내려지는, 자동차의 제어 방법.9. The method of any one of claims 1 to 8,
The determination of whether or not to modify the control command (C1) is also made according to redundancy information obtained from sensors other than the sensors (10, 11, 12).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1860137 | 2018-11-02 | ||
FR1860137A FR3088041B1 (en) | 2018-11-02 | 2018-11-02 | PROCESS FOR DEVELOPING A DRIVING INSTRUCTIONS FOR A MOTOR VEHICLE |
PCT/EP2019/079531 WO2020089230A1 (en) | 2018-11-02 | 2019-10-29 | Method for generating control settings for a motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210076139A true KR20210076139A (en) | 2021-06-23 |
Family
ID=65951653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217015636A KR20210076139A (en) | 2018-11-02 | 2019-10-29 | How to create car control settings |
Country Status (7)
Country | Link |
---|---|
US (1) | US11657621B2 (en) |
EP (1) | EP3873786A1 (en) |
JP (1) | JP7439079B2 (en) |
KR (1) | KR20210076139A (en) |
CN (1) | CN112930290A (en) |
FR (1) | FR3088041B1 (en) |
WO (1) | WO2020089230A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020203829A1 (en) * | 2020-03-25 | 2021-09-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for monitoring a vehicle system for recognizing the surroundings of a vehicle |
FR3113317B1 (en) * | 2020-08-10 | 2023-09-29 | Valeo Systemes Dessuyage | Method for using data from a selection of driving assistance sensors in a vehicle |
FR3116252B1 (en) * | 2020-11-19 | 2023-03-24 | Renault Sas | System and method of control adapted to perception |
FR3120837A1 (en) * | 2021-03-16 | 2022-09-23 | Psa Automobiles Sa | Vehicle with brightness change detection in the driving scenario |
CN113515845A (en) * | 2021-04-29 | 2021-10-19 | 北京大学(天津滨海)新一代信息技术研究院 | Method and device for predicting reliability of atomic clock |
CN116229425B (en) * | 2023-05-08 | 2023-09-19 | 珠海骏驰智联科技有限公司 | Unmanned vehicle obstacle detection method and system based on big data |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2900737B2 (en) * | 1993-02-01 | 1999-06-02 | トヨタ自動車株式会社 | Inter-vehicle distance detection device |
JP2002099906A (en) | 2000-09-22 | 2002-04-05 | Mazda Motor Corp | Object-recognizing device |
JP3931879B2 (en) * | 2003-11-28 | 2007-06-20 | 株式会社デンソー | Sensor fusion system and vehicle control apparatus using the same |
JP4857840B2 (en) | 2006-03-22 | 2012-01-18 | 日産自動車株式会社 | Object detection method and object detection apparatus |
JP2008299787A (en) | 2007-06-04 | 2008-12-11 | Mitsubishi Electric Corp | Vehicle detector |
JP2010132056A (en) | 2008-12-03 | 2010-06-17 | Fujitsu Ten Ltd | Sensing device, sensing method, and vehicle control device |
DE102009019792A1 (en) * | 2009-05-02 | 2010-11-04 | Leopold Kostal Gmbh & Co. Kg | Control system for safely operating at least one functional component |
US9544489B2 (en) * | 2010-03-26 | 2017-01-10 | Fortem Solutions Inc. | Effortless navigation across cameras and cooperative control of cameras |
US10207719B2 (en) * | 2010-07-19 | 2019-02-19 | Nxp Usa, Inc. | Use of multiple internal sensors for measurements validation |
US9221396B1 (en) * | 2012-09-27 | 2015-12-29 | Google Inc. | Cross-validating sensors of an autonomous vehicle |
JP5842862B2 (en) * | 2013-05-14 | 2016-01-13 | 株式会社デンソー | Collision mitigation device |
DE102013212710A1 (en) * | 2013-05-16 | 2014-11-20 | Siemens Aktiengesellschaft | Sensor product, simulator and method for simulating sensor measurements, merging sensor measurements, validating a sensor model and designing a driver assistance system |
DE102014205180A1 (en) * | 2014-03-20 | 2015-09-24 | Robert Bosch Gmbh | Method and device for operating a vehicle |
JP6326985B2 (en) * | 2014-06-04 | 2018-05-23 | 住友電気工業株式会社 | Autonomous driving control device, vehicle, computer program, and autonomous driving control method |
KR101610502B1 (en) * | 2014-09-02 | 2016-04-07 | 현대자동차주식회사 | Apparatus and method for recognizing driving enviroment for autonomous vehicle |
DE102016202805A1 (en) * | 2016-02-24 | 2017-08-24 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for operating an environmental sensor of a vehicle |
EP3506238A4 (en) * | 2016-08-26 | 2019-11-27 | Panasonic Intellectual Property Corporation of America | Three-dimensional information processing method and three-dimensional information processing apparatus |
US10315649B2 (en) * | 2016-11-29 | 2019-06-11 | Ford Global Technologies, Llc | Multi-sensor probabilistic object detection and automated braking |
-
2018
- 2018-11-02 FR FR1860137A patent/FR3088041B1/en active Active
-
2019
- 2019-10-29 WO PCT/EP2019/079531 patent/WO2020089230A1/en unknown
- 2019-10-29 JP JP2021523483A patent/JP7439079B2/en active Active
- 2019-10-29 US US17/289,447 patent/US11657621B2/en active Active
- 2019-10-29 CN CN201980071677.5A patent/CN112930290A/en active Pending
- 2019-10-29 EP EP19800946.6A patent/EP3873786A1/en active Pending
- 2019-10-29 KR KR1020217015636A patent/KR20210076139A/en unknown
Also Published As
Publication number | Publication date |
---|---|
FR3088041A1 (en) | 2020-05-08 |
JP7439079B2 (en) | 2024-02-27 |
JP2022506262A (en) | 2022-01-17 |
CN112930290A (en) | 2021-06-08 |
US11657621B2 (en) | 2023-05-23 |
WO2020089230A1 (en) | 2020-05-07 |
FR3088041B1 (en) | 2020-10-16 |
EP3873786A1 (en) | 2021-09-08 |
US20220004782A1 (en) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210076139A (en) | How to create car control settings | |
CN110103984B (en) | Managing autopilot complexity for a forward path using a perception system measure | |
US20230079730A1 (en) | Control device, scanning system, control method, and program | |
EP3366539B1 (en) | Information processing apparatus and information processing method | |
US11273835B2 (en) | System for a vehicle | |
US20170297571A1 (en) | Method and arrangement for monitoring and adapting the performance of a fusion system of an autonomous vehicle | |
US20200168094A1 (en) | Control device, control method, and program | |
US20180297609A1 (en) | Substitution of sensor measurement data | |
US11256251B2 (en) | Enabling remote control of a vehicle | |
CN111507162B (en) | Blind spot warning method and device based on cooperation of inter-vehicle communication | |
KR20190040550A (en) | Apparatus for detecting obstacle in vehicle and control method thereof | |
US20180215391A1 (en) | Methods and systems for detecting road surface using crowd-sourced driving behaviors | |
CN112693472A (en) | Performance monitoring and evaluation of ADAS or autopilot features of a vehicle | |
CN108960083B (en) | Automatic driving target classification method and system based on multi-sensor information fusion | |
GB2576206A (en) | Sensor degradation | |
WO2019166084A1 (en) | Automated driving system and method of autonomously driving a vehicle | |
CN110869865B (en) | Method for operating a highly automated vehicle (HAF), in particular a highly automated vehicle | |
US20230202520A1 (en) | Travel controller and method for travel control | |
US11807238B2 (en) | Driving assistance system for a vehicle, vehicle having same and driving assistance method for a vehicle | |
CN113243017A (en) | Determining whether image data is within a predetermined range that image analysis software is configured to analyze | |
US11852497B2 (en) | Method for detecting false positives of an image-processing device of a camera | |
JP5103722B2 (en) | Stop vehicle discrimination device | |
US20220306161A1 (en) | Method for detecting inconsistencies in the outputs of perception systems of autonomous vehicles | |
KR20200116495A (en) | Convergence system for converging environmental information about automobiles | |
US20230009269A1 (en) | Lidar enhanced polynomial generation for lane centering |