KR20230017365A - controlling host vehicle based on detected spacing between stationary vehicles - Google Patents
controlling host vehicle based on detected spacing between stationary vehicles Download PDFInfo
- Publication number
- KR20230017365A KR20230017365A KR1020237002352A KR20237002352A KR20230017365A KR 20230017365 A KR20230017365 A KR 20230017365A KR 1020237002352 A KR1020237002352 A KR 1020237002352A KR 20237002352 A KR20237002352 A KR 20237002352A KR 20230017365 A KR20230017365 A KR 20230017365A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- processing unit
- image
- images
- image capture
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 135
- 230000033001 locomotion Effects 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims description 399
- 230000008859 change Effects 0.000 claims description 81
- 230000008569 process Effects 0.000 claims description 45
- 238000012544 monitoring process Methods 0.000 claims description 15
- 230000001939 inductive effect Effects 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 9
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 31
- 230000004044 response Effects 0.000 description 104
- 238000004458 analytical method Methods 0.000 description 88
- 230000015654 memory Effects 0.000 description 61
- 238000010191 image analysis Methods 0.000 description 57
- 230000000007 visual effect Effects 0.000 description 34
- 230000001133 acceleration Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 30
- 238000013528 artificial neural network Methods 0.000 description 23
- 238000004422 calculation algorithm Methods 0.000 description 23
- 230000004438 eyesight Effects 0.000 description 21
- 241000237858 Gastropoda Species 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 10
- 238000005096 rolling process Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 7
- 230000004313 glare Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005206 flow analysis Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 239000000725 suspension Substances 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000001444 catalytic combustion detection Methods 0.000 description 2
- 238000001816 cooling Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000036316 preload Effects 0.000 description 2
- 230000035484 reaction time Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003667 anti-reflective effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000029610 recognition of host Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0055—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/228—Command input arrangements located on-board unmanned vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/247—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
- G05D1/249—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Optics & Photonics (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Image Processing (AREA)
Abstract
자율주행차를 주행제어하는 시스템과 방법이 기재된다. 일 실시예는 도어 개방 이벤트의 검출에 기반하여 호스트 차량을 주행제어하는 시스템과 방법에 관한 것이다. 다른 실시예는 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반하여 호스트 차량을 주행제어하는 시스템과 방법에 관한 것이다. 제3 실시예는 호스트 차량이 운행하는 도로가 일방통행도로인지 여부를 검출하는 시스템과 방법에 관한 것이다. 제4 실시예는 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템과 방법에 관한 것이다. 제5 실시예는 두 대의 정지 상태의 차량 사이의 간격에 기반하여 호스트 차량을 주행제어하는 시스템과 방법에 관한 것이다. A system and method for controlling driving of an autonomous vehicle are described. One embodiment relates to a system and method for driving a host vehicle based on detection of a door opening event. Another embodiment relates to a system and method for controlling driving of a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving. A third embodiment relates to a system and method for detecting whether a road on which a host vehicle is driving is a one-way road. A fourth embodiment relates to a system and method for determining a predicted state of a parked vehicle within the host vehicle's surroundings. A fifth embodiment relates to a system and method for driving a host vehicle based on a distance between two stationary vehicles.
Description
본 발명은 차량의 자율 주행에 관한 것이다. 또한, 본 발명은 도어 개방의 검출에 기반을 둔 호스트 차량의 주행, 타깃 차량의 호스트 차량 차선 진입의 검출에 기반을 둔 호스트 차량의 주행, 호스트 차량이 주행중인 도로가 일방통행인지 여부의 검출에 기반을 둔 호스트 차량의 주행, 및 주차 차량의 예측 상황 판단을 위한 시스템 및 방법에 관한 것이다. The present invention relates to autonomous driving of vehicles. In addition, the present invention relates to driving of the host vehicle based on detection of door opening, driving of the host vehicle based on detection of host vehicle lane entry of a target vehicle, and detection of whether the road on which the host vehicle is traveling is one-way. It relates to a system and method for driving a host vehicle and predicting situation of a parked vehicle based on the host vehicle.
기술의 지속적인 발전과 함께, 도로 위를 주행할 수 있는 완전 자율주행 자동차의 구현이 목전에 있다. 자율주행차는 의도한 목적지에 안전하고 정확하게 도착하기 위해 다양한 요소를 고려하고 그런 요소에 근거한 적절한 판단을 해야 할 수 있다. 예를 들어, 자율주행차는 시각 정보(예를 들면, 카메라가 촬영한 정보), 레이더 또는 라이더(LIdaR)로부터의 정보를 처리하고 해석해야 할 수 있고, 또한 기타 출처(예를 들면, GPS 장치, 속력 센서, 가속도계, 서스펜션 센서 등)로부터 획득한 정보를 이용할 수도 있다. 동시에, 자율주행차는, 목적지로 주행하기 위하여, 특정 도로 내의 위치(예를 들면, 다차선 도로상의 차선)를 식별하고, 다른 차량을 따라 주행하고, 장애물과 보행자를 회피하고, 신호등과 도로표지판을 관찰하고, 적절한 교차로나 분기점에서 한 도로에서 다른 도로로 이동하고, 차량의 작동 중에 발생하는 기타 상황에 대응할 필요가 있을 수도 있다. With the continued development of technology, the realization of fully autonomous vehicles capable of driving on the road is just around the corner. Autonomous vehicles may need to consider a variety of factors and make appropriate decisions based on those factors in order to arrive safely and accurately at their intended destination. For example, an autonomous vehicle may need to process and interpret visual information (e.g., information taken by a camera), information from radar or lidar (LIdaR), as well as other sources (e.g., GPS devices, Information acquired from speed sensors, accelerometers, suspension sensors, etc.) can also be used. At the same time, the self-driving car can identify its location on a particular road (e.g. lane on a multi-lane road), follow other vehicles, avoid obstacles and pedestrians, and follow traffic lights and road signs in order to drive to its destination. It may be necessary to observe, move from one road to another at appropriate intersections or forks, and react to other situations that arise during operation of the vehicle.
자율주행차는 변화하는 상황에 대해 충분한 시간을 가지고 반응하여 차량의 주행 경로를 조정하거나 브레이크를 작동할 수 있어야 한다. 현존하는 브레이크 시스템에 사용되는 알고리즘과 같은 많은 전통적인 알고리즘의 반응 시간은 인간의 반응 시간에 비교가 되지 못하고 있는 실정이다. 이에 따라, 이러한 알고리즘은 완전 자율주행 자동차에 사용되지 못하고 인간 운전자의 백업으로 사용되는 것이 더 적합한 경우가 많다. Autonomous vehicles must react to changing conditions in sufficient time to adjust the vehicle's driving path or apply the brakes. The response times of many traditional algorithms, such as those used in existing brake systems, are not comparable to human response times. As a result, these algorithms are often less suitable for use in fully autonomous vehicles and are more suitable for use as backups for human drivers.
또한, 주차된 차량의 특징이 도로의 특징에 대한 훌륭한 지시자인 경우가 많다. 예를 들어, 주차 차량의 방향은 일방통행 도로인지 여부를 지시할 수 있고, 차량 사이의 간격은 보행자가 차량 사이에서 튀어나올 수 있는지 여부를 지시할 수 있다. 그러나 기존의 자율주행차 알고리즘은 이러한 특징을 활용하지 않는다. Also, the characteristics of parked vehicles are often good indicators of road characteristics. For example, the direction of a parked vehicle may indicate whether it is a one-way street or not, and the spacing between vehicles may indicate whether a pedestrian may emerge from between vehicles. However, existing self-driving car algorithms do not take advantage of this feature.
자율주행차 시스템은 인간 운전자가 접근할 수 없는 부분까지의 측정을 활용할 수 있다. 예를 들면, 자율주행차 시스템은 적외선 카메라를 활용하여 주변환경에 접근하고 예측을 할 수 있다. 그러나 많은 기존 시스템은 시각 카메라와 적외선 카메라와 같은 조합의 측정을 활용하지 않는다. 본 발명의 실시예들은 앞서 설명한 기존 시스템의 단점들의 하나 이상을 처리할 수 있다. Autonomous vehicle systems can leverage measurements that are inaccessible to human drivers. For example, autonomous vehicle systems can use infrared cameras to access and make predictions about their surroundings. However, many existing systems do not utilize measurement combinations such as visual and infrared cameras. Embodiments of the present invention may address one or more of the disadvantages of existing systems described above.
본 발명은 도로 위를 주행할 수 있는 완전 자율주행 자동차의 구현에 목적이 있다.An object of the present invention is to realize a fully autonomous vehicle capable of driving on the road.
또한, 차량의 주변환경을 모니터하는 하나, 둘, 또는 그 이상의 카메라에 의해 캡처된 영상의 분석에 근거하여 주행 반응을 제공하며, 자율 주행을 위한 시스템과 방법을 제공한다.It also provides a driving response based on analysis of images captured by one, two, or more cameras that monitor the surrounding environment of the vehicle, and provides systems and methods for autonomous driving.
본 발명에 따른 실시예들은 자율 주행을 위한 시스템과 방법을 제공한다. 기재된 실시예는 카메라를 사용하여 자율 주행 특징을 제공할 수 있다. 예를 들면, 기재된 실시예에 따라, 기재된 시스템은 차량의 주변환경을 모니터하는 하나, 둘, 또는 그 이상의 카메라를 포함할 수 있다. 기재된 시스템은, 예를 들어, 하나 또는 그 이상의 카메라에 의해 캡처된 영상의 분석에 근거하여 주행 반응을 제공할 수 있다. 일부 실시예는 주변환경을 모니터하는 하나, 둘, 또는 그 이상의 적외선 카메라를 더 포함할 수 있다. 따라서 일부 실시예는, 예를 들어, 시각 이미지, 적외선 이미지, 또는 이들의 조합의 분석에 기반을 둔주행 반응을 제공할 수 있다. Embodiments according to the present invention provide a system and method for autonomous driving. The described embodiments may use cameras to provide autonomous driving features. For example, according to a described embodiment, a described system may include one, two, or more cameras that monitor the vehicle's surroundings. The described system may provide navigational responses based, for example, on analysis of images captured by one or more cameras. Some embodiments may further include one, two, or more infrared cameras to monitor the environment. Thus, some embodiments may provide navigational responses based on analysis of, for example, visual images, infrared images, or combinations thereof.
상기 주행 반응은 또한, 예를 들어, gPS 데이터, 센서 데이터(예, 가속도계, 속력 센서, 서스펜션 센서 등으로부터의 데이터), 및/또는 기타 지도 데이터를 포함하는 기타 데이터를 고려할 수 있다.The navigation response may also take into account other data including, for example, gPS data, sensor data (eg, data from accelerometers, speed sensors, suspension sensors, etc.), and/or other map data.
일 실시예에서, 호스트 차량의 주변환경에서의 도어 개방 이벤트 검출에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하고 분석하여 주차 차량의 측면을 식별하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 주차 차량의 측면의 전방 영역에서 주차 차량의 제1 구조적 특징과 주차 차량의 측면의 후방 영역에서 주차 차량의 제2 구조적 특징을 적어도 하나의 이미지에서 식별하고, 제1 및 제2 구조적 특징의 부근에서 주차 차량의 도어 에지를 적어도 하나의 이미지에서 식별하도록 더 프로그램 될 수 있다. 또한, 상기 적어도 하나의 프로세싱 처리장치는 이미지캡처장치로부터 수신된 하나 이상의 후속 이미지의 분석에 기반을 두어 주차 차량의 도어 에지의 이미지 특징의 변화를 판단하고, 주차 차량의 도어 에지의 이미지 특징의 변화에 적어도 부분적으로 기반을 두어 호스트 차량의 주행 경로를 변경하도록 프로그램될 수 있다. In one embodiment, a navigation system for driving a host vehicle based on detection of a door opening event in the surrounding environment of the host vehicle may include at least one processing unit. The at least one processing processing unit may be programmed to receive from the image capture device and analyze at least one image associated with the environment of the host vehicle to identify the side of the parked vehicle. The at least one processing unit identifies in the at least one image a first structural feature of a parked vehicle in a front region of the side of the parked vehicle and a second structural feature of the parked vehicle in a rear region of the side of the parked vehicle; and identify in the at least one image a door edge of a parked vehicle in the vicinity of the second structural feature. Further, the at least one processing processing unit determines a change in the image feature of the door edge of the parked vehicle based on analysis of one or more subsequent images received from the image capture device, and the change in the image feature of the door edge of the parked vehicle It may be programmed to change the driving path of the host vehicle based at least in part on the
다른 실시예에서, 호스트 차량의 주변환경에서의 도어 개방 이벤트 검출에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 방법은 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하는 단계와 상기 적어도 하나의 이미지를 분석하여 주차 차량의 측면을 식별하는 단계를 포함할 수 있다. 상기 방법은 주차 차량의 측면의 전방 영역에서 주차 차량의 제1 구조적 특징과 주차 차량의 측면의 후방 영역에서 주차 차량의 제2 구조적 특징을 적어도 하나의 이미지에서 식별하는 단계와 제1 및 제2 구조적 특징의 부근에서 주차 차량의 도어 에지를 상기 적어도 하나의 이미지에서 식별하는 단계를 더 포함할 수 있다. 상기 네비게이팅 방법은 또한 이미지캡처장치로부터 수신된 하나 이상의 후속 이미지의 분석에 기반을 두어 주차 차량의 도어 에지의 이미지 특징의 변화를 판단하는 단계와 주차 차량의 도어 에지의 이미지 특징의 변화에 적어도 부분적으로 기반하여 호스트 차량의 주행 경로를 변경하는 단계를 더 포함할 수 있다.In another embodiment, a navigation method for controlling driving of a host vehicle based on detection of a door opening event in the surrounding environment of the host vehicle includes receiving from an image capture device at least one image associated with the surrounding environment of the host vehicle. Analyzing the at least one image to identify a side of the parked vehicle. The method comprises identifying in at least one image a first structural feature of a parked vehicle in an area forward of the side of the parked vehicle and a second structural feature of the parked vehicle in an area aft of the side of the parked vehicle; The method may further include identifying in the at least one image a door edge of a parked vehicle in the vicinity of the feature. The navigating method may also include determining a change in an image feature of the door edge of the parked vehicle based on analysis of one or more subsequent images received from the image capture device and at least partially determining a change in the image feature of the door edge of the parked vehicle. The method may further include changing the driving route of the host vehicle based on the .
또 다른 실시예에서, 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하고 복수의 이미지의 적어도 하나를 분석하여 타깃 차량 및 타깃 차량 측면의 적어도 하나의 휠 요소(wheel component)를 식별하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)를 포함하는 영역을 분석하여 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 동작을 식별하고 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 식별된 동작에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하도록 더 프로그램 될 수 있다. In another embodiment, a navigation system for driving a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving may include at least one processing unit. The at least one processing unit receives a plurality of images associated with the surrounding environment of the host vehicle from an image capture device and analyzes at least one of the plurality of images to obtain a target vehicle and at least one wheel component on the side of the target vehicle. can be programmed to identify The at least one processing unit analyzes a region including at least one wheel component of the target vehicle in at least two images of the plurality of images to determine at least one wheel component of the target vehicle. and to cause at least one navigational change in the host vehicle based on the identified motion associated with at least one wheel component of the target vehicle.
또 다른 실시예에서, 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 방법은 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계와 상기 복수의 이미지의 적어도 하나를 분석하여 타깃 차량 및 타깃 차량 측면의 적어도 하나의 휠 요소(wheel component)를 식별하는 단계를 포함할 수 있다. 상기 네비게이팅 방법은 상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)를 포함하는 영역을 분석하여 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 동작을 식별하는 단계와 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 식별된 동작에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 더 포함할 수 있다.In yet another embodiment, a navigation method for controlling driving of a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving includes receiving a plurality of images associated with surrounding environments of the host vehicle from an image capture device. and analyzing at least one of the plurality of images to identify a target vehicle and at least one wheel component on the side of the target vehicle. The navigating method analyzes an area including at least one wheel component of the target vehicle in at least two images of the plurality of images, and performs an operation related to the at least one wheel component of the target vehicle. and inducing at least one navigational change in the host vehicle based on the identified motion associated with at least one wheel component of the target vehicle. .
또 다른 실시예에서, 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부를 검출하는 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하고, 호스트 차량이 운행하는 도로의 제1측에 있는 복수의 제1차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하고, 호스트 차량이 운행하는 도로의 제2측에 있는 복수의 제2 차량을 상기 적어도 하나의 이미지의 분석에 기반하여 식별하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 복수의 제1차량과 연관된 제1 전방 방향을 판단하고, 상기 복수의 제2차량과 연관된 제2 전방 방향을 판단하고, 상기 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량의 진행 방향과 반대인 경우에 호스트 차량의 적어도 하나의 주행 변경(navigational change)을 유발하도록 더 프로그램 될 수 있다. In another embodiment, a system for detecting whether the road the host vehicle is driving on is a one-way road may include at least one processing unit. The at least one processing unit receives at least one image associated with the surrounding environment of the host vehicle from an image capture device, and captures a plurality of first vehicles on a first side of the road on which the host vehicle is driving, as the at least one image. and identify a plurality of second vehicles on the second side of the road on which the host vehicle travels based on the analysis of the at least one image. The at least one processing unit determines a first forward direction associated with the plurality of first vehicles, determines a second forward direction associated with the plurality of second vehicles, and determines the first forward direction and a second forward direction. All of which may be further programmed to cause at least one navigational change of the host vehicle when the direction of travel of the host vehicle is reversed.
또 다른 실시예에서, 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부를 검출하는 방법은 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하는 단계, 호스트 차량이 운행하는 도로의 제1측에 있는 복수의 제1 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하는 단계, 및 호스트 차량이 운행하는 도로의 제2측에 있는 복수의 제2 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하는 단계를 포함할 수 있다. 상기 방법은 상기 복수의 제1차량과 연관된 제1 전방 방향을 판단하는 단계, 상기 복수의 제2차량과 연관된 제2 전방 방향을 판단하는 단계, 및 상기 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량의 진행 방향과 반대인 경우에 호스트 차량의 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 더 포함할 수 있다.In another embodiment, a method for detecting whether a road on which the host vehicle is driving is a one-way road includes receiving at least one image associated with the environment of the host vehicle from an image capture device, identifying a plurality of first vehicles on a first side based on the analysis of the at least one image; and identifying a plurality of second vehicles on a second side of the road on which the host vehicle is traveling based on the analysis of the at least one image. It may include the step of identifying based on the analysis of. The method includes determining a first forward direction associated with the plurality of first vehicles, determining a second forward direction associated with the plurality of second vehicles, and wherein the first forward direction and the second forward direction are both The method may further include inducing at least one navigational change of the host vehicle when the direction of travel of the host vehicle is opposite.
다른 실시예에서, 호스트 차량을 주행제어하는 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량이 운행중인 제1 도로에서 제2도로로 호스트 차량을 주행제어하기 위한 주행 명령을 수신하고 상기 제2도로의 환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 제2도로의 제1측에 있는 복수의 제1 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하고 상기 제2도로의 제2측에 있는 복수의 제2 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하도록 더 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 또한 상기 복수의 제1차량과 연관된 제1 전방 방향을 판단하고, 상기 복수의 제2차량과 연관된 제2 전방 방향을 판단하고, 상기 제1 전방 방향과 제2 전방 방향 모두가 상기 호스트 차량이 상기 제2도로로 진입할 경우에 상기 호스트 차량이 운행하게 될 진행 방향과 반대 방향임을 판단하도록 더 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 제1 전방 방향과 제2 전방 방향 모두가 상기 호스트 차량이 상기 제2도로로 주행할 경우에 상기 호스트 차량이 운행하게 될 진행 방향과 반대 방향이라는 판단에 대응하여 주행 명령을 중단하도록 더 프로그램 될 수 있다. In another embodiment, a system for driving a host vehicle may include at least one processing unit. The at least one processing unit receives a driving command for driving the host vehicle from a first road on which the host vehicle is running to a second road, and receives at least one image associated with the environment of the second road from an image capture device. can be programmed to do The at least one processing processing unit identifies a first plurality of vehicles on the first side of the second road based on the analysis of the at least one image and identifies a first plurality of vehicles on the second side of the second road. 2 can be further programmed to identify the vehicle based on the analysis of said at least one image. The at least one processing unit may further determine a first forward direction associated with the plurality of first vehicles, determine a second forward direction associated with the plurality of second vehicles, and determine the first forward direction and a second forward direction. It may be further programmed to determine that all of the directions are opposite to the traveling direction in which the host vehicle will travel when the host vehicle enters the second road. The at least one processing unit travels in response to a determination that both the first forward direction and the second forward direction are opposite to the traveling direction in which the host vehicle will travel when the host vehicle travels on the second road. It can be further programmed to abort commands.
또 다른 실시예에서, 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템은 이미지캡처장치, 적외선 이미지캡처장치, 및 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 복수의 이미지를 상기 이미지캡처장치로부터 수신하고, 상기 복수의 이미지의 적어도 하나를 분석하여 상기 주차 차량을 식별하고, 상기 복수의 이미지의 적어도 두 이미지를 분석하여 상기 주차 차량과 연관된 적어도 하나의 조명기구(light)의 조명 상태의 변화를 식별하도록 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 주차 차량의 적어도 하나의 열 이미지(thermal image)를 상기 적외선 이미지캡처장치로부터 수신하고, 상기 주차 차량의 예측 상태를 상기 조명 상태의 변화와 상기 적어도 하나의 열 이미지(thermal image)의 분석에 기반을 두어 판단하고, 상기 주차 차량의 예측 상태에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 반응을 유발하도록 더 프로그램될 수 있다. In another embodiment, a system for determining a predicted state of a parked vehicle within the environment of the host vehicle may include an image capture device, an infrared image capture device, and at least one processing processing device. The at least one processing processing unit receives a plurality of images associated with the environment of the host vehicle from the image capture device, analyzes at least one of the plurality of images to identify the parked vehicle, and determines at least one of the plurality of images. It may be programmed to analyze the two images to identify a change in the lighting state of at least one light associated with the parked vehicle. The at least one processing processing unit receives at least one thermal image of the parked vehicle from the infrared image capture device, and sets the predicted state of the parked vehicle to a change in the lighting condition and the at least one thermal image. and based on the analysis of the thermal image, and based on the predicted state of the parked vehicle, may be further programmed to trigger at least one driving response in the host vehicle.
또 다른 실시예에서, 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 방법은 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계, 상기 복수의 이미지의 적어도 하나를 분석하여 상기 주차 차량을 식별하는 단계, 및 상기 복수의 이미지의 적어도 두 이미지를 분석하여 상기 주차 차량과 연관된 적어도 하나의 등의 조명 상태의 변화를 식별하는 단계를 포함할 수 있다. 상기 방법은 상기 주차 차량의 적어도 하나의 열 이미지(thermal image)를 적외선 이미지캡처장치로부터 수신하는 단계, 상기 주차 차량의 예측 상태를 상기 조명 상태의 변화와 상기 적어도 하나의 열 이미지(thermal image)의 분석에 기반을 두어 판단하는 단계, 상기 주차 차량의 예측 상태에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 반응을 유발하는 단계를 더 포함할 수 있다.In yet another embodiment, a method for determining a predicted state of a parked vehicle within the host vehicle's surroundings comprises receiving a plurality of images associated with the host vehicle's surroundings from an image capture device, analyzing at least one of the plurality of images. and identifying a change in lighting state of at least one light associated with the parked vehicle by analyzing at least two images of the plurality of images. The method comprises the steps of receiving at least one thermal image of the parked vehicle from an infrared image capture device, the predicted state of the parked vehicle as a combination of the change in the lighting condition and the at least one thermal image. The method may further include determining based on the analysis, inducing at least one driving response in the host vehicle based on the predicted state of the parked vehicle.
또 다른 실시예에서, 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템은 이미지캡처장치와 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 호스트 차량의 주변환경과 연관된 복수의 이미지를 상기 이미지캡처장치로부터 수신하도록 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 복수의 이미지의 적어도 하나를 분석하여 상기 주차 차량을 식별하고 상기 복수의 이미지의 적어도 두 이미지를 분석하여 상기 주차 차량과 연관된 적어도 하나의 등의 조명 상태의 변화를 식별하도록 더 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 또한 상기 주차 차량의 예측 상태를 상기 조명 상태의 변화에 기반을 두어 판단하고, 상기 주차 차량의 예측 상태에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 반응을 유발하도록 프로그램 될 수 있다.In yet another embodiment, a system for determining a predicted state of a parked vehicle within a host vehicle's surroundings may include an image capture device and at least one processing processing device. The at least one processing processing unit may be programmed to receive from the image capture device a plurality of images associated with the environment of the host vehicle. The at least one processing unit analyzes at least one of the plurality of images to identify the parked vehicle and analyzes at least two images of the plurality of images to determine a change in lighting state of at least one light associated with the parked vehicle. can be further programmed to identify. The at least one processing unit is further configured to determine a predicted state of the parked vehicle based on a change in lighting conditions, and to trigger at least one driving response in the host vehicle based on the predicted state of the parked vehicle. can be programmed
또 다른 실시예에서, 호스트 차량을 주행제어하는 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경을 보여주는 복수의 이미지를 카메라로부터 수신하고 상기 복수의 이미지의 적어도 하나를 분석하여 적어도 두 대의 정지 상태의 차량을 식별하도록 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 두 대의 정지 상태의 차량 사이의 간격을 상기 복수의 이미지의 적어도 하나의 분석에 기반을 두어 판단하고 상기 두 대의 정지 상태의 차량 사이의 판단된 간격의 규모에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하도록 더 프로그램 될 수 있다. In another embodiment, a system for driving a host vehicle may include at least one processing unit. The at least one processing processing unit may be programmed to receive a plurality of images of the host vehicle's surroundings from the camera and analyze at least one of the plurality of images to identify at least two stationary vehicles. The at least one processing processing unit determines a distance between the two stationary vehicles based on at least one analysis of the plurality of images and based on the magnitude of the determined distance between the two stationary vehicles. may be further programmed to cause at least one navigational change in the host vehicle by placing a.
또 다른 실시예에서, 호스트 차량을 주행제어하는 방법은 호스트 차량의 주변환경을 보여주는 복수의 이미지를 카메라로부터 수신하는 단계와 상기 복수의 이미지의 적어도 하나를 분석하여 적어도 두 대의 정지 상태의 차량을 식별하는 단계를 포함할 수 있다. 상기 방법은 상기 두 대의 정지 상태의 차량 사이의 간격을 상기 복수의 이미지의 적어도 하나의 분석에 기반을 두어 판단하는 단계와 상기 두 대의 정지 상태의 차량 사이의 판단된 간격의 규모에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 더 포함할 수 있다.In another embodiment, a driving control method of a host vehicle includes the steps of receiving a plurality of images showing a surrounding environment of the host vehicle from a camera and analyzing at least one of the plurality of images to identify at least two vehicles in a stationary state. steps may be included. The method further comprises determining a distance between the two stationary vehicles based on at least one analysis of the plurality of images and determining the distance between the two stationary vehicles based on the magnitude of the determined distance. It may further include causing at least one navigational change to the host vehicle.
다른 기재된 실시예에 따라, 비일시적 컴퓨터 판독 가능한 매체는 적어도 하나의 프로세싱 처리장치에 의해 실행되고 상기 방법의 어느 하나 이상을 수행하는 프로그램 명령을 저장할 수 있다. According to another described embodiment, a non-transitory computer readable medium may store program instructions that are executed by at least one processing unit and perform any one or more of the above methods.
상기의 일반적인 설명과 하기의 상세한 설명은 예시와 설명을 위한 것일 뿐이며 본 발명의 청구범위를 제한하지 않는다. The above general description and the following detailed description are for purposes of illustration and description only and do not limit the scope of the present invention.
일 실시예는 도어 개방 이벤트의 검출에 기반을 두어 호스트 차량을 주행제어하는 시스템과 방법을 제공한다.One embodiment provides a system and method for driving control of a host vehicle based on detection of a door opening event.
다른 실시예는 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반을 두어 호스트 차량을 주행제어하는 시스템과 방법을 제공한다.Another embodiment provides a system and method for driving a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving.
제3 실시예는 호스트 차량이 운행하는 도로가 일방통행도로인지 여부를 검출하는 시스템과 방법을 제공한다.A third embodiment provides a system and method for detecting whether a road on which a host vehicle is driving is a one-way road.
제4 실시예는 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템과 방법을 제공한다.A fourth embodiment provides a system and method for determining a predicted state of a parked vehicle within the host vehicle's surroundings.
제5 실시예는 두 대의 정지 상태의 차량 사이의 간격에 기반을 두어 호스트 차량을 주행제어하는 시스템과 방법을 제공한다. A fifth embodiment provides a system and method for driving a host vehicle based on a distance between two stationary vehicles.
일부 실시 예에서, 두 대의 차량 사이의 간격이 타깃 차량이 횡단하기에 충분하다고 판단되는 경우에 주행 변경이 실행될 수 있다. 정지된 두 대의 차량 사이의 간격이 보행자가 횡단하기에 충분하다고 판단되는 경우에 상기 주행 변경이 실행될 수 있다. In some embodiments, a travel change may be executed if it is determined that the gap between the two vehicles is sufficient for the target vehicle to cross. The travel change may be executed when it is determined that the gap between the two stopped vehicles is sufficient for a pedestrian to cross.
일부 실시예에서, 이후, 처리부(110)는 복수의 이미지의 분석에 근거하여 두 대의 정지된 차량 사이의 간격 내에서 보행자를 검출할 수 있다. 이러한 검출 방법은 기존의 동작 검출을 개선할 수 있다. In some embodiments, processing
도 1은 기재된 실시예에 따른 예시적인 시스템의 개략도이다.
도 2a는 기재된 실시예에 따른 시스템을 포함하는 예시적인 자동차의 측면도이다.
도 2b는 기재된 실시예에 따른 도 1a의 자동차와 시스템의 평면도이다.
도 2c는 기재된 실시예에 따른 시스템을 포함하는 자동차의 다른 실시예의 평면도이다.
도 2d는 기재된 실시예에 따른 시스템을 포함하는 자동차의 또 다른 실시예의 평면도이다.
도 2e는 기재된 실시예에 따른 시스템을 포함하는 자동차의 또 다른 실시예의 평면도이다.
도 2f는 기재된 실시예에 따른 예시적인 자동차 제어 시스템의 개략도이다.
도 3a는 기재된 실시예에 따른 차량 이미징 시스템을 위한 백미러(rear view mirror)와 사용자 인터페이스를 포함하는 차량의 실내를 개략적으로 예시한 것이다.
도 3b는 기재된 실시예에 따른 백미러 뒤의 차량 전면 유리에 위치되도록 구성된 카메라 마운트의 일례이다.
도 3c는 기재된 실시예에 따른 도 3b의 카메라 마운트를 다른 시각에서 예시한 것이다.
도 3d는 기재된 실시예에 따른 백미러 뒤의 차량 전면 유리에 위치되도록 구성된 카메라 마운트의 일례이다.
도 4는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 예시적인 구성도이다.
도 5a는 기재된 실시예에 따른 단안 이미지(monocular image)분석에 근거한 하나 이상의 주행 반응을 야기하는 과정의 일례를 예시한 순서도이다.
도 5b는 기재된 실시예에 따른 일련의 영상에서 하나 이상의 차량 및/또는 보행자를 검출하는 예시적인 과정을 도시한 순서도이다.
도 5c는 기재된 실시예에 따른 일련의 영상에서 도로 표지 및/또는 차선 형상 정보를 검출하는 예시적인 과정을 도시한 순서도이다.
도 5d는 기재된 실시예에 따른 일련의 영상에서 신호등을 검출하는 예시적인 과정을 도시한 순서도이다.
도 5e는 기재된 실시예에 따른 차량 경로에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 5f는 기재된 실시예에 따른 선두 차량이 차선 변경을 하는지를 판단하는 예시적인 과정을 도시한 순서도이다.
도 6은 기재된 실시예에 따른 입체 영상 분석에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 7은 기재된 실시예에 따른 3개 집합의 영상에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 8은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 9는 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 개략도이다.
도 10은 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 다른 개략도이다.
도 11은 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 개략도이다.
도 12a는 기재된 실시예에 따른 시스템의 시점에서 바라본 도어 개방 이벤트의 개략도이다.
도 12b는 기재된 실시예에 따른 시스템의 시점에서 바라본 도어 개방 이벤트의 다른 개략도이다.
도 13은 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 다른 개략도이다.
도 14는 기재된 실시예에 따른 도어 개방 이벤트의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 15는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 16a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 개략도이다.
도 16b는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 다른 개략도이다.
도 17은 기재된 실시예에 따른 호스트 차량의 차선으로 진입하는 타깃 차량의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 18은 기재된 실시예에 따른 도로의 호모그래피를 뒤트는 예시적인 과정을 도시한 순서도이다.
도 19는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 20a는 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로의 개략도이다.
도 10b는 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로의 다른 개략도이다.
도 21은 기재된 실시예에 따른 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 22는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 23a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 개략도이다.
도 23b는 기재된 실시예에 따른 시스템의 시점에서 바라본 조명의 변화가 있는 주차 차량의 개략도이다.
도 23c는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 히트맵(heat map)의 개략도이다.
도 24는 기재된 실시예에 따른 주차 차량의 예측 상태를 판단하기 위한 예시적인 과정을 도시한 순서도이다.
도 25는 기재된 실시예에 따른 시스템으로부터 시각적 이미지와 적외선 이미지를 정렬하기 위한 예시적인 과정을 도시한 순서도이다.
도 26은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 27a는 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 다른 개략도이다.
도 27b는 기재된 실시예에 따른 검출 핫스팟이 있는 도로의 다른 개략도이다.
도 28은 기재된 실시예에 따른 호스트 차량을 주행제어하기 위한 예시적인 과정을 도시한 순서도이다. 1 is a schematic diagram of an example system in accordance with a described embodiment.
2A is a side view of an exemplary automobile incorporating a system according to a described embodiment.
FIG. 2B is a plan view of the vehicle and system of FIG. 1A according to a disclosed embodiment.
2C is a top plan view of another embodiment of a vehicle incorporating a system according to a disclosed embodiment.
2D is a plan view of another embodiment of a vehicle incorporating a system according to a disclosed embodiment.
2E is a top plan view of another embodiment of a vehicle incorporating a system in accordance with a disclosed embodiment.
2F is a schematic diagram of an exemplary vehicle control system in accordance with the disclosed embodiments.
3A is a schematic illustration of an interior of a vehicle including a rear view mirror and a user interface for a vehicle imaging system according to a disclosed embodiment.
3B is an example of a camera mount configured to be positioned on a vehicle windshield behind a rearview mirror in accordance with the disclosed embodiments.
FIG. 3C illustrates the camera mount of FIG. 3B from another perspective, in accordance with a disclosed embodiment.
3D is an example of a camera mount configured to be positioned on a vehicle windshield behind a rearview mirror in accordance with the disclosed embodiments.
4 is an exemplary schematic diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
5A is a flow chart illustrating an example of a process for inducing one or more navigational responses based on monocular image analysis in accordance with the disclosed embodiments.
5B is a flow chart illustrating an exemplary process for detecting one or more vehicles and/or pedestrians in a series of images in accordance with a disclosed embodiment.
5C is a flowchart illustrating an exemplary process of detecting road sign and/or lane shape information from a series of images according to the disclosed embodiment.
5D is a flow chart illustrating an exemplary process for detecting traffic lights in a series of images according to a disclosed embodiment.
5E is a flowchart illustrating an exemplary process for inducing one or more navigational responses based on a vehicle path according to a disclosed embodiment.
5F is a flowchart illustrating an exemplary process for determining whether a leading vehicle is changing lanes according to the disclosed embodiments.
6 is a flow chart illustrating an exemplary process for inducing one or more navigational responses based on stereoscopic image analysis in accordance with a disclosed embodiment.
7 is a flowchart illustrating an exemplary process for inducing one or more navigational responses based on three sets of images, according to a disclosed embodiment.
8 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
9 is a schematic diagram of a road from the perspective of the system according to the disclosed embodiment.
10 is another schematic view of a road from the perspective of a system according to a disclosed embodiment.
11 is a schematic diagram of a parked vehicle from the point of view of the system according to the disclosed embodiment.
12A is a schematic diagram of a door opening event viewed from the perspective of the system according to the disclosed embodiment.
12B is another schematic diagram of a door opening event from the perspective of the system according to the disclosed embodiment.
13 is another schematic view of a road from the point of view of the system according to the disclosed embodiment.
14 is a flow chart illustrating an exemplary process for inducing one or more navigational responses based on detection of a door opening event in accordance with a disclosed embodiment.
15 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
16A is a schematic diagram of a parked vehicle viewed from the point of view of the system according to a disclosed embodiment.
16B is another schematic diagram of a parked vehicle from the point of view of the system according to the disclosed embodiment.
17 is a flow chart illustrating an exemplary process for invoking one or more navigational responses based on detection of a target vehicle entering the host vehicle's lane in accordance with the disclosed embodiments.
18 is a flow chart illustrating an exemplary process for twisting the homography of a road according to a disclosed embodiment.
19 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
20A is a schematic diagram of a one-way road viewed from the perspective of the system according to the disclosed embodiments.
10B is another schematic diagram of a one-way road viewed from the point of view of the system according to the disclosed embodiment.
21 is a flow chart illustrating an exemplary process for invoking one or more navigational responses based on detecting whether the road the host vehicle is driving on is a one-way road according to the disclosed embodiments.
22 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
23A is a schematic diagram of a parked vehicle viewed from the point of view of the system according to a disclosed embodiment.
23B is a schematic diagram of a parked vehicle with varying lighting from the perspective of the system according to the disclosed embodiments.
23C is a schematic diagram of a heat map of a parked vehicle from the perspective of the system according to the disclosed embodiment.
24 is a flow chart illustrating an exemplary process for determining a predicted state of a parked vehicle in accordance with a disclosed embodiment.
25 is a flow chart illustrating an exemplary process for aligning visual and infrared images from a system in accordance with a disclosed embodiment.
26 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
27A is another schematic diagram of a roadway from the perspective of a system according to a disclosed embodiment.
27B is another schematic diagram of a road with detection hotspots according to the described embodiment.
28 is a flowchart illustrating an exemplary process for driving control of a host vehicle according to the disclosed embodiment.
하기의 상세한 설명은 첨부한 도면에 관한 것이다. 가능한 모든 경우에, 도면과 설명에서 동일 또는 유사한 구성요소에 동일한 참조 번호를 사용한다. 여러 예시적인 실시예를 설명하였지만, 다양한 수정, 개조, 구현 등이 가능하다. 예를 들어, 도면에 예시된 구성요소를 치환, 또는 추가, 수정할 수 있고, 설명에 포함된 방법은 단계를 치환하거나 순서를 바꾸거나 추가하여 수정할 수 있다. 따라서, 하기의 상세한 설명은 기재한 실시예와 예시에 국한되지 않고, 본 발명의 청구 범위는 첨부한 청구항에 의해 정의된다.The following detailed description relates to the accompanying drawings. Wherever possible, like reference numerals are used for like or like elements in the drawings and description. While several exemplary embodiments have been described, various modifications, adaptations, implementations, and the like are possible. For example, components illustrated in the drawings may be substituted, added, or modified, and methods included in the description may be modified by substituting, changing the order of, or adding steps. Accordingly, the following detailed description is not limited to the described embodiments and examples, and the scope of claims of the present invention is defined by the appended claims.
[자율주행차의 개요][Overview of autonomous vehicles]
본 발명의 설명에서 사용된 "자율주행차"라는 용어는 운전자의 입력 없이 적어도 하나의 주행 변경(navigational change)을 구현할 수 있는 차량을 의미한다. "주행 변경(navigational change)"이란 차량의 조향, 제동, 가속/감속의 하나 이상을 제어 변경하는 것을 의미한다. 차량이 자율이기 위해서는 완전 자동(예, 운전자나 운전자의 입력 없이 완전히 동작)이어야 한다. 반면, 자율주행차는 특정 시간 동안은 운전자의 제어 하에 작동할 수 있고 다른 시간 동안은 운전자의 제어 없이 작동할 수 있는 차량을 포함한다. 자율주행차는 조향(예, 차량 진로의 차선 사이 유지) 또는 특정 상황 하에서의(모든 상황 하에서가 아님) 일부 조향 동작과 같은 일부 주행 요소만을 제어하고 나머지 요소(예, 제동 또는 특정 상황 하에서의 제동)는 운전자에게 맡기는 차량도 포함할 수 있다. 일부 경우에, 자율주행차는 차량의 제동 및/또는 속도 제어, 조향의 일부 또는 모든 요소를 처리할 수 있다.The term "autonomous vehicle" used in the description of the present invention refers to a vehicle capable of implementing at least one navigational change without a driver's input. "Navigational change" means a controlled change in one or more of the steering, braking, acceleration/deceleration of a vehicle. For a vehicle to be autonomous, it must be fully autonomous (i.e. fully operational without driver or driver input). On the other hand, autonomous vehicles include vehicles that can operate under the control of a driver during certain times and without the control of the driver during other times. An autonomous vehicle controls only some driving elements, such as steering (e.g., keeping the vehicle between lanes in its path) or some steering actions under certain circumstances (but not under all conditions), while remaining elements (e.g., braking or braking under certain conditions) are controlled by the driver. It may also include a vehicle entrusted to you. In some cases, an autonomous vehicle may handle some or all elements of steering, braking and/or speed control of the vehicle.
운전자들은 흔히 시각적 신호와 관찰에 의존해 차량을 제어하므로, 이에 따라 교통 인프라는 운전자들에게 시각 정보를 제공하도록 설계된 차선 표시, 교통 표지, 신호등을 포함하여 구축되었다. 교통 인프라의 이러한 설계 특징을 고려하여, 자율주행차는 카메라 및 차량의 주변으로부터 확보한 시각 정보를 분석하는 처리부를 포함할 수 있다. 시각 정보는, 예를 들어, 운전자가 눈으로 확인할 수 있는 교통 인프라의 구성요소(예, 차선 표시, 교통 표지, 신호등 등) 및 기타 장애물(예, 다른 차량, 보행자, 잔해 등)을 나타내는 이미지를 포함할 수 있다. 자율주행차는 또한, 적외선 카메라를 포함할 수 있다. 이러한 실시예에서, 처리부는 주변환경에서 캡처한 열정보를 개별적으로 또는 시각적 정보와 함께 분석할 수 있다. Drivers often rely on visual cues and observation to control their vehicles, so transportation infrastructure has been built to include lane markings, traffic signs and traffic lights designed to provide visual information to drivers. Considering these design features of the transportation infrastructure, autonomous vehicles may include cameras and processing units that analyze visual information obtained from the vehicle's surroundings. Visual information can include, for example, images representing components of transportation infrastructure (eg, lane markings, traffic signs, traffic lights, etc.) and other obstacles (eg, other vehicles, pedestrians, debris, etc.) that can be seen by drivers. can include Autonomous vehicles may also include infrared cameras. In such an embodiment, the processing unit may analyze the thermal information captured from the environment individually or together with the visual information.
또한, 자율주행차는 주행 시에 차량 주변의 모델을 제공하는 정보와 같은 저장 정보도 사용할 수 있다. 예를 들어, 차량은 이동 중의 차량 환경과 관련된 정보를 제공하기 위하여 GPS 데이터 및/또는 센서 데이터(예, 가속도계, 속력 센서, 서스펜션 센서 등으로부터의 데이터), 기타 지도 데이터를 활용할 수 있고, 차량(다른 차량도 함께)은 이런 정보를 이용하여 차량의 위치를 모델 상에서 알아낼 수 있다. 일부 차량들은 또한, 서로 통신하며 정보를 교환하고 차량 주변의 위험이나 변화에 대해 상대 차량을 우회하게 할 수 있다. In addition, the self-driving vehicle can also use stored information such as information that provides a model around the vehicle while driving. For example, a vehicle may utilize GPS data and/or sensor data (e.g., data from accelerometers, speed sensors, suspension sensors, etc.), and other map data to provide information related to the vehicle's environment as it moves, and the vehicle ( Other vehicles (along with other vehicles) can use this information to determine the location of the vehicle on the model. Some vehicles may also communicate with each other, exchange information and divert other vehicles to hazards or changes around the vehicle.
[시스템 개요][System Overview]
도 1은 예시적으로 기재된 실시예에 따른 시스템(100)의 구성도이다. 시스템(100)은 해당 구현의 요구 조건에 따라 다양한 구성 요소를 포함할 수 있다. 일부 실시예에서, 시스템(100)은 처리부(110), 이미지획득부(120), 위치센서(130), 하나 이상의 메모리부(140, 150), 지도 데이터베이스(160), 사용자 인터페이스(170), 무선 송수신기(172)를 포함할 수 있다. 처리부(110)는 하나 이상의 처리 장치를 포함할 수 있다. 일부 실시예에서, 처리부(110)는 애플리케이션 프로세서(180), 이미지 프로세서(190), 또는 기타 적합한 처리 장치를 포함할 수 있다. 이와 마찬가지로, 이미지획득부(120)는 특정 애플리케이션의 요구 조건에 따라 여러 개의 영상 획득 장치 및 소자를 포함할 수 있다. 일부 실시예에서, 이미지획득부(120)는 이미지캡처장치(122, 124, 126)와 같은 하나 이상의 이미지캡처장치(예, 카메라, CCD, 또는 기타 유형의 이미지 센서)를 포함할 수 있다. 일부 실시예에서, 이미지획득부(120)는 하나 이상의 적외선캡처장치(예, 적외선 카메라, 원적외선 검출기, 또는 기타 유형의 적외선 센서)를 더 포함할 수 있다. 예를 들어, 하나 이상의 이미지캡처장치(122, 124, 126)는 적외선이미지캡처장치를 포함할 수 있다. 1 is a block diagram of a
시스템(100)은 또한 처리부(110)와 이미지획득부(120)를 서로 통신하도록 연결하는 데이터 인터페이스(128)를 포함할 수 있다. 예를 들어, 데이터 인터페이스(128)는 이미지획득부(120)가 획득한 영상 데이터를 처리부(110)로 전송하기 위한 단수 또는 복수의 유선 및/또는 무선 링크를 포함할 수 있다.
무선 송수신기(172)는 무선주파수, 또는 적외선주파수, 자기장, 전기장을 사용하여 무선 인터페이스를 통하여 전파를 하나 이상의 네트워크(예, 이동통신, 인터넷 등)와 주고받도록 구성된 하나 이상의 장치를 포함할 수 있다. 무선 송수신기(172)는 공지의 표준(예, Wi- Fi, Bluetooth®, Bluetooth Smart, 802.15.4, ZigBee 등)을 사용하여 데이터를 송신 및/또는 수신할 수 있다. 이러한 전파는 호스트 차량으로부터 원격에 위치한 하나 이상의 서버로 전송하는 통신을 포함할 수 있다. 이러한 전파는 또한 호스트 차량과 호스트 차량 주변환경 내에 있는 한 대 이상의 타깃 차량 사이의 (일방 또는 쌍방의) 통신(예, 호스트 차량 주변환경 내의 타깃 차량에 대한 또는 이 타깃 차량과 함께 호스트 차량의 주행을 조정하기 위한 통신) 또는 전파를 전송하는 차량의 주변의 불특정 수신인에게 보내는 방송 전파까지도 포함할 수 있다. The
애플리케이션 프로세서(180)와 이미지 프로세서(190)는 모두 다양한 종류의 하드웨어 기반 처리 장치를 포함할 수 있다. 예를 들어, 애플리케이션 프로세서(180)와 이미지 프로세서(190) 중 하나 또는 모두는 마이크로프로세서, 전처리 장치(예, 이미지 전처리 장치), 그래픽 프로세서, 중앙 처리 장치(CPU), 보조 회로, 디지털 신호 프로세서, 집적 회로, 메모리, 그래픽 처리 장치(GPU) 또는 애플리케이션을 실행하고 영상을 처리 및 분석하기에 적합한 유형의 장치를 포함할 수 있다. 일부 실시예에서, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 단일 또는 멀티 코어 프로세서, 모바일 장치 마이크로컨트롤러, 중앙 처리 장치의 한 종류를 포함할 수 있다. 다양한 처리 장치들이 사용될 수 있으며, 여기에는, 예를 들면, Intel®, AMD® 등과 같은 업체가 제공하는 프로세서들 또는 NVIDIA®, ATI® 등과 같은 업체가 제공하는 GPU가 포함될 수 있고, 다양한 아키텍처(예, x86 프로세서, ARM® 등)가 포함될 수 있다.Both the
일부 실시예에서, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 Mobileye®가 제공하는 EyeQ 시리즈의 프로세서 칩을 포함할 수 있다. 이러한 프로세서 설계는 로컬 메모리와 명령 집합을 가진 다중 처리 장치를 포함한다. 이러한 프로세서는 복수의 이미지 센서로부터 이미지 데이터를 수신하는 비디오 인풋을 포함할 수 있고 비디오 아웃풋 기능도 포함할 수 있다. 일례로, EyeQ2®는 332Mhz로 작동하는 90nm-마이크론 기술을 사용한다. EyeQ2® 아키텍처는 두 개의 부동 소수점(floating point) 하이퍼 스레드(hyper-thread) 32비트 RISC CPU(MIPS32® 34K® cores), 다섯 개의 Vision Computing Engines (VCE), 세 개의 Vector Microcode Processors(VMP® ), Denali 64비트 Mobile DDR Controller, 128비트 내부 Sonics Interconnect, 듀얼 16비트 비디오 인풋 및 18비트 비디오 아웃풋 제어 장치, 16채널 DMA 및 여러 주변 장치로 구성된다. MIPS34K CPU는 다섯 개의 VCE와 세 개의 VMP??, DMA, 두 번째 MIPS34K CPU, 다중 채널 DMA, 및 기타 주변 장치를 관리한다. 다섯 개의 VCE, 세 개의 VMP® 및 MIPS34K CPU는 다기능 묶음 애플리케이션이 요구하는 집중 영상 연산을 수행할 수 있다. 다른 일례에서, EyeQ2®보다 6배 강력한 3세대 프로세서인 EyeQ3®가 실시예에 사용될 수 있다. 다른 예에서, 기재된 실시예에 EyeQ4® 및/또는 EyeQ5®가 사용될 수 있다. 물론, 새로운 또는 미래의 EyeQ 처리 장치도 기재된 실시예와 함께 사용될 수 있다. In some embodiments,
여기에 기재된 프로세싱 처리 장치는 각각 특정한 기능을 수행하도록 구성될 수 있다. 특정한 기능을 수행하도록 상기의 EyeQ 프로세서 또는 기타 제어 장치 또는 마이크로프로세서와 같은 처리 장치를 구성하는 것은 컴퓨터 실행 명령을 프로그램하고 이러한 명령을 처리 장치가 작동하는 동안에 처리 장치에 제공하여 실행하도록 하는 것을 포함할 수 있다. 일부 실시예에서, 처리 장치를 구성하는 것은 구조적 명령으로 처리 장치를 직접 프로그램하는 것을 포함할 수 있다. 예를 들어, FPGA(field-programmable gate array), ASIC(application-specific integrated circuit) 등과 같은 처리 장치가 하나 이상의 HDL(hardware description languages)을 사용하여 구성될 수 있다. Each of the processing processing devices described herein may be configured to perform a specific function. Configuring a processing device, such as an EyeQ processor or other control unit or microprocessor, to perform a particular function may include programming computer-executed instructions and providing these instructions to the processing device for execution while the processing device is operating. can In some embodiments, configuring the processing device may include directly programming the processing device with structured instructions. For example, processing devices such as field-programmable gate arrays (FPGAs), application-specific integrated circuits (ASICs), and the like may be constructed using one or more hardware description languages (HDLs).
다른 실시예에서, 프로세싱 처리 장치를 구성하는 것은 작동 중에 처리 장치에 접속 가능한 메모리에 실행 가능한 명령을 저장하는 것을 포함할 수 있다. 예를 들어, 프로세싱 처리 장치는 작동 중에 메모리에 접속하여 저장된 명령을 획득하고 실행할 수 있다. 어느 경우이든, 여기에 기재된 감지, 이미지 분석, 및/또는 주행제어 기능을 수행하도록 구성된 처리 장치는 호스트 차량의 다중 하드웨어 기반 구성요소를 제어하도록 특화된 하드웨어 기반 시스템을 대표한다. In other embodiments, configuring the processing device may include storing executable instructions in a memory accessible to the processing device during operation. For example, a processing processing unit may access memory during operation to obtain and execute stored instructions. In either case, the processing devices configured to perform the sensing, image analysis, and/or driving control functions described herein represent hardware-based systems specialized for controlling multiple hardware-based components of a host vehicle.
도 1에는 두 개의 프로세싱 처리 장치가 처리부(110)에 포함된 것을 예시하였지만, 이보다 많거나 적은 처리 장치가 사용될 수 있다. 예를 들면, 일부 실시예에서, 애플리케이션 프로세서(180)와 이미지 프로세서(190)의 작업을 수행하기 위하여 단일 처리 장치를 사용할 수 있다. 다른 실시예에서, 이러한 작업은 2개 이상의 프로세싱 처리 장치를 사용하여 수행될 수 있다. 또한, 일부 실시예에서, 시스템(100)은 하나 이상의 처리부(110)를 포함하되 이미지획득부(120) 등과 같은 다른 구성요소를 포함하지 않을 수도 있다. Although FIG. 1 illustrates that two processing units are included in the
처리부(110)는 다양한 유형의 장치를 포함할 수 있다. 예를 들어, 처리부(110)는 제어 장치, 이미지 전처리 장치, 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 보조 회로, 디지털 신호 처리 장치, 집적 회로, 메모리, 또는 영상의 처리 및 분석을 위한 기타 유형의 장치 등과 같은 다양한 장치를 포함할 수 있다. 이미지 전처리 장치는 이미지 센서로부터 이미지를 촬영, 디지털화, 처리하기 위한 이미지 프로세서를 포함할 수 있다. CPU는 단수 또는 복수의 마이크로컨트롤러 또는 마이크로프로세서를 포함할 수 있다. GPU도 단수 또는 복수의 마이크로컨트롤러 또는 마이크로프로세서를 포함할 수 있다. 보조 회로는 캐시, 전원, 클락, 입/출력 회로 등과 같이 본 발명의 분야에서 일반적으로 공지된 단수 또는 복수의 회로를 포함할 수 있다. 메모리는 처리 장치에 의해 실행될 때 시스템의 동작을 제어하는 소프트웨어를 저장할 수 있다. 메모리는 단수 또는 복수의 RAM(random access memory), ROM(read only memory), 플래시 메모리, 디스크 드라이브, 광 저장 장치, 테이프 저장 장치, 탈착형 저장 장치, 및 기타 유형의 저장 장치를 포함할 수 있다. 일례에서, 메모리는 처리부(110)와 분리되어 있을 수 있다. 다른 예에서, 메모리는 처리부(110)와 일체로 구성될 수 있다.
메모리(140, 150) 각각은 처리 장치(예, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190))에 의해 실행될 때 시스템(100)의 다양한 측면의 동작을 제어할 수 있는 소프트웨어 명령을 포함할 수 있다. 이러한 메모리 장치는 다양한 데이터베이스 및 이미지 처리 소프트웨어뿐만 아니라, 예를 들어, 신경망 또는 심층 신경망과 같은 학습 시스템을 포함할 수 있다. 이러한 메모리 장치는 RAM, ROM, 플래시 메모리, 디스크 드라이브, 광 저장 장치, 테이프 저장 장치, 탈착형 저장 장치 및/또는 기타 유형의 저장 장치를 포함할 수 있다. 일부 실시예에서, 메모리 장치(140, 150)는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)와 분리되어 있을 수 있다. 다른 실시예에서, 이러한 메모리 장치는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)와 일체로 구성될 수 있다.Each of
위치센서(130)는 시스템(100)의 적어도 한 구성요소와 연관된 위치를 판단하기에 적합한 유형의 장치를 포함할 수 있다. 일부 실시예에서, 위치센서(130)는 GPS 수신기를 포함할 수 있다. 이러한 수신기는 GPS 위성이 송신하는 신호를 처리하여 사용자의 위치와 속도를 판단할 수 있다. 위치센서(130)로부터의 위치 정보는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)로 제공될 수 있다.
일부 실시예에서, 시스템(100)은 차량(200)의 속도를 측정하기 위한 속력 센서(예, 속도계)와 같은 구성요소를 포함할 수 있다. 시스템(100)은 또한 하나 이상의 축을 따라 차량(200)의 가속을 측정하기 위한 하나 이상의 가속도계(단일축 또는 다중축)를 포함할 수 있다. In some embodiments,
메모리 장치(140, 150)는 알려진 랜드마크의 하나 이상의 지시자 및/또는 위치를 포함하는 데이터베이스 또는 기타 유형으로 구성된 데이터를 포함할 수 있다. 알려진 랜드마크에 대한 차량의 현위치를 판단하고 차량의 위치를 더욱 정확하게 하기 위하여, 주변환경의 감지 정보(예, 이미지, 레이더 신호, 둘 이상의 이미지의 스테레오 처리 또는 라이더의 깊이 정보)는 GPS 좌표, 차량 자신의 움직임 등과 같은 위치 정보와 함께 처리될 수 있다. 이러한 기술의 특정 측면은 본 출원의 양수인이 상용화하고 있는 REMTM으로 알려진 위치결정 기술에 포함된다. The
사용자 인터페이스(170)는 시스템(100)의 한 명 이상의 사용자에게 정보를 제공하고 사용자로부터 입력을 수신하기 적합한 장치를 포함할 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 예를 들어 터치스크린, 마이크, 키보드, 포인터 장치, 트랙휠, 카메라, 노브, 버튼 등의 사용자 입력 장치를 포함할 수 있다. 이러한 입력 장치는 사용자로 하여금 명령 또는 정보를 타이핑하거나, 음성 명령을 제공하거나, 버튼, 포인터, 또는 눈동자 추적 기능을 사용하여 화면상의 메뉴를 선택하거나, 시스템(100)과 정보를 교환하기 위한 기타 적합한 기술을 통하여 시스템(100)에 정보 입력 또는 명령을 제공할 수 있게 해준다.
사용자 인터페이스(170)는 사용자에게 정보를 제공하고 사용자로부터 정보를 수신하며 이러한 정보를 예를 들어 애플리케이션 프로세서(180)가 사용하게 처리하도록 구성된 하나 이상의 처리 장치를 구비할 수 있다. 일부 실시예에서, 이러한 처리 장치는 눈동자의 움직임을 인식 및 추적하고, 음성 명령을 수신 및 해석하고, 터치스크린 상의 터치 및/또는 제스처를 인식 및 해석하고, 키보드 입력 또는 메뉴 선택에 응답하는 등을 위한 지시를 수행할 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 디스플레이, 스피커, 촉감 장치, 및/또는 사용자에게 출력 정보를 제공하는 기타 장치를 포함할 수 있다.
지도 데이터베이스(160)는 시스템(100)에서 사용 가능한 지도 데이터를 저장하기 위한 모든 유형의 데이터베이스를 포함할 수 있다. 일부 실시예에서, 지도 데이터베이스(160)는 도로, 하천 지형, 지리적 지형, 사업체, 관심 지점, 식당, 주유소 등의 다양한 항목의 기준 좌표계 상 위치와 관련된 데이터를 포함할 수 있다. 지도 데이터베이스(160)는 이런 항목의 위치뿐만 아니라, 예를 들면, 저장된 지점 관련 명칭 등을 포함하는 설명을 저장할 수 있다. 일부 실시예에서, 지도 데이터베이스(160)는 시스템(100)의 다른 구성요소와 함께 물리적으로 배치될 수 있다. 대안적으로, 또는 추가적으로, 지도 데이터베이스(160) 또는 지도 데이터베이스(160)의 일부는 시스템(100)의 다른 구성요소(예, 처리부(110))에 대하여 원격으로 배치될 수 있다. 이 경우, 지도 데이터베이스(160)로부터의 정보는 네트워크와의 유선 또는 무선 데이터 연결(예, 이동통신망 및/또는 인터넷 등)을 통하여 다운로드 될 수 있다. 일부 경우에, 지도 데이터베이스(160)는 특정 도로 특징(예, 차선 표시)의 다항식 표현 또는 호스트 차량의 목표 궤적을 포함하는 간략 데이터 모델을 저장할 수 있다. 지도 데이터베이스(160)는 또한 목표 궤적에 대한 호스트 차량의 알려진 위치의 판단 또는 업데이트에 활용될 수 있는 다양한 인지된 랜드마크의 저장된 표현을 포함할 수 있다. 랜드마크 표현은 잠재적 식별자 중에서 랜드마크 유형, 랜드마크 위치와 같은 데이터필드를 포함할 수 있다.
이미지캡처장치(122, 124, 126)는 각각 주변 환경으로부터 적어도 하나의 영상을 캡처하기에 적합한 유형의 장치를 포함할 수 있다. 또한, 이미지 프로세서로의 입력에 필요한 영상을 촬영하기 위하여 여러 개의 이미지캡처장치를 사용할 수 있다. 일부 실시예는 단일 이미지캡처장치를 포함할 수 있는 반면, 다른 실시예는 두 개, 세 개, 또는 4개 이상의 이미지캡처장치를 포함할 수 있다.
나아가, 앞서 설명한 바와 같이, 이미지캡처장치(122, 124, 126)는 각각 주변 환경으로부터 적어도 하나의 적외선 영상을 캡처하기에 적합한 유형의 장치를 포함할 수 있다. 다양한 수의 적외선 이미지캡처장치가 사용될 수 있다. 일부 실시예는 단일 적외선 이미지캡처장치를 포함할 수 있는 반면, 다른 실시예는 두 개, 세 개, 또는 4개 이상의 적외선 이미지캡처장치를 포함할 수 있다. 또한, 일부 실시예는 다양한 수의 적외선 이미지캡처장치와 다양한 수의 이미지캡처장치의 조합을 포함할 수 있다. 이미지캡처장치(122, 124, 126)는 도 1B 내지 도 1E를 참조하여 하기에 추가로 설명한다.Further, as described above,
하나 이상의 카메라(예, 이미지캡처장치(122, 124, 126))는 차량에 포함된 감지 블록(sensing block)의 일부일 수 있다. 감지 블록은 하나 이상의 적외선 카메라를 하나 이상의 카메라와 별도로 또는 조합으로 더 포함할 수 있다. One or more cameras (eg,
다양한 기타 센서들이 감지 블록에 포함될 수 있으며, 센서들의 일부 또는 모두에 의존하여 차량의 주행 상태에 대한 파악을 구축할 수 있다. 카메라(전방, 측방, 후방 등) 외에도 레이더, 라이더, 음향 센서와 같은 기타 센서들이 감지 블록에 포함될 수 있다. 추가적으로, 감지 블록은 차량의 주변환경에 관한 정보를 통신 및 송수신하도록 구성된 하나 이상의 구성요소를 포함할 수 있다. 예를 들면, 이러한 구성요소는 호스트 차량에 관한 센서 기반 정보 또는 기타 유형의 정보를 호스트 차량에 대해 원격으로 위치한 소스로부터 수신할 수 있는 무선 송수신기(RF 등)를 포함할 수 있다. 이러한 정보는 호스트 차량이 아닌 다른 차량으로부터 수신한 센서 출력 정보 또는 관련 정보를 포함할 수 있다. 일부 실시예에서, 이러한 정보는 원격 컴퓨팅 장치, 중앙 서버 등으로부터 수신된 정보를 포함할 수 있다. 나아가, 카메라는 단일 카메라 장치, 복수의 카메라, 카메라 클러스터, 망원 시야, 근거리 시야, 광각, 어안 등, 다양한 구성을 가질 수 있다. A variety of other sensors may be included in the sensing block, and may rely on some or all of the sensors to build an understanding of the vehicle's driving state. In addition to cameras (front, side, rear, etc.), other sensors such as radar, lidar, and acoustic sensors may be included in the sensing block. Additionally, the sensing block may include one or more components configured to communicate and send and receive information about the vehicle's surroundings. For example, these components may include a radio transceiver (RF, etc.) capable of receiving sensor-based or other types of information about the host vehicle from a source located remotely about the host vehicle. This information may include sensor output information or related information received from a vehicle other than the host vehicle. In some embodiments, this information may include information received from remote computing devices, central servers, and the like. Furthermore, the camera may have various configurations, such as a single camera device, a plurality of cameras, a camera cluster, a telescopic field of view, a short field of view, a wide angle view, a fisheye view, and the like.
시스템(100), 혹은 시스템(100)의 다양한 구성요소는 다양한 플랫폼에 구현될 수 있다. 일부 실시예에서, 시스템(100)은, 도 1A에 예시된 바와 같이, 차량(200)에 포함될 수 있다. 예를 들면, 차량(200)에는 도 1에 설명한 처리부(110) 및 시스템(100)의 기타 구성요소가 구비될 수 있다. 일부 실시예의 차량(200)에는 단일 이미지캡처장치(예, 카메라) 및/또는 단일 적외선 이미지캡처장치만 구비될 수 있는 반면, 다른 실시예의 차량에는, 도 1B 내지 2e에 예시된 바와 같이, 여러 개의 이미지캡처장치 및/또는 여러 개의 적외선 이미지캡처장치가 사용될 수 있다. 예를 들어, 도 1A에 예시된 차량(200)의 이미지캡처장치(122, 124)는 첨단 운전자 지원 시스템(Advanced Driver Assistance Systems; ADAS) 영상 세트의 일부일 수 있다.
이미지획득부(120)의 일부로서 차량(200)에 포함된 이미지캡처장치는 적합한 장소에 위치될 수 있다. 일부 실시예에서, 도 1A 내지 2e, 3a 내지 3c에 도시된 바와 같이, 이미지캡처장치(122)는 백미러 주위에 배치될 수 있다. 이 위치는 차량(200)의 운전자와 유사한 시선을 제공할 수 있으며, 이에 따라 운전자에게 보이는 것과 보이지 않는 것을 판단하는데 도움이 될 수 있다. 이미지캡처장치(122)는 백미러 주변의 임의의 위치에 배치될 수 있지만, 백미러의 운전자 측에 이미지캡처장치(122)를 배치하면 운전자의 시야 및/또는 시선을 나타내는 영상을 획득하는데 더욱 도움이 될 수 있다.An image capture device included in
이미지획득부(120)의 이미지캡처장치는 다른 위치에 배치될 수도 있다. 예를 들면, 이미지캡처장치(124)는 차량(200)의 범퍼 내부 또는 상에 배치될 수 있다. 이런 위치는 광시야를 가진 이미지캡처장치에 특히 적합할 수 있다. 범퍼에 위치한 이미지캡처장치의 시선은 운전자의 시선과 다를 수 있기 때문에 범퍼에 위치한 이미지캡처장치와 운전자는 항상 같은 대상을 보는 것이 아닐 수 있다. 이미지캡처장치(예, 122, 124, 126)는 또한, 다른 위치에 배치될 수 있다. 예를 들어, 이미지캡처장치는 차량(200)의 일측 또는 양측의 사이드 미러 상 또는 내부에, 차량(200)의 지붕 상에, 차량(200)의 보닛 상에, 차량(200)의 측면에, 차량(200)의 윈도우 상, 후면 또는 전면에, 차량(200)의 전면 및/또는 후면 등화장치상에 또는 주변 등의 위치에 배치될 수 있다. The image capture device of the
차량(200)은 이미지캡처장치 외에도 시스템(100)의 다양한 기타 구성요소를 포함할 수 있다. 예를 들면, 처리부(110)는 차량(200)의 엔진제어장치(engine control unit, ECU)와 일체 또는 분리된 형태로 차량(200)에 포함될 수 있다. 차량(200)은 또한, GPS 수신기 등과 같은 위치센서(130), 지도 데이터베이스(160), 메모리부(140, 150)도 포함할 수 있다.
앞서 설명한 바와 같이, 무선 송수신기(172)는 하나 이상의 네트워크(예, 이동통신망, 인터넷 등)를 통하여 데이터를 송신 및/또는 수신할 수 있다. 예를 들어, 무선 송수신기(172)는 시스템(100)이 수집한 데이터를 하나 이상의 서버로 업로드하고 하나 이상의 서버로부터 데이터를 다운로드할 수 있다. 시스템(100)은 무선 송수신기(172)를 통하여, 예를 들어, 지도 데이터베이스(160) 및/또는 메모리(140, 150)에 저장된 데이터의 주기적 또는 일시적 업데이트를 수신할 수 있다.As described above, the
마찬가지로, 무선 송수신기(172)는 시스템(100)의 데이터(예, 이미지획득부(120)가 캡처한 이미지, 위치센서(130), 기타 센서, 또는 차량 제어 시스템이 수신한 데이터 등) 및/또는 처리부(110)에 의해 처리된 데이터를 하나 이상의 서버에 업로드할 수 있다.Similarly, the
시스템(100)은 개인정보보호 설정에 근거하여 서버(예, 클라우드)로 데이터를 업로드할 수 있다. 예를 들면, 시스템(100)은 개인정보보호 설정을 실행하여 서버로 보내지는 차량과 차량의 운전자/소유자를 개별적으로 확인해주는 데이터(메타데이터 포함)의 유형을 규제 또는 제한할 수 있다. 이런 설정은 예를 들어 사용자에 의해 무선 송수신기(172)를 통해 설정되거나, 공장설정으로 초기화되거나, 무선 송수신기(172)가 수신한 데이터에 의해 설정될 수 있다.
일부 실시예에서, 시스템(100)은 "높은" 개인정보보호 수준에 의거하여 데이터를 업로드할 수 있으며, 이렇게 설정하면 시스템(100)은 특정 차량 및/또는 운전자/소유자 정보 없이 데이터(예, 경로 관련 위치정보, 캡처 이미지 등)를 전송할 수 있다. 예를 들어, "높은" 개인정보보호 수준에 의거하여 데이터를 업로드할 경우, 시스템(100)은 차대번호 또는 차량 운전자 또는 소유자의 이름을 포함하지 않을 수 있고, 그 대신 캡처 이미지 및/또는 경로와 관련된 제한된 위치 정보 등의 데이터를 전송할 수 있다. In some embodiments,
다른 개인정보보호 수준도 가능하다. 예를 들어, 시스템(100)은 "중간" 개인정보보호 수준에 의거하여 서버로 데이터를 전송할 수 있으며, 이 경우, "높은" 개인정보보호 수준하에서 포함되지 않은 차량의 제조사 및/또는 모델 및/또는 차량 종류(예, 승용차, SUV, 트럭 등) 등의 추가 정보를 포함할 수 있다. 일부 실시예에서, 시스템(100)은 "낮은" 개인정보보호 수준에 의거하여 데이터를 업로드할 수 있다. "낮은" 개인정보보호 수준하에서, 시스템(100)은 개별 차량, 소유자/운전자, 및/또는 차량이 이동한 전체 또는 일부 경로 등을 특정할 수 있는 정보를 포함하는 데이터를 업로드할 수 있다. 이러한 "낮은" 개인정보보호 수준 데이터는 예를 들어, 차대번호, 운전자/소유자 이름, 차량의 출발점, 차량의 목적지, 차량의 제조사 및/또는 모델, 차량의 종류 등을 포함할 수 있다.Other privacy levels are possible. For example,
도 2a는 기재된 실시예에 따른 예시적인 차량 영상 시스템의 측면도이다. 도 2b는 도 2a에 도시된 실시예의 평면도이다. 도 2b에 도시된 바와 같이, 본 실시예에 따른 차량(200)은 백미러 주변 및/또는 운전자 가까이 배치된 제1 이미지캡처장치(122), 범퍼 영역(예, 범퍼 영역(210)의 일 영역) 상 또는 내부에 배치된 제2 이미지캡처장치(124), 및 처리부(110)를 구비한 시스템(100)을 본체 내부에 포함한다. 도 2a와 도 2b에서, 제1 이미지캡처장치(122)와 제2 이미지캡처장치(124)의 하나 이상은 적외선 이미지캡처장치를 포함할 수 있다. 2A is a side view of an exemplary vehicle imaging system in accordance with a described embodiment. Figure 2b is a plan view of the embodiment shown in Figure 2a. As shown in FIG. 2B , the
도 2c에 도시된 바와 같이, 이미지캡처장치(122, 124)는 모두 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있다. 도 2c에서, 도 2a와 도 2b와 마찬가지로, 제1 이미지캡처장치(122)와 제2 이미지캡처장치(124)의 하나 이상은 적외선 이미지캡처장치를 포함할 수 있다. As shown in FIG. 2C ,
또한, 도 2b와 2c에는 이미지캡처장치(122, 124)가 두 개로 예시되었지만, 다른 실시예에서는 세 개 이상의 이미지캡처장치가 포함될 수 있음은 당연할 것이다. 예를 들어, 도 2d와 2e에 도시된 실시예에서는, 제1, 제2, 제3 이미지캡처장치(122, 124, 126)가 차량(200)의 시스템(100)에 포함되어 있다. 도 2a, 도 2b, 도 2c와 유사하게, 도 2d와 도 2e의 제1, 제2, 제3 이미지캡처장치(122, 124, 126)의 하나 이상은 적외선 이미지캡처장치를 포함할 수 있다. In addition, although two
도 2d에 도시된 바와 같이, 이미지캡처장치(122)는 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있고, 이미지캡처장치(124, 126)는 차량(200)의 범퍼 영역(예, 범퍼 영역(210)의 일 영역) 상 또는 내부에 배치될 수 있다. 또한, 도 2e에 도시된 바와 같이, 이미지캡처장치(122, 124, 126)는 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있다. 본 실시예는 특정 수량 및 구성의 이미지캡처장치에 제한되지 않고, 이미지캡처장치는 차량의 내부 및/또는 상의 적절한 모든 위치에 배치될 수 있다. As shown in FIG. 2D ,
기재한 실시예들은 차량에 한정되는 것이 아니라 당연히 다른 상황에도 적용될 수 있다. 또한, 기재한 실시예들은 특정 유형의 차량(200)에 한정되는 것이 아니라, 당연히 자동차, 트럭, 트레일러, 및 기타 유형의 차량 등, 모든 유형의 차량에 적용될 수 있다. The described embodiments are not limited to vehicles and can of course be applied to other situations as well. In addition, the described embodiments are not limited to a specific type of
제1 이미지캡처장치(122)는 적합한 유형의 이미지캡처장치 또는 적외선 이미지캡처장치를 포함할 수 있다. 이미지캡처장치(122)는 광축을 포함할 수 있다. 일례에서, 이미지캡처장치(122)는 글로벌 셔터 방식의 Aptina M9V024 WVGA 센서를 포함할 수 있다. 다른 실시예에서, 이미지캡처장치(122)는 1280x960 픽셀의 해상도를 제공하고 롤링 셔터 방식을 포함할 수 있다. 이미지캡처장치(122)는 다양한 광학 소자를 포함할 수 있다. 일부 실시예에서, 하나 이상의 렌즈를 포함하여 이미지캡처장치가 요구하는 초점거리 및 시야 등을 제공할 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 6mm 렌즈 또는 12mm 렌즈와 결합될 수 있다.일부 실시예에서, 이미지캡처장치(122)는, 도 2d에 도시된 바와 같이, 필요한 시야(202)를 확보하도록 구성될 수 있다. 예를 들면, 이미지캡처장치(122)는, 46도 시야, 50도 시야, 52도 또는 그 이상의 시야 등과 같은, 40 내지 56도 범위의 일반 시야를 확보하도록 구성될 수 있다. 또는, 이미지캡처장치(122)는, 28도 시야 또는 36도 시야 등과 같은, 23 내지 40도 범위의 좁은 시야를 확보하도록 구성될 수 있다. The first
또한, 이미지캡처장치(122)는 100 내지 180도 범위의 넓은 시야를 확보하도록 구성될 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 광각 범퍼 카메라 또는 180도 시야까지 확보 가능한 카메라를 포함할 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 약 2:1(예, HxV=3800x1900 픽셀)의 종횡비와 약 100도의 수평 시야를 가진 7.2 메가 픽셀 이미지캡처장치일 수 있다. 이러한 이미지캡처장치는 3개의 이미지캡처장치 구성을 대신할 수 있다. 방사상으로 대칭인 렌즈를 사용하는 이러한 이미지캡처장치의 수직 시야는 렌즈 왜곡으로 인하여 50도 이하로 구현될 수 있다. 예를 들어, 방사상으로 비대칭인 렌즈를 사용하여 수평 시야가 100도인 경우에 수직 시야가 50도 이상이 되게 할 수 있다. In addition, the
제1 이미지캡처장치(122)는 차량(200)과 관련된 장면에 대한 복수의 제1 이미지를 획득할 수 있다. 복수의 제1 이미지 각각은 롤링 셔터를 사용하여 캡처 된 연속 주사선으로 획득될 수 있다. 각 주사선은 복수의 픽셀을 포함할 수 있다. 제1 이미지캡처장치(122)가 적외선 이미지캡처장치를 포함하는 실시예에서, 복수의 제1 이미지 각각은 전자 스캐닝 시스템을 활용하여 캡처 될 수 있는 연속 주사선으로 획득될 수 있다. The first
제1 이미지캡처장치(122)는 제1연속 주사선 획득 관련 주사율을 가질 수 있다. 주사율이란 이미지 센서가 특정 주사선에 포함된 각 픽셀과 관련된 이미지 데이터를 획득하는 속도를 의미할 수 있다. 제1 이미지캡처장치(122)가 적외선 이미지캡처장치를 포함하는 실시예에서, 주사율이란 적외선 이미지 센서가 특정 주사선에 포함된 각 픽셀과 관련된 열 데이터를 획득하는 속도를 의미할 수 있다.The first
이미지캡처장치(122, 124, 126)는, 예를 들어, CCD 센서 또는 CMOS 센서와 같은, 적합한 유형과 개수의 이미지 센서를 포함할 수 있다. 일 실시예에서, 롤링 셔터 방식의 CMOS 이미지 센서를 도입하여 한 열의 각 픽셀을 하나씩 읽고, 전체 이미지 프레임이 캡처 될 때까지 열별로 주사가 진행될 수 있다. 일부 실시예에서, 프레임에 대하여 각 열이 위에서 아래로 순차적으로 캡처 될 수 있다. 이미지캡처장치(122, 124, 126)의 하나 이상이 적외선 이미지캡처장치를 포함하는 실시예에서, UFPA(uncooled focal plane array)를 전자 스캐닝 시스템과 함께 활용하여 전체 히트맵(heat map)이 캡처 될 때까지 열별로(row-by-row) 주사가 진행될 수 있다.
일부 실시예에서, 여기에 기재된 이미지캡처장치(122, 124, 126)의 하나 이상은 고해상 이미저(imager)를 구성하고 5메가, 7메가, 10메가 또는 그 이상의 픽셀의 해상도를 가질 수 있다.In some embodiments, one or more of the
롤링 셔터를 사용하면, 서로 다른 열의 픽셀이 서로 다른 시간에 노출되고 촬영될 수 있어서, 캡처 된 이미지 프레임에 왜곡(skew)과 기타 이미지 결함(artifact)이 나타날 수 있다. 반면, 이미지캡처장치(122)가 글로벌 셔터 방식 또는 동기화 셔터(synchronous shutter) 방식으로 작동하도록 구성된 경우, 모든 픽셀은 동일 시간만큼 그리고 일반적인 노출 시간 동안 노출될 수 있다. 그 결과, 글로벌 셔터 방식을 적용한 시스템에서 수집된 프레임의 이미지 데이터는 특정 시간의 전체 시야(예, 202)의 스냅샷을 나타낸다. 반면, 롤링 셔터 방식에서는, 서로 다른 시간에 한 프레임의 각 열이 노출되고 데이터가 수집된다. 따라서, 롤링 셔터 방식 이미지캡처장치의 이미지 내의 움직이는 물체는 왜곡돼 보일 수 있다. 이 현상(적외선 이미지캡처장치의 전자 스캐닝을 사용하는 경우도 유사)에 대해서는 하기에서 더 자세히 설명한다. With a rolling shutter, different rows of pixels can be exposed and photographed at different times, which can introduce skew and other image artifacts in the captured image frame. On the other hand, if
제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 적합한 유형의 이미지캡처장치 또는 적외선 이미지캡처장치일 수 있다. 제1 이미지캡처장치(122)와 마찬가지로, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 광축을 포함할 수 있다. 일 실시예에서, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 글로벌 셔터 방식의 Aptina M9V024 WVGA 센서를 포함할 수 있다. 또는, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 롤링 셔터 방식을 포함할 수 있다. 제1 이미지캡처장치(122)와 마찬가지로, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 다양한 렌즈와 광학 소자를 포함하도록 구성될 수 있다. 일부 실시예에서, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)와 관련된 렌즈는 제1 촬영 장치(122)와 관련된 시야(예, 122)와 동일하거나 이보다 좁은 시야(204, 206)를 제공할 수 있다. 예를 들어, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)의 시야는 각각 40도, 30도, 26도, 20도, 또는 그 이하일 수 있다.The second
제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 차량(200)과 관련된 장면에 대한 복수의 제2 및 제3 이미지를 획득할 수 있다. 복수의 제2 및 제3 이미지 각각은 롤링 셔터를 사용하여 캡처 된 제2 및 제3연속 주사선으로 획득될 수 있다. 각 주사선 또는 열은 복수의 픽셀을 포함할 수 있다. 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 제2 및 제3연속 주사선에 포함된 각 주사선의 획득과 관련된 제2 및 제3 주사율을 가질 수 있다. 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)의 하나 이상이 적외선 이미지캡처장치를 포함하는 실시예에서, 복수의 제2 및 제3 이미지 각각은 전자 스캐닝 시스템을 사용하여 캡처 된 제2 및 제3 연속 열(heat) 주사선으로 획득될 수 있다. 이러한 실시예에서, 각 주사선 또는 열(row)은 복수의 픽셀을 포함할 수 있고, 제2 이미지캡처장치(124) 및/또는 제3 이미지캡처장치(126)는 제2 및 제3연속 주사선에 포함된 각 열 주사선의 획득과 관련된 제2 및 제3 주사율을 가질 수 있다.The second
이미지캡처장치(122, 124, 126)는 각각 차량(200)의 적합한 위치와 방향으로 배치될 수 있다. 이미지캡처장치(122, 124, 126)의 상대적 배치는 이미지캡처장치로부터 획득된 정보의 융합이 용이하도록 선택될 수 있다. 예를 들어, 일부 실시예에서, 제2 이미지캡처장치(124)의 시야(예, 204)는 제1 이미지캡처장치(122)의 시야(예, 202) 및 제3 이미지캡처장치(126)의 시야(예, 206)와 부분적으로 또는 완전히 겹칠 수도 있다.
이미지캡처장치(122, 124, 126)는 차량(200)의 적합한 상대 높이에 배치될 수 있다. 일례에서, 이미지캡처장치(122, 124, 126) 사이의 높이에 차이를 두어 입체 분석을 가능하게 하는 시차 정보를 제공할 수 있다. 예를 들면, 도 2a에 도시된 바와 같이, 이미지캡처장치(122)와 이미지캡처장치(124)는 서로 높이가 다르다. 이미지캡처장치(122, 124, 126) 사이에 횡 방향 변위도 있어 처리부(110) 등에 의한 입체 분석을 위한 추가 시차 정보도 제공할 수 있다. 도 2c와 도 2d에 도시된 바와 같이, 횡 방향 변위의 차이는 dx로 표시될 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126) 사이에 전방 또는 후방 변위(예, 범위 변위)가 있을 수 있다. 예를 들어, 이미지캡처장치(122)는 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 0.5 내지 2미터 후방에 배치될 수 있다. 이런 유형의 변위로 인해, 이미지캡처장치 중 하나가 나머지 이미지캡처장치의 사각지대를 보완할 수 있다.
유사하게, 이미지캡처장치(122, 124, 126) 사이에 높이 차이가 없을 수 있으며, 이는 이미지캡처장치의 하나 이상에 의해 생성된 히트맵을 이미지캡처장치의 하나 이상에 의해 생성된 시각 이미지와 정렬하는데 도움이 될 수 있다. Similarly, there may be no height difference between
이미지캡처장치(122)는 적합한 해상도(예, 이미지 센서 관련 픽셀 수)를 가질 수 있고, 이미지캡처장치(122)와 연관된 이미지 센서의 해상도는 이미지캡처장치(124, 126)와 연관된 이미지 센서의 해상도와 비교하여 높거나, 낮거나, 같을 수 있다. 일부 실시예에서, 이미지캡처장치(122) 및/또는 이미지캡처장치(124, 126)와 연관된 이미지 센서의 해상도는 640 x 480, 1024 x 768, 1280 x 960, 또는 기타 적합한 해상도일 수 있다.
프레임 속도(frame rate, 즉, 이미지캡처장치가 다음 이미지 프레임의 픽셀 데이터 또는 열 데이터를 획득하기 위해 넘어가기 전에 한 이미지 프레임의 픽셀 데이터 또는 열 데이터 집합을 획득하는 속도)는 제어 가능하다. 이미지캡처장치(122)의 프레임 속도는 이미지캡처장치(124, 126)의 프레임 속도와 비교하여 높거나, 낮거나, 같을 수 있다. 이미지캡처장치(122, 124, 126)의 프레임 속도는 프레임 속도의 타이밍에 영향을 주는 다양한 요소에 의거할 수 있다. 예를 들면, 이미지캡처장치(122, 124, 126)의 하나 이상은 탑재한 이미지 센서의 하나 이상의 픽셀 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 픽셀 지연 기간(selectable pixel delay period)을 포함할 수 있다. 일반적으로, 각 픽셀에 상응하는 이미지 데이터는 해당 장치의 클락 속도(clock rate)에 의거하여(예, 클락 주파수(clock cycle) 당 1 픽셀) 획득된다. 또한, 롤링 셔터 방식을 포함하는 실시예에서, 이미지캡처장치(122, 124, 126)의 하나 이상은 탑재한 이미지 센서의 한 열의 픽셀 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 수평 귀선 기간(selectable horizontal blanking period)을 포함할 수 있다. 나아가, 이미지캡처장치(122, 124, 126)의 하나 이상은 이미지 프레임 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 수직 귀선 기간(selectable vertical blanking period)을 포함할 수 있다. 마찬가지로, 전자 스캐닝을 포함하는 실시예에서, 이미지캡처장치(122, 124, 126)의 하나 이상은 동적 가변 주사율을 포함할 수 있다. The frame rate (i.e., the rate at which the image capture device acquires a set of pixel data or column data from one image frame before moving on to acquire pixel data or column data from the next image frame) is controllable. The frame rate of
이러한 타이밍 제어로 인해, 이미지캡처장치(122, 124, 126)의 선주사 속도(line scan rates)가 서로 다른 경우에도 이미지캡처장치(122, 124, 126)의 프레임 속도의 동기화가 가능하다. 또한, 하기에 더 자세히 설명하겠지만, 여러 요소(예, 이미지 센서 해상도, 최고 선주사 속도 등) 중에서 이러한 타이밍 제어로 인해, 이미지캡처장치(122)의 시야가 이미지캡처장치(124, 126)의 시야와 다른 경우에도, 이미지캡처장치(122)의 시야와 이미지캡처장치(124, 126)의 하나 이상의 시야가 겹치는 영역으로부터 촬영된 영상의 동기화가 가능할 수 있다. Due to such timing control, frame rates of the
이미지캡처장치(122, 124, 126)의 프레임 속도 타이밍은 상응하는 이미지 센서의 해상도에 의거할 수 있다. 예를 들어, 두 장치의 선주사 속도가 유사하다고 가정할 때, 한 장치의 이미지 센서의 해상도가 640 X 480이고 다른 장치의 이미지 센서의 해상도가 1280 X 960일 경우, 높은 해상도를 가진 이미지 센서로부터 이미지 데이터의 프레임을 획득하는데 더 많은 시간이 걸릴 것이다. Frame rate timing of
이미지캡처장치(122, 124, 126)의 이미지 데이터 획득 타이밍에 영향을 주는 또 다른 요소는 최고 선주사 속도(maximum line scan rate)이다. 예를 들면, 이미지캡처장치(122, 124, 126)에 포함된 이미지 센서로부터 한 열의 이미지 데이터를 획득하려면 최소 시간 이상이 걸릴 수 있다. 픽셀 지연 기간이 추가되지 않았다고 가정할 때, 한 열의 이미지 데이터를 획득하기 위한 최저 시간은 특정 장치의 최고 선주사 속도와 관계가 있을 것이다. 최고 선주사 속도가 높은 장치는 최고 선주사 속도가 낮은 장치보다 높은 프레임 속도를 제공할 가능성이 있다. 일부 실시예에서, 이미지캡처장치(124, 126)의 하나 이상의 최고 선주사 속도는 이미지캡처장치(122)의 최고 선주사 속도보다 높을 수 있다. 일부 실시예에서, 이미지캡처장치(124 및/또는 126)의 최고 선주사 속도는 이미지캡처장치(122)의 최고 선주사 속도보다 1.25배, 1.5배, 1.75배, 2배, 또는 그 이상 높을 수 있다. Another factor affecting the image data acquisition timing of the
다른 실시예에서, 이미지캡처장치(122, 124, 126)의 최고 선주사 속도는 모두 동일하지만, 이미지캡처장치(122)는 최고 주사 속도 이하의 주사 속도로 동작될 수 있다. In another embodiment, the maximum pre-scan speeds of
시스템은 이미지캡처장치(124, 126)의 하나 이상이 이미지캡처장치(122)의 선주사 속도와 동일한 선주사 속도로 동작하도록 구성될 수 있다. 다른 예에서, 시스템은 이미지캡처장치(124 및/또는 126)의 선주사 속도가 이미지캡처장치(122)의 선주사 속도보다 1.25배, 1.5배, 1.75배, 2배, 또는 그 이상 높도록 구성될 수 있다. The system may be configured such that one or more of
일부 실시예에서, 이미지캡처장치(122, 124, 126)는 비대칭일 수 있다. 즉, 이미지캡처장치(122, 124, 126)는 시야와 초점거리가 서로 다른 카메라를 포함할 수 있다. 이미지캡처장치(122, 124, 126)의 시야는 차량(200)의 주변 등과 관련된 필요 영역을 포함할 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126)의 하나 이상은 차량(200)의 전방, 후방, 측방, 또는 그 조합의 환경으로부터 이미지 데이터를 획득하도록 구성될 수 있다. In some embodiments,
또한, 각 장치가 차량(200)에 대한 특정 거리 범위에 있는 물체의 이미지를 획득하도록 각 이미지캡처장치(122, 124, 126)의 초점거리가 선택될(예, 적합한 렌즈 적용) 수 있다. 예를 들어, 일부 실시예에서, 이미지캡처장치(122, 124, 126)는 차량으로부터 몇 미터 내에 있는 물체의 클로즈업 이미지를 획득할 수 있다. 이미지캡처장치(122, 124, 126)는 차량으로부터 멀리 떨어진 범위(예, 25m, 50m, 100m, 150m, 또는 그 이상)에 있는 물체의 이미지를 획득하도록 구성될 수도 있다. 또한, 한 이미지캡처장치(예, 122)는 차량과 상대적으로 가까운(예, 10m 또는 20m 이내) 물체의 이미지를 획득하고 나머지 이미지캡처장치(예, 124, 126)는 이보다 멀리 있는(예, 20m, 50m, 100m, 150m 이상) 물체의 이미지를 획득하도록 이미지캡처장치(122, 124, 126)의 초점거리가 선택될 수 있다. Additionally, the focal length of each
일부 실시예에 의하면, 하나 이상의 이미지캡처장치(122, 124, 126)의 시야는 광각일 수 있다. 예를 들면, 차량(200) 주변 영역의 이미지를 획득하기 위해 사용되는 이미지캡처장치(122, 124, 126)의 시야는 140도일 경우가 유리할 수 있다. 예를 들어, 이미지캡처장치(122)는 차량(200)의 우측 또는 좌측 영역의 이미지를 촬영하기 위해 사용될 수 있고, 이런 환경에서 이미지캡처장치(122)는 넓은 시야(예, 140도 이상)를 가지는 것이 바람직할 수 있다. According to some embodiments, the field of view of one or more
이미지캡처장치(122, 124, 126)의 시야는 각 초점거리에 의거할 수 있다. 예를 들어, 초점거리가 증가하면, 이에 상응하는 시야는 감소한다. The fields of view of
이미지캡처장치(122, 124, 126)는 적합한 시야를 가지도록 구성될 수 있다. 일례에서, 이미지캡처장치(122)의 수평 시야는 46도이고, 이미지캡처장치(124)의 수평 시야는 23도이며, 이미지캡처장치(126)의 수평 시야는 23도 내지 46도일 수 있다. 다른 예에서, 이미지캡처장치(122)의 수평 시야는 52도이고, 이미지캡처장치(124)의 수평 시야는 26도이며, 이미지캡처장치(126)의 수평 시야는 26도 내지 52도일 수 있다. 일부 실시예에서, 이미지캡처장치(122)의 시야 대 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 시야 비율은 1.5 내지 2.0일 수 있다. 다른 실시예에서, 이 비율은 1.25 내지 2.25일 수 있다.
시스템(100)은 이미지캡처장치(126)의 일부 또는 전체 시야가 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 시야와 겹치도록 구성될 수 있다. 일부 실시예에서, 시스템(100)은 이미지캡처장치(124, 126)의 시야가 이미지캡처장치(126)의 시야의 중심에 들어가고(예를 들어, 시야가 좁은 경우) 중심이 서로 맞도록 구성될 수 있다. 다른 실시예에서, 이미지캡처장치(122, 124, 126)는 인접하는 시야를 촬영하거나 인접하는 시야와 부분적으로 겹칠 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126)의 시야는 시야가 좁은 이미지캡처장치(124 및/또는 126)의 중심이 시야가 넓은 이미지캡처장치(122)의 시야의 하부에 배치되도록 정렬될 수 있다.
도 2f는 기재된 실시예에 따른 예시적인 자동차 제어 시스템의 개략도이다. 도 2f에 도시된 바와 같이, 차량(200)은 구동 시스템(220), 제동 시스템(230), 조향 시스템(240)을 포함할 수 있다. 시스템(100)은 하나 이상의 데이터 링크(예, 데이터 송신용 유선 및/또는 무선 링크)를 통하여 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로 입력(예, 제어신호)을 제공할 수 있다. 예를 들어, 이미지캡처장치(122, 124, 126)가 획득한 이미지의 분석에 근거하여, 시스템(100)은 차량(200)을 주행(예, 가속, 회전, 차선 변경 등)하기 위한 제어 신호를 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로 제공할 수 있다. 또한, 시스템(100)은 차량(200)의 작동 상황(예, 속도, 제동 및/또는 회전 여부 등)을 나타내는 입력을 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로부터 수신할 수 있다. 이에 대하여는 도 4 내지 7을 참조하여 하기에 자세히 설명한다. 2F is a schematic diagram of an exemplary vehicle control system in accordance with the disclosed embodiments. As shown in FIG. 2F ,
도 3a에 도시된 바와 같이, 차량(200)은 또한 차량(200)의 운전자 또는 탑승자와 상호 작용하기 위한 사용자 인터페이스(170)를 포함한다. 예를 들어, 차량에 적용된 사용자 인터페이스(170)는 터치스크린(320), 다이얼(330), 버튼(340), 마이크(350)를 포함할 수 있다. 차량(200)의 운전자 혹은 탑승자는 또한 손잡이(예, 차량의 조향축 상 또는 주위에 배치된 방향등 손잡이 등), 버튼(예, 차량의 조향 핸들에 배치된 버튼 등) 등을 사용하여 시스템(100)과 상호 작용할 수도 있다. 일부 실시예에서, 마이크(350)는 백미러(310)에 인접하여 배치될 수 있다. 이와 유사하게, 일부 실시예에서, 이미지캡처장치(122)는 백미러(310) 부근에 배치될 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 또한 하나 이상의 스피커(360: 예, 차량 오디오 시스템의 스피커)도 포함할 수 있다. 예를 들어, 시스템(100)은 스피커(360)를 통하여 다양한 안내(예, 경보)를 제공할 수 있다. As shown in FIG. 3A ,
도 3b 내지 3d는 기재된 실시예에 따른 백미러(예, 310) 뒤의 차량 전면 유리에 위치되도록 구성된 예시적인 카메라 마운트(370)를 도시한 것이다. 도 3b에 도시된 바와 같이, 카메라 마운트(370)는 이미지캡처장치(122, 124, 126)를 포함할 수 있다. 이미지캡처장치(124, 126)는, 차량 전면 유리에 맞닿아 있고 필름 및/또는 반사 방지 물질의 구조를 포함하는, 눈부심 가림막(380) 후면에 배치될 수 있다. 예를 들어, 눈부심 가림막(380)은 차량 전면 유리에 상응하는 기울기를 가지고 차량 전면 유리에 대해 정렬되도록 배치될 수 있다. 일부 실시예에서, 각 이미지캡처장치(122, 124, 126)는 도 3d에 도시된 바와 같이 눈부심 가림막(380)의 후면에 배치될 수 있다. 이미지캡처장치(122, 124, 126)의 하나 이상이 적외선 이미지캡처장치를 포함하는 실시예에서, 이러한 이미지캡처장치는 적외선의 진입이 방해받지 않도록 눈부심 가림막(380)의 전면에 배치될 수(또는 눈부심 가림막(380)이 적외선 이미지캡처장치 전면으로 연장되지 않을 수) 있다. 여기에 기재된 실시예들은 어느 특정한 구성의 이미지캡처장치(122, 124, 126), 카메라 마운트(370), 눈부심 가림막(380)으로 한정되지 않는다. 도 3c는 도 3b에 도시된 카메라 마운트(370)을 정면에서 바라본 예시이다. 3B-3D illustrate an
상기 실시예들은 다양한 변형 및/또는 수정이 가능함을 본 발명의 당업자는 이해할 것이다. 예를 들어, 시스템(100)의 동작을 위하여 모든 구성요소가 반드시 필요한 것은 아니다. 또한, 기재된 실시예들의 기능을 제공하면서, 어느 구성요소라도 시스템(100)의 적합한 부분에 배치할 수 있으며, 구성요소들은 다양한 구성으로 재배치할 수 있다. 따라서, 상기 구성들은 예시에 불과하고, 시스템(100)은 상기 구성들과 무관하게 광범위한 기능을 제공하여 차량(200)의 주변환경을 분석하고 이 분석에 대응하여 차량(200)을 주행제어할 수 있다. Those skilled in the art will understand that the above embodiments are subject to various variations and/or modifications. For example, not all components are necessarily required for operation of
하기의 설명과 기재된 다양한 실시예에 따라, 시스템(100)은 자율 주행 및/또는 운전자 보조 기술과 관련된 다양한 특징을 제공할 수 있다. 예를 들면, 시스템(100)은 이미지 데이터, 적외선 이미지 데이터, 위치 데이터(예, GPS 위치 정보), 지도 데이터, 속도 데이터, 및/또는 차량(200)에 포함된 센서들로부터의 데이터를 분석할 수 있다. 시스템(100)은 분석할 데이터를, 예를 들어, 이미지획득부(120), 위치센서(130), 및 기타 센서들로부터 수집할 수 있다. 또한, 시스템(100)은 수집한 데이터를 분석하여 차량(200)이 특정 동작을 수행해야 할지 여부를 판단한 후, 판단한 동작을 인간의 개입 없이 자동으로 수행할지 여부를 판단할 수 있다. 예를 들어, 차량(200)이 인간의 개입 없이 주행하는 경우, 시스템(100)은 차량(200)의 제동, 가속, 및/또는 조향을 자동으로 제어(예, 구동 시스템(220), 제동 시스템(230), 조향 시스템(240)의 하나 이상에 제어신호를 전송)할 수 있다. 또한, 시스템(100)은 수집된 데이터를 분석하고 이 분석 결과에 따라 차량 탑승자들에게 주의 및/또는 경보를 제공할 수 있다. 시스템(100)이 제공하는 다양한 실시예들에 관해서는 하기에 추가로 설명한다.In accordance with the descriptions and various embodiments described below,
[전방 다중 영상 시스템][Front multi-view system]
상기에 설명한 바와 같이, 시스템(100)은 다중 카메라 시스템을 사용하는 운전 보조 기능을 제공할 수 있다. 다중 카메라 시스템은 차량의 전방을 향하는 하나 이상의 카메라(및/또는 적외선 카메라)를 사용할 수 있다. 다른 실시예에서, 다중 카메라 시스템은 차량의 측방 또는 후방을 향하는 하나 이상의 카메라(및/또는 적외선 카메라)를 포함할 수 있다. 예를 들어, 일 실시예에서, 시스템(100)은 이중 카메라 영상 시스템을 사용하여, 제1 카메라와 제2 카메라(예, 이미지캡처장치(122, 124))가 차량(예, 200)의 전방 및/또는 측방에 배치될 수 있다. 기재된 실시예에 따른 다른 카메라 구성도 있으며, 여기에 기재된 구성은 예시일 뿐이다. 예를 들면, 시스템(100)은 다양한 개수의 카메라(예, 1개, 2개, 3개, 4개, 5개, 6개, 7개, 8개 등) 및 다양한 유형의 카메라 조합(예, 2개의 시각 카메라와 1개의 적외선 카메라, 1개의 시각 카메라와 2개의 적외선 카메라, 2개의 시각 카메라와 2개의 적외선 카메라 등)의 구성을 포함할 수 있다. 나아가, 시스템(100)은 카메라의 "클러스터"를 포함할 수 있다. 예를 들어, 카메라 클러스터(1개, 4개, 8개 등과 같은 다양한 개수의 카메라와 시각, 적외선 등의 적절한 유형의 카메라를 포함함)는 차량의 전방을 향하거나 다른 방향(예, 후방, 측방, 특정 각도 등)을 향하고 있을 수 있다. 이에 따라, 시스템(100)은 복수의 카메라 클러스터를 포함하고, 각 클러스터는 특정 방향을 향하여 차량 주변의 특정 영역으로부터 이미지를 캡처할 수 있다. As described above,
제1 카메라의 시야는 제2 카메라의 시야보다 넓거나, 좁거나, 부분적으로 겹칠 수 있다. 뿐만 아니라, 제1 카메라는 제1 이미지 프로세서와 연결되어 제1 카메라가 제공한 이미지의 단안 이미지(monocular image) 분석을 수행하고, 제2 카메라는 제2 이미지 프로세서와 연결되어 제2 카메라가 제공한 이미지의 단안 이미지(monocular image)분석을 수행할 수 있다. 제1 카메라와 제2 카메라의 하나 이상이 적외선 카메라를 포함하는 실시예에서, 제1 이미지 프로세서 및/또는 제2 이미지 프로세서는 적외선 카메라에 의해 제공된 히트맵의 히트맵 분석을 수행할 수 있다. The field of view of the first camera may be wider, narrower, or partially overlap with the field of view of the second camera. In addition, the first camera is connected to the first image processor to perform monocular image analysis of the image provided by the first camera, and the second camera is connected to the second image processor to perform monocular image analysis of the image provided by the second camera. It can perform monocular image analysis of images. In embodiments where at least one of the first and second cameras includes an infrared camera, the first image processor and/or the second image processor may perform heat map analysis of the heat map provided by the infrared cameras.
제1 및 제2 이미지 프로세서의 출력(예, 처리된 정보)은 합쳐질 수 있다. Outputs (eg, processed information) of the first and second image processors may be combined.
일부 실시예에서, 제2 이미지 프로세서는 제1 및 제2 카메라 모두로부터 이미지를 수신하여 입체 분석을 수행하거나 정렬된 시각 및 적외선 이미지에 대한 분석을 수행할 수 있다. 다른 실시예에서, 시스템(100)은 각 카메라의 시야가 서로 다른 3중 카메라 이미징 시스템을 사용할 수 있다. 따라서, 이런 시스템은 차량의 전방 및 측방의 다양한 거리에 위치한 물체로부터 얻은 정보에 근거한 판단을 내릴 수 있다. 단안 이미지(monocular image)분석이란 단일 시야로부터 촬영한 이미지(예, 단일 카메라에서 캡처한 이미지)에 근거하여 이미지 분석을 수행하는 경우를 말할 수 있다. 입체 이미지 분석이란 하나 이상의 이미지 캡처 파라미터로 캡처한 두 개 이상의 이미지에 근거하여 이미지 분석을 수행하는 경우를 말할 수 있다. In some embodiments, the second image processor may receive images from both the first and second cameras to perform stereoscopic analysis or to perform analysis on aligned visual and infrared images. In another embodiment,
예를 들면, 입체 이미지 분석에 적합한 캡처 이미지는 둘 이상의 위치로부터 캡처한 이미지, 서로 다른 시야로부터 캡처한 이미지, 서로 다른 초점 거리를 사용하여 캡처한 이미지, 시차 정보에 따라 캡처한 이미지 등을 포함할 수 있다. 하이브리드 이미지 분석은 하나 이상의 시각 이미지가 하나 이상의 적외선 이미지와 정렬되고 이 정렬된 이미지에 기반을 두어 이미지 분석이 수행되는 경우를 말할 수 있다. 예를 들어, 일 실시예에서, 시스템(100)은 이미지캡처장치(122, 124, 126)를 사용하여 3중 카메라 구성을 구현할 수 있다. 이런 구성에서, 이미지캡처장치(122)는 좁은 시야(예, 34도, 또는 약 20 내지 45도 범위에서 선택한 시야)를 제공할 수 있고, 이미지캡처장치(124)는 광시야(예, 150도 또는 약 100 내지 180도 범위에서 선택한 시야)를 제공할 수 있으며, 이미지캡처장치(126)는 중간 시야(예, 46도 또는 약 35 내지 60도 범위에서 선택한 시야)를 제공할 수 있다. 일부 실시예에서, 이미지캡처장치(126)는 주 카메라 역할을 할 수 있다. 이미지캡처장치(122, 124, 126)는 백미러(310) 후면에 배치되고 실질적으로 서로 나란히(예, 6cm 간격으로) 배치될 수 있다. 또한, 상기에 설명한 바와 같이, 일부 실시예에서, 하나 이상의 이미지캡처장치(122, 124, 126)는 차량(200)의 전면 유리에 맞닿아 있는 눈부심 가림막(380) 뒤에 탑재될 수 있다. 이러한 가림막은 차량 내부로부터의 반사가 이미지캡처장치(122, 124, 126)에 끼치는 영향을 최소화할 수 있다.For example, captured images suitable for stereoscopic image analysis may include images captured from two or more locations, images captured from different views, images captured using different focal lengths, images captured according to parallax information, and the like. can Hybrid image analysis may refer to cases where one or more visual images are aligned with one or more infrared images and image analysis is performed based on the aligned images. For example, in one embodiment,
다른 실시예에서, 상기에 도 3b 내지 3c를 참조하여 설명한 바와 같이, 광시야 카메라(예, 상기 예에서의 이미지캡처장치(124))는 좁은 시야 카메라와 주 시야 카메라(예, 상기 예에서의 이미지캡처장치(122, 126)보다 낮은 위치에 탑재될 수 있다. 이런 구성은 광시야 카메라로부터 탁 트인 시선을 제공할 수 있다. 반사를 줄이기 위하여, 카메라들은 차량(200)의 전면 유리 가까이 탑재될 수 있고, 반사광을 완화하기 위하여 편광판을 포함할 수 있다. In another embodiment, as described above with reference to FIGS. 3B-3C , a wide-field camera (e.g.,
3중 카메라 시스템은 특정 성능을 제공할 수 있다. 예를 들면, 일부 실시예는 한 카메라가 검출한 물체에 대해 다른 카메라의 검출 결과에 근거하여 검증하는 능력을 포함할 수 있다. 상기에 설명한 3중 카메라 구성에서, 처리부(110)는 예를 들어 3개의 처리 장치(예, 3개의 EyeQ 시리즈 프로세서 칩)를 포함하고, 각 처리 장치는 하나 이상의 이미지캡처장치(122, 124, 126)가 캡처한 이미지를 전용으로 처리할 수 있다. A three-camera system may provide certain capabilities. For example, some embodiments may include the ability to verify objects detected by one camera based on detections of other cameras. In the triple camera configuration described above, processing
3중 카메라 시스템에서, 제1 처리 장치는 주 카메라와 좁은 시야 카메라로부터 이미지를 수신하고, 좁은 시야 카메라의 비전 처리를 수행하여, 예를 들어, 다른 차량, 보행자, 차선 표시, 교통 표지, 신호등, 기타 도로 상의 물체 등을 검출할 수 있다. 나아가, 제1 처리 장치는 주 카메라와 좁은 시야 카메라 사이의 픽셀 차이를 산출하여 차량(200) 주변 환경의 3차원 재구성을 생성한 후, 3차원 재구성을 3차원 지도 데이터 또는 다른 카메라로부터 수신한 정보에 근거하여 계산한 3차원 정보와 조합할 수 있다. In a triple camera system, the first processing unit receives images from the main camera and the narrow field of view camera, and performs vision processing of the narrow field of view camera, such as other vehicles, pedestrians, lane markings, traffic signs, traffic lights, Other objects on the road can be detected. Furthermore, the first processing unit generates a 3D reconstruction of the surrounding environment of the
제2 처리 장치는 주 카메라로부터 이미지를 수신하고, 비전 처리를 수행하여 다른 차량, 보행자, 차선 표시, 교통 표지, 신호등, 기타 도로 상의 물체 등을 검출할 수 있다. 뿐만 아니라, 제2 처리 장치는 카메라 변위를 계산하고, 계산된 변위에 근거하여 연속된 이미지 사이의 픽셀 차이를 계산하여 장면(예, 동작의 구조)의 3차원 재구성을 생성할 수 있다. 제2 처리 장치는 3차원 재구성에 근거한 동작의 구조를 제1 처리 장치에 전송하여 3차원 입체 이미지와 조합할 수 있다. The second processing unit may receive images from the main camera and perform vision processing to detect other vehicles, pedestrians, lane markings, traffic signs, traffic lights, and other objects on the road. In addition, the second processing unit may generate a 3D reconstruction of the scene (eg, motion structure) by calculating the camera displacement and calculating pixel differences between successive images based on the calculated displacement. The second processing device may transmit the motion structure based on the 3D reconstruction to the first processing device and combine it with the 3D stereoscopic image.
제3 처리 장치는 광시야 카메라로부터 이미지를 수신하고 처리하여 차량, 보행자, 차선 표시, 교통 표지, 기타 도로 상의 물체 등을 검출할 수 있다. 제3 처리 장치는 또한 이미지 분석을 위한 추가 처리 명령을 수행하여 차선을 변경하는 차량, 보행자 등과 같은 이미지 내의 움직이는 물체를 식별할 수 있다. A third processing unit may receive and process images from the wide-field camera to detect vehicles, pedestrians, lane markings, traffic signs, and other objects on the road. The third processing unit may also perform additional processing instructions for image analysis to identify moving objects in the image, such as vehicles changing lanes, pedestrians, and the like.
일부 실시예에서, 이미지 기반 정보의 스트림을 독립적으로 확보하고 처리함으로써, 시스템상의 중복성을 제공할 수 있다. 여기서, 중복성은, 예를 들면, 제1 이미지캡처장치와 이 장치로부터 처리된 이미지를 사용하여 적어도 제2 이미지캡처장치로부터 이미지 정보를 캡처하고 처리하여 획득된 정보를 검증 및/또는 보완하는 것을 포함할 수 있다. In some embodiments, streams of image-based information may be obtained and processed independently, providing redundancy on the system. Here, redundancy includes, for example, using a first image capture device and images processed from the device to capture and process image information from at least a second image capture device to verify and/or supplement information obtained. can do.
일부 실시예에서, 시스템(100)은 2개의 이미지캡처장치(예, 122, 124)를 사용하여 차량(200)의 주행제어 지원을 제공하고 제3 이미지캡처장치(예, 126)을 사용하여 상기 2개의 이미지캡처장치로부터 수신한 데이터의 분석 결과의 중복성 및 검증을 제공할 수 있다. 예를 들면, 이런 구성에서, 이미지캡처장치(122, 124)는 차량(200)의 주행을 위해 시스템(100)에 의한 입체 분석을 위한 이미지를 제공하고, 이미지캡처장치(126)는 시스템(100)에 의한 단안 분석을 위한 이미지를 제공하여 이미지캡처장치(122 및/또는 126)가 캡처한 이미지에 근거하여 확보한 정보의 중복성 및 검증을 제공할 수 있다. 즉, 이미지캡처장치(126)(및 상응하는 처리장치)는 이미지캡처장치(122, 124)로부터 얻은 분석에 대한 확인을 제공(예, 자동긴급제동(AEB, automatic emergency braking) 제공) 하기 위한 중복 서브시스템을 제공하는 것으로 간주될 수 있다. 나아가, 일부 실시예에서, 수신 데이터의 중복성 및 검증은 하나 이상의 센서(예, 레이더, 라이더, 음향 센서, 차량 외부의 하나 이상의 송수신기로부터 수신한 정보 등)로부터 수신된 정보에 근거하여 보완될 수 있다. In some embodiments,
상기 카메라의 구성, 배치, 개수, 위치 등은 예시에 불과하다는 것을 당업자는 인식할 수 있을 것이다. 전체적인 시스템과 연관하여 설명하는 이러한 구성요소들과 기타 구성요소들은 기재된 실시예들의 범위를 벗어나지 않고 다양한 구성으로 조합되고 사용될 수 있다. 운전자 보조 및/또는 자율 주행 기능을 제공하기 위한 다중 카메라 시스템의 사용과 관련된 내용은 하기에 설명한다. Those skilled in the art will be able to recognize that the configuration, arrangement, number, position, etc. of the cameras are only examples. These and other components described in connection with the overall system may be combined and used in various configurations without departing from the scope of the described embodiments. Details related to the use of multi-camera systems to provide driver assistance and/or autonomous driving functions are discussed below.
도 4는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에는 메모리(140)에 관하여 설명하지만, 명령이 메모리(140) 및/또는 메모리(150)에 저장될 수 있음은 당업자에게 당연할 것이다.4 is an exemplary functional configuration diagram of
도 4에 도시된 바와 같이, 메모리(140)는 단안 이미지(monocular image)분석 모듈(402), 입체 이미지 분석 모듈(404), 속도 및 가속 모듈(406), 주행 반응 모듈(408)을 저장할 수 있다. 여기에 기재된 실시예들은 메모리(14)의 어느 특정 구성으로 한정되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 영상 프로세서(190)는 메모리(140)에 포함된 모든 모듈(420, 404, 406, 408)에 저장된 명령을 실행할 수 있다. 본 발명의 기술분야의 당업자라면 하기의 설명에서 처리부(110)란 애플리케이션 프로세서(180) 및/또는 영상 프로세서(190)를 개별적으로 또는 총괄하여 지칭할 수 있다는 것을 이해할 것이다. 이에 따라, 하기에 설명한 과정의 단계들은 하나 이상의 처리 장치에 의해 수행될 수 있다. As shown in FIG. 4 , the
일 실시예에서, 단안 이미지(monocular image)분석 모듈(402)은, 처리부(110)에 의해 실행될 경우 이미지캡처장치(122, 124, 126) 중의 하나가 확보한 이미지 세트(set)의 단안 이미지(monocular image)분석을 수행하는, 명령(예, 컴퓨터 시각 소프트웨어)을 저장할 수 있다. 일부 실시예에서, 처리부(110)는 이미지 세트(set)의 정보를 추가 감지 정보(예, 레이더, 라이더 등으로부터 얻은 정보)와 병합하여 단안 이미지(monocular image)분석을 수행할 수 있다. 하기에 도 5a 내지 5d를 참조하여 설명하겠지만, 단안 이미지(monocular image)분석 모듈(402)은 차선 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 위험 물체, 및 차량의 주변환경과 연관된 기타 특성 등과 같은 특징들을 이미지 세트(set) 내에서 검출하기 위한 명령을 포함할 수 있다. 시스템(100)은 이 분석에 근거하여, 예를 들어 처리부(110)를 통하여, 차량(200)의 회전, 차선 변경, 가속 변화 등과 같은 하나 이상의 주행 반응을 야기할 수 있으며, 이에 대해서는 하기에 주행 반응 모듈(408)에서 설명한다. In one embodiment, the monocular
일 실시예에서, 입체 이미지 분석 모듈(404)은, 처리부(110)에 의해 실행될 경우 이미지캡처장치(122, 124, 126) 중에서 선택된 이미지캡처장치의 조합에 의해 확보된 제1 및 제2 이미지 세트(set)의 입체 이미지 분석을 수행하는, 명령(예, 컴퓨터 비전 소프트웨어)을 저장할 수 있다. 일부 실시예에서, 처리부(110)는 제1 및 제2 이미지 세트(set)의 정보를 추가 감지 정보(예, 레이다로부터 얻은 정보)와 병합하여 입체 이미지 분석을 수행할 수 있다. 예를 들어, 입체 이미지 분석 모듈(404)은 이미지캡처장치(124)가 확보한 제1 이미지 세트(set)와 이미지캡처장치(126)가 확보한 제2 이미지 세트(set)에 근거하여 입체 이미지 분석을 수행하기 위한 명령을 포함할 수 있다. 하기에 도 6을 참조하여 설명하겠지만, 입체 이미지 분석 모듈(404)은 차선 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 위험 물체, 및 차량의 주변환경과 연관된 기타 특성 등과 같은 특징들을 제1 및 제2 이미지 세트(set) 내에서 검출하기 위한 명령을 포함할 수 있다. 처리부(110)는 이 분석에 근거하여 차량(200)의 회전, 차선 변경, 가속 변화 등과 같은 하나 이상의 주행 반응을 야기할 수 있으며, 이에 대해서는 하기에 주행 반응 모듈(408)에서 설명한다. 나아가, 일부 실시예에서, 입체 이미지 분석 모듈(404)은, 감지 정보가 캡처 되고 처리된 환경 내에서 물체를 컴퓨터 비전 알고리즘을 사용하여 검출 및/또는 표식하도록 구성될 수 있는 시스템과 같은, 학습 시스템(신경망 또는 심층 신경망과 같은) 또는 비학습 시스템과 관련된 방식을 구현할 수 있다. 일 실시예에서, 입체 이미지 분석 모듈(404) 및/또는 기타 이미지 처리 모듈은 학습 시스템과 비학습 시스템의 조합을 활용하도록 구성될 수 있다. In one embodiment, stereo
일 실시예에서, 속도 및 가속 모듈(406)은 차량(200)의 속도 및/또는 가속 변화를 야기하도록 구성된 차량(200)에 구비된 하나 이상의 컴퓨팅 및 기전 장치로부터 수신한 데이터를 분석하도록 구성된 소프트웨어를 저장할 수 있다. 예를 들어, 처리부(110)는 속도 및 가속 모듈(406)과 연계된 명령을 수행함으로써 단안 이미지(monocular image)분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)을 실행하여 얻은 데이터에 근거하여 차량(200)의 목표 속도를 산출할 수 있다. 상기 데이터는 예를 들어 목표 위치, 속도, 및/또는 가속, 부근의 차량, 보행자 또는 도로 상의 물체에 대한 차량(200)의 위치 및/또는 속도, 도로의 차로 표시에 대한 차량(200)의 위치 정보 등을 포함할 수 있다. 또한, 처리부(110)는 감지 입력(예, 레이더로부터 얻은 정보) 및 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)과 같은 기타 시스템의 입력에 근거하여 차량(200)의 목표 속도를 산출할 수 있다. 산출된 목표 속도에 근거하여, 처리부(110)는 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)으로 전자 신호를 전송하여, 예를 들면, 물리적으로 차량(200)의 브레이크 페달을 누르거나 가속 페달을 감압하여 속도 및/또는 가속의 변화를 일으킬 수 있다.In one embodiment, speed and
일 실시예에서, 주행 반응 모듈(408)은 단안 이미지(monocular image)분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)을 실행하여 얻은 데이터에 근거하여 필요한 주행 반응을 판단하기 위하여 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 상기 데이터는 부근의 차량, 보행자, 및 도로 상의 물체에 대한 위치 및 속도, 차량(200)의 목표 위치 정보 등을 포함할 수 있다. 뿐만 아니라, 일부 실시예에서, 주행 반응은 지도 데이터, 미리 설정한 차량(200)의 위치, 및/또는 단안 이미지(monocular image)분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)을 실행하여 얻은 차량(200)과 하나 이상의 물체 사이의 상대 속도 또는 상대 가속에 부분적으로 또는 전적으로 근거할 수 있다. 주행 반응 모듈(408)은 또한 감지 입력(예, 레이더로부터 얻은 정보) 및 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)과 같은 기타 시스템의 입력에 근거하여 필요한 주행 반응을 판단할 수 있다. 필요한 주행 반응에 근거하여, 처리부(110)는 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)으로 전자 신호를 전송하여, 예를 들면, 차량(200)의 조향 핸들을 회전하여 미리 설정한 각도의 회전을 유도함으로써 필요한 주행 반응을 일으킬 수 있다. 일부 실시예에서, 처리부(110)는 주행 반응 모듈(408)의 출력(예, 필요 주행 반응)을 차량(200)의 속도 변경을 산출하기 위한 속도 및 가속 모듈(406)의 실행을 위한 입력으로 사용할 수 있다. In one embodiment, the
나아가, 여기에 기재된 일체의 모듈(예, 402, 404, 406)은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연관된 방식을 구현할 수 있다. Furthermore, any of the modules described herein (eg, 402, 404, 406) may implement a learning system (eg, a neural network or a deep neural network) or a method associated with a non-learning system.
도 5a는 기재된 실시예에 따른 단안 이미지(monocular image)분석에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(500a)을 도시한 순서도이다. 단계 510에서, 처리부(110)는 처리부(110)와 이미지획득부(120) 사이의 데이터 인터페이스(128)를 통하여 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)에 포함된 카메라(예, 시야(202)를 가진 이미지캡처장치(122))는 차량(200)의 전방 영역(또는 측방 또는 후방 영역)의 복수의 이미지를 캡처하고 이 이미지를 데이터 연결(예, 디지털, 유선, USB, 무선, 블루투스 등)을 통하여 처리부(110)로 전송할 수 있다. 처리부(110)는 단계 520에서 단안 이미지(monocular image)분석 모듈(402)을 실행하여 복수의 이미지를 분석할 수 있다. 이에 대해서는 도 5b 내지 5d를 참조하여 상세히 설명한다. 분석을 수행함으로써, 처리부(110)는 이미지 세트(set)에서 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등 등의 특징들을 검출할 수 있다.5A is a flow chart illustrating an exemplary process 500a for inducing one or more navigational responses based on monocular image analysis in accordance with a disclosed embodiment. In step 510 , the
처리부(110)는 또한 단계 520에서 단안 이미지(monocular image)분석 모듈(402)을 실행하여, 예를 들면, 트럭 타이어 조각, 도로에 떨어진 표지판, 적재 불량 차량, 동물 등의 다양한 도로 상의 위험을 검출할 수 있다. 도로 상의 위험은 그 구조, 모양, 크기, 색 등이 다양하여 이런 위험을 검출하는 것은 더욱 어렵다. 일부 실시예에서, 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 복수의 이미지에 대한 다중 프레임 분석을 수행하여 도로상의 위험을 검출할 수 있다. 예를 들어, 처리부(110)는 연속 프레임 사이의 카메라 움직임을 예측하고 프레임 사이의 픽셀 차이를 계산하여 도로의 3차원 지도를 구축할 수 있다. 이후, 처리부(110)는 3차원 지도를 사용하여 도로면 뿐만 아니라 도로면 상에 존재하는 위험을 검출할 수 있다.
단계 530에서, 처리부(110)는 주행 반응 모듈(408)을 실행하여 단계 520에서 수행한 분석 및 상기에서 도 4를 참조하여 설명한 방법에 근거하여 차량(200)에 하나 이상의 주행 반응을 일으킬 수 있다. 주행 반응은 예를 들어 회전, 차선 변경, 가속 변경 등을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 속도 및 가속 모듈(406)을 실행하여 얻은 데이터를 활용하여 하나 이상의 주행 반응을 야기할 수 있다. 또한, 복수의 주행 반응이 동시에, 순차적으로, 또는 결합된 형태로 일어날 수 있다. 예를 들면, 처리부(110)는 제어 신호를 차량(200)의 조향 시스템(240)과 구동 시스템(220)에 순차적으로 전송하여 차량(200)이 차로를 변경한 후 가속을 하게 할 수 있다. 또는, 처리부(110)는 차량(200)의 제동 시스템(230)과 조향 시스템(240)에 제어 신호를 동시에 전송하여 차량(200)이 제동을 하면서 동시에 차로를 변경하게 할 수 있다. At
도 5b는 기재된 실시예에 따른 이미지 세트(set)에서 하나 이상의 차량 및/또는 보행자를 감지하는 예시적인 과정(500b)을 도시한 순서도이다. 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 이 과정(500b)을 구현할 수 있다. 단계 540에서, 처리부(110)는 차량 및/또는 보행자일 가능성을 나타내는 후보 물체 집단(sets)을 판단할 수 있다. 예를 들어, 처리부(110)는 하나 이상의 이미지를 스캔하고, 이 이미지를 하나 이상의 미리 설정한 패턴과 비교하여, 각 이미지 내에서 관심 물체(예, 차량, 보행자 등)가 있을만한 위치를 파악할 수 있다. 미리 설정한 패턴은 높은 비율의 오탐(false hits)과 낮은 비율의 누락(misses)을 달성하도록 설계될 수 있다. 예를 들어, 처리부(110)는 차량 또는 보행자일 가능성이 있는 후보 물체를 식별하기 위하여 미리 설정한 패턴에 낮은 유사 한계치를 사용할 수 있다. 이 결과, 처리부(110)가 차량 또는 보행자를 나타내는 후보 물체를 놓칠(즉, 식별하지 못할) 확률을 낮출 수 있다. 5B is a flow chart illustrating an exemplary process 500b of detecting one or more vehicles and/or pedestrians in a set of images in accordance with the disclosed embodiments.
단계 542에서, 처리부(110)는 분류 기준에 근거하여 후보 물체 세트(set)를 필터링하여 특정 후보(예, 관련이 없거나 적은 물체)를 제외할 수 있다. 여기서, 기준은 데이터베이스(예, 메모리(140)에 저장된 데이터베이스)에 저장된 물체 유형의 다양한 성질로부터 확보할 수 있다. 여기서, 물체 유형의 성질은 물체의 모양, 크기, 질감, 위치(예, 차량(200)에 대한 위치) 등을 포함할 수 있다. 따라서, 처리부(110)는 하나 이상의 기준을 사용하여 후보 물체 세트(set) 중에서 거짓 후보를 제외시킬 수 있다. At
단계 544에서, 처리부(110)는 이미지의 다중 프레임을 분석하여 후보 물체 세트(set)의 물체가 차량 및/또는 보행자를 나타내는지 여부를 판단할 수 있다. 예를 들면, 처리부(110)는 감지된 후보 물체를 연속 프레임에 걸쳐 추적하여 감지된 물체와 연관된 프레임 별 데이터(예, 차량(200)과 관련된 크기, 위치 등)를 축적할 수 있다. 또한, 처리부(110)는 감지된 물체의 파라미터를 추정하고 물체의 프레임 별 위치 데이터를 예측 위치와 비교할 수 있다. At
단계 546에서, 처리부(110)는 감지된 물체의 측정치 세트(set)를 구성할 수 있다. 여기서, 측정치는 예를 들어 감지된 물체와 연계된 위치, 속도, 및 가속값(예, 차량(200)에 대한 상대적인 가속값)을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 칼만 필터(Kalman filters) 또는 선형 2차 곡선 추정(LQE, linear quadratic estimation) 등과 같은 시간 기준 관찰을 사용한 추정 방법 및/또는 기타 물체 유형(예, 차, 트럭, 보행자, 자전거, 도로 표지 등)에 대한 기존 모델링 데이터에 근거하여 측정치를 구성할 수 있다. 칼만 필터는 물체 크기의 측정치에 근거하고, 크기 측정치는 충돌까지의 시간(예, 차량(200)이 물체에 도달하는 시간)에 비례할 수 있다. 따라서, 단계 540, 542, 544, 546을 수행함으로써, 처리부(110)는 캡처 된 이미지 세트(set) 내에 등장하는 차량과 보행자를 식별하고 이 차량과 보행자와 관련된 정보(예, 위치, 속도, 크기)를 도출할 수 있다. 식별된 내용과 도출한 정보에 근거하여, 처리부(110)는 상기에서 도 5a를 참조하여 설명한 바와 같이, 차량(200)이 하나 이상의 주행 반응을 하도록 할 수 있다.At
단계 548에서, 처리부(110)는 하나 이상의 이미지에 대한 광류(optical flow) 분석을 수행하여 차량 또는 보행자를 나타내는 후보 물체에 대한 오탐과 누락 확률을 낮출 수 있다. 여기서, 광류 분석이란, 예를 들어, 다른 차량과 보행자와 관련된 하나 이상의 이미지에서 차량(200)에 대한, 그리고 도로 표면 움직임과 다른, 동작 패턴을 분석하는 것을 의미할 수 있다. 처리부(110)는 후보 물체의 움직임을 계산하기 위하여 위치값 및 시간값을 수학적 모델의 입력으로 사용할 수 있다. 따라서, 광류 분석은 차량(200)에 근접한 차량과 보행자를 감지하는 또 다른 방법을 제공할 수 있다. 처리부(110)는 광류 분석을 단계 540, 542, 544, 546과 함께 수행함으로써 차량과 보행자를 탐지하는 중복성을 제공하고 시스템(100)의 신뢰도를 향상시킬 수 있다. At
도 5c는 기재된 실시예에 따른 이미지 세트(set)에서 도로 표지 및/또는 차선 형상 정보를 검출하는 과정(500C)의 일례를 예시한 순서도이다. 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 본 과정(500C)을 구현할 수 있다. 단계 550에서, 처리부(110)는 하나 이상의 이미지를 스캔하여 물체 세트(set)를 검출할 수 있다. 차선 표시의 일부분, 차선 형상 정보, 및 기타 해당 도로 표지를 검출하기 위하여, 처리부(110)는 물체 세트(set)를 필터링하여 관련 없는 것으로 판단된 물체(예, 대수롭지 않은 포트홀, 자갈 등)를 제외시킬 수 있다. 단계 552에서, 처리부(110)는 동일 도로 표지 또는 차선 표시에 해당하는 단계 550에서 감지된 조각들을 함께 묶을 수 있다. 이러한 묶음에 근거하여, 처리부(110)는 검출된 조각들을 나타낼 모델, 예를 들면, 수학적 모델을 생성할 수 있다. 5C is a flowchart illustrating an example of a
단계 554에서, 처리부(110)는 감지된 조각들에 상응하는 측정치 세트(set)를 구성할 수 있다. 일부 실시예에서, 처리부(110)는 감지된 조각들을 이미지 면으로부터 실세계 면(real-world plane)으로 투영할 수 있다. 여기서, 투영은 감지된 도로의 위치, 경사, 곡률, 및 곡률 미분 등과 같은 물리적 성질에 상응하는 계수를 가진 3차 다항식을 사용하는 특징이 있을 수 있다. 투영을 생성할 때, 처리부(110)는 도로면의 변화뿐만 아니라 차량(200)의 피치(pitch)와 롤(roll) 비율을 고려할 수 있다. 또한, 처리부(110)는 도로면에 존재하는 위치 및 모션 신호를 분석하여 도로의 높낮이를 추정할 수 있다. 나아가, 처리부(110)는 하나 이상의 이미지의 특징점 세트(set)을 추적하여 차량(200)의 피치 및 롤 비율을 추정할 수 있다. At
단계 556에서, 처리부(110)는 예를 들어 검출된 조각들을 연속 이미지 프레임에 걸쳐 추적하고 검출된 조각과 관련된 프레임 별 데이터를 축적하여 다중 프레임 분석을 수행할 수 있다. 처리부(110)가 다중 프레임 분석을 수행함에 따라, 단계 554에서 구성된 측정치 세트(set)는 더욱 신뢰할 수 있게 되고 더욱 높은 신뢰 수준을 갖게 된다. 따라서, 단계 550 내지 556을 수행함으로써, 처리부(110)는 캡처 된 이미지 세트(set) 내에 등장하는 도로 표지를 식별하고 차선 형상 정보를 도출할 수 있게 된다. 이러한 식별과 도출된 정보에 근거하여, 처리부(110)는, 상기에서 도 5a를 참조하여 설명한 바와 같이, 차량(200)이 주행 반응을 취하게 할 수 있다. At
단계 558에서, 처리부(110)는 추가 정보를 고려하여 차량(200) 주변에 관한 안전 모델을 생성할 수 있다. 처리부(110)는 안전 모델을 사용하여 시스템(100)이 차량(200)의 자율 제어를 안전하게 할 수 있는 환경을 정의할 수 있다. 일부 실시예에서, 안전 모델을 생성하기 위하여, 처리부(100)는 다른 차량의 위치와 움직임, 검출된 도로 에지 및 장벽, 및/또는 지도 데이터(예, 지도 데이터베이스(160)의 데이터)에서 추출한 일반적인 도로 형상 설명을 고려할 수 있다. 추가 정보를 고려함으로써, 처리부(110)는 도로 표지 및 차선 형상에 대한 중복성을 제공하고 시스템(100)의 신뢰도를 향상시킬 수 있다. At
도 5d는 기재된 실시예에 따른 영상 세트(set)에서 신호등을 감지하는 예시적인 과정(500D)을 도시한 순서도이다. 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 본 과정(500D)을 구현할 수 있다. 단계 560에서, 처리부(110)는 이미지 세트(set)를 스캔하고 신호등 포함 가능성이 있는 이미지의 위치에 나타나는 물체를 식별한다. 예를 들면, 처리부(110)는 식별된 물체를 필터링하여 신호등에 상응할 가능성이 없는 물체들을 제외한 후보 물체 세트(set)를 구성할 수 있다. 필터링은 신호등의 모양, 크기, 질감, 위치(예, 차량(200)에 대한 상대적 위치) 등의 다양한 성질에 근거하여 수행될 수 있다. 이러한 성질은 데이터베이스에 저장된 신호등과 교통 제어 신호에 대한 복수의 예에 근거할 수 있다. 일부 실시예에서, 처리부(110)는 신호등 가능성이 있는 후보 물체 세트(set)에 대한 다중 프레임 분석을 수행할 수 있다. 예를 들어, 처리부(110)는 연속 이미지 프레임에 걸쳐 후보 물체를 추적하고, 후보 물체의 실세계 위치를 추정하고, 움직이는 물체(즉, 신호등일 가능성이 적은 물체)를 필터링할 수 있다. 일부 실시예에서, 처리부(110)는 후보 물체에 대한 색 분석을 실시하고 신호등 가능성이 있는 물체 내부에서 감지된 색의 상대 위치를 식별할 수 있다. 5D is a flowchart illustrating an exemplary process 500D for detecting traffic lights in a set of images according to the disclosed embodiments. The
단계 562에서, 처리부(110)는 교차로의 기하를 분석할 수 있다. 이 분석은 (i) 차량(200) 양측에 검출된 차선의 수, (ii) 도로상에 검출된 표시(화살표 등), (iii) 지도 데이터(예, 데이터베이스(160)에 저장된 지도 데이터)에서 추출된 교차로 설명의 조합에 근거하여 수행될 수 있다. 처리부(110)는 단안 분석 모듈(402)을 실행하여 도출한 정보를 이용하여 분석을 수행할 수 있다. 또한, 처리부(110)는 단계 560에서 감지된 신호등이 차량(200) 부근에 보이는 차선과 상응하는지 판단할 수 있다. At
차량(200)이 교차로에 접근함에 따라, 단계 564에서, 처리부(110)는 분석된 교차로 기하와 검출된 신호등에 관한 신뢰 수준을 업데이트 할 수 있다. 예를 들어, 교차로에 나타날 것으로 추정된 신호등의 수와 실제로 교차로에 나타난 신호등의 수를 비교하면 신뢰 수준을 파악할 수 있다. 따라서, 이 신뢰 수준에 근거하여, 처리부(110)는 안전 조건을 향상하기 위하여 차량(200)의 제어를 운전자에게 맡길 수 있다. 단계 560, 562, 564를 수행함으로써, 처리부(110)는 캡처 된 이미지 세트(set) 내에 나타나는 신호등을 식별하고 교차로 기하 정보를 분석할 수 있다. 이러한 식별과 분석을 근거로, 처리부(110)는 상기에 도 5a를 참조하여 설명한 하나 이상의 주행 반응을 차량(200)이 하도록 할 수 있다. As
도 5e는 기재된 실시예에 따른 차량 경로에 근거한 하나 이상의 주행 반응을 차량(200)에 야기하는 예시적인 과정(500E)을 도시한 순서도이다. 단계 570에서, 처리부(110)는 차량(200)의 초기 차량 경로를 구성할 수 있다. 차량 경로는 좌표 (x, z)로 표현되는 점의 세트(set)로 나타낼 수 있고, 점의 세트(set)의 두 점 간의 간격인 d i 는 1 내지 5 미터의 범위 내에 있을 수 있다. 일 실시예에서, 처리부(110)는 좌측 도로 다항식과 우측 도로 다항식과 같은 두 개의 다항식을 사용하여 초기 차량 경로를 구성할 수 있다. 처리부(110)는 두 개의 다항식 사이의 중간점을 계산하고, 오프셋이 있는 경우(오프셋이 0인 경우는 차선 중앙 주행에 해당함), 차량 경로 결과에 포함된 각 점을 미리 설정한 오프셋(예, 스마트 차선 오프셋)만큼 오프셋 할 수 있다. 오프셋은 차량 경로 내의 두 점 사이의 구간에 수직인 방향일 수 있다. 다른 실시예에서, 처리부(110)는 하나의 다항식과 추정된 차선 폭을 사용하여 차량 경로의 각 점을 추정된 차선 폭에 미리 설정한 오프셋(예, 스마트 차선 오프셋)을 더한 값만큼 오프셋 할 수 있다.FIG. 5E is a flowchart illustrating an
단계 572에서, 처리부(110)는 단계 570에서 구성한 차량 경로를 업데이트 할 수 있다. 처리부(110)는 단계 570에서 구성한 차량 경로를 더 높은 해상도를 사용하여 재구성하여 차량 경로를 나타내는 점의 세트(set)의 두 점 사이의 거리 d k 가 상기에 설명한 거리 d i 보다 작도록 할 수 있다. 예를 들어, d k 는 0.1 내지 0.3 미터의 범위 내에 있을 수 있다. 처리부(110)는 차량 경로의 전체 길이에 해당하는(즉, 차량 경로를 나타내는 점들의 세트(set)에 근거한) 누적 거리 벡터 S를 산출하는 파라볼릭 스플라인 알고리즘(parabolic spline algorithm)을 사용하여 차량 경로를 재구성할 수 있다. At
단계 574에서, 처리부(110)는 단계 572에서 구성된 업데이트된 차량 경로에 근거하여 예견점(look-ahead point)(좌표 (x l , z l )로서 표현)을 결정할 수 있다. 처리부(110)는 누적 거리 벡터 S로부터 예견점을 추출할 수 있고, 예견점은 예견 거리 및 예견 시간과 연계될 수 있다. 하한계가 10 내지 20미터일 수 있는 예견 거리는 차량(200)의 속도와 예견 시간을 곱한 값으로 산출될 수 있다. 예를 들어, 차량(200)의 속도가 감소하면, 예견 거리도 감소(예, 하한계에 도달할 때까지)할 수 있다. 범위가 0.5 내지 1.5초일 수 있는 예견 시간은 차량(200)에 주행 반응을 유도하는 것과 관계있는 하나 이상의 제어 루프(control loop)(예, 방위각 오차 추적 제어 루프)의 게인(gain)에 반비례할 수 있다. 예를 들어, 방위각 오차 추적 제어 루프의 게인은 요 레이트(yaw rate) 루프(yaw rate loop)의 대역폭, 조향 액추에이터 루프, 차량 측 방향 동역학 등에 따라 다를 수 있다. 따라서, 방위각 오차 추적 제어 루프의 게인이 클수록, 예견 시간은 작아질 수 있다. At
단계 576에서, 처리부(110)는 단계 574에서 판단한 예견점에 근거하여 방위각 오차 및 요 레이트(yaw rate) 명령을 결정할 수 있다. 처리부(110)는 예견점의 역탄젠트, 예를 들어 arctan(x l / z l )를 산출하여 결정할 수 있다. 처리부(110)는 방위각 오차와 고레벨 제어 게인의 곱을 산출하여 요 레이트(yaw rate) 명령을 결정할 수 있다. 고레벨 제어 게인은, 예견 거리가 하한계에 있지 않은 경우, (2 / 예견 시간)과 같을 수 있다. 아니면, 고레벨 제어 게인은 (2 * 차량 속도 / 예견 거리)와 같을 수 있다.At
도 5f는 기재된 실시예에 따른 선두 차량이 차선 변경을 하는지를 판단하는 예시적인 과정(500F)을 도시한 순서도이다. 단계 580에서, 처리부(110)는 선두 차량(예, 차량(200)에 앞서 주행하는 차량)에 대한 주행 정보를 판단할 수 있다. 예를 들면, 처리부(110)는, 상기의 도 5a와 도 5b를 참조하여 설명한 방법을 활용하여 선두 차량의 위치, 속도(예, 방향과 속력), 및/또는 가속도를 판단할 수 있다. 처리부(110)는 또한 상기의 도 5e를 참조하여 설명한 방법을 활용하여 하나 이상의 도로 다항식, 예견점(차량(200)과 관련된 예견점), 및/또는 스네일 트레일(snail trail: 선두 차량의 경로를 묘사하는 점의 세트(set))을 판단할 수 있다. 5F is a flowchart illustrating an
단계 582에서 처리부(110)는 단계 580에서 판단한 주행 정보를 분석할 수 있다. 일 실시예에서, 처리부(110)는 스네일 트레일과 도로 다항식(예, 스네일 트레일을 따라가는 다항식) 사이의 거리를 계산할 수 있다. 스네일 트레일을 따라가는 거리의 분산이 미리 설정한 임계치(예, 직선 도로에서 0.1 내지 0.2, 완만한 커브길에서 0.3 내지 0.4, 급커브길에서 0.5 내지 0.6)를 초과하는 경우, 처리부(110)는 선두 차량이 차선 변경 가능성이 있는 것으로 판단할 수 있다. 차량(200)의 앞에 여러 차량이 검출된 경우, 처리부(110)는 각 차량의 스네일 트레일을 비교할 수 있다. 처리부(110)는 비교 결과에 근거하여 다른 차량들의 스네일 트레일과 일치하지 않는 스네일 트레일의 차량이 차선 변경의 가능성이 있는 것으로 판단할 수 있다. 처리부(110)는 추가적으로 선두 차량의 스네일 트레일의 곡률과 선두 차량이 주행하고 있는 도로 구간의 예상 곡률을 비교할 수 있다. 예상 곡률은 지도 데이터(예, 데이터베이스(16)의 데이터), 도로 다항식, 다른 차량의 스네일 트레일, 도로에 대한 사전 지식 등으로부터 추출될 수 있다. 스네일 트레일의 곡률과 도로 구간의 예상 곡률의 차이가 미리 설정된 임계치를 초과하는 경우, 처리부(110)는 선두 차량이 차선 변경을 하고있을 가능성이 있는 것으로 판단할 수 있다. In
다른 실시예에서, 처리부(110)는 특정 시간(예, 0.5 내지 1.5초)에 대한 선두 차량의 순간 위치와 예견점(차량(200)의 예견점)을 비교할 수 있다. 특정 시간 동안에 선두 차량의 순간 위치와 예견점 사이의 거리가 변화하고 변화의 누적 합이 미리 설정한 임계치(예, 직선도로 상 0.3 내지 0.4 미터, 완만한 커브길의 0.7 내지 0.8 미터, 급커브길의 1.3 내지 1.8 미터)를 초과할 경우, 처리부(110)는 선두 차량이 차선 변경을 하고있을 가능성이 있는 것으로 판단할 수 있다. 다른 실시예에서, 처리부(110)는 스네일 트레일을 따라 주행한 횡방향 거리와 스네일 트레일의 예상 곡률을 비교하여 스네일 트레일의 기하를 분석할 수 있다. 예상 곡률 반경은 수학식 을 통하여 판단할 수 있다. 여기서, 는 횡방향 주행 거리이고, 는 종방향 주행 거리이다. 횡방향 주행 거리와 예상 곡률 사이의 차이가 미리 설정한 임계치(예, 500 내지 700미터)를 초과하는 경우, 처리부(110)는 선두 차량이 차선 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 다른 실시예에서, 처리부(110)는 선두 차량의 위치를 분석할 수 있다. 선두 차량의 위치가 도로 다항식을 안 보이게 하는 경우(예, 선두 차량이 도로 다항식의 상부에 덮어씌워 있는 경우), 처리부(110)는 선두 차량이 차선 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 다른 차량이 선두 차량의 앞에 검출되고 선두 차량과 앞 차량의 스네일 트레일이 서로 평행하지 않은 경우, 처리부(110)는 선두 차량(즉, 차량(200)과 가까운 차량)이 차선 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. In another embodiment, processing
단계 584에서, 처리부(110)는 단계 582에서 수행한 분석에 근거하여 선두 차량의 차선 변경 여부를 판단할 수 있다. 예를 들어, 처리부(110)는 단계 582에서 수행한 개별 분석의 가중 평균에 근거하여 판단을 할 수 있다. 이 방법에서, 예를 들면, 특정 유형의 분석에 근거하여 선두 차량이 차선 변경을 하고 있을 가능성이 있다는 판단을 처리부(110)가 내릴 경우, "1"의 값을 부여할 수 있다(선두 차량이 차선 변경을 하지 않고 있을 가능성 판단일 경우, "0"의 값 부여). 단계 582에서 수행되는 다른 분석에는 다른 가중치가 부여될 수 있으며, 본 실시예는 특정 조합의 분석 및 가중치에 한정되지 않는다. 나아가, 일부 실시예에서, 예를 들어 현 위치에서 캡처 된 이미지에 기반을 두어 차량의 현 위치 전방의 향후 경로를 추정할 수 있는, 학습 시스템(예, 머신러닝 시스템 또는 딥러닝 시스템)을 활용할 수 있다. At
도 6은 기재된 실시예에 따른 입체 이미지 분석에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(600)을 도시한 순서도이다. 단계 610에서, 처리부(110)는 복수의 제1 및 제2 이미지를 데이터 인터페이스(128)를 통하여 수신할 수 있다. 예를 들면, 이미지획득부(120, 시야(202, 204)를 가진 이미지캡처장치(122, 124) 등)에 포함된 카메라가 차량(200) 전면 영역의 복수의 제1 및 제2 이미지를 캡처하고 디지털 연결(예, USB, 무선통신, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 일부 실시예에서, 처리부(110)는 둘 이상의 데이터 인터페이스를 통해 복수의 제1 및 제2 이미지를 수신할 수 있다. 여기에 기재된 실시예들은 특정 데이터 인터페이스 구성 또는 프로토콜에 제한되지 않는다.6 is a flow chart illustrating an
단계 620에서, 처리부(110)는 입체 이미지 분석 모듈(404)을 실행하여 복수의 제1 및 제2 이미지에 대한 입체 이미지 분석을 수행하여 차량 전면 도로의 3차원 지도를 생성하고, 이미지 내에서 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 도로 상의 위험물 등과 같은 특징을 검출할 수 있다. 입체 이미지 분석은 상기에서 도 5a 내지 5d를 참조하여 설명한 단계와 유사한 방법으로 수행될 수 있다. 예를 들어, 처리부(110)는 입체 이미지 분석 모듈(404)을 실행하여 복수의 제1 및 제2 이미지 내에서 후보 물체(예, 차량, 보행자, 도로 표지, 신호등, 도로 상의 위험물 등)을 검출하고, 다양한 기준에 근거하여 후보 물체의 세트(set)를 필터링하고, 다중 프레임 분석을 수행하고, 측정치를 구성하고, 나머지 후보 물체에 대한 신뢰 수준을 판단할 수 있다. 상기 단계들을 수행함에 있어서, 처리부(110)는 한 집단의 이미지보다는 복수의 제1 및 제2 이미지 모두의 정보를 고려할 수 있다. 예를 들어, 처리부(110)는 복수의 제1 및 제2 이미지에 모두 등장하는 후보 물체에 대한 픽셀 단계 데이터(또는 두 스트림의 캡처 이미지 중의 기타 데이터 부분집합)의 차이를 분석할 수 있다. 다른 예로서, 처리부(110)는 후보 물체가 복수의 이미지 중 하나에 등장하지만 다른 이미지에 등장하지 않는다는 것을 관찰하거나, 두 이미지 스트림 내에 등장하는 물체와 관련하여 존재하는 다른 차이점들을 통하여, 후보 물체(예, 차량(200)에 대한 후보 물체)의 위치 및/또는 속도를 추정할 수 있다. 예를 들어, 차량(200)과 관련된 위치, 속도, 및/또는 가속도는 이미지 스트림의 하나 또는 모두에 등장하는 물체와 연관된 특징의 궤적, 위치, 동작 특성 등에 근거하여 판단될 수 있다. At
단계 630에서, 처리부(110)는 주행 반응 모듈(408)을 실행하여 단계 620에서 수행한 분석 및 도 4를 참조하여 상기에 설명한 방법에 기반을 둔하나 이상의 주행 반응을 차량(200)에 발생시킬 수 있다. 주행 반응은, 예를 들어, 회전, 차선 변경, 가속도 변경, 속도 변경, 제동 등을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 속도 및 가속 모듈(406)을 실행하여 도출한 데이터를 사용하여 하나 이상의 주행 반응을 발생시킬 수 있다. 뿐만 아니라, 다중 주행 반응이 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다. At
도 7은 기재된 실시예에 따른 3개 집합의 이미지에 근거한 하나 이상의 주행 반응을 발생시키는 예시적인 과정(700)을 도시한 순서도이다. 단계 710에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 복수의 제1, 제2, 제3 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126) 등)에 포함된 카메라가 차량(200) 전면 및/또는 측면 영역의 복수의 제1, 제2, 제3 이미지를 캡처하고 디지털 연결(예, USB, 무선통신, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 일부 실시예에서, 처리부(110)는 셋 이상의 데이터 인터페이스를 통해 복수의 제1, 제2, 제3 이미지를 수신할 수 있다. 예를 들어, 이미지캡처장치(122, 124, 126)는 처리부(110)와 데이터를 통신하기 위해 각 장치에 연관된 데이터 인터페이스가 있을 수 있다. 여기에 기재된 실시예들은 특정 데이터 인터페이스 구성 또는 프로토콜에 제한되지 않는다. 7 is a flow chart illustrating an
단계 720에서, 처리부(110)는 복수의 제1, 제2, 제3 이미지를 분석하여 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 도로 상의 위험물 등과 같은 특징을 이미지 내에서 검출할 수 있다. 본 분석은 상기에서 도 5a 내지 5d 및 도 6을 참조하여 설명한 단계와 유사한 방법으로 수행될 수 있다. 예를 들어, 처리부(110)는 복수의 제1, 제2, 제3 이미지 각각에 대한 단안 이미지(monocular image)분석(예, 단안 이미지(monocular image)분석 모듈(402) 실행 및 도 5a 내지 5d를 참조하여 설명한 상기 단계)을 수행할 수 있다. 또는, 처리부(110)는 복수의 제1 및 제2 이미지, 복수의 제2 및 제3 이미지, 및/또는 복수의 제1 및 제3 이미지에 대한 입체 이미지 분석(예, 입체 이미지 분석 모듈(404) 실행 및 도 6을 참조하여 설명한 상기 단계)을 수행할 수 있다. 복수의 제1, 제2 및/또는 제3 이미지에 상응하는 처리 정보는 병합될 수 있다. 일부 실시예에서, 처리부(110)는 단안 이미지(monocular image)분석과 입체 이미지 분석을 조합하여 수행할 수 있다. 예를 들면, 처리부(110)는 복수의 제1 이미지에 대해 단안 이미지(monocular image)분석(예, 단안 이미지(monocular image)분석 모듈(402) 실행)을 수행하고, 복수의 제2 및 제3 이미지에 대해 입체 이미지 분석(예, 입체 이미지 분석 모듈(404) 실행)을 수행할 수 있다. 위치와 시야(202, 204, 206)를 각각 가진 이미지캡처장치(122, 124, 126)의 구성은 복수의 제1, 제2, 제3 이미지에 대해 수행되는 분석의 유형에 영향을 줄 수 있다. 여기에 기재된 실시예들은 특정 구성의 이미지캡처장치(122, 124, 126) 또는 복수의 제1, 제2, 제3 이미지에 수행되는 분석의 유형에 제한되지 않는다. At
일부 실시예에서, 처리부(110)는 단계 710과 720에서 획득하고 분석한 이미지에 근거하여 시스템(100)의 검사를 수행할 수 있다. 이러한 검사는 이미지캡처장치(122, 124, 126)의 특정 구성을 위한 시스템(100)의 전체적인 성능에 대한 지시자를 제공할 수 있다. 예를 들어, 처리부(110)는 "오탐(false hits)"(예, 시스템(100)이 차량 또는 보행자가 존재하는 것으로 오판하는 경우) 및 "누락(misses)"의 비율을 판단할 수 있다.In some embodiments, processing
단계 730에서, 처리부(110)는 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보에 근거하여 차량(200)에 하나 이상의 주행 반응을 발생시킬 수 있다. 복수의 제1, 제2, 제3 이미지 중 둘은, 예를 들어, 복수의 이미지 각각에 검출된 물체의 개수, 유형, 크기 등과 같은 다양한 요소에 의거하여 선택될 수 있다. 처리부(110)는 또한, 이미지의 품질 및 해상도, 이미지에 반영된 유효 시야, 촬영된 프레임의 수, 관심 물체가 프레임에 실제로 등장하는 정도(예, 물체가 등장하는 프레임의 퍼센트, 각 프레임에 등장하는 물체가 차지하는 비율 등) 등에 따라 이미지를 선택할 수 있다. At
일부 실시예에서, 처리부(110)는 한 이미지 소스로부터 도출된 정보가 다른 이미지 소스로부터 도출된 정보와 어느 정도 일관되는지를 판단하여 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보를 선택할 수 있다. 예를 들어, 처리부(110)는 이미지캡처장치(122, 124, 126) 각각으로부터 도출(단안 분석, 입체 분석, 또는 이들의 조합)된 처리 정보를 병합하고 이미지캡처장치(122, 124, 126) 각각으로부터 캡처 된 이미지 전반에 걸쳐 일관된 시각적 지시자(예, 차선 표시, 감지된 차량 및 그 위치 및/또는 경로, 감지된 신호등 등)를 판단할 수 있다. 처리부(110)는 또한 캡처 된 이미지 전반에 걸쳐 일관되지 않은 정보(예, 차선을 변경하는 차량, 차량(200)과 너무 가까운 차량을 나타내는 차선 모델 등)를 제외시킬 수 있다. 따라서, 처리부(110)는 일관된 정보 및 일관되지 않은 정보의 판단에 근거하여 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보를 선택할 수 있다.In some embodiments, processing
주행 반응은, 예를 들면, 회전, 차선 변경, 가속도 변경 등을 포함할 수 있다. 처리부(110)는 단계 720에서 수행된 분석과 도 4를 참조하여 설명한 방법에 근거하여 하나 이상의 주행 반응을 발생시킬 수 있다. 처리부(110)는 또한 속도 및 가속 모듈(406)을 실행하여 도출한 데이터를 사용하여 하나 이상의 주행 반응을 발생시킬 수 있다. 일부 실시예에서, 처리부(110)는 차량(200)과 복수의 제1, 제2, 제3 이미지 중 어느 하나 내에서 검출된 물체 사이의 상대적 위치, 상대적 속도, 및/또는 상대적 가속도에 근거하여 하나 이상의 주행 반응을 발생시킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다.The driving response may include, for example, turning, changing lanes, changing acceleration, and the like.
캡처된 이미지 및/또는 히트맵을 분석함으로써 주차중인 차량과 이동중인 차량 모두의 특정 특성을 검출할 수 있다. 검출된 특성에 기반을 두어 주행 변경을 산출할 수 있다. 캡처 된 이미지 및/또는 히트맵의 하나 이상의 특정 분석에 기반을 두어 특정 특성을 검출하는 실시예는 하기에 도 8 내지 도 28을 참조하여 설명하기로 한다. By analyzing the captured images and/or heatmaps, certain characteristics of both parked and moving vehicles can be detected. Based on the detected characteristics, a driving change can be calculated. Embodiments for detecting specific characteristics based on one or more specific analyzes of captured images and/or heatmaps are described below with reference to FIGS. 8-28 .
[차량 도어 개방 이벤트 검출][Vehicle door open event detection]
예를 들면, 차량의 식별 후에 식별된 차량의 휠 요소(wheel component)를 식별함으로써 도어 개방 이벤트에 대한 타깃 모니터링(targeted monitoring)이 가능하다. 타깃 모니터링을 함으로써, 시스템은 기존의 동작 검출보다 짧은 반응 시간에 도어 개방 이벤트에 대한 식별 및 반응을 할 수 있다. 하기에 설명하는 본 기재의 실시예들은 타깃 모니터링을 활용하여 도어 개방 이벤트를 검출하는 시스템과 방법에 관한 것이다. For example, targeted monitoring of a door opening event is possible by identifying a wheel component of the identified vehicle after identification of the vehicle. By target monitoring, the system can identify and respond to door opening events with shorter reaction times than conventional motion detection. Embodiments of the present disclosure described below relate to systems and methods for detecting door opening events utilizing targeted monitoring.
도 8은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다. 8 is an exemplary configuration diagram of
도 8에 도시된 바와 같이, 메모리(140)는 차량 측면 식별 모듈(802), 휠 식별 모듈(804), 도어 에지(door edge) 식별 모듈(806), 및 주행 반응 모듈(808)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(802-808)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 8 , the
일 실시예에서, 차량 측면 식별 모듈(802)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 하기에 설명하겠지만, 차량 측면 식별 모듈(802)은 하나 이상의 차량의 측면을 표시하는 경계박스(bounding box)(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment, vehicle side identification module 802, when executed by processing
일 실시예에서, 휠 식별 모듈(804)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 하기에 설명하겠지만, 휠 식별 모듈(804)은 하나 이상의 차량의 휠을 표시하는 타원을 판단하기 위한 명령을 포함할 수 있다. In one embodiment,
일 실시예에서, 도어 에지 식별 모듈(806)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 하기에 설명하겠지만, 도어 에지 식별 모듈(806)은 도어 에지의 출현을 식별하고 식별된 도어 에지의 움직임을 모니터하기 위한 명령을 포함할 수 있다. In one embodiment, door edge identification module 806, when executed by processing
일 실시예에서, 주행 반응 모듈(808)은 차량 측면 식별 모듈(802), 휠 식별 모듈(804), 및/또는 도어 에지 식별 모듈(806)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(808)은 하기에 설명하는 도 14의 방법(1400)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the
나아가, 여기에 기재된 모듈(예, 802, 804, 806)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Furthermore, one or more of the modules (eg, 802, 804, 806) described herein may implement a learning system (eg, a neural network or a deep neural network) or a manner in conjunction with a non-learning system.
도 9는 기재된 실시예에 따른 호스트 차량에 포함된 시스템(예, 상기 설명한 시스템(100))의 시점에서 바라본 도로(902)의 개략도이다. 도 9에 도시된 바와 같이, 도로(902)에는 한 대 이상의 주차된 차량(예, 주차 차량(904) 또는 주차 차량(906))이 있을 수 있다. 9 is a schematic diagram of a
예를 들어, 시스템(100)은 서스펙트 패치(suspect patch)를 돌려주고 이 서스펙트 패치를 더욱더 복잡한 대량의 분류기에 공급하여 이 패치가 실제로 차량인지를 판단하는 어텐션 메커니즘(attention mechanism)을 활용하여 주차 차량을 검출할 수 있다. 어텐션 메커니즘과 분류기는 하기의 설명과 같이 진위(true and false) 패치에 대해 학습될 수 있다. For example,
예를 들면, 시스템(100)은 어텐션 메커니즘을 활용하여 주차 차량의 후위(예, 차량 후위(908, 910))를 검출할 수 있다. 검출된 차량 후위를 활용하여, 시스템(100)은 주차 차량의 측면(예, 차량 측면(912, 914))을 검출할 수 있다. 일단 검출이 된 차량 후위 및/또는 측면은 추적될 수 있다. For example,
도 9에 도시된 경계박스(bounding box)를 검출하기 위해, 시스템(100)은 이미지(예, 이미지캡처장치(122, 124, 126)의 하나로부터 수신한 이미지)를 하나 이상의 학습된 알고리즘으로 입력할 수 있다. 입력 이미지는 예를 들어 원본이 1280x9560인 그레이스케일(grayscale) 이미지일 수 있다. 학습된 알고리즘은 축척된(예, 256x192) 어텐션 이미지를 출력할 수 있다. 이 어텐션 이미지로부터 서스펙트 패치가 식별될 수 있고 서스펙트 패치의 (x, y) 포인트가 축척되어(예, 5에 의해) 원본 이미지 좌표상에 매핑될 수 있다. 학습된 알고리즘은 (x, y) 좌표를 사용하여 서스펙트 패치의 중앙을 정의할 수 있다. 서스펙트 패치는 (x, y) 좌표 영역 내에서, 예를 들어 각 방향으로 +/- 5 픽셀씩, 스캔 될 수 있다. 본 예에서, 이후, 각 서스펙트 패치는 총 11×11의 후보 패치를 생성한다. To detect the bounding box shown in FIG. 9,
나아가, 본 예에서, 각 후보 패치는 2R+1 크기의 정사각형이며, 여기서 R은 경계 타원의 반경이다. 예를 들어, 도 10에 도시된 바와 같이, 차량(예, 차량(1002))에는 중심(예, 중심(1006))을 가진 연관된 경계 타원(예, 타원(1004))이 있을 수 있다. Further, in this example, each candidate patch is a square of size 2R+1, where R is the radius of the bounding ellipse. For example, as shown in FIG. 10 , a vehicle (eg, vehicle 1002) may have an associated bounding ellipse (eg, ellipse 1004) with a center (eg, center 1006).
후보 패치는 기본 사이즈(예, 40x40)로 축척될 수 있고 하나 이상의 학습망, 예를 들어 하기에 설명하는 컨볼루션 신경망(convolutional neural network 또는 CNN)의 하나 이상으로의 입력으로 사용된다. 예를 들면, 하나 이상의 학습망은 각각 입력 패치에 점수를 매길 수 있다. 이 점수를 사용하여, 각 후보 패치에는 가장 높은 점수에 기반하여 라벨이 배정될 수 있다. (본 예에서, 반경 R과 원 좌표 (x, y)를 사용하여 후보 패치를 다시 원본 이미지에 매핑할 수 있다.)Candidate patches can be scaled to a basic size (eg, 40x40) and used as input to one or more learning networks, eg, one or more convolutional neural networks (CNNs) described below. For example, one or more learning networks may each score an input patch. Using this score, each candidate patch can be assigned a label based on the highest score. (In this example, the candidate patch can be mapped back to the original image using the radius R and the circular coordinates (x, y).)
이후, 임계치(미리 설정되거나 가변일 수 있고 학습을 통해 학습될 수 있음)보다 높은 최고 점수를 가진 각 후보 패치는 최종 분류기로 입력될 수 있다. 최종 분류기는 경계박스(bounding box) 하단에 있는 세 점의 (x, y) 좌표를 출력할 수 있다. 이 좌표는 적절한 인수를 곱하여 원본 이미지 좌표로 다시 축척될 수 있다. Thereafter, each candidate patch having a highest score higher than a threshold (which may be preset or variable and may be learned through learning) may be input to a final classifier. The final classifier can output the (x, y) coordinates of the three points at the bottom of the bounding box. These coordinates can be scaled back to the original image coordinates by multiplying by the appropriate factor.
앞서 설명한 예에서, 적절한 축척 인수는 (2R + 1) / 40일 수 있다. 축척 인수의 사용 외에도, 축척 좌표 (x, y)에 실제 위치 (x0, y0)가 더해질 수 있다. 고유의 라벨을 사용하여, 시스템은 세 (x, y) 좌표 중의 어느 두 좌표가 측면(나아가 어느 측면)에 속하고 세 (x, y) 좌표 중의 어느 두 좌표가 후위 또는 전면에 속하는지 판단할 수 있다. In the example described above, a suitable scale factor might be (2R + 1) / 40. In addition to using scale factors, the actual position (x 0 , y 0 ) can be added to the scale coordinates (x, y). Using unique labels, the system can determine which two of the three (x, y) coordinates belong to the side (and by extension which side) and which two of the three (x, y) coordinates belong to the posterior or anterior. can
당업자라면 본 예시적인 알고리즘에 대한 변형이 가능함을 인지할 것이다. 예를 들면, 축척된 어텐션 이미지의 사이즈는 다양할 수 있고, 서스펙트 패치의 이동은 다양할 수 있으며, 후보 패치의 사이즈는 다양할 수 있다. 추가적인 예로서, 경계박스(bounding box)의 상부 좌표도 산출될 수 있다. (이러한 예에서, 최종 분류기는 추가적인 세 점의 (x, y) 좌표를 출력할 수 있다.) 또한, 다른 알고리즘도 앞서 설명한 예시적인 알고리즘을 대신하여 또는 병합하여 가능하다. 예를 들면, 다른 알고리즘은 다른 및/또는 추가적인 분류기를 포함할 수 있다. Those skilled in the art will recognize that variations on this exemplary algorithm are possible. For example, the size of the scaled attention image may vary, the movement of the suspect patch may vary, and the size of the candidate patch may vary. As an additional example, the upper coordinates of the bounding box may also be calculated. (In this example, the final classifier may output the (x, y) coordinates of the additional three points.) Also, other algorithms are possible in place of or in combination with the example algorithms described above. For example, different algorithms may include different and/or additional classifiers.
앞서 설명한 바와 같이, 어텐션 메커니즘과 그 다음의 분류기는 학습될 수 있다. 예를 들면, 학습 메커니즘은 예를 들어 1280x960인 그레이 스케일 이미지일 수 있는 1백만 개 이상의 예시 이미지를 활용할 수 있다. 이러한 예시적인 학습 설정에서, 경계박스(bounding box)의 가시적 면은 좌측, 우측, 후위, 또는 전면으로 표시될 수 있다. 예를 들면, 각각 황색, 청색, 적색, 및 녹색으로 도시될 수 있다. 한 면이 부분적으로 가시적인 경우, 가려지지 않은 부분만 이미지 내에서 표시되고 데이터베이스 내에 부분적으로 가려짐이 기록될 수 있다. As described above, the attention mechanism and subsequent classifiers can be learned. For example, the learning mechanism may utilize more than one million example images, which may be gray scale images, for example 1280x960. In this exemplary learning setup, the visible side of the bounding box may be indicated as left, right, back, or front. For example, they may be shown as yellow, blue, red, and green, respectively. If one side is partially visible, only the unobscured portion is displayed in the image and the partially obscured can be recorded in the database.
본 학습 예에서, 각 경계박스(bounding box)에 대해, 시스템은 경계박스(bounding box)의 가장 멀리 떨어진 두 에지를 계산하고, 이 두 에지 사이에 중심이 위치하고 가장 먼 에지까지의 거리가 반경인 경계 타원을 구성할 수 있다. In this learning example, for each bounding box, the system calculates the two farthest edges of the bounding box, the center is between these two edges, and the distance to the farthest edge is the radius. Boundary ellipses can be constructed.
본 학습 예에서, 이후에 시스템은 전체로부터 256×192 이미지(즉, 5의 인수에 의해 축소)인 어텐션 이미지를 추출할 수 있다. 학습 이미지에 표시된 각 차량은 5로 나눈 타원의 중심의 좌표에 위치한 어텐션 이미지 내의 한 점으로 교체될 수 있고, 이 점의 값은 경계 타원의 반경일 수 있다. In this learning example, the system can then extract an attention image that is a 256×192 image (ie reduced by a factor of 5) from the whole. Each vehicle displayed in the training image may be replaced with a point in the attention image located at the coordinates of the center of the ellipse divided by 5, and the value of this point may be the radius of the boundary ellipse.
본 학습 예에서, 예시적인 이미지들은 CNN을 학습시키기 위해 사용될 수 있다. 당업자라면 CNN을 대신하여 또는 병합하여 다른 머신 학습 방법이 사용될 수 있음을 인지할 수 있을 것이다. 따라서 신경망은 원본 이미지를 약도화된(sparse) 저해상도 어텐션 이미지에 매핑할 수 있다. 이 방법은 장면 이해(예, 도로의 위치, 이미지 시점 등)를 차량으로 보이는 물체의 검출과 병합할 수 있다. 다른 설계적 선택도 가능하다. 예를 들면, 신경망은 차량이 예측되는 장소(예, 하늘이 아닌 장소)에서 차량을 검출하도록 설계된 필터 뱅크(filter bank)를 먼저 적용할 수 있다. In this training example, example images can be used to train a CNN. Those skilled in the art will appreciate that other machine learning methods may be used in place of or incorporating CNNs. Thus, the neural network can map the original image to a sparse, low-resolution attention image. This method can merge scene understanding (eg, location of the road, viewpoint of the image, etc.) with detection of objects that appear to be vehicles. Other design choices are also possible. For example, the neural network may first apply a filter bank designed to detect vehicles in locations where vehicles are predicted (eg, non-sky locations).
신경망은 각 가능 장면에 대해 점수를 매길 수 있는 제1 분류기로 서스펙트 패치를 전송할 수 있다. 예를 들면, 제1 분류기는 좌후(LeftRear), 좌전(LeftFront), 우후(RightRear), 우전(RightFront)의 4가지 주요 라벨 중에서 하나를 지정할 수 있다. 한 면만이 보이는 경우, 2가지 가능한 라벨 중의 하나는 임의로 지정될 수 있다. 각 주요 라벨은 더 나뉘어질 수 있다. 예를 들어, 각 주요 라벨은 패치에 "단(end)" 보다 "측(side)"이 더 많이 포함되는지 그 반대인지 더 나뉘어질 수 있다. 이러한 하위 분할은, 예를 들어, 표시된 측과 단면의 이미지 폭을 비교하여 수행될 수 있다. 폭이 동일한 경우, 하위 분할은 임의로 지정될 수 있다. The neural network may send the suspect patch to a first classifier that can score each possible scene. For example, the first classifier may designate one of four major labels: LeftRear, LeftFront, RightRear, and RightFront. If only one side is visible, one of the two possible labels can be arbitrarily assigned. Each major label can be further divided. For example, each major label could be further divided into whether a patch contains more "sides" than "ends" or vice versa. This sub-segmentation may be performed, for example, by comparing the image widths of the displayed side and cross-section. When the widths are the same, subdivisions can be arbitrarily designated.
다른 예를 들면, 각 하위 분할은 3개의 하위 하위분할로 더 나뉘어질 수 있다. 예를 들어, 좌후(LeftRear)의 "측(side)" 하위 분할은 3개의 하위 하위분할을 포함할 수 있다. "단(end)" 좌후10(LeftRear10)은 후면이 좌면 폭의 10% 이하인 패치를 나타낼 수 있고, "단(end)" 좌후50(LearRear50)은 후면이 10% 초과이고 50% 미만인 패치를 나타낼 수 있고, "단(end)" 좌후(LearRear)는 후면이 50% 초과인 패치를 나타낼 수 있다. For another example, each subdivision may be further divided into three subdivisions. For example, a "side" subdivision of LeftRear may include three subdivisions. An "end" LeftRear10 may represent a patch where the rear surface is less than 10% of the width of the left surface, and an "end" LeftRear50 may represent a patch where the rear surface is greater than 10% and less than 50%. , and the "end" LearRear may indicate a patch with a rear surface greater than 50%.
다른 예를 들면, 각 하위 하위분할은 적어도 한 면이 가려지는지에 대해 더 표시될 수 있다. 이 예에서, 하위 하위분할과 라벨의 총 조합은 48이다. 당업자라면 동일한 또는 다른 수의 총 조합의 다른 수단의 분할 및 라벨이 가능함을 인지할 수 있을 것이다. 예를 들어, "측" 좌후20(LeftRear20)은 좌면이 전체의 20% 미만인 패치를 나타낼 수 있고, "측" 좌후50(LeftRear50)은 좌면이 전체의 20% 내지 50%인 패치를 나타낼 수 있고, "측" 좌후80(LeftRear80)은 좌면이 전체의 50% 내지 80%인 패치를 나타낼 수 있고, "측" 좌후100(LeftRear100)은 좌면이 전체의 80% 내지 100%인 패치를 나타낼 수 있다. For another example, each sub-subdivision may further indicate whether at least one side is obscured. In this example, the total combination of lower subdivisions and labels is 48. One skilled in the art will appreciate that other means of partitioning and labeling of the same or different numbers of total combinations are possible. For example, "side" LeftRear20 may represent a patch in which the left surface is less than 20% of the total, "side" LeftRear50 may represent a patch in which the left surface is 20% to 50% of the total, , "side" LeftRear80 may represent a patch in which the left surface is 50% to 80% of the total, and "side" LeftRear100 may represent a patch in which the left surface is 80% to 100% of the total. .
다른 예를 들면, 4가지 주요 라벨은 2가지 주요 라벨, 즉, 측면이 각각 단면의 좌측 또는 우측 상에 보이는지 여부에 따라 '측/단' 또는 '단/측'으로 대체될 수 있다. 분할과 라벨의 선택은 사용 가능한 데이터의 양에 의거하며, 이는 하위 분할과 라벨의 수가 증가할수록 학습에 필요한 예시의 수가 증가하기 때문이다. For another example, the four main labels could be replaced with the two main labels, ie 'side/short' or 'short/side' depending on whether the side is viewed on the left or right side of the section, respectively. The choice of splits and labels depends on the amount of available data, since the number of examples required for training increases as the number of subdivisions and labels increases.
따라서 신경망은 원본 이미지 좌표로 다시 축척되고 x 및 y 방향으로 철저히 +/-5 픽셀 이동된 어텐션 지도 내의 한 점을 중심으로 위치한 패치를 제1 분류기로 입력할 수 있다. 이러한 이동은 121개의 이동된 예시를 생성한다. 당업자라면 이동된 예시를 생성하는 다른 수단이 가능함을 인지할 수 있을 것이다. 예를 들면, 패치는 x 및 y 방향으로 철저히 +/- 4 픽셀(또는 +/- 3 픽셀 등) 이동될 수 있다. Accordingly, the neural network may input a patch centered on a point in the attention map scaled back to the original image coordinates and shifted by +/-5 pixels in the x and y directions to the first classifier. This movement produces 121 moved instances. Those skilled in the art will appreciate that other means of creating a moved instance are possible. For example, a patch may be moved +/- 4 pixels (or +/- 3 pixels, etc.) thoroughly in the x and y directions.
본 예에서, 각 패치는 기본 사이즈(예, 40x40 픽셀)로 축척된 (2R + 1) x (2R + 1) 크기의 정사각형을 자르도록 경계 타원의 반경(R)을 활용하여 형성될 수 있다. 당업자라면 패치를 생성하는 다른 수단이 가능함을 인지할 수 있을 것이다. 예를 들어, (2R - 1) × (2R - 1) 크기의 정사각형을 자를 수 있다. 또 다른 예를 들면, 2R 대신에 하나 이상의 경계박스(bounding box) 길이가 사용될 수 있다. In this example, each patch may be formed by utilizing the radius R of the boundary ellipse to cut a square of size (2R + 1) x (2R + 1) scaled to a basic size (eg, 40x40 pixels). One skilled in the art will recognize that other means of creating a patch are possible. For example, you can cut a square of size (2R - 1) × (2R - 1). For another example, one or more bounding box lengths may be used instead of 2R.
신경망은 라벨이 지정된 각 패치를 최종 분류기로 입력할 수 있다. 최종 입력기는 경계박스(bounding box)의 하부를 정의하는 세 점 각각의, 라벨이 지정된 패치 내의, 위치 (x, y)를 출력할 수 있다. 출력된 (x, y) 좌표는 패치와 관련될 수 있다. 일부 실시예에서, 신경망은 하위 분할과 라벨의 각 조합에 대해 학습될 수 있다. 다른 실시예에서, 보다 적은 수의 신경망이 학습될 수 있다. The neural network can input each labeled patch into a final classifier. The final input could output the position (x, y), within the labeled patch, of each of the three points defining the bottom of the bounding box. The output (x, y) coordinates may be related to the patch. In some embodiments, a neural network may be trained for each combination of subdivisions and labels. In other embodiments, fewer neural networks may be trained.
식별된 차량으로부터 더 많은 특정 특징을 추출하기 위해 유사한 학습 방법을 활용하여 분류기를 학습시킬 수 있다. 예를 들면, 분류기는 휠, 타이어, 'A' 필라, 사이드 미러 등을 식별하도록 학습될 수 있다. 도 11의 예에서, 차량(1106)의 휠(1102, 1104)이 타원으로 표시됐다. 시스템은, 예를 들어, 경계박스(bounding box)를 기본 사이즈(예, 40 픽셀 길이와 20 픽셀 높이)로 축척하고 적절한 분류기에 입력함으로써 타원을 그릴 수 있다. A similar learning method can be used to train the classifier to extract more specific features from the identified vehicles. For example, the classifier can be trained to identify wheels, tires, 'A' pillars, side mirrors, and the like. In the example of FIG. 11 ,
휠의 식별에 기반하여, 시스템은 도어 개방 이벤트가 발생할 것으로 예측되는 식별된 차량 상의 하나 이상의 "핫스팟(hot spot)"을 판단할 수 있다. 예를 들면, 하나 이상의 핫스팟은 식별된 타이어 사이 및/또는 식별된 후륜 타이어 상부에 위치할 수 있다. 도 12a에 도시된 바와 같이, 하나 이상의 핫스팟은 차량(1204) 상의 수직 방향 줄무늬(1202)의 출현에 대해 관찰될 수 있다. 줄무늬(1202)의 출현은 도어 개방 이벤트의 시작을 의미할 수 있다. Based on the identification of the wheel, the system may determine one or more “hot spots” on the identified vehicle where a door opening event is predicted to occur. For example, one or more hotspots may be located between the identified tires and/or over the identified rear tires. As shown in FIG. 12A , one or more hotspots may be observed for the appearance of
일부 실시예에서, 시스템은 차량(1204) 상의 하나 이상의 특징을 기준점으로 사용하여 차량(1204)의 측면에 대한 줄무늬(1202) 에지의 움직임을 추적할 수 있다. 예를 들어, 하나 이상의 특징은 식별된 타이어 또는 차량(1204)의 전면 에지, 차량(1204)의 하나 이상의 후미등과 같은 기타 식별된 특징을 포함할 수 있다. In some embodiments, the system may track the movement of the edge of the
도 12b에 도시된 바와 같이, 줄무늬(1202)는 차량(1204)의 도어가 개방되면서 확장될 수 있다. 줄무늬(1202)의 에지(1202a)는 차량(1204)의 차체를 따라 고정된 반면, 줄무늬(1202)의 에지(1202b)는 차량(1204)의 전면을 향해 움직이는 것으로 보일 수 있다. 따라서, 시스템은 줄무늬(1202)의 관찰에 기반하여 도어 개방 이벤트가 있음을 확인할 수 있다. As shown in FIG. 12B ,
도어 개방 이벤트의 존재에 근거하여, 호스트 차량은 주행 변경을 수행할 수 있다. 예를 들면, 도 13에 도시된 바와 같이, 호스트 차량의 요(yaw)(1301)가 변화했으며, 이는 호스트 차량이 도어 개방 이벤트로부터 멀어지고 있음을 의미한다. Based on the presence of a door open event, the host vehicle may perform a driving change. For example, as shown in FIG. 13 , the host vehicle's
도 14는 기재된 실시예에 따른 도어 개방 이벤트의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(1400)을 도시한 순서도이다. 단계 1402에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 14 is a flowchart illustrating an
단계 1404에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 주차된 차량의 측면을 식별할 수 있다. 단계 1404는 적어도 하나의 경계박스(bounding box)를 주차된 차량의 측면의 형상과 연계하는 단계를 더 포함할 수 있다. 예를 들면, 상기 분석은 앞서 도 9와 도 10을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. At
단계 1406에서, 처리부(110)는 주차된 차량의 구조적 특징을 식별할 수 있다. 일부 실시예에서, 처리부(110)는 주차된 차량의 측면의 전방 영역 내에서 주차된 차량의 제1 구조적 특징을 식별하고 주차된 차량의 측면의 후방 영역 내에서 주차된 차량의 제2 구조적 특징을 식별할 수 있다. 예를 들면, 구조적 특징은 휠 요소(wheel component)(예, 타이어, 휠 캡, 또는 휠 구조), 미러, 'A' 필라, 'B' 필라, 'C' 필라 등을 포함할 수 있다. 제1 및/또는 2 구조적 특징은 식별된 측면 부근의 영역 내에서 식별될 수 있다. 예를 들어, 상기 분석은 도 11을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. At
단계 1408에서, 처리부(110)는 주차된 차량의 도어 에지를 식별할 수 있다. 도어 에지는 구조적 특징 주변의 영역 내에서 식별될 수 있다. 예를 들면, 처리부(110)가 앞바퀴의 휠 요소(wheel component)와 뒷바퀴의 휠 요소(wheel component)를 식별하는 실시예에서, 제1 휠과 제2 휠의 부근은 앞바퀴의 휠 요소(wheel component)와 뒷바퀴의 휠 요소(wheel component) 사이의 영역을 포함할 수 있다. 다른 예를 들면, 처리부(110)가 앞바퀴의 휠 요소(wheel component)와 뒷바퀴의 휠 요소(wheel component)를 식별하는 실시예에서, 제1 휠과 제2 휠의 부근은 뒷바퀴의 휠 요소(wheel component) 상부의 영역을 포함할 수 있다. 상기 분석은 도 12a를 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다.At
단계 1410에서, 처리부(110)는 도어 에지의 이미지 특징의 변화를 판단할 수 있다. 예를 들면, 처리부(110)는 이미지캡처장치로부터 수신한 적어도 두 이미지에서 앞서 도 12b를 참조하여 설명한 바와 같이 제1 및 제2 휠 요소(wheel component)의 부근에서 수직 줄무늬가 보이는지 여부를 관찰할 수 있다. 본 예에서, 수직 줄무늬의 제1 에지는 주차된 차량의 차체를 따라 관찰된 이미지 내에서 고정되어 있고, 수직 줄무늬의 제2 에지는 관찰된 이미지 내에서 주차된 차량의 전방 영역을 향해 움직인다. 도어 에지가 보인 이후, 시간 경과에 따른 도어 에지의 폭(즉, 수직 줄무늬의 폭)을 추적할 수 있다. 일부 실시예에서, 도어 에지의 이미지 특징의 변화는 도어 에지의 폭 증가를 포함할 수 있다. 이러한 실시예에서, 도어 에지의 이미지 특징의 변화를 판단하는 단계는 수직 줄무늬의 확장을 관찰하는 단계를 포함할 수 있다. At
일부 실시예에서, 처리부(110)는 도어 개방의 정도를 추정할 수 있다. 예를 들면, 처리부(110)는 고정된 에지의 세로줄을 경계박스(bounding box)와 교차하도록 연장하여 교차 지점의 y 좌표를 사용하여 도어까지의 거리를 추정할 수 있다. 본 예에서, 도어까지의 거리와 줄무늬의 폭을 활용하여 도어 개방의 정도를 추정할 수 있다. 이에 따라, 처리부(110)는 판단된 폭에 근거하여, 주차된 차량으로부터 도어 에지가 연장되어 멀어지는 거리를 판단할 수 있다. 이에 따라, 시간 경과에 따른 차량의 차체로부터의 도어 에지 분리(즉, 도어 개방의 정도)를 추적할 수 있다. In some embodiments, processing
단계 1412에서, 처리부(110)는 호스트 차량의 주행 경로를 변경할 수 있다. 예를 들어, 주행 반응은 회전(도 13에 도시), 차선 변경, 가속도 변경 등을 포함할 수 있다. 처리부(110)는 단계 1410에서 수행된 판단에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 호스트 차량을 도어 개방 이벤트로부터 이동 및/또는 도어 개방 이벤트에 대응하여 호스트 차량을 감속할 수 있다. 본 예에서, 처리부(110)는 주차된 차량으로부터 도어 에지가 연장되어 멀어지는 판단된 거리에 근거하여 호스트 차량에 대한 횡적 안전거리(lateral safety distance )를 판단하고, 호스트 차량의 주행 경로의 변경은 적어도 부분적으로는 판단된 횡적 안전거리(lateral safety distance )에 기반할 수 있다. 다른 예에서, 처리부(110)는 차량의 도어 개방과 관계된 일반적인 돌출 정도에 상응하는 값과 같은 미리 정의된 값에 기반하여 호스트 차량에 대한 횡적 안전거리(lateral safety distance )를 판단할 수 있다. 나아가, 다른 유형의 차량에 대해 다른 미리 정의된 값이 사용될 수 있고, 예를 들어, 트럭과 같은 다른 크기의 차량에 대해 작은 차량에 대해 사용되는 안전 거리값보다 큰 미리 정의된 안전 거리값이 사용될 수 있다. At
처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다. 예를 들어, 주행 반응은 학습 시스템에 의해 판단될 수 있다. 나아가, 학습 시스템은 수행을 최적화하는 동안에 특정 안전 제약을 절충하지 못하도록 구성될 수 있고, 학습 시스템은 주행 변경을 일으킴으로써 도어 개방 검출에 반응하도록 구성될 수 있다. 다른 예에서, (주차된 차량의) 도어 개방 이벤트가 검출되는 경우에 일련의 규칙을 활용하여 필요한 반응을 판단할 수 있다.
[호스트 차량의 차선으로 진입하는 차량의 검출][Detection of Vehicle Entering Lane of Host Vehicle]
도로 호모그래피를 식별하고 차량의 휠 요소(wheel component)를 식별하는 시스템과 방법은 차량의 움직임에 대한 타깃 모니터링을 가능하게 할 수 있다. 타깃 모니터링을 함으로써, 시스템은 다른 차선으로부터 또는 주차된 위치로부터 호스트 차량의 차선으로 진입하는 동작에 대해 적어도 특정 상황 하에서는 기존의 동작 검출보다 짧은 반응 시간에 검출 및 반응할 수 있다. 하기에 설명하는 본 기재의 실시예들은 타깃 모니터링을 활용하여 호스트 차량의 차선으로 진입하는 차량을 검출하는 시스템 및 방법에 관한 것이다. Systems and methods for identifying road homography and identifying wheel components of a vehicle may enable targeted monitoring of vehicle motion. By target monitoring, the system can detect and react to motion entering the host vehicle's lane from another lane or from a parked location, at least under certain circumstances, with a shorter response time than conventional motion detection. Embodiments of the present disclosure described below relate to systems and methods for detecting vehicles entering a lane of a host vehicle utilizing target monitoring.
도 15는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다. 15 is an exemplary functional configuration diagram of
도 15에 도시된 바와 같이, 메모리(140)는 도로 호모그래피 모듈(1502), 휠 식별 모듈(1504), 동작 분석 모듈(1506), 및 주행 반응 모듈(1508)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(1502-1508)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 15 , the
일 실시예에서, 도로 호모그래피 모듈(1502)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지 내의 도로의 호모그래피를 뒤트는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들면, 도로 호모그래피 모듈(1502)은 하기에 설명하는 도 18의 방법(1800)을 실행하기 위한 명령을 포함할 수 있다. In one embodiment, road homography module 1502, when executed by processing
일 실시예에서, 휠 식별 모듈(1504)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 상기에 설명한 바와 같이, 휠 식별 모듈(1504)은 하나 이상의 차량의 휠을 표시하는 타원을 판단하기 위한 명령을 포함할 수 있다.In one embodiment,
일 실시예에서, 동작 분석 모듈(1506)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지(및/또는 도로 호모그래피 모듈(1502)에 의해 처리된 하나 이상의 이미지)의 분석을 수행하여 하나 이상의 식별된 차량 요소의 동작을 추적하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들면, 휠 식별 모듈(1504)과 합동하여, 동작 분석 모듈(1506)은 차량의 식별된 휠 요소(wheel component)의 시간 경과에 따른 동작을 추적할 수 있다. In one embodiment,
일 실시예에서, 주행 반응 모듈(1508)은 도로 호모그래피 모듈(1502), 휠 식별 모듈(1504), 및/또는 동작 분석 모듈(1506)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(1508)은 하기에 기재되는 도 17의 방법(1700)에 따라 주행 변경(navigational change)을 일으킬 수 있다. In one embodiment, the
나아가, 여기에 기재된 모듈(예, 1502, 1504, 1506)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Furthermore, one or more of the modules (eg, 1502, 1504, and 1506) described herein may implement a learning system (eg, a neural network or a deep neural network) or a method in conjunction with a non-learning system.
도 16a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량(1602)을 도시한 것이다. 도 16a의 예에서, 차량(1602)의 휠(1604, 1606)은 타원으로 표시돼 있다. 상기에 설명한 바와 같이, 시스템은, 예를 들어, 경계박스(bounding box)를 기본 사이즈(예, 40 픽셀 길이와 20 픽셀 높이)로 축척하고 적절한 분류기에 입력함으로써 타원을 그릴 수 있다. 16A shows a parked
도 16b는 주차 상태(즉, 움직이지 않는 상태)로부터 움직이기 시작하는 차량(1602)을 도시한 것이다. 도 16b의 예에서, 차량(1602)의 휠(1604, 1606)은 차량(1602)이 움직이면서 회전하고 있다. 시스템은 하기에 설명하는 바와 같이 휠(1604, 1606)의 회전을 추적하여 차량(1602)이 움직임을 판단할 수 있다. 16B shows
도 17은 기재된 실시예에 따른 호스트 차량의 차선으로 진입하는 타깃 차량의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(1700)을 도시한 순서도이다. 단계 1702에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 17 is a flowchart illustrating an
복수의 이미지는 일정 시간에 걸쳐 수집될 수 있다. 예를 들면, 복수의 이미지는 t = 0인 시간에 캡처된 제1 이미지, t = 0.5초에 캡처된 제2 이미지, 및 t = 1.0초에 캡처 된 제3 이미지를 포함할 수 있다. 이미지 사이의 시간은 적어도 하나 이상의 이미지캡처장치의 주사율에 따라 다를 수 있다. A plurality of images may be collected over a period of time. For example, the plurality of images may include a first image captured at time t = 0, a second image captured at t = 0.5 second, and a third image captured at t = 1.0 second. The time between images may vary depending on the scan rate of at least one image capture device.
단계 1704에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 타깃 차량을 식별할 수 있다. 예를 들어, 타깃 차량을 식별하는 단계는 적어도 하나의 경계박스(bounding box)를 타깃 차량의 측면 형상과 연관시키는 단계를 더 포함할 수 있다. 예를 들면, 앞서 도 9 및 도 10을 참조하여 설명한 바와 같은 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. 일부 실시예에서, 단계 1704는 식별된 타깃 차량의 측면의 휠을 식별하는 단계를 더 포함할 수 있다. 예를 들어, 앞서 도 11을 참조하여 설명한 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. At
단계 1704는 휠로만 한정되지 않고 휠 요소(wheel component)를 포함할 수도 있다. 예를 들어, 처리부(110)는 타이어, 휠 캡, 및 휠 구조의 적어도 하나를 포함하는 휠 요소(wheel component)를 식별할 수 있다.
단계 1706에서, 처리부(110)는 식별된 휠과 연관된 동작을 식별할 수 있다. 예를 들면, 처리부는 타깃 차량의 적어도 하나의 휠 요소(wheel component)를 포함하는 영역(예, 도로면과 인접한 영역) 내에서 동작을 식별할 수 있다. 복수의 이미지의 적어도 두 이미지를 모니터함으로써, 처리부는 적어도 하나의 휠 요소(wheel component)의 회전을 확인하여 움직임을 식별할 수 있다. At
다른 예를 들면, 처리부(110)는 적어도 하나의 휠 요소(wheel component)와 연관된 적어도 하나의 특징(예, 휠의 로고, 휠의 타이어 사이즈, 휠의 휠캡 사이즈, 픽셀의 특정 패치)을 식별할 수 있다. 이 적어도 하나의 특징을 활용하여, 처리부(110)는 이 적어도 하나의 특징의 위치 변경의 지시자(예, 로고의 흐릿해짐, 픽셀의 패치의 좌표 변화)를 식별할 수 있다. In another example, processing
다른 예를 들면, 처리부(110)는 하기의 도 18의 방법(1800)을 참조하여 설명하는 바와 같이 도로의 호모그래피를 뒤틀고, 식별된 휠과 뒤틀린 도로 사이의 접점(정지 상태일 수 있음)을 식별하고, 접점 상부의 점을 추적하여 움직임을 식별할 수 있다. In another example, processing
처리부(110)는 회전의 지시자, 적어도 하나의 특징의 위치 변경, 및/또는 추적된 점을 활용하여 타깃 차량이 이동하는 속도를 판단할 수 있다. 처리부(110)는 판단된 속도를 활용하여 하기의 단계 1708에서 주행 변경(navigational change) 을 일으킬 수 있다. 또한, 처리부(110)는 지평면 제약(ground plane constraint)을 활용하여 타이어까지의 거리를 추정하고, 추정된 거리에 기반하여 타깃 차량의 횡적 움직임을 추정할 수 있다.
단계 1708에서, 처리부(110)는 호스트 차량의 주행 변경(navigational change) 을 일으킬 수 있다. 예를 들어, 주행 반응은 호스트 차량의 진행 방향의 변경(도 13에 도시), 차선 변경, 가속도 변경(예, 호스트 차량의 브레이크 작동) 등을 포함할 수 있다. 처리부(110)는 단계 1706에서 수행된 판단에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 타깃 차량의 움직임에 대응하여 호스트 차량을 타깃 차량으로부터 이동 및/또는 호스트 차량을 감속할 수 있다. 본 예에서, 처리부(110)는 타깃 차량의 판단된 속도(및/또는 추정된 횡적 움직임)에 근거하여 호스트 차량에 대한 횡적 안전거리(lateral safety distance )를 판단하고, 호스트 차량의 주행 경로의 변경은 적어도 부분적으로는 판단된 횡적 안전거리(lateral safety distance )에 기반할 수 있다. At
처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다.
도 18은 기재된 실시예에 따른 도로의 호모그래피를 뒤트는 예시적인 과정(1800)을 도시한 순서도이다. 단계 1802에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 18 is a flow chart illustrating an
복수의 이미지는 일정 시간에 걸쳐 수집될 수 있다. 예를 들면, 복수의 이미지는 t = 0인 시간에 캡처 된 제1 이미지 및 t = 0.5초에 캡처 된 제2 이미지를 포함할 수 있다. 이미지 사이의 시간은 적어도 하나 이상의 이미지캡처장치의 주사율에 따라 다를 수 있다. A plurality of images may be collected over a period of time. For example, the plurality of images may include a first image captured at time t = 0 and a second image captured at time t = 0.5 seconds. The time between images may vary depending on the scan rate of at least one image capture device.
단계 1804에서, 처리부(110)는 우선 복수의 이미지의 제1 이미지를 복수의 이미지의 제2 이미지를 향해 뒤틀 수 있다. 예를 들어, 호스트 차량의 요(yaw), 피치(pitch), 및 롤roll에 따라 제1 이미지와 제2 이미지 중 하나를 회전시킬 수 있다. At
단계 1806에서, 처리부(110)는 제1 이미지 또는 제2 이미지 내의 포인트의 그리드(grid)를 기준 포인트의 그리드로 선택할 수 있다. 예를 들면, 그리드는 타원, 사각형, 사다리꼴 등의 모든 형상으로부터 형성될 수 있다. 또는, 포인트의 무작위 분포가 선택될 수 있다. At
단계 1808에서, 처리부(110)는 선택된 그리드 주변의 패치들을 찾아낼 수 있다. 예를 들면, 패치들은 균일한 크기와 형상일 수 있다. 또는, 패치들은 다양할 수 있고/있거나 무작위로 다양할 수 있다. At
단계 1810에서, 처리부(110)는, 예를 들어 패치들에 근거한 정규화된 상관도 계산(normalized correlation computations)를 활용하여, 선택된 포인트 그리드를 추적할 수 있다. 추적된 포인트로부터, 처리부(110)는 추적에 근거한 최고 점수를 가진 포인트의 부분집합을 선택할 수 있다. At
단계 1812에서, 처리부(110)는 추적된 포인트를 호모그래피에 맞출 수 있다. 일부 실시예에서, 처리부(110)는 추적된 포인트의 무작위 부분집합을 활용하여 다중 호모그래피를 계산할 수 있다. 이러한 실시예에서, 처리부(110)는 최고 점수의 호모그래피를 가진 무작위 부분집합을 유지할 수 있다. At
단계 1814에서, 처리부(110)는 단계 1812의 호모그래피를 활용하여 초기의 뒤틀림을 수정할 수 있다. 예를 들어, 처리부(110)는 복수의 이미지의 제1 이미지를 복수의 이미지의 제2 이미지를 향해 다시 뒤틀기 위해 최고 점수의 호모그래피를 가진 포인트의 무작위 부분집합을 활용할 수 있다. 처리부(110)는 재 뒤틀림 된 이미지로부터 직접 최소 제곱 호모그래피를 더 계산할 수 있다. 당업자라면 도로 호모그래피를 계산하기 위한 다른 알고리즘을 사용할 수도 있음을 인지할 수 있을 것이다. At
[주차 차량의 방향에 기반을 둔 일방통행 도로 검출][One-way road detection based on direction of parked vehicle]
차량을 식별하고 식별된 차량의 전면 및/또는 후면을 식별하는 시스템과 방법은 일방통행 도로의 검출을 가능하게 할 수 있다. 차량의 식별된 전면 및/또는 후면을 활용함으로써, 표지판을 해석하지 않고도 또는 도로상에 운행중인 차량이 없는 경우에도 일방통행 도로를 검출할 수 있다. 하기에 설명하는 본 기재의 실시예들은 주차된 차량의 검출에 기반하여 일방통행 도로를 검출하기 위한 시스템 및 방법에 관한 것이다. Systems and methods for identifying a vehicle and identifying the front and/or rear of the identified vehicle may enable detection of one-way roads. By utilizing the identified front and/or rear of the vehicle, one-way roads can be detected without interpreting signs or even when there are no vehicles running on the road. Embodiments of the present disclosure described below relate to systems and methods for detecting a one-way road based on detection of a parked vehicle.
도 19는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다.19 is an exemplary functional configuration diagram of
도 19에 도시된 바와 같이, 메모리(140)는 차량 식별 모듈(1902), 방향 판단 모듈(1904), 차량 측면 식별 모듈(1906) 및 주행 반응 모듈(1908)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(1902-1908)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 19 , the
일 실시예에서, 차량 식별 모듈(1902)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 식별 모듈(1902)은 한 대 이상의 차량의 경계박스(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment, the vehicle identification module 1902 includes instructions (computer vision) that, when executed by processing
일 실시예에서, 방향 판단 모듈(1904)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 하기의 도 20a 및 도 20b와 연관하여 설명하는 바와 같이, 방향 판단 모듈(1904)은 식별된 차량의 전방 방향을 판단하기 위한 명령을 포함할 수 있다. In one embodiment,
예를 들면, 전방 방향은 평행 주차되어 있는 식별된 차량이 호스트 차량의 전방이 호스트 차량을 향하고 있는지 여부를 가리킬 수 있다. 다른 예를 들면, 전방 방향 또는 "비스듬한 방향"은 비스듬한 주차 자리에 주차된 식별된 차량이 호스트 차량을 향해 비스듬한지 여부를 가리킬 수 있다. 이러한 예에서, 전방 방향은 식별된 차량이 비스듬한 주차 자리에 전방 주차를 했는지 또는 후방 주차를 했는지를 더 가리킬 수 있다. For example, the forward direction may indicate whether the identified vehicle that is parallel parked is facing the host vehicle with the front of the host vehicle. For another example, a forward direction or "oblique direction" may indicate whether an identified vehicle parked in an angled parking spot is angled towards the host vehicle. In this example, the forward direction may further indicate whether the identified vehicle was front parked or rear parked in an oblique parking spot.
일 실시예에서, 차량 측면 식별 모듈(1906)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 측면 식별 모듈(1906)은 한 대 이상의 차량의 식별된 경계박스(bounding box)를 분류하기 위한 명령을 포함할 수 있다. In one embodiment, vehicle side identification module 1906, when executed by processing
일 실시예에서, 주행 반응 모듈(1908)은 차량 식별 모듈(1902), 방향 판단 모듈(1904), 및/또는 차량 측면 식별 모듈(1906)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(1908)은 하기에 기재되는 도 21의 방법(2100)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the
나아가, 여기에 기재된 모듈(예, 1902, 1904, 1906)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Further, one or more of the modules (eg, 1902, 1904, 1906) described herein may implement a learning system (eg, a neural network or a deep neural network) or a manner in conjunction with a non-learning system.
도 20a는 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로(2002)를 도시한 것이다. 도로(2002)는 일측에 제1 복수의 정지된 차량(예, 제1 차량(2004))을 포함할 수 있고, 타측에 제2 복수의 정지된 차량(예, 제2 차량(2006))을 포함할 수 있다. 하기에 도 21의 방법(2100)에서 설명하는 바와 같이, 시스템은 제1 복수의 정지된 차량에서 차량의 전방 방향을 판단하고 제2 복수의 정지된 차량에서 차량의 전방 방향을 판단할 수 있다. 20A illustrates a one-way road 2002 from the perspective of the system according to the disclosed embodiments. Road 2002 can include a first plurality of stationary vehicles on one side (eg, first vehicle 2004) and a second plurality of stationary vehicles (eg, second vehicle 2006) on the other side. can include As described below in
도 20a에 도시된 바와 같이, 시스템은 제1 복수의 정지된 차량과 제2 복수의 정지된 차량의 전방 방향이 모두 동일한 경우에 도로(2002)가 일방통행 도로라고 판단할 수 있다. 도로(2002)의 일측이 평행 주차 방식이 아닌 비스듬한 주차 방식인 다른 실시예에서, 시스템은 평행 주차 측의 전방 방향이 비스듬한 주차 측의 비스듬한 방향과 동일한 경우에 도로(2002)가 일방통행 도로라고 판단할 수 있다. 도로(2002)의 양측이 비스듬한 주차 방식인 또 다른 실시예에서, 시스템은 제1 복수의 정지된 차량과 제2 복수의 정지된 차량의 비스듬한 방향이 모두 동일한 경우에 도로(2002)가 일방통행 도로라고 판단할 수 있다. 특정 양상에서, 이러한 판단은 제1 및/또는 제2 복수의 정지된 차량의 비스듬한 주차 자리에 전방 주차를 했는지 또는 후방 주차를 했는지에 따라 다를 수 있다. As shown in FIG. 20A , the system may determine that road 2002 is a one-way road if the forward directions of the first plurality of stopped vehicles and the second plurality of stopped vehicles are both the same. In another embodiment where one side of road 2002 is skewed parking rather than parallel parking, the system determines that road 2002 is a one-way street if the forward direction of the parallel parking side is the same as the skewed direction of the oblique parking side. can do. In another embodiment where both sides of the road 2002 are skewed parking, the system determines that the road 2002 is a one-way road if the first plurality of stationary vehicles and the second plurality of stationary vehicles both have the same slope direction. can be judged. In certain aspects, this determination may be different depending on whether the first and/or second plurality of stationary vehicles are front parked or rear parked in an oblique parking spot.
도 20b도 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로(2008)를 도시한 것이다. 도로(2002)와 유사하게, 도로(2002)는 일측에 제1 복수의 정지된 차량(예, 제1 차량(2010))을 포함할 수 있고, 타측에 제2 복수의 정지된 차량(예, 제2 차량(2012))을 포함할 수 있다. 하기에 도 21의 방법(2100)과 관련하여 설명하는 바와 같이, 시스템은 제1 복수의 정지된 차량에서 차량의 전방 방향을 판단하고 제2 복수의 정지된 차량에서 차량의 전방 방향을 판단할 수 있다. 20B also shows a one-
도 20b에 도시된 바와 같이, 시스템은 차량(예, 2010)의 전방 방향이 관련된 복수의 차량의 전방 방향과 다른 경우에 상기 차량이 잘못 주차돼 있다고 판단할 수 있다. 예를 들면, 다른 방향으로 향하고 있는 다른 차량의 수가 임계값 이상인 경우에 차량이 잘못 주차돼 있다고 판단할 수 있다. 다른 예를 들면, 시스템은 다른 방향으로 향하고 있는 다른 차량과 동일 방향으로 향하고 있는 차량의 비율이 임계값 이상인 경우에(예, 50% 이상, 60% 이상, 70% 이상 등) 차량이 잘못 주차돼 있다고 판단할 수 있다. 일부 실시예에서, 이러한 판단은 차량(2010)의 소유주 또는 운전자에게 교통위반딱지를 발급(또는 호스트 차량의 운전자에게 교통위반딱지를 발급하도록 명령)하는데 활용될 수 있다. As shown in FIG. 20B , the system may determine that a vehicle (eg, 2010) is incorrectly parked if the forward direction of the vehicle (eg, 2010) is different from that of the plurality of associated vehicles. For example, a vehicle may be determined to be incorrectly parked if the number of other vehicles heading in the other direction is greater than a threshold value. As another example, the system may determine that a vehicle is incorrectly parked if the ratio of vehicles heading in the same direction to other vehicles heading in a different direction is above a threshold (e.g., greater than 50%, greater than 60%, greater than 70%, etc.). It can be judged that there is In some embodiments, this determination may be utilized to issue a traffic ticket to the owner or driver of vehicle 2010 (or to command the driver of the host vehicle to issue a traffic ticket).
도 21은 기재된 실시예에 따른 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(2100)을 도시한 순서도이다. 단계 2102에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 21 is a flow chart illustrating an
단계 2104에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 도로의 일측의 제1 복수의 차량을 식별할 수 있다. 예를 들어, 제1 복수의 차량을 식별하는 단계는 경계박스(bounding box)를 제1 복수의 차량의 형상과 연계하는 단계를 더 포함할 수 있다. 예를 들면, 상기 분석은 앞서 도 9와 도 10을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. At step 2104, processing
단계 2104는 적어도 하나의 이미지의 분석에 기반하여 제1 복수의 차량의 적어도 한 대 또는 제2 복수의 차량의 적어도 한 대의 측면을 식별하는 단계를 더 포함할 수 있다. 예를 들어, 상기 분석은 앞서 도 9와 도 10을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. 일부 실시예에서, 측면의 식별은 제1 복수의 차량의 적어도 하나 또는 제2 복수의 차량의 적어도 하나와 연관된 적어도 두 개의 특징에 기반을 둘 수 있다. 예를 들면, 차량과 연관된 특징은 미러, 윈도우, 도어 손잡이, 도어 형상, 도어의 수, 전면 및/또는 후면 유리의 경사 등을 포함할 수 있다. 일부 실시예에서, 식별된 측면은 우측일 수 있다. 다른 실시예에서, 식별된 측면은 좌측일 수 있다. Step 2104 may further include identifying a side of at least one vehicle of the first plurality or at least one vehicle of the second plurality based on the analysis of the at least one image. For example, the analysis may be performed using the learning algorithm described above with reference to FIGS. 9 and 10 . In some embodiments, identification of the aspect may be based on at least two characteristics associated with at least one of the first plurality of vehicles or at least one of the second plurality of vehicles. For example, features associated with a vehicle may include mirrors, windows, door handles, door shape, number of doors, slope of front and/or rear glass, and the like. In some embodiments, the identified side may be the right side. In another embodiment, the side identified may be the left side.
단계 2106에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 도로의 다른 측의 제2 복수의 차량을 식별할 수 있다. 단계 2106은 단계 2104와 유사하게 및/또는 동시에 수행될 수 있다. 단계 2108에서, 처리부(110)는 제1 복수의 차량에 대한 제1 전방 방향을 판단할 수 있다. 일부 실시예에서, 제1 복수의 차량은 모두 동일한 전방 방향일 수 있다. 다른 실시예에서, 전방 방향은 서로 다를 수 있다. At step 2106, processing
단계 2110에서, 처리부(110)는 제2 복수의 차량에 대한 제2 전방 방향을 판단할 수 있다. 일부 실시예에서, 제2 복수의 차량은 모두 동일한 전방 방향일 수 있다. 다른 실시예에서, 전방 방향은 서로 다를 수 있다.At
단계 2112에서, 처리부(110)는 호스트 차량의 주행 변경을 일으킬 수 있다. 예를 들어, 주행 반응은 회전(도 13에 도시), 차선 변경, 가속도 변경(예, 호스트 차량의 브레이크 작동) 등을 포함할 수 있다. 처리부(110)는 단계 2112에서 수행된 판단에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 제1 및 제2 전방 방향에 근거하여 도로가 일방통행도로임을 판단할 수 있다. 이러한 판단에 기반하여, 처리부는 호스트 차량의 감속 또는 정지 및/또는 유턴을 실행할 수 있다.At
일부 실시예에서, 방법(2100)은 추가적인 단계를 포함할 수 있다. 예를 들어, 방법(2100)은 호스트 차량이 운행중인 제1 도로로부터 제2도로로 호스트 차량을 주행하도록 하는 주행 명령을 수신하는 단계를 포함할 수 있다. 주행 명령은 호스트 차량을 제2도로로 회전, 제2도로로 방향을 전환, 제2도로로 진입하는 램프로 병합 등을 하도록 하는 명령을 포함할 수 있다. In some embodiments,
이러한 실시예에서, 방법(2100)은 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량이 제2도로로 회전할 경우에 호스트 차량이 운행하게 될 진행 방향과 반대 방향임을 판단하는 단계를 더 포함할 수 있다. 예를 들어, 처리부(110)는 제2도로 상의 차량의 이미지를 분석하여 제1 및 제2 진행 방향을 판단한 후, 호스트 차량의 예상 진행 방향과 반대 방향인지 여부를 판단할 수 있다. 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량이 제2도로로 회전할 경우에 호스트 차량이 운행하게 될 진행 방향과 반대 방향이라는 판단에 대하여, 주행 명령을 중단할 수 있다. 예를 들어, 처리부(110)는 제2 도로가 호스트 차량의 예상 진행 방향과 반대 방향인 일방통행도로라고 판단하였으므로 제2 도로로의 회전, 전환, 병합 등의 명령을 취소할 수 있다. In this embodiment, the
다른 실시예에서, 방법(2100)은 중단된 주행 명령을 재개하는 무시 명령(override instruction)을 수신하는 단계를 포함할 수 있다. 예를 들면, 무시 명령(override instruction)은 호스트 차량 내부의 사용자로부터 수신된 수동 확인, 지도 데이터에 접근, 제2도로의 운행 방향에 관한 크라우드 소싱된 데이터(crowdsourced data) 등에 기반하여 개시될 수 있다. In another embodiment,
처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다.
[열 프로파일에 기반을 둔 주차 차량의 상태 예측][Status prediction of parked vehicle based on thermal profile]
열 프로파일(heat profile)에 기반하여 주차 차량의 상태를 예측하는 시스템과 방법은 주차 차량이 움직이기 시작하기 전에 차량의 움직임의 예측을 가능하게 한다. 이로 인해, 시스템은 기존의 동작 검출과 같이 동작이 실제로 검출될 때까지 기다리지 않고, 예측된 움직임을 식별하고 사전에 대응할 수 있다. 하기에 설명하는 본 기재의 실시예들은 열 프로파일에 기반하여 주차 차량의 상태를 예측하기 위한 시스템 및 방법에 관한 것이다.A system and method for predicting the state of a parked vehicle based on its heat profile enables prediction of vehicle motion before the parked vehicle begins to move. This allows the system to identify predicted motion and proactively respond to it, rather than waiting for motion to actually be detected as in conventional motion detection. Embodiments of the present disclosure described below relate to systems and methods for predicting the condition of a parked vehicle based on a thermal profile.
도 22는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다. 22 is an exemplary functional configuration diagram of
도 22에 도시된 바와 같이, 메모리(140)는 시각적-적외선 정렬 모듈(2202), 차량 식별 모듈(2204), 상태 예측 모듈(2206), 및 주행 반응 모듈(2208)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(2202-2208)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 22 , the
일 실시예에서, 시각적-적외선 정렬 모듈(2202)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 시각적 이미지를 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 적외선 이미지와 정렬하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들어, 시각적-적외선 정렬 모듈(2202)은 하기에 설명하는 도 25의 방법(2500)을 실행하기 위한 명령을 포함할 수 있다. In one embodiment, the visual to
일 실시예에서, 차량 식별 모듈(2204)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 식별 모듈(2204)은 한 대 이상의 차량의 경계박스(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment,
일 실시예에서, 상태 예측 모듈(2206)은 처리부(110)에 의해 실행되는 경우에 시각적-적외선 정렬 모듈(2202)로부터의 하나 이상의 정렬된 이미지의 분석을 수행하여 한 대 이상의 식별된 차량의 상태를 예측하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들어, 상태 예측 모듈(2206)은 식별된 차량의 시각적 지시자와 열 지시자에 근거하여 예측 상태를 출력할 수 있다. In one embodiment,
일 실시예에서, 주행 반응 모듈(2208)은 시각적-적외선 정렬 모듈(2202), 차량 식별 모듈(2204), 및/또는 상태 예측 모듈(2206)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(2208)은 하기에 기재되는 도 24의 방법(2400)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the driving
나아가, 여기에 기재된 모듈(예, 2202, 2204, 2206)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Furthermore, one or more of the modules (eg, 2202, 2204, 2206) described herein may implement a learning system (eg, a neural network or a deep neural network) or a manner in conjunction with a non-learning system.
도 23a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량(2302)을 도시한 것이다. 예를 들면, 시스템은 차량(2302)의 조명 상태 변화 및/또는 온도 특징에 대해 모니터할 수 있다. 시스템은 예를 들어 도 24의 방법(2400)을 활용하여 조명 상태 변화 및/또는 온도 특징에 근거한 차량(2302)의 예측 상태를 판단할 수 있다. 23A shows a parked
도 23b는 조명 상태가 변화된 주차 차량(2302)을 도시한 것이다. 도 23b의 예에서, 차량(2302)의 후미등(2304a, 2304b)이 소등 상태에서 점등 상태로 변화하였다. 전조등의 조명 상태가 바뀐 다른 실시예도 가능하다. 또한 차량의 전조등 및/또는 후미등이 점등 상태에서 소등 상태로 바뀌는 다른 실시예도 가능하다. 23B shows a parked
도 23c는 엔진(2306)이 따뜻하고 타이어(2308a, 2308b)가 차가운 주차 차량(2302)(다른 각도에서 바라봄)을 도시한 것이다. 여기서, '따뜻하다.'와 '차갑다.'라는 표현은 미리 설정 및/또는 학습될 수 있는 예상 온도로부터의 편차를 의미하는 용어일 수 있다. 예를 들면, 엔진이 주위 온도보다 높으면 '따뜻하다.'라고 할 수 있고, 주위 온도보다 낮거나 같으면 '차갑다'고 할 수 있다. 본 기재의 실시예들에서, 엔진 또는 엔진 온도에 관한 설명은, 예를 들면, 차량의 전면에 위치한 엔진 후드와 같이, 온도가 엔진의 온도에 흔히 영향을 받는 차량의 특정 영역에 관한 것일 수 있다. '따뜻한' 및 '차가운' 온도의 임계값은 요구되는 특정 조건 하에서의 엔진 후드의 예상 온도를 반영하도록, 가능하면 긍정 오류 또는 부정 오류 검출을 줄이기 위한 약간의 공차를 허용하여, 선택될 수 있다. 일례에서, 화창한 조건하에서, 임계 온도는 햇볕에 의한 가열을 고려하여(예, 차량의 후드가 햇빛에 노출된다는 판단 후) 조절될 수 있다. 다른 예에서, 태양의 영향은 이미지의 스펙트럼 분석으로 판단될 수 있는 차량의 색깔을 감안하여 고려될 수 있다. 다른 예에서, 현재 모니터하고 있는 차량의 현지 지역 내의 이전에 검출된 주차 차량 및/또는 한 대 이상의 주차 차량의 특정 영역의 온도의 평균을 산출하여 임계값이 판단될 수 있다. 23C shows a parked vehicle 2302 (viewed from another angle) with a
이와 유사하게, 타이어 온도를 차량의 상태에 대한 지시자로 활용할 수 있다. 예를 들면, 타이어가 도로 온도보다 높으면 '따뜻한' 것일 수 있고, 도로 온도보다 낮거나 같으면 '차가운' 것일 수 있다. 다른 예에서, 임계 온도(예, '따뜻한' 타이어와 '차가운' 타이어를 구분하는 온도)는 예상되거나 산출된 타이어의 작동 온도와 연관 있을 수 있다. 작동 온도 산출은 주위 조건 외에도 운전 모델과 운전 모델이 타이어 온도에 미치는 영향 등을 감안할 수 있다. 또 다른 예에서, 작동 온도 산출은 타이어 냉각 모델도 포함할 수 있다. 타이어 냉각 모델도 주위 조건을 감안할 수 있다. 도 23c의 예에서, 시스템은 예를 들어 도 24의 방법(2400)을 활용하여 엔진(2306)과 타이어(2308a, 2308b)의 온도에 근거한 차량(2302)의 예측 상태를 판단할 수 있다. Similarly, tire temperature can be used as an indicator of the condition of the vehicle. For example, a tire may be 'warm' if it is higher than the road temperature, or 'cold' if it is lower than or equal to the road temperature. In another example, the threshold temperature (eg, the temperature that distinguishes a 'warm' tire from a 'cold' tire) may be related to an expected or calculated operating temperature of the tire. In addition to the ambient conditions, the operating temperature calculation can take into account the driving model and the effect of the driving model on the tire temperature. In another example, the operating temperature calculation may also include a tire cooling model. Tire cooling models can also account for ambient conditions. In the example of FIG. 23C , the system can determine a predicted state of
도 24는 기재된 실시예에 따른 주차 차량의 예측 상태를 판단하기 위한 예시적인 과정(2400)을 도시한 순서도이다. 단계 2402에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 24 is a flowchart illustrating an
복수의 이미지는 일정 시간에 걸쳐 수집될 수 있다. 예를 들면, 복수의 이미지는 t = 0인 시간에 캡처 된 제1 이미지, t = 0.5초에 캡처 된 제2 이미지, 및 t = 1.0초에 캡처 된 제3 이미지를 포함할 수 있다. 이미지 사이의 시간은 적어도 하나 이상의 이미지캡처장치의 주사율에 따라 다를 수 있다. A plurality of images may be collected over a period of time. For example, the plurality of images may include a first image captured at time t = 0, a second image captured at t = 0.5 second, and a third image captured at t = 1.0 second. The time between images may vary depending on the scan rate of at least one image capture device.
단계 2404에서, 처리부(110)는 복수의 이미지를 분석하여 주차 차량을 식별할 수 있다. 예를 들어, 주차 차량을 식별하는 단계는 적어도 하나의 경계박스(bounding box)를 타깃 차량의 측면 형상과 연관시키는 단계를 더 포함할 수 있다. 예를 들면, 앞서 도 9 및 도 10을 참조하여 설명한 바와 같은 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. 일부 실시예에서, 단계 2404는 식별된 타깃 차량 전면의 엔진 및/또는 식별된 타깃 차량 측면의 휠을 식별하는 단계를 더 포함할 수 있다. 예를 들어, 앞서 도 11을 참조하여 설명한 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다.At
단계 2406에서, 처리부(110)는 복수의 이미지를 분석하여 주차 차량의 조명 상태의 변화를 식별할 수 있다. 예를 들면, 처리부(110)는 주차 차량의 후미등 및/또는 전조등을 식별하고 식별된 후미등 및/또는 전조등이 소등에서 점등으로(도 23b의 예) 또는 점등에서 소등으로 변하는지 모니터할 수 있다. 다른 실시예는, 예를 들어, 주차등만의 점등이 브레이크등의 점등으로 변화하는 것과 같은 더욱 상세한 변화를 포함할 수 있다. At
일부 실시예에서, 방법(2400)은 주차 차량의 예측 상태를 조명 상태의 변화에 기반하여 판단하는 단계를 포함하고 단계 2412로 건너 뛸 수 있다(즉, 주차 차량의 예측 상태에 기반하여 호스트 차량에 적어도 하나의 주행 반응을 유발). 예를 들어, 주차 차량과 연계된 적어도 하나의 등의 조명 상태의 소등 상태에서 점등 상태로의 변화에 기반하여, 처리부(110)는 주차 차량의 예측 상태가 주차 차량의 엔진에 시동이 걸렸다는 표시를 포함한다고 판단할 수 있다. 이와 유사하게, 주차 차량과 연계된 적어도 하나의 등의 조명 상태의 점등 상태에서 소등 상태로의 변화에 기반하여, 처리부(110)는 주차 차량의 예측 상태가 주차 차량의 엔진에 시동이 꺼졌다는 표시를 포함한다고 판단할 수 있다. 이에 따라, 이러한 실시예에서, 이러한 판단은 열 이미지(thermal image)를 활용하지 않을 수 있다. In some embodiments,
단계 2408에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 열 이미지(thermal image)(즉, 적외선 이미지)를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 열 이미지(thermal image)를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. At
단계 2408은 단계 2402와 별개로 또는 동시에 수행될 수 있다. 따라서, 일부 실시예에서, 시각적 이미지 및 적외선 이미지는 동시에 수신될 수 있다. 다른 실시예에서, 하나 이상의 이미지캡처장치와 하나 이상의 적외선 이미지캡처장치 사이의 주사율 및/또는 전송 속도를 다르게 함으로써 시각적 이미지와 적외선 이미지 사이에 지연이 있게 할 수 있다.
일부 실시예에서, 방법(2400)은 복수의 이미지의 적어도 하나와 적어도 하나의 열 이미지(thermal image)를 정렬하는 단계를 더 포함할 수 있다. 이러한 정렬에 따라, 방법(2400)은 정렬된 적어도 하나의 열 이미지(thermal image)에서 주차 차량의 엔진 영역 및 적어도 하나의 휠 요소(wheel component) 영역 중 적어도 하나를 식별하는 단계를 더 포함할 수 있다. In some embodiments,
단계 2410에서, 처리부(110)는 단계 2406의 분석 및/또는 적어도 하나의 열 이미지(thermal image)의 분석에 기반하여 주차 차량의 예측 상태를 판단할 수 있다. 예를 들면, 예측 상태는 주차 차량의 엔진에 시동이 켜졌다는 표시 또는 주차 차량의 엔진에 시동이 꺼졌다는 표시를 포함할 수 있다. 다른 예를 들면, 예측 상태는 주차 차량이 미리 정해진 시간 이내에 움직이지 않을 것으로 예상된다는 표시, 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상된다는 표시, 또는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상된다는 표시를 포함할 수 있다. At
일부 실시예에서, 적어도 하나의 열 이미지(thermal image)의 분석은 주차 차량의 엔진 영역의 온도를 판단하는 단계를 포함할 수 있다. 예를 들어, 온도가 임계값보다 낮은 경우, 처리부(110)는 주차 차량이 미리 정해진 시간 이내에 움직이지 않을 것으로 예상된다는 표시를 포함하는 예측 상태를 판단할 수 있다. 미리 정해진 시간은 예를 들어 주차 차량 또는 주차 차량의 엔진의 알려진 특성에 따라 달라질 수 있다. In some embodiments, analyzing the at least one thermal image may include determining a temperature of an engine area of the parked vehicle. For example, if the temperature is below a threshold, processing
일부 실시예에서, 적어도 하나의 열 이미지(thermal image)의 분석은 주차 차량의 엔진 영역의 제1 온도와 주차 차량의 적어도 하나의 휠 요소(wheel component)의 제2 온도를 판단하는 단계를 포함할 수 있다. 이러한 실시예에서, 주차 차량의 예측 상태는 제1 온도와 제1 임계값의 비교 및 제2 온도와 제2 임계값의 비교에 기반하여 판단될 수 있다. 예를 들면, 제1 온도가 제1 임계값보다 높고 제2 온도가 제2 임계값보다 낮은 경우, 처리부(110)는 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상된다는 표시를 포함하는 예측 상태를 판단할 수 있다. In some embodiments, analyzing the at least one thermal image may include determining a first temperature of an engine region of the parked vehicle and a second temperature of at least one wheel component of the parked vehicle. can In this embodiment, the predicted state of the parked vehicle may be determined based on a comparison of the first temperature with the first threshold value and the comparison of the second temperature with the second threshold value. For example, if the first temperature is higher than the first threshold and the second temperature is lower than the second threshold, processing
다른 예를 들면, 제1 온도가 제1 임계값보다 높고 제2 온도가 제2 임계값보다 높은 경우, 처리부(110)는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상된다는 표시를 포함하는 예측 상태를 판단할 수 있다. In another example, if the first temperature is higher than the first threshold and the second temperature is higher than the second threshold, processing
일부 실시예에서, 처리부(110)는 조명의 변화, 적어도 하나의 열 이미지(thermal image)의 분석, 또는 이들의 조합에 기반을 둔 예측 상태에 적어도 부분적으로 근거하여 수신 이미지의 추가 모니터링을 수행할 수 있다. 예를 들면, 예측 상태가 주차 차량의 엔진에 시동이 꺼진 것을 나타내고 및/또는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상되는 것을 나타내는 경우, 처리부(110)는 수신 이미지의 하나 이상의 부분을 모니터하여 주차 차량의 도어 에지의 이미지 특성에 변화가 있는지 여부를 확인할 수 있다. 이러한 모니터링의 예는 도 14의 방법(1400)과 관련하여 상기에 설명하였다. 다른 예를 들면, 예측 상태가 주차 차량의 엔진에 시동이 켜진 것을 나타내고 및/또는 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상되는 것을 나타내는 경우, 처리부(110)는 수신 이미지의 하나 이상의 휠 요소(wheel component)를 모니터하여 휠 요소(wheel component)의 움직임을 확인할 수 있다. 이러한 모니터링의 예는 도 17의 방법(1700)과 관련하여 상기에 설명하였다.In some embodiments, processing
단계 2412에서, 처리부(110)는 호스트 차량의 주행 변경을 일으킬 수 있다. 예를 들어, 주행 반응은 호스트 차량의 진행 방향의 변경(도 13에 도시), 차선 변경, 가속도 변경 등을 포함할 수 있다. 처리부(110)는 단계 2410에서 수행되어 판단된 예측 상태에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상된다고 나타내는 또는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상된다고 나타내는 예측 상태에 대응하여 호스트 차량을 주차 차량으로부터 이동 및/또는 호스트 차량을 감속할 수 있다. At
도 25는 시각적 이미지와 적외선 이미지를 정렬하기 위한 예시적인 과정(2500)을 도시한 순서도이다. 단계 2502와 2504에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 시각적 이미지와 적어도 하나의 적외선 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 시각적 이미지와 적어도 하나의 적외선 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 25 is a flow chart illustrating an
일부 실시예에서, 시각적 이미지 및 적외선 이미지는 동시에 수신될 수 있다. 다른 실시예에서, 하나 이상의 이미지캡처장치와 하나 이상의 적외선 이미지캡처장치 사이의 주사율 및/또는 전송 속도를 다르게 함으로써 시각적 이미지와 적외선 이미지 사이에 지연이 있게 할 수 있다. In some embodiments, visual images and infrared images may be received simultaneously. In another embodiment, there may be a delay between the visual image and the infrared image by varying the scan rate and/or transfer rate between the one or more image capture devices and the one or more infrared image capture devices.
단계 2506에서, 처리부(110)는 적어도 하나의 적외선 이미지에서 한 세트의 기준점을 선택할 수 있다. 예를 들어, 한 세트의 기준점은 무작위로 선택되거나 알려진 특성에 기반을 둔 알려진 대상(예, 보행자, 나무, 차량 등)의 식별을 포함할 수 있다. At
단계 2508에서, 처리부(110)는 기준점을 적어도 하나의 적외선 이미지로부터 적어도 하나의 시각적 이미지로 투사할 수 있다. 예를 들면, 처리부(110)는 기준점을 나타내는(예, 에워싸는) 형상(예, 타원, 사각형, 사다리꼴 등)을 적어도 하나의 시각적 이미지 내의 한 위치에 투사할 수 있다. At step 2508, processing
단계 2510에서, 처리부(110)는 기준점에 상응하는 시각적 이미지의 부분에 대한 게인(gain) 및/또는 노출을 최적화할 수 있다. 예를 들어, 최적화의 결과로 향상된 대비는 정렬의 신뢰성을 더욱 향상시킬 수 있다. 단계 2510은 선택 사항이며 모든 실시예에서 수행될 필요는 없다. At step 2510, processing
단계 2512에서, 처리부(110)는 적어도 하나의 적외선 이미지를 적어도 하나의 시각적 이미지와 정렬시킬 수 있다. 예를 들어, 이미지를 정렬하는(또는 일치시키는) 단계는 정렬의 정도를 최적화하는 거리를 등극선(epipolar laine)을 따라 검색하는 단계를 포함할 수 있다. 본 예에서, 정렬의 정도를 최적화함으로써, 기준점과 보는 사람 사이 및/또는 기준점과 다른 대상 사이의 거리가 시각적 이미지와 적외선 이미지에서 모두 동일하게 할 수 있다. At
[차량 사이의 간격 검출에 기반을 둔 주행제어][Travel control based on distance detection between vehicles]
차량과 차량 사이의 간격을 식별하는 시스템과 방법은 검출된 간격에 기반을 둔 주행제어를 가능하게 할 수 있다. 이 방법을 통한 주행제어를 함으로써, 검출된 간격 내의 움직임에 대한 사전 모니터링과 반응을 기존의 동작 검출보다 짧은 반응 시간에 할 수 있다. 하기에 설명하는 본 기재의 실시예들은 차량 사이의 간격 검출에 기반을 둔 주행제어를 위한 시스템과 방법에 관한 것이다. Systems and methods for identifying gaps between vehicles may enable driving control based on the detected gaps. By performing driving control through this method, preliminary monitoring and reaction to motion within the detected interval can be performed in a shorter reaction time than conventional motion detection. Embodiments of the present disclosure described below relate to a system and method for driving control based on distance detection between vehicles.
도 26은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다.26 is an exemplary functional configuration diagram of
도 26에 도시된 바와 같이, 메모리(140)는 이미지 분석 모듈(2602), 차량 식별 모듈(2604), 간격 계산 모듈(2606), 및 주행 반응 모듈(2608)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 메모리(140)에 포함된 모듈(2602 ~ 2608)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다As shown in FIG. 26 , the
일 실시예에서, 이미지 분석 모듈(2602)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 일부 실시예에서, 처리부(110)는 한 세트의 이미지로부터의 정보를 추가적인 감지 정보(예, 레이더, 라이더 등으로부터의 정보)와 병합하여 이이지 분석을 수행할 수 있다. 하기에 차량 식별 모듈(2604)과 관련하여 설명하는 바와 같이, 이미지 분석 모듈(2602)은 하나 이상의 특징(예, 전면, 후면, 측면 등)을 활용하여 차량을 검출하기 위한 명령을 포함할 수 있다. In one embodiment,
일 실시예에서, 차량 식별 모듈(2604)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 식별 모듈(2604)은 한 대 이상의 차량의 경계박스(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment,
일 실시예에서, 간격 계산 모듈(2606)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 하기의 도 27a와 도 27b와 관련하여 설명하는 바와 같이, 또한 차량 식별 모듈(2604)과 협력하여, 간격 계산 모듈(2606)은 식별된 차량 사이의 하나 이상의 간격을 계산하기 위한 명령을 포함할 수 있다. In one embodiment,
일 실시예에서, 주행 반응 모듈(2608)은 이미지 분석 모듈(2602), 차량 식별 모듈(2604), 및/또는 간격 계산 모듈(2606)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(2608)은 하기에 기재되는 도 28의 방법(2800)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the
나아가, 여기에 기재된 모듈(예, 2602, 2604, 2606)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다.Further, one or more of the modules (eg, 2602, 2604, and 2606) described herein may implement a learning system (eg, a neural network or a deep neural network) or a method in conjunction with a non-learning system.
도 27a는 기재된 실시예에 따른 시스템의 시점에서 바라본 도로(2702)를 도시한 것이다. 도로(2702)는 복수의 정지된 차량(예, 2704, 2706)을 포함할 수 있다. 하기에 도 28의 방법(2800)을 참조하여 설명하는 바와 같이, 시스템은 정지된 차량의 측면에 대한 경계박스(bounding box), 예를 들면, 차량(2704)에 대한 측면 경계박스(bounding box)(2708)와 차량(2706)에 대한 측면 경계박스(bounding box)(2710)를 식별할 수 있다. 하기에 도 28의 방법(2800)을 참조하여 더 설명하는 바와 같이, 시스템은 한 경계박스(bounding box)의 맨 앞쪽과 인접한 경계박스(bounding box)의 맨 뒤쪽, 예를 들면, 경계박스(bounding box)(2708)의 앞쪽(2712)과 경계박스(bounding box)(2710)의 뒤쪽(2714)을 활용하여 식별된 경계박스(bounding box) 사이의 간격을 식별할 수 있다. 27A shows a
도 27b도 기재된 실시예에 따른 시스템의 시점에서 바라본 차량(2704)과 차량(2706)을 포함하는 도로(2702)를 도시한 것이다. 도 27a와 마찬가지로, 시스템은 차량(2704)에 대한 측면 경계박스(bounding box)(2708)와 차량(2706)에 대한 측면 경계박스(bounding box)(2710)를 식별하였다. 도 27b에 도시된 바와 같이, 경계박스(bounding box)(2708)의 앞쪽(2712)과 경계박스(bounding box)(2710)의 뒤쪽(2714) 사이에 식별된 간격에 근거하여 핫스팟(2716)이 식별되었다. 하기에 도 28의 방법(2800)을 참조하여 설명하는 바와 같이, 시스템은 식별된 핫스팟에 기반하여 호스트 차량의 주행 반응을 결정할 수 있다. 27B also shows
도 28은 기재된 실시예에 따른 차량 사이의 검출된 간격에 기반을 둔 주행제어를 위한 예시적인 과정(2800)을 도시한 순서도이다. 단계 2802에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 레이더, 라이더, 음향 센서 등과 같은 기타 센서로부터의 추가 정보도 복수의 이미지를 대신하여 또는 병합하여 활용될 수 있다. 28 is a flow chart illustrating an
단계 2804에서, 처리부(110)는 복수의 이미지의 적어도 하나를 분석하여 적어도 두 대의 정지된 차량을 식별할 수 있다. 예를 들어, 정지된 차량을 식별하는 단계는 적어도 하나의 경계박스(bounding box)를 정지된 차량의 측면 형상과 연관시키는 단계를 더 포함할 수 있다. 예를 들면, 앞서 도 9 및 도 10을 참조하여 설명한 바와 같은 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. At
단계 2806에서, 처리부(110)는 식별된 차량 사이의 간격을 판단할 수 있다. 예를 들면, 처리부(110)는 적어도 하나의 이미지를 좌측에서 우측 방향으로(또는 우측에서 좌측 방향으로) 스캔하여 우측 에지 및 인접한 좌측 에지를 식별할 수 있다. 식별된 우측 에지와 식별된 좌측 에지는 한 경계박스(bounding box)의 맨 앞쪽과 다른 경계박스(bounding box)의 맨 뒤쪽을 포함할 수 있다. 우측 에지와 좌측 에지는 간격 쌍을 형성하고, 이 간격 쌍 사이의 간격이 계산될 수 있다. 이러한 실시예에서, 상기 간격은 정지된 차량 중 한 대의 앞쪽과 정지된 차량 중 다른 한 대의 뒤쪽 사이의 거리에 상응할 수 있다. At
다른 실시예에서, 식별된 우측 에지와 식별된 좌측 에지는 도로 일측의 한 경계박스(bounding box)와 도로 타측의 다른 경계박스(bounding box)를 포함할 수 있다. 이러한 실시예에서, 상기 간격은 정지된 차량의 인접한 측면 사이의 거리에 상응할 수 있다. In another embodiment, the identified right edge and the identified left edge may include one bounding box on one side of the road and another bounding box on the other side of the road. In this embodiment, the spacing may correspond to the distance between adjacent sides of a stationary vehicle.
일부 실시예에서, 단계 2806은 호스트 차량과 판단된 간격 사이의 거리를 계산하는 단계를 더 포함할 수 있다. 예를 들어, 처리부(110)는 호스트 차량의 이미지캡처장치(예, 카메라)의 높이와 초점거리에 기반하여 거리를 계산할 수 있다. 보행자 또는 기타 대상물의 알려진 특성(예, 키 또는 높이)에 근거하여, 처리부(110)는 계산된 간격 내부 및/또는 인근의 형상을 보행자 또는 기타 대상물이 등장할 수 있는 '핫스팟'으로 판단할 수 있다. 예를 들어, 이 형상은 사각형, 타원, 또는 기타 형상일 수 있다. In some embodiments,
단계 2808에서, 처리부(110)는 호스트 차량의 주행 변경을 일으킬 수 있다. 예를 들어, 주행 반응은 회전(도 13에 도시), 차선 변경(예, 운행중인 차선 내에서 호스트 차량을 이동 또는 호스트 차량의 운행 차선을 변경), 가속도 변경(예, 호스트 차량의 감속) 등을 포함할 수 있다. 일부 실시예에서, 상기 적어도 하나의 주행 변경은 호스트 차량의 조향 메커니즘, 브레이크, 가속장치 중의 하나를 실행하여 수행될 수 있다. At
처리부(110)는 단계 2806에서 계산된 간격에 근거하여 상기 적어도 하나의 주행 반응을 일으킬 수 있다. 예를 들면, 처리부(110)는 계산된 간격이 보행자를 수용하기에 충분하다고 판단할 수 있다. 이러한 판단에 근거하여, 처리부는 호스트 차량을 감속 및/또는 호스트 차량을 간격으로부터 멀어지게 이동할 수 있다. 다시 말해, 정지된 두 대의 차량 사이의 간격이 보행자가 횡단하기에 충분하다고 판단되는 경우에 상기 주행 변경이 실행될 수 있다.
다른 예를 들면, 처리부(110)는 계산된 간격이 차량을 수용하기에 충분하다고 판단할 수 있다. 이러한 판단에 근거하여, 처리부는 호스트 차량을 감속 및/또는 호스트 차량을 간격으로부터 멀어지게 이동할 수 있다. 다시 말해, 정지된 두 대의 차량 사이의 간격이 타깃 차량이 횡단하기에 충분하다고 판단되는 경우에 상기 주행 변경이 실행될 수 있다.For another example, processing
다른 예를 들면, 핫스팟의 모니터링에 근거하여, 처리부(110)는 보행자 또는 기타 대상물이 핫스팟 내부 또는 부근에서 식별되는 경우 또는 핫스팟 내부 또는 부근에서 동작이 검출되는 경우에 호스트 차량을 감속 및/또는 호스트 차량을 간격으로부터 멀어지게 이동할 수 있다. For another example, based on monitoring of the hotspot, processing
일부 실시예에서, 이후, 처리부(110)는 복수의 이미지의 분석에 근거하여 두 대의 정지된 차량 사이의 간격 내에서 보행자를 검출할 수 있다. 예를 들어, 처리부(110)는 계산된 간격과 보행자의 예상 키를 활용하여 수신된 이미지 내에서 보행자의 머리가 등장할 것으로 예상될 수 있는 장소(예, 도 27b의 핫스팟(2716))를 판단할 수 있다. In some embodiments, processing
보행자의 검출은, 앞서 차량 측면에 대해 학습된 분류기와 유사하게, 보행자에 대해 학습된 분류기를 활용하여 수행될 수 있다. 이러한 예에서, 핫스팟 내부의 검사 지점의 분류기 점수가 상한 임계값보다 높으면, 처리부(110)는 확인된 보행자를 그 지점에서 검출할 수 있다. 반면에, 핫스팟 내부의 검사 지점의 분류기 점수가 하한 임계값보다 높고 상한 임계값보다 낮으면, 처리부(110)는 보행의심자(suspect pedestrian)를 그 지점에서 검출할 수 있다. 보행의심자는 도로를 향해 움직이는지 여부를 더 추적할 수 있고, 도로를 향한 움직임이 추적되는 경우, 처리부는 보행의심자를 확인된 보행자로 재분류할 수 있다. 이러한 검출 방법은 기존의 동작 검출을 개선할 수 있다. Detection of the pedestrian may be performed utilizing a classifier learned for the pedestrian, similar to the classifier previously learned for the side of the vehicle. In this example, if the classifier score of a test point inside the hotspot is higher than the upper threshold, processing
일부 실시예에서, 두 대의 정지된 차량 사이의 간격의 적어도 일부분은 카메라의 시야로부터 가려질 수 있다. 이러한 실시예에서, 처리부(110)는 가려진 부분을 보완하기 위해 추가적인 분석을 수행할 수 있다. In some embodiments, at least a portion of the gap between the two stationary vehicles may be obscured from the camera's view. In such an embodiment, processing
처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다.
상기의 설명은 예시의 목적으로 제시되었다. 이 설명은 모든 것을 망라한 것이 아니며 기재된 그대로의 형태 또는 실시예로 제한되는 것이 아니다. 수정 및 적응은 본 명세서를 고려하고 기재된 실시예를 실시함으로써 당업자에게 당연할 것이다. 또한, 기재된 실시예의 양상들이 메모리에 저장되는 것으로 설명되었지만, 당업자라면 이러한 양상들이, 예를 들어, 하드 디스크 또는 CD ROM, 또는 다른 유형의 RAM 또는 ROM, USB 매체, DVD, 블루레이, 4K UHD 블루레이, 또는 기타 광드라이브 매체 등의 2차 저장장치와 같은 다른 유형의 컴퓨터 판독 가능한 매체에 저장될 수도 있음을 이해할 것이다. The foregoing description has been presented for purposes of illustration. This description is not exhaustive and is not limited to the forms or examples as described. Modifications and adaptations will occur to those skilled in the art from consideration of the present disclosure and practice of the described embodiments. Further, while aspects of the disclosed embodiments have been described as being stored in memory, those skilled in the art know that such aspects may be stored on, for example, a hard disk or CD ROM, or other type of RAM or ROM, USB media, DVD, Blu-ray, 4K UHD Blue It will be appreciated that it may also be stored on other types of computer readable media, such as secondary storage such as a storage device, memory card, or other optical drive media.
기재된 설명과 방법에 기반을 둔 컴퓨터 프로그램은 당업자에게는 당연한 기술이다. 다양한 프로그램 또는 프로그램 모듈이 당업자에게 공지인 기술을 사용하여 생성되거나 기존의 소프트웨어와 관련되어 설계될 수 있다. 예를 들어, 프로그램 섹션 또는 프로그램 모듈은 .Net Framework, .Net Compact Framework (및 Visual Basic, C 등과 같은 관련 언어), Java, C++, Objective-C, HTML, HTML/AJAX 조합, XML, 또는 자바 애플릿(Java applet)을 포함하는 HTML로 설계될 수 있다. A computer program based on the described descriptions and methods is well within the skill of those skilled in the art. Various programs or program modules can be created using techniques known to those skilled in the art or designed in conjunction with existing software. For example, a program section or program module may be .Net Framework, .Net Compact Framework (and related languages such as Visual Basic, C, etc.), Java, C++, Objective-C, HTML, HTML/AJAX combinations, XML, or Java applets. (Java applet) can be designed in HTML.
또한, 예시된 실시예들을 여기에 설명하였지만, 모든 실시예의 범위는 균등한 구성요소, 수정, 누락, 조합(예, 다양한 실시예에 걸친 양상의 조합), 적응, 및/또는 변경을 가짐은 본 발명의 당업자에게 당연하다. 청구항의 한정은 청구항에 사용된 언어에 근거하여 넓게 해석되어야 하며 본 명세서에서 또는 본 발명의 출원 중에 설명된 예시에 한정되지 않는다. 예시들은 배타적이지 않은 것으로 이해되어야 한다. 나아가, 기재된 방법의 단계들은 단계들의 순서를 재배열 및/또는 단계를 삽입 또는 삭제하는 등의 다양한 방법으로 수정될 수 있다. 따라서, 본 명세서와 예시들은 예시의 목적으로만 고려되고, 진정한 범위와 기술적 사상은 하기의 청구항과 그 균등한 범위에 의해 정의된다. Further, while illustrative embodiments have been described herein, it is intended that all embodiments are within the scope of equivalent elements, modifications, omissions, combinations (eg, combinations of aspects across various embodiments), adaptations, and/or variations. It is natural for those skilled in the art. The limitations of the claims are to be interpreted broadly based on the language used in the claims and are not limited to the examples described herein or during the prosecution of the present invention. It should be understood that the examples are not exclusive. Furthermore, the steps of a described method may be modified in various ways, such as rearranging the order of steps and/or inserting or deleting steps. Accordingly, this specification and examples are to be considered for purposes of illustration only, with the true scope and spirit being defined by the following claims and their equivalents.
100: 시스템
110: 처리부
120: 이미지획득부
122, 124, 126: 이미지캡처장치
130: 위치센서
140, 150: 메모리장치
160: 지도 데이터베이스
170: 사용자 인터페이스
172: 무선 송수신기
180: 애플리케이션 프로세서
190: 이미지 프로세서
200, 1106, 1204: 차량
1102, 1104, 1604, 1606: 휠
1502: 도로 호모그래피 모듈
1504: 휠 식별 모듈
1506: 동작 분석 모듈
1508: 주행 반응 모듈100: system
110: processing unit
120: image acquisition unit
122, 124, 126: image capture device
130: position sensor
140, 150: memory device
160: map database
170: user interface
172: radio transceiver
180: application processor
190: image processor
200, 1106, 1204: vehicle
1102, 1104, 1604, 1606: wheel
1502 road homography module
1504: wheel identification module
1506: motion analysis module
1508: driving response module
Claims (20)
상기 시스템은 적어도 하나의 처리장치를 포함하고, 상기 적어도 하나의 처리장치는:
상기 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신;
상기 복수의 이미지의 적어도 하나를 분석하여 상기 타깃 차량 및 상기 타깃 차량의 측면의 적어도 하나의 휠 요소(wheel component)를 식별;
상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 영역을 분석하여 상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 동작을 식별; 및
상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 상기 식별된 동작에 기반하여 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발;
하도록 프로그램되는 것을 특징으로 하는, 시스템. A system for navigating a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is running, comprising:
The system includes at least one processing device, the at least one processing device comprising:
receiving a plurality of images associated with the environment of the host vehicle from an image capture device;
analyzing at least one of the plurality of images to identify the target vehicle and at least one wheel component of the side of the target vehicle;
identifying an action associated with the at least one wheel element of the target vehicle by analyzing a region including the at least one wheel element of the target vehicle in at least two images of the plurality of images; and
cause at least one navigational change in the host vehicle based on the identified motion associated with the at least one wheel element of the target vehicle;
Characterized in that, the system is programmed to do.
상기 적어도 하나의 주행 변경은 상기 호스트 차량의 진행 방향의 변경을 포함하는 것을 특징으로 하는 시스템. According to claim 1,
wherein the at least one travel change comprises a change in the direction of travel of the host vehicle.
상기 적어도 하나의 주행 변경은 상기 호스트 차량의 브레이크의 작동을 포함하는 것을 특징으로 하는 시스템. According to claim 1,
The system of claim 1 , wherein the at least one travel change comprises activating brakes of the host vehicle.
상기 타깃 차량을 식별하는 과정은 적어도 하나의 경계 박스(bounding box)를 상기 타깃 차량의 형상과 연계하는 것을 포함하는 것을 특징으로 하는 시스템. According to claim 1,
The system of claim 1 , wherein identifying the target vehicle includes associating at least one bounding box with a shape of the target vehicle.
상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 상기 영역은 도로면과 인접한 영역을 포함하는 것을 특징으로 하는 시스템. According to claim 1,
The system of claim 1 , wherein the area containing the at least one wheel element of the target vehicle includes an area adjacent to a road surface.
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 과정은 상기 복수의 이미지의 적어도 두 이미지에서 상기 적어도 하나의 휠 요소의 회전이 표시되는지 여부를 모니터하는 것을 포함하는 것을 특징으로 하는 시스템. According to claim 1,
The system of claim 1, wherein identifying motion associated with the at least one wheel element comprises monitoring whether rotation of the at least one wheel element is indicated in at least two images of the plurality of images.
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 과정은 상기 적어도 하나의 휠 요소와 연관된 적어도 하나의 특징을 식별하고 상기 적어도 하나의 특징의 위치 변화의 지시자를 식별하는 것을 포함하는 것을 특징으로 하는 시스템.According to claim 1,
Wherein the process of identifying motion associated with the at least one wheel element includes identifying at least one feature associated with the at least one wheel element and identifying an indicator of a change in position of the at least one feature. .
상기 적어도 하나의 처리장치는 상기 적어도 하나의 휠 요소와 연관된 상기 적어도 하나의 특징의 상기 위치 변화에 기반하여 상기 타깃 차량이 이동하는 속도를 판단하도록 더 구성된 것을 특징으로 하는 시스템. According to claim 7,
The system of claim 1 , wherein the at least one processing unit is further configured to determine a speed at which the target vehicle is traveling based on the change in position of the at least one feature associated with the at least one wheel element.
상기 적어도 하나의 처리장치는 상기 타깃 차량의 상기 속도에 기반하여 상기 호스트 차량에 대한 횡적 안전 거리를 판단하도록 더 구성된 것을 특징으로 하는 시스템. According to claim 8,
wherein said at least one processing unit is further configured to determine a lateral safety distance to said host vehicle based on said speed of said target vehicle.
상기 타깃 차량의 상기 적어도 하나의 주행 변경은 상기 판단된 횡적 안전 거리에 기반하는 것을 특징으로 하는 시스템. According to claim 9,
wherein the at least one driving change of the target vehicle is based on the determined lateral safety distance.
상기 적어도 하나의 휠 요소는 타이어, 휠 캡, 휠 구조의 적어도 하나를 포함하는 것을 특징으로 하는 시스템. According to claim 1,
The system of claim 1, wherein the at least one wheel element comprises at least one of a tire, a wheel cap, and a wheel structure.
상기 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계;
상기 복수의 이미지의 적어도 하나를 분석하여 상기 타깃 차량 및 상기 타깃 차량의 측면의 적어도 하나의 휠 요소(wheel component)를 식별하는 단계;
상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 영역을 분석하여 상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계; 및
상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 상기 식별된 동작에 기반하여 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 포함하는, 방법. A method for navigating a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving, comprising:
receiving a plurality of images associated with the environment of the host vehicle from an image capture device;
analyzing at least one of the plurality of images to identify the target vehicle and at least one wheel component of the side of the target vehicle;
identifying an action associated with the at least one wheel element of the target vehicle by analyzing a region including the at least one wheel element of the target vehicle in at least two images of the plurality of images; and
inducing at least one navigational change in the host vehicle based on the identified motion associated with the at least one wheel element of the target vehicle.
상기 타깃 차량을 식별하는 단계는 적어도 하나의 경계 박스(bounding box)를 상기 타깃 차량의 형상과 연계하는 단계를 포함하는 것을 특징으로 하는 방법.According to claim 12,
wherein identifying the target vehicle comprises associating at least one bounding box with a shape of the target vehicle.
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계는 상기 복수의 이미지의 적어도 두 이미지에서 상기 적어도 하나의 휠 요소의 회전이 표시되는지 여부를 모니터하는 단계를 포함하는 것을 특징으로 하는 방법. According to claim 12,
wherein identifying motion associated with the at least one wheel element comprises monitoring whether rotation of the at least one wheel element is indicated in at least two images of the plurality of images.
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계는 상기 적어도 하나의 휠 요소와 연관된 적어도 하나의 특징을 식별하고 상기 적어도 하나의 특징의 위치 변화의 지시자를 식별하는 단계를 포함하는 것을 특징으로 하는 방법.According to claim 12,
Wherein identifying an action associated with the at least one wheel element comprises identifying at least one feature associated with the at least one wheel element and identifying an indicator of a change in position of the at least one feature. method.
상기 적어도 하나의 휠 요소와 연관된 상기 적어도 하나의 특징의 상기 위치 변화에 기반하여 상기 타깃 차량이 이동하는 속도를 판단하는 단계; 및
상기 타깃 차량의 상기 속도에 기반하여 상기 호스트 차량에 대한 횡적 안전 거리를 판단하는 단계를 더 포함하는, 방법. According to claim 15,
determining a speed at which the target vehicle is moving based on the change in position of the at least one feature associated with the at least one wheel element; and
determining a lateral safety distance to the host vehicle based on the speed of the target vehicle.
호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계;
상기 복수의 이미지의 적어도 하나를 분석하여 타깃 차량 및 상기 타깃 차량의 측면의 적어도 하나의 휠 요소(wheel component)를 식별하는 단계;
상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 영역을 분석하여 상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계; 및
상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 상기 식별된 동작에 기반하여 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 포함하는, 비일시적 컴퓨터 가독 매체. A non-transitory computer readable medium storing instructions that, when executed by at least one processing unit, perform a method, the method comprising:
receiving a plurality of images associated with the environment of the host vehicle from an image capture device;
analyzing at least one of the plurality of images to identify a target vehicle and at least one wheel component of a side of the target vehicle;
identifying an action associated with the at least one wheel element of the target vehicle by analyzing a region including the at least one wheel element of the target vehicle in at least two images of the plurality of images; and
inducing at least one navigational change in the host vehicle based on the identified motion associated with the at least one wheel element of the target vehicle.
상기 타깃 차량을 식별하는 단계는 적어도 하나의 경계 박스(bounding box)를 상기 타깃 차량의 형상과 연계하는 단계를 포함하는 것을 특징으로 하는, 비일시적 컴퓨터 가독 매체.According to claim 17,
wherein identifying the target vehicle comprises associating at least one bounding box with a shape of the target vehicle.
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계는 상기 적어도 하나의 휠 요소와 연관된 적어도 하나의 특징을 식별하고 상기 적어도 하나의 특징의 위치 변화의 지시자를 식별하는 단계를 포함하는 것을 특징으로 하는, 비일시적 컴퓨터 가독 매체.According to claim 17,
Wherein identifying an action associated with the at least one wheel element comprises identifying at least one feature associated with the at least one wheel element and identifying an indicator of a change in position of the at least one feature. , a non-transitory computer readable medium.
상기 적어도 하나의 휠 요소와 연관된 상기 적어도 하나의 특징의 상기 위치 변화에 기반하여 상기 타깃 차량이 이동하는 속도를 판단; 및
상기 타깃 차량의 상기 속도에 기반하여 상기 호스트 차량에 대한 횡적 안전 거리를 판단하는 명령을 더 저장하는, 비일시적 컴퓨터 가독 매체.
According to claim 19,
determining a speed at which the target vehicle is moving based on the change in position of the at least one feature associated with the at least one wheel element; and
and further storing instructions for determining a lateral safety distance to the host vehicle based on the speed of the target vehicle.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662354946P | 2016-06-27 | 2016-06-27 | |
US62/354,946 | 2016-06-27 | ||
US201762445500P | 2017-01-12 | 2017-01-12 | |
US62/445,500 | 2017-01-12 | ||
PCT/US2017/039427 WO2018005441A2 (en) | 2016-06-27 | 2017-06-27 | Controlling host vehicle based on detected parked vehicle characteristics |
KR1020227003640A KR102493878B1 (en) | 2016-06-27 | 2017-06-27 | controlling host vehicle based on detected spacing between stationary vehicles |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227003640A Division KR102493878B1 (en) | 2016-06-27 | 2017-06-27 | controlling host vehicle based on detected spacing between stationary vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230017365A true KR20230017365A (en) | 2023-02-03 |
Family
ID=59315715
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227003640A KR102493878B1 (en) | 2016-06-27 | 2017-06-27 | controlling host vehicle based on detected spacing between stationary vehicles |
KR1020237002352A KR20230017365A (en) | 2016-06-27 | 2017-06-27 | controlling host vehicle based on detected spacing between stationary vehicles |
KR1020187037446A KR102359806B1 (en) | 2016-06-27 | 2017-06-27 | Control of the host vehicle based on the detected parking vehicle characteristics |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227003640A KR102493878B1 (en) | 2016-06-27 | 2017-06-27 | controlling host vehicle based on detected spacing between stationary vehicles |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187037446A KR102359806B1 (en) | 2016-06-27 | 2017-06-27 | Control of the host vehicle based on the detected parking vehicle characteristics |
Country Status (6)
Country | Link |
---|---|
US (8) | US10055653B2 (en) |
EP (6) | EP3475659B1 (en) |
JP (2) | JP6997106B2 (en) |
KR (3) | KR102493878B1 (en) |
CN (5) | CN110345961B (en) |
WO (1) | WO2018005441A2 (en) |
Families Citing this family (144)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11609336B1 (en) * | 2018-08-21 | 2023-03-21 | Innovusion, Inc. | Refraction compensation for use in LiDAR systems |
US9898671B2 (en) | 2015-05-11 | 2018-02-20 | Magna Electronics Inc. | Vehicle vision system with structure and motion estimation |
JP6915542B2 (en) * | 2015-09-30 | 2021-08-04 | 日本電気株式会社 | Information processing equipment, notification system, information transmission method and program |
DE102016102510A1 (en) * | 2016-02-12 | 2017-08-17 | Kiekert Aktiengesellschaft | Method and device for acting on a motor vehicle door in the sense of braking in particular for collision avoidance |
CN110345961B (en) * | 2016-06-27 | 2020-10-16 | 御眼视觉技术有限公司 | Controlling a host vehicle based on detected parked vehicle characteristics |
US9984567B2 (en) * | 2016-09-09 | 2018-05-29 | Ford Global Technologies, Llc | Detection of oncoming vehicles with IR light |
US10629079B2 (en) * | 2016-12-05 | 2020-04-21 | Ford Global Technologies, Llc | Vehicle collision avoidance |
CN106650806B (en) * | 2016-12-16 | 2019-07-26 | 北京大学深圳研究生院 | A kind of cooperating type depth net model methodology for pedestrian detection |
WO2018132608A2 (en) * | 2017-01-12 | 2018-07-19 | Mobileye Vision Technologies Ltd. | Navigation based on occlusion zones |
US9988048B1 (en) * | 2017-03-03 | 2018-06-05 | GM Global Technology Operations LLC | Lane detection systems and methods |
US10160459B2 (en) * | 2017-03-22 | 2018-12-25 | Ford Global Technologies, Llc | Vehicle lane direction detection |
US10089872B1 (en) * | 2017-05-11 | 2018-10-02 | Here Global B.V. | Vehicle communication system for vehicle boarding area |
JP2019016188A (en) * | 2017-07-07 | 2019-01-31 | 株式会社日立製作所 | Moving entity remote control system and moving entity remote control method |
US11112796B2 (en) * | 2017-08-08 | 2021-09-07 | Uatc, Llc | Object motion prediction and autonomous vehicle control |
US10656657B2 (en) * | 2017-08-08 | 2020-05-19 | Uatc, Llc | Object motion prediction and autonomous vehicle control |
JP6540917B1 (en) * | 2017-09-08 | 2019-07-10 | 日本精工株式会社 | Self-propelled device, travel control method of self-propelled device and travel control program |
US20190094858A1 (en) * | 2017-09-25 | 2019-03-28 | Uber Technologies, Inc. | Parking Location Prediction |
WO2019067193A1 (en) * | 2017-09-28 | 2019-04-04 | Apple Inc. | Nighttime sensing |
US10997491B2 (en) * | 2017-10-04 | 2021-05-04 | Huawei Technologies Co., Ltd. | Method of prediction of a state of an object in the environment using an action model of a neural network |
US10534253B2 (en) | 2017-11-10 | 2020-01-14 | Denso Corporation | Camera module which includes lens units and configured to be mounted on inside of windshiled of vehicle |
US10232800B1 (en) * | 2017-11-10 | 2019-03-19 | Denson Corporation | Camera module |
US10406995B2 (en) | 2017-11-10 | 2019-09-10 | Denso Corporation | Camera module |
US11181816B2 (en) | 2017-11-10 | 2021-11-23 | Denso Corporation | Windshield-mounted camera module |
US10627606B2 (en) * | 2017-11-10 | 2020-04-21 | Denso Corporation | Camera module |
DE102018218997A1 (en) | 2017-11-10 | 2019-05-16 | Denso Corporation | camera module |
US10661725B2 (en) * | 2017-11-10 | 2020-05-26 | Denso Corporation | Camera module |
KR20190063750A (en) * | 2017-11-30 | 2019-06-10 | 주식회사 만도 | Apparatus and method for controlling vehicle based on 3d space cognition |
US10699571B2 (en) * | 2017-12-04 | 2020-06-30 | Ford Global Technologies, Llc | High definition 3D mapping |
JP6922706B2 (en) * | 2017-12-06 | 2021-08-18 | トヨタ自動車株式会社 | Sensor mounting structure |
CN110248861B (en) | 2018-01-07 | 2023-05-30 | 辉达公司 | Guiding a vehicle using a machine learning model during vehicle maneuvers |
US10596958B2 (en) * | 2018-01-30 | 2020-03-24 | Toyota Research Institute, Inc. | Methods and systems for providing alerts of opening doors |
DE112019000065T5 (en) | 2018-02-02 | 2020-03-05 | Nvidia Corporation | SAFETY PROCEDURE ANALYSIS TO AVOID OBSTACLES IN AN AUTONOMOUS VEHICLE |
US11210537B2 (en) | 2018-02-18 | 2021-12-28 | Nvidia Corporation | Object detection and detection confidence suitable for autonomous driving |
US11417107B2 (en) * | 2018-02-19 | 2022-08-16 | Magna Electronics Inc. | Stationary vision system at vehicle roadway |
CN111095291B (en) | 2018-02-27 | 2024-04-09 | 辉达公司 | Real-time detection of lanes and boundaries by autonomous vehicles |
CN108482367B (en) * | 2018-03-13 | 2020-08-18 | 京东方科技集团股份有限公司 | Method, device and system for assisting driving based on intelligent rearview mirror |
DE112019000048T5 (en) | 2018-03-15 | 2020-01-16 | Nvidia Corporation | DETERMINATION OF A ACCESSIBLE CLEARANCE FOR AUTONOMOUS VEHICLES |
US10685239B2 (en) * | 2018-03-18 | 2020-06-16 | Tusimple, Inc. | System and method for lateral vehicle detection |
US11080590B2 (en) | 2018-03-21 | 2021-08-03 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
WO2019191306A1 (en) | 2018-03-27 | 2019-10-03 | Nvidia Corporation | Training, testing, and verifying autonomous machines using simulated environments |
EP3832261A1 (en) | 2018-04-03 | 2021-06-09 | Mobileye Vision Technologies Ltd. | Systems and methods for determining navigational parameters |
CN111566441B (en) * | 2018-04-18 | 2022-08-09 | 移动眼视力科技有限公司 | Vehicle environment modeling with camera |
CN108647638B (en) | 2018-05-09 | 2021-10-12 | 东软睿驰汽车技术(上海)有限公司 | Vehicle position detection method and device |
US10706563B2 (en) * | 2018-05-15 | 2020-07-07 | Qualcomm Incorporated | State and position prediction of observed vehicles using optical tracking of wheel rotation |
US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
WO2020014683A1 (en) * | 2018-07-13 | 2020-01-16 | Kache.AI | Systems and methods for autonomous object detection and vehicle following |
JP2020021188A (en) * | 2018-07-31 | 2020-02-06 | 田中 成典 | Automobile attitude estimation device |
US10663963B2 (en) * | 2018-08-03 | 2020-05-26 | Here Global B.V. | Method and apparatus for visualizing future events for passengers of autonomous vehicles |
CN109345512A (en) * | 2018-09-12 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | Processing method, device and the readable storage medium storing program for executing of automobile image |
US11040714B2 (en) * | 2018-09-28 | 2021-06-22 | Intel Corporation | Vehicle controller and method for controlling a vehicle |
US11495028B2 (en) * | 2018-09-28 | 2022-11-08 | Intel Corporation | Obstacle analyzer, vehicle control system, and methods thereof |
US12007783B2 (en) | 2018-10-01 | 2024-06-11 | EmergeX, LLC | Methods and systems for navigating autonomous and semi-autonomous vehicles |
CN111159833B (en) * | 2018-10-22 | 2024-06-18 | 阿波罗智能技术(北京)有限公司 | Method and device for evaluating unmanned vehicle algorithm |
US11132586B2 (en) * | 2018-10-29 | 2021-09-28 | Nec Corporation | Rolling shutter rectification in images/videos using convolutional neural networks with applications to SFM/SLAM with rolling shutter images/videos |
US10698415B2 (en) * | 2018-10-31 | 2020-06-30 | Trw Automotive U.S. Llc | Vehicle assist system |
US20200143546A1 (en) * | 2018-11-05 | 2020-05-07 | GM Global Technology Operations LLC | Apparatus and method for detecting slow vehicle motion |
US11610115B2 (en) | 2018-11-16 | 2023-03-21 | Nvidia Corporation | Learning to generate synthetic datasets for training neural networks |
US11105927B2 (en) * | 2018-11-29 | 2021-08-31 | Waymo Llc | Localization initialization for autonomous vehicles |
EP3663978A1 (en) * | 2018-12-07 | 2020-06-10 | Thinkware Corporation | Method for detecting vehicle and device for executing the same |
JP7122589B2 (en) * | 2018-12-26 | 2022-08-22 | パナソニックIpマネジメント株式会社 | PARKING ASSIST DEVICE, PARKING ASSIST METHOD, AND COMPUTER PROGRAM |
US11170299B2 (en) | 2018-12-28 | 2021-11-09 | Nvidia Corporation | Distance estimation to objects and free-space boundaries in autonomous machine applications |
DE112019006484T5 (en) | 2018-12-28 | 2021-10-21 | Nvidia Corporation | DETECTION OF DISTANCE TO OBSTACLES IN AUTONOMOUS MACHINE APPLICATIONS |
WO2020140049A1 (en) | 2018-12-28 | 2020-07-02 | Nvidia Corporation | Distance to obstacle detection in autonomous machine applications |
US11361557B2 (en) | 2019-01-18 | 2022-06-14 | Toyota Research Institute, Inc. | Attention-based recurrent convolutional network for vehicle taillight recognition |
US10796206B2 (en) * | 2019-01-31 | 2020-10-06 | StradVision, Inc. | Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same |
KR102671622B1 (en) * | 2019-02-01 | 2024-06-03 | 주식회사 에이치엘클레무브 | Apparatus and method for parking space detection |
US11520345B2 (en) | 2019-02-05 | 2022-12-06 | Nvidia Corporation | Path perception diversity and redundancy in autonomous machine applications |
DE102019202107B3 (en) * | 2019-02-18 | 2020-04-23 | Zf Friedrichshafen Ag | Collision avoidance of an autonomous agricultural machine |
US11648945B2 (en) | 2019-03-11 | 2023-05-16 | Nvidia Corporation | Intersection detection and classification in autonomous machine applications |
DE102019203334A1 (en) * | 2019-03-12 | 2020-09-17 | Robert Bosch Gmbh | Method for carrying out a reaction to persons on vehicles |
JP2020166479A (en) * | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | Drive support device |
US11077846B2 (en) | 2019-03-31 | 2021-08-03 | Gm Cruise Holdings Llc | Controlling an autonomous vehicle based upon a predicted imminent lane change |
DE102019204656A1 (en) * | 2019-04-02 | 2020-10-08 | Conti Temic Microelectronic Gmbh | Parking assistance system |
US11618439B2 (en) * | 2019-04-11 | 2023-04-04 | Phantom Auto Inc. | Automatic imposition of vehicle speed restrictions depending on road situation analysis |
CN110084230B (en) * | 2019-04-11 | 2021-05-28 | 北京百度网讯科技有限公司 | Image-based vehicle body direction detection method and device |
JP7156152B2 (en) * | 2019-04-17 | 2022-10-19 | 日本電信電話株式会社 | Danger prediction method and danger prediction device |
DE102019207190B3 (en) * | 2019-05-16 | 2020-08-27 | Volkswagen Aktiengesellschaft | Method for parking a vehicle in a perpendicular parking space, taking into account headlight positions of vehicles parked next to it, as well as parking assistance system |
WO2020242945A1 (en) * | 2019-05-24 | 2020-12-03 | Mobileye Vision Technologies Ltd. | Systems and methods for vehicle navigation based on image analysis |
JP7309480B2 (en) * | 2019-06-27 | 2023-07-18 | フォルシアクラリオン・エレクトロニクス株式会社 | In-vehicle device and control method for in-vehicle device |
US11636307B2 (en) * | 2019-07-08 | 2023-04-25 | Uatc, Llc | Systems and methods for generating motion forecast data for actors with respect to an autonomous vehicle and training a machine learned model for the same |
CN110262511B (en) * | 2019-07-12 | 2022-08-09 | 同济人工智能研究院(苏州)有限公司 | Biped robot adaptive walking control method based on deep reinforcement learning |
US10956776B2 (en) | 2019-08-06 | 2021-03-23 | Alibaba Group Holding Limited | 2D convolutional accelerator that generates 3D results |
US10922826B1 (en) | 2019-08-07 | 2021-02-16 | Ford Global Technologies, Llc | Digital twin monitoring systems and methods |
US11853863B2 (en) | 2019-08-12 | 2023-12-26 | Micron Technology, Inc. | Predictive maintenance of automotive tires |
US11586194B2 (en) | 2019-08-12 | 2023-02-21 | Micron Technology, Inc. | Storage and access of neural network models of automotive predictive maintenance |
US11635893B2 (en) | 2019-08-12 | 2023-04-25 | Micron Technology, Inc. | Communications between processors and storage devices in automotive predictive maintenance implemented via artificial neural networks |
US11748626B2 (en) | 2019-08-12 | 2023-09-05 | Micron Technology, Inc. | Storage devices with neural network accelerators for automotive predictive maintenance |
US11775816B2 (en) | 2019-08-12 | 2023-10-03 | Micron Technology, Inc. | Storage and access of neural network outputs in automotive predictive maintenance |
US11586943B2 (en) | 2019-08-12 | 2023-02-21 | Micron Technology, Inc. | Storage and access of neural network inputs in automotive predictive maintenance |
US12061971B2 (en) | 2019-08-12 | 2024-08-13 | Micron Technology, Inc. | Predictive maintenance of automotive engines |
US11498388B2 (en) | 2019-08-21 | 2022-11-15 | Micron Technology, Inc. | Intelligent climate control in vehicles |
US11042350B2 (en) | 2019-08-21 | 2021-06-22 | Micron Technology, Inc. | Intelligent audio control in vehicles |
US11702086B2 (en) | 2019-08-21 | 2023-07-18 | Micron Technology, Inc. | Intelligent recording of errant vehicle behaviors |
US10993647B2 (en) | 2019-08-21 | 2021-05-04 | Micron Technology, Inc. | Drowsiness detection for vehicle control |
US11361552B2 (en) * | 2019-08-21 | 2022-06-14 | Micron Technology, Inc. | Security operations of parked vehicles |
US11788861B2 (en) | 2019-08-31 | 2023-10-17 | Nvidia Corporation | Map creation and localization for autonomous driving applications |
US11693562B2 (en) | 2019-09-05 | 2023-07-04 | Micron Technology, Inc. | Bandwidth optimization for different types of operations scheduled in a data storage device |
US11409654B2 (en) | 2019-09-05 | 2022-08-09 | Micron Technology, Inc. | Intelligent optimization of caching operations in a data storage device |
US11436076B2 (en) | 2019-09-05 | 2022-09-06 | Micron Technology, Inc. | Predictive management of failing portions in a data storage device |
US11650746B2 (en) | 2019-09-05 | 2023-05-16 | Micron Technology, Inc. | Intelligent write-amplification reduction for data storage devices configured on autonomous vehicles |
US11435946B2 (en) | 2019-09-05 | 2022-09-06 | Micron Technology, Inc. | Intelligent wear leveling with reduced write-amplification for data storage devices configured on autonomous vehicles |
CN112572424B (en) * | 2019-09-11 | 2022-05-17 | 北京百度网讯科技有限公司 | Vehicle control method, device, equipment and medium based on obstacle recognition |
US10824882B1 (en) | 2019-09-13 | 2020-11-03 | Ford Global Technologies, Llc | Systems and methods for improving vehicle parking skills |
EP4273837A3 (en) | 2019-09-17 | 2024-01-17 | Mobileye Vision Technologies Ltd. | Systems and methods for predicting blind spot incursions |
JP7206172B2 (en) * | 2019-09-19 | 2023-01-17 | 京セラ株式会社 | OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOBILE OBJECT AND OBJECT DETECTION METHOD |
DE102019125245A1 (en) * | 2019-09-19 | 2021-03-25 | Ford Global Technologies, Llc | System and method for the demand-oriented adjustment of a passage between two vehicles |
US11891057B2 (en) * | 2019-09-24 | 2024-02-06 | Seek Thermal, Inc. | Thermal imaging system with multiple selectable viewing angles and fields of view for vehicle applications |
US11386670B2 (en) * | 2019-10-03 | 2022-07-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and systems for tracking non-connected vehicles |
DE102019128253B4 (en) * | 2019-10-18 | 2024-06-06 | StreetScooter GmbH | Procedure for navigating an industrial truck |
US12052481B2 (en) * | 2019-11-07 | 2024-07-30 | Sony Semiconductor Solutions Corporation | Imaging apparatus |
KR102155054B1 (en) * | 2019-11-28 | 2020-09-11 | 국민대학교산학협력단 | Method for predicting the intentional cut-in of neighboring vehicles using artificial intelligence |
US11180080B2 (en) | 2019-12-13 | 2021-11-23 | Continental Automotive Systems, Inc. | Door opening aid systems and methods |
US11250648B2 (en) | 2019-12-18 | 2022-02-15 | Micron Technology, Inc. | Predictive maintenance of automotive transmission |
US11709625B2 (en) | 2020-02-14 | 2023-07-25 | Micron Technology, Inc. | Optimization of power usage of data storage devices |
US11531339B2 (en) | 2020-02-14 | 2022-12-20 | Micron Technology, Inc. | Monitoring of drive by wire sensors in vehicles |
US11195033B2 (en) * | 2020-02-27 | 2021-12-07 | Gm Cruise Holdings Llc | Multi-modal, multi-technique vehicle signal detection |
CN113496184A (en) * | 2020-04-08 | 2021-10-12 | 北京京东乾石科技有限公司 | Target detection method and device, computer storage medium and electronic equipment |
US12077190B2 (en) | 2020-05-18 | 2024-09-03 | Nvidia Corporation | Efficient safety aware path selection and planning for autonomous machine applications |
CN116783455A (en) * | 2020-06-24 | 2023-09-19 | 御眼视觉技术有限公司 | System and method for detecting an open door |
WO2022019747A1 (en) * | 2020-07-24 | 2022-01-27 | Mimos Berhad | System and method for identification of text region in video |
US12065172B2 (en) * | 2020-07-24 | 2024-08-20 | Autobrains Technologies Ltd | Open door predictor |
JP7466396B2 (en) | 2020-07-28 | 2024-04-12 | 株式会社Soken | Vehicle control device |
KR102176188B1 (en) * | 2020-08-07 | 2020-11-09 | 정만식 | Electronic device for evaluating deterioration level of the road and the operating method thereof |
US11210533B1 (en) | 2020-08-09 | 2021-12-28 | Phantom AI, Inc. | Method of predicting trajectory of vehicle |
GB2599442A (en) * | 2020-10-04 | 2022-04-06 | Gerard Bailey Samuel | Measuring vehicle speed in video capture |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
CN112277939B (en) * | 2020-10-30 | 2022-09-06 | 重庆长安汽车股份有限公司 | Offset control system and method for avoiding front line-pressing vehicle |
JP7452402B2 (en) * | 2020-12-18 | 2024-03-19 | トヨタ自動車株式会社 | Vehicle door leaning detection system |
CN112644479B (en) * | 2021-01-07 | 2022-05-13 | 广州小鹏自动驾驶科技有限公司 | Parking control method and device |
US11724641B2 (en) * | 2021-01-26 | 2023-08-15 | Ford Global Technologies, Llc | Hazard condition warning for package delivery operation |
CN113012441B (en) * | 2021-03-25 | 2023-01-13 | 北京百度网讯科技有限公司 | Vehicle parking detection method, system, electronic device, and storage medium |
US11794737B2 (en) | 2021-04-07 | 2023-10-24 | Ford Global Technologies, Llc | Vehicle operation |
US11919526B1 (en) * | 2021-04-28 | 2024-03-05 | Zoox, Inc. | Model-based vehicle drive system monitors |
CN113246968B (en) * | 2021-06-15 | 2021-10-22 | 成都信息工程大学 | Automatic driving automobile accurate parking control method and device |
US12017577B2 (en) | 2021-06-30 | 2024-06-25 | Apple Inc. | Vehicles with automatic headlight alignment |
DE102021209783A1 (en) | 2021-09-06 | 2023-03-09 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for providing data to create a digital map |
JP7491279B2 (en) * | 2021-09-08 | 2024-05-28 | トヨタ自動車株式会社 | Vehicle behavior prediction device |
US11879610B2 (en) | 2021-09-20 | 2024-01-23 | Apple Inc. | Multi-mode lights |
CN113945224A (en) * | 2021-10-18 | 2022-01-18 | 上海智能网联汽车技术中心有限公司 | Automatic generation method and system for intelligent driving ADAS test scene |
US20230236313A1 (en) * | 2022-01-26 | 2023-07-27 | Motional Ad Llc | Thermal sensor data vehicle perception |
US20230311863A1 (en) | 2022-04-04 | 2023-10-05 | Mobileye Vision Technologies Ltd. | Detecting an open door using a sparse representation |
US20230007914A1 (en) * | 2022-09-20 | 2023-01-12 | Intel Corporation | Safety device and method for avoidance of dooring injuries |
KR102593769B1 (en) * | 2023-05-04 | 2023-10-25 | 박찬배 | Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same |
CN116580066B (en) * | 2023-07-04 | 2023-10-03 | 广州英码信息科技有限公司 | Pedestrian target tracking method under low frame rate scene and readable storage medium |
Family Cites Families (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5170352A (en) * | 1990-05-07 | 1992-12-08 | Fmc Corporation | Multi-purpose autonomous vehicle with path plotting |
JPH08177263A (en) * | 1994-12-21 | 1996-07-09 | Mitsubishi Heavy Ind Ltd | Method for detecting opening or closing of car door |
EP0913751B1 (en) * | 1997-11-03 | 2003-09-03 | Volkswagen Aktiengesellschaft | Autonomous vehicle and guiding method for an autonomous vehicle |
JP2004122844A (en) * | 2002-09-30 | 2004-04-22 | Clarion Co Ltd | Parking support system |
JP4110937B2 (en) * | 2002-11-18 | 2008-07-02 | 日産自動車株式会社 | Parking assistance device |
JP4752311B2 (en) * | 2004-04-13 | 2011-08-17 | 日産自動車株式会社 | Lane departure prevention device |
JP2006113836A (en) * | 2004-10-15 | 2006-04-27 | Fuji Heavy Ind Ltd | Road information providing system |
JP2006268081A (en) | 2005-03-22 | 2006-10-05 | Denso Corp | Front vehicle door opening alarm controller and front vehicle door opening alarm control program |
US8381982B2 (en) * | 2005-12-03 | 2013-02-26 | Sky-Trax, Inc. | Method and apparatus for managing and controlling manned and automated utility vehicles |
US7786898B2 (en) | 2006-05-31 | 2010-08-31 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
CN100572169C (en) * | 2007-02-09 | 2009-12-23 | 财团法人车辆研究测试中心 | The auxiliary driving device on virtual road border |
US9103671B1 (en) * | 2007-11-29 | 2015-08-11 | American Vehicular Sciences, LLC | Mapping techniques using probe vehicles |
DE102008003662A1 (en) * | 2008-01-09 | 2009-07-16 | Robert Bosch Gmbh | Method and device for displaying the environment of a vehicle |
DE102008004632A1 (en) * | 2008-01-16 | 2009-07-23 | Robert Bosch Gmbh | Device and method for measuring a parking space |
EP2107503A1 (en) * | 2008-03-31 | 2009-10-07 | Harman Becker Automotive Systems GmbH | Method and device for generating a real time environment model for vehicles |
JP5225820B2 (en) * | 2008-11-25 | 2013-07-03 | アイシン精機株式会社 | Input device, vehicle periphery monitoring device, icon switch selection method and program |
KR101048369B1 (en) * | 2008-12-22 | 2011-07-11 | 한국전자통신연구원 | Automatic parking method of vehicle and its device |
JP4614005B2 (en) * | 2009-02-27 | 2011-01-19 | トヨタ自動車株式会社 | Moving locus generator |
CN101823435B (en) * | 2009-03-03 | 2012-12-12 | 珠海市智汽电子科技有限公司 | Vehicular automatic driving system convenient for external installation and manual/automatic switching |
FR2947223B1 (en) * | 2009-06-29 | 2015-05-01 | Valeo Vision | METHOD FOR CONTROLLING LIGHTING BEAM FOR VEHICLES |
AT509438A1 (en) * | 2010-01-18 | 2011-08-15 | Zeno Track Gmbh | Method and system for detecting the position of a vehicle in a defined area |
JP5601453B2 (en) * | 2010-03-30 | 2014-10-08 | マツダ株式会社 | Vehicle driving support device |
IT1399988B1 (en) * | 2010-05-05 | 2013-05-09 | Space S R L Con Unico Socio | SYSTEM AND ITS METHOD OF DETERMINING THE WHEEL ALIGNMENT OF A VEHICLE |
CN101957176B (en) * | 2010-09-19 | 2012-05-02 | 天津大学 | Robot and camera combined calibration based method for detecting high-precision car door |
US9118816B2 (en) | 2011-12-06 | 2015-08-25 | Mobileye Vision Technologies Ltd. | Road vertical contour detection |
US8514099B2 (en) * | 2010-10-13 | 2013-08-20 | GM Global Technology Operations LLC | Vehicle threat identification on full windshield head-up display |
CN102175172B (en) * | 2010-12-30 | 2012-07-04 | 南京理工大学 | Image-identification-based system for detecting contour dimension of motor vehicle |
JP5482670B2 (en) | 2011-01-12 | 2014-05-07 | 株式会社デンソー | Object detection device |
DE102011003881A1 (en) * | 2011-02-09 | 2012-08-09 | Robert Bosch Gmbh | Method for assisting a driver of a motor vehicle |
CN102692224B (en) * | 2011-03-24 | 2015-08-05 | 昆达电脑科技(昆山)有限公司 | Invest navigational system and the air navigation aid thereof of carrier |
WO2012159109A2 (en) * | 2011-05-19 | 2012-11-22 | Bir Bhanu | Dynamic bayesian networks for vehicle classification in video |
CN202230205U (en) * | 2011-08-06 | 2012-05-23 | 李良杰 | Automatic toll collection system for vehicle positioning navigation, anti-collision reminding and toll station stop-free |
JP5616301B2 (en) * | 2011-08-10 | 2014-10-29 | 株式会社日本自動車部品総合研究所 | Vehicle detection device |
DE102011081382A1 (en) * | 2011-08-23 | 2013-02-28 | Robert Bosch Gmbh | Method and device for changing a light emission of at least one headlight of a vehicle |
JP5810843B2 (en) * | 2011-11-02 | 2015-11-11 | アイシン・エィ・ダブリュ株式会社 | Lane guidance display system, method and program |
CN202582559U (en) * | 2011-12-07 | 2012-12-05 | 北京北方胜达机电科技发展有限公司 | Compass satellite navigation positioning monitoring system for logistics vehicle |
US9187117B2 (en) * | 2012-01-17 | 2015-11-17 | Ford Global Technologies, Llc | Autonomous lane control system |
US8855847B2 (en) * | 2012-01-20 | 2014-10-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Intelligent navigation system |
US9429943B2 (en) * | 2012-03-05 | 2016-08-30 | Florida A&M University | Artificial intelligence valet systems and methods |
US8504233B1 (en) * | 2012-04-27 | 2013-08-06 | Google Inc. | Safely navigating on roads through maintaining safe distance from other vehicles |
US8849515B2 (en) | 2012-07-24 | 2014-09-30 | GM Global Technology Operations LLC | Steering assist in driver initiated collision avoidance maneuver |
DE102012215093A1 (en) * | 2012-08-24 | 2014-02-27 | Robert Bosch Gmbh | Driver assistance system and method for operating the driver assistance system |
JP6119956B2 (en) | 2012-10-10 | 2017-04-26 | 三菱自動車工業株式会社 | Vehicle danger avoidance support device |
US9076034B2 (en) * | 2012-12-07 | 2015-07-07 | Analog Devices, Inc. | Object localization using vertical symmetry |
CN102991504B (en) * | 2012-12-07 | 2015-06-03 | 长安大学 | Method for determining and prewarning lane change safety of drivers |
CN203047045U (en) * | 2013-01-09 | 2013-07-10 | 谢健良 | Light warning system of vehicle door knob |
JP6036371B2 (en) * | 2013-02-14 | 2016-11-30 | 株式会社デンソー | Vehicle driving support system and driving support method |
CN103204123B (en) * | 2013-03-25 | 2015-07-08 | 中国电子科技集团公司第三十八研究所 | Vehicle-pedestrian detecting, tracking and early-warning device and method |
DE102013208763A1 (en) * | 2013-05-13 | 2014-11-13 | Robert Bosch Gmbh | Method and device for recognizing a starting intention of a holding vehicle |
CN103465828A (en) * | 2013-05-21 | 2013-12-25 | 麦特汽车服务股份有限公司 | Automobile steering early warning method and vehicle-mounted intelligent terminal device thereof |
US9110163B2 (en) * | 2013-06-14 | 2015-08-18 | Microsoft Technology Licensing, Llc | Lidar-based classification of object movement |
US9024787B2 (en) * | 2013-09-18 | 2015-05-05 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Controlling vehicular traffic on a one-way roadway |
EP3751459A1 (en) * | 2013-12-04 | 2020-12-16 | Mobileye Vision Technologies Ltd. | Adjusting velocity of a vehicle for a curve |
JP6237214B2 (en) * | 2013-12-24 | 2017-11-29 | 株式会社デンソー | Reverse running detection device |
EP3100206B1 (en) * | 2014-01-30 | 2020-09-09 | Mobileye Vision Technologies Ltd. | Systems and methods for lane end recognition |
US9547989B2 (en) | 2014-03-04 | 2017-01-17 | Google Inc. | Reporting road event data and sharing with other vehicles |
CN103984950B (en) * | 2014-04-22 | 2017-07-14 | 北京联合大学 | A kind of moving vehicle brake light status recognition methods for adapting to detection on daytime |
JP6190758B2 (en) * | 2014-05-21 | 2017-08-30 | 本田技研工業株式会社 | Object recognition device and vehicle |
US9734583B2 (en) * | 2014-06-30 | 2017-08-15 | Collin Walker | Systems and methods for controlling vehicle position and orientation |
US9575184B2 (en) * | 2014-07-03 | 2017-02-21 | Continental Advanced Lidar Solutions Us, Inc. | LADAR sensor for a dense environment |
JP6325927B2 (en) * | 2014-07-18 | 2018-05-16 | 日立オートモティブシステムズ株式会社 | Object detection apparatus and vehicle control system using the same |
DE102014011630A1 (en) | 2014-08-01 | 2015-03-26 | Daimler Ag | A method of reacting a vehicle to a holding bus and a vehicle |
JP6296162B2 (en) | 2014-08-11 | 2018-03-20 | 日産自動車株式会社 | Vehicle travel control apparatus and method |
CN104156737B (en) * | 2014-08-19 | 2017-07-11 | 哈尔滨工程大学 | A kind of passenger on public transport Safe getting-off automatic testing method |
CN104260723B (en) * | 2014-09-29 | 2018-03-06 | 长安大学 | A kind of front vehicle motion state tracking prediction meanss and Forecasting Methodology |
JP6025268B2 (en) * | 2014-10-31 | 2016-11-16 | 富士重工業株式会社 | Vehicle travel control device |
US9672433B2 (en) * | 2014-11-14 | 2017-06-06 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-directional vehicle maneuvering assistance |
JP6126573B2 (en) * | 2014-12-25 | 2017-05-10 | 本田技研工業株式会社 | Collision avoidance support device |
US9475429B2 (en) * | 2015-03-03 | 2016-10-25 | Chengdu Haicun Ip Technology Llc | Night detection of parked vehicles |
US9557736B1 (en) * | 2015-04-08 | 2017-01-31 | Google Inc. | Detecting street parked vehicles |
US20160357262A1 (en) * | 2015-06-05 | 2016-12-08 | Arafat M.A. ANSARI | Smart vehicle |
KR101843773B1 (en) * | 2015-06-30 | 2018-05-14 | 엘지전자 주식회사 | Advanced Driver Assistance System, Display apparatus for vehicle and Vehicle |
CN105059190B (en) * | 2015-08-17 | 2018-05-29 | 上海交通大学 | The automobile door opening collision warning device and method of view-based access control model |
US9740944B2 (en) * | 2015-12-18 | 2017-08-22 | Ford Global Technologies, Llc | Virtual sensor data generation for wheel stop detection |
US20170329332A1 (en) * | 2016-05-10 | 2017-11-16 | Uber Technologies, Inc. | Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object |
CN110345961B (en) * | 2016-06-27 | 2020-10-16 | 御眼视觉技术有限公司 | Controlling a host vehicle based on detected parked vehicle characteristics |
US10160459B2 (en) * | 2017-03-22 | 2018-12-25 | Ford Global Technologies, Llc | Vehicle lane direction detection |
-
2017
- 2017-06-27 CN CN201910634768.7A patent/CN110345961B/en active Active
- 2017-06-27 CN CN201910634773.8A patent/CN110345962B/en active Active
- 2017-06-27 EP EP17737957.5A patent/EP3475659B1/en active Active
- 2017-06-27 US US15/634,614 patent/US10055653B2/en active Active
- 2017-06-27 WO PCT/US2017/039427 patent/WO2018005441A2/en unknown
- 2017-06-27 EP EP19191540.4A patent/EP3614106B1/en active Active
- 2017-06-27 US US15/634,450 patent/US10127465B2/en active Active
- 2017-06-27 KR KR1020227003640A patent/KR102493878B1/en active IP Right Grant
- 2017-06-27 CN CN201910634913.1A patent/CN110345963A/en active Pending
- 2017-06-27 US US15/634,482 patent/US10303959B2/en active Active
- 2017-06-27 EP EP23203098.1A patent/EP4283563A3/en active Pending
- 2017-06-27 CN CN201910634770.4A patent/CN110264500A/en active Pending
- 2017-06-27 CN CN201780039759.2A patent/CN109416257B/en active Active
- 2017-06-27 KR KR1020237002352A patent/KR20230017365A/en active Application Filing
- 2017-06-27 EP EP19191343.3A patent/EP3598074B1/en active Active
- 2017-06-27 US US15/634,400 patent/US10354157B2/en active Active
- 2017-06-27 EP EP19191524.8A patent/EP3611472B1/en active Active
- 2017-06-27 JP JP2018560452A patent/JP6997106B2/en active Active
- 2017-06-27 KR KR1020187037446A patent/KR102359806B1/en active IP Right Grant
- 2017-06-27 EP EP19191532.1A patent/EP3614105B1/en active Active
- 2017-06-27 US US15/634,310 patent/US10262217B2/en active Active
-
2019
- 2019-06-11 US US16/437,504 patent/US10832066B2/en active Active
-
2020
- 2020-11-02 US US17/087,170 patent/US11915491B2/en active Active
-
2021
- 2021-12-16 JP JP2021204491A patent/JP2022050427A/en active Pending
-
2024
- 2024-02-02 US US18/431,469 patent/US20240331405A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102493878B1 (en) | controlling host vehicle based on detected spacing between stationary vehicles | |
KR102524851B1 (en) | System and method for lane merging and lane separation navigation | |
US20210271260A1 (en) | Navigating a vehicle based on a detected barrier | |
US10303958B2 (en) | Systems and methods for curb detection and pedestrian hazard assessment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent |