KR20230017365A - controlling host vehicle based on detected spacing between stationary vehicles - Google Patents

controlling host vehicle based on detected spacing between stationary vehicles Download PDF

Info

Publication number
KR20230017365A
KR20230017365A KR1020237002352A KR20237002352A KR20230017365A KR 20230017365 A KR20230017365 A KR 20230017365A KR 1020237002352 A KR1020237002352 A KR 1020237002352A KR 20237002352 A KR20237002352 A KR 20237002352A KR 20230017365 A KR20230017365 A KR 20230017365A
Authority
KR
South Korea
Prior art keywords
vehicle
processing unit
image
images
image capture
Prior art date
Application number
KR1020237002352A
Other languages
Korean (ko)
Inventor
바락 코헨
기데온 스테인
Original Assignee
모빌아이 비젼 테크놀로지스 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모빌아이 비젼 테크놀로지스 엘티디. filed Critical 모빌아이 비젼 테크놀로지스 엘티디.
Publication of KR20230017365A publication Critical patent/KR20230017365A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/228Command input arrangements located on-board unmanned vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Abstract

자율주행차를 주행제어하는 시스템과 방법이 기재된다. 일 실시예는 도어 개방 이벤트의 검출에 기반하여 호스트 차량을 주행제어하는 시스템과 방법에 관한 것이다. 다른 실시예는 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반하여 호스트 차량을 주행제어하는 시스템과 방법에 관한 것이다. 제3 실시예는 호스트 차량이 운행하는 도로가 일방통행도로인지 여부를 검출하는 시스템과 방법에 관한 것이다. 제4 실시예는 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템과 방법에 관한 것이다. 제5 실시예는 두 대의 정지 상태의 차량 사이의 간격에 기반하여 호스트 차량을 주행제어하는 시스템과 방법에 관한 것이다. A system and method for controlling driving of an autonomous vehicle are described. One embodiment relates to a system and method for driving a host vehicle based on detection of a door opening event. Another embodiment relates to a system and method for controlling driving of a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving. A third embodiment relates to a system and method for detecting whether a road on which a host vehicle is driving is a one-way road. A fourth embodiment relates to a system and method for determining a predicted state of a parked vehicle within the host vehicle's surroundings. A fifth embodiment relates to a system and method for driving a host vehicle based on a distance between two stationary vehicles.

Description

검출된 주차 차량의 특징에 기반을 둔 호스트 차량의 제어{controlling host vehicle based on detected spacing between stationary vehicles} Controlling host vehicle based on detected spacing between stationary vehicles}

본 발명은 차량의 자율 주행에 관한 것이다. 또한, 본 발명은 도어 개방의 검출에 기반을 둔 호스트 차량의 주행, 타깃 차량의 호스트 차량 차선 진입의 검출에 기반을 둔 호스트 차량의 주행, 호스트 차량이 주행중인 도로가 일방통행인지 여부의 검출에 기반을 둔 호스트 차량의 주행, 및 주차 차량의 예측 상황 판단을 위한 시스템 및 방법에 관한 것이다. The present invention relates to autonomous driving of vehicles. In addition, the present invention relates to driving of the host vehicle based on detection of door opening, driving of the host vehicle based on detection of host vehicle lane entry of a target vehicle, and detection of whether the road on which the host vehicle is traveling is one-way. It relates to a system and method for driving a host vehicle and predicting situation of a parked vehicle based on the host vehicle.

기술의 지속적인 발전과 함께, 도로 위를 주행할 수 있는 완전 자율주행 자동차의 구현이 목전에 있다. 자율주행차는 의도한 목적지에 안전하고 정확하게 도착하기 위해 다양한 요소를 고려하고 그런 요소에 근거한 적절한 판단을 해야 할 수 있다. 예를 들어, 자율주행차는 시각 정보(예를 들면, 카메라가 촬영한 정보), 레이더 또는 라이더(LIdaR)로부터의 정보를 처리하고 해석해야 할 수 있고, 또한 기타 출처(예를 들면, GPS 장치, 속력 센서, 가속도계, 서스펜션 센서 등)로부터 획득한 정보를 이용할 수도 있다. 동시에, 자율주행차는, 목적지로 주행하기 위하여, 특정 도로 내의 위치(예를 들면, 다차선 도로상의 차선)를 식별하고, 다른 차량을 따라 주행하고, 장애물과 보행자를 회피하고, 신호등과 도로표지판을 관찰하고, 적절한 교차로나 분기점에서 한 도로에서 다른 도로로 이동하고, 차량의 작동 중에 발생하는 기타 상황에 대응할 필요가 있을 수도 있다. With the continued development of technology, the realization of fully autonomous vehicles capable of driving on the road is just around the corner. Autonomous vehicles may need to consider a variety of factors and make appropriate decisions based on those factors in order to arrive safely and accurately at their intended destination. For example, an autonomous vehicle may need to process and interpret visual information (e.g., information taken by a camera), information from radar or lidar (LIdaR), as well as other sources (e.g., GPS devices, Information acquired from speed sensors, accelerometers, suspension sensors, etc.) can also be used. At the same time, the self-driving car can identify its location on a particular road (e.g. lane on a multi-lane road), follow other vehicles, avoid obstacles and pedestrians, and follow traffic lights and road signs in order to drive to its destination. It may be necessary to observe, move from one road to another at appropriate intersections or forks, and react to other situations that arise during operation of the vehicle.

자율주행차는 변화하는 상황에 대해 충분한 시간을 가지고 반응하여 차량의 주행 경로를 조정하거나 브레이크를 작동할 수 있어야 한다. 현존하는 브레이크 시스템에 사용되는 알고리즘과 같은 많은 전통적인 알고리즘의 반응 시간은 인간의 반응 시간에 비교가 되지 못하고 있는 실정이다. 이에 따라, 이러한 알고리즘은 완전 자율주행 자동차에 사용되지 못하고 인간 운전자의 백업으로 사용되는 것이 더 적합한 경우가 많다. Autonomous vehicles must react to changing conditions in sufficient time to adjust the vehicle's driving path or apply the brakes. The response times of many traditional algorithms, such as those used in existing brake systems, are not comparable to human response times. As a result, these algorithms are often less suitable for use in fully autonomous vehicles and are more suitable for use as backups for human drivers.

또한, 주차된 차량의 특징이 도로의 특징에 대한 훌륭한 지시자인 경우가 많다. 예를 들어, 주차 차량의 방향은 일방통행 도로인지 여부를 지시할 수 있고, 차량 사이의 간격은 보행자가 차량 사이에서 튀어나올 수 있는지 여부를 지시할 수 있다. 그러나 기존의 자율주행차 알고리즘은 이러한 특징을 활용하지 않는다. Also, the characteristics of parked vehicles are often good indicators of road characteristics. For example, the direction of a parked vehicle may indicate whether it is a one-way street or not, and the spacing between vehicles may indicate whether a pedestrian may emerge from between vehicles. However, existing self-driving car algorithms do not take advantage of this feature.

자율주행차 시스템은 인간 운전자가 접근할 수 없는 부분까지의 측정을 활용할 수 있다. 예를 들면, 자율주행차 시스템은 적외선 카메라를 활용하여 주변환경에 접근하고 예측을 할 수 있다. 그러나 많은 기존 시스템은 시각 카메라와 적외선 카메라와 같은 조합의 측정을 활용하지 않는다. 본 발명의 실시예들은 앞서 설명한 기존 시스템의 단점들의 하나 이상을 처리할 수 있다. Autonomous vehicle systems can leverage measurements that are inaccessible to human drivers. For example, autonomous vehicle systems can use infrared cameras to access and make predictions about their surroundings. However, many existing systems do not utilize measurement combinations such as visual and infrared cameras. Embodiments of the present invention may address one or more of the disadvantages of existing systems described above.

본 발명은 도로 위를 주행할 수 있는 완전 자율주행 자동차의 구현에 목적이 있다.An object of the present invention is to realize a fully autonomous vehicle capable of driving on the road.

또한, 차량의 주변환경을 모니터하는 하나, 둘, 또는 그 이상의 카메라에 의해 캡처된 영상의 분석에 근거하여 주행 반응을 제공하며, 자율 주행을 위한 시스템과 방법을 제공한다.It also provides a driving response based on analysis of images captured by one, two, or more cameras that monitor the surrounding environment of the vehicle, and provides systems and methods for autonomous driving.

본 발명에 따른 실시예들은 자율 주행을 위한 시스템과 방법을 제공한다. 기재된 실시예는 카메라를 사용하여 자율 주행 특징을 제공할 수 있다. 예를 들면, 기재된 실시예에 따라, 기재된 시스템은 차량의 주변환경을 모니터하는 하나, 둘, 또는 그 이상의 카메라를 포함할 수 있다. 기재된 시스템은, 예를 들어, 하나 또는 그 이상의 카메라에 의해 캡처된 영상의 분석에 근거하여 주행 반응을 제공할 수 있다. 일부 실시예는 주변환경을 모니터하는 하나, 둘, 또는 그 이상의 적외선 카메라를 더 포함할 수 있다. 따라서 일부 실시예는, 예를 들어, 시각 이미지, 적외선 이미지, 또는 이들의 조합의 분석에 기반을 둔주행 반응을 제공할 수 있다. Embodiments according to the present invention provide a system and method for autonomous driving. The described embodiments may use cameras to provide autonomous driving features. For example, according to a described embodiment, a described system may include one, two, or more cameras that monitor the vehicle's surroundings. The described system may provide navigational responses based, for example, on analysis of images captured by one or more cameras. Some embodiments may further include one, two, or more infrared cameras to monitor the environment. Thus, some embodiments may provide navigational responses based on analysis of, for example, visual images, infrared images, or combinations thereof.

상기 주행 반응은 또한, 예를 들어, gPS 데이터, 센서 데이터(예, 가속도계, 속력 센서, 서스펜션 센서 등으로부터의 데이터), 및/또는 기타 지도 데이터를 포함하는 기타 데이터를 고려할 수 있다.The navigation response may also take into account other data including, for example, gPS data, sensor data (eg, data from accelerometers, speed sensors, suspension sensors, etc.), and/or other map data.

일 실시예에서, 호스트 차량의 주변환경에서의 도어 개방 이벤트 검출에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하고 분석하여 주차 차량의 측면을 식별하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 주차 차량의 측면의 전방 영역에서 주차 차량의 제1 구조적 특징과 주차 차량의 측면의 후방 영역에서 주차 차량의 제2 구조적 특징을 적어도 하나의 이미지에서 식별하고, 제1 및 제2 구조적 특징의 부근에서 주차 차량의 도어 에지를 적어도 하나의 이미지에서 식별하도록 더 프로그램 될 수 있다. 또한, 상기 적어도 하나의 프로세싱 처리장치는 이미지캡처장치로부터 수신된 하나 이상의 후속 이미지의 분석에 기반을 두어 주차 차량의 도어 에지의 이미지 특징의 변화를 판단하고, 주차 차량의 도어 에지의 이미지 특징의 변화에 적어도 부분적으로 기반을 두어 호스트 차량의 주행 경로를 변경하도록 프로그램될 수 있다. In one embodiment, a navigation system for driving a host vehicle based on detection of a door opening event in the surrounding environment of the host vehicle may include at least one processing unit. The at least one processing processing unit may be programmed to receive from the image capture device and analyze at least one image associated with the environment of the host vehicle to identify the side of the parked vehicle. The at least one processing unit identifies in the at least one image a first structural feature of a parked vehicle in a front region of the side of the parked vehicle and a second structural feature of the parked vehicle in a rear region of the side of the parked vehicle; and identify in the at least one image a door edge of a parked vehicle in the vicinity of the second structural feature. Further, the at least one processing processing unit determines a change in the image feature of the door edge of the parked vehicle based on analysis of one or more subsequent images received from the image capture device, and the change in the image feature of the door edge of the parked vehicle It may be programmed to change the driving path of the host vehicle based at least in part on the

다른 실시예에서, 호스트 차량의 주변환경에서의 도어 개방 이벤트 검출에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 방법은 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하는 단계와 상기 적어도 하나의 이미지를 분석하여 주차 차량의 측면을 식별하는 단계를 포함할 수 있다. 상기 방법은 주차 차량의 측면의 전방 영역에서 주차 차량의 제1 구조적 특징과 주차 차량의 측면의 후방 영역에서 주차 차량의 제2 구조적 특징을 적어도 하나의 이미지에서 식별하는 단계와 제1 및 제2 구조적 특징의 부근에서 주차 차량의 도어 에지를 상기 적어도 하나의 이미지에서 식별하는 단계를 더 포함할 수 있다. 상기 네비게이팅 방법은 또한 이미지캡처장치로부터 수신된 하나 이상의 후속 이미지의 분석에 기반을 두어 주차 차량의 도어 에지의 이미지 특징의 변화를 판단하는 단계와 주차 차량의 도어 에지의 이미지 특징의 변화에 적어도 부분적으로 기반하여 호스트 차량의 주행 경로를 변경하는 단계를 더 포함할 수 있다.In another embodiment, a navigation method for controlling driving of a host vehicle based on detection of a door opening event in the surrounding environment of the host vehicle includes receiving from an image capture device at least one image associated with the surrounding environment of the host vehicle. Analyzing the at least one image to identify a side of the parked vehicle. The method comprises identifying in at least one image a first structural feature of a parked vehicle in an area forward of the side of the parked vehicle and a second structural feature of the parked vehicle in an area aft of the side of the parked vehicle; The method may further include identifying in the at least one image a door edge of a parked vehicle in the vicinity of the feature. The navigating method may also include determining a change in an image feature of the door edge of the parked vehicle based on analysis of one or more subsequent images received from the image capture device and at least partially determining a change in the image feature of the door edge of the parked vehicle. The method may further include changing the driving route of the host vehicle based on the .

또 다른 실시예에서, 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하고 복수의 이미지의 적어도 하나를 분석하여 타깃 차량 및 타깃 차량 측면의 적어도 하나의 휠 요소(wheel component)를 식별하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)를 포함하는 영역을 분석하여 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 동작을 식별하고 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 식별된 동작에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하도록 더 프로그램 될 수 있다. In another embodiment, a navigation system for driving a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving may include at least one processing unit. The at least one processing unit receives a plurality of images associated with the surrounding environment of the host vehicle from an image capture device and analyzes at least one of the plurality of images to obtain a target vehicle and at least one wheel component on the side of the target vehicle. can be programmed to identify The at least one processing unit analyzes a region including at least one wheel component of the target vehicle in at least two images of the plurality of images to determine at least one wheel component of the target vehicle. and to cause at least one navigational change in the host vehicle based on the identified motion associated with at least one wheel component of the target vehicle.

또 다른 실시예에서, 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반을 두어 호스트 차량을 주행제어하는 네비게이팅 방법은 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계와 상기 복수의 이미지의 적어도 하나를 분석하여 타깃 차량 및 타깃 차량 측면의 적어도 하나의 휠 요소(wheel component)를 식별하는 단계를 포함할 수 있다. 상기 네비게이팅 방법은 상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)를 포함하는 영역을 분석하여 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 동작을 식별하는 단계와 상기 타깃 차량의 적어도 하나의 휠 요소(wheel component)와 연관된 식별된 동작에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 더 포함할 수 있다.In yet another embodiment, a navigation method for controlling driving of a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving includes receiving a plurality of images associated with surrounding environments of the host vehicle from an image capture device. and analyzing at least one of the plurality of images to identify a target vehicle and at least one wheel component on the side of the target vehicle. The navigating method analyzes an area including at least one wheel component of the target vehicle in at least two images of the plurality of images, and performs an operation related to the at least one wheel component of the target vehicle. and inducing at least one navigational change in the host vehicle based on the identified motion associated with at least one wheel component of the target vehicle. .

또 다른 실시예에서, 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부를 검출하는 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하고, 호스트 차량이 운행하는 도로의 제1측에 있는 복수의 제1차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하고, 호스트 차량이 운행하는 도로의 제2측에 있는 복수의 제2 차량을 상기 적어도 하나의 이미지의 분석에 기반하여 식별하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 복수의 제1차량과 연관된 제1 전방 방향을 판단하고, 상기 복수의 제2차량과 연관된 제2 전방 방향을 판단하고, 상기 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량의 진행 방향과 반대인 경우에 호스트 차량의 적어도 하나의 주행 변경(navigational change)을 유발하도록 더 프로그램 될 수 있다. In another embodiment, a system for detecting whether the road the host vehicle is driving on is a one-way road may include at least one processing unit. The at least one processing unit receives at least one image associated with the surrounding environment of the host vehicle from an image capture device, and captures a plurality of first vehicles on a first side of the road on which the host vehicle is driving, as the at least one image. and identify a plurality of second vehicles on the second side of the road on which the host vehicle travels based on the analysis of the at least one image. The at least one processing unit determines a first forward direction associated with the plurality of first vehicles, determines a second forward direction associated with the plurality of second vehicles, and determines the first forward direction and a second forward direction. All of which may be further programmed to cause at least one navigational change of the host vehicle when the direction of travel of the host vehicle is reversed.

또 다른 실시예에서, 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부를 검출하는 방법은 호스트 차량의 주변환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하는 단계, 호스트 차량이 운행하는 도로의 제1측에 있는 복수의 제1 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하는 단계, 및 호스트 차량이 운행하는 도로의 제2측에 있는 복수의 제2 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하는 단계를 포함할 수 있다. 상기 방법은 상기 복수의 제1차량과 연관된 제1 전방 방향을 판단하는 단계, 상기 복수의 제2차량과 연관된 제2 전방 방향을 판단하는 단계, 및 상기 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량의 진행 방향과 반대인 경우에 호스트 차량의 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 더 포함할 수 있다.In another embodiment, a method for detecting whether a road on which the host vehicle is driving is a one-way road includes receiving at least one image associated with the environment of the host vehicle from an image capture device, identifying a plurality of first vehicles on a first side based on the analysis of the at least one image; and identifying a plurality of second vehicles on a second side of the road on which the host vehicle is traveling based on the analysis of the at least one image. It may include the step of identifying based on the analysis of. The method includes determining a first forward direction associated with the plurality of first vehicles, determining a second forward direction associated with the plurality of second vehicles, and wherein the first forward direction and the second forward direction are both The method may further include inducing at least one navigational change of the host vehicle when the direction of travel of the host vehicle is opposite.

다른 실시예에서, 호스트 차량을 주행제어하는 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량이 운행중인 제1 도로에서 제2도로로 호스트 차량을 주행제어하기 위한 주행 명령을 수신하고 상기 제2도로의 환경과 연관된 적어도 하나의 이미지를 이미지캡처장치로부터 수신하도록 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 제2도로의 제1측에 있는 복수의 제1 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하고 상기 제2도로의 제2측에 있는 복수의 제2 차량을 상기 적어도 하나의 이미지의 분석에 기반을 두어 식별하도록 더 프로그램 될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 또한 상기 복수의 제1차량과 연관된 제1 전방 방향을 판단하고, 상기 복수의 제2차량과 연관된 제2 전방 방향을 판단하고, 상기 제1 전방 방향과 제2 전방 방향 모두가 상기 호스트 차량이 상기 제2도로로 진입할 경우에 상기 호스트 차량이 운행하게 될 진행 방향과 반대 방향임을 판단하도록 더 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 제1 전방 방향과 제2 전방 방향 모두가 상기 호스트 차량이 상기 제2도로로 주행할 경우에 상기 호스트 차량이 운행하게 될 진행 방향과 반대 방향이라는 판단에 대응하여 주행 명령을 중단하도록 더 프로그램 될 수 있다. In another embodiment, a system for driving a host vehicle may include at least one processing unit. The at least one processing unit receives a driving command for driving the host vehicle from a first road on which the host vehicle is running to a second road, and receives at least one image associated with the environment of the second road from an image capture device. can be programmed to do The at least one processing processing unit identifies a first plurality of vehicles on the first side of the second road based on the analysis of the at least one image and identifies a first plurality of vehicles on the second side of the second road. 2 can be further programmed to identify the vehicle based on the analysis of said at least one image. The at least one processing unit may further determine a first forward direction associated with the plurality of first vehicles, determine a second forward direction associated with the plurality of second vehicles, and determine the first forward direction and a second forward direction. It may be further programmed to determine that all of the directions are opposite to the traveling direction in which the host vehicle will travel when the host vehicle enters the second road. The at least one processing unit travels in response to a determination that both the first forward direction and the second forward direction are opposite to the traveling direction in which the host vehicle will travel when the host vehicle travels on the second road. It can be further programmed to abort commands.

또 다른 실시예에서, 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템은 이미지캡처장치, 적외선 이미지캡처장치, 및 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경과 연관된 복수의 이미지를 상기 이미지캡처장치로부터 수신하고, 상기 복수의 이미지의 적어도 하나를 분석하여 상기 주차 차량을 식별하고, 상기 복수의 이미지의 적어도 두 이미지를 분석하여 상기 주차 차량과 연관된 적어도 하나의 조명기구(light)의 조명 상태의 변화를 식별하도록 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 주차 차량의 적어도 하나의 열 이미지(thermal image)를 상기 적외선 이미지캡처장치로부터 수신하고, 상기 주차 차량의 예측 상태를 상기 조명 상태의 변화와 상기 적어도 하나의 열 이미지(thermal image)의 분석에 기반을 두어 판단하고, 상기 주차 차량의 예측 상태에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 반응을 유발하도록 더 프로그램될 수 있다. In another embodiment, a system for determining a predicted state of a parked vehicle within the environment of the host vehicle may include an image capture device, an infrared image capture device, and at least one processing processing device. The at least one processing processing unit receives a plurality of images associated with the environment of the host vehicle from the image capture device, analyzes at least one of the plurality of images to identify the parked vehicle, and determines at least one of the plurality of images. It may be programmed to analyze the two images to identify a change in the lighting state of at least one light associated with the parked vehicle. The at least one processing processing unit receives at least one thermal image of the parked vehicle from the infrared image capture device, and sets the predicted state of the parked vehicle to a change in the lighting condition and the at least one thermal image. and based on the analysis of the thermal image, and based on the predicted state of the parked vehicle, may be further programmed to trigger at least one driving response in the host vehicle.

또 다른 실시예에서, 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 방법은 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계, 상기 복수의 이미지의 적어도 하나를 분석하여 상기 주차 차량을 식별하는 단계, 및 상기 복수의 이미지의 적어도 두 이미지를 분석하여 상기 주차 차량과 연관된 적어도 하나의 등의 조명 상태의 변화를 식별하는 단계를 포함할 수 있다. 상기 방법은 상기 주차 차량의 적어도 하나의 열 이미지(thermal image)를 적외선 이미지캡처장치로부터 수신하는 단계, 상기 주차 차량의 예측 상태를 상기 조명 상태의 변화와 상기 적어도 하나의 열 이미지(thermal image)의 분석에 기반을 두어 판단하는 단계, 상기 주차 차량의 예측 상태에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 반응을 유발하는 단계를 더 포함할 수 있다.In yet another embodiment, a method for determining a predicted state of a parked vehicle within the host vehicle's surroundings comprises receiving a plurality of images associated with the host vehicle's surroundings from an image capture device, analyzing at least one of the plurality of images. and identifying a change in lighting state of at least one light associated with the parked vehicle by analyzing at least two images of the plurality of images. The method comprises the steps of receiving at least one thermal image of the parked vehicle from an infrared image capture device, the predicted state of the parked vehicle as a combination of the change in the lighting condition and the at least one thermal image. The method may further include determining based on the analysis, inducing at least one driving response in the host vehicle based on the predicted state of the parked vehicle.

또 다른 실시예에서, 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템은 이미지캡처장치와 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 호스트 차량의 주변환경과 연관된 복수의 이미지를 상기 이미지캡처장치로부터 수신하도록 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 복수의 이미지의 적어도 하나를 분석하여 상기 주차 차량을 식별하고 상기 복수의 이미지의 적어도 두 이미지를 분석하여 상기 주차 차량과 연관된 적어도 하나의 등의 조명 상태의 변화를 식별하도록 더 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 또한 상기 주차 차량의 예측 상태를 상기 조명 상태의 변화에 기반을 두어 판단하고, 상기 주차 차량의 예측 상태에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 반응을 유발하도록 프로그램 될 수 있다.In yet another embodiment, a system for determining a predicted state of a parked vehicle within a host vehicle's surroundings may include an image capture device and at least one processing processing device. The at least one processing processing unit may be programmed to receive from the image capture device a plurality of images associated with the environment of the host vehicle. The at least one processing unit analyzes at least one of the plurality of images to identify the parked vehicle and analyzes at least two images of the plurality of images to determine a change in lighting state of at least one light associated with the parked vehicle. can be further programmed to identify. The at least one processing unit is further configured to determine a predicted state of the parked vehicle based on a change in lighting conditions, and to trigger at least one driving response in the host vehicle based on the predicted state of the parked vehicle. can be programmed

또 다른 실시예에서, 호스트 차량을 주행제어하는 시스템은 적어도 하나의 프로세싱 처리장치를 포함할 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 호스트 차량의 주변환경을 보여주는 복수의 이미지를 카메라로부터 수신하고 상기 복수의 이미지의 적어도 하나를 분석하여 적어도 두 대의 정지 상태의 차량을 식별하도록 프로그램될 수 있다. 상기 적어도 하나의 프로세싱 처리장치는 상기 두 대의 정지 상태의 차량 사이의 간격을 상기 복수의 이미지의 적어도 하나의 분석에 기반을 두어 판단하고 상기 두 대의 정지 상태의 차량 사이의 판단된 간격의 규모에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하도록 더 프로그램 될 수 있다. In another embodiment, a system for driving a host vehicle may include at least one processing unit. The at least one processing processing unit may be programmed to receive a plurality of images of the host vehicle's surroundings from the camera and analyze at least one of the plurality of images to identify at least two stationary vehicles. The at least one processing processing unit determines a distance between the two stationary vehicles based on at least one analysis of the plurality of images and based on the magnitude of the determined distance between the two stationary vehicles. may be further programmed to cause at least one navigational change in the host vehicle by placing a.

또 다른 실시예에서, 호스트 차량을 주행제어하는 방법은 호스트 차량의 주변환경을 보여주는 복수의 이미지를 카메라로부터 수신하는 단계와 상기 복수의 이미지의 적어도 하나를 분석하여 적어도 두 대의 정지 상태의 차량을 식별하는 단계를 포함할 수 있다. 상기 방법은 상기 두 대의 정지 상태의 차량 사이의 간격을 상기 복수의 이미지의 적어도 하나의 분석에 기반을 두어 판단하는 단계와 상기 두 대의 정지 상태의 차량 사이의 판단된 간격의 규모에 기반을 두어 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 더 포함할 수 있다.In another embodiment, a driving control method of a host vehicle includes the steps of receiving a plurality of images showing a surrounding environment of the host vehicle from a camera and analyzing at least one of the plurality of images to identify at least two vehicles in a stationary state. steps may be included. The method further comprises determining a distance between the two stationary vehicles based on at least one analysis of the plurality of images and determining the distance between the two stationary vehicles based on the magnitude of the determined distance. It may further include causing at least one navigational change to the host vehicle.

다른 기재된 실시예에 따라, 비일시적 컴퓨터 판독 가능한 매체는 적어도 하나의 프로세싱 처리장치에 의해 실행되고 상기 방법의 어느 하나 이상을 수행하는 프로그램 명령을 저장할 수 있다. According to another described embodiment, a non-transitory computer readable medium may store program instructions that are executed by at least one processing unit and perform any one or more of the above methods.

상기의 일반적인 설명과 하기의 상세한 설명은 예시와 설명을 위한 것일 뿐이며 본 발명의 청구범위를 제한하지 않는다. The above general description and the following detailed description are for purposes of illustration and description only and do not limit the scope of the present invention.

일 실시예는 도어 개방 이벤트의 검출에 기반을 두어 호스트 차량을 주행제어하는 시스템과 방법을 제공한다.One embodiment provides a system and method for driving control of a host vehicle based on detection of a door opening event.

다른 실시예는 호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반을 두어 호스트 차량을 주행제어하는 시스템과 방법을 제공한다.Another embodiment provides a system and method for driving a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving.

제3 실시예는 호스트 차량이 운행하는 도로가 일방통행도로인지 여부를 검출하는 시스템과 방법을 제공한다.A third embodiment provides a system and method for detecting whether a road on which a host vehicle is driving is a one-way road.

제4 실시예는 호스트 차량의 주변환경 내의 주차 차량의 예측 상태를 판단하는 시스템과 방법을 제공한다.A fourth embodiment provides a system and method for determining a predicted state of a parked vehicle within the host vehicle's surroundings.

제5 실시예는 두 대의 정지 상태의 차량 사이의 간격에 기반을 두어 호스트 차량을 주행제어하는 시스템과 방법을 제공한다. A fifth embodiment provides a system and method for driving a host vehicle based on a distance between two stationary vehicles.

일부 실시 예에서, 두 대의 차량 사이의 간격이 타깃 차량이 횡단하기에 충분하다고 판단되는 경우에 주행 변경이 실행될 수 있다. 정지된 두 대의 차량 사이의 간격이 보행자가 횡단하기에 충분하다고 판단되는 경우에 상기 주행 변경이 실행될 수 있다. In some embodiments, a travel change may be executed if it is determined that the gap between the two vehicles is sufficient for the target vehicle to cross. The travel change may be executed when it is determined that the gap between the two stopped vehicles is sufficient for a pedestrian to cross.

일부 실시예에서, 이후, 처리부(110)는 복수의 이미지의 분석에 근거하여 두 대의 정지된 차량 사이의 간격 내에서 보행자를 검출할 수 있다. 이러한 검출 방법은 기존의 동작 검출을 개선할 수 있다. In some embodiments, processing unit 110 may then detect a pedestrian within the gap between the two stopped vehicles based on analysis of the plurality of images. This detection method can improve existing motion detection.

도 1은 기재된 실시예에 따른 예시적인 시스템의 개략도이다.
도 2a는 기재된 실시예에 따른 시스템을 포함하는 예시적인 자동차의 측면도이다.
도 2b는 기재된 실시예에 따른 도 1a의 자동차와 시스템의 평면도이다.
도 2c는 기재된 실시예에 따른 시스템을 포함하는 자동차의 다른 실시예의 평면도이다.
도 2d는 기재된 실시예에 따른 시스템을 포함하는 자동차의 또 다른 실시예의 평면도이다.
도 2e는 기재된 실시예에 따른 시스템을 포함하는 자동차의 또 다른 실시예의 평면도이다.
도 2f는 기재된 실시예에 따른 예시적인 자동차 제어 시스템의 개략도이다.
도 3a는 기재된 실시예에 따른 차량 이미징 시스템을 위한 백미러(rear view mirror)와 사용자 인터페이스를 포함하는 차량의 실내를 개략적으로 예시한 것이다.
도 3b는 기재된 실시예에 따른 백미러 뒤의 차량 전면 유리에 위치되도록 구성된 카메라 마운트의 일례이다.
도 3c는 기재된 실시예에 따른 도 3b의 카메라 마운트를 다른 시각에서 예시한 것이다.
도 3d는 기재된 실시예에 따른 백미러 뒤의 차량 전면 유리에 위치되도록 구성된 카메라 마운트의 일례이다.
도 4는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 예시적인 구성도이다.
도 5a는 기재된 실시예에 따른 단안 이미지(monocular image)분석에 근거한 하나 이상의 주행 반응을 야기하는 과정의 일례를 예시한 순서도이다.
도 5b는 기재된 실시예에 따른 일련의 영상에서 하나 이상의 차량 및/또는 보행자를 검출하는 예시적인 과정을 도시한 순서도이다.
도 5c는 기재된 실시예에 따른 일련의 영상에서 도로 표지 및/또는 차선 형상 정보를 검출하는 예시적인 과정을 도시한 순서도이다.
도 5d는 기재된 실시예에 따른 일련의 영상에서 신호등을 검출하는 예시적인 과정을 도시한 순서도이다.
도 5e는 기재된 실시예에 따른 차량 경로에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 5f는 기재된 실시예에 따른 선두 차량이 차선 변경을 하는지를 판단하는 예시적인 과정을 도시한 순서도이다.
도 6은 기재된 실시예에 따른 입체 영상 분석에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 7은 기재된 실시예에 따른 3개 집합의 영상에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 8은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 9는 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 개략도이다.
도 10은 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 다른 개략도이다.
도 11은 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 개략도이다.
도 12a는 기재된 실시예에 따른 시스템의 시점에서 바라본 도어 개방 이벤트의 개략도이다.
도 12b는 기재된 실시예에 따른 시스템의 시점에서 바라본 도어 개방 이벤트의 다른 개략도이다.
도 13은 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 다른 개략도이다.
도 14는 기재된 실시예에 따른 도어 개방 이벤트의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 15는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 16a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 개략도이다.
도 16b는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 다른 개략도이다.
도 17은 기재된 실시예에 따른 호스트 차량의 차선으로 진입하는 타깃 차량의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 18은 기재된 실시예에 따른 도로의 호모그래피를 뒤트는 예시적인 과정을 도시한 순서도이다.
도 19는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 20a는 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로의 개략도이다.
도 10b는 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로의 다른 개략도이다.
도 21은 기재된 실시예에 따른 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정을 도시한 순서도이다.
도 22는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 23a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 개략도이다.
도 23b는 기재된 실시예에 따른 시스템의 시점에서 바라본 조명의 변화가 있는 주차 차량의 개략도이다.
도 23c는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량의 히트맵(heat map)의 개략도이다.
도 24는 기재된 실시예에 따른 주차 차량의 예측 상태를 판단하기 위한 예시적인 과정을 도시한 순서도이다.
도 25는 기재된 실시예에 따른 시스템으로부터 시각적 이미지와 적외선 이미지를 정렬하기 위한 예시적인 과정을 도시한 순서도이다.
도 26은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 다른 예시적인 구성도이다.
도 27a는 기재된 실시예에 따른 시스템의 시점에서 바라본 도로의 다른 개략도이다.
도 27b는 기재된 실시예에 따른 검출 핫스팟이 있는 도로의 다른 개략도이다.
도 28은 기재된 실시예에 따른 호스트 차량을 주행제어하기 위한 예시적인 과정을 도시한 순서도이다.
1 is a schematic diagram of an example system in accordance with a described embodiment.
2A is a side view of an exemplary automobile incorporating a system according to a described embodiment.
FIG. 2B is a plan view of the vehicle and system of FIG. 1A according to a disclosed embodiment.
2C is a top plan view of another embodiment of a vehicle incorporating a system according to a disclosed embodiment.
2D is a plan view of another embodiment of a vehicle incorporating a system according to a disclosed embodiment.
2E is a top plan view of another embodiment of a vehicle incorporating a system in accordance with a disclosed embodiment.
2F is a schematic diagram of an exemplary vehicle control system in accordance with the disclosed embodiments.
3A is a schematic illustration of an interior of a vehicle including a rear view mirror and a user interface for a vehicle imaging system according to a disclosed embodiment.
3B is an example of a camera mount configured to be positioned on a vehicle windshield behind a rearview mirror in accordance with the disclosed embodiments.
FIG. 3C illustrates the camera mount of FIG. 3B from another perspective, in accordance with a disclosed embodiment.
3D is an example of a camera mount configured to be positioned on a vehicle windshield behind a rearview mirror in accordance with the disclosed embodiments.
4 is an exemplary schematic diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
5A is a flow chart illustrating an example of a process for inducing one or more navigational responses based on monocular image analysis in accordance with the disclosed embodiments.
5B is a flow chart illustrating an exemplary process for detecting one or more vehicles and/or pedestrians in a series of images in accordance with a disclosed embodiment.
5C is a flowchart illustrating an exemplary process of detecting road sign and/or lane shape information from a series of images according to the disclosed embodiment.
5D is a flow chart illustrating an exemplary process for detecting traffic lights in a series of images according to a disclosed embodiment.
5E is a flowchart illustrating an exemplary process for inducing one or more navigational responses based on a vehicle path according to a disclosed embodiment.
5F is a flowchart illustrating an exemplary process for determining whether a leading vehicle is changing lanes according to the disclosed embodiments.
6 is a flow chart illustrating an exemplary process for inducing one or more navigational responses based on stereoscopic image analysis in accordance with a disclosed embodiment.
7 is a flowchart illustrating an exemplary process for inducing one or more navigational responses based on three sets of images, according to a disclosed embodiment.
8 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
9 is a schematic diagram of a road from the perspective of the system according to the disclosed embodiment.
10 is another schematic view of a road from the perspective of a system according to a disclosed embodiment.
11 is a schematic diagram of a parked vehicle from the point of view of the system according to the disclosed embodiment.
12A is a schematic diagram of a door opening event viewed from the perspective of the system according to the disclosed embodiment.
12B is another schematic diagram of a door opening event from the perspective of the system according to the disclosed embodiment.
13 is another schematic view of a road from the point of view of the system according to the disclosed embodiment.
14 is a flow chart illustrating an exemplary process for inducing one or more navigational responses based on detection of a door opening event in accordance with a disclosed embodiment.
15 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
16A is a schematic diagram of a parked vehicle viewed from the point of view of the system according to a disclosed embodiment.
16B is another schematic diagram of a parked vehicle from the point of view of the system according to the disclosed embodiment.
17 is a flow chart illustrating an exemplary process for invoking one or more navigational responses based on detection of a target vehicle entering the host vehicle's lane in accordance with the disclosed embodiments.
18 is a flow chart illustrating an exemplary process for twisting the homography of a road according to a disclosed embodiment.
19 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
20A is a schematic diagram of a one-way road viewed from the perspective of the system according to the disclosed embodiments.
10B is another schematic diagram of a one-way road viewed from the point of view of the system according to the disclosed embodiment.
21 is a flow chart illustrating an exemplary process for invoking one or more navigational responses based on detecting whether the road the host vehicle is driving on is a one-way road according to the disclosed embodiments.
22 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
23A is a schematic diagram of a parked vehicle viewed from the point of view of the system according to a disclosed embodiment.
23B is a schematic diagram of a parked vehicle with varying lighting from the perspective of the system according to the disclosed embodiments.
23C is a schematic diagram of a heat map of a parked vehicle from the perspective of the system according to the disclosed embodiment.
24 is a flow chart illustrating an exemplary process for determining a predicted state of a parked vehicle in accordance with a disclosed embodiment.
25 is a flow chart illustrating an exemplary process for aligning visual and infrared images from a system in accordance with a disclosed embodiment.
26 is another exemplary configuration diagram of a memory configured to store instructions for performing one or more operations in accordance with the disclosed embodiments.
27A is another schematic diagram of a roadway from the perspective of a system according to a disclosed embodiment.
27B is another schematic diagram of a road with detection hotspots according to the described embodiment.
28 is a flowchart illustrating an exemplary process for driving control of a host vehicle according to the disclosed embodiment.

하기의 상세한 설명은 첨부한 도면에 관한 것이다. 가능한 모든 경우에, 도면과 설명에서 동일 또는 유사한 구성요소에 동일한 참조 번호를 사용한다. 여러 예시적인 실시예를 설명하였지만, 다양한 수정, 개조, 구현 등이 가능하다. 예를 들어, 도면에 예시된 구성요소를 치환, 또는 추가, 수정할 수 있고, 설명에 포함된 방법은 단계를 치환하거나 순서를 바꾸거나 추가하여 수정할 수 있다. 따라서, 하기의 상세한 설명은 기재한 실시예와 예시에 국한되지 않고, 본 발명의 청구 범위는 첨부한 청구항에 의해 정의된다.The following detailed description relates to the accompanying drawings. Wherever possible, like reference numerals are used for like or like elements in the drawings and description. While several exemplary embodiments have been described, various modifications, adaptations, implementations, and the like are possible. For example, components illustrated in the drawings may be substituted, added, or modified, and methods included in the description may be modified by substituting, changing the order of, or adding steps. Accordingly, the following detailed description is not limited to the described embodiments and examples, and the scope of claims of the present invention is defined by the appended claims.

[자율주행차의 개요][Overview of autonomous vehicles]

본 발명의 설명에서 사용된 "자율주행차"라는 용어는 운전자의 입력 없이 적어도 하나의 주행 변경(navigational change)을 구현할 수 있는 차량을 의미한다. "주행 변경(navigational change)"이란 차량의 조향, 제동, 가속/감속의 하나 이상을 제어 변경하는 것을 의미한다. 차량이 자율이기 위해서는 완전 자동(예, 운전자나 운전자의 입력 없이 완전히 동작)이어야 한다. 반면, 자율주행차는 특정 시간 동안은 운전자의 제어 하에 작동할 수 있고 다른 시간 동안은 운전자의 제어 없이 작동할 수 있는 차량을 포함한다. 자율주행차는 조향(예, 차량 진로의 차선 사이 유지) 또는 특정 상황 하에서의(모든 상황 하에서가 아님) 일부 조향 동작과 같은 일부 주행 요소만을 제어하고 나머지 요소(예, 제동 또는 특정 상황 하에서의 제동)는 운전자에게 맡기는 차량도 포함할 수 있다. 일부 경우에, 자율주행차는 차량의 제동 및/또는 속도 제어, 조향의 일부 또는 모든 요소를 처리할 수 있다.The term "autonomous vehicle" used in the description of the present invention refers to a vehicle capable of implementing at least one navigational change without a driver's input. "Navigational change" means a controlled change in one or more of the steering, braking, acceleration/deceleration of a vehicle. For a vehicle to be autonomous, it must be fully autonomous (i.e. fully operational without driver or driver input). On the other hand, autonomous vehicles include vehicles that can operate under the control of a driver during certain times and without the control of the driver during other times. An autonomous vehicle controls only some driving elements, such as steering (e.g., keeping the vehicle between lanes in its path) or some steering actions under certain circumstances (but not under all conditions), while remaining elements (e.g., braking or braking under certain conditions) are controlled by the driver. It may also include a vehicle entrusted to you. In some cases, an autonomous vehicle may handle some or all elements of steering, braking and/or speed control of the vehicle.

운전자들은 흔히 시각적 신호와 관찰에 의존해 차량을 제어하므로, 이에 따라 교통 인프라는 운전자들에게 시각 정보를 제공하도록 설계된 차선 표시, 교통 표지, 신호등을 포함하여 구축되었다. 교통 인프라의 이러한 설계 특징을 고려하여, 자율주행차는 카메라 및 차량의 주변으로부터 확보한 시각 정보를 분석하는 처리부를 포함할 수 있다. 시각 정보는, 예를 들어, 운전자가 눈으로 확인할 수 있는 교통 인프라의 구성요소(예, 차선 표시, 교통 표지, 신호등 등) 및 기타 장애물(예, 다른 차량, 보행자, 잔해 등)을 나타내는 이미지를 포함할 수 있다. 자율주행차는 또한, 적외선 카메라를 포함할 수 있다. 이러한 실시예에서, 처리부는 주변환경에서 캡처한 열정보를 개별적으로 또는 시각적 정보와 함께 분석할 수 있다. Drivers often rely on visual cues and observation to control their vehicles, so transportation infrastructure has been built to include lane markings, traffic signs and traffic lights designed to provide visual information to drivers. Considering these design features of the transportation infrastructure, autonomous vehicles may include cameras and processing units that analyze visual information obtained from the vehicle's surroundings. Visual information can include, for example, images representing components of transportation infrastructure (eg, lane markings, traffic signs, traffic lights, etc.) and other obstacles (eg, other vehicles, pedestrians, debris, etc.) that can be seen by drivers. can include Autonomous vehicles may also include infrared cameras. In such an embodiment, the processing unit may analyze the thermal information captured from the environment individually or together with the visual information.

또한, 자율주행차는 주행 시에 차량 주변의 모델을 제공하는 정보와 같은 저장 정보도 사용할 수 있다. 예를 들어, 차량은 이동 중의 차량 환경과 관련된 정보를 제공하기 위하여 GPS 데이터 및/또는 센서 데이터(예, 가속도계, 속력 센서, 서스펜션 센서 등으로부터의 데이터), 기타 지도 데이터를 활용할 수 있고, 차량(다른 차량도 함께)은 이런 정보를 이용하여 차량의 위치를 모델 상에서 알아낼 수 있다. 일부 차량들은 또한, 서로 통신하며 정보를 교환하고 차량 주변의 위험이나 변화에 대해 상대 차량을 우회하게 할 수 있다. In addition, the self-driving vehicle can also use stored information such as information that provides a model around the vehicle while driving. For example, a vehicle may utilize GPS data and/or sensor data (e.g., data from accelerometers, speed sensors, suspension sensors, etc.), and other map data to provide information related to the vehicle's environment as it moves, and the vehicle ( Other vehicles (along with other vehicles) can use this information to determine the location of the vehicle on the model. Some vehicles may also communicate with each other, exchange information and divert other vehicles to hazards or changes around the vehicle.

[시스템 개요][System Overview]

도 1은 예시적으로 기재된 실시예에 따른 시스템(100)의 구성도이다. 시스템(100)은 해당 구현의 요구 조건에 따라 다양한 구성 요소를 포함할 수 있다. 일부 실시예에서, 시스템(100)은 처리부(110), 이미지획득부(120), 위치센서(130), 하나 이상의 메모리부(140, 150), 지도 데이터베이스(160), 사용자 인터페이스(170), 무선 송수신기(172)를 포함할 수 있다. 처리부(110)는 하나 이상의 처리 장치를 포함할 수 있다. 일부 실시예에서, 처리부(110)는 애플리케이션 프로세서(180), 이미지 프로세서(190), 또는 기타 적합한 처리 장치를 포함할 수 있다. 이와 마찬가지로, 이미지획득부(120)는 특정 애플리케이션의 요구 조건에 따라 여러 개의 영상 획득 장치 및 소자를 포함할 수 있다. 일부 실시예에서, 이미지획득부(120)는 이미지캡처장치(122, 124, 126)와 같은 하나 이상의 이미지캡처장치(예, 카메라, CCD, 또는 기타 유형의 이미지 센서)를 포함할 수 있다. 일부 실시예에서, 이미지획득부(120)는 하나 이상의 적외선캡처장치(예, 적외선 카메라, 원적외선 검출기, 또는 기타 유형의 적외선 센서)를 더 포함할 수 있다. 예를 들어, 하나 이상의 이미지캡처장치(122, 124, 126)는 적외선이미지캡처장치를 포함할 수 있다. 1 is a block diagram of a system 100 according to an illustratively described embodiment. System 100 may include various components depending on the requirements of the implementation. In some embodiments, system 100 includes processing unit 110, image acquisition unit 120, position sensor 130, one or more memory units 140 and 150, map database 160, user interface 170, A radio transceiver 172 may be included. Processing unit 110 may include one or more processing devices. In some embodiments, processing unit 110 may include applications processor 180, image processor 190, or other suitable processing device. Similarly, the image acquisition unit 120 may include several image acquisition devices and elements according to requirements of specific applications. In some embodiments, image acquisition unit 120 may include one or more image capture devices (eg, cameras, CCDs, or other types of image sensors) such as image capture devices 122 , 124 , and 126 . In some embodiments, the image acquisition unit 120 may further include one or more infrared capture devices (eg, an infrared camera, a far infrared detector, or other types of infrared sensors). For example, one or more of the image capture devices 122, 124, and 126 may include an infrared image capture device.

시스템(100)은 또한 처리부(110)와 이미지획득부(120)를 서로 통신하도록 연결하는 데이터 인터페이스(128)를 포함할 수 있다. 예를 들어, 데이터 인터페이스(128)는 이미지획득부(120)가 획득한 영상 데이터를 처리부(110)로 전송하기 위한 단수 또는 복수의 유선 및/또는 무선 링크를 포함할 수 있다.System 100 may also include a data interface 128 that couples processing unit 110 and image acquisition unit 120 in communication with each other. For example, the data interface 128 may include one or more wired and/or wireless links for transmitting image data obtained by the image acquisition unit 120 to the processing unit 110 .

무선 송수신기(172)는 무선주파수, 또는 적외선주파수, 자기장, 전기장을 사용하여 무선 인터페이스를 통하여 전파를 하나 이상의 네트워크(예, 이동통신, 인터넷 등)와 주고받도록 구성된 하나 이상의 장치를 포함할 수 있다. 무선 송수신기(172)는 공지의 표준(예, Wi- Fi, Bluetooth®, Bluetooth Smart, 802.15.4, ZigBee 등)을 사용하여 데이터를 송신 및/또는 수신할 수 있다. 이러한 전파는 호스트 차량으로부터 원격에 위치한 하나 이상의 서버로 전송하는 통신을 포함할 수 있다. 이러한 전파는 또한 호스트 차량과 호스트 차량 주변환경 내에 있는 한 대 이상의 타깃 차량 사이의 (일방 또는 쌍방의) 통신(예, 호스트 차량 주변환경 내의 타깃 차량에 대한 또는 이 타깃 차량과 함께 호스트 차량의 주행을 조정하기 위한 통신) 또는 전파를 전송하는 차량의 주변의 불특정 수신인에게 보내는 방송 전파까지도 포함할 수 있다. The wireless transceiver 172 may include one or more devices configured to transmit and receive radio waves to and from one or more networks (eg, mobile communication, Internet, etc.) through a wireless interface using radio frequency, infrared frequency, magnetic field, or electric field. The radio transceiver 172 may transmit and/or receive data using known standards (eg, Wi-Fi, Bluetooth®, Bluetooth Smart, 802.15.4, ZigBee, etc.). These radio waves may include communications from the host vehicle to one or more remotely located servers. These radio waves may also be used for communication (either one way or the other) between the host vehicle and one or more target vehicles in the host vehicle's environment (e.g., driving of the host vehicle to or with the target vehicle in the host vehicle's environment). communication for adjustment) or even broadcast radio waves sent to unspecified recipients around the vehicle that transmits the radio waves.

애플리케이션 프로세서(180)와 이미지 프로세서(190)는 모두 다양한 종류의 하드웨어 기반 처리 장치를 포함할 수 있다. 예를 들어, 애플리케이션 프로세서(180)와 이미지 프로세서(190) 중 하나 또는 모두는 마이크로프로세서, 전처리 장치(예, 이미지 전처리 장치), 그래픽 프로세서, 중앙 처리 장치(CPU), 보조 회로, 디지털 신호 프로세서, 집적 회로, 메모리, 그래픽 처리 장치(GPU) 또는 애플리케이션을 실행하고 영상을 처리 및 분석하기에 적합한 유형의 장치를 포함할 수 있다. 일부 실시예에서, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 단일 또는 멀티 코어 프로세서, 모바일 장치 마이크로컨트롤러, 중앙 처리 장치의 한 종류를 포함할 수 있다. 다양한 처리 장치들이 사용될 수 있으며, 여기에는, 예를 들면, Intel®, AMD® 등과 같은 업체가 제공하는 프로세서들 또는 NVIDIA®, ATI® 등과 같은 업체가 제공하는 GPU가 포함될 수 있고, 다양한 아키텍처(예, x86 프로세서, ARM® 등)가 포함될 수 있다.Both the application processor 180 and the image processor 190 may include various types of hardware-based processing devices. For example, one or both of application processor 180 and image processor 190 may include a microprocessor, a pre-processing unit (e.g., an image pre-processing unit), a graphics processor, a central processing unit (CPU), auxiliary circuitry, a digital signal processor, It may include an integrated circuit, memory, graphics processing unit (GPU), or other type of device suitable for running applications and processing and analyzing images. In some embodiments, applications processor 180 and/or image processor 190 may include one type of single or multi-core processor, mobile device microcontroller, or central processing unit. Various processing units may be used, which may include, for example, processors provided by vendors such as Intel®, AMD®, etc. or GPUs provided by vendors such as NVIDIA®, ATI®, etc., and various architectures (eg , x86 processors, ARM®, etc.).

일부 실시예에서, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 Mobileye®가 제공하는 EyeQ 시리즈의 프로세서 칩을 포함할 수 있다. 이러한 프로세서 설계는 로컬 메모리와 명령 집합을 가진 다중 처리 장치를 포함한다. 이러한 프로세서는 복수의 이미지 센서로부터 이미지 데이터를 수신하는 비디오 인풋을 포함할 수 있고 비디오 아웃풋 기능도 포함할 수 있다. 일례로, EyeQ2®는 332Mhz로 작동하는 90nm-마이크론 기술을 사용한다. EyeQ2® 아키텍처는 두 개의 부동 소수점(floating point) 하이퍼 스레드(hyper-thread) 32비트 RISC CPU(MIPS32® 34K® cores), 다섯 개의 Vision Computing Engines (VCE), 세 개의 Vector Microcode Processors(VMP® ), Denali 64비트 Mobile DDR Controller, 128비트 내부 Sonics Interconnect, 듀얼 16비트 비디오 인풋 및 18비트 비디오 아웃풋 제어 장치, 16채널 DMA 및 여러 주변 장치로 구성된다. MIPS34K CPU는 다섯 개의 VCE와 세 개의 VMP??, DMA, 두 번째 MIPS34K CPU, 다중 채널 DMA, 및 기타 주변 장치를 관리한다. 다섯 개의 VCE, 세 개의 VMP® 및 MIPS34K CPU는 다기능 묶음 애플리케이션이 요구하는 집중 영상 연산을 수행할 수 있다. 다른 일례에서, EyeQ2®보다 6배 강력한 3세대 프로세서인 EyeQ3®가 실시예에 사용될 수 있다. 다른 예에서, 기재된 실시예에 EyeQ4® 및/또는 EyeQ5®가 사용될 수 있다. 물론, 새로운 또는 미래의 EyeQ 처리 장치도 기재된 실시예와 함께 사용될 수 있다. In some embodiments, application processor 180 and/or image processor 190 may include an EyeQ series of processor chips provided by Mobileye®. These processor designs include multiple processing units with local memory and instruction sets. Such a processor may include a video input for receiving image data from a plurality of image sensors and may also include a video output function. For example, the EyeQ2® uses 90nm-micron technology running at 332Mhz. The EyeQ2® architecture consists of two floating point hyper-threaded 32-bit RISC CPUs (MIPS32® 34K® cores), five Vision Computing Engines (VCE), three Vector Microcode Processors (VMP® ), It consists of a Denali 64-bit Mobile DDR Controller, 128-bit internal Sonics Interconnect, dual 16-bit video input and 18-bit video output control units, 16-channel DMA and several peripherals. A MIPS34K CPU manages five VCEs, three VMP??, DMA, a second MIPS34K CPU, multi-channel DMA, and other peripherals. Five VCEs, three VMP® and MIPS34K CPUs can perform the intensive video computations required by multi-functional bundled applications. In another example, EyeQ3®, a 3rd generation processor that is 6 times more powerful than EyeQ2®, may be used in an embodiment. In another example, EyeQ4® and/or EyeQ5® may be used in the described embodiments. Of course, new or future EyeQ processing devices may also be used with the described embodiments.

여기에 기재된 프로세싱 처리 장치는 각각 특정한 기능을 수행하도록 구성될 수 있다. 특정한 기능을 수행하도록 상기의 EyeQ 프로세서 또는 기타 제어 장치 또는 마이크로프로세서와 같은 처리 장치를 구성하는 것은 컴퓨터 실행 명령을 프로그램하고 이러한 명령을 처리 장치가 작동하는 동안에 처리 장치에 제공하여 실행하도록 하는 것을 포함할 수 있다. 일부 실시예에서, 처리 장치를 구성하는 것은 구조적 명령으로 처리 장치를 직접 프로그램하는 것을 포함할 수 있다. 예를 들어, FPGA(field-programmable gate array), ASIC(application-specific integrated circuit) 등과 같은 처리 장치가 하나 이상의 HDL(hardware description languages)을 사용하여 구성될 수 있다. Each of the processing processing devices described herein may be configured to perform a specific function. Configuring a processing device, such as an EyeQ processor or other control unit or microprocessor, to perform a particular function may include programming computer-executed instructions and providing these instructions to the processing device for execution while the processing device is operating. can In some embodiments, configuring the processing device may include directly programming the processing device with structured instructions. For example, processing devices such as field-programmable gate arrays (FPGAs), application-specific integrated circuits (ASICs), and the like may be constructed using one or more hardware description languages (HDLs).

다른 실시예에서, 프로세싱 처리 장치를 구성하는 것은 작동 중에 처리 장치에 접속 가능한 메모리에 실행 가능한 명령을 저장하는 것을 포함할 수 있다. 예를 들어, 프로세싱 처리 장치는 작동 중에 메모리에 접속하여 저장된 명령을 획득하고 실행할 수 있다. 어느 경우이든, 여기에 기재된 감지, 이미지 분석, 및/또는 주행제어 기능을 수행하도록 구성된 처리 장치는 호스트 차량의 다중 하드웨어 기반 구성요소를 제어하도록 특화된 하드웨어 기반 시스템을 대표한다. In other embodiments, configuring the processing device may include storing executable instructions in a memory accessible to the processing device during operation. For example, a processing processing unit may access memory during operation to obtain and execute stored instructions. In either case, the processing devices configured to perform the sensing, image analysis, and/or driving control functions described herein represent hardware-based systems specialized for controlling multiple hardware-based components of a host vehicle.

도 1에는 두 개의 프로세싱 처리 장치가 처리부(110)에 포함된 것을 예시하였지만, 이보다 많거나 적은 처리 장치가 사용될 수 있다. 예를 들면, 일부 실시예에서, 애플리케이션 프로세서(180)와 이미지 프로세서(190)의 작업을 수행하기 위하여 단일 처리 장치를 사용할 수 있다. 다른 실시예에서, 이러한 작업은 2개 이상의 프로세싱 처리 장치를 사용하여 수행될 수 있다. 또한, 일부 실시예에서, 시스템(100)은 하나 이상의 처리부(110)를 포함하되 이미지획득부(120) 등과 같은 다른 구성요소를 포함하지 않을 수도 있다. Although FIG. 1 illustrates that two processing units are included in the processing unit 110, more or fewer processing units may be used. For example, in some embodiments, a single processing unit may be used to perform the tasks of applications processor 180 and image processor 190 . In other embodiments, these tasks may be performed using two or more processing processing units. Also, in some embodiments, the system 100 may include one or more processing units 110 but may not include other components such as the image acquisition unit 120 or the like.

처리부(110)는 다양한 유형의 장치를 포함할 수 있다. 예를 들어, 처리부(110)는 제어 장치, 이미지 전처리 장치, 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 보조 회로, 디지털 신호 처리 장치, 집적 회로, 메모리, 또는 영상의 처리 및 분석을 위한 기타 유형의 장치 등과 같은 다양한 장치를 포함할 수 있다. 이미지 전처리 장치는 이미지 센서로부터 이미지를 촬영, 디지털화, 처리하기 위한 이미지 프로세서를 포함할 수 있다. CPU는 단수 또는 복수의 마이크로컨트롤러 또는 마이크로프로세서를 포함할 수 있다. GPU도 단수 또는 복수의 마이크로컨트롤러 또는 마이크로프로세서를 포함할 수 있다. 보조 회로는 캐시, 전원, 클락, 입/출력 회로 등과 같이 본 발명의 분야에서 일반적으로 공지된 단수 또는 복수의 회로를 포함할 수 있다. 메모리는 처리 장치에 의해 실행될 때 시스템의 동작을 제어하는 소프트웨어를 저장할 수 있다. 메모리는 단수 또는 복수의 RAM(random access memory), ROM(read only memory), 플래시 메모리, 디스크 드라이브, 광 저장 장치, 테이프 저장 장치, 탈착형 저장 장치, 및 기타 유형의 저장 장치를 포함할 수 있다. 일례에서, 메모리는 처리부(110)와 분리되어 있을 수 있다. 다른 예에서, 메모리는 처리부(110)와 일체로 구성될 수 있다.Processing unit 110 may include various types of devices. For example, the processing unit 110 may be a control unit, an image pre-processing unit, a central processing unit (CPU), a graphics processing unit (GPU), an auxiliary circuit, a digital signal processing unit, an integrated circuit, a memory, or image processing and analysis. It may include various devices, such as other types of devices for The image pre-processing device may include an image processor for photographing, digitizing, and processing an image from an image sensor. A CPU may include one or more microcontrollers or microprocessors. A GPU may also contain one or more microcontrollers or microprocessors. Auxiliary circuits may include one or more circuits generally known in the art, such as cache, power supply, clock, input/output circuits, and the like. The memory may store software that, when executed by the processing unit, controls the operation of the system. Memory may include one or more random access memory (RAM), read only memory (ROM), flash memory, disk drives, optical storage, tape storage, removable storage, and other types of storage. . In one example, the memory may be separate from processing unit 110 . In another example, the memory may be integrated with the processing unit 110 .

메모리(140, 150) 각각은 처리 장치(예, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190))에 의해 실행될 때 시스템(100)의 다양한 측면의 동작을 제어할 수 있는 소프트웨어 명령을 포함할 수 있다. 이러한 메모리 장치는 다양한 데이터베이스 및 이미지 처리 소프트웨어뿐만 아니라, 예를 들어, 신경망 또는 심층 신경망과 같은 학습 시스템을 포함할 수 있다. 이러한 메모리 장치는 RAM, ROM, 플래시 메모리, 디스크 드라이브, 광 저장 장치, 테이프 저장 장치, 탈착형 저장 장치 및/또는 기타 유형의 저장 장치를 포함할 수 있다. 일부 실시예에서, 메모리 장치(140, 150)는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)와 분리되어 있을 수 있다. 다른 실시예에서, 이러한 메모리 장치는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)와 일체로 구성될 수 있다.Each of memories 140 and 150 may contain software instructions that, when executed by a processing device (eg, applications processor 180 and/or image processor 190), may control the operation of various aspects of system 100. can Such a memory device may contain learning systems such as, for example, neural networks or deep neural networks, as well as various database and image processing software. Such memory devices may include RAM, ROM, flash memory, disk drives, optical storage devices, tape storage devices, removable storage devices, and/or other types of storage devices. In some embodiments, memory devices 140 and 150 may be separate from application processor 180 and/or image processor 190 . In another embodiment, such a memory device may be integrated with the application processor 180 and/or image processor 190 .

위치센서(130)는 시스템(100)의 적어도 한 구성요소와 연관된 위치를 판단하기에 적합한 유형의 장치를 포함할 수 있다. 일부 실시예에서, 위치센서(130)는 GPS 수신기를 포함할 수 있다. 이러한 수신기는 GPS 위성이 송신하는 신호를 처리하여 사용자의 위치와 속도를 판단할 수 있다. 위치센서(130)로부터의 위치 정보는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)로 제공될 수 있다. Position sensor 130 may include any type of device suitable for determining a position associated with at least one component of system 100 . In some embodiments, the position sensor 130 may include a GPS receiver. These receivers can determine the user's location and speed by processing signals transmitted from GPS satellites. Location information from the location sensor 130 may be provided to the application processor 180 and/or the image processor 190 .

일부 실시예에서, 시스템(100)은 차량(200)의 속도를 측정하기 위한 속력 센서(예, 속도계)와 같은 구성요소를 포함할 수 있다. 시스템(100)은 또한 하나 이상의 축을 따라 차량(200)의 가속을 측정하기 위한 하나 이상의 가속도계(단일축 또는 다중축)를 포함할 수 있다. In some embodiments, system 100 may include a component such as a speed sensor (eg, speedometer) for measuring the speed of vehicle 200 . System 100 may also include one or more accelerometers (uniaxial or multi-axis) for measuring acceleration of vehicle 200 along one or more axes.

메모리 장치(140, 150)는 알려진 랜드마크의 하나 이상의 지시자 및/또는 위치를 포함하는 데이터베이스 또는 기타 유형으로 구성된 데이터를 포함할 수 있다. 알려진 랜드마크에 대한 차량의 현위치를 판단하고 차량의 위치를 더욱 정확하게 하기 위하여, 주변환경의 감지 정보(예, 이미지, 레이더 신호, 둘 이상의 이미지의 스테레오 처리 또는 라이더의 깊이 정보)는 GPS 좌표, 차량 자신의 움직임 등과 같은 위치 정보와 함께 처리될 수 있다. 이러한 기술의 특정 측면은 본 출원의 양수인이 상용화하고 있는 REMTM으로 알려진 위치결정 기술에 포함된다. The memory devices 140 and 150 may contain data organized into a database or other type of data containing one or more indicators and/or locations of known landmarks. In order to determine the vehicle's current position relative to known landmarks and to make the vehicle's position more accurate, sensory information (e.g., images, radar signals, stereo processing of two or more images, or lidar depth information) of the surrounding environment is used to determine GPS coordinates, It can be processed together with location information such as the movement of the vehicle itself. Certain aspects of this technology are included in a positioning technology known as REM which is being commercialized by the assignee of the present application.

사용자 인터페이스(170)는 시스템(100)의 한 명 이상의 사용자에게 정보를 제공하고 사용자로부터 입력을 수신하기 적합한 장치를 포함할 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 예를 들어 터치스크린, 마이크, 키보드, 포인터 장치, 트랙휠, 카메라, 노브, 버튼 등의 사용자 입력 장치를 포함할 수 있다. 이러한 입력 장치는 사용자로 하여금 명령 또는 정보를 타이핑하거나, 음성 명령을 제공하거나, 버튼, 포인터, 또는 눈동자 추적 기능을 사용하여 화면상의 메뉴를 선택하거나, 시스템(100)과 정보를 교환하기 위한 기타 적합한 기술을 통하여 시스템(100)에 정보 입력 또는 명령을 제공할 수 있게 해준다.User interface 170 may include any device suitable for providing information to and receiving input from one or more users of system 100 . In some embodiments, user interface 170 may include user input devices such as, for example, a touchscreen, microphone, keyboard, pointer device, trackwheel, camera, knobs, and buttons. Such input devices may allow a user to type commands or information, provide voice commands, select on-screen menus using buttons, pointers, or eye-tracking features, or other suitable methods for exchanging information with system 100. Technology allows information input or commands to be provided to the system 100 .

사용자 인터페이스(170)는 사용자에게 정보를 제공하고 사용자로부터 정보를 수신하며 이러한 정보를 예를 들어 애플리케이션 프로세서(180)가 사용하게 처리하도록 구성된 하나 이상의 처리 장치를 구비할 수 있다. 일부 실시예에서, 이러한 처리 장치는 눈동자의 움직임을 인식 및 추적하고, 음성 명령을 수신 및 해석하고, 터치스크린 상의 터치 및/또는 제스처를 인식 및 해석하고, 키보드 입력 또는 메뉴 선택에 응답하는 등을 위한 지시를 수행할 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 디스플레이, 스피커, 촉감 장치, 및/또는 사용자에게 출력 정보를 제공하는 기타 장치를 포함할 수 있다.User interface 170 may include one or more processing devices configured to provide information to a user, receive information from a user, and process such information for use by, for example, application processor 180 . In some embodiments, these processing devices may recognize and track eye movements, receive and interpret voice commands, recognize and interpret touches and/or gestures on a touchscreen, respond to keyboard input or menu selections, and the like. can carry out instructions. In some embodiments, user interface 170 may include a display, speaker, tactile device, and/or other device that provides output information to the user.

지도 데이터베이스(160)는 시스템(100)에서 사용 가능한 지도 데이터를 저장하기 위한 모든 유형의 데이터베이스를 포함할 수 있다. 일부 실시예에서, 지도 데이터베이스(160)는 도로, 하천 지형, 지리적 지형, 사업체, 관심 지점, 식당, 주유소 등의 다양한 항목의 기준 좌표계 상 위치와 관련된 데이터를 포함할 수 있다. 지도 데이터베이스(160)는 이런 항목의 위치뿐만 아니라, 예를 들면, 저장된 지점 관련 명칭 등을 포함하는 설명을 저장할 수 있다. 일부 실시예에서, 지도 데이터베이스(160)는 시스템(100)의 다른 구성요소와 함께 물리적으로 배치될 수 있다. 대안적으로, 또는 추가적으로, 지도 데이터베이스(160) 또는 지도 데이터베이스(160)의 일부는 시스템(100)의 다른 구성요소(예, 처리부(110))에 대하여 원격으로 배치될 수 있다. 이 경우, 지도 데이터베이스(160)로부터의 정보는 네트워크와의 유선 또는 무선 데이터 연결(예, 이동통신망 및/또는 인터넷 등)을 통하여 다운로드 될 수 있다. 일부 경우에, 지도 데이터베이스(160)는 특정 도로 특징(예, 차선 표시)의 다항식 표현 또는 호스트 차량의 목표 궤적을 포함하는 간략 데이터 모델을 저장할 수 있다. 지도 데이터베이스(160)는 또한 목표 궤적에 대한 호스트 차량의 알려진 위치의 판단 또는 업데이트에 활용될 수 있는 다양한 인지된 랜드마크의 저장된 표현을 포함할 수 있다. 랜드마크 표현은 잠재적 식별자 중에서 랜드마크 유형, 랜드마크 위치와 같은 데이터필드를 포함할 수 있다. Map database 160 may include any type of database for storing map data usable in system 100 . In some embodiments, map database 160 may include data relating to the locations on reference coordinates of various items such as roads, river features, geographic features, businesses, points of interest, restaurants, gas stations, and the like. The map database 160 may store not only the locations of these items, but also descriptions including, for example, names associated with the stored points. In some embodiments, map database 160 may be physically co-located with other components of system 100. Alternatively, or additionally, map database 160 or portions of map database 160 may be located remotely relative to other components of system 100 (eg, processing unit 110). In this case, information from the map database 160 may be downloaded through a wired or wireless data connection with a network (eg, a mobile communication network and/or the Internet). In some cases, map database 160 may store simplified data models that include polynomial representations of specific road features (eg, lane markings) or target trajectories of the host vehicle. Map database 160 may also include stored representations of various recognized landmarks that may be utilized to determine or update the host vehicle's known position relative to a target trajectory. The landmark expression may include data fields such as landmark type and landmark location among potential identifiers.

이미지캡처장치(122, 124, 126)는 각각 주변 환경으로부터 적어도 하나의 영상을 캡처하기에 적합한 유형의 장치를 포함할 수 있다. 또한, 이미지 프로세서로의 입력에 필요한 영상을 촬영하기 위하여 여러 개의 이미지캡처장치를 사용할 수 있다. 일부 실시예는 단일 이미지캡처장치를 포함할 수 있는 반면, 다른 실시예는 두 개, 세 개, 또는 4개 이상의 이미지캡처장치를 포함할 수 있다. Image capture devices 122, 124, and 126 may each include any type of device suitable for capturing at least one image from the surrounding environment. In addition, multiple image capture devices may be used to capture images required for input to the image processor. Some embodiments may include a single image capture device, while other embodiments may include two, three, or four or more image capture devices.

나아가, 앞서 설명한 바와 같이, 이미지캡처장치(122, 124, 126)는 각각 주변 환경으로부터 적어도 하나의 적외선 영상을 캡처하기에 적합한 유형의 장치를 포함할 수 있다. 다양한 수의 적외선 이미지캡처장치가 사용될 수 있다. 일부 실시예는 단일 적외선 이미지캡처장치를 포함할 수 있는 반면, 다른 실시예는 두 개, 세 개, 또는 4개 이상의 적외선 이미지캡처장치를 포함할 수 있다. 또한, 일부 실시예는 다양한 수의 적외선 이미지캡처장치와 다양한 수의 이미지캡처장치의 조합을 포함할 수 있다. 이미지캡처장치(122, 124, 126)는 도 1B 내지 도 1E를 참조하여 하기에 추가로 설명한다.Further, as described above, image capture devices 122, 124, and 126 may each include a type of device suitable for capturing at least one infrared image from the surrounding environment. Any number of infrared image capture devices may be used. Some embodiments may include a single infrared image capture device, while other embodiments may include two, three, or four or more infrared image capture devices. In addition, some embodiments may include different numbers of infrared image capture devices and combinations of different numbers of image capture devices. Image capture devices 122, 124 and 126 are further described below with reference to FIGS. 1B-1E.

하나 이상의 카메라(예, 이미지캡처장치(122, 124, 126))는 차량에 포함된 감지 블록(sensing block)의 일부일 수 있다. 감지 블록은 하나 이상의 적외선 카메라를 하나 이상의 카메라와 별도로 또는 조합으로 더 포함할 수 있다. One or more cameras (eg, image capture devices 122, 124, 126) may be part of a sensing block included in the vehicle. The sensing block may further include one or more infrared cameras separately or in combination with the one or more cameras.

다양한 기타 센서들이 감지 블록에 포함될 수 있으며, 센서들의 일부 또는 모두에 의존하여 차량의 주행 상태에 대한 파악을 구축할 수 있다. 카메라(전방, 측방, 후방 등) 외에도 레이더, 라이더, 음향 센서와 같은 기타 센서들이 감지 블록에 포함될 수 있다. 추가적으로, 감지 블록은 차량의 주변환경에 관한 정보를 통신 및 송수신하도록 구성된 하나 이상의 구성요소를 포함할 수 있다. 예를 들면, 이러한 구성요소는 호스트 차량에 관한 센서 기반 정보 또는 기타 유형의 정보를 호스트 차량에 대해 원격으로 위치한 소스로부터 수신할 수 있는 무선 송수신기(RF 등)를 포함할 수 있다. 이러한 정보는 호스트 차량이 아닌 다른 차량으로부터 수신한 센서 출력 정보 또는 관련 정보를 포함할 수 있다. 일부 실시예에서, 이러한 정보는 원격 컴퓨팅 장치, 중앙 서버 등으로부터 수신된 정보를 포함할 수 있다. 나아가, 카메라는 단일 카메라 장치, 복수의 카메라, 카메라 클러스터, 망원 시야, 근거리 시야, 광각, 어안 등, 다양한 구성을 가질 수 있다. A variety of other sensors may be included in the sensing block, and may rely on some or all of the sensors to build an understanding of the vehicle's driving state. In addition to cameras (front, side, rear, etc.), other sensors such as radar, lidar, and acoustic sensors may be included in the sensing block. Additionally, the sensing block may include one or more components configured to communicate and send and receive information about the vehicle's surroundings. For example, these components may include a radio transceiver (RF, etc.) capable of receiving sensor-based or other types of information about the host vehicle from a source located remotely about the host vehicle. This information may include sensor output information or related information received from a vehicle other than the host vehicle. In some embodiments, this information may include information received from remote computing devices, central servers, and the like. Furthermore, the camera may have various configurations, such as a single camera device, a plurality of cameras, a camera cluster, a telescopic field of view, a short field of view, a wide angle view, a fisheye view, and the like.

시스템(100), 혹은 시스템(100)의 다양한 구성요소는 다양한 플랫폼에 구현될 수 있다. 일부 실시예에서, 시스템(100)은, 도 1A에 예시된 바와 같이, 차량(200)에 포함될 수 있다. 예를 들면, 차량(200)에는 도 1에 설명한 처리부(110) 및 시스템(100)의 기타 구성요소가 구비될 수 있다. 일부 실시예의 차량(200)에는 단일 이미지캡처장치(예, 카메라) 및/또는 단일 적외선 이미지캡처장치만 구비될 수 있는 반면, 다른 실시예의 차량에는, 도 1B 내지 2e에 예시된 바와 같이, 여러 개의 이미지캡처장치 및/또는 여러 개의 적외선 이미지캡처장치가 사용될 수 있다. 예를 들어, 도 1A에 예시된 차량(200)의 이미지캡처장치(122, 124)는 첨단 운전자 지원 시스템(Advanced Driver Assistance Systems; ADAS) 영상 세트의 일부일 수 있다. System 100, or various components of system 100, may be implemented on various platforms. In some embodiments, system 100 may be included in vehicle 200, as illustrated in FIG. 1A. For example, vehicle 200 may be equipped with processing unit 110 and other components of system 100 described in FIG. 1 . Some embodiments vehicle 200 may be equipped with only a single image capture device (eg, camera) and/or a single infrared image capture device, while in other embodiments vehicles 200 may have multiple, as illustrated in FIGS. 1B-2E . An image capture device and/or multiple infrared image capture devices may be used. For example, image capture devices 122 and 124 of vehicle 200 illustrated in FIG. 1A may be part of an Advanced Driver Assistance Systems (ADAS) image set.

이미지획득부(120)의 일부로서 차량(200)에 포함된 이미지캡처장치는 적합한 장소에 위치될 수 있다. 일부 실시예에서, 도 1A 내지 2e, 3a 내지 3c에 도시된 바와 같이, 이미지캡처장치(122)는 백미러 주위에 배치될 수 있다. 이 위치는 차량(200)의 운전자와 유사한 시선을 제공할 수 있으며, 이에 따라 운전자에게 보이는 것과 보이지 않는 것을 판단하는데 도움이 될 수 있다. 이미지캡처장치(122)는 백미러 주변의 임의의 위치에 배치될 수 있지만, 백미러의 운전자 측에 이미지캡처장치(122)를 배치하면 운전자의 시야 및/또는 시선을 나타내는 영상을 획득하는데 더욱 도움이 될 수 있다.An image capture device included in vehicle 200 as part of image acquisition unit 120 may be located in a suitable location. In some embodiments, as shown in FIGS. 1A-2E and 3A-3C , image capture device 122 may be placed around the rearview mirror. This location may provide a line of sight similar to that of the driver of the vehicle 200 and thus may help determine what is visible and invisible to the driver. The image capture device 122 can be placed anywhere around the rearview mirror, but placing the image capture device 122 on the driver's side of the rearview mirror will be more helpful in obtaining an image representing the driver's field of view and/or line of sight. can

이미지획득부(120)의 이미지캡처장치는 다른 위치에 배치될 수도 있다. 예를 들면, 이미지캡처장치(124)는 차량(200)의 범퍼 내부 또는 상에 배치될 수 있다. 이런 위치는 광시야를 가진 이미지캡처장치에 특히 적합할 수 있다. 범퍼에 위치한 이미지캡처장치의 시선은 운전자의 시선과 다를 수 있기 때문에 범퍼에 위치한 이미지캡처장치와 운전자는 항상 같은 대상을 보는 것이 아닐 수 있다. 이미지캡처장치(예, 122, 124, 126)는 또한, 다른 위치에 배치될 수 있다. 예를 들어, 이미지캡처장치는 차량(200)의 일측 또는 양측의 사이드 미러 상 또는 내부에, 차량(200)의 지붕 상에, 차량(200)의 보닛 상에, 차량(200)의 측면에, 차량(200)의 윈도우 상, 후면 또는 전면에, 차량(200)의 전면 및/또는 후면 등화장치상에 또는 주변 등의 위치에 배치될 수 있다. The image capture device of the image acquisition unit 120 may be disposed in another location. For example, image capture device 124 may be placed in or on the bumper of vehicle 200 . Such a location may be particularly suitable for image capture devices having a wide field of view. Since the gaze of the image capture device located in the bumper may be different from that of the driver, the image capture device located in the bumper and the driver may not always see the same object. Image capture devices (eg, 122, 124, 126) may also be located in other locations. For example, the image capture device may be placed on or inside a side mirror of one or both sides of the vehicle 200, on the roof of the vehicle 200, on the bonnet of the vehicle 200, on the side of the vehicle 200, It may be placed on the windows, rear or front of the vehicle 200, on or around the front and/or rear lights of the vehicle 200, and the like.

차량(200)은 이미지캡처장치 외에도 시스템(100)의 다양한 기타 구성요소를 포함할 수 있다. 예를 들면, 처리부(110)는 차량(200)의 엔진제어장치(engine control unit, ECU)와 일체 또는 분리된 형태로 차량(200)에 포함될 수 있다. 차량(200)은 또한, GPS 수신기 등과 같은 위치센서(130), 지도 데이터베이스(160), 메모리부(140, 150)도 포함할 수 있다. Vehicle 200 may include various other components of system 100 in addition to the image capture device. For example, the processing unit 110 may be included in the vehicle 200 either integrally with or separate from an engine control unit (ECU) of the vehicle 200 . The vehicle 200 may also include a location sensor 130 such as a GPS receiver, a map database 160, and memory units 140 and 150.

앞서 설명한 바와 같이, 무선 송수신기(172)는 하나 이상의 네트워크(예, 이동통신망, 인터넷 등)를 통하여 데이터를 송신 및/또는 수신할 수 있다. 예를 들어, 무선 송수신기(172)는 시스템(100)이 수집한 데이터를 하나 이상의 서버로 업로드하고 하나 이상의 서버로부터 데이터를 다운로드할 수 있다. 시스템(100)은 무선 송수신기(172)를 통하여, 예를 들어, 지도 데이터베이스(160) 및/또는 메모리(140, 150)에 저장된 데이터의 주기적 또는 일시적 업데이트를 수신할 수 있다.As described above, the wireless transceiver 172 may transmit and/or receive data through one or more networks (eg, a mobile communication network, the Internet, etc.). For example, wireless transceiver 172 can upload data collected by system 100 to one or more servers and download data from one or more servers. System 100 may receive periodic or temporary updates of data stored, for example, in map database 160 and/or memories 140 and 150 via radio transceiver 172 .

마찬가지로, 무선 송수신기(172)는 시스템(100)의 데이터(예, 이미지획득부(120)가 캡처한 이미지, 위치센서(130), 기타 센서, 또는 차량 제어 시스템이 수신한 데이터 등) 및/또는 처리부(110)에 의해 처리된 데이터를 하나 이상의 서버에 업로드할 수 있다.Similarly, the wireless transceiver 172 transmits data of the system 100 (eg, images captured by the image acquisition unit 120, data received by the position sensor 130, other sensors, or vehicle control systems, etc.) and/or Data processed by the processing unit 110 may be uploaded to one or more servers.

시스템(100)은 개인정보보호 설정에 근거하여 서버(예, 클라우드)로 데이터를 업로드할 수 있다. 예를 들면, 시스템(100)은 개인정보보호 설정을 실행하여 서버로 보내지는 차량과 차량의 운전자/소유자를 개별적으로 확인해주는 데이터(메타데이터 포함)의 유형을 규제 또는 제한할 수 있다. 이런 설정은 예를 들어 사용자에 의해 무선 송수신기(172)를 통해 설정되거나, 공장설정으로 초기화되거나, 무선 송수신기(172)가 수신한 데이터에 의해 설정될 수 있다. System 100 may upload data to a server (eg, cloud) based on privacy settings. For example, system 100 may implement privacy settings to restrict or limit the types of data (including metadata) that individually identify vehicles and their drivers/owners that are sent to the server. These settings may be set by a user through the wireless transceiver 172, initialized to factory settings, or set by data received by the wireless transceiver 172, for example.

일부 실시예에서, 시스템(100)은 "높은" 개인정보보호 수준에 의거하여 데이터를 업로드할 수 있으며, 이렇게 설정하면 시스템(100)은 특정 차량 및/또는 운전자/소유자 정보 없이 데이터(예, 경로 관련 위치정보, 캡처 이미지 등)를 전송할 수 있다. 예를 들어, "높은" 개인정보보호 수준에 의거하여 데이터를 업로드할 경우, 시스템(100)은 차대번호 또는 차량 운전자 또는 소유자의 이름을 포함하지 않을 수 있고, 그 대신 캡처 이미지 및/또는 경로와 관련된 제한된 위치 정보 등의 데이터를 전송할 수 있다. In some embodiments, system 100 may upload data in accordance with a "high" privacy level, which allows system 100 to upload data (e.g., routes) without specific vehicle and/or driver/owner information. related location information, captured images, etc.) can be transmitted. For example, when uploading data under a "high" privacy level, system 100 may not include the vehicle identification number or the name of the driver or owner of the vehicle, but instead capture images and/or route and Data such as related limited location information can be transmitted.

다른 개인정보보호 수준도 가능하다. 예를 들어, 시스템(100)은 "중간" 개인정보보호 수준에 의거하여 서버로 데이터를 전송할 수 있으며, 이 경우, "높은" 개인정보보호 수준하에서 포함되지 않은 차량의 제조사 및/또는 모델 및/또는 차량 종류(예, 승용차, SUV, 트럭 등) 등의 추가 정보를 포함할 수 있다. 일부 실시예에서, 시스템(100)은 "낮은" 개인정보보호 수준에 의거하여 데이터를 업로드할 수 있다. "낮은" 개인정보보호 수준하에서, 시스템(100)은 개별 차량, 소유자/운전자, 및/또는 차량이 이동한 전체 또는 일부 경로 등을 특정할 수 있는 정보를 포함하는 데이터를 업로드할 수 있다. 이러한 "낮은" 개인정보보호 수준 데이터는 예를 들어, 차대번호, 운전자/소유자 이름, 차량의 출발점, 차량의 목적지, 차량의 제조사 및/또는 모델, 차량의 종류 등을 포함할 수 있다.Other privacy levels are possible. For example, system 100 may transmit data to a server under a "medium" privacy level, in which case the make and/or model and/or make and/or model of a vehicle not included under a "high" privacy level. Or additional information such as vehicle type (eg, car, SUV, truck, etc.) may be included. In some embodiments, system 100 may upload data based on a “low” privacy level. Under the "low" privacy level, the system 100 may upload data including information that may specify the individual vehicle, its owner/driver, and/or all or part of the route the vehicle has traveled. Such “low” privacy level data may include, for example, vehicle identification number, driver/owner name, vehicle origin, vehicle destination, vehicle make and/or model, vehicle type, and the like.

도 2a는 기재된 실시예에 따른 예시적인 차량 영상 시스템의 측면도이다. 도 2b는 도 2a에 도시된 실시예의 평면도이다. 도 2b에 도시된 바와 같이, 본 실시예에 따른 차량(200)은 백미러 주변 및/또는 운전자 가까이 배치된 제1 이미지캡처장치(122), 범퍼 영역(예, 범퍼 영역(210)의 일 영역) 상 또는 내부에 배치된 제2 이미지캡처장치(124), 및 처리부(110)를 구비한 시스템(100)을 본체 내부에 포함한다. 도 2a와 도 2b에서, 제1 이미지캡처장치(122)와 제2 이미지캡처장치(124)의 하나 이상은 적외선 이미지캡처장치를 포함할 수 있다. 2A is a side view of an exemplary vehicle imaging system in accordance with a described embodiment. Figure 2b is a plan view of the embodiment shown in Figure 2a. As shown in FIG. 2B , the vehicle 200 according to the present embodiment includes a first image capture device 122 disposed around the rearview mirror and/or near the driver, a bumper area (eg, a portion of the bumper area 210) The system 100 having the second image capture device 124 disposed on or inside the body and the processing unit 110 is included inside the main body. 2A and 2B, one or more of the first image capture device 122 and the second image capture device 124 may include an infrared image capture device.

도 2c에 도시된 바와 같이, 이미지캡처장치(122, 124)는 모두 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있다. 도 2c에서, 도 2a와 도 2b와 마찬가지로, 제1 이미지캡처장치(122)와 제2 이미지캡처장치(124)의 하나 이상은 적외선 이미지캡처장치를 포함할 수 있다. As shown in FIG. 2C , image capture devices 122 and 124 may both be positioned near the rearview mirror of vehicle 200 and/or near the driver. In FIG. 2C, similar to FIGS. 2A and 2B, one or more of the first image capture device 122 and the second image capture device 124 may include an infrared image capture device.

또한, 도 2b와 2c에는 이미지캡처장치(122, 124)가 두 개로 예시되었지만, 다른 실시예에서는 세 개 이상의 이미지캡처장치가 포함될 수 있음은 당연할 것이다. 예를 들어, 도 2d와 2e에 도시된 실시예에서는, 제1, 제2, 제3 이미지캡처장치(122, 124, 126)가 차량(200)의 시스템(100)에 포함되어 있다. 도 2a, 도 2b, 도 2c와 유사하게, 도 2d와 도 2e의 제1, 제2, 제3 이미지캡처장치(122, 124, 126)의 하나 이상은 적외선 이미지캡처장치를 포함할 수 있다. In addition, although two image capture devices 122 and 124 are illustrated in FIGS. 2B and 2C , it will be natural that three or more image capture devices may be included in other embodiments. For example, in the embodiment shown in FIGS. 2D and 2E , first, second, and third image capture devices 122 , 124 , and 126 are included in system 100 of vehicle 200 . Similar to FIGS. 2A, 2B, and 2C, one or more of the first, second, and third image capture devices 122, 124, and 126 of FIGS. 2D and 2E may include an infrared image capture device.

도 2d에 도시된 바와 같이, 이미지캡처장치(122)는 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있고, 이미지캡처장치(124, 126)는 차량(200)의 범퍼 영역(예, 범퍼 영역(210)의 일 영역) 상 또는 내부에 배치될 수 있다. 또한, 도 2e에 도시된 바와 같이, 이미지캡처장치(122, 124, 126)는 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있다. 본 실시예는 특정 수량 및 구성의 이미지캡처장치에 제한되지 않고, 이미지캡처장치는 차량의 내부 및/또는 상의 적절한 모든 위치에 배치될 수 있다. As shown in FIG. 2D , image capture device 122 may be positioned near the rearview mirror of vehicle 200 and/or near the driver, and image capture devices 124 and 126 may be located in the bumper area of vehicle 200 (e.g., , one area of the bumper area 210) or inside it. Additionally, as shown in FIG. 2E , image capture devices 122 , 124 , and 126 may be positioned near the rearview mirror of vehicle 200 and/or near the driver. The present embodiment is not limited to a specific number and configuration of image capture devices, and image capture devices may be placed at any appropriate location in and/or on a vehicle.

기재한 실시예들은 차량에 한정되는 것이 아니라 당연히 다른 상황에도 적용될 수 있다. 또한, 기재한 실시예들은 특정 유형의 차량(200)에 한정되는 것이 아니라, 당연히 자동차, 트럭, 트레일러, 및 기타 유형의 차량 등, 모든 유형의 차량에 적용될 수 있다. The described embodiments are not limited to vehicles and can of course be applied to other situations as well. In addition, the described embodiments are not limited to a specific type of vehicle 200 and can be applied to all types of vehicles, such as cars, trucks, trailers, and other types of vehicles.

제1 이미지캡처장치(122)는 적합한 유형의 이미지캡처장치 또는 적외선 이미지캡처장치를 포함할 수 있다. 이미지캡처장치(122)는 광축을 포함할 수 있다. 일례에서, 이미지캡처장치(122)는 글로벌 셔터 방식의 Aptina M9V024 WVGA 센서를 포함할 수 있다. 다른 실시예에서, 이미지캡처장치(122)는 1280x960 픽셀의 해상도를 제공하고 롤링 셔터 방식을 포함할 수 있다. 이미지캡처장치(122)는 다양한 광학 소자를 포함할 수 있다. 일부 실시예에서, 하나 이상의 렌즈를 포함하여 이미지캡처장치가 요구하는 초점거리 및 시야 등을 제공할 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 6mm 렌즈 또는 12mm 렌즈와 결합될 수 있다.일부 실시예에서, 이미지캡처장치(122)는, 도 2d에 도시된 바와 같이, 필요한 시야(202)를 확보하도록 구성될 수 있다. 예를 들면, 이미지캡처장치(122)는, 46도 시야, 50도 시야, 52도 또는 그 이상의 시야 등과 같은, 40 내지 56도 범위의 일반 시야를 확보하도록 구성될 수 있다. 또는, 이미지캡처장치(122)는, 28도 시야 또는 36도 시야 등과 같은, 23 내지 40도 범위의 좁은 시야를 확보하도록 구성될 수 있다. The first image capture device 122 may include an image capture device of any suitable type or an infrared image capture device. The image capture device 122 may include an optical axis. In one example, image capture device 122 may include a global shutter Aptina M9V024 WVGA sensor. In another embodiment, image capture device 122 may provide a resolution of 1280x960 pixels and include a rolling shutter. The image capture device 122 may include a variety of optical elements. In some embodiments, one or more lenses may be included to provide a focal length and field of view required by the image capture device. In some embodiments, image capture device 122 may be combined with a 6 mm lens or a 12 mm lens. In some embodiments, image capture device 122 may have a required field of view 202, as shown in FIG. 2D. It can be configured to secure. For example, image capture device 122 may be configured to have a normal field of view ranging from 40 to 56 degrees, such as a 46 degree field of view, a 50 degree field of view, a 52 degree field of view, or more. Alternatively, the image capture device 122 may be configured to have a narrow field of view ranging from 23 to 40 degrees, such as a 28 degree field of view or a 36 degree field of view.

또한, 이미지캡처장치(122)는 100 내지 180도 범위의 넓은 시야를 확보하도록 구성될 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 광각 범퍼 카메라 또는 180도 시야까지 확보 가능한 카메라를 포함할 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 약 2:1(예, HxV=3800x1900 픽셀)의 종횡비와 약 100도의 수평 시야를 가진 7.2 메가 픽셀 이미지캡처장치일 수 있다. 이러한 이미지캡처장치는 3개의 이미지캡처장치 구성을 대신할 수 있다. 방사상으로 대칭인 렌즈를 사용하는 이러한 이미지캡처장치의 수직 시야는 렌즈 왜곡으로 인하여 50도 이하로 구현될 수 있다. 예를 들어, 방사상으로 비대칭인 렌즈를 사용하여 수평 시야가 100도인 경우에 수직 시야가 50도 이상이 되게 할 수 있다. In addition, the image capture device 122 may be configured to secure a wide field of view ranging from 100 to 180 degrees. In some embodiments, the image capture device 122 may include a wide-angle bumper camera or a camera capable of securing a 180-degree field of view. In some embodiments, image capture device 122 may be a 7.2 megapixel image capture device with an aspect ratio of about 2:1 (eg, HxV = 3800x1900 pixels) and a horizontal field of view of about 100 degrees. This image capture device can replace the three image capture device configuration. The vertical field of view of these image capture devices using radially symmetric lenses may be less than 50 degrees due to lens distortion. For example, a radially asymmetric lens can be used to achieve a vertical field of view of 50 degrees or more when a horizontal field of view is 100 degrees.

제1 이미지캡처장치(122)는 차량(200)과 관련된 장면에 대한 복수의 제1 이미지를 획득할 수 있다. 복수의 제1 이미지 각각은 롤링 셔터를 사용하여 캡처 된 연속 주사선으로 획득될 수 있다. 각 주사선은 복수의 픽셀을 포함할 수 있다. 제1 이미지캡처장치(122)가 적외선 이미지캡처장치를 포함하는 실시예에서, 복수의 제1 이미지 각각은 전자 스캐닝 시스템을 활용하여 캡처 될 수 있는 연속 주사선으로 획득될 수 있다. The first image capture device 122 may acquire a plurality of first images of a scene related to the vehicle 200 . Each of the plurality of first images may be obtained as a continuous scan line captured using a rolling shutter. Each scan line may include a plurality of pixels. In embodiments where the first image capture device 122 includes an infrared image capture device, each of the plurality of first images may be acquired as a continuous scan line that may be captured utilizing an electronic scanning system.

제1 이미지캡처장치(122)는 제1연속 주사선 획득 관련 주사율을 가질 수 있다. 주사율이란 이미지 센서가 특정 주사선에 포함된 각 픽셀과 관련된 이미지 데이터를 획득하는 속도를 의미할 수 있다. 제1 이미지캡처장치(122)가 적외선 이미지캡처장치를 포함하는 실시예에서, 주사율이란 적외선 이미지 센서가 특정 주사선에 포함된 각 픽셀과 관련된 열 데이터를 획득하는 속도를 의미할 수 있다.The first image capture device 122 may have a scan rate related to acquisition of the first continuous scan line. The scan rate may refer to a speed at which an image sensor acquires image data related to each pixel included in a specific scan line. In an embodiment in which the first image capture device 122 includes an infrared image capture device, the scan rate may mean a speed at which an infrared image sensor acquires thermal data related to each pixel included in a specific scan line.

이미지캡처장치(122, 124, 126)는, 예를 들어, CCD 센서 또는 CMOS 센서와 같은, 적합한 유형과 개수의 이미지 센서를 포함할 수 있다. 일 실시예에서, 롤링 셔터 방식의 CMOS 이미지 센서를 도입하여 한 열의 각 픽셀을 하나씩 읽고, 전체 이미지 프레임이 캡처 될 때까지 열별로 주사가 진행될 수 있다. 일부 실시예에서, 프레임에 대하여 각 열이 위에서 아래로 순차적으로 캡처 될 수 있다. 이미지캡처장치(122, 124, 126)의 하나 이상이 적외선 이미지캡처장치를 포함하는 실시예에서, UFPA(uncooled focal plane array)를 전자 스캐닝 시스템과 함께 활용하여 전체 히트맵(heat map)이 캡처 될 때까지 열별로(row-by-row) 주사가 진행될 수 있다. Image capture devices 122, 124, and 126 may include any suitable type and number of image sensors, such as, for example, CCD sensors or CMOS sensors. In one embodiment, a rolling shutter CMOS image sensor may be introduced to read each pixel in a row one by one, and scanning may be performed row by row until the entire image frame is captured. In some embodiments, each column may be captured sequentially from top to bottom for a frame. In embodiments where one or more of the image capture devices 122, 124, 126 includes an infrared image capture device, an uncooled focal plane array (UFPA) may be utilized in conjunction with an electronic scanning system to capture a full heat map. Scanning may proceed row-by-row until

일부 실시예에서, 여기에 기재된 이미지캡처장치(122, 124, 126)의 하나 이상은 고해상 이미저(imager)를 구성하고 5메가, 7메가, 10메가 또는 그 이상의 픽셀의 해상도를 가질 수 있다.In some embodiments, one or more of the image capture devices 122, 124, 126 described herein constitute a high resolution imager and may have a resolution of 5 Mega, 7 Mega, 10 Mega or more pixels.

롤링 셔터를 사용하면, 서로 다른 열의 픽셀이 서로 다른 시간에 노출되고 촬영될 수 있어서, 캡처 된 이미지 프레임에 왜곡(skew)과 기타 이미지 결함(artifact)이 나타날 수 있다. 반면, 이미지캡처장치(122)가 글로벌 셔터 방식 또는 동기화 셔터(synchronous shutter) 방식으로 작동하도록 구성된 경우, 모든 픽셀은 동일 시간만큼 그리고 일반적인 노출 시간 동안 노출될 수 있다. 그 결과, 글로벌 셔터 방식을 적용한 시스템에서 수집된 프레임의 이미지 데이터는 특정 시간의 전체 시야(예, 202)의 스냅샷을 나타낸다. 반면, 롤링 셔터 방식에서는, 서로 다른 시간에 한 프레임의 각 열이 노출되고 데이터가 수집된다. 따라서, 롤링 셔터 방식 이미지캡처장치의 이미지 내의 움직이는 물체는 왜곡돼 보일 수 있다. 이 현상(적외선 이미지캡처장치의 전자 스캐닝을 사용하는 경우도 유사)에 대해서는 하기에서 더 자세히 설명한다. With a rolling shutter, different rows of pixels can be exposed and photographed at different times, which can introduce skew and other image artifacts in the captured image frame. On the other hand, if image capture device 122 is configured to operate in a global or synchronous shutter mode, all pixels may be exposed for the same amount of time and for a typical exposure time. As a result, image data of a frame collected in a system using the global shutter method represents a snapshot of the entire field of view (eg, 202 ) at a specific time. On the other hand, in the rolling shutter method, each column of one frame is exposed at different times and data is collected. Therefore, a moving object in an image of a rolling shutter type image capture device may appear distorted. This phenomenon (similar to the case of using electronic scanning of an infrared image capture device) is described in more detail below.

제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 적합한 유형의 이미지캡처장치 또는 적외선 이미지캡처장치일 수 있다. 제1 이미지캡처장치(122)와 마찬가지로, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 광축을 포함할 수 있다. 일 실시예에서, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 글로벌 셔터 방식의 Aptina M9V024 WVGA 센서를 포함할 수 있다. 또는, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 롤링 셔터 방식을 포함할 수 있다. 제1 이미지캡처장치(122)와 마찬가지로, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 다양한 렌즈와 광학 소자를 포함하도록 구성될 수 있다. 일부 실시예에서, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)와 관련된 렌즈는 제1 촬영 장치(122)와 관련된 시야(예, 122)와 동일하거나 이보다 좁은 시야(204, 206)를 제공할 수 있다. 예를 들어, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)의 시야는 각각 40도, 30도, 26도, 20도, 또는 그 이하일 수 있다.The second image capture device 124 and the third image capture device 126 may each be a suitable type of image capture device or infrared image capture device. Like the first image capture device 122, the second image capture device 124 and the third image capture device 126 may each include an optical axis. In one embodiment, the second image capture device 124 and the third image capture device 126 may each include a global shutter type Aptina M9V024 WVGA sensor. Alternatively, the second image capture device 124 and the third image capture device 126 may each include a rolling shutter method. Like the first image capture device 122, the second image capture device 124 and the third image capture device 126 may be configured to include various lenses and optical elements, respectively. In some embodiments, the lenses associated with the second image capture device 124 and the third image capture device 126 have a field of view 204 that is equal to or narrower than the field of view (e.g., 122) associated with the first image capture device 122. 206) can be provided. For example, the fields of view of the second image capture device 124 and the third image capture device 126 may be 40 degrees, 30 degrees, 26 degrees, 20 degrees, or less, respectively.

제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 차량(200)과 관련된 장면에 대한 복수의 제2 및 제3 이미지를 획득할 수 있다. 복수의 제2 및 제3 이미지 각각은 롤링 셔터를 사용하여 캡처 된 제2 및 제3연속 주사선으로 획득될 수 있다. 각 주사선 또는 열은 복수의 픽셀을 포함할 수 있다. 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 제2 및 제3연속 주사선에 포함된 각 주사선의 획득과 관련된 제2 및 제3 주사율을 가질 수 있다. 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)의 하나 이상이 적외선 이미지캡처장치를 포함하는 실시예에서, 복수의 제2 및 제3 이미지 각각은 전자 스캐닝 시스템을 사용하여 캡처 된 제2 및 제3 연속 열(heat) 주사선으로 획득될 수 있다. 이러한 실시예에서, 각 주사선 또는 열(row)은 복수의 픽셀을 포함할 수 있고, 제2 이미지캡처장치(124) 및/또는 제3 이미지캡처장치(126)는 제2 및 제3연속 주사선에 포함된 각 열 주사선의 획득과 관련된 제2 및 제3 주사율을 가질 수 있다.The second image capture device 124 and the third image capture device 126 may acquire a plurality of second and third images of a scene related to the vehicle 200 . Each of the plurality of second and third images may be obtained with the second and third consecutive scan lines captured using the rolling shutter. Each scan line or column may include a plurality of pixels. The second image capture device 124 and the third image capture device 126 may have second and third scan rates associated with acquisition of each scan line included in the second and third continuous scan lines. In embodiments where at least one of second image capture device 124 and third image capture device 126 includes an infrared image capture device, each of the plurality of second and third images is captured using an electronic scanning system. It can be obtained with second and third consecutive heat scan lines. In such an embodiment, each scan line or row may include a plurality of pixels, and the second image capture device 124 and/or the third image capture device 126 may be used for the second and third consecutive scan lines. It may have second and third scan rates associated with the acquisition of each included column scan line.

이미지캡처장치(122, 124, 126)는 각각 차량(200)의 적합한 위치와 방향으로 배치될 수 있다. 이미지캡처장치(122, 124, 126)의 상대적 배치는 이미지캡처장치로부터 획득된 정보의 융합이 용이하도록 선택될 수 있다. 예를 들어, 일부 실시예에서, 제2 이미지캡처장치(124)의 시야(예, 204)는 제1 이미지캡처장치(122)의 시야(예, 202) 및 제3 이미지캡처장치(126)의 시야(예, 206)와 부분적으로 또는 완전히 겹칠 수도 있다.Image capture devices 122 , 124 , and 126 may be positioned in suitable locations and orientations of vehicle 200 , respectively. The relative placement of image capture devices 122, 124 and 126 may be selected to facilitate fusion of information obtained from the image capture devices. For example, in some embodiments, the field of view (e.g., 204) of second image capture device 124 is the same as that of first image capture device 122 (e.g., 202) and third image capture device 126. It may partially or completely overlap the field of view (eg, 206 ).

이미지캡처장치(122, 124, 126)는 차량(200)의 적합한 상대 높이에 배치될 수 있다. 일례에서, 이미지캡처장치(122, 124, 126) 사이의 높이에 차이를 두어 입체 분석을 가능하게 하는 시차 정보를 제공할 수 있다. 예를 들면, 도 2a에 도시된 바와 같이, 이미지캡처장치(122)와 이미지캡처장치(124)는 서로 높이가 다르다. 이미지캡처장치(122, 124, 126) 사이에 횡 방향 변위도 있어 처리부(110) 등에 의한 입체 분석을 위한 추가 시차 정보도 제공할 수 있다. 도 2c와 도 2d에 도시된 바와 같이, 횡 방향 변위의 차이는 dx로 표시될 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126) 사이에 전방 또는 후방 변위(예, 범위 변위)가 있을 수 있다. 예를 들어, 이미지캡처장치(122)는 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 0.5 내지 2미터 후방에 배치될 수 있다. 이런 유형의 변위로 인해, 이미지캡처장치 중 하나가 나머지 이미지캡처장치의 사각지대를 보완할 수 있다.Image capture devices 122 , 124 , and 126 may be positioned at suitable relative heights of vehicle 200 . In one example, a difference in height between image capture devices 122, 124, and 126 may provide parallax information enabling stereoscopic analysis. For example, as shown in FIG. 2A, image capture device 122 and image capture device 124 have different heights. There is also transverse displacement between the image capture devices 122, 124, and 126 to provide additional parallax information for stereoscopic analysis, such as by processing unit 110. As shown in Figs. 2c and 2d, the difference in transverse displacement can be denoted as dx. In some embodiments, there may be forward or backward displacement (eg, range displacement) between image capture devices 122, 124, and 126. For example, image capture device 122 may be positioned 0.5 to 2 meters behind image capture device 124 and/or image capture device 126 . This type of displacement allows one of the image capture devices to compensate for the blind spot of the other image capture device.

유사하게, 이미지캡처장치(122, 124, 126) 사이에 높이 차이가 없을 수 있으며, 이는 이미지캡처장치의 하나 이상에 의해 생성된 히트맵을 이미지캡처장치의 하나 이상에 의해 생성된 시각 이미지와 정렬하는데 도움이 될 수 있다. Similarly, there may be no height difference between image capture devices 122, 124, and 126, which may align the heat map produced by one or more of the image capture devices with the visual image produced by one or more of the image capture devices. can help you do that.

이미지캡처장치(122)는 적합한 해상도(예, 이미지 센서 관련 픽셀 수)를 가질 수 있고, 이미지캡처장치(122)와 연관된 이미지 센서의 해상도는 이미지캡처장치(124, 126)와 연관된 이미지 센서의 해상도와 비교하여 높거나, 낮거나, 같을 수 있다. 일부 실시예에서, 이미지캡처장치(122) 및/또는 이미지캡처장치(124, 126)와 연관된 이미지 센서의 해상도는 640 x 480, 1024 x 768, 1280 x 960, 또는 기타 적합한 해상도일 수 있다. Image capture device 122 may have any suitable resolution (e.g., number of pixels associated with an image sensor), the resolution of the image sensor associated with image capture device 122 being the resolution of the image sensor associated with image capture devices 124, 126. It can be higher, lower, or equal to . In some embodiments, the resolution of image capture device 122 and/or image sensors associated with image capture devices 124 and 126 may be 640 x 480, 1024 x 768, 1280 x 960, or other suitable resolutions.

프레임 속도(frame rate, 즉, 이미지캡처장치가 다음 이미지 프레임의 픽셀 데이터 또는 열 데이터를 획득하기 위해 넘어가기 전에 한 이미지 프레임의 픽셀 데이터 또는 열 데이터 집합을 획득하는 속도)는 제어 가능하다. 이미지캡처장치(122)의 프레임 속도는 이미지캡처장치(124, 126)의 프레임 속도와 비교하여 높거나, 낮거나, 같을 수 있다. 이미지캡처장치(122, 124, 126)의 프레임 속도는 프레임 속도의 타이밍에 영향을 주는 다양한 요소에 의거할 수 있다. 예를 들면, 이미지캡처장치(122, 124, 126)의 하나 이상은 탑재한 이미지 센서의 하나 이상의 픽셀 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 픽셀 지연 기간(selectable pixel delay period)을 포함할 수 있다. 일반적으로, 각 픽셀에 상응하는 이미지 데이터는 해당 장치의 클락 속도(clock rate)에 의거하여(예, 클락 주파수(clock cycle) 당 1 픽셀) 획득된다. 또한, 롤링 셔터 방식을 포함하는 실시예에서, 이미지캡처장치(122, 124, 126)의 하나 이상은 탑재한 이미지 센서의 한 열의 픽셀 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 수평 귀선 기간(selectable horizontal blanking period)을 포함할 수 있다. 나아가, 이미지캡처장치(122, 124, 126)의 하나 이상은 이미지 프레임 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 수직 귀선 기간(selectable vertical blanking period)을 포함할 수 있다. 마찬가지로, 전자 스캐닝을 포함하는 실시예에서, 이미지캡처장치(122, 124, 126)의 하나 이상은 동적 가변 주사율을 포함할 수 있다. The frame rate (i.e., the rate at which the image capture device acquires a set of pixel data or column data from one image frame before moving on to acquire pixel data or column data from the next image frame) is controllable. The frame rate of image capture device 122 may be higher, lower, or equal to the frame rate of image capture devices 124 and 126 . The frame rate of image capture devices 122, 124, and 126 may depend on a variety of factors that affect the timing of the frame rate. For example, one or more of the image capture devices 122, 124, 126 may include a selectable pixel delay period imposed before or after acquiring image data related to one or more pixels of an onboard image sensor. can In general, image data corresponding to each pixel is obtained based on the clock rate of the device (eg, 1 pixel per clock cycle). Additionally, in an embodiment that includes a rolling shutter method, one or more of the image capture devices 122, 124, 126 may acquire an optional horizontal retrace period ( selectable horizontal blanking period) may be included. Further, one or more of the image capture devices 122, 124, 126 may include a selectable vertical blanking period imposed before or after acquiring the image data associated with the image frame. Similarly, in embodiments involving electronic scanning, one or more of image capture devices 122, 124, 126 may include a dynamically variable scan rate.

이러한 타이밍 제어로 인해, 이미지캡처장치(122, 124, 126)의 선주사 속도(line scan rates)가 서로 다른 경우에도 이미지캡처장치(122, 124, 126)의 프레임 속도의 동기화가 가능하다. 또한, 하기에 더 자세히 설명하겠지만, 여러 요소(예, 이미지 센서 해상도, 최고 선주사 속도 등) 중에서 이러한 타이밍 제어로 인해, 이미지캡처장치(122)의 시야가 이미지캡처장치(124, 126)의 시야와 다른 경우에도, 이미지캡처장치(122)의 시야와 이미지캡처장치(124, 126)의 하나 이상의 시야가 겹치는 영역으로부터 촬영된 영상의 동기화가 가능할 수 있다. Due to such timing control, frame rates of the image capture devices 122, 124, and 126 may be synchronized even when line scan rates of the image capture devices 122, 124, and 126 are different from each other. Also, as will be discussed in more detail below, among other factors (eg, image sensor resolution, maximum pre-scan speed, etc.), this timing control causes the field of view of image capture device 122 to be different from the field of view of image capture devices 124, 126. In other cases, synchronization of images captured from an area where the field of view of image capture device 122 and one or more fields of view of image capture devices 124 and 126 overlap may be possible.

이미지캡처장치(122, 124, 126)의 프레임 속도 타이밍은 상응하는 이미지 센서의 해상도에 의거할 수 있다. 예를 들어, 두 장치의 선주사 속도가 유사하다고 가정할 때, 한 장치의 이미지 센서의 해상도가 640 X 480이고 다른 장치의 이미지 센서의 해상도가 1280 X 960일 경우, 높은 해상도를 가진 이미지 센서로부터 이미지 데이터의 프레임을 획득하는데 더 많은 시간이 걸릴 것이다. Frame rate timing of image capture devices 122, 124, 126 may be based on the resolution of the corresponding image sensor. For example, assuming that the pre-scan speeds of the two devices are similar, if the resolution of the image sensor of one device is 640 X 480 and the resolution of the image sensor of the other device is 1280 X 960, an image from an image sensor with a higher resolution Acquiring a frame of data will take more time.

이미지캡처장치(122, 124, 126)의 이미지 데이터 획득 타이밍에 영향을 주는 또 다른 요소는 최고 선주사 속도(maximum line scan rate)이다. 예를 들면, 이미지캡처장치(122, 124, 126)에 포함된 이미지 센서로부터 한 열의 이미지 데이터를 획득하려면 최소 시간 이상이 걸릴 수 있다. 픽셀 지연 기간이 추가되지 않았다고 가정할 때, 한 열의 이미지 데이터를 획득하기 위한 최저 시간은 특정 장치의 최고 선주사 속도와 관계가 있을 것이다. 최고 선주사 속도가 높은 장치는 최고 선주사 속도가 낮은 장치보다 높은 프레임 속도를 제공할 가능성이 있다. 일부 실시예에서, 이미지캡처장치(124, 126)의 하나 이상의 최고 선주사 속도는 이미지캡처장치(122)의 최고 선주사 속도보다 높을 수 있다. 일부 실시예에서, 이미지캡처장치(124 및/또는 126)의 최고 선주사 속도는 이미지캡처장치(122)의 최고 선주사 속도보다 1.25배, 1.5배, 1.75배, 2배, 또는 그 이상 높을 수 있다. Another factor affecting the image data acquisition timing of the image capture devices 122, 124, and 126 is the maximum line scan rate. For example, acquiring one row of image data from image sensors included in the image capture devices 122, 124, and 126 may take more than a minimum amount of time. Assuming no pixel delay period is added, the minimum time to acquire a column of image data will be related to the maximum pre-scan speed of a particular device. A device with a higher peak preload rate is likely to deliver higher frame rates than a device with a lower peak preload rate. In some embodiments, the maximum pre-scan speed of one or more of image capture devices 124 and 126 may be higher than the maximum pre-scan speed of image capture device 122 . In some embodiments, the maximum pre-scan speed of image capture devices 124 and/or 126 may be 1.25 times, 1.5 times, 1.75 times, 2 times, or more higher than the maximum pre-scan speed of image capture device 122 .

다른 실시예에서, 이미지캡처장치(122, 124, 126)의 최고 선주사 속도는 모두 동일하지만, 이미지캡처장치(122)는 최고 주사 속도 이하의 주사 속도로 동작될 수 있다. In another embodiment, the maximum pre-scan speeds of image capture devices 122, 124, and 126 are all the same, but image capture device 122 may be operated at scan speeds less than or equal to the maximum scan speed.

시스템은 이미지캡처장치(124, 126)의 하나 이상이 이미지캡처장치(122)의 선주사 속도와 동일한 선주사 속도로 동작하도록 구성될 수 있다. 다른 예에서, 시스템은 이미지캡처장치(124 및/또는 126)의 선주사 속도가 이미지캡처장치(122)의 선주사 속도보다 1.25배, 1.5배, 1.75배, 2배, 또는 그 이상 높도록 구성될 수 있다. The system may be configured such that one or more of image capture devices 124 and 126 operate at the same pre-scan rate as the pre-scan rate of image capture device 122 . In another example, the system may be configured such that the pre-scan speed of image capture devices 124 and/or 126 is 1.25 times, 1.5 times, 1.75 times, 2 times, or more higher than the pre-scan speed of image capture device 122. there is.

일부 실시예에서, 이미지캡처장치(122, 124, 126)는 비대칭일 수 있다. 즉, 이미지캡처장치(122, 124, 126)는 시야와 초점거리가 서로 다른 카메라를 포함할 수 있다. 이미지캡처장치(122, 124, 126)의 시야는 차량(200)의 주변 등과 관련된 필요 영역을 포함할 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126)의 하나 이상은 차량(200)의 전방, 후방, 측방, 또는 그 조합의 환경으로부터 이미지 데이터를 획득하도록 구성될 수 있다. In some embodiments, image capture devices 122, 124, and 126 may be asymmetrical. That is, the image capture devices 122, 124, and 126 may include cameras having different fields of view and different focal lengths. The field of view of the image capture devices 122 , 124 , and 126 may include a necessary area related to the surroundings of the vehicle 200 . In some embodiments, one or more of image capture devices 122 , 124 , 126 may be configured to acquire image data from an environment in front of, behind, to the side of vehicle 200 , or a combination thereof.

또한, 각 장치가 차량(200)에 대한 특정 거리 범위에 있는 물체의 이미지를 획득하도록 각 이미지캡처장치(122, 124, 126)의 초점거리가 선택될(예, 적합한 렌즈 적용) 수 있다. 예를 들어, 일부 실시예에서, 이미지캡처장치(122, 124, 126)는 차량으로부터 몇 미터 내에 있는 물체의 클로즈업 이미지를 획득할 수 있다. 이미지캡처장치(122, 124, 126)는 차량으로부터 멀리 떨어진 범위(예, 25m, 50m, 100m, 150m, 또는 그 이상)에 있는 물체의 이미지를 획득하도록 구성될 수도 있다. 또한, 한 이미지캡처장치(예, 122)는 차량과 상대적으로 가까운(예, 10m 또는 20m 이내) 물체의 이미지를 획득하고 나머지 이미지캡처장치(예, 124, 126)는 이보다 멀리 있는(예, 20m, 50m, 100m, 150m 이상) 물체의 이미지를 획득하도록 이미지캡처장치(122, 124, 126)의 초점거리가 선택될 수 있다. Additionally, the focal length of each image capture device 122 , 124 , 126 may be selected (eg, with a suitable lens applied) such that each device acquires an image of an object at a specific distance range relative to vehicle 200 . For example, in some embodiments, image capture devices 122, 124, and 126 may acquire close-up images of objects within a few meters of the vehicle. Image capture devices 122, 124, and 126 may be configured to acquire images of objects at ranges away from the vehicle (eg, 25 m, 50 m, 100 m, 150 m, or more). In addition, one image capture device (eg, 122) acquires an image of an object relatively close to the vehicle (eg, within 10 m or 20 m), and the other image capture devices (eg, 124, 126) are further away (eg, 20 m or less) from the vehicle. , 50 m, 100 m, 150 m or more) The focal length of the image capture device 122, 124, 126 can be selected to acquire an image of the object.

일부 실시예에 의하면, 하나 이상의 이미지캡처장치(122, 124, 126)의 시야는 광각일 수 있다. 예를 들면, 차량(200) 주변 영역의 이미지를 획득하기 위해 사용되는 이미지캡처장치(122, 124, 126)의 시야는 140도일 경우가 유리할 수 있다. 예를 들어, 이미지캡처장치(122)는 차량(200)의 우측 또는 좌측 영역의 이미지를 촬영하기 위해 사용될 수 있고, 이런 환경에서 이미지캡처장치(122)는 넓은 시야(예, 140도 이상)를 가지는 것이 바람직할 수 있다. According to some embodiments, the field of view of one or more image capture devices 122, 124, 126 may be wide. For example, it may be advantageous if the field of view of the image capture devices 122, 124, and 126 used to acquire images of the area around the vehicle 200 is 140 degrees. For example, image capture device 122 may be used to capture an image of an area to the right or left of vehicle 200, in which case image capture device 122 may capture a wide field of view (eg, 140 degrees or greater). It may be desirable to have

이미지캡처장치(122, 124, 126)의 시야는 각 초점거리에 의거할 수 있다. 예를 들어, 초점거리가 증가하면, 이에 상응하는 시야는 감소한다. The fields of view of image capture devices 122, 124, and 126 may be based on their respective focal lengths. For example, as the focal length increases, the corresponding field of view decreases.

이미지캡처장치(122, 124, 126)는 적합한 시야를 가지도록 구성될 수 있다. 일례에서, 이미지캡처장치(122)의 수평 시야는 46도이고, 이미지캡처장치(124)의 수평 시야는 23도이며, 이미지캡처장치(126)의 수평 시야는 23도 내지 46도일 수 있다. 다른 예에서, 이미지캡처장치(122)의 수평 시야는 52도이고, 이미지캡처장치(124)의 수평 시야는 26도이며, 이미지캡처장치(126)의 수평 시야는 26도 내지 52도일 수 있다. 일부 실시예에서, 이미지캡처장치(122)의 시야 대 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 시야 비율은 1.5 내지 2.0일 수 있다. 다른 실시예에서, 이 비율은 1.25 내지 2.25일 수 있다. Image capture devices 122, 124, and 126 may be configured to have a suitable field of view. In one example, the horizontal field of view of image capture device 122 is 46 degrees, the horizontal field of view of image capture device 124 is 23 degrees, and the horizontal field of view of image capture device 126 may be between 23 and 46 degrees. In another example, the horizontal field of view of image capture device 122 is 52 degrees, the horizontal field of view of image capture device 124 is 26 degrees, and the horizontal field of view of image capture device 126 may be between 26 and 52 degrees. In some embodiments, the ratio of the field of view of image capture device 122 to the field of view of image capture device 124 and/or image capture device 126 may be between 1.5 and 2.0. In other embodiments, this ratio may be between 1.25 and 2.25.

시스템(100)은 이미지캡처장치(126)의 일부 또는 전체 시야가 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 시야와 겹치도록 구성될 수 있다. 일부 실시예에서, 시스템(100)은 이미지캡처장치(124, 126)의 시야가 이미지캡처장치(126)의 시야의 중심에 들어가고(예를 들어, 시야가 좁은 경우) 중심이 서로 맞도록 구성될 수 있다. 다른 실시예에서, 이미지캡처장치(122, 124, 126)는 인접하는 시야를 촬영하거나 인접하는 시야와 부분적으로 겹칠 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126)의 시야는 시야가 좁은 이미지캡처장치(124 및/또는 126)의 중심이 시야가 넓은 이미지캡처장치(122)의 시야의 하부에 배치되도록 정렬될 수 있다.System 100 may be configured such that part or all of the field of view of image capture device 126 overlaps the field of view of image capture device 124 and/or image capture device 126 . In some embodiments, system 100 may be configured such that the fields of view of image capture devices 124 and 126 fall in the center of the field of view of image capture device 126 (eg, if the field of view is narrow) and are centered together. can In other embodiments, image capture devices 122, 124, and 126 may capture adjacent fields of view or may partially overlap adjacent fields of view. In some embodiments, the field of view of image capture devices 122, 124, 126 is such that the center of image capture devices 124 and/or 126 with a narrow field of view is positioned below the field of view of image capture device 122 with a wide field of view. can be sorted

도 2f는 기재된 실시예에 따른 예시적인 자동차 제어 시스템의 개략도이다. 도 2f에 도시된 바와 같이, 차량(200)은 구동 시스템(220), 제동 시스템(230), 조향 시스템(240)을 포함할 수 있다. 시스템(100)은 하나 이상의 데이터 링크(예, 데이터 송신용 유선 및/또는 무선 링크)를 통하여 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로 입력(예, 제어신호)을 제공할 수 있다. 예를 들어, 이미지캡처장치(122, 124, 126)가 획득한 이미지의 분석에 근거하여, 시스템(100)은 차량(200)을 주행(예, 가속, 회전, 차선 변경 등)하기 위한 제어 신호를 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로 제공할 수 있다. 또한, 시스템(100)은 차량(200)의 작동 상황(예, 속도, 제동 및/또는 회전 여부 등)을 나타내는 입력을 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로부터 수신할 수 있다. 이에 대하여는 도 4 내지 7을 참조하여 하기에 자세히 설명한다. 2F is a schematic diagram of an exemplary vehicle control system in accordance with the disclosed embodiments. As shown in FIG. 2F , vehicle 200 may include a driving system 220 , a braking system 230 , and a steering system 240 . The system 100 inputs (eg, controls) one or more of the driving system 220, the braking system 230, and the steering system 240 through one or more data links (eg, wired and/or wireless links for data transmission). signal) can be provided. For example, based on analysis of images acquired by image capture devices 122, 124, and 126, system 100 may provide control signals to drive vehicle 200 (eg, accelerate, turn, change lanes, etc.) may be provided as one or more of the driving system 220, the braking system 230, and the steering system 240. In addition, the system 100 transmits an input indicating an operating condition (eg, speed, braking, and/or rotation) of the vehicle 200 to one of the driving system 220, the braking system 230, and the steering system 240. can be received from above. This will be described in detail below with reference to FIGS. 4 to 7 .

도 3a에 도시된 바와 같이, 차량(200)은 또한 차량(200)의 운전자 또는 탑승자와 상호 작용하기 위한 사용자 인터페이스(170)를 포함한다. 예를 들어, 차량에 적용된 사용자 인터페이스(170)는 터치스크린(320), 다이얼(330), 버튼(340), 마이크(350)를 포함할 수 있다. 차량(200)의 운전자 혹은 탑승자는 또한 손잡이(예, 차량의 조향축 상 또는 주위에 배치된 방향등 손잡이 등), 버튼(예, 차량의 조향 핸들에 배치된 버튼 등) 등을 사용하여 시스템(100)과 상호 작용할 수도 있다. 일부 실시예에서, 마이크(350)는 백미러(310)에 인접하여 배치될 수 있다. 이와 유사하게, 일부 실시예에서, 이미지캡처장치(122)는 백미러(310) 부근에 배치될 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 또한 하나 이상의 스피커(360: 예, 차량 오디오 시스템의 스피커)도 포함할 수 있다. 예를 들어, 시스템(100)은 스피커(360)를 통하여 다양한 안내(예, 경보)를 제공할 수 있다. As shown in FIG. 3A , vehicle 200 also includes a user interface 170 for interacting with a driver or occupant of vehicle 200 . For example, the user interface 170 applied to a vehicle may include a touch screen 320, a dial 330, a button 340, and a microphone 350. A driver or occupant of the vehicle 200 may also use a knob (eg, a turn lamp knob disposed on or around a steering shaft of the vehicle), a button (eg, a button disposed on a steering wheel of the vehicle, etc.) 100). In some embodiments, microphone 350 may be positioned adjacent rearview mirror 310 . Similarly, in some embodiments, image capture device 122 may be placed near rearview mirror 310 . In some embodiments, user interface 170 may also include one or more speakers 360 (eg, the speakers of a vehicle audio system). For example, the system 100 may provide various information (eg, alerts) through the speaker 360 .

도 3b 내지 3d는 기재된 실시예에 따른 백미러(예, 310) 뒤의 차량 전면 유리에 위치되도록 구성된 예시적인 카메라 마운트(370)를 도시한 것이다. 도 3b에 도시된 바와 같이, 카메라 마운트(370)는 이미지캡처장치(122, 124, 126)를 포함할 수 있다. 이미지캡처장치(124, 126)는, 차량 전면 유리에 맞닿아 있고 필름 및/또는 반사 방지 물질의 구조를 포함하는, 눈부심 가림막(380) 후면에 배치될 수 있다. 예를 들어, 눈부심 가림막(380)은 차량 전면 유리에 상응하는 기울기를 가지고 차량 전면 유리에 대해 정렬되도록 배치될 수 있다. 일부 실시예에서, 각 이미지캡처장치(122, 124, 126)는 도 3d에 도시된 바와 같이 눈부심 가림막(380)의 후면에 배치될 수 있다. 이미지캡처장치(122, 124, 126)의 하나 이상이 적외선 이미지캡처장치를 포함하는 실시예에서, 이러한 이미지캡처장치는 적외선의 진입이 방해받지 않도록 눈부심 가림막(380)의 전면에 배치될 수(또는 눈부심 가림막(380)이 적외선 이미지캡처장치 전면으로 연장되지 않을 수) 있다. 여기에 기재된 실시예들은 어느 특정한 구성의 이미지캡처장치(122, 124, 126), 카메라 마운트(370), 눈부심 가림막(380)으로 한정되지 않는다. 도 3c는 도 3b에 도시된 카메라 마운트(370)을 정면에서 바라본 예시이다. 3B-3D illustrate an exemplary camera mount 370 configured to be positioned on a vehicle windshield behind a rearview mirror (eg, 310) in accordance with the disclosed embodiments. As shown in FIG. 3B , camera mount 370 may include image capture devices 122 , 124 , and 126 . Image capture devices 124 and 126 may be disposed behind a glare shield 380 that faces the vehicle windshield and includes a structure of film and/or anti-reflective material. For example, the glare shield 380 may be arranged to be aligned with the vehicle windshield with an inclination corresponding to the vehicle windshield. In some embodiments, each image capture device 122, 124, 126 may be placed behind the glare shield 380, as shown in FIG. 3D. In embodiments where one or more of the image capture devices 122, 124, 126 includes an infrared image capture device, such image capture device may be placed in front of the glare shield 380 so that the entry of the infrared light is unobstructed (or The glare shield 380 may not extend to the front of the infrared image capture device). The embodiments described herein are not limited to any particular configuration of image capture devices 122 , 124 , 126 , camera mount 370 , or glare shield 380 . 3C is an example of the camera mount 370 shown in FIG. 3B viewed from the front.

상기 실시예들은 다양한 변형 및/또는 수정이 가능함을 본 발명의 당업자는 이해할 것이다. 예를 들어, 시스템(100)의 동작을 위하여 모든 구성요소가 반드시 필요한 것은 아니다. 또한, 기재된 실시예들의 기능을 제공하면서, 어느 구성요소라도 시스템(100)의 적합한 부분에 배치할 수 있으며, 구성요소들은 다양한 구성으로 재배치할 수 있다. 따라서, 상기 구성들은 예시에 불과하고, 시스템(100)은 상기 구성들과 무관하게 광범위한 기능을 제공하여 차량(200)의 주변환경을 분석하고 이 분석에 대응하여 차량(200)을 주행제어할 수 있다. Those skilled in the art will understand that the above embodiments are subject to various variations and/or modifications. For example, not all components are necessarily required for operation of system 100 . Further, while providing the functionality of the described embodiments, any component may be placed in a suitable portion of system 100, and components may be rearranged in various configurations. Therefore, the above configurations are only examples, and the system 100 can analyze the surrounding environment of the vehicle 200 and control the driving of the vehicle 200 in response to the analysis by providing a wide range of functions regardless of the above configurations. there is.

하기의 설명과 기재된 다양한 실시예에 따라, 시스템(100)은 자율 주행 및/또는 운전자 보조 기술과 관련된 다양한 특징을 제공할 수 있다. 예를 들면, 시스템(100)은 이미지 데이터, 적외선 이미지 데이터, 위치 데이터(예, GPS 위치 정보), 지도 데이터, 속도 데이터, 및/또는 차량(200)에 포함된 센서들로부터의 데이터를 분석할 수 있다. 시스템(100)은 분석할 데이터를, 예를 들어, 이미지획득부(120), 위치센서(130), 및 기타 센서들로부터 수집할 수 있다. 또한, 시스템(100)은 수집한 데이터를 분석하여 차량(200)이 특정 동작을 수행해야 할지 여부를 판단한 후, 판단한 동작을 인간의 개입 없이 자동으로 수행할지 여부를 판단할 수 있다. 예를 들어, 차량(200)이 인간의 개입 없이 주행하는 경우, 시스템(100)은 차량(200)의 제동, 가속, 및/또는 조향을 자동으로 제어(예, 구동 시스템(220), 제동 시스템(230), 조향 시스템(240)의 하나 이상에 제어신호를 전송)할 수 있다. 또한, 시스템(100)은 수집된 데이터를 분석하고 이 분석 결과에 따라 차량 탑승자들에게 주의 및/또는 경보를 제공할 수 있다. 시스템(100)이 제공하는 다양한 실시예들에 관해서는 하기에 추가로 설명한다.In accordance with the descriptions and various embodiments described below, system 100 may provide various features related to autonomous driving and/or driver assistance technology. For example, system 100 may analyze image data, infrared image data, location data (eg, GPS location information), map data, speed data, and/or data from sensors included in vehicle 200. can The system 100 may collect data to be analyzed from, for example, the image acquisition unit 120, the position sensor 130, and other sensors. In addition, the system 100 may analyze the collected data to determine whether the vehicle 200 should perform a specific action, and then determine whether to automatically perform the determined action without human intervention. For example, when vehicle 200 is driven without human intervention, system 100 automatically controls braking, acceleration, and/or steering of vehicle 200 (e.g., drive system 220, braking system (230), a control signal may be transmitted to one or more of the steering system (240). Additionally, system 100 may analyze the collected data and provide warnings and/or alerts to vehicle occupants according to the results of the analysis. Various embodiments provided by the system 100 are further described below.

[전방 다중 영상 시스템][Front multi-view system]

상기에 설명한 바와 같이, 시스템(100)은 다중 카메라 시스템을 사용하는 운전 보조 기능을 제공할 수 있다. 다중 카메라 시스템은 차량의 전방을 향하는 하나 이상의 카메라(및/또는 적외선 카메라)를 사용할 수 있다. 다른 실시예에서, 다중 카메라 시스템은 차량의 측방 또는 후방을 향하는 하나 이상의 카메라(및/또는 적외선 카메라)를 포함할 수 있다. 예를 들어, 일 실시예에서, 시스템(100)은 이중 카메라 영상 시스템을 사용하여, 제1 카메라와 제2 카메라(예, 이미지캡처장치(122, 124))가 차량(예, 200)의 전방 및/또는 측방에 배치될 수 있다. 기재된 실시예에 따른 다른 카메라 구성도 있으며, 여기에 기재된 구성은 예시일 뿐이다. 예를 들면, 시스템(100)은 다양한 개수의 카메라(예, 1개, 2개, 3개, 4개, 5개, 6개, 7개, 8개 등) 및 다양한 유형의 카메라 조합(예, 2개의 시각 카메라와 1개의 적외선 카메라, 1개의 시각 카메라와 2개의 적외선 카메라, 2개의 시각 카메라와 2개의 적외선 카메라 등)의 구성을 포함할 수 있다. 나아가, 시스템(100)은 카메라의 "클러스터"를 포함할 수 있다. 예를 들어, 카메라 클러스터(1개, 4개, 8개 등과 같은 다양한 개수의 카메라와 시각, 적외선 등의 적절한 유형의 카메라를 포함함)는 차량의 전방을 향하거나 다른 방향(예, 후방, 측방, 특정 각도 등)을 향하고 있을 수 있다. 이에 따라, 시스템(100)은 복수의 카메라 클러스터를 포함하고, 각 클러스터는 특정 방향을 향하여 차량 주변의 특정 영역으로부터 이미지를 캡처할 수 있다. As described above, system 100 may provide driving assistance features using a multi-camera system. A multi-camera system may use one or more cameras (and/or infrared cameras) facing the front of the vehicle. In other embodiments, a multi-camera system may include one or more cameras (and/or infrared cameras) that face to the side or rear of the vehicle. For example, in one embodiment, system 100 uses a dual camera imaging system, where a first camera and a second camera (eg, image capture devices 122, 124) are positioned in front of a vehicle (eg, 200). and/or lateral. There are other camera configurations according to the described embodiments, and the configurations described herein are exemplary only. For example, system 100 may have different numbers of cameras (eg, 1, 2, 3, 4, 5, 6, 7, 8, etc.) and combinations of different types of cameras (eg, two visual cameras and one infrared camera, one visual camera and two infrared cameras, two visual cameras and two infrared cameras, etc.). Furthermore, system 100 may include “clusters” of cameras. For example, a camera cluster (including a variable number of cameras, such as one, four, eight, etc., and cameras of the appropriate type, such as visual, infrared, etc.) may be directed towards the front of the vehicle or in another direction (e.g., rearward, sideward). , at a certain angle, etc.). Accordingly, system 100 includes a plurality of camera clusters, each cluster capable of capturing images from a specific area around the vehicle directed in a specific direction.

제1 카메라의 시야는 제2 카메라의 시야보다 넓거나, 좁거나, 부분적으로 겹칠 수 있다. 뿐만 아니라, 제1 카메라는 제1 이미지 프로세서와 연결되어 제1 카메라가 제공한 이미지의 단안 이미지(monocular image) 분석을 수행하고, 제2 카메라는 제2 이미지 프로세서와 연결되어 제2 카메라가 제공한 이미지의 단안 이미지(monocular image)분석을 수행할 수 있다. 제1 카메라와 제2 카메라의 하나 이상이 적외선 카메라를 포함하는 실시예에서, 제1 이미지 프로세서 및/또는 제2 이미지 프로세서는 적외선 카메라에 의해 제공된 히트맵의 히트맵 분석을 수행할 수 있다. The field of view of the first camera may be wider, narrower, or partially overlap with the field of view of the second camera. In addition, the first camera is connected to the first image processor to perform monocular image analysis of the image provided by the first camera, and the second camera is connected to the second image processor to perform monocular image analysis of the image provided by the second camera. It can perform monocular image analysis of images. In embodiments where at least one of the first and second cameras includes an infrared camera, the first image processor and/or the second image processor may perform heat map analysis of the heat map provided by the infrared cameras.

제1 및 제2 이미지 프로세서의 출력(예, 처리된 정보)은 합쳐질 수 있다. Outputs (eg, processed information) of the first and second image processors may be combined.

일부 실시예에서, 제2 이미지 프로세서는 제1 및 제2 카메라 모두로부터 이미지를 수신하여 입체 분석을 수행하거나 정렬된 시각 및 적외선 이미지에 대한 분석을 수행할 수 있다. 다른 실시예에서, 시스템(100)은 각 카메라의 시야가 서로 다른 3중 카메라 이미징 시스템을 사용할 수 있다. 따라서, 이런 시스템은 차량의 전방 및 측방의 다양한 거리에 위치한 물체로부터 얻은 정보에 근거한 판단을 내릴 수 있다. 단안 이미지(monocular image)분석이란 단일 시야로부터 촬영한 이미지(예, 단일 카메라에서 캡처한 이미지)에 근거하여 이미지 분석을 수행하는 경우를 말할 수 있다. 입체 이미지 분석이란 하나 이상의 이미지 캡처 파라미터로 캡처한 두 개 이상의 이미지에 근거하여 이미지 분석을 수행하는 경우를 말할 수 있다. In some embodiments, the second image processor may receive images from both the first and second cameras to perform stereoscopic analysis or to perform analysis on aligned visual and infrared images. In another embodiment, system 100 may use a three-camera imaging system where each camera has a different field of view. Thus, these systems can make decisions based on information obtained from objects located at various distances in front of and to the side of the vehicle. Monocular image analysis may refer to a case in which image analysis is performed based on images taken from a single field of view (eg, images captured by a single camera). Stereoscopic image analysis may refer to a case in which image analysis is performed based on two or more images captured with one or more image capture parameters.

예를 들면, 입체 이미지 분석에 적합한 캡처 이미지는 둘 이상의 위치로부터 캡처한 이미지, 서로 다른 시야로부터 캡처한 이미지, 서로 다른 초점 거리를 사용하여 캡처한 이미지, 시차 정보에 따라 캡처한 이미지 등을 포함할 수 있다. 하이브리드 이미지 분석은 하나 이상의 시각 이미지가 하나 이상의 적외선 이미지와 정렬되고 이 정렬된 이미지에 기반을 두어 이미지 분석이 수행되는 경우를 말할 수 있다. 예를 들어, 일 실시예에서, 시스템(100)은 이미지캡처장치(122, 124, 126)를 사용하여 3중 카메라 구성을 구현할 수 있다. 이런 구성에서, 이미지캡처장치(122)는 좁은 시야(예, 34도, 또는 약 20 내지 45도 범위에서 선택한 시야)를 제공할 수 있고, 이미지캡처장치(124)는 광시야(예, 150도 또는 약 100 내지 180도 범위에서 선택한 시야)를 제공할 수 있으며, 이미지캡처장치(126)는 중간 시야(예, 46도 또는 약 35 내지 60도 범위에서 선택한 시야)를 제공할 수 있다. 일부 실시예에서, 이미지캡처장치(126)는 주 카메라 역할을 할 수 있다. 이미지캡처장치(122, 124, 126)는 백미러(310) 후면에 배치되고 실질적으로 서로 나란히(예, 6cm 간격으로) 배치될 수 있다. 또한, 상기에 설명한 바와 같이, 일부 실시예에서, 하나 이상의 이미지캡처장치(122, 124, 126)는 차량(200)의 전면 유리에 맞닿아 있는 눈부심 가림막(380) 뒤에 탑재될 수 있다. 이러한 가림막은 차량 내부로부터의 반사가 이미지캡처장치(122, 124, 126)에 끼치는 영향을 최소화할 수 있다.For example, captured images suitable for stereoscopic image analysis may include images captured from two or more locations, images captured from different views, images captured using different focal lengths, images captured according to parallax information, and the like. can Hybrid image analysis may refer to cases where one or more visual images are aligned with one or more infrared images and image analysis is performed based on the aligned images. For example, in one embodiment, system 100 may implement a triple camera configuration using image capture devices 122, 124, and 126. In this configuration, image capture device 122 may provide a narrow field of view (eg, 34 degrees, or a field of view selected from about 20 to 45 degrees), while image capture device 124 may provide a wide field of view (eg, 150 degrees). or a field of view selected from about 100 to 180 degrees), and image capture device 126 can provide an intermediate field of view (eg, 46 degrees or a field of view selected from about 35 to 60 degrees). In some embodiments, image capture device 126 may act as a primary camera. The image capture devices 122, 124, and 126 may be disposed behind the rearview mirror 310 and may be disposed substantially side by side with each other (eg, 6 cm apart). Also, as described above, in some embodiments, one or more image capture devices 122 , 124 , 126 may be mounted behind glare shield 380 against the windshield of vehicle 200 . Such shielding can minimize the effect of reflections from inside the vehicle on the image capture devices 122, 124, and 126.

다른 실시예에서, 상기에 도 3b 내지 3c를 참조하여 설명한 바와 같이, 광시야 카메라(예, 상기 예에서의 이미지캡처장치(124))는 좁은 시야 카메라와 주 시야 카메라(예, 상기 예에서의 이미지캡처장치(122, 126)보다 낮은 위치에 탑재될 수 있다. 이런 구성은 광시야 카메라로부터 탁 트인 시선을 제공할 수 있다. 반사를 줄이기 위하여, 카메라들은 차량(200)의 전면 유리 가까이 탑재될 수 있고, 반사광을 완화하기 위하여 편광판을 포함할 수 있다. In another embodiment, as described above with reference to FIGS. 3B-3C , a wide-field camera (e.g., image capture device 124 in the above example) may include a narrow-field camera and a main-field camera (e.g., image capture device 124 in the above example). It can be mounted at a lower position than the image capture devices 122 and 126. This configuration can provide an unobstructed line of sight from the wide-field cameras To reduce reflections, the cameras can be mounted close to the windshield of vehicle 200. A polarizing plate may be included to mitigate reflected light.

3중 카메라 시스템은 특정 성능을 제공할 수 있다. 예를 들면, 일부 실시예는 한 카메라가 검출한 물체에 대해 다른 카메라의 검출 결과에 근거하여 검증하는 능력을 포함할 수 있다. 상기에 설명한 3중 카메라 구성에서, 처리부(110)는 예를 들어 3개의 처리 장치(예, 3개의 EyeQ 시리즈 프로세서 칩)를 포함하고, 각 처리 장치는 하나 이상의 이미지캡처장치(122, 124, 126)가 캡처한 이미지를 전용으로 처리할 수 있다. A three-camera system may provide certain capabilities. For example, some embodiments may include the ability to verify objects detected by one camera based on detections of other cameras. In the triple camera configuration described above, processing unit 110 includes, for example, three processing units (e.g., three EyeQ series processor chips), each processing unit comprising one or more image capture devices 122, 124, 126 ) can exclusively process the captured image.

3중 카메라 시스템에서, 제1 처리 장치는 주 카메라와 좁은 시야 카메라로부터 이미지를 수신하고, 좁은 시야 카메라의 비전 처리를 수행하여, 예를 들어, 다른 차량, 보행자, 차선 표시, 교통 표지, 신호등, 기타 도로 상의 물체 등을 검출할 수 있다. 나아가, 제1 처리 장치는 주 카메라와 좁은 시야 카메라 사이의 픽셀 차이를 산출하여 차량(200) 주변 환경의 3차원 재구성을 생성한 후, 3차원 재구성을 3차원 지도 데이터 또는 다른 카메라로부터 수신한 정보에 근거하여 계산한 3차원 정보와 조합할 수 있다. In a triple camera system, the first processing unit receives images from the main camera and the narrow field of view camera, and performs vision processing of the narrow field of view camera, such as other vehicles, pedestrians, lane markings, traffic signs, traffic lights, Other objects on the road can be detected. Furthermore, the first processing unit generates a 3D reconstruction of the surrounding environment of the vehicle 200 by calculating a pixel difference between the main camera and the narrow field of view camera, and then the 3D reconstruction is converted into 3D map data or information received from other cameras. It can be combined with 3D information calculated based on

제2 처리 장치는 주 카메라로부터 이미지를 수신하고, 비전 처리를 수행하여 다른 차량, 보행자, 차선 표시, 교통 표지, 신호등, 기타 도로 상의 물체 등을 검출할 수 있다. 뿐만 아니라, 제2 처리 장치는 카메라 변위를 계산하고, 계산된 변위에 근거하여 연속된 이미지 사이의 픽셀 차이를 계산하여 장면(예, 동작의 구조)의 3차원 재구성을 생성할 수 있다. 제2 처리 장치는 3차원 재구성에 근거한 동작의 구조를 제1 처리 장치에 전송하여 3차원 입체 이미지와 조합할 수 있다. The second processing unit may receive images from the main camera and perform vision processing to detect other vehicles, pedestrians, lane markings, traffic signs, traffic lights, and other objects on the road. In addition, the second processing unit may generate a 3D reconstruction of the scene (eg, motion structure) by calculating the camera displacement and calculating pixel differences between successive images based on the calculated displacement. The second processing device may transmit the motion structure based on the 3D reconstruction to the first processing device and combine it with the 3D stereoscopic image.

제3 처리 장치는 광시야 카메라로부터 이미지를 수신하고 처리하여 차량, 보행자, 차선 표시, 교통 표지, 기타 도로 상의 물체 등을 검출할 수 있다. 제3 처리 장치는 또한 이미지 분석을 위한 추가 처리 명령을 수행하여 차선을 변경하는 차량, 보행자 등과 같은 이미지 내의 움직이는 물체를 식별할 수 있다. A third processing unit may receive and process images from the wide-field camera to detect vehicles, pedestrians, lane markings, traffic signs, and other objects on the road. The third processing unit may also perform additional processing instructions for image analysis to identify moving objects in the image, such as vehicles changing lanes, pedestrians, and the like.

일부 실시예에서, 이미지 기반 정보의 스트림을 독립적으로 확보하고 처리함으로써, 시스템상의 중복성을 제공할 수 있다. 여기서, 중복성은, 예를 들면, 제1 이미지캡처장치와 이 장치로부터 처리된 이미지를 사용하여 적어도 제2 이미지캡처장치로부터 이미지 정보를 캡처하고 처리하여 획득된 정보를 검증 및/또는 보완하는 것을 포함할 수 있다. In some embodiments, streams of image-based information may be obtained and processed independently, providing redundancy on the system. Here, redundancy includes, for example, using a first image capture device and images processed from the device to capture and process image information from at least a second image capture device to verify and/or supplement information obtained. can do.

일부 실시예에서, 시스템(100)은 2개의 이미지캡처장치(예, 122, 124)를 사용하여 차량(200)의 주행제어 지원을 제공하고 제3 이미지캡처장치(예, 126)을 사용하여 상기 2개의 이미지캡처장치로부터 수신한 데이터의 분석 결과의 중복성 및 검증을 제공할 수 있다. 예를 들면, 이런 구성에서, 이미지캡처장치(122, 124)는 차량(200)의 주행을 위해 시스템(100)에 의한 입체 분석을 위한 이미지를 제공하고, 이미지캡처장치(126)는 시스템(100)에 의한 단안 분석을 위한 이미지를 제공하여 이미지캡처장치(122 및/또는 126)가 캡처한 이미지에 근거하여 확보한 정보의 중복성 및 검증을 제공할 수 있다. 즉, 이미지캡처장치(126)(및 상응하는 처리장치)는 이미지캡처장치(122, 124)로부터 얻은 분석에 대한 확인을 제공(예, 자동긴급제동(AEB, automatic emergency braking) 제공) 하기 위한 중복 서브시스템을 제공하는 것으로 간주될 수 있다. 나아가, 일부 실시예에서, 수신 데이터의 중복성 및 검증은 하나 이상의 센서(예, 레이더, 라이더, 음향 센서, 차량 외부의 하나 이상의 송수신기로부터 수신한 정보 등)로부터 수신된 정보에 근거하여 보완될 수 있다. In some embodiments, system 100 uses two image capture devices (e.g., 122 and 124) to provide driving control support for vehicle 200 and uses a third image capture device (e.g., 126) to perform the Redundancy and verification of analysis results of data received from two image capture devices can be provided. For example, in this configuration, image capture devices 122 and 124 provide images for stereo analysis by system 100 for driving of vehicle 200, and image capture device 126 provides images for stereoscopic analysis by system 100. ) to provide an image for monocular analysis, thereby providing redundancy and verification of information obtained based on the image captured by the image capture device 122 and/or 126. That is, image capture device 126 (and corresponding processing device) is redundant to provide validation of the analysis obtained from image capture devices 122 and 124 (e.g., to provide automatic emergency braking (AEB)). It can be considered as providing a subsystem. Further, in some embodiments, redundancy and verification of received data may be supplemented based on information received from one or more sensors (e.g., radar, lidar, acoustic sensors, information received from one or more transceivers external to the vehicle, etc.). .

상기 카메라의 구성, 배치, 개수, 위치 등은 예시에 불과하다는 것을 당업자는 인식할 수 있을 것이다. 전체적인 시스템과 연관하여 설명하는 이러한 구성요소들과 기타 구성요소들은 기재된 실시예들의 범위를 벗어나지 않고 다양한 구성으로 조합되고 사용될 수 있다. 운전자 보조 및/또는 자율 주행 기능을 제공하기 위한 다중 카메라 시스템의 사용과 관련된 내용은 하기에 설명한다. Those skilled in the art will be able to recognize that the configuration, arrangement, number, position, etc. of the cameras are only examples. These and other components described in connection with the overall system may be combined and used in various configurations without departing from the scope of the described embodiments. Details related to the use of multi-camera systems to provide driver assistance and/or autonomous driving functions are discussed below.

도 4는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에는 메모리(140)에 관하여 설명하지만, 명령이 메모리(140) 및/또는 메모리(150)에 저장될 수 있음은 당업자에게 당연할 것이다.4 is an exemplary functional configuration diagram of memories 140 and/or 150 in which instructions for performing one or more operations according to the disclosed embodiments may be stored/programmed. Although memory 140 is described below, it will be apparent to those skilled in the art that instructions may be stored in memory 140 and/or memory 150 .

도 4에 도시된 바와 같이, 메모리(140)는 단안 이미지(monocular image)분석 모듈(402), 입체 이미지 분석 모듈(404), 속도 및 가속 모듈(406), 주행 반응 모듈(408)을 저장할 수 있다. 여기에 기재된 실시예들은 메모리(14)의 어느 특정 구성으로 한정되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 영상 프로세서(190)는 메모리(140)에 포함된 모든 모듈(420, 404, 406, 408)에 저장된 명령을 실행할 수 있다. 본 발명의 기술분야의 당업자라면 하기의 설명에서 처리부(110)란 애플리케이션 프로세서(180) 및/또는 영상 프로세서(190)를 개별적으로 또는 총괄하여 지칭할 수 있다는 것을 이해할 것이다. 이에 따라, 하기에 설명한 과정의 단계들은 하나 이상의 처리 장치에 의해 수행될 수 있다. As shown in FIG. 4 , the memory 140 may store a monocular image analysis module 402, a stereoscopic image analysis module 404, a speed and acceleration module 406, and a driving response module 408. there is. The embodiments described herein are not limited to any particular configuration of memory 14. Also, the application processor 180 and/or the image processor 190 may execute instructions stored in all modules 420 , 404 , 406 , and 408 included in the memory 140 . Those skilled in the art will understand that the processing unit 110 may refer to the application processor 180 and/or the image processor 190 individually or collectively in the following description. Accordingly, the steps of the process described below may be performed by one or more processing devices.

일 실시예에서, 단안 이미지(monocular image)분석 모듈(402)은, 처리부(110)에 의해 실행될 경우 이미지캡처장치(122, 124, 126) 중의 하나가 확보한 이미지 세트(set)의 단안 이미지(monocular image)분석을 수행하는, 명령(예, 컴퓨터 시각 소프트웨어)을 저장할 수 있다. 일부 실시예에서, 처리부(110)는 이미지 세트(set)의 정보를 추가 감지 정보(예, 레이더, 라이더 등으로부터 얻은 정보)와 병합하여 단안 이미지(monocular image)분석을 수행할 수 있다. 하기에 도 5a 내지 5d를 참조하여 설명하겠지만, 단안 이미지(monocular image)분석 모듈(402)은 차선 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 위험 물체, 및 차량의 주변환경과 연관된 기타 특성 등과 같은 특징들을 이미지 세트(set) 내에서 검출하기 위한 명령을 포함할 수 있다. 시스템(100)은 이 분석에 근거하여, 예를 들어 처리부(110)를 통하여, 차량(200)의 회전, 차선 변경, 가속 변화 등과 같은 하나 이상의 주행 반응을 야기할 수 있으며, 이에 대해서는 하기에 주행 반응 모듈(408)에서 설명한다. In one embodiment, the monocular image analysis module 402, when executed by the processing unit 110, is a monocular image ( may store instructions (eg, computer vision software) that perform analysis of monocular images. In some embodiments, processing unit 110 may perform monocular image analysis by merging information from a set of images with additional sensing information (eg, information obtained from radar, lidar, etc.). As will be described below with reference to FIGS. 5A-5D , the monocular image analysis module 402 may be used to analyze lane markings, vehicles, pedestrians, road signs, highway interchanges, traffic lights, dangerous objects, and other things associated with the vehicle's surroundings. It may include instructions for detecting features within a set of images, such as features. Based on this analysis, system 100 may, for example, via processing unit 110, cause one or more navigational responses, such as turning vehicle 200, changing lanes, changing acceleration, etc., as described below. The reaction module 408 is described.

일 실시예에서, 입체 이미지 분석 모듈(404)은, 처리부(110)에 의해 실행될 경우 이미지캡처장치(122, 124, 126) 중에서 선택된 이미지캡처장치의 조합에 의해 확보된 제1 및 제2 이미지 세트(set)의 입체 이미지 분석을 수행하는, 명령(예, 컴퓨터 비전 소프트웨어)을 저장할 수 있다. 일부 실시예에서, 처리부(110)는 제1 및 제2 이미지 세트(set)의 정보를 추가 감지 정보(예, 레이다로부터 얻은 정보)와 병합하여 입체 이미지 분석을 수행할 수 있다. 예를 들어, 입체 이미지 분석 모듈(404)은 이미지캡처장치(124)가 확보한 제1 이미지 세트(set)와 이미지캡처장치(126)가 확보한 제2 이미지 세트(set)에 근거하여 입체 이미지 분석을 수행하기 위한 명령을 포함할 수 있다. 하기에 도 6을 참조하여 설명하겠지만, 입체 이미지 분석 모듈(404)은 차선 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 위험 물체, 및 차량의 주변환경과 연관된 기타 특성 등과 같은 특징들을 제1 및 제2 이미지 세트(set) 내에서 검출하기 위한 명령을 포함할 수 있다. 처리부(110)는 이 분석에 근거하여 차량(200)의 회전, 차선 변경, 가속 변화 등과 같은 하나 이상의 주행 반응을 야기할 수 있으며, 이에 대해서는 하기에 주행 반응 모듈(408)에서 설명한다. 나아가, 일부 실시예에서, 입체 이미지 분석 모듈(404)은, 감지 정보가 캡처 되고 처리된 환경 내에서 물체를 컴퓨터 비전 알고리즘을 사용하여 검출 및/또는 표식하도록 구성될 수 있는 시스템과 같은, 학습 시스템(신경망 또는 심층 신경망과 같은) 또는 비학습 시스템과 관련된 방식을 구현할 수 있다. 일 실시예에서, 입체 이미지 분석 모듈(404) 및/또는 기타 이미지 처리 모듈은 학습 시스템과 비학습 시스템의 조합을 활용하도록 구성될 수 있다. In one embodiment, stereo image analysis module 404, when executed by processing unit 110, sets first and second images obtained by a combination of image capture devices selected from among image capture devices 122, 124, and 126. (eg, computer vision software) to perform stereo image analysis of the set. In some embodiments, processing unit 110 may perform stereoscopic image analysis by merging information of the first and second image sets with additional sensing information (eg, information obtained from radar). For example, the stereoscopic image analysis module 404 may perform a stereoscopic image based on a first image set obtained by the image capture device 124 and a second image set obtained by the image capture device 126. It may contain instructions for performing the analysis. As will be described below with reference to FIG. 6 , the stereo image analysis module 404 determines features such as lane markings, vehicles, pedestrians, road signs, highway interchanges, traffic lights, hazardous objects, and other characteristics associated with the vehicle's surroundings. It may include instructions for detecting within the first and second image sets. Based on this analysis, processing unit 110 may cause one or more navigational responses, such as turning vehicle 200, changing lanes, changing acceleration, etc., as described below in navigational response module 408. Further, in some embodiments, stereoscopic image analysis module 404 is a learning system, such as a system that may be configured to use computer vision algorithms to detect and/or mark objects within the environment in which sensory information is captured and processed. You can implement approaches that involve (such as neural networks or deep neural networks) or non-learning systems. In one embodiment, stereoscopic image analysis module 404 and/or other image processing modules may be configured to utilize a combination of learning and non-learning systems.

일 실시예에서, 속도 및 가속 모듈(406)은 차량(200)의 속도 및/또는 가속 변화를 야기하도록 구성된 차량(200)에 구비된 하나 이상의 컴퓨팅 및 기전 장치로부터 수신한 데이터를 분석하도록 구성된 소프트웨어를 저장할 수 있다. 예를 들어, 처리부(110)는 속도 및 가속 모듈(406)과 연계된 명령을 수행함으로써 단안 이미지(monocular image)분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)을 실행하여 얻은 데이터에 근거하여 차량(200)의 목표 속도를 산출할 수 있다. 상기 데이터는 예를 들어 목표 위치, 속도, 및/또는 가속, 부근의 차량, 보행자 또는 도로 상의 물체에 대한 차량(200)의 위치 및/또는 속도, 도로의 차로 표시에 대한 차량(200)의 위치 정보 등을 포함할 수 있다. 또한, 처리부(110)는 감지 입력(예, 레이더로부터 얻은 정보) 및 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)과 같은 기타 시스템의 입력에 근거하여 차량(200)의 목표 속도를 산출할 수 있다. 산출된 목표 속도에 근거하여, 처리부(110)는 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)으로 전자 신호를 전송하여, 예를 들면, 물리적으로 차량(200)의 브레이크 페달을 누르거나 가속 페달을 감압하여 속도 및/또는 가속의 변화를 일으킬 수 있다.In one embodiment, speed and acceleration module 406 is software configured to analyze data received from one or more computing and mechanical devices included in vehicle 200 that are configured to cause changes in speed and/or acceleration of vehicle 200. can be saved. For example, processing unit 110 may perform commands associated with velocity and acceleration module 406 to obtain data obtained by executing monocular image analysis module 402 and/or stereoscopic image analysis module 404. Based on this, the target speed of the vehicle 200 may be calculated. The data may include, for example, target position, speed, and/or acceleration, position and/or speed of vehicle 200 relative to nearby vehicles, pedestrians or objects on the road, position of vehicle 200 relative to lane markings on the road, for example. information may be included. Additionally, processing unit 110 may respond to sensing inputs (eg, information obtained from radar) and inputs of other systems, such as drive system 220, braking system 230, and/or steering system 240 of vehicle 200. Based on this, the target speed of the vehicle 200 may be calculated. Based on the calculated target speed, processing unit 110 sends electronic signals to drive system 220, braking system 230, and/or steering system 240 of vehicle 200 to, for example, physically As a result, a change in speed and/or acceleration may be caused by pressing the brake pedal of the vehicle 200 or depressing the accelerator pedal.

일 실시예에서, 주행 반응 모듈(408)은 단안 이미지(monocular image)분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)을 실행하여 얻은 데이터에 근거하여 필요한 주행 반응을 판단하기 위하여 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 상기 데이터는 부근의 차량, 보행자, 및 도로 상의 물체에 대한 위치 및 속도, 차량(200)의 목표 위치 정보 등을 포함할 수 있다. 뿐만 아니라, 일부 실시예에서, 주행 반응은 지도 데이터, 미리 설정한 차량(200)의 위치, 및/또는 단안 이미지(monocular image)분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)을 실행하여 얻은 차량(200)과 하나 이상의 물체 사이의 상대 속도 또는 상대 가속에 부분적으로 또는 전적으로 근거할 수 있다. 주행 반응 모듈(408)은 또한 감지 입력(예, 레이더로부터 얻은 정보) 및 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)과 같은 기타 시스템의 입력에 근거하여 필요한 주행 반응을 판단할 수 있다. 필요한 주행 반응에 근거하여, 처리부(110)는 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)으로 전자 신호를 전송하여, 예를 들면, 차량(200)의 조향 핸들을 회전하여 미리 설정한 각도의 회전을 유도함으로써 필요한 주행 반응을 일으킬 수 있다. 일부 실시예에서, 처리부(110)는 주행 반응 모듈(408)의 출력(예, 필요 주행 반응)을 차량(200)의 속도 변경을 산출하기 위한 속도 및 가속 모듈(406)의 실행을 위한 입력으로 사용할 수 있다. In one embodiment, the navigation response module 408 is a processing unit (monocular image analysis module 402) and/or stereo image analysis module 404 to determine a necessary navigation response based on data obtained by executing the processing unit (408). 110) may store executable software. The data may include location and speed of nearby vehicles, pedestrians, and objects on the road, target location information of the vehicle 200, and the like. In addition, in some embodiments, the navigation response may trigger map data, a preset position of the vehicle 200, and/or a monocular image analysis module 402 and/or stereo image analysis module 404. may be based in part or entirely on the relative velocity or relative acceleration between the vehicle 200 and one or more objects obtained by doing so. Driving response module 408 may also include sensing inputs (eg, information obtained from radar) and inputs of other systems such as drive system 220 , braking system 230 , and/or steering system 240 of vehicle 200 . Based on this, it is possible to determine the required driving response. Based on the desired driving response, processing unit 110 sends electronic signals to drive system 220, braking system 230, and/or steering system 240 of vehicle 200 to, for example, the vehicle ( 200) to induce a rotation of a preset angle by rotating the steering wheel, thereby generating a necessary driving response. In some embodiments, processing unit 110 uses the output of navigation response module 408 (eg, desired navigation response) as input for execution of speed and acceleration module 406 to calculate a change in speed of vehicle 200. can be used

나아가, 여기에 기재된 일체의 모듈(예, 402, 404, 406)은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연관된 방식을 구현할 수 있다. Furthermore, any of the modules described herein (eg, 402, 404, 406) may implement a learning system (eg, a neural network or a deep neural network) or a method associated with a non-learning system.

도 5a는 기재된 실시예에 따른 단안 이미지(monocular image)분석에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(500a)을 도시한 순서도이다. 단계 510에서, 처리부(110)는 처리부(110)와 이미지획득부(120) 사이의 데이터 인터페이스(128)를 통하여 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)에 포함된 카메라(예, 시야(202)를 가진 이미지캡처장치(122))는 차량(200)의 전방 영역(또는 측방 또는 후방 영역)의 복수의 이미지를 캡처하고 이 이미지를 데이터 연결(예, 디지털, 유선, USB, 무선, 블루투스 등)을 통하여 처리부(110)로 전송할 수 있다. 처리부(110)는 단계 520에서 단안 이미지(monocular image)분석 모듈(402)을 실행하여 복수의 이미지를 분석할 수 있다. 이에 대해서는 도 5b 내지 5d를 참조하여 상세히 설명한다. 분석을 수행함으로써, 처리부(110)는 이미지 세트(set)에서 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등 등의 특징들을 검출할 수 있다.5A is a flow chart illustrating an exemplary process 500a for inducing one or more navigational responses based on monocular image analysis in accordance with a disclosed embodiment. In step 510 , the processing unit 110 may receive a plurality of images through the data interface 128 between the processing unit 110 and the image acquisition unit 120 . For example, the camera included in the image acquisition unit 120 (eg, the image capture device 122 having the field of view 202) captures a plurality of images of the front area (or side or rear area) of the vehicle 200. capture and transmit this image to processing unit 110 via a data connection (eg, digital, wired, USB, wireless, Bluetooth, etc.). The processing unit 110 may execute the monocular image analysis module 402 at step 520 to analyze the plurality of images. This will be described in detail with reference to FIGS. 5B to 5D. By performing the analysis, processing unit 110 may detect features such as lane markings, vehicles, pedestrians, road signs, highway interchanges, traffic lights, and the like in a set of images.

처리부(110)는 또한 단계 520에서 단안 이미지(monocular image)분석 모듈(402)을 실행하여, 예를 들면, 트럭 타이어 조각, 도로에 떨어진 표지판, 적재 불량 차량, 동물 등의 다양한 도로 상의 위험을 검출할 수 있다. 도로 상의 위험은 그 구조, 모양, 크기, 색 등이 다양하여 이런 위험을 검출하는 것은 더욱 어렵다. 일부 실시예에서, 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 복수의 이미지에 대한 다중 프레임 분석을 수행하여 도로상의 위험을 검출할 수 있다. 예를 들어, 처리부(110)는 연속 프레임 사이의 카메라 움직임을 예측하고 프레임 사이의 픽셀 차이를 계산하여 도로의 3차원 지도를 구축할 수 있다. 이후, 처리부(110)는 3차원 지도를 사용하여 도로면 뿐만 아니라 도로면 상에 존재하는 위험을 검출할 수 있다. Processing unit 110 also executes monocular image analysis module 402 at step 520 to detect various road hazards such as, for example, pieces of truck tires, fallen signs on the road, unloaded vehicles, animals, and the like. can do. Hazards on the road vary in structure, shape, size, color, etc., making it more difficult to detect such hazards. In some embodiments, processing unit 110 may execute monocular image analysis module 402 to perform multi-frame analysis of multiple images to detect road hazards. For example, processing unit 110 may construct a three-dimensional map of a road by predicting camera movement between successive frames and calculating pixel differences between frames. Processing unit 110 may then use the three-dimensional map to detect hazards present on the road surface as well as the road surface.

단계 530에서, 처리부(110)는 주행 반응 모듈(408)을 실행하여 단계 520에서 수행한 분석 및 상기에서 도 4를 참조하여 설명한 방법에 근거하여 차량(200)에 하나 이상의 주행 반응을 일으킬 수 있다. 주행 반응은 예를 들어 회전, 차선 변경, 가속 변경 등을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 속도 및 가속 모듈(406)을 실행하여 얻은 데이터를 활용하여 하나 이상의 주행 반응을 야기할 수 있다. 또한, 복수의 주행 반응이 동시에, 순차적으로, 또는 결합된 형태로 일어날 수 있다. 예를 들면, 처리부(110)는 제어 신호를 차량(200)의 조향 시스템(240)과 구동 시스템(220)에 순차적으로 전송하여 차량(200)이 차로를 변경한 후 가속을 하게 할 수 있다. 또는, 처리부(110)는 차량(200)의 제동 시스템(230)과 조향 시스템(240)에 제어 신호를 동시에 전송하여 차량(200)이 제동을 하면서 동시에 차로를 변경하게 할 수 있다. At step 530, processing unit 110 may execute drive response module 408 to cause one or more drive responses to vehicle 200 based on the analysis performed at step 520 and the method described above with reference to FIG. 4. . Driving responses may include, for example, turning, changing lanes, changing acceleration, and the like. In some embodiments, processing unit 110 may utilize data obtained from executing speed and acceleration module 406 to cause one or more navigational responses. Additionally, multiple navigational responses may occur simultaneously, sequentially, or in combination. For example, processing unit 110 may sequentially send control signals to steering system 240 and drive system 220 of vehicle 200 to cause vehicle 200 to change lanes and then accelerate. Alternatively, processing unit 110 may simultaneously transmit control signals to braking system 230 and steering system 240 of vehicle 200 so that vehicle 200 brakes and simultaneously changes lanes.

도 5b는 기재된 실시예에 따른 이미지 세트(set)에서 하나 이상의 차량 및/또는 보행자를 감지하는 예시적인 과정(500b)을 도시한 순서도이다. 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 이 과정(500b)을 구현할 수 있다. 단계 540에서, 처리부(110)는 차량 및/또는 보행자일 가능성을 나타내는 후보 물체 집단(sets)을 판단할 수 있다. 예를 들어, 처리부(110)는 하나 이상의 이미지를 스캔하고, 이 이미지를 하나 이상의 미리 설정한 패턴과 비교하여, 각 이미지 내에서 관심 물체(예, 차량, 보행자 등)가 있을만한 위치를 파악할 수 있다. 미리 설정한 패턴은 높은 비율의 오탐(false hits)과 낮은 비율의 누락(misses)을 달성하도록 설계될 수 있다. 예를 들어, 처리부(110)는 차량 또는 보행자일 가능성이 있는 후보 물체를 식별하기 위하여 미리 설정한 패턴에 낮은 유사 한계치를 사용할 수 있다. 이 결과, 처리부(110)가 차량 또는 보행자를 나타내는 후보 물체를 놓칠(즉, 식별하지 못할) 확률을 낮출 수 있다. 5B is a flow chart illustrating an exemplary process 500b of detecting one or more vehicles and/or pedestrians in a set of images in accordance with the disclosed embodiments. Processing unit 110 may implement this process 500b by executing monocular image analysis module 402 . At step 540, processing unit 110 may determine sets of candidate objects that are likely to be vehicles and/or pedestrians. For example, processing unit 110 may scan one or more images and compare the images to one or more preset patterns to determine likely locations of objects of interest (eg, vehicles, pedestrians, etc.) within each image. there is. Pre-established patterns can be designed to achieve a high rate of false hits and a low rate of misses. For example, processing unit 110 may use a pre-established pattern with a lower similarity threshold to identify candidate objects that are likely vehicles or pedestrians. As a result, the probability that processing unit 110 misses (ie, fails to identify) a candidate object representing a vehicle or pedestrian may be reduced.

단계 542에서, 처리부(110)는 분류 기준에 근거하여 후보 물체 세트(set)를 필터링하여 특정 후보(예, 관련이 없거나 적은 물체)를 제외할 수 있다. 여기서, 기준은 데이터베이스(예, 메모리(140)에 저장된 데이터베이스)에 저장된 물체 유형의 다양한 성질로부터 확보할 수 있다. 여기서, 물체 유형의 성질은 물체의 모양, 크기, 질감, 위치(예, 차량(200)에 대한 위치) 등을 포함할 수 있다. 따라서, 처리부(110)는 하나 이상의 기준을 사용하여 후보 물체 세트(set) 중에서 거짓 후보를 제외시킬 수 있다. At step 542, processing unit 110 may filter the set of candidate objects based on the classification criteria to exclude particular candidates (eg, irrelevant or minor objects). Here, the criterion can be obtained from various properties of object types stored in a database (eg, a database stored in the memory 140). Here, the properties of the object type may include the shape, size, texture, location (eg, location with respect to the vehicle 200) of the object. Accordingly, processing unit 110 may use one or more criteria to exclude false candidates from a set of candidate objects.

단계 544에서, 처리부(110)는 이미지의 다중 프레임을 분석하여 후보 물체 세트(set)의 물체가 차량 및/또는 보행자를 나타내는지 여부를 판단할 수 있다. 예를 들면, 처리부(110)는 감지된 후보 물체를 연속 프레임에 걸쳐 추적하여 감지된 물체와 연관된 프레임 별 데이터(예, 차량(200)과 관련된 크기, 위치 등)를 축적할 수 있다. 또한, 처리부(110)는 감지된 물체의 파라미터를 추정하고 물체의 프레임 별 위치 데이터를 예측 위치와 비교할 수 있다. At step 544, processing unit 110 may analyze multiple frames of the image to determine whether objects in the set of candidate objects represent vehicles and/or pedestrians. For example, processing unit 110 may track candidate sensed objects over successive frames to accumulate frame-by-frame data associated with the sensed object (eg, size, position, etc. related to vehicle 200 ). Also, the processing unit 110 may estimate a parameter of the sensed object and compare position data of each frame of the object with the predicted position.

단계 546에서, 처리부(110)는 감지된 물체의 측정치 세트(set)를 구성할 수 있다. 여기서, 측정치는 예를 들어 감지된 물체와 연계된 위치, 속도, 및 가속값(예, 차량(200)에 대한 상대적인 가속값)을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 칼만 필터(Kalman filters) 또는 선형 2차 곡선 추정(LQE, linear quadratic estimation) 등과 같은 시간 기준 관찰을 사용한 추정 방법 및/또는 기타 물체 유형(예, 차, 트럭, 보행자, 자전거, 도로 표지 등)에 대한 기존 모델링 데이터에 근거하여 측정치를 구성할 수 있다. 칼만 필터는 물체 크기의 측정치에 근거하고, 크기 측정치는 충돌까지의 시간(예, 차량(200)이 물체에 도달하는 시간)에 비례할 수 있다. 따라서, 단계 540, 542, 544, 546을 수행함으로써, 처리부(110)는 캡처 된 이미지 세트(set) 내에 등장하는 차량과 보행자를 식별하고 이 차량과 보행자와 관련된 정보(예, 위치, 속도, 크기)를 도출할 수 있다. 식별된 내용과 도출한 정보에 근거하여, 처리부(110)는 상기에서 도 5a를 참조하여 설명한 바와 같이, 차량(200)이 하나 이상의 주행 반응을 하도록 할 수 있다.At step 546, processing unit 110 may construct a set of measurements of the sensed object. Here, the measurement may include, for example, a position associated with the detected object, a velocity, and an acceleration value (eg, a relative acceleration value with respect to the vehicle 200). In some embodiments, processing unit 110 may use estimation methods using time-based observations, such as Kalman filters or linear quadratic estimation (LQE), and/or other object types (e.g., cars, trucks). , pedestrians, bicycles, road signs, etc.) can construct measurements based on existing modeling data. The Kalman filter is based on a measure of the size of an object, and the size measure can be proportional to the time to impact (eg, the time vehicle 200 takes to reach the object). Accordingly, by performing steps 540, 542, 544, and 546, processing unit 110 identifies vehicles and pedestrians appearing within the set of captured images and provides information associated with these vehicles and pedestrians (e.g., location, speed, size). ) can be derived. Based on the identified content and the derived information, processing unit 110 may cause vehicle 200 to make one or more navigational responses, as described above with reference to FIG. 5A.

단계 548에서, 처리부(110)는 하나 이상의 이미지에 대한 광류(optical flow) 분석을 수행하여 차량 또는 보행자를 나타내는 후보 물체에 대한 오탐과 누락 확률을 낮출 수 있다. 여기서, 광류 분석이란, 예를 들어, 다른 차량과 보행자와 관련된 하나 이상의 이미지에서 차량(200)에 대한, 그리고 도로 표면 움직임과 다른, 동작 패턴을 분석하는 것을 의미할 수 있다. 처리부(110)는 후보 물체의 움직임을 계산하기 위하여 위치값 및 시간값을 수학적 모델의 입력으로 사용할 수 있다. 따라서, 광류 분석은 차량(200)에 근접한 차량과 보행자를 감지하는 또 다른 방법을 제공할 수 있다. 처리부(110)는 광류 분석을 단계 540, 542, 544, 546과 함께 수행함으로써 차량과 보행자를 탐지하는 중복성을 제공하고 시스템(100)의 신뢰도를 향상시킬 수 있다. At step 548, processing unit 110 may perform optical flow analysis on one or more images to reduce the probability of false positives and misses for candidate objects representing vehicles or pedestrians. Here, optical flow analysis may mean analyzing motion patterns of the vehicle 200 and other than road surface motion in one or more images related to other vehicles and pedestrians, for example. The processing unit 110 may use the position and time values as inputs to a mathematical model to calculate the motion of the candidate object. Thus, optical flow analysis may provide another method of detecting vehicles and pedestrians proximate to vehicle 200 . Processing unit 110 may perform optical flow analysis in conjunction with steps 540, 542, 544, and 546 to provide redundancy in detecting vehicles and pedestrians and improve reliability of system 100.

도 5c는 기재된 실시예에 따른 이미지 세트(set)에서 도로 표지 및/또는 차선 형상 정보를 검출하는 과정(500C)의 일례를 예시한 순서도이다. 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 본 과정(500C)을 구현할 수 있다. 단계 550에서, 처리부(110)는 하나 이상의 이미지를 스캔하여 물체 세트(set)를 검출할 수 있다. 차선 표시의 일부분, 차선 형상 정보, 및 기타 해당 도로 표지를 검출하기 위하여, 처리부(110)는 물체 세트(set)를 필터링하여 관련 없는 것으로 판단된 물체(예, 대수롭지 않은 포트홀, 자갈 등)를 제외시킬 수 있다. 단계 552에서, 처리부(110)는 동일 도로 표지 또는 차선 표시에 해당하는 단계 550에서 감지된 조각들을 함께 묶을 수 있다. 이러한 묶음에 근거하여, 처리부(110)는 검출된 조각들을 나타낼 모델, 예를 들면, 수학적 모델을 생성할 수 있다. 5C is a flowchart illustrating an example of a process 500C of detecting road sign and/or lane shape information from an image set according to the described embodiment. The processing unit 110 may implement the process 500C by executing the monocular image analysis module 402 . At step 550, processing unit 110 may scan one or more images to detect a set of objects. To detect portions of lane markings, lane shape information, and other relevant road signs, processing unit 110 filters a set of objects to exclude objects that are determined to be irrelevant (e.g., insignificant potholes, gravel, etc.) can make it At step 552, processing unit 110 may group together pieces detected at step 550 that correspond to the same road sign or lane markings. Based on this set, processing unit 110 may create a model, eg, a mathematical model, to represent the detected pieces.

단계 554에서, 처리부(110)는 감지된 조각들에 상응하는 측정치 세트(set)를 구성할 수 있다. 일부 실시예에서, 처리부(110)는 감지된 조각들을 이미지 면으로부터 실세계 면(real-world plane)으로 투영할 수 있다. 여기서, 투영은 감지된 도로의 위치, 경사, 곡률, 및 곡률 미분 등과 같은 물리적 성질에 상응하는 계수를 가진 3차 다항식을 사용하는 특징이 있을 수 있다. 투영을 생성할 때, 처리부(110)는 도로면의 변화뿐만 아니라 차량(200)의 피치(pitch)와 롤(roll) 비율을 고려할 수 있다. 또한, 처리부(110)는 도로면에 존재하는 위치 및 모션 신호를 분석하여 도로의 높낮이를 추정할 수 있다. 나아가, 처리부(110)는 하나 이상의 이미지의 특징점 세트(set)을 추적하여 차량(200)의 피치 및 롤 비율을 추정할 수 있다. At step 554, processing unit 110 may construct a set of measurements corresponding to the sensed segments. In some embodiments, processing unit 110 may project the sensed fragments from an image plane to a real-world plane. Here, the projection may be characterized by using a third-order polynomial having coefficients corresponding to physical properties such as the position, slope, curvature, and curvature derivative of the detected road. When generating the projection, processing unit 110 may take into account the pitch and roll ratio of vehicle 200 as well as changes in the road surface. In addition, the processing unit 110 may estimate the height of the road by analyzing the position and motion signals present on the road surface. Further, processing unit 110 may estimate a pitch and roll rate of vehicle 200 by tracking a set of feature points of one or more images.

단계 556에서, 처리부(110)는 예를 들어 검출된 조각들을 연속 이미지 프레임에 걸쳐 추적하고 검출된 조각과 관련된 프레임 별 데이터를 축적하여 다중 프레임 분석을 수행할 수 있다. 처리부(110)가 다중 프레임 분석을 수행함에 따라, 단계 554에서 구성된 측정치 세트(set)는 더욱 신뢰할 수 있게 되고 더욱 높은 신뢰 수준을 갖게 된다. 따라서, 단계 550 내지 556을 수행함으로써, 처리부(110)는 캡처 된 이미지 세트(set) 내에 등장하는 도로 표지를 식별하고 차선 형상 정보를 도출할 수 있게 된다. 이러한 식별과 도출된 정보에 근거하여, 처리부(110)는, 상기에서 도 5a를 참조하여 설명한 바와 같이, 차량(200)이 주행 반응을 취하게 할 수 있다. At step 556, processing unit 110 may perform multi-frame analysis, for example, by tracking the detected segments across successive image frames and accumulating frame-by-frame data associated with the detected segments. As processing unit 110 performs multi-frame analysis, the set of measurements constructed in step 554 becomes more reliable and has a higher confidence level. Accordingly, by performing steps 550 to 556, the processing unit 110 can identify road signs appearing in the captured image set and derive lane shape information. Based on this identification and derived information, processing unit 110 may cause vehicle 200 to take a navigational response, as described above with reference to FIG. 5A.

단계 558에서, 처리부(110)는 추가 정보를 고려하여 차량(200) 주변에 관한 안전 모델을 생성할 수 있다. 처리부(110)는 안전 모델을 사용하여 시스템(100)이 차량(200)의 자율 제어를 안전하게 할 수 있는 환경을 정의할 수 있다. 일부 실시예에서, 안전 모델을 생성하기 위하여, 처리부(100)는 다른 차량의 위치와 움직임, 검출된 도로 에지 및 장벽, 및/또는 지도 데이터(예, 지도 데이터베이스(160)의 데이터)에서 추출한 일반적인 도로 형상 설명을 고려할 수 있다. 추가 정보를 고려함으로써, 처리부(110)는 도로 표지 및 차선 형상에 대한 중복성을 제공하고 시스템(100)의 신뢰도를 향상시킬 수 있다. At step 558, processing unit 110 may take the additional information into account to create a safety model of the surroundings of vehicle 200. Processing unit 110 may use the safety model to define an environment in which system 100 may safely control autonomous control of vehicle 200 . In some embodiments, to create a safety model, processing unit 100 may use general information extracted from the positions and movements of other vehicles, detected road edges and barriers, and/or map data (eg, data from map database 160). Road shape descriptions can be considered. By considering the additional information, processing unit 110 may provide redundancy for road markings and lane shapes and improve reliability of system 100 .

도 5d는 기재된 실시예에 따른 영상 세트(set)에서 신호등을 감지하는 예시적인 과정(500D)을 도시한 순서도이다. 처리부(110)는 단안 이미지(monocular image)분석 모듈(402)을 실행하여 본 과정(500D)을 구현할 수 있다. 단계 560에서, 처리부(110)는 이미지 세트(set)를 스캔하고 신호등 포함 가능성이 있는 이미지의 위치에 나타나는 물체를 식별한다. 예를 들면, 처리부(110)는 식별된 물체를 필터링하여 신호등에 상응할 가능성이 없는 물체들을 제외한 후보 물체 세트(set)를 구성할 수 있다. 필터링은 신호등의 모양, 크기, 질감, 위치(예, 차량(200)에 대한 상대적 위치) 등의 다양한 성질에 근거하여 수행될 수 있다. 이러한 성질은 데이터베이스에 저장된 신호등과 교통 제어 신호에 대한 복수의 예에 근거할 수 있다. 일부 실시예에서, 처리부(110)는 신호등 가능성이 있는 후보 물체 세트(set)에 대한 다중 프레임 분석을 수행할 수 있다. 예를 들어, 처리부(110)는 연속 이미지 프레임에 걸쳐 후보 물체를 추적하고, 후보 물체의 실세계 위치를 추정하고, 움직이는 물체(즉, 신호등일 가능성이 적은 물체)를 필터링할 수 있다. 일부 실시예에서, 처리부(110)는 후보 물체에 대한 색 분석을 실시하고 신호등 가능성이 있는 물체 내부에서 감지된 색의 상대 위치를 식별할 수 있다. 5D is a flowchart illustrating an exemplary process 500D for detecting traffic lights in a set of images according to the disclosed embodiments. The processing unit 110 may implement the process 500D by executing the monocular image analysis module 402 . At step 560, processing unit 110 scans the set of images and identifies objects appearing at locations in the images that likely contain traffic lights. For example, processing unit 110 may filter the identified objects to construct a set of candidate objects excluding objects unlikely to correspond to traffic lights. Filtering may be performed based on various properties such as the shape, size, texture, and position (eg, relative position to the vehicle 200) of the traffic light. These properties may be based on multiple examples of traffic lights and traffic control signals stored in the database. In some embodiments, processing unit 110 may perform multi-frame analysis on a set of possible traffic light candidate objects. For example, processing unit 110 may track candidate objects across successive image frames, estimate real-world locations of candidate objects, and filter out moving objects (ie, objects less likely to be traffic lights). In some embodiments, processing unit 110 may perform color analysis on the candidate objects and identify the relative location of the sensed color within the object as a possible traffic light.

단계 562에서, 처리부(110)는 교차로의 기하를 분석할 수 있다. 이 분석은 (i) 차량(200) 양측에 검출된 차선의 수, (ii) 도로상에 검출된 표시(화살표 등), (iii) 지도 데이터(예, 데이터베이스(160)에 저장된 지도 데이터)에서 추출된 교차로 설명의 조합에 근거하여 수행될 수 있다. 처리부(110)는 단안 분석 모듈(402)을 실행하여 도출한 정보를 이용하여 분석을 수행할 수 있다. 또한, 처리부(110)는 단계 560에서 감지된 신호등이 차량(200) 부근에 보이는 차선과 상응하는지 판단할 수 있다. At step 562, processing unit 110 may analyze the geometry of the intersection. This analysis is based on (i) the number of lanes detected on both sides of the vehicle 200, (ii) marks (arrows, etc.) detected on the road, (iii) map data (e.g., map data stored in the database 160). It can be performed based on a combination of extracted intersection descriptions. The processing unit 110 may perform analysis using information derived by executing the monocular analysis module 402 . Additionally, processing unit 110 may determine in step 560 whether the detected traffic light corresponds to a visible lane in the vicinity of vehicle 200 .

차량(200)이 교차로에 접근함에 따라, 단계 564에서, 처리부(110)는 분석된 교차로 기하와 검출된 신호등에 관한 신뢰 수준을 업데이트 할 수 있다. 예를 들어, 교차로에 나타날 것으로 추정된 신호등의 수와 실제로 교차로에 나타난 신호등의 수를 비교하면 신뢰 수준을 파악할 수 있다. 따라서, 이 신뢰 수준에 근거하여, 처리부(110)는 안전 조건을 향상하기 위하여 차량(200)의 제어를 운전자에게 맡길 수 있다. 단계 560, 562, 564를 수행함으로써, 처리부(110)는 캡처 된 이미지 세트(set) 내에 나타나는 신호등을 식별하고 교차로 기하 정보를 분석할 수 있다. 이러한 식별과 분석을 근거로, 처리부(110)는 상기에 도 5a를 참조하여 설명한 하나 이상의 주행 반응을 차량(200)이 하도록 할 수 있다. As vehicle 200 approaches an intersection, at step 564, processing unit 110 may update the confidence level regarding the analyzed intersection geometry and detected traffic lights. For example, the confidence level can be determined by comparing the number of traffic lights estimated to appear at an intersection with the number of traffic lights that actually appear at an intersection. Accordingly, based on this confidence level, processing unit 110 may delegate control of vehicle 200 to the driver to improve safety conditions. By performing steps 560, 562, and 564, processing unit 110 may identify traffic lights appearing within the set of captured images and analyze intersection geometry information. Based on this identification and analysis, processing unit 110 may cause vehicle 200 to perform one or more navigational responses described above with reference to FIG. 5A.

도 5e는 기재된 실시예에 따른 차량 경로에 근거한 하나 이상의 주행 반응을 차량(200)에 야기하는 예시적인 과정(500E)을 도시한 순서도이다. 단계 570에서, 처리부(110)는 차량(200)의 초기 차량 경로를 구성할 수 있다. 차량 경로는 좌표 (x, z)로 표현되는 점의 세트(set)로 나타낼 수 있고, 점의 세트(set)의 두 점 간의 간격인 d i 는 1 내지 5 미터의 범위 내에 있을 수 있다. 일 실시예에서, 처리부(110)는 좌측 도로 다항식과 우측 도로 다항식과 같은 두 개의 다항식을 사용하여 초기 차량 경로를 구성할 수 있다. 처리부(110)는 두 개의 다항식 사이의 중간점을 계산하고, 오프셋이 있는 경우(오프셋이 0인 경우는 차선 중앙 주행에 해당함), 차량 경로 결과에 포함된 각 점을 미리 설정한 오프셋(예, 스마트 차선 오프셋)만큼 오프셋 할 수 있다. 오프셋은 차량 경로 내의 두 점 사이의 구간에 수직인 방향일 수 있다. 다른 실시예에서, 처리부(110)는 하나의 다항식과 추정된 차선 폭을 사용하여 차량 경로의 각 점을 추정된 차선 폭에 미리 설정한 오프셋(예, 스마트 차선 오프셋)을 더한 값만큼 오프셋 할 수 있다.FIG. 5E is a flowchart illustrating an exemplary process 500E for causing one or more navigational responses in vehicle 200 based on the vehicle path in accordance with the disclosed embodiments. At step 570 , processing unit 110 may construct an initial vehicle path for vehicle 200 . The vehicle path may be represented by a set of points represented by coordinates ( x , z ), and an interval d i between two points of the set of points may be in the range of 1 to 5 meters. In one embodiment, processing unit 110 may construct the initial vehicle path using two polynomials, such as a left road polynomial and a right road polynomial. Processing unit 110 calculates the midpoint between the two polynomials, and if there is an offset (zero offset corresponds to center lane driving), each point included in the vehicle path result is assigned a preset offset (e.g., Smart Lane Offset). The offset may be in a direction perpendicular to the interval between two points in the vehicle's path. In another embodiment, processing unit 110 may use a polynomial and the estimated lane width to offset each point in the vehicle's path by the estimated lane width plus a preset offset (eg, smart lane offset). there is.

단계 572에서, 처리부(110)는 단계 570에서 구성한 차량 경로를 업데이트 할 수 있다. 처리부(110)는 단계 570에서 구성한 차량 경로를 더 높은 해상도를 사용하여 재구성하여 차량 경로를 나타내는 점의 세트(set)의 두 점 사이의 거리 d k 가 상기에 설명한 거리 d i 보다 작도록 할 수 있다. 예를 들어, d k 는 0.1 내지 0.3 미터의 범위 내에 있을 수 있다. 처리부(110)는 차량 경로의 전체 길이에 해당하는(즉, 차량 경로를 나타내는 점들의 세트(set)에 근거한) 누적 거리 벡터 S를 산출하는 파라볼릭 스플라인 알고리즘(parabolic spline algorithm)을 사용하여 차량 경로를 재구성할 수 있다. At step 572 , processing unit 110 may update the vehicle path constructed at step 570 . Processing unit 110 may reconstruct the vehicle path constructed in step 570 using a higher resolution such that the distance d k between two points in the set of points representing the vehicle path is less than the distance d i described above. there is. For example, d k may be in the range of 0.1 to 0.3 meters. Processing unit 110 uses a parabolic spline algorithm to calculate a cumulative distance vector S corresponding to the full length of the vehicle path (i.e., based on a set of points representing the vehicle path). can be reconstructed.

단계 574에서, 처리부(110)는 단계 572에서 구성된 업데이트된 차량 경로에 근거하여 예견점(look-ahead point)(좌표 (x l , z l )로서 표현)을 결정할 수 있다. 처리부(110)는 누적 거리 벡터 S로부터 예견점을 추출할 수 있고, 예견점은 예견 거리 및 예견 시간과 연계될 수 있다. 하한계가 10 내지 20미터일 수 있는 예견 거리는 차량(200)의 속도와 예견 시간을 곱한 값으로 산출될 수 있다. 예를 들어, 차량(200)의 속도가 감소하면, 예견 거리도 감소(예, 하한계에 도달할 때까지)할 수 있다. 범위가 0.5 내지 1.5초일 수 있는 예견 시간은 차량(200)에 주행 반응을 유도하는 것과 관계있는 하나 이상의 제어 루프(control loop)(예, 방위각 오차 추적 제어 루프)의 게인(gain)에 반비례할 수 있다. 예를 들어, 방위각 오차 추적 제어 루프의 게인은 요 레이트(yaw rate) 루프(yaw rate loop)의 대역폭, 조향 액추에이터 루프, 차량 측 방향 동역학 등에 따라 다를 수 있다. 따라서, 방위각 오차 추적 제어 루프의 게인이 클수록, 예견 시간은 작아질 수 있다. At step 574, processing unit 110 may determine a look-ahead point (expressed as coordinates ( x l , z l )) based on the updated vehicle path constructed at step 572. Processing unit 110 may extract a look-ahead point from the cumulative distance vector S , and the look-ahead point may be associated with a look-ahead distance and a look-ahead time. The look-ahead distance, which may have a lower limit of 10 to 20 meters, may be calculated by multiplying the look-ahead time by the speed of the vehicle 200 . For example, if the speed of the vehicle 200 decreases, the look-ahead distance may also decrease (eg, until a lower limit is reached). The look-ahead time, which may range from 0.5 to 1.5 seconds, may be inversely proportional to the gain of one or more control loops involved in inducing a driving response in the vehicle 200 (eg, an azimuth error tracking control loop). there is. For example, the gain of the azimuth error tracking control loop may vary depending on the bandwidth of the yaw rate loop, steering actuator loop, vehicle lateral dynamics, and the like. Therefore, as the gain of the azimuth error tracking control loop increases, the prediction time may decrease.

단계 576에서, 처리부(110)는 단계 574에서 판단한 예견점에 근거하여 방위각 오차 및 요 레이트(yaw rate) 명령을 결정할 수 있다. 처리부(110)는 예견점의 역탄젠트, 예를 들어 arctan(x l / z l )를 산출하여 결정할 수 있다. 처리부(110)는 방위각 오차와 고레벨 제어 게인의 곱을 산출하여 요 레이트(yaw rate) 명령을 결정할 수 있다. 고레벨 제어 게인은, 예견 거리가 하한계에 있지 않은 경우, (2 / 예견 시간)과 같을 수 있다. 아니면, 고레벨 제어 게인은 (2 * 차량 속도 / 예견 거리)와 같을 수 있다.At step 576, processing unit 110 may determine an azimuth error and a yaw rate command based on the look-ahead determined at step 574. Processing unit 110 may determine by calculating the inverse tangent of the lookahead point, for example, arctan ( xl / zl ) . The processing unit 110 may determine a yaw rate command by calculating the product of the azimuth error and the high level control gain. The high-level control gain can be equal to (2 / look-ahead time) if the look-ahead distance is not at the lower limit. Alternatively, the high-level control gain can be equal to (2 * vehicle speed / look-ahead distance).

도 5f는 기재된 실시예에 따른 선두 차량이 차선 변경을 하는지를 판단하는 예시적인 과정(500F)을 도시한 순서도이다. 단계 580에서, 처리부(110)는 선두 차량(예, 차량(200)에 앞서 주행하는 차량)에 대한 주행 정보를 판단할 수 있다. 예를 들면, 처리부(110)는, 상기의 도 5a와 도 5b를 참조하여 설명한 방법을 활용하여 선두 차량의 위치, 속도(예, 방향과 속력), 및/또는 가속도를 판단할 수 있다. 처리부(110)는 또한 상기의 도 5e를 참조하여 설명한 방법을 활용하여 하나 이상의 도로 다항식, 예견점(차량(200)과 관련된 예견점), 및/또는 스네일 트레일(snail trail: 선두 차량의 경로를 묘사하는 점의 세트(set))을 판단할 수 있다. 5F is a flowchart illustrating an exemplary process 500F for determining whether a lead vehicle is changing lanes in accordance with the disclosed embodiments. At step 580, processing unit 110 may determine driving information for a lead vehicle (eg, a vehicle traveling ahead of vehicle 200). For example, processing unit 110 may utilize the methods described with reference to FIGS. 5A and 5B above to determine the position, speed (eg, direction and speed), and/or acceleration of the lead vehicle. Processing unit 110 may also utilize one or more road polynomials, look-ahead points (associated with vehicle 200), and/or snail trails utilizing the methods described with reference to FIG. 5E above. A set of points describing the can be determined.

단계 582에서 처리부(110)는 단계 580에서 판단한 주행 정보를 분석할 수 있다. 일 실시예에서, 처리부(110)는 스네일 트레일과 도로 다항식(예, 스네일 트레일을 따라가는 다항식) 사이의 거리를 계산할 수 있다. 스네일 트레일을 따라가는 거리의 분산이 미리 설정한 임계치(예, 직선 도로에서 0.1 내지 0.2, 완만한 커브길에서 0.3 내지 0.4, 급커브길에서 0.5 내지 0.6)를 초과하는 경우, 처리부(110)는 선두 차량이 차선 변경 가능성이 있는 것으로 판단할 수 있다. 차량(200)의 앞에 여러 차량이 검출된 경우, 처리부(110)는 각 차량의 스네일 트레일을 비교할 수 있다. 처리부(110)는 비교 결과에 근거하여 다른 차량들의 스네일 트레일과 일치하지 않는 스네일 트레일의 차량이 차선 변경의 가능성이 있는 것으로 판단할 수 있다. 처리부(110)는 추가적으로 선두 차량의 스네일 트레일의 곡률과 선두 차량이 주행하고 있는 도로 구간의 예상 곡률을 비교할 수 있다. 예상 곡률은 지도 데이터(예, 데이터베이스(16)의 데이터), 도로 다항식, 다른 차량의 스네일 트레일, 도로에 대한 사전 지식 등으로부터 추출될 수 있다. 스네일 트레일의 곡률과 도로 구간의 예상 곡률의 차이가 미리 설정된 임계치를 초과하는 경우, 처리부(110)는 선두 차량이 차선 변경을 하고있을 가능성이 있는 것으로 판단할 수 있다. In step 582, the processing unit 110 may analyze the driving information determined in step 580. In one embodiment, processing unit 110 may calculate the distance between the snail trail and the road polynomial (eg, the polynomial along the snail trail). If the variance of the distance along the snail trail exceeds a preset threshold (e.g., 0.1 to 0.2 on a straight road, 0.3 to 0.4 on a gentle curve, 0.5 to 0.6 on a sharp curve), processing unit 110 It may be determined that the leading vehicle has a possibility of lane change. If multiple vehicles are detected in front of vehicle 200, processing unit 110 may compare the snail trails of each vehicle. Based on the comparison, processing unit 110 may determine that a vehicle whose snail trail does not match the snail trail of other vehicles is likely to change lanes. Processing unit 110 may additionally compare the curvature of the snail trail of the lead vehicle with the expected curvature of the section of road the lead vehicle is traveling on. The expected curvature may be extracted from map data (eg, data from database 16), road polynomials, snail trails of other vehicles, prior knowledge of roads, and the like. If the difference between the curvature of the snail trail and the expected curvature of the road segment exceeds a preset threshold, processing unit 110 may determine that the leading vehicle is likely changing lanes.

다른 실시예에서, 처리부(110)는 특정 시간(예, 0.5 내지 1.5초)에 대한 선두 차량의 순간 위치와 예견점(차량(200)의 예견점)을 비교할 수 있다. 특정 시간 동안에 선두 차량의 순간 위치와 예견점 사이의 거리가 변화하고 변화의 누적 합이 미리 설정한 임계치(예, 직선도로 상 0.3 내지 0.4 미터, 완만한 커브길의 0.7 내지 0.8 미터, 급커브길의 1.3 내지 1.8 미터)를 초과할 경우, 처리부(110)는 선두 차량이 차선 변경을 하고있을 가능성이 있는 것으로 판단할 수 있다. 다른 실시예에서, 처리부(110)는 스네일 트레일을 따라 주행한 횡방향 거리와 스네일 트레일의 예상 곡률을 비교하여 스네일 트레일의 기하를 분석할 수 있다. 예상 곡률 반경은 수학식

Figure pat00001
을 통하여 판단할 수 있다. 여기서,
Figure pat00002
는 횡방향 주행 거리이고,
Figure pat00003
는 종방향 주행 거리이다. 횡방향 주행 거리와 예상 곡률 사이의 차이가 미리 설정한 임계치(예, 500 내지 700미터)를 초과하는 경우, 처리부(110)는 선두 차량이 차선 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 다른 실시예에서, 처리부(110)는 선두 차량의 위치를 분석할 수 있다. 선두 차량의 위치가 도로 다항식을 안 보이게 하는 경우(예, 선두 차량이 도로 다항식의 상부에 덮어씌워 있는 경우), 처리부(110)는 선두 차량이 차선 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 다른 차량이 선두 차량의 앞에 검출되고 선두 차량과 앞 차량의 스네일 트레일이 서로 평행하지 않은 경우, 처리부(110)는 선두 차량(즉, 차량(200)과 가까운 차량)이 차선 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. In another embodiment, processing unit 110 may compare the instantaneous position of the lead vehicle with the look-ahead point (the look-ahead point of vehicle 200) for a specific time period (eg, 0.5 to 1.5 seconds). During a specific time, the distance between the instantaneous position of the leading vehicle and the look-ahead changes, and the cumulative sum of the changes is a preset threshold (e.g., 0.3 to 0.4 meters on a straight road, 0.7 to 0.8 meters on a gentle curve, 0.7 to 0.8 meters on a sharp curve) 1.3 to 1.8 meters), processing unit 110 may determine that the lead vehicle is likely changing lanes. In another embodiment, processing unit 110 may analyze the geometry of the snail trail by comparing the lateral distance traveled along the snail trail with the expected curvature of the snail trail. The expected radius of curvature is
Figure pat00001
can be judged through here,
Figure pat00002
is the transverse travel distance,
Figure pat00003
is the longitudinal travel distance. If the difference between the lateral travel distance and the expected curvature exceeds a predetermined threshold (eg, 500 to 700 meters), processing unit 110 may determine that the leading vehicle is likely changing lanes. In another embodiment, processing unit 110 may analyze the position of the lead vehicle. If the position of the lead vehicle obscures the road polynomial (e.g., the lead vehicle is overlaid on top of the road polynomial), processing unit 110 may determine that the lead vehicle is likely changing lanes. . If another vehicle is detected in front of the lead vehicle and the snail trails of the lead vehicle and the preceding vehicle are not parallel to each other, processing unit 110 determines the likelihood that the leading vehicle (i.e., a vehicle close to vehicle 200) is changing lanes. It can be judged that there is

단계 584에서, 처리부(110)는 단계 582에서 수행한 분석에 근거하여 선두 차량의 차선 변경 여부를 판단할 수 있다. 예를 들어, 처리부(110)는 단계 582에서 수행한 개별 분석의 가중 평균에 근거하여 판단을 할 수 있다. 이 방법에서, 예를 들면, 특정 유형의 분석에 근거하여 선두 차량이 차선 변경을 하고 있을 가능성이 있다는 판단을 처리부(110)가 내릴 경우, "1"의 값을 부여할 수 있다(선두 차량이 차선 변경을 하지 않고 있을 가능성 판단일 경우, "0"의 값 부여). 단계 582에서 수행되는 다른 분석에는 다른 가중치가 부여될 수 있으며, 본 실시예는 특정 조합의 분석 및 가중치에 한정되지 않는다. 나아가, 일부 실시예에서, 예를 들어 현 위치에서 캡처 된 이미지에 기반을 두어 차량의 현 위치 전방의 향후 경로를 추정할 수 있는, 학습 시스템(예, 머신러닝 시스템 또는 딥러닝 시스템)을 활용할 수 있다. At step 584, processing unit 110 may determine whether the lead vehicle is changing lanes based on the analysis performed at step 582. For example, processing unit 110 may make the determination based on a weighted average of the individual analyzes performed in step 582. In this method, for example, if processing unit 110 determines, based on some type of analysis, that the lead vehicle is likely to be changing lanes, it may assign a value of “1” (the lead vehicle may be changing lanes). In the case of determining the possibility of not changing lanes, a value of “0” is given). Different analyzes performed in step 582 may be given different weights, and the present embodiment is not limited to specific combinations of analyzes and weights. Further, some embodiments may utilize a learning system (eg, a machine learning system or a deep learning system) that may, for example, estimate a future path ahead of the vehicle's current location based on images captured at the current location. there is.

도 6은 기재된 실시예에 따른 입체 이미지 분석에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(600)을 도시한 순서도이다. 단계 610에서, 처리부(110)는 복수의 제1 및 제2 이미지를 데이터 인터페이스(128)를 통하여 수신할 수 있다. 예를 들면, 이미지획득부(120, 시야(202, 204)를 가진 이미지캡처장치(122, 124) 등)에 포함된 카메라가 차량(200) 전면 영역의 복수의 제1 및 제2 이미지를 캡처하고 디지털 연결(예, USB, 무선통신, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 일부 실시예에서, 처리부(110)는 둘 이상의 데이터 인터페이스를 통해 복수의 제1 및 제2 이미지를 수신할 수 있다. 여기에 기재된 실시예들은 특정 데이터 인터페이스 구성 또는 프로토콜에 제한되지 않는다.6 is a flow chart illustrating an exemplary process 600 for inducing one or more navigational responses based on stereoscopic image analysis in accordance with a described embodiment. At step 610 , processing unit 110 may receive a plurality of first and second images via data interface 128 . For example, a camera included in the image acquisition unit 120, the image capture devices 122 and 124 having fields of view 202 and 204, etc., captures a plurality of first and second images of the front area of the vehicle 200. and may be transmitted to the processing unit 110 through a digital connection (eg, USB, wireless communication, Bluetooth, etc.). In some embodiments, processing unit 110 may receive a plurality of first and second images through more than one data interface. The embodiments described herein are not limited to a specific data interface configuration or protocol.

단계 620에서, 처리부(110)는 입체 이미지 분석 모듈(404)을 실행하여 복수의 제1 및 제2 이미지에 대한 입체 이미지 분석을 수행하여 차량 전면 도로의 3차원 지도를 생성하고, 이미지 내에서 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 도로 상의 위험물 등과 같은 특징을 검출할 수 있다. 입체 이미지 분석은 상기에서 도 5a 내지 5d를 참조하여 설명한 단계와 유사한 방법으로 수행될 수 있다. 예를 들어, 처리부(110)는 입체 이미지 분석 모듈(404)을 실행하여 복수의 제1 및 제2 이미지 내에서 후보 물체(예, 차량, 보행자, 도로 표지, 신호등, 도로 상의 위험물 등)을 검출하고, 다양한 기준에 근거하여 후보 물체의 세트(set)를 필터링하고, 다중 프레임 분석을 수행하고, 측정치를 구성하고, 나머지 후보 물체에 대한 신뢰 수준을 판단할 수 있다. 상기 단계들을 수행함에 있어서, 처리부(110)는 한 집단의 이미지보다는 복수의 제1 및 제2 이미지 모두의 정보를 고려할 수 있다. 예를 들어, 처리부(110)는 복수의 제1 및 제2 이미지에 모두 등장하는 후보 물체에 대한 픽셀 단계 데이터(또는 두 스트림의 캡처 이미지 중의 기타 데이터 부분집합)의 차이를 분석할 수 있다. 다른 예로서, 처리부(110)는 후보 물체가 복수의 이미지 중 하나에 등장하지만 다른 이미지에 등장하지 않는다는 것을 관찰하거나, 두 이미지 스트림 내에 등장하는 물체와 관련하여 존재하는 다른 차이점들을 통하여, 후보 물체(예, 차량(200)에 대한 후보 물체)의 위치 및/또는 속도를 추정할 수 있다. 예를 들어, 차량(200)과 관련된 위치, 속도, 및/또는 가속도는 이미지 스트림의 하나 또는 모두에 등장하는 물체와 연관된 특징의 궤적, 위치, 동작 특성 등에 근거하여 판단될 수 있다. At step 620, processing unit 110 executes stereoscopic image analysis module 404 to perform stereoscopic image analysis on the plurality of first and second images to generate a three-dimensional map of the road in front of the vehicle, and drive within the image. Features such as markings, vehicles, pedestrians, road signs, highway interchanges, traffic lights, and hazards on the road can be detected. Stereoscopic image analysis may be performed in a manner similar to the steps described above with reference to FIGS. 5A to 5D . For example, processing unit 110 may execute stereo image analysis module 404 to detect candidate objects (eg, vehicles, pedestrians, road signs, traffic lights, road hazards, etc.) within the plurality of first and second images. and filter a set of candidate objects based on various criteria, perform multi-frame analysis, construct measurements, and determine confidence levels for the remaining candidate objects. In performing the above steps, processing unit 110 may consider information of both the plurality of first and second images rather than a group of images. For example, processing unit 110 may analyze differences in pixel level data (or other data subsets among the captured images of the two streams) for candidate objects appearing in both the first and second plurality of images. As another example, processing unit 110 may observe that a candidate object appears in one of the plurality of images but not another, or through other differences that exist with respect to objects appearing in the two image streams, the candidate object ( For example, a position and/or speed of a candidate object relative to vehicle 200 may be estimated. For example, the position, speed, and/or acceleration associated with vehicle 200 may be determined based on trajectories, positions, motion characteristics, and the like, of features associated with objects appearing in one or both of the image streams.

단계 630에서, 처리부(110)는 주행 반응 모듈(408)을 실행하여 단계 620에서 수행한 분석 및 도 4를 참조하여 상기에 설명한 방법에 기반을 둔하나 이상의 주행 반응을 차량(200)에 발생시킬 수 있다. 주행 반응은, 예를 들어, 회전, 차선 변경, 가속도 변경, 속도 변경, 제동 등을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 속도 및 가속 모듈(406)을 실행하여 도출한 데이터를 사용하여 하나 이상의 주행 반응을 발생시킬 수 있다. 뿐만 아니라, 다중 주행 반응이 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다. At step 630, processing unit 110 executes navigation response module 408 to generate one or more navigation responses to vehicle 200 based on the analysis performed in step 620 and the methods described above with reference to FIG. can Driving responses may include, for example, turning, changing lanes, changing acceleration, changing speed, braking, and the like. In some embodiments, processing unit 110 may use data derived from executing speed and acceleration module 406 to generate one or more navigational responses. In addition, multiple navigation responses can occur simultaneously, sequentially, or combinations thereof.

도 7은 기재된 실시예에 따른 3개 집합의 이미지에 근거한 하나 이상의 주행 반응을 발생시키는 예시적인 과정(700)을 도시한 순서도이다. 단계 710에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 복수의 제1, 제2, 제3 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126) 등)에 포함된 카메라가 차량(200) 전면 및/또는 측면 영역의 복수의 제1, 제2, 제3 이미지를 캡처하고 디지털 연결(예, USB, 무선통신, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 일부 실시예에서, 처리부(110)는 셋 이상의 데이터 인터페이스를 통해 복수의 제1, 제2, 제3 이미지를 수신할 수 있다. 예를 들어, 이미지캡처장치(122, 124, 126)는 처리부(110)와 데이터를 통신하기 위해 각 장치에 연관된 데이터 인터페이스가 있을 수 있다. 여기에 기재된 실시예들은 특정 데이터 인터페이스 구성 또는 프로토콜에 제한되지 않는다. 7 is a flow chart illustrating an exemplary process 700 for generating one or more navigational responses based on three sets of images in accordance with the described embodiments. At step 710 , processing unit 110 may receive a plurality of first, second, and third images through data interface 128 . For example, a camera included in the image acquisition unit 120 (image capture device 122, 124, 126, etc. having a field of view 202, 204, 206) may capture a plurality of images of the front and/or side areas of vehicle 200. The first, second, and third images may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless communication, Bluetooth, etc.). In some embodiments, processing unit 110 may receive a plurality of first, second, and third images through three or more data interfaces. For example, image capture devices 122, 124, and 126 may have a data interface associated with each device to communicate data with processing unit 110. The embodiments described herein are not limited to a specific data interface configuration or protocol.

단계 720에서, 처리부(110)는 복수의 제1, 제2, 제3 이미지를 분석하여 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 도로 상의 위험물 등과 같은 특징을 이미지 내에서 검출할 수 있다. 본 분석은 상기에서 도 5a 내지 5d 및 도 6을 참조하여 설명한 단계와 유사한 방법으로 수행될 수 있다. 예를 들어, 처리부(110)는 복수의 제1, 제2, 제3 이미지 각각에 대한 단안 이미지(monocular image)분석(예, 단안 이미지(monocular image)분석 모듈(402) 실행 및 도 5a 내지 5d를 참조하여 설명한 상기 단계)을 수행할 수 있다. 또는, 처리부(110)는 복수의 제1 및 제2 이미지, 복수의 제2 및 제3 이미지, 및/또는 복수의 제1 및 제3 이미지에 대한 입체 이미지 분석(예, 입체 이미지 분석 모듈(404) 실행 및 도 6을 참조하여 설명한 상기 단계)을 수행할 수 있다. 복수의 제1, 제2 및/또는 제3 이미지에 상응하는 처리 정보는 병합될 수 있다. 일부 실시예에서, 처리부(110)는 단안 이미지(monocular image)분석과 입체 이미지 분석을 조합하여 수행할 수 있다. 예를 들면, 처리부(110)는 복수의 제1 이미지에 대해 단안 이미지(monocular image)분석(예, 단안 이미지(monocular image)분석 모듈(402) 실행)을 수행하고, 복수의 제2 및 제3 이미지에 대해 입체 이미지 분석(예, 입체 이미지 분석 모듈(404) 실행)을 수행할 수 있다. 위치와 시야(202, 204, 206)를 각각 가진 이미지캡처장치(122, 124, 126)의 구성은 복수의 제1, 제2, 제3 이미지에 대해 수행되는 분석의 유형에 영향을 줄 수 있다. 여기에 기재된 실시예들은 특정 구성의 이미지캡처장치(122, 124, 126) 또는 복수의 제1, 제2, 제3 이미지에 수행되는 분석의 유형에 제한되지 않는다. At step 720, processing unit 110 analyzes the plurality of first, second, and third images to detect features in the images, such as lane markings, vehicles, pedestrians, road signs, highway interchanges, traffic lights, road hazards, and the like. can This analysis may be performed in a manner similar to the steps described above with reference to FIGS. 5A to 5D and FIG. 6 . For example, the processing unit 110 analyzes a monocular image (eg, executes a monocular image analysis module 402 and FIGS. 5A to 5D) for each of the plurality of first, second, and third images. The step) described with reference to may be performed. Alternatively, the processing unit 110 may perform stereoscopic image analysis on the plurality of first and second images, the plurality of second and third images, and/or the plurality of first and third images (e.g., the stereoscopic image analysis module 404). ) and the above steps described with reference to FIG. 6) may be performed. Processing information corresponding to a plurality of first, second and/or third images may be merged. In some embodiments, processing unit 110 may perform a combination of monocular image analysis and stereoscopic image analysis. For example, the processing unit 110 performs monocular image analysis (eg, execution of the monocular image analysis module 402 ) on a plurality of first images, and a plurality of second and third images. Stereoscopic image analysis (eg, execution of the stereoscopic image analysis module 404 ) may be performed on the image. The configuration of image capture devices 122, 124, 126, each with its position and field of view 202, 204, 206, may affect the type of analysis performed on the plurality of first, second, and third images. . The embodiments described herein are not limited to the particular configuration of image capture devices 122, 124, 126 or the type of analysis performed on the plurality of first, second, and third images.

일부 실시예에서, 처리부(110)는 단계 710과 720에서 획득하고 분석한 이미지에 근거하여 시스템(100)의 검사를 수행할 수 있다. 이러한 검사는 이미지캡처장치(122, 124, 126)의 특정 구성을 위한 시스템(100)의 전체적인 성능에 대한 지시자를 제공할 수 있다. 예를 들어, 처리부(110)는 "오탐(false hits)"(예, 시스템(100)이 차량 또는 보행자가 존재하는 것으로 오판하는 경우) 및 "누락(misses)"의 비율을 판단할 수 있다.In some embodiments, processing unit 110 may perform inspections of system 100 based on the images acquired and analyzed at steps 710 and 720 . Such inspection may provide an indicator of the overall performance of system 100 for a particular configuration of image capture devices 122, 124, and 126. For example, processing unit 110 may determine a percentage of "false hits" (eg, when system 100 falsely determines that a vehicle or pedestrian is present) and "misses."

단계 730에서, 처리부(110)는 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보에 근거하여 차량(200)에 하나 이상의 주행 반응을 발생시킬 수 있다. 복수의 제1, 제2, 제3 이미지 중 둘은, 예를 들어, 복수의 이미지 각각에 검출된 물체의 개수, 유형, 크기 등과 같은 다양한 요소에 의거하여 선택될 수 있다. 처리부(110)는 또한, 이미지의 품질 및 해상도, 이미지에 반영된 유효 시야, 촬영된 프레임의 수, 관심 물체가 프레임에 실제로 등장하는 정도(예, 물체가 등장하는 프레임의 퍼센트, 각 프레임에 등장하는 물체가 차지하는 비율 등) 등에 따라 이미지를 선택할 수 있다. At step 730, processing unit 110 may generate one or more navigational responses to vehicle 200 based on information derived from two of the plurality of first, second, and third images. Two of the plurality of first, second, and third images may be selected based on various factors such as, for example, the number, type, and size of objects detected in each of the plurality of images. The processing unit 110 also determines the quality and resolution of the image, the effective field of view reflected in the image, the number of captured frames, and the degree to which the object of interest actually appears in a frame (e.g., the percentage of frames in which the object appears, the number of frames in which the object appears in each frame). You can select an image according to the ratio occupied by the object, etc.).

일부 실시예에서, 처리부(110)는 한 이미지 소스로부터 도출된 정보가 다른 이미지 소스로부터 도출된 정보와 어느 정도 일관되는지를 판단하여 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보를 선택할 수 있다. 예를 들어, 처리부(110)는 이미지캡처장치(122, 124, 126) 각각으로부터 도출(단안 분석, 입체 분석, 또는 이들의 조합)된 처리 정보를 병합하고 이미지캡처장치(122, 124, 126) 각각으로부터 캡처 된 이미지 전반에 걸쳐 일관된 시각적 지시자(예, 차선 표시, 감지된 차량 및 그 위치 및/또는 경로, 감지된 신호등 등)를 판단할 수 있다. 처리부(110)는 또한 캡처 된 이미지 전반에 걸쳐 일관되지 않은 정보(예, 차선을 변경하는 차량, 차량(200)과 너무 가까운 차량을 나타내는 차선 모델 등)를 제외시킬 수 있다. 따라서, 처리부(110)는 일관된 정보 및 일관되지 않은 정보의 판단에 근거하여 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보를 선택할 수 있다.In some embodiments, processing unit 110 may determine the extent to which information derived from one image source is consistent with information derived from another image source to determine the extent to which information derived from two of the plurality of first, second, and third images can choose For example, the processing unit 110 merges processing information derived from each of the image capture devices 122, 124, and 126 (monocular analysis, stereoscopic analysis, or a combination thereof) and captures the image capture devices 122, 124, and 126. Consistent visual indicators (eg, lane markings, detected vehicles and their locations and/or routes, detected traffic lights, etc.) may be determined from each captured image. Processing unit 110 may also exclude information that is inconsistent across captured images (eg, vehicles changing lanes, lane models indicating vehicles too close to vehicle 200 , etc.). Accordingly, processing unit 110 may select information derived from two of the plurality of first, second, and third images based on the determination of consistent information and inconsistent information.

주행 반응은, 예를 들면, 회전, 차선 변경, 가속도 변경 등을 포함할 수 있다. 처리부(110)는 단계 720에서 수행된 분석과 도 4를 참조하여 설명한 방법에 근거하여 하나 이상의 주행 반응을 발생시킬 수 있다. 처리부(110)는 또한 속도 및 가속 모듈(406)을 실행하여 도출한 데이터를 사용하여 하나 이상의 주행 반응을 발생시킬 수 있다. 일부 실시예에서, 처리부(110)는 차량(200)과 복수의 제1, 제2, 제3 이미지 중 어느 하나 내에서 검출된 물체 사이의 상대적 위치, 상대적 속도, 및/또는 상대적 가속도에 근거하여 하나 이상의 주행 반응을 발생시킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다.The driving response may include, for example, turning, changing lanes, changing acceleration, and the like. Processing unit 110 may generate one or more navigational responses based on the analysis performed at step 720 and the methods described with reference to FIG. 4 . Processing unit 110 may also use data derived from executing speed and acceleration module 406 to generate one or more navigational responses. In some embodiments, processing unit 110 may determine based on a relative position, relative speed, and/or relative acceleration between vehicle 200 and an object detected within any one of the plurality of first, second, and third images. One or more driving responses may be triggered. Multiple travel responses can occur simultaneously, sequentially, or a combination thereof.

캡처된 이미지 및/또는 히트맵을 분석함으로써 주차중인 차량과 이동중인 차량 모두의 특정 특성을 검출할 수 있다. 검출된 특성에 기반을 두어 주행 변경을 산출할 수 있다. 캡처 된 이미지 및/또는 히트맵의 하나 이상의 특정 분석에 기반을 두어 특정 특성을 검출하는 실시예는 하기에 도 8 내지 도 28을 참조하여 설명하기로 한다. By analyzing the captured images and/or heatmaps, certain characteristics of both parked and moving vehicles can be detected. Based on the detected characteristics, a driving change can be calculated. Embodiments for detecting specific characteristics based on one or more specific analyzes of captured images and/or heatmaps are described below with reference to FIGS. 8-28 .

[차량 도어 개방 이벤트 검출][Vehicle door open event detection]

예를 들면, 차량의 식별 후에 식별된 차량의 휠 요소(wheel component)를 식별함으로써 도어 개방 이벤트에 대한 타깃 모니터링(targeted monitoring)이 가능하다. 타깃 모니터링을 함으로써, 시스템은 기존의 동작 검출보다 짧은 반응 시간에 도어 개방 이벤트에 대한 식별 및 반응을 할 수 있다. 하기에 설명하는 본 기재의 실시예들은 타깃 모니터링을 활용하여 도어 개방 이벤트를 검출하는 시스템과 방법에 관한 것이다. For example, targeted monitoring of a door opening event is possible by identifying a wheel component of the identified vehicle after identification of the vehicle. By target monitoring, the system can identify and respond to door opening events with shorter reaction times than conventional motion detection. Embodiments of the present disclosure described below relate to systems and methods for detecting door opening events utilizing targeted monitoring.

도 8은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다. 8 is an exemplary configuration diagram of memories 140 and/or 150 in which instructions for performing one or more operations according to the disclosed embodiments may be stored/programmed. Although memory 140 is discussed below, those skilled in the art will recognize that instructions may be stored in memory 140 and/or 150 .

도 8에 도시된 바와 같이, 메모리(140)는 차량 측면 식별 모듈(802), 휠 식별 모듈(804), 도어 에지(door edge) 식별 모듈(806), 및 주행 반응 모듈(808)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(802-808)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 8 , the memory 140 may store a vehicle side identification module 802, a wheel identification module 804, a door edge identification module 806, and a driving response module 808. there is. The described embodiments are not limited to the particular configuration of memory 140. Additionally, application processor 180 and/or image processor 190 may execute instructions stored in one or more of modules 802 - 808 included in memory 140 . It will be understood by those skilled in the art that the following information described through the processing unit 110 may also apply to the application processor 180 and the image processor 190 individually or collectively. Accordingly, the steps of the process below may be performed by one or more processing units.

일 실시예에서, 차량 측면 식별 모듈(802)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 하기에 설명하겠지만, 차량 측면 식별 모듈(802)은 하나 이상의 차량의 측면을 표시하는 경계박스(bounding box)(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment, vehicle side identification module 802, when executed by processing unit 110, performs instructions (computer computer) to perform analysis of one or more images obtained by one of image capture devices 122, 124, 126. vision software, etc.) As described below with reference to FIGS. 9-14 , the vehicle side identification module 802 may include instructions for determining a bounding box representing one or more sides of the vehicle.

일 실시예에서, 휠 식별 모듈(804)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 하기에 설명하겠지만, 휠 식별 모듈(804)은 하나 이상의 차량의 휠을 표시하는 타원을 판단하기 위한 명령을 포함할 수 있다. In one embodiment, wheel identification module 804, when executed by processing unit 110, performs an analysis of one or more images obtained by one of image capture devices 122, 124, 126 (computer vision). software, etc.) As described below with reference to FIGS. 9-14 , the wheel identification module 804 may include instructions for determining an ellipse representing one or more vehicle wheels.

일 실시예에서, 도어 에지 식별 모듈(806)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 하기에 설명하겠지만, 도어 에지 식별 모듈(806)은 도어 에지의 출현을 식별하고 식별된 도어 에지의 움직임을 모니터하기 위한 명령을 포함할 수 있다. In one embodiment, door edge identification module 806, when executed by processing unit 110, performs instructions (computer vision software, etc.) As described below with reference to FIGS. 9-14 , the door edge identification module 806 can include instructions for identifying the appearance of a door edge and monitoring movement of the identified door edge.

일 실시예에서, 주행 반응 모듈(808)은 차량 측면 식별 모듈(802), 휠 식별 모듈(804), 및/또는 도어 에지 식별 모듈(806)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(808)은 하기에 설명하는 도 14의 방법(1400)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the navigation response module 808 determines the required navigation response based on data derived from executing the vehicle side identification module 802, wheel identification module 804, and/or door edge identification module 806. It may store software executable by the processing unit 110 to determine. For example, the navigation response module 808 can cause a navigation change according to the method 1400 of FIG. 14 described below.

나아가, 여기에 기재된 모듈(예, 802, 804, 806)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Furthermore, one or more of the modules (eg, 802, 804, 806) described herein may implement a learning system (eg, a neural network or a deep neural network) or a manner in conjunction with a non-learning system.

도 9는 기재된 실시예에 따른 호스트 차량에 포함된 시스템(예, 상기 설명한 시스템(100))의 시점에서 바라본 도로(902)의 개략도이다. 도 9에 도시된 바와 같이, 도로(902)에는 한 대 이상의 주차된 차량(예, 주차 차량(904) 또는 주차 차량(906))이 있을 수 있다. 9 is a schematic diagram of a road 902 viewed from the perspective of a system included in a host vehicle (eg, system 100 described above) according to the described embodiment. As shown in FIG. 9 , there may be one or more parked vehicles (eg, parked vehicle 904 or parked vehicle 906 ) on roadway 902 .

예를 들어, 시스템(100)은 서스펙트 패치(suspect patch)를 돌려주고 이 서스펙트 패치를 더욱더 복잡한 대량의 분류기에 공급하여 이 패치가 실제로 차량인지를 판단하는 어텐션 메커니즘(attention mechanism)을 활용하여 주차 차량을 검출할 수 있다. 어텐션 메커니즘과 분류기는 하기의 설명과 같이 진위(true and false) 패치에 대해 학습될 수 있다. For example, system 100 utilizes an attention mechanism to return a suspect patch and feed the suspect patch to a more complex bulk classifier to determine if the patch is actually a vehicle to park a vehicle. can be detected. Attention mechanisms and classifiers can be trained on true and false patches as described below.

예를 들면, 시스템(100)은 어텐션 메커니즘을 활용하여 주차 차량의 후위(예, 차량 후위(908, 910))를 검출할 수 있다. 검출된 차량 후위를 활용하여, 시스템(100)은 주차 차량의 측면(예, 차량 측면(912, 914))을 검출할 수 있다. 일단 검출이 된 차량 후위 및/또는 측면은 추적될 수 있다. For example, system 100 may utilize an attention mechanism to detect the rear of a parked vehicle (eg, vehicle rear 908, 910). Utilizing the detected vehicle rear, system 100 may detect the side of the parked vehicle (eg, vehicle sides 912 and 914 ). Once detected, the rear and/or side of the vehicle can be tracked.

도 9에 도시된 경계박스(bounding box)를 검출하기 위해, 시스템(100)은 이미지(예, 이미지캡처장치(122, 124, 126)의 하나로부터 수신한 이미지)를 하나 이상의 학습된 알고리즘으로 입력할 수 있다. 입력 이미지는 예를 들어 원본이 1280x9560인 그레이스케일(grayscale) 이미지일 수 있다. 학습된 알고리즘은 축척된(예, 256x192) 어텐션 이미지를 출력할 수 있다. 이 어텐션 이미지로부터 서스펙트 패치가 식별될 수 있고 서스펙트 패치의 (x, y) 포인트가 축척되어(예, 5에 의해) 원본 이미지 좌표상에 매핑될 수 있다. 학습된 알고리즘은 (x, y) 좌표를 사용하여 서스펙트 패치의 중앙을 정의할 수 있다. 서스펙트 패치는 (x, y) 좌표 영역 내에서, 예를 들어 각 방향으로 +/- 5 픽셀씩, 스캔 될 수 있다. 본 예에서, 이후, 각 서스펙트 패치는 총 11×11의 후보 패치를 생성한다. To detect the bounding box shown in FIG. 9, system 100 inputs an image (e.g., an image received from one of image capture devices 122, 124, 126) into one or more learned algorithms. can do. The input image may be, for example, a grayscale image whose original size is 1280x9560. The learned algorithm may output a scaled (eg, 256x192) attention image. From this attention image, a suspect patch can be identified and the (x, y) points of the suspect patch can be scaled (eg, by 5) and mapped onto the original image coordinates. The learned algorithm can use the (x, y) coordinates to define the center of the suspect patch. Suspect patches can be scanned within a region of (x, y) coordinates, eg +/- 5 pixels in each direction. In this example, each suspect patch then generates a total of 11×11 candidate patches.

나아가, 본 예에서, 각 후보 패치는 2R+1 크기의 정사각형이며, 여기서 R은 경계 타원의 반경이다. 예를 들어, 도 10에 도시된 바와 같이, 차량(예, 차량(1002))에는 중심(예, 중심(1006))을 가진 연관된 경계 타원(예, 타원(1004))이 있을 수 있다. Further, in this example, each candidate patch is a square of size 2R+1, where R is the radius of the bounding ellipse. For example, as shown in FIG. 10 , a vehicle (eg, vehicle 1002) may have an associated bounding ellipse (eg, ellipse 1004) with a center (eg, center 1006).

후보 패치는 기본 사이즈(예, 40x40)로 축척될 수 있고 하나 이상의 학습망, 예를 들어 하기에 설명하는 컨볼루션 신경망(convolutional neural network 또는 CNN)의 하나 이상으로의 입력으로 사용된다. 예를 들면, 하나 이상의 학습망은 각각 입력 패치에 점수를 매길 수 있다. 이 점수를 사용하여, 각 후보 패치에는 가장 높은 점수에 기반하여 라벨이 배정될 수 있다. (본 예에서, 반경 R과 원 좌표 (x, y)를 사용하여 후보 패치를 다시 원본 이미지에 매핑할 수 있다.)Candidate patches can be scaled to a basic size (eg, 40x40) and used as input to one or more learning networks, eg, one or more convolutional neural networks (CNNs) described below. For example, one or more learning networks may each score an input patch. Using this score, each candidate patch can be assigned a label based on the highest score. (In this example, the candidate patch can be mapped back to the original image using the radius R and the circular coordinates (x, y).)

이후, 임계치(미리 설정되거나 가변일 수 있고 학습을 통해 학습될 수 있음)보다 높은 최고 점수를 가진 각 후보 패치는 최종 분류기로 입력될 수 있다. 최종 분류기는 경계박스(bounding box) 하단에 있는 세 점의 (x, y) 좌표를 출력할 수 있다. 이 좌표는 적절한 인수를 곱하여 원본 이미지 좌표로 다시 축척될 수 있다. Thereafter, each candidate patch having a highest score higher than a threshold (which may be preset or variable and may be learned through learning) may be input to a final classifier. The final classifier can output the (x, y) coordinates of the three points at the bottom of the bounding box. These coordinates can be scaled back to the original image coordinates by multiplying by the appropriate factor.

앞서 설명한 예에서, 적절한 축척 인수는 (2R + 1) / 40일 수 있다. 축척 인수의 사용 외에도, 축척 좌표 (x, y)에 실제 위치 (x0, y0)가 더해질 수 있다. 고유의 라벨을 사용하여, 시스템은 세 (x, y) 좌표 중의 어느 두 좌표가 측면(나아가 어느 측면)에 속하고 세 (x, y) 좌표 중의 어느 두 좌표가 후위 또는 전면에 속하는지 판단할 수 있다. In the example described above, a suitable scale factor might be (2R + 1) / 40. In addition to using scale factors, the actual position (x 0 , y 0 ) can be added to the scale coordinates (x, y). Using unique labels, the system can determine which two of the three (x, y) coordinates belong to the side (and by extension which side) and which two of the three (x, y) coordinates belong to the posterior or anterior. can

당업자라면 본 예시적인 알고리즘에 대한 변형이 가능함을 인지할 것이다. 예를 들면, 축척된 어텐션 이미지의 사이즈는 다양할 수 있고, 서스펙트 패치의 이동은 다양할 수 있으며, 후보 패치의 사이즈는 다양할 수 있다. 추가적인 예로서, 경계박스(bounding box)의 상부 좌표도 산출될 수 있다. (이러한 예에서, 최종 분류기는 추가적인 세 점의 (x, y) 좌표를 출력할 수 있다.) 또한, 다른 알고리즘도 앞서 설명한 예시적인 알고리즘을 대신하여 또는 병합하여 가능하다. 예를 들면, 다른 알고리즘은 다른 및/또는 추가적인 분류기를 포함할 수 있다. Those skilled in the art will recognize that variations on this exemplary algorithm are possible. For example, the size of the scaled attention image may vary, the movement of the suspect patch may vary, and the size of the candidate patch may vary. As an additional example, the upper coordinates of the bounding box may also be calculated. (In this example, the final classifier may output the (x, y) coordinates of the additional three points.) Also, other algorithms are possible in place of or in combination with the example algorithms described above. For example, different algorithms may include different and/or additional classifiers.

앞서 설명한 바와 같이, 어텐션 메커니즘과 그 다음의 분류기는 학습될 수 있다. 예를 들면, 학습 메커니즘은 예를 들어 1280x960인 그레이 스케일 이미지일 수 있는 1백만 개 이상의 예시 이미지를 활용할 수 있다. 이러한 예시적인 학습 설정에서, 경계박스(bounding box)의 가시적 면은 좌측, 우측, 후위, 또는 전면으로 표시될 수 있다. 예를 들면, 각각 황색, 청색, 적색, 및 녹색으로 도시될 수 있다. 한 면이 부분적으로 가시적인 경우, 가려지지 않은 부분만 이미지 내에서 표시되고 데이터베이스 내에 부분적으로 가려짐이 기록될 수 있다. As described above, the attention mechanism and subsequent classifiers can be learned. For example, the learning mechanism may utilize more than one million example images, which may be gray scale images, for example 1280x960. In this exemplary learning setup, the visible side of the bounding box may be indicated as left, right, back, or front. For example, they may be shown as yellow, blue, red, and green, respectively. If one side is partially visible, only the unobscured portion is displayed in the image and the partially obscured can be recorded in the database.

본 학습 예에서, 각 경계박스(bounding box)에 대해, 시스템은 경계박스(bounding box)의 가장 멀리 떨어진 두 에지를 계산하고, 이 두 에지 사이에 중심이 위치하고 가장 먼 에지까지의 거리가 반경인 경계 타원을 구성할 수 있다. In this learning example, for each bounding box, the system calculates the two farthest edges of the bounding box, the center is between these two edges, and the distance to the farthest edge is the radius. Boundary ellipses can be constructed.

본 학습 예에서, 이후에 시스템은 전체로부터 256×192 이미지(즉, 5의 인수에 의해 축소)인 어텐션 이미지를 추출할 수 있다. 학습 이미지에 표시된 각 차량은 5로 나눈 타원의 중심의 좌표에 위치한 어텐션 이미지 내의 한 점으로 교체될 수 있고, 이 점의 값은 경계 타원의 반경일 수 있다. In this learning example, the system can then extract an attention image that is a 256×192 image (ie reduced by a factor of 5) from the whole. Each vehicle displayed in the training image may be replaced with a point in the attention image located at the coordinates of the center of the ellipse divided by 5, and the value of this point may be the radius of the boundary ellipse.

본 학습 예에서, 예시적인 이미지들은 CNN을 학습시키기 위해 사용될 수 있다. 당업자라면 CNN을 대신하여 또는 병합하여 다른 머신 학습 방법이 사용될 수 있음을 인지할 수 있을 것이다. 따라서 신경망은 원본 이미지를 약도화된(sparse) 저해상도 어텐션 이미지에 매핑할 수 있다. 이 방법은 장면 이해(예, 도로의 위치, 이미지 시점 등)를 차량으로 보이는 물체의 검출과 병합할 수 있다. 다른 설계적 선택도 가능하다. 예를 들면, 신경망은 차량이 예측되는 장소(예, 하늘이 아닌 장소)에서 차량을 검출하도록 설계된 필터 뱅크(filter bank)를 먼저 적용할 수 있다. In this training example, example images can be used to train a CNN. Those skilled in the art will appreciate that other machine learning methods may be used in place of or incorporating CNNs. Thus, the neural network can map the original image to a sparse, low-resolution attention image. This method can merge scene understanding (eg, location of the road, viewpoint of the image, etc.) with detection of objects that appear to be vehicles. Other design choices are also possible. For example, the neural network may first apply a filter bank designed to detect vehicles in locations where vehicles are predicted (eg, non-sky locations).

신경망은 각 가능 장면에 대해 점수를 매길 수 있는 제1 분류기로 서스펙트 패치를 전송할 수 있다. 예를 들면, 제1 분류기는 좌후(LeftRear), 좌전(LeftFront), 우후(RightRear), 우전(RightFront)의 4가지 주요 라벨 중에서 하나를 지정할 수 있다. 한 면만이 보이는 경우, 2가지 가능한 라벨 중의 하나는 임의로 지정될 수 있다. 각 주요 라벨은 더 나뉘어질 수 있다. 예를 들어, 각 주요 라벨은 패치에 "단(end)" 보다 "측(side)"이 더 많이 포함되는지 그 반대인지 더 나뉘어질 수 있다. 이러한 하위 분할은, 예를 들어, 표시된 측과 단면의 이미지 폭을 비교하여 수행될 수 있다. 폭이 동일한 경우, 하위 분할은 임의로 지정될 수 있다. The neural network may send the suspect patch to a first classifier that can score each possible scene. For example, the first classifier may designate one of four major labels: LeftRear, LeftFront, RightRear, and RightFront. If only one side is visible, one of the two possible labels can be arbitrarily assigned. Each major label can be further divided. For example, each major label could be further divided into whether a patch contains more "sides" than "ends" or vice versa. This sub-segmentation may be performed, for example, by comparing the image widths of the displayed side and cross-section. When the widths are the same, subdivisions can be arbitrarily designated.

다른 예를 들면, 각 하위 분할은 3개의 하위 하위분할로 더 나뉘어질 수 있다. 예를 들어, 좌후(LeftRear)의 "측(side)" 하위 분할은 3개의 하위 하위분할을 포함할 수 있다. "단(end)" 좌후10(LeftRear10)은 후면이 좌면 폭의 10% 이하인 패치를 나타낼 수 있고, "단(end)" 좌후50(LearRear50)은 후면이 10% 초과이고 50% 미만인 패치를 나타낼 수 있고, "단(end)" 좌후(LearRear)는 후면이 50% 초과인 패치를 나타낼 수 있다. For another example, each subdivision may be further divided into three subdivisions. For example, a "side" subdivision of LeftRear may include three subdivisions. An "end" LeftRear10 may represent a patch where the rear surface is less than 10% of the width of the left surface, and an "end" LeftRear50 may represent a patch where the rear surface is greater than 10% and less than 50%. , and the "end" LearRear may indicate a patch with a rear surface greater than 50%.

다른 예를 들면, 각 하위 하위분할은 적어도 한 면이 가려지는지에 대해 더 표시될 수 있다. 이 예에서, 하위 하위분할과 라벨의 총 조합은 48이다. 당업자라면 동일한 또는 다른 수의 총 조합의 다른 수단의 분할 및 라벨이 가능함을 인지할 수 있을 것이다. 예를 들어, "측" 좌후20(LeftRear20)은 좌면이 전체의 20% 미만인 패치를 나타낼 수 있고, "측" 좌후50(LeftRear50)은 좌면이 전체의 20% 내지 50%인 패치를 나타낼 수 있고, "측" 좌후80(LeftRear80)은 좌면이 전체의 50% 내지 80%인 패치를 나타낼 수 있고, "측" 좌후100(LeftRear100)은 좌면이 전체의 80% 내지 100%인 패치를 나타낼 수 있다. For another example, each sub-subdivision may further indicate whether at least one side is obscured. In this example, the total combination of lower subdivisions and labels is 48. One skilled in the art will appreciate that other means of partitioning and labeling of the same or different numbers of total combinations are possible. For example, "side" LeftRear20 may represent a patch in which the left surface is less than 20% of the total, "side" LeftRear50 may represent a patch in which the left surface is 20% to 50% of the total, , "side" LeftRear80 may represent a patch in which the left surface is 50% to 80% of the total, and "side" LeftRear100 may represent a patch in which the left surface is 80% to 100% of the total. .

다른 예를 들면, 4가지 주요 라벨은 2가지 주요 라벨, 즉, 측면이 각각 단면의 좌측 또는 우측 상에 보이는지 여부에 따라 '측/단' 또는 '단/측'으로 대체될 수 있다. 분할과 라벨의 선택은 사용 가능한 데이터의 양에 의거하며, 이는 하위 분할과 라벨의 수가 증가할수록 학습에 필요한 예시의 수가 증가하기 때문이다. For another example, the four main labels could be replaced with the two main labels, ie 'side/short' or 'short/side' depending on whether the side is viewed on the left or right side of the section, respectively. The choice of splits and labels depends on the amount of available data, since the number of examples required for training increases as the number of subdivisions and labels increases.

따라서 신경망은 원본 이미지 좌표로 다시 축척되고 x 및 y 방향으로 철저히 +/-5 픽셀 이동된 어텐션 지도 내의 한 점을 중심으로 위치한 패치를 제1 분류기로 입력할 수 있다. 이러한 이동은 121개의 이동된 예시를 생성한다. 당업자라면 이동된 예시를 생성하는 다른 수단이 가능함을 인지할 수 있을 것이다. 예를 들면, 패치는 x 및 y 방향으로 철저히 +/- 4 픽셀(또는 +/- 3 픽셀 등) 이동될 수 있다. Accordingly, the neural network may input a patch centered on a point in the attention map scaled back to the original image coordinates and shifted by +/-5 pixels in the x and y directions to the first classifier. This movement produces 121 moved instances. Those skilled in the art will appreciate that other means of creating a moved instance are possible. For example, a patch may be moved +/- 4 pixels (or +/- 3 pixels, etc.) thoroughly in the x and y directions.

본 예에서, 각 패치는 기본 사이즈(예, 40x40 픽셀)로 축척된 (2R + 1) x (2R + 1) 크기의 정사각형을 자르도록 경계 타원의 반경(R)을 활용하여 형성될 수 있다. 당업자라면 패치를 생성하는 다른 수단이 가능함을 인지할 수 있을 것이다. 예를 들어, (2R - 1) × (2R - 1) 크기의 정사각형을 자를 수 있다. 또 다른 예를 들면, 2R 대신에 하나 이상의 경계박스(bounding box) 길이가 사용될 수 있다. In this example, each patch may be formed by utilizing the radius R of the boundary ellipse to cut a square of size (2R + 1) x (2R + 1) scaled to a basic size (eg, 40x40 pixels). One skilled in the art will recognize that other means of creating a patch are possible. For example, you can cut a square of size (2R - 1) × (2R - 1). For another example, one or more bounding box lengths may be used instead of 2R.

신경망은 라벨이 지정된 각 패치를 최종 분류기로 입력할 수 있다. 최종 입력기는 경계박스(bounding box)의 하부를 정의하는 세 점 각각의, 라벨이 지정된 패치 내의, 위치 (x, y)를 출력할 수 있다. 출력된 (x, y) 좌표는 패치와 관련될 수 있다. 일부 실시예에서, 신경망은 하위 분할과 라벨의 각 조합에 대해 학습될 수 있다. 다른 실시예에서, 보다 적은 수의 신경망이 학습될 수 있다. The neural network can input each labeled patch into a final classifier. The final input could output the position (x, y), within the labeled patch, of each of the three points defining the bottom of the bounding box. The output (x, y) coordinates may be related to the patch. In some embodiments, a neural network may be trained for each combination of subdivisions and labels. In other embodiments, fewer neural networks may be trained.

식별된 차량으로부터 더 많은 특정 특징을 추출하기 위해 유사한 학습 방법을 활용하여 분류기를 학습시킬 수 있다. 예를 들면, 분류기는 휠, 타이어, 'A' 필라, 사이드 미러 등을 식별하도록 학습될 수 있다. 도 11의 예에서, 차량(1106)의 휠(1102, 1104)이 타원으로 표시됐다. 시스템은, 예를 들어, 경계박스(bounding box)를 기본 사이즈(예, 40 픽셀 길이와 20 픽셀 높이)로 축척하고 적절한 분류기에 입력함으로써 타원을 그릴 수 있다. A similar learning method can be used to train the classifier to extract more specific features from the identified vehicles. For example, the classifier can be trained to identify wheels, tires, 'A' pillars, side mirrors, and the like. In the example of FIG. 11 , wheels 1102 and 1104 of vehicle 1106 are represented by ovals. The system can draw an ellipse, for example, by scaling a bounding box to a default size (eg, 40 pixels long and 20 pixels high) and inputting it into an appropriate classifier.

휠의 식별에 기반하여, 시스템은 도어 개방 이벤트가 발생할 것으로 예측되는 식별된 차량 상의 하나 이상의 "핫스팟(hot spot)"을 판단할 수 있다. 예를 들면, 하나 이상의 핫스팟은 식별된 타이어 사이 및/또는 식별된 후륜 타이어 상부에 위치할 수 있다. 도 12a에 도시된 바와 같이, 하나 이상의 핫스팟은 차량(1204) 상의 수직 방향 줄무늬(1202)의 출현에 대해 관찰될 수 있다. 줄무늬(1202)의 출현은 도어 개방 이벤트의 시작을 의미할 수 있다. Based on the identification of the wheel, the system may determine one or more “hot spots” on the identified vehicle where a door opening event is predicted to occur. For example, one or more hotspots may be located between the identified tires and/or over the identified rear tires. As shown in FIG. 12A , one or more hotspots may be observed for the appearance of vertical stripes 1202 on vehicle 1204 . The appearance of the stripe 1202 may indicate the start of a door opening event.

일부 실시예에서, 시스템은 차량(1204) 상의 하나 이상의 특징을 기준점으로 사용하여 차량(1204)의 측면에 대한 줄무늬(1202) 에지의 움직임을 추적할 수 있다. 예를 들어, 하나 이상의 특징은 식별된 타이어 또는 차량(1204)의 전면 에지, 차량(1204)의 하나 이상의 후미등과 같은 기타 식별된 특징을 포함할 수 있다. In some embodiments, the system may track the movement of the edge of the stripes 1202 relative to the side of the vehicle 1204 using one or more features on the vehicle 1204 as reference points. For example, the one or more features may include an identified tire or other identified feature, such as a front edge of vehicle 1204, one or more tail lights of vehicle 1204.

도 12b에 도시된 바와 같이, 줄무늬(1202)는 차량(1204)의 도어가 개방되면서 확장될 수 있다. 줄무늬(1202)의 에지(1202a)는 차량(1204)의 차체를 따라 고정된 반면, 줄무늬(1202)의 에지(1202b)는 차량(1204)의 전면을 향해 움직이는 것으로 보일 수 있다. 따라서, 시스템은 줄무늬(1202)의 관찰에 기반하여 도어 개방 이벤트가 있음을 확인할 수 있다. As shown in FIG. 12B , stripes 1202 may expand as the doors of vehicle 1204 are opened. Edge 1202a of stripes 1202 can be seen stationary along the body of vehicle 1204, while edge 1202b of stripes 1202 is moving towards the front of vehicle 1204. Thus, the system can determine that there is a door open event based on observation of stripes 1202 .

도어 개방 이벤트의 존재에 근거하여, 호스트 차량은 주행 변경을 수행할 수 있다. 예를 들면, 도 13에 도시된 바와 같이, 호스트 차량의 요(yaw)(1301)가 변화했으며, 이는 호스트 차량이 도어 개방 이벤트로부터 멀어지고 있음을 의미한다. Based on the presence of a door open event, the host vehicle may perform a driving change. For example, as shown in FIG. 13 , the host vehicle's yaw 1301 has changed, meaning that the host vehicle is moving away from the door open event.

도 14는 기재된 실시예에 따른 도어 개방 이벤트의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(1400)을 도시한 순서도이다. 단계 1402에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 14 is a flowchart illustrating an exemplary process 1400 for inducing one or more navigational responses based on detection of a door opening event in accordance with the described embodiments. At step 1402 , processing unit 110 may receive at least one image of the environment of the host vehicle via data interface 128 . For example, a camera included in image acquisition unit 120 (eg, image capture device 122 , 124 , 126 having a field of view 202 , 204 , 206 ) may capture at least a portion of the front area and/or side of the host vehicle. One image may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.).

단계 1404에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 주차된 차량의 측면을 식별할 수 있다. 단계 1404는 적어도 하나의 경계박스(bounding box)를 주차된 차량의 측면의 형상과 연계하는 단계를 더 포함할 수 있다. 예를 들면, 상기 분석은 앞서 도 9와 도 10을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. At step 1404, processing unit 110 may analyze the at least one image to identify a side of the parked vehicle. Step 1404 may further include associating at least one bounding box with the shape of the side of the parked vehicle. For example, the analysis may be performed using the learning algorithm described above with reference to FIGS. 9 and 10 .

단계 1406에서, 처리부(110)는 주차된 차량의 구조적 특징을 식별할 수 있다. 일부 실시예에서, 처리부(110)는 주차된 차량의 측면의 전방 영역 내에서 주차된 차량의 제1 구조적 특징을 식별하고 주차된 차량의 측면의 후방 영역 내에서 주차된 차량의 제2 구조적 특징을 식별할 수 있다. 예를 들면, 구조적 특징은 휠 요소(wheel component)(예, 타이어, 휠 캡, 또는 휠 구조), 미러, 'A' 필라, 'B' 필라, 'C' 필라 등을 포함할 수 있다. 제1 및/또는 2 구조적 특징은 식별된 측면 부근의 영역 내에서 식별될 수 있다. 예를 들어, 상기 분석은 도 11을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. At step 1406, processing unit 110 may identify structural features of the parked vehicle. In some embodiments, processing unit 110 identifies a first structural feature of the parked vehicle within a forward region of the side of the parked vehicle and identifies a second structural feature of the parked vehicle within a rear region of the side of the parked vehicle. can be identified. For example, structural features may include wheel components (eg, tires, hubcaps, or wheel structures), mirrors, 'A' pillars, 'B' pillars, 'C' pillars, and the like. The first and/or second structural feature may be identified within an area proximate to the identified side surface. For example, the analysis may be performed using the learning algorithm described with reference to FIG. 11 .

단계 1408에서, 처리부(110)는 주차된 차량의 도어 에지를 식별할 수 있다. 도어 에지는 구조적 특징 주변의 영역 내에서 식별될 수 있다. 예를 들면, 처리부(110)가 앞바퀴의 휠 요소(wheel component)와 뒷바퀴의 휠 요소(wheel component)를 식별하는 실시예에서, 제1 휠과 제2 휠의 부근은 앞바퀴의 휠 요소(wheel component)와 뒷바퀴의 휠 요소(wheel component) 사이의 영역을 포함할 수 있다. 다른 예를 들면, 처리부(110)가 앞바퀴의 휠 요소(wheel component)와 뒷바퀴의 휠 요소(wheel component)를 식별하는 실시예에서, 제1 휠과 제2 휠의 부근은 뒷바퀴의 휠 요소(wheel component) 상부의 영역을 포함할 수 있다. 상기 분석은 도 12a를 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다.At step 1408, processing unit 110 may identify a door edge of a parked vehicle. A door edge can be identified within the area around the structural feature. For example, in an embodiment where processing unit 110 identifies a wheel component of a front wheel and a wheel component of a rear wheel, the vicinity of the first wheel and the second wheel is the wheel component of the front wheel. ) and the wheel component of the rear wheel. For another example, in an embodiment in which processing unit 110 identifies a wheel component of a front wheel and a wheel component of a rear wheel, the vicinity of the first wheel and the second wheel is the wheel component of the rear wheel. component) may include the upper region. The analysis may be performed using the learning algorithm described with reference to FIG. 12A.

단계 1410에서, 처리부(110)는 도어 에지의 이미지 특징의 변화를 판단할 수 있다. 예를 들면, 처리부(110)는 이미지캡처장치로부터 수신한 적어도 두 이미지에서 앞서 도 12b를 참조하여 설명한 바와 같이 제1 및 제2 휠 요소(wheel component)의 부근에서 수직 줄무늬가 보이는지 여부를 관찰할 수 있다. 본 예에서, 수직 줄무늬의 제1 에지는 주차된 차량의 차체를 따라 관찰된 이미지 내에서 고정되어 있고, 수직 줄무늬의 제2 에지는 관찰된 이미지 내에서 주차된 차량의 전방 영역을 향해 움직인다. 도어 에지가 보인 이후, 시간 경과에 따른 도어 에지의 폭(즉, 수직 줄무늬의 폭)을 추적할 수 있다. 일부 실시예에서, 도어 에지의 이미지 특징의 변화는 도어 에지의 폭 증가를 포함할 수 있다. 이러한 실시예에서, 도어 에지의 이미지 특징의 변화를 판단하는 단계는 수직 줄무늬의 확장을 관찰하는 단계를 포함할 수 있다. At step 1410, processing unit 110 may determine a change in image characteristics of the door edge. For example, the processing unit 110 may observe whether vertical stripes are visible in the vicinity of the first and second wheel components as described above with reference to FIG. 12B in at least two images received from the image capture device. can In this example, the first edge of the vertical stripe is stationary in the viewed image along the body of the parked vehicle, and the second edge of the vertical stripe moves towards the area in front of the parked vehicle in the observed image. After the door edge is viewed, the width of the door edge over time (ie, the width of the vertical stripes) can be tracked. In some embodiments, changing the image feature of the door edge may include increasing the width of the door edge. In such an embodiment, determining a change in the image feature of the door edge may include observing an extension of the vertical stripes.

일부 실시예에서, 처리부(110)는 도어 개방의 정도를 추정할 수 있다. 예를 들면, 처리부(110)는 고정된 에지의 세로줄을 경계박스(bounding box)와 교차하도록 연장하여 교차 지점의 y 좌표를 사용하여 도어까지의 거리를 추정할 수 있다. 본 예에서, 도어까지의 거리와 줄무늬의 폭을 활용하여 도어 개방의 정도를 추정할 수 있다. 이에 따라, 처리부(110)는 판단된 폭에 근거하여, 주차된 차량으로부터 도어 에지가 연장되어 멀어지는 거리를 판단할 수 있다. 이에 따라, 시간 경과에 따른 차량의 차체로부터의 도어 에지 분리(즉, 도어 개방의 정도)를 추적할 수 있다. In some embodiments, processing unit 110 may estimate the degree of door opening. For example, the processing unit 110 may extend the vertical line of the fixed edge to intersect the bounding box and estimate the distance to the door using the y coordinate of the intersection point. In this example, the degree of door opening can be estimated using the distance to the door and the width of the stripe. Accordingly, processing unit 110 may determine the distance the door edge extends away from the parked vehicle based on the determined width. Accordingly, it is possible to track the separation of the door edge from the body of the vehicle over time (ie, the degree of door opening).

단계 1412에서, 처리부(110)는 호스트 차량의 주행 경로를 변경할 수 있다. 예를 들어, 주행 반응은 회전(도 13에 도시), 차선 변경, 가속도 변경 등을 포함할 수 있다. 처리부(110)는 단계 1410에서 수행된 판단에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 호스트 차량을 도어 개방 이벤트로부터 이동 및/또는 도어 개방 이벤트에 대응하여 호스트 차량을 감속할 수 있다. 본 예에서, 처리부(110)는 주차된 차량으로부터 도어 에지가 연장되어 멀어지는 판단된 거리에 근거하여 호스트 차량에 대한 횡적 안전거리(lateral safety distance )를 판단하고, 호스트 차량의 주행 경로의 변경은 적어도 부분적으로는 판단된 횡적 안전거리(lateral safety distance )에 기반할 수 있다. 다른 예에서, 처리부(110)는 차량의 도어 개방과 관계된 일반적인 돌출 정도에 상응하는 값과 같은 미리 정의된 값에 기반하여 호스트 차량에 대한 횡적 안전거리(lateral safety distance )를 판단할 수 있다. 나아가, 다른 유형의 차량에 대해 다른 미리 정의된 값이 사용될 수 있고, 예를 들어, 트럭과 같은 다른 크기의 차량에 대해 작은 차량에 대해 사용되는 안전 거리값보다 큰 미리 정의된 안전 거리값이 사용될 수 있다. At step 1412, processing unit 110 may alter the driving route of the host vehicle. For example, the driving response may include a turn (shown in FIG. 13 ), a lane change, a change in acceleration, and the like. Processing unit 110 may trigger one or more navigational responses based on the determination made in step 1410 . For example, processing unit 110 may move the host vehicle away from the door open event and/or decelerate the host vehicle in response to the door open event. In this example, processing unit 110 determines a lateral safety distance to the host vehicle based on the determined distance the door edge extends away from the parked vehicle, and a change in the driving path of the host vehicle is at least It may be based in part on a judged lateral safety distance. In another example, processing unit 110 may determine a lateral safety distance relative to the host vehicle based on a predefined value, such as a value corresponding to a general overhang associated with opening a vehicle door. Furthermore, other predefined values may be used for different types of vehicles, eg, for vehicles of different sizes, such as trucks, a larger predefined safety distance value may be used than the safety distance value used for small vehicles. can

처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다. 예를 들어, 주행 반응은 학습 시스템에 의해 판단될 수 있다. 나아가, 학습 시스템은 수행을 최적화하는 동안에 특정 안전 제약을 절충하지 못하도록 구성될 수 있고, 학습 시스템은 주행 변경을 일으킴으로써 도어 개방 검출에 반응하도록 구성될 수 있다. 다른 예에서, (주차된 차량의) 도어 개방 이벤트가 검출되는 경우에 일련의 규칙을 활용하여 필요한 반응을 판단할 수 있다. Processing unit 110 may also utilize data derived from execution of speed and acceleration module 406 to generate one or more navigational responses. Multiple travel responses can occur simultaneously, sequentially, or a combination thereof. For example, driving response may be determined by a learning system. Furthermore, the learning system can be configured to not compromise certain safety constraints while optimizing performance, and the learning system can be configured to react to door open detection by causing a change in travel. In another example, when a door opening event (of a parked vehicle) is detected, a set of rules may be utilized to determine the required reaction.

[호스트 차량의 차선으로 진입하는 차량의 검출][Detection of Vehicle Entering Lane of Host Vehicle]

도로 호모그래피를 식별하고 차량의 휠 요소(wheel component)를 식별하는 시스템과 방법은 차량의 움직임에 대한 타깃 모니터링을 가능하게 할 수 있다. 타깃 모니터링을 함으로써, 시스템은 다른 차선으로부터 또는 주차된 위치로부터 호스트 차량의 차선으로 진입하는 동작에 대해 적어도 특정 상황 하에서는 기존의 동작 검출보다 짧은 반응 시간에 검출 및 반응할 수 있다. 하기에 설명하는 본 기재의 실시예들은 타깃 모니터링을 활용하여 호스트 차량의 차선으로 진입하는 차량을 검출하는 시스템 및 방법에 관한 것이다. Systems and methods for identifying road homography and identifying wheel components of a vehicle may enable targeted monitoring of vehicle motion. By target monitoring, the system can detect and react to motion entering the host vehicle's lane from another lane or from a parked location, at least under certain circumstances, with a shorter response time than conventional motion detection. Embodiments of the present disclosure described below relate to systems and methods for detecting vehicles entering a lane of a host vehicle utilizing target monitoring.

도 15는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다. 15 is an exemplary functional configuration diagram of memories 140 and/or 150 in which instructions for performing one or more operations according to the disclosed embodiments may be stored/programmed. Although memory 140 is discussed below, those skilled in the art will recognize that instructions may be stored in memory 140 and/or 150 .

도 15에 도시된 바와 같이, 메모리(140)는 도로 호모그래피 모듈(1502), 휠 식별 모듈(1504), 동작 분석 모듈(1506), 및 주행 반응 모듈(1508)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(1502-1508)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 15 , the memory 140 may store a road homography module 1502 , a wheel identification module 1504 , a motion analysis module 1506 , and a driving response module 1508 . The described embodiments are not limited to the particular configuration of memory 140. Additionally, applications processor 180 and/or image processor 190 may execute instructions stored in one or more of modules 1502-1508 included in memory 140. It will be understood by those skilled in the art that the following information described through the processing unit 110 may also apply to the application processor 180 and the image processor 190 individually or collectively. Accordingly, the steps of the process below may be performed by one or more processing units.

일 실시예에서, 도로 호모그래피 모듈(1502)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지 내의 도로의 호모그래피를 뒤트는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들면, 도로 호모그래피 모듈(1502)은 하기에 설명하는 도 18의 방법(1800)을 실행하기 위한 명령을 포함할 수 있다. In one embodiment, road homography module 1502, when executed by processing unit 110, distorts the homography of roads in one or more images obtained by one of image capture devices 122, 124, 126. Can store instructions (such as computer vision software). For example, road homography module 1502 can include instructions for executing method 1800 of FIG. 18 described below.

일 실시예에서, 휠 식별 모듈(1504)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 도 9 내지 도 14를 참조하여 상기에 설명한 바와 같이, 휠 식별 모듈(1504)은 하나 이상의 차량의 휠을 표시하는 타원을 판단하기 위한 명령을 포함할 수 있다.In one embodiment, wheel identification module 1504, when executed by processing unit 110, provides instructions (computer vision) to perform analysis of one or more images obtained by one of image capture devices 122, 124, 126. software, etc.) As described above with reference to FIGS. 9-14 , the wheel identification module 1504 may include instructions for determining an ellipse representing one or more vehicle wheels.

일 실시예에서, 동작 분석 모듈(1506)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지(및/또는 도로 호모그래피 모듈(1502)에 의해 처리된 하나 이상의 이미지)의 분석을 수행하여 하나 이상의 식별된 차량 요소의 동작을 추적하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들면, 휠 식별 모듈(1504)과 합동하여, 동작 분석 모듈(1506)은 차량의 식별된 휠 요소(wheel component)의 시간 경과에 따른 동작을 추적할 수 있다. In one embodiment, motion analysis module 1506, when executed by processing unit 110, may include one or more images obtained by one of image capture devices 122, 124, 126 (and/or road homography module ( 1502) to perform analysis of the one or more images processed by 1502 to track the motion of one or more identified vehicle elements (such as computer vision software). For example, in conjunction with wheel identification module 1504, motion analysis module 1506 can track motion over time of identified wheel components of the vehicle.

일 실시예에서, 주행 반응 모듈(1508)은 도로 호모그래피 모듈(1502), 휠 식별 모듈(1504), 및/또는 동작 분석 모듈(1506)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(1508)은 하기에 기재되는 도 17의 방법(1700)에 따라 주행 변경(navigational change)을 일으킬 수 있다. In one embodiment, the navigation response module 1508 determines the required navigation response based on data derived from executing the road homography module 1502, wheel identification module 1504, and/or motion analysis module 1506. To do so, software executable by the processing unit 110 may be stored. For example, the navigational response module 1508 can cause a navigational change according to the method 1700 of FIG. 17 described below.

나아가, 여기에 기재된 모듈(예, 1502, 1504, 1506)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Furthermore, one or more of the modules (eg, 1502, 1504, and 1506) described herein may implement a learning system (eg, a neural network or a deep neural network) or a method in conjunction with a non-learning system.

도 16a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량(1602)을 도시한 것이다. 도 16a의 예에서, 차량(1602)의 휠(1604, 1606)은 타원으로 표시돼 있다. 상기에 설명한 바와 같이, 시스템은, 예를 들어, 경계박스(bounding box)를 기본 사이즈(예, 40 픽셀 길이와 20 픽셀 높이)로 축척하고 적절한 분류기에 입력함으로써 타원을 그릴 수 있다. 16A shows a parked vehicle 1602 from the perspective of the system according to the disclosed embodiments. In the example of FIG. 16A , wheels 1604 and 1606 of vehicle 1602 are represented by ovals. As described above, the system can draw an ellipse, for example, by scaling a bounding box to a default size (eg, 40 pixels long and 20 pixels high) and inputting it into an appropriate classifier.

도 16b는 주차 상태(즉, 움직이지 않는 상태)로부터 움직이기 시작하는 차량(1602)을 도시한 것이다. 도 16b의 예에서, 차량(1602)의 휠(1604, 1606)은 차량(1602)이 움직이면서 회전하고 있다. 시스템은 하기에 설명하는 바와 같이 휠(1604, 1606)의 회전을 추적하여 차량(1602)이 움직임을 판단할 수 있다. 16B shows vehicle 1602 starting to move from a parked state (ie, a stationary state). In the example of FIG. 16B , wheels 1604 and 1606 of vehicle 1602 are rotating as vehicle 1602 is moving. The system can determine movement of vehicle 1602 by tracking rotation of wheels 1604 and 1606 as described below.

도 17은 기재된 실시예에 따른 호스트 차량의 차선으로 진입하는 타깃 차량의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(1700)을 도시한 순서도이다. 단계 1702에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 17 is a flowchart illustrating an exemplary process 1700 for invoking one or more navigational responses based on detection of a target vehicle entering the host vehicle's lane in accordance with the disclosed embodiments. At step 1702 , processing unit 110 may receive a plurality of images of the surrounding environment of the host vehicle via data interface 128 . For example, a camera included in image acquisition unit 120 (e.g., image capture devices 122, 124, 126 having fields of view 202, 204, 206) may be used to view multiple views of the front area and/or side of the host vehicle. An image of may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.).

복수의 이미지는 일정 시간에 걸쳐 수집될 수 있다. 예를 들면, 복수의 이미지는 t = 0인 시간에 캡처된 제1 이미지, t = 0.5초에 캡처된 제2 이미지, 및 t = 1.0초에 캡처 된 제3 이미지를 포함할 수 있다. 이미지 사이의 시간은 적어도 하나 이상의 이미지캡처장치의 주사율에 따라 다를 수 있다. A plurality of images may be collected over a period of time. For example, the plurality of images may include a first image captured at time t = 0, a second image captured at t = 0.5 second, and a third image captured at t = 1.0 second. The time between images may vary depending on the scan rate of at least one image capture device.

단계 1704에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 타깃 차량을 식별할 수 있다. 예를 들어, 타깃 차량을 식별하는 단계는 적어도 하나의 경계박스(bounding box)를 타깃 차량의 측면 형상과 연관시키는 단계를 더 포함할 수 있다. 예를 들면, 앞서 도 9 및 도 10을 참조하여 설명한 바와 같은 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. 일부 실시예에서, 단계 1704는 식별된 타깃 차량의 측면의 휠을 식별하는 단계를 더 포함할 수 있다. 예를 들어, 앞서 도 11을 참조하여 설명한 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. At step 1704, processing unit 110 may analyze the at least one image to identify a target vehicle. For example, identifying the target vehicle may further include associating at least one bounding box with the profile of the target vehicle. For example, the analysis may be performed using a learning algorithm as described above with reference to FIGS. 9 and 10 . In some embodiments, step 1704 may further include identifying wheels on the side of the identified target vehicle. For example, the analysis may be performed using the learning algorithm described above with reference to FIG. 11 .

단계 1704는 휠로만 한정되지 않고 휠 요소(wheel component)를 포함할 수도 있다. 예를 들어, 처리부(110)는 타이어, 휠 캡, 및 휠 구조의 적어도 하나를 포함하는 휠 요소(wheel component)를 식별할 수 있다. Step 1704 is not limited to wheels and may also include wheel components. For example, processing unit 110 may identify a wheel component that includes at least one of a tire, hubcap, and wheel structure.

단계 1706에서, 처리부(110)는 식별된 휠과 연관된 동작을 식별할 수 있다. 예를 들면, 처리부는 타깃 차량의 적어도 하나의 휠 요소(wheel component)를 포함하는 영역(예, 도로면과 인접한 영역) 내에서 동작을 식별할 수 있다. 복수의 이미지의 적어도 두 이미지를 모니터함으로써, 처리부는 적어도 하나의 휠 요소(wheel component)의 회전을 확인하여 움직임을 식별할 수 있다. At step 1706, processing unit 110 may identify an action associated with the identified wheel. For example, the processing unit may identify motion within an area containing at least one wheel component of the target vehicle (eg, an area adjacent to a road surface). By monitoring at least two images of the plurality of images, the processing unit may identify motion by ascertaining rotation of at least one wheel component.

다른 예를 들면, 처리부(110)는 적어도 하나의 휠 요소(wheel component)와 연관된 적어도 하나의 특징(예, 휠의 로고, 휠의 타이어 사이즈, 휠의 휠캡 사이즈, 픽셀의 특정 패치)을 식별할 수 있다. 이 적어도 하나의 특징을 활용하여, 처리부(110)는 이 적어도 하나의 특징의 위치 변경의 지시자(예, 로고의 흐릿해짐, 픽셀의 패치의 좌표 변화)를 식별할 수 있다. In another example, processing unit 110 may identify at least one feature associated with at least one wheel component (e.g., a logo of a wheel, a tire size of a wheel, a hubcap size of a wheel, a specific patch of pixels). can Utilizing this at least one feature, processing unit 110 may identify an indicator of a change in location of the at least one feature (eg, blurring of a logo, change in coordinates of a patch of pixels).

다른 예를 들면, 처리부(110)는 하기의 도 18의 방법(1800)을 참조하여 설명하는 바와 같이 도로의 호모그래피를 뒤틀고, 식별된 휠과 뒤틀린 도로 사이의 접점(정지 상태일 수 있음)을 식별하고, 접점 상부의 점을 추적하여 움직임을 식별할 수 있다. In another example, processing unit 110 may distort the homography of the road, as described with reference to method 1800 of FIG. 18 below, and the junction between the identified wheel and the twisted road (which may be stationary). , and the movement can be identified by tracking the point on the top of the contact point.

처리부(110)는 회전의 지시자, 적어도 하나의 특징의 위치 변경, 및/또는 추적된 점을 활용하여 타깃 차량이 이동하는 속도를 판단할 수 있다. 처리부(110)는 판단된 속도를 활용하여 하기의 단계 1708에서 주행 변경(navigational change) 을 일으킬 수 있다. 또한, 처리부(110)는 지평면 제약(ground plane constraint)을 활용하여 타이어까지의 거리를 추정하고, 추정된 거리에 기반하여 타깃 차량의 횡적 움직임을 추정할 수 있다. Processing unit 110 may utilize an indicator of rotation, a change in position of at least one feature, and/or a tracked point to determine the rate at which the target vehicle is moving. Processing unit 110 may utilize the determined speed to cause a navigational change in step 1708 below. Additionally, processing unit 110 may utilize ground plane constraints to estimate the distance to the tire and estimate the lateral motion of the target vehicle based on the estimated distance.

단계 1708에서, 처리부(110)는 호스트 차량의 주행 변경(navigational change) 을 일으킬 수 있다. 예를 들어, 주행 반응은 호스트 차량의 진행 방향의 변경(도 13에 도시), 차선 변경, 가속도 변경(예, 호스트 차량의 브레이크 작동) 등을 포함할 수 있다. 처리부(110)는 단계 1706에서 수행된 판단에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 타깃 차량의 움직임에 대응하여 호스트 차량을 타깃 차량으로부터 이동 및/또는 호스트 차량을 감속할 수 있다. 본 예에서, 처리부(110)는 타깃 차량의 판단된 속도(및/또는 추정된 횡적 움직임)에 근거하여 호스트 차량에 대한 횡적 안전거리(lateral safety distance )를 판단하고, 호스트 차량의 주행 경로의 변경은 적어도 부분적으로는 판단된 횡적 안전거리(lateral safety distance )에 기반할 수 있다. At step 1708, processing unit 110 may cause a navigational change of the host vehicle. For example, the driving response may include a change in driving direction of the host vehicle (shown in FIG. 13 ), a lane change, a change in acceleration (eg, braking of the host vehicle), and the like. Processing unit 110 may trigger one or more navigational responses based on the determination made in step 1706 . For example, processing unit 110 may move the host vehicle away from the target vehicle and/or decelerate the host vehicle in response to movement of the target vehicle. In this example, processing unit 110 determines a lateral safety distance to the host vehicle based on the determined speed (and/or estimated lateral movement) of the target vehicle, and changes in the driving path of the host vehicle. may be based, at least in part, on the determined lateral safety distance.

처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다. Processing unit 110 may also utilize data derived from execution of speed and acceleration module 406 to generate one or more navigational responses. Multiple travel responses can occur simultaneously, sequentially, or a combination thereof.

도 18은 기재된 실시예에 따른 도로의 호모그래피를 뒤트는 예시적인 과정(1800)을 도시한 순서도이다. 단계 1802에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 18 is a flow chart illustrating an exemplary process 1800 for twisting the homography of a road in accordance with a disclosed embodiment. At step 1802 , processing unit 110 may receive a plurality of images of the environment of the host vehicle via data interface 128 . For example, a camera included in image acquisition unit 120 (e.g., image capture devices 122, 124, 126 having fields of view 202, 204, 206) may be used to view multiple views of the front area and/or side of the host vehicle. An image of may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.).

복수의 이미지는 일정 시간에 걸쳐 수집될 수 있다. 예를 들면, 복수의 이미지는 t = 0인 시간에 캡처 된 제1 이미지 및 t = 0.5초에 캡처 된 제2 이미지를 포함할 수 있다. 이미지 사이의 시간은 적어도 하나 이상의 이미지캡처장치의 주사율에 따라 다를 수 있다. A plurality of images may be collected over a period of time. For example, the plurality of images may include a first image captured at time t = 0 and a second image captured at time t = 0.5 seconds. The time between images may vary depending on the scan rate of at least one image capture device.

단계 1804에서, 처리부(110)는 우선 복수의 이미지의 제1 이미지를 복수의 이미지의 제2 이미지를 향해 뒤틀 수 있다. 예를 들어, 호스트 차량의 요(yaw), 피치(pitch), 및 롤roll에 따라 제1 이미지와 제2 이미지 중 하나를 회전시킬 수 있다. At step 1804, processing unit 110 may first warp a first image of the plurality of images toward a second image of the plurality of images. For example, one of the first image and the second image may be rotated according to the yaw, pitch, and roll of the host vehicle.

단계 1806에서, 처리부(110)는 제1 이미지 또는 제2 이미지 내의 포인트의 그리드(grid)를 기준 포인트의 그리드로 선택할 수 있다. 예를 들면, 그리드는 타원, 사각형, 사다리꼴 등의 모든 형상으로부터 형성될 수 있다. 또는, 포인트의 무작위 분포가 선택될 수 있다. At step 1806, processing unit 110 may select a grid of points in either the first image or the second image as a grid of reference points. For example, the grid can be formed from any shape such as an ellipse, rectangle, trapezoid, and the like. Alternatively, a random distribution of points may be chosen.

단계 1808에서, 처리부(110)는 선택된 그리드 주변의 패치들을 찾아낼 수 있다. 예를 들면, 패치들은 균일한 크기와 형상일 수 있다. 또는, 패치들은 다양할 수 있고/있거나 무작위로 다양할 수 있다. At step 1808, processing unit 110 may find patches around the selected grid. For example, the patches may be of uniform size and shape. Alternatively, the patches may vary and/or may vary randomly.

단계 1810에서, 처리부(110)는, 예를 들어 패치들에 근거한 정규화된 상관도 계산(normalized correlation computations)를 활용하여, 선택된 포인트 그리드를 추적할 수 있다. 추적된 포인트로부터, 처리부(110)는 추적에 근거한 최고 점수를 가진 포인트의 부분집합을 선택할 수 있다. At step 1810, processing unit 110 may track the selected grid of points, for example utilizing normalized correlation computations based on patches. From the tracked points, processing unit 110 may select a subset of points with the highest score based on tracking.

단계 1812에서, 처리부(110)는 추적된 포인트를 호모그래피에 맞출 수 있다. 일부 실시예에서, 처리부(110)는 추적된 포인트의 무작위 부분집합을 활용하여 다중 호모그래피를 계산할 수 있다. 이러한 실시예에서, 처리부(110)는 최고 점수의 호모그래피를 가진 무작위 부분집합을 유지할 수 있다. At step 1812, processing unit 110 may fit the tracked points to the homography. In some embodiments, processing unit 110 may utilize a random subset of tracked points to compute multiple homographies. In such an embodiment, processing unit 110 may maintain a random subset with the highest scoring homography.

단계 1814에서, 처리부(110)는 단계 1812의 호모그래피를 활용하여 초기의 뒤틀림을 수정할 수 있다. 예를 들어, 처리부(110)는 복수의 이미지의 제1 이미지를 복수의 이미지의 제2 이미지를 향해 다시 뒤틀기 위해 최고 점수의 호모그래피를 가진 포인트의 무작위 부분집합을 활용할 수 있다. 처리부(110)는 재 뒤틀림 된 이미지로부터 직접 최소 제곱 호모그래피를 더 계산할 수 있다. 당업자라면 도로 호모그래피를 계산하기 위한 다른 알고리즘을 사용할 수도 있음을 인지할 수 있을 것이다. At step 1814, processing unit 110 may utilize the homography of step 1812 to correct the initial distortion. For example, processing unit 110 may utilize a random subset of points with the highest scoring homography to warp a first image of the plurality of images back toward a second image of the plurality of images. Processing unit 110 may further compute the least squares homography directly from the re-distorted image. Those skilled in the art will appreciate that other algorithms for calculating road homography may be used.

[주차 차량의 방향에 기반을 둔 일방통행 도로 검출][One-way road detection based on direction of parked vehicle]

차량을 식별하고 식별된 차량의 전면 및/또는 후면을 식별하는 시스템과 방법은 일방통행 도로의 검출을 가능하게 할 수 있다. 차량의 식별된 전면 및/또는 후면을 활용함으로써, 표지판을 해석하지 않고도 또는 도로상에 운행중인 차량이 없는 경우에도 일방통행 도로를 검출할 수 있다. 하기에 설명하는 본 기재의 실시예들은 주차된 차량의 검출에 기반하여 일방통행 도로를 검출하기 위한 시스템 및 방법에 관한 것이다. Systems and methods for identifying a vehicle and identifying the front and/or rear of the identified vehicle may enable detection of one-way roads. By utilizing the identified front and/or rear of the vehicle, one-way roads can be detected without interpreting signs or even when there are no vehicles running on the road. Embodiments of the present disclosure described below relate to systems and methods for detecting a one-way road based on detection of a parked vehicle.

도 19는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다.19 is an exemplary functional configuration diagram of memories 140 and/or 150 in which instructions for performing one or more operations according to the disclosed embodiments may be stored/programmed. Although memory 140 is discussed below, those skilled in the art will recognize that instructions may be stored in memory 140 and/or 150 .

도 19에 도시된 바와 같이, 메모리(140)는 차량 식별 모듈(1902), 방향 판단 모듈(1904), 차량 측면 식별 모듈(1906) 및 주행 반응 모듈(1908)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(1902-1908)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 19 , the memory 140 may store a vehicle identification module 1902 , a direction determination module 1904 , a vehicle side identification module 1906 , and a driving response module 1908 . The described embodiments are not limited to the particular configuration of memory 140. Additionally, applications processor 180 and/or image processor 190 may execute instructions stored in one or more of modules 1902-1908 included in memory 140. It will be understood by those skilled in the art that the following information described through the processing unit 110 may also apply to the application processor 180 and the image processor 190 individually or collectively. Accordingly, the steps of the process below may be performed by one or more processing units.

일 실시예에서, 차량 식별 모듈(1902)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 식별 모듈(1902)은 한 대 이상의 차량의 경계박스(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment, the vehicle identification module 1902 includes instructions (computer vision) that, when executed by processing unit 110, perform analysis of one or more images obtained by one of image capture devices 122, 124, 126. software, etc.) As described in connection with FIGS. 9-14 above, the vehicle identification module 1902 may include instructions for determining the bounding boxes of one or more vehicles.

일 실시예에서, 방향 판단 모듈(1904)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 하기의 도 20a 및 도 20b와 연관하여 설명하는 바와 같이, 방향 판단 모듈(1904)은 식별된 차량의 전방 방향을 판단하기 위한 명령을 포함할 수 있다. In one embodiment, orientation determination module 1904, when executed by processing unit 110, provides instructions (computer vision) to perform an analysis of one or more images obtained by one of image capture devices 122, 124, 126. software, etc.) As described in connection with FIGS. 20A and 20B below, the direction determination module 1904 may include instructions for determining the forward direction of the identified vehicle.

예를 들면, 전방 방향은 평행 주차되어 있는 식별된 차량이 호스트 차량의 전방이 호스트 차량을 향하고 있는지 여부를 가리킬 수 있다. 다른 예를 들면, 전방 방향 또는 "비스듬한 방향"은 비스듬한 주차 자리에 주차된 식별된 차량이 호스트 차량을 향해 비스듬한지 여부를 가리킬 수 있다. 이러한 예에서, 전방 방향은 식별된 차량이 비스듬한 주차 자리에 전방 주차를 했는지 또는 후방 주차를 했는지를 더 가리킬 수 있다. For example, the forward direction may indicate whether the identified vehicle that is parallel parked is facing the host vehicle with the front of the host vehicle. For another example, a forward direction or "oblique direction" may indicate whether an identified vehicle parked in an angled parking spot is angled towards the host vehicle. In this example, the forward direction may further indicate whether the identified vehicle was front parked or rear parked in an oblique parking spot.

일 실시예에서, 차량 측면 식별 모듈(1906)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 측면 식별 모듈(1906)은 한 대 이상의 차량의 식별된 경계박스(bounding box)를 분류하기 위한 명령을 포함할 수 있다. In one embodiment, vehicle side identification module 1906, when executed by processing unit 110, provides instructions (computer vision software, etc.) As described in connection with FIGS. 9-14 above, the vehicle side identification module 1906 may include instructions for classifying the identified bounding boxes of one or more vehicles.

일 실시예에서, 주행 반응 모듈(1908)은 차량 식별 모듈(1902), 방향 판단 모듈(1904), 및/또는 차량 측면 식별 모듈(1906)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(1908)은 하기에 기재되는 도 21의 방법(2100)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the navigation response module 1908 determines the required navigation response based on data derived from executing vehicle identification module 1902, direction determination module 1904, and/or vehicle side identification module 1906. To do so, software executable by the processing unit 110 may be stored. For example, the navigation response module 1908 can cause a navigation change according to the method 2100 of FIG. 21 described below.

나아가, 여기에 기재된 모듈(예, 1902, 1904, 1906)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Further, one or more of the modules (eg, 1902, 1904, 1906) described herein may implement a learning system (eg, a neural network or a deep neural network) or a manner in conjunction with a non-learning system.

도 20a는 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로(2002)를 도시한 것이다. 도로(2002)는 일측에 제1 복수의 정지된 차량(예, 제1 차량(2004))을 포함할 수 있고, 타측에 제2 복수의 정지된 차량(예, 제2 차량(2006))을 포함할 수 있다. 하기에 도 21의 방법(2100)에서 설명하는 바와 같이, 시스템은 제1 복수의 정지된 차량에서 차량의 전방 방향을 판단하고 제2 복수의 정지된 차량에서 차량의 전방 방향을 판단할 수 있다. 20A illustrates a one-way road 2002 from the perspective of the system according to the disclosed embodiments. Road 2002 can include a first plurality of stationary vehicles on one side (eg, first vehicle 2004) and a second plurality of stationary vehicles (eg, second vehicle 2006) on the other side. can include As described below in method 2100 of FIG. 21 , the system may determine forward directions of vehicles in a first plurality of stationary vehicles and determine forward directions of vehicles in a second plurality of stationary vehicles.

도 20a에 도시된 바와 같이, 시스템은 제1 복수의 정지된 차량과 제2 복수의 정지된 차량의 전방 방향이 모두 동일한 경우에 도로(2002)가 일방통행 도로라고 판단할 수 있다. 도로(2002)의 일측이 평행 주차 방식이 아닌 비스듬한 주차 방식인 다른 실시예에서, 시스템은 평행 주차 측의 전방 방향이 비스듬한 주차 측의 비스듬한 방향과 동일한 경우에 도로(2002)가 일방통행 도로라고 판단할 수 있다. 도로(2002)의 양측이 비스듬한 주차 방식인 또 다른 실시예에서, 시스템은 제1 복수의 정지된 차량과 제2 복수의 정지된 차량의 비스듬한 방향이 모두 동일한 경우에 도로(2002)가 일방통행 도로라고 판단할 수 있다. 특정 양상에서, 이러한 판단은 제1 및/또는 제2 복수의 정지된 차량의 비스듬한 주차 자리에 전방 주차를 했는지 또는 후방 주차를 했는지에 따라 다를 수 있다. As shown in FIG. 20A , the system may determine that road 2002 is a one-way road if the forward directions of the first plurality of stopped vehicles and the second plurality of stopped vehicles are both the same. In another embodiment where one side of road 2002 is skewed parking rather than parallel parking, the system determines that road 2002 is a one-way street if the forward direction of the parallel parking side is the same as the skewed direction of the oblique parking side. can do. In another embodiment where both sides of the road 2002 are skewed parking, the system determines that the road 2002 is a one-way road if the first plurality of stationary vehicles and the second plurality of stationary vehicles both have the same slope direction. can be judged. In certain aspects, this determination may be different depending on whether the first and/or second plurality of stationary vehicles are front parked or rear parked in an oblique parking spot.

도 20b도 기재된 실시예에 따른 시스템의 시점에서 바라본 일방통행 도로(2008)를 도시한 것이다. 도로(2002)와 유사하게, 도로(2002)는 일측에 제1 복수의 정지된 차량(예, 제1 차량(2010))을 포함할 수 있고, 타측에 제2 복수의 정지된 차량(예, 제2 차량(2012))을 포함할 수 있다. 하기에 도 21의 방법(2100)과 관련하여 설명하는 바와 같이, 시스템은 제1 복수의 정지된 차량에서 차량의 전방 방향을 판단하고 제2 복수의 정지된 차량에서 차량의 전방 방향을 판단할 수 있다. 20B also shows a one-way road 2008 from the perspective of the system according to the described embodiment. Similar to road 2002, road 2002 can include a first plurality of stationary vehicles (eg, first vehicle 2010) on one side and a second plurality of stationary vehicles (eg, first vehicle 2010) on the other side. A second vehicle 2012). As described below with respect to method 2100 of FIG. 21 , the system may determine forward directions of vehicles in a first plurality of stationary vehicles and determine forward directions of vehicles in a second plurality of stationary vehicles. there is.

도 20b에 도시된 바와 같이, 시스템은 차량(예, 2010)의 전방 방향이 관련된 복수의 차량의 전방 방향과 다른 경우에 상기 차량이 잘못 주차돼 있다고 판단할 수 있다. 예를 들면, 다른 방향으로 향하고 있는 다른 차량의 수가 임계값 이상인 경우에 차량이 잘못 주차돼 있다고 판단할 수 있다. 다른 예를 들면, 시스템은 다른 방향으로 향하고 있는 다른 차량과 동일 방향으로 향하고 있는 차량의 비율이 임계값 이상인 경우에(예, 50% 이상, 60% 이상, 70% 이상 등) 차량이 잘못 주차돼 있다고 판단할 수 있다. 일부 실시예에서, 이러한 판단은 차량(2010)의 소유주 또는 운전자에게 교통위반딱지를 발급(또는 호스트 차량의 운전자에게 교통위반딱지를 발급하도록 명령)하는데 활용될 수 있다. As shown in FIG. 20B , the system may determine that a vehicle (eg, 2010) is incorrectly parked if the forward direction of the vehicle (eg, 2010) is different from that of the plurality of associated vehicles. For example, a vehicle may be determined to be incorrectly parked if the number of other vehicles heading in the other direction is greater than a threshold value. As another example, the system may determine that a vehicle is incorrectly parked if the ratio of vehicles heading in the same direction to other vehicles heading in a different direction is above a threshold (e.g., greater than 50%, greater than 60%, greater than 70%, etc.). It can be judged that there is In some embodiments, this determination may be utilized to issue a traffic ticket to the owner or driver of vehicle 2010 (or to command the driver of the host vehicle to issue a traffic ticket).

도 21은 기재된 실시예에 따른 호스트 차량이 운행하는 도로가 일방통행 도로인지 여부의 검출에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 과정(2100)을 도시한 순서도이다. 단계 2102에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 21 is a flow chart illustrating an exemplary process 2100 for invoking one or more navigational responses based on detecting whether the road the host vehicle is driving on is a one-way road in accordance with the described embodiments. At step 2102 , processing unit 110 may receive at least one image of the environment of the host vehicle via data interface 128 . For example, a camera included in image acquisition unit 120 (eg, image capture device 122 , 124 , 126 having a field of view 202 , 204 , 206 ) may capture at least a portion of the front area and/or side of the host vehicle. One image may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.).

단계 2104에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 도로의 일측의 제1 복수의 차량을 식별할 수 있다. 예를 들어, 제1 복수의 차량을 식별하는 단계는 경계박스(bounding box)를 제1 복수의 차량의 형상과 연계하는 단계를 더 포함할 수 있다. 예를 들면, 상기 분석은 앞서 도 9와 도 10을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. At step 2104, processing unit 110 may analyze the at least one image to identify a first plurality of vehicles on a side of the road. For example, identifying the first plurality of vehicles may further include associating a bounding box with a shape of the first plurality of vehicles. For example, the analysis may be performed using the learning algorithm described above with reference to FIGS. 9 and 10 .

단계 2104는 적어도 하나의 이미지의 분석에 기반하여 제1 복수의 차량의 적어도 한 대 또는 제2 복수의 차량의 적어도 한 대의 측면을 식별하는 단계를 더 포함할 수 있다. 예를 들어, 상기 분석은 앞서 도 9와 도 10을 참조하여 설명한 학습 알고리즘을 활용하여 수행될 수 있다. 일부 실시예에서, 측면의 식별은 제1 복수의 차량의 적어도 하나 또는 제2 복수의 차량의 적어도 하나와 연관된 적어도 두 개의 특징에 기반을 둘 수 있다. 예를 들면, 차량과 연관된 특징은 미러, 윈도우, 도어 손잡이, 도어 형상, 도어의 수, 전면 및/또는 후면 유리의 경사 등을 포함할 수 있다. 일부 실시예에서, 식별된 측면은 우측일 수 있다. 다른 실시예에서, 식별된 측면은 좌측일 수 있다. Step 2104 may further include identifying a side of at least one vehicle of the first plurality or at least one vehicle of the second plurality based on the analysis of the at least one image. For example, the analysis may be performed using the learning algorithm described above with reference to FIGS. 9 and 10 . In some embodiments, identification of the aspect may be based on at least two characteristics associated with at least one of the first plurality of vehicles or at least one of the second plurality of vehicles. For example, features associated with a vehicle may include mirrors, windows, door handles, door shape, number of doors, slope of front and/or rear glass, and the like. In some embodiments, the identified side may be the right side. In another embodiment, the side identified may be the left side.

단계 2106에서, 처리부(110)는 적어도 하나의 이미지를 분석하여 도로의 다른 측의 제2 복수의 차량을 식별할 수 있다. 단계 2106은 단계 2104와 유사하게 및/또는 동시에 수행될 수 있다. 단계 2108에서, 처리부(110)는 제1 복수의 차량에 대한 제1 전방 방향을 판단할 수 있다. 일부 실시예에서, 제1 복수의 차량은 모두 동일한 전방 방향일 수 있다. 다른 실시예에서, 전방 방향은 서로 다를 수 있다. At step 2106, processing unit 110 may analyze the at least one image to identify a second plurality of vehicles on the other side of the road. Step 2106 may be performed similarly to and/or concurrently with step 2104. At step 2108, processing unit 110 may determine a first forward direction for a first plurality of vehicles. In some embodiments, the first plurality of vehicles may all be in the same forward direction. In other embodiments, the forward direction may be different.

단계 2110에서, 처리부(110)는 제2 복수의 차량에 대한 제2 전방 방향을 판단할 수 있다. 일부 실시예에서, 제2 복수의 차량은 모두 동일한 전방 방향일 수 있다. 다른 실시예에서, 전방 방향은 서로 다를 수 있다.At step 2110, processing unit 110 may determine a second forward direction for a second plurality of vehicles. In some embodiments, the second plurality of vehicles may all be in the same forward direction. In other embodiments, the forward direction may be different.

단계 2112에서, 처리부(110)는 호스트 차량의 주행 변경을 일으킬 수 있다. 예를 들어, 주행 반응은 회전(도 13에 도시), 차선 변경, 가속도 변경(예, 호스트 차량의 브레이크 작동) 등을 포함할 수 있다. 처리부(110)는 단계 2112에서 수행된 판단에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 제1 및 제2 전방 방향에 근거하여 도로가 일방통행도로임을 판단할 수 있다. 이러한 판단에 기반하여, 처리부는 호스트 차량의 감속 또는 정지 및/또는 유턴을 실행할 수 있다.At step 2112, processing unit 110 may cause a change in driving of the host vehicle. For example, the driving response may include a turn (shown in FIG. 13 ), a lane change, a change in acceleration (eg, application of the host vehicle's brakes), and the like. Processing unit 110 may trigger one or more navigational responses based on the determination made in step 2112 . For example, processing unit 110 may determine that the road is a one-way road based on the first and second forward directions. Based on this determination, the processing unit may effect a deceleration or stop of the host vehicle and/or a U-turn.

일부 실시예에서, 방법(2100)은 추가적인 단계를 포함할 수 있다. 예를 들어, 방법(2100)은 호스트 차량이 운행중인 제1 도로로부터 제2도로로 호스트 차량을 주행하도록 하는 주행 명령을 수신하는 단계를 포함할 수 있다. 주행 명령은 호스트 차량을 제2도로로 회전, 제2도로로 방향을 전환, 제2도로로 진입하는 램프로 병합 등을 하도록 하는 명령을 포함할 수 있다. In some embodiments, method 2100 may include additional steps. For example, method 2100 may include receiving a drive command to cause the host vehicle to drive from a first road on which the host vehicle is traveling to a second road. The driving command may include a command to turn the host vehicle onto the second road, change direction to the second road, merge into a ramp entering the second road, and the like.

이러한 실시예에서, 방법(2100)은 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량이 제2도로로 회전할 경우에 호스트 차량이 운행하게 될 진행 방향과 반대 방향임을 판단하는 단계를 더 포함할 수 있다. 예를 들어, 처리부(110)는 제2도로 상의 차량의 이미지를 분석하여 제1 및 제2 진행 방향을 판단한 후, 호스트 차량의 예상 진행 방향과 반대 방향인지 여부를 판단할 수 있다. 제1 전방 방향과 제2 전방 방향이 모두 호스트 차량이 제2도로로 회전할 경우에 호스트 차량이 운행하게 될 진행 방향과 반대 방향이라는 판단에 대하여, 주행 명령을 중단할 수 있다. 예를 들어, 처리부(110)는 제2 도로가 호스트 차량의 예상 진행 방향과 반대 방향인 일방통행도로라고 판단하였으므로 제2 도로로의 회전, 전환, 병합 등의 명령을 취소할 수 있다. In this embodiment, the method 2100 may further include determining that both the first forward direction and the second forward direction are opposite to the traveling direction the host vehicle will travel when the host vehicle turns onto the second road. can For example, processing unit 110 may analyze the image of the vehicle on the second road to determine the first and second traveling directions, and then determine whether the direction is opposite to the expected traveling direction of the host vehicle. When it is determined that both the first forward direction and the second forward direction are opposite to the driving direction in which the host vehicle will travel when the host vehicle turns onto the second road, the driving command may be stopped. For example, since processing unit 110 determines that the second road is a one-way road in the opposite direction to the expected direction of travel of the host vehicle, processing unit 110 may cancel the command to turn, switch, merge, etc. to the second road.

다른 실시예에서, 방법(2100)은 중단된 주행 명령을 재개하는 무시 명령(override instruction)을 수신하는 단계를 포함할 수 있다. 예를 들면, 무시 명령(override instruction)은 호스트 차량 내부의 사용자로부터 수신된 수동 확인, 지도 데이터에 접근, 제2도로의 운행 방향에 관한 크라우드 소싱된 데이터(crowdsourced data) 등에 기반하여 개시될 수 있다. In another embodiment, method 2100 may include receiving an override instruction to resume an aborted drive instruction. For example, an override instruction may be initiated based on manual confirmation received from a user inside the host vehicle, access to map data, crowdsourced data regarding the direction of travel on a second road, etc. .

처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다. Processing unit 110 may also utilize data derived from execution of speed and acceleration module 406 to generate one or more navigational responses. Multiple travel responses can occur simultaneously, sequentially, or a combination thereof.

[열 프로파일에 기반을 둔 주차 차량의 상태 예측][Status prediction of parked vehicle based on thermal profile]

열 프로파일(heat profile)에 기반하여 주차 차량의 상태를 예측하는 시스템과 방법은 주차 차량이 움직이기 시작하기 전에 차량의 움직임의 예측을 가능하게 한다. 이로 인해, 시스템은 기존의 동작 검출과 같이 동작이 실제로 검출될 때까지 기다리지 않고, 예측된 움직임을 식별하고 사전에 대응할 수 있다. 하기에 설명하는 본 기재의 실시예들은 열 프로파일에 기반하여 주차 차량의 상태를 예측하기 위한 시스템 및 방법에 관한 것이다.A system and method for predicting the state of a parked vehicle based on its heat profile enables prediction of vehicle motion before the parked vehicle begins to move. This allows the system to identify predicted motion and proactively respond to it, rather than waiting for motion to actually be detected as in conventional motion detection. Embodiments of the present disclosure described below relate to systems and methods for predicting the condition of a parked vehicle based on a thermal profile.

도 22는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다. 22 is an exemplary functional configuration diagram of memories 140 and/or 150 in which instructions for performing one or more operations according to the disclosed embodiments may be stored/programmed. Although memory 140 is discussed below, those skilled in the art will recognize that instructions may be stored in memory 140 and/or 150 .

도 22에 도시된 바와 같이, 메모리(140)는 시각적-적외선 정렬 모듈(2202), 차량 식별 모듈(2204), 상태 예측 모듈(2206), 및 주행 반응 모듈(2208)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서 (190)는 메모리(140)에 포함된 모듈(2202-2208)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다. As shown in FIG. 22 , the memory 140 may store a visual-infrared alignment module 2202, a vehicle identification module 2204, a state prediction module 2206, and a driving response module 2208. The described embodiments are not limited to the particular configuration of memory 140. Additionally, applications processor 180 and/or image processor 190 may execute instructions stored in one or more of modules 2202-2208 included in memory 140. It will be understood by those skilled in the art that the following information described through the processing unit 110 may also apply to the application processor 180 and the image processor 190 individually or collectively. Accordingly, the steps of the process below may be performed by one or more processing units.

일 실시예에서, 시각적-적외선 정렬 모듈(2202)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 시각적 이미지를 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 적외선 이미지와 정렬하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들어, 시각적-적외선 정렬 모듈(2202)은 하기에 설명하는 도 25의 방법(2500)을 실행하기 위한 명령을 포함할 수 있다. In one embodiment, the visual to infrared alignment module 2202, when executed by processing unit 110, converts one or more visual images obtained by one of image capture devices 122, 124, 126 to image capture device 122. , 124, 126) may store instructions (such as computer vision software) for aligning with one or more infrared images acquired by one of them. For example, the visual to infrared alignment module 2202 can include instructions for executing the method 2500 of FIG. 25 described below.

일 실시예에서, 차량 식별 모듈(2204)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 식별 모듈(2204)은 한 대 이상의 차량의 경계박스(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment, vehicle identification module 2204 provides instructions (computer vision) that, when executed by processing unit 110, perform analysis of one or more images obtained by one of image capture devices 122, 124, 126. software, etc.) As described in connection with FIGS. 9-14 above, the vehicle identification module 2204 may include instructions for determining the bounding boxes of one or more vehicles.

일 실시예에서, 상태 예측 모듈(2206)은 처리부(110)에 의해 실행되는 경우에 시각적-적외선 정렬 모듈(2202)로부터의 하나 이상의 정렬된 이미지의 분석을 수행하여 한 대 이상의 식별된 차량의 상태를 예측하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 예를 들어, 상태 예측 모듈(2206)은 식별된 차량의 시각적 지시자와 열 지시자에 근거하여 예측 상태를 출력할 수 있다. In one embodiment, state prediction module 2206, when executed by processing unit 110, performs analysis of one or more aligned images from visual-infrared alignment module 2202 to determine the state of one or more identified vehicles. can store instructions (such as computer vision software) to predict For example, condition prediction module 2206 can output a predicted condition based on the identified vehicle's visual and thermal indicators.

일 실시예에서, 주행 반응 모듈(2208)은 시각적-적외선 정렬 모듈(2202), 차량 식별 모듈(2204), 및/또는 상태 예측 모듈(2206)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(2208)은 하기에 기재되는 도 24의 방법(2400)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the driving response module 2208 determines the required driving response based on data derived from executing the visual-infrared alignment module 2202, vehicle identification module 2204, and/or state prediction module 2206. It may store software executable by the processing unit 110 to determine. For example, the navigation response module 2208 can trigger a navigation change according to the method 2400 of FIG. 24 described below.

나아가, 여기에 기재된 모듈(예, 2202, 2204, 2206)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다. Furthermore, one or more of the modules (eg, 2202, 2204, 2206) described herein may implement a learning system (eg, a neural network or a deep neural network) or a manner in conjunction with a non-learning system.

도 23a는 기재된 실시예에 따른 시스템의 시점에서 바라본 주차 차량(2302)을 도시한 것이다. 예를 들면, 시스템은 차량(2302)의 조명 상태 변화 및/또는 온도 특징에 대해 모니터할 수 있다. 시스템은 예를 들어 도 24의 방법(2400)을 활용하여 조명 상태 변화 및/또는 온도 특징에 근거한 차량(2302)의 예측 상태를 판단할 수 있다. 23A shows a parked vehicle 2302 from the perspective of the system according to the disclosed embodiments. For example, the system may monitor vehicle 2302 for changes in lighting conditions and/or temperature characteristics. The system may determine a predicted state of the vehicle 2302 based on lighting condition changes and/or temperature characteristics utilizing method 2400 of FIG. 24 , for example.

도 23b는 조명 상태가 변화된 주차 차량(2302)을 도시한 것이다. 도 23b의 예에서, 차량(2302)의 후미등(2304a, 2304b)이 소등 상태에서 점등 상태로 변화하였다. 전조등의 조명 상태가 바뀐 다른 실시예도 가능하다. 또한 차량의 전조등 및/또는 후미등이 점등 상태에서 소등 상태로 바뀌는 다른 실시예도 가능하다. 23B shows a parked vehicle 2302 with a changed lighting condition. In the example of FIG. 23B , the taillights 2304a and 2304b of the vehicle 2302 have changed from off to on. Other embodiments in which the illumination state of the headlamp is changed are also possible. Other embodiments are also possible in which the headlights and/or taillights of the vehicle change from an on state to an off state.

도 23c는 엔진(2306)이 따뜻하고 타이어(2308a, 2308b)가 차가운 주차 차량(2302)(다른 각도에서 바라봄)을 도시한 것이다. 여기서, '따뜻하다.'와 '차갑다.'라는 표현은 미리 설정 및/또는 학습될 수 있는 예상 온도로부터의 편차를 의미하는 용어일 수 있다. 예를 들면, 엔진이 주위 온도보다 높으면 '따뜻하다.'라고 할 수 있고, 주위 온도보다 낮거나 같으면 '차갑다'고 할 수 있다. 본 기재의 실시예들에서, 엔진 또는 엔진 온도에 관한 설명은, 예를 들면, 차량의 전면에 위치한 엔진 후드와 같이, 온도가 엔진의 온도에 흔히 영향을 받는 차량의 특정 영역에 관한 것일 수 있다. '따뜻한' 및 '차가운' 온도의 임계값은 요구되는 특정 조건 하에서의 엔진 후드의 예상 온도를 반영하도록, 가능하면 긍정 오류 또는 부정 오류 검출을 줄이기 위한 약간의 공차를 허용하여, 선택될 수 있다. 일례에서, 화창한 조건하에서, 임계 온도는 햇볕에 의한 가열을 고려하여(예, 차량의 후드가 햇빛에 노출된다는 판단 후) 조절될 수 있다. 다른 예에서, 태양의 영향은 이미지의 스펙트럼 분석으로 판단될 수 있는 차량의 색깔을 감안하여 고려될 수 있다. 다른 예에서, 현재 모니터하고 있는 차량의 현지 지역 내의 이전에 검출된 주차 차량 및/또는 한 대 이상의 주차 차량의 특정 영역의 온도의 평균을 산출하여 임계값이 판단될 수 있다. 23C shows a parked vehicle 2302 (viewed from another angle) with a warm engine 2306 and cold tires 2308a and 2308b. Here, the expressions 'warm' and 'cold' may be terms denoting a deviation from an expected temperature that may be set and/or learned in advance. For example, an engine can be described as 'warm' if it is above the ambient temperature, and 'cold' if it is less than or equal to the ambient temperature. In embodiments of this disclosure, reference to an engine or engine temperature may refer to a specific area of a vehicle whose temperature is often affected by that of the engine, such as, for example, an engine hood located at the front of the vehicle. . The 'warm' and 'cold' temperature thresholds can be selected to reflect the expected temperature of the engine hood under the specific conditions required, possibly allowing some tolerance to reduce false positive or false negative detection. In one example, under sunny conditions, the threshold temperature may be adjusted to account for heating from sunlight (eg, after determining that the vehicle's hood is exposed to sunlight). In another example, the effect of the sun can be taken into account given the color of the vehicle, which can be determined by spectral analysis of the image. In another example, the threshold may be determined by averaging the temperature of a previously detected parked vehicle and/or a specific area of one or more parked vehicles within the local area of the currently monitored vehicle.

이와 유사하게, 타이어 온도를 차량의 상태에 대한 지시자로 활용할 수 있다. 예를 들면, 타이어가 도로 온도보다 높으면 '따뜻한' 것일 수 있고, 도로 온도보다 낮거나 같으면 '차가운' 것일 수 있다. 다른 예에서, 임계 온도(예, '따뜻한' 타이어와 '차가운' 타이어를 구분하는 온도)는 예상되거나 산출된 타이어의 작동 온도와 연관 있을 수 있다. 작동 온도 산출은 주위 조건 외에도 운전 모델과 운전 모델이 타이어 온도에 미치는 영향 등을 감안할 수 있다. 또 다른 예에서, 작동 온도 산출은 타이어 냉각 모델도 포함할 수 있다. 타이어 냉각 모델도 주위 조건을 감안할 수 있다. 도 23c의 예에서, 시스템은 예를 들어 도 24의 방법(2400)을 활용하여 엔진(2306)과 타이어(2308a, 2308b)의 온도에 근거한 차량(2302)의 예측 상태를 판단할 수 있다. Similarly, tire temperature can be used as an indicator of the condition of the vehicle. For example, a tire may be 'warm' if it is higher than the road temperature, or 'cold' if it is lower than or equal to the road temperature. In another example, the threshold temperature (eg, the temperature that distinguishes a 'warm' tire from a 'cold' tire) may be related to an expected or calculated operating temperature of the tire. In addition to the ambient conditions, the operating temperature calculation can take into account the driving model and the effect of the driving model on the tire temperature. In another example, the operating temperature calculation may also include a tire cooling model. Tire cooling models can also account for ambient conditions. In the example of FIG. 23C , the system can determine a predicted state of vehicle 2302 based on the temperatures of engine 2306 and tires 2308a, 2308b utilizing, for example, method 2400 of FIG. 24 .

도 24는 기재된 실시예에 따른 주차 차량의 예측 상태를 판단하기 위한 예시적인 과정(2400)을 도시한 순서도이다. 단계 2402에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 24 is a flowchart illustrating an exemplary process 2400 for determining the predicted state of a parked vehicle in accordance with the disclosed embodiments. At step 2402 , processing unit 110 may receive a plurality of images of the surrounding environment of the host vehicle via data interface 128 . For example, a camera included in image acquisition unit 120 (e.g., image capture devices 122, 124, 126 having fields of view 202, 204, 206) may be used to view multiple views of the front area and/or side of the host vehicle. An image of may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.).

복수의 이미지는 일정 시간에 걸쳐 수집될 수 있다. 예를 들면, 복수의 이미지는 t = 0인 시간에 캡처 된 제1 이미지, t = 0.5초에 캡처 된 제2 이미지, 및 t = 1.0초에 캡처 된 제3 이미지를 포함할 수 있다. 이미지 사이의 시간은 적어도 하나 이상의 이미지캡처장치의 주사율에 따라 다를 수 있다. A plurality of images may be collected over a period of time. For example, the plurality of images may include a first image captured at time t = 0, a second image captured at t = 0.5 second, and a third image captured at t = 1.0 second. The time between images may vary depending on the scan rate of at least one image capture device.

단계 2404에서, 처리부(110)는 복수의 이미지를 분석하여 주차 차량을 식별할 수 있다. 예를 들어, 주차 차량을 식별하는 단계는 적어도 하나의 경계박스(bounding box)를 타깃 차량의 측면 형상과 연관시키는 단계를 더 포함할 수 있다. 예를 들면, 앞서 도 9 및 도 10을 참조하여 설명한 바와 같은 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. 일부 실시예에서, 단계 2404는 식별된 타깃 차량 전면의 엔진 및/또는 식별된 타깃 차량 측면의 휠을 식별하는 단계를 더 포함할 수 있다. 예를 들어, 앞서 도 11을 참조하여 설명한 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다.At step 2404, processing unit 110 may analyze the plurality of images to identify a parked vehicle. For example, identifying the parked vehicle may further include associating at least one bounding box with the profile of the target vehicle. For example, the analysis may be performed using a learning algorithm as described above with reference to FIGS. 9 and 10 . In some embodiments, step 2404 may further include identifying an engine in front of the identified target vehicle and/or wheels on the side of the identified target vehicle. For example, the analysis may be performed using the learning algorithm described above with reference to FIG. 11 .

단계 2406에서, 처리부(110)는 복수의 이미지를 분석하여 주차 차량의 조명 상태의 변화를 식별할 수 있다. 예를 들면, 처리부(110)는 주차 차량의 후미등 및/또는 전조등을 식별하고 식별된 후미등 및/또는 전조등이 소등에서 점등으로(도 23b의 예) 또는 점등에서 소등으로 변하는지 모니터할 수 있다. 다른 실시예는, 예를 들어, 주차등만의 점등이 브레이크등의 점등으로 변화하는 것과 같은 더욱 상세한 변화를 포함할 수 있다. At step 2406, processing unit 110 may analyze the plurality of images to identify changes in lighting conditions of the parked vehicle. For example, processing unit 110 may identify taillights and/or headlights of a parked vehicle and monitor whether the identified taillights and/or headlights change from off to on (example in FIG. 23B ) or from on to off. Other embodiments may include more detailed changes, such as changing from lighting only the parking lights to lighting of the brake lights, for example.

일부 실시예에서, 방법(2400)은 주차 차량의 예측 상태를 조명 상태의 변화에 기반하여 판단하는 단계를 포함하고 단계 2412로 건너 뛸 수 있다(즉, 주차 차량의 예측 상태에 기반하여 호스트 차량에 적어도 하나의 주행 반응을 유발). 예를 들어, 주차 차량과 연계된 적어도 하나의 등의 조명 상태의 소등 상태에서 점등 상태로의 변화에 기반하여, 처리부(110)는 주차 차량의 예측 상태가 주차 차량의 엔진에 시동이 걸렸다는 표시를 포함한다고 판단할 수 있다. 이와 유사하게, 주차 차량과 연계된 적어도 하나의 등의 조명 상태의 점등 상태에서 소등 상태로의 변화에 기반하여, 처리부(110)는 주차 차량의 예측 상태가 주차 차량의 엔진에 시동이 꺼졌다는 표시를 포함한다고 판단할 수 있다. 이에 따라, 이러한 실시예에서, 이러한 판단은 열 이미지(thermal image)를 활용하지 않을 수 있다. In some embodiments, method 2400 may include determining the predicted state of the parked vehicle based on the change in lighting conditions and skip to step 2412 (i.e., determine the host vehicle based on the predicted state of the parked vehicle). trigger at least one driving response). For example, based on a change from off to on in the lighting state of at least one light associated with the parked vehicle, processing unit 110 may indicate that the predicted state of the parked vehicle is an indication that the parked vehicle's engine has been started. It can be judged to include. Similarly, based on a change from an on to an unlit state of the lighting state of at least one light associated with the parked vehicle, processing unit 110 determines that the predicted state of the parked vehicle is an indication that the engine of the parked vehicle has been turned off. It can be judged to include. Accordingly, in such an embodiment, this determination may not utilize a thermal image.

단계 2408에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 열 이미지(thermal image)(즉, 적외선 이미지)를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 열 이미지(thermal image)를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. At step 2408 , processing unit 110 may receive at least one thermal image (ie, an infrared image) of the environment of the host vehicle via data interface 128 . For example, a camera included in image acquisition unit 120 (eg, image capture device 122 , 124 , 126 having a field of view 202 , 204 , 206 ) may capture at least a portion of the front area and/or side of the host vehicle. A single thermal image may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.).

단계 2408은 단계 2402와 별개로 또는 동시에 수행될 수 있다. 따라서, 일부 실시예에서, 시각적 이미지 및 적외선 이미지는 동시에 수신될 수 있다. 다른 실시예에서, 하나 이상의 이미지캡처장치와 하나 이상의 적외선 이미지캡처장치 사이의 주사율 및/또는 전송 속도를 다르게 함으로써 시각적 이미지와 적외선 이미지 사이에 지연이 있게 할 수 있다. Step 2408 may be performed separately or concurrently with step 2402. Thus, in some embodiments, visual images and infrared images may be received simultaneously. In another embodiment, there may be a delay between the visual image and the infrared image by varying the scan rate and/or transfer rate between the one or more image capture devices and the one or more infrared image capture devices.

일부 실시예에서, 방법(2400)은 복수의 이미지의 적어도 하나와 적어도 하나의 열 이미지(thermal image)를 정렬하는 단계를 더 포함할 수 있다. 이러한 정렬에 따라, 방법(2400)은 정렬된 적어도 하나의 열 이미지(thermal image)에서 주차 차량의 엔진 영역 및 적어도 하나의 휠 요소(wheel component) 영역 중 적어도 하나를 식별하는 단계를 더 포함할 수 있다. In some embodiments, method 2400 may further include aligning at least one thermal image with at least one of the plurality of images. In accordance with this alignment, method 2400 may further include identifying at least one of an engine region and at least one wheel component region of the parked vehicle in the aligned at least one thermal image. there is.

단계 2410에서, 처리부(110)는 단계 2406의 분석 및/또는 적어도 하나의 열 이미지(thermal image)의 분석에 기반하여 주차 차량의 예측 상태를 판단할 수 있다. 예를 들면, 예측 상태는 주차 차량의 엔진에 시동이 켜졌다는 표시 또는 주차 차량의 엔진에 시동이 꺼졌다는 표시를 포함할 수 있다. 다른 예를 들면, 예측 상태는 주차 차량이 미리 정해진 시간 이내에 움직이지 않을 것으로 예상된다는 표시, 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상된다는 표시, 또는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상된다는 표시를 포함할 수 있다. At step 2410, processing unit 110 may determine a predicted state of the parked vehicle based on the analysis of step 2406 and/or the analysis of the at least one thermal image. For example, the predicted state may include an indication that the engine of the parked vehicle is turned on or an indication that the engine of the parked vehicle is turned off. For another example, the prediction state indicates that a parked vehicle is not expected to move within a predetermined time, an indication that a parked vehicle is expected to move within a predetermined time, or a door of a parked vehicle is expected to open within a predetermined time. may contain indications.

일부 실시예에서, 적어도 하나의 열 이미지(thermal image)의 분석은 주차 차량의 엔진 영역의 온도를 판단하는 단계를 포함할 수 있다. 예를 들어, 온도가 임계값보다 낮은 경우, 처리부(110)는 주차 차량이 미리 정해진 시간 이내에 움직이지 않을 것으로 예상된다는 표시를 포함하는 예측 상태를 판단할 수 있다. 미리 정해진 시간은 예를 들어 주차 차량 또는 주차 차량의 엔진의 알려진 특성에 따라 달라질 수 있다. In some embodiments, analyzing the at least one thermal image may include determining a temperature of an engine area of the parked vehicle. For example, if the temperature is below a threshold, processing unit 110 may determine a prediction condition that includes an indication that the parked vehicle is not expected to move within a predetermined amount of time. The predetermined time may vary, for example, depending on known characteristics of the parked vehicle or the engine of the parked vehicle.

일부 실시예에서, 적어도 하나의 열 이미지(thermal image)의 분석은 주차 차량의 엔진 영역의 제1 온도와 주차 차량의 적어도 하나의 휠 요소(wheel component)의 제2 온도를 판단하는 단계를 포함할 수 있다. 이러한 실시예에서, 주차 차량의 예측 상태는 제1 온도와 제1 임계값의 비교 및 제2 온도와 제2 임계값의 비교에 기반하여 판단될 수 있다. 예를 들면, 제1 온도가 제1 임계값보다 높고 제2 온도가 제2 임계값보다 낮은 경우, 처리부(110)는 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상된다는 표시를 포함하는 예측 상태를 판단할 수 있다. In some embodiments, analyzing the at least one thermal image may include determining a first temperature of an engine region of the parked vehicle and a second temperature of at least one wheel component of the parked vehicle. can In this embodiment, the predicted state of the parked vehicle may be determined based on a comparison of the first temperature with the first threshold value and the comparison of the second temperature with the second threshold value. For example, if the first temperature is higher than the first threshold and the second temperature is lower than the second threshold, processing unit 110 determines a prediction condition that includes an indication that the parked vehicle is expected to move within a predetermined amount of time. can do.

다른 예를 들면, 제1 온도가 제1 임계값보다 높고 제2 온도가 제2 임계값보다 높은 경우, 처리부(110)는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상된다는 표시를 포함하는 예측 상태를 판단할 수 있다. In another example, if the first temperature is higher than the first threshold and the second temperature is higher than the second threshold, processing unit 110 makes a prediction including an indication that the door of the parked vehicle is expected to open within a predetermined amount of time. status can be judged.

일부 실시예에서, 처리부(110)는 조명의 변화, 적어도 하나의 열 이미지(thermal image)의 분석, 또는 이들의 조합에 기반을 둔 예측 상태에 적어도 부분적으로 근거하여 수신 이미지의 추가 모니터링을 수행할 수 있다. 예를 들면, 예측 상태가 주차 차량의 엔진에 시동이 꺼진 것을 나타내고 및/또는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상되는 것을 나타내는 경우, 처리부(110)는 수신 이미지의 하나 이상의 부분을 모니터하여 주차 차량의 도어 에지의 이미지 특성에 변화가 있는지 여부를 확인할 수 있다. 이러한 모니터링의 예는 도 14의 방법(1400)과 관련하여 상기에 설명하였다. 다른 예를 들면, 예측 상태가 주차 차량의 엔진에 시동이 켜진 것을 나타내고 및/또는 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상되는 것을 나타내는 경우, 처리부(110)는 수신 이미지의 하나 이상의 휠 요소(wheel component)를 모니터하여 휠 요소(wheel component)의 움직임을 확인할 수 있다. 이러한 모니터링의 예는 도 17의 방법(1700)과 관련하여 상기에 설명하였다.In some embodiments, processing unit 110 may perform additional monitoring of the received image based at least in part on a predicted condition based on a change in illumination, analysis of at least one thermal image, or a combination thereof. can For example, if the predicted condition indicates that the engine of the parked vehicle is off and/or that the door of the parked vehicle is expected to open within a predetermined time, processing unit 110 monitors one or more portions of the received image. Accordingly, it is possible to determine whether there is a change in the image characteristics of the door edge of the parked vehicle. An example of such monitoring is described above with respect to method 1400 of FIG. 14 . For another example, if the predicted condition indicates that the engine of the parked vehicle is being started and/or that the parked vehicle is expected to move within a predetermined time, processing unit 110 may determine one or more wheel elements of the received image. component) to check the movement of the wheel component. An example of such monitoring is described above with respect to method 1700 of FIG. 17 .

단계 2412에서, 처리부(110)는 호스트 차량의 주행 변경을 일으킬 수 있다. 예를 들어, 주행 반응은 호스트 차량의 진행 방향의 변경(도 13에 도시), 차선 변경, 가속도 변경 등을 포함할 수 있다. 처리부(110)는 단계 2410에서 수행되어 판단된 예측 상태에 기반하여 하나 이상의 주행 반응을 유발할 수 있다. 예를 들면, 처리부(110)는 주차 차량이 미리 정해진 시간 이내에 움직일 것으로 예상된다고 나타내는 또는 주차 차량의 도어가 미리 정해진 시간 이내에 열릴 것으로 예상된다고 나타내는 예측 상태에 대응하여 호스트 차량을 주차 차량으로부터 이동 및/또는 호스트 차량을 감속할 수 있다. At step 2412, processing unit 110 may cause a change in driving of the host vehicle. For example, the driving response may include a change in the direction of travel of the host vehicle (shown in FIG. 13 ), a lane change, a change in acceleration, and the like. Processing unit 110 may perform step 2410 to trigger one or more driving responses based on the determined predicted condition. For example, processing unit 110 may move and/or move the host vehicle from a parked vehicle in response to a predicted condition indicating that the parked vehicle is expected to move within a predetermined time or that a door of the parked vehicle is expected to open within a predetermined time. Alternatively, the host vehicle may be decelerated.

도 25는 시각적 이미지와 적외선 이미지를 정렬하기 위한 예시적인 과정(2500)을 도시한 순서도이다. 단계 2502와 2504에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 적어도 하나의 시각적 이미지와 적어도 하나의 적외선 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 적어도 하나의 시각적 이미지와 적어도 하나의 적외선 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 25 is a flow chart illustrating an exemplary process 2500 for aligning a visual image with an infrared image. At steps 2502 and 2504, processing unit 110 may receive at least one visual image and at least one infrared image of the environment of the host vehicle via data interface 128. For example, a camera included in image acquisition unit 120 (eg, image capture device 122 , 124 , 126 having a field of view 202 , 204 , 206 ) may capture at least a portion of the front area and/or side of the host vehicle. One visual image and one or more infrared images may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.).

일부 실시예에서, 시각적 이미지 및 적외선 이미지는 동시에 수신될 수 있다. 다른 실시예에서, 하나 이상의 이미지캡처장치와 하나 이상의 적외선 이미지캡처장치 사이의 주사율 및/또는 전송 속도를 다르게 함으로써 시각적 이미지와 적외선 이미지 사이에 지연이 있게 할 수 있다. In some embodiments, visual images and infrared images may be received simultaneously. In another embodiment, there may be a delay between the visual image and the infrared image by varying the scan rate and/or transfer rate between the one or more image capture devices and the one or more infrared image capture devices.

단계 2506에서, 처리부(110)는 적어도 하나의 적외선 이미지에서 한 세트의 기준점을 선택할 수 있다. 예를 들어, 한 세트의 기준점은 무작위로 선택되거나 알려진 특성에 기반을 둔 알려진 대상(예, 보행자, 나무, 차량 등)의 식별을 포함할 수 있다. At step 2506, processing unit 110 may select a set of fiducials in at least one infrared image. For example, a set of fiducials may include identification of known objects (eg, pedestrians, trees, vehicles, etc.) that are randomly selected or based on known characteristics.

단계 2508에서, 처리부(110)는 기준점을 적어도 하나의 적외선 이미지로부터 적어도 하나의 시각적 이미지로 투사할 수 있다. 예를 들면, 처리부(110)는 기준점을 나타내는(예, 에워싸는) 형상(예, 타원, 사각형, 사다리꼴 등)을 적어도 하나의 시각적 이미지 내의 한 위치에 투사할 수 있다. At step 2508, processing unit 110 may project a reference point from the at least one infrared image to the at least one visual image. For example, processing unit 110 may project a shape (eg, ellipse, rectangle, trapezoid, etc.) representing (eg, enclosing) a reference point to a location within the at least one visual image.

단계 2510에서, 처리부(110)는 기준점에 상응하는 시각적 이미지의 부분에 대한 게인(gain) 및/또는 노출을 최적화할 수 있다. 예를 들어, 최적화의 결과로 향상된 대비는 정렬의 신뢰성을 더욱 향상시킬 수 있다. 단계 2510은 선택 사항이며 모든 실시예에서 수행될 필요는 없다. At step 2510, processing unit 110 may optimize gain and/or exposure for the portion of the visual image corresponding to the reference point. For example, improved contrast as a result of optimization can further improve alignment reliability. Step 2510 is optional and need not be performed in all embodiments.

단계 2512에서, 처리부(110)는 적어도 하나의 적외선 이미지를 적어도 하나의 시각적 이미지와 정렬시킬 수 있다. 예를 들어, 이미지를 정렬하는(또는 일치시키는) 단계는 정렬의 정도를 최적화하는 거리를 등극선(epipolar laine)을 따라 검색하는 단계를 포함할 수 있다. 본 예에서, 정렬의 정도를 최적화함으로써, 기준점과 보는 사람 사이 및/또는 기준점과 다른 대상 사이의 거리가 시각적 이미지와 적외선 이미지에서 모두 동일하게 할 수 있다. At step 2512, processing unit 110 may align the at least one infrared image with the at least one visual image. For example, aligning (or matching) the images may include searching along the epipolar line for a distance that optimizes the degree of alignment. In this example, by optimizing the degree of alignment, the distance between the fiducial and the viewer and/or between the fiducial and another object can be the same in both the visual and infrared images.

[차량 사이의 간격 검출에 기반을 둔 주행제어][Travel control based on distance detection between vehicles]

차량과 차량 사이의 간격을 식별하는 시스템과 방법은 검출된 간격에 기반을 둔 주행제어를 가능하게 할 수 있다. 이 방법을 통한 주행제어를 함으로써, 검출된 간격 내의 움직임에 대한 사전 모니터링과 반응을 기존의 동작 검출보다 짧은 반응 시간에 할 수 있다. 하기에 설명하는 본 기재의 실시예들은 차량 사이의 간격 검출에 기반을 둔 주행제어를 위한 시스템과 방법에 관한 것이다. Systems and methods for identifying gaps between vehicles may enable driving control based on the detected gaps. By performing driving control through this method, preliminary monitoring and reaction to motion within the detected interval can be performed in a shorter reaction time than conventional motion detection. Embodiments of the present disclosure described below relate to a system and method for driving control based on distance detection between vehicles.

도 26은 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령이 저장/프로그램 될 수 있는 메모리(140 및/또는 150)의 예시적인 기능 구성도이다. 하기에서는 메모리(140)에 대해 설명하지만, 당업자라면 명령이 메모리(140 및/또는 150)에 저장될 수 있음을 인지할 수 있을 것이다.26 is an exemplary functional configuration diagram of memories 140 and/or 150 in which instructions for performing one or more operations according to the disclosed embodiments may be stored/programmed. Although memory 140 is discussed below, those skilled in the art will recognize that instructions may be stored in memory 140 and/or 150 .

도 26에 도시된 바와 같이, 메모리(140)는 이미지 분석 모듈(2602), 차량 식별 모듈(2604), 간격 계산 모듈(2606), 및 주행 반응 모듈(2608)을 저장할 수 있다. 기재된 실시예들은 메모리(140)의 특정 구성으로 제한되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 메모리(140)에 포함된 모듈(2602 ~ 2608)의 하나 이상에 저장된 명령을 실행할 수 있다. 처리부(110)를 통해 설명하는 하기의 내용이 개별적으로 또는 집합적으로 애플리케이션 프로세서(180)와 이미지 프로세서(190)에도 해당될 수 있음은 당업자라면 이해할 수 있을 것이다. 따라서, 하기의 프로세스의 단계들은 하나 이상의 프로세싱 처리장치에 의해 수행될 수 있다As shown in FIG. 26 , the memory 140 may store an image analysis module 2602 , a vehicle identification module 2604 , an interval calculation module 2606 , and a driving response module 2608 . The described embodiments are not limited to the particular configuration of memory 140. Also, the application processor 180 and/or the image processor 190 may execute instructions stored in one or more of the modules 2602 to 2608 included in the memory 140 . It will be understood by those skilled in the art that the following information described through the processing unit 110 may also apply to the application processor 180 and the image processor 190 individually or collectively. Accordingly, the steps of the process below may be performed by one or more processing units.

일 실시예에서, 이미지 분석 모듈(2602)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 일부 실시예에서, 처리부(110)는 한 세트의 이미지로부터의 정보를 추가적인 감지 정보(예, 레이더, 라이더 등으로부터의 정보)와 병합하여 이이지 분석을 수행할 수 있다. 하기에 차량 식별 모듈(2604)과 관련하여 설명하는 바와 같이, 이미지 분석 모듈(2602)은 하나 이상의 특징(예, 전면, 후면, 측면 등)을 활용하여 차량을 검출하기 위한 명령을 포함할 수 있다. In one embodiment, image analysis module 2602 provides instructions (computer vision) that, when executed by processing unit 110, perform analysis of one or more images obtained by one of image capture devices 122, 124, 126. software, etc.) In some embodiments, processing unit 110 may perform Easy analysis by merging information from a set of images with additional sensory information (eg, information from radar, lidar, etc.). As described below with respect to vehicle identification module 2604, image analysis module 2602 may include instructions for detecting a vehicle utilizing one or more features (eg, front, rear, side, etc.) .

일 실시예에서, 차량 식별 모듈(2604)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 상기의 도 9 내지 도 14와 연관하여 설명한 바와 같이, 차량 식별 모듈(2604)은 한 대 이상의 차량의 경계박스(bounding box)를 판단하기 위한 명령을 포함할 수 있다. In one embodiment, vehicle identification module 2604 provides instructions (computer vision) that, when executed by processing unit 110, perform analysis of one or more images obtained by one of image capture devices 122, 124, 126. software, etc.) As described in connection with FIGS. 9-14 above, the vehicle identification module 2604 may include instructions for determining the bounding boxes of one or more vehicles.

일 실시예에서, 간격 계산 모듈(2606)은 처리부(110)에 의해 실행되는 경우에 이미지캡처장치(122, 124, 126) 중의 하나에 의해 확보된 하나 이상의 이미지의 분석을 수행하는 명령(컴퓨터 비전 소프트웨어 등)을 저장할 수 있다. 하기의 도 27a와 도 27b와 관련하여 설명하는 바와 같이, 또한 차량 식별 모듈(2604)과 협력하여, 간격 계산 모듈(2606)은 식별된 차량 사이의 하나 이상의 간격을 계산하기 위한 명령을 포함할 수 있다. In one embodiment, interval calculation module 2606, when executed by processing unit 110, performs an analysis of one or more images obtained by one of image capture devices 122, 124, 126 (computer vision). software, etc.) As described with respect to FIGS. 27A and 27B below, also in cooperation with vehicle identification module 2604, distance calculation module 2606 may include instructions for calculating one or more distances between identified vehicles. there is.

일 실시예에서, 주행 반응 모듈(2608)은 이미지 분석 모듈(2602), 차량 식별 모듈(2604), 및/또는 간격 계산 모듈(2606)을 실행하여 도출된 데이터에 근거하여 필요한 주행 반응을 판단하기 위해 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 예를 들어, 주행 반응 모듈(2608)은 하기에 기재되는 도 28의 방법(2800)에 따라 주행 변경을 일으킬 수 있다. In one embodiment, the navigation response module 2608 determines a desired navigation response based on data derived from executing the image analysis module 2602, vehicle identification module 2604, and/or distance calculation module 2606. Software executable by the risk processing unit 110 may be stored. For example, the navigation response module 2608 can cause a navigation change according to the method 2800 of FIG. 28 described below.

나아가, 여기에 기재된 모듈(예, 2602, 2604, 2606)의 하나 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연계된 방식을 구현할 수 있다.Further, one or more of the modules (eg, 2602, 2604, and 2606) described herein may implement a learning system (eg, a neural network or a deep neural network) or a method in conjunction with a non-learning system.

도 27a는 기재된 실시예에 따른 시스템의 시점에서 바라본 도로(2702)를 도시한 것이다. 도로(2702)는 복수의 정지된 차량(예, 2704, 2706)을 포함할 수 있다. 하기에 도 28의 방법(2800)을 참조하여 설명하는 바와 같이, 시스템은 정지된 차량의 측면에 대한 경계박스(bounding box), 예를 들면, 차량(2704)에 대한 측면 경계박스(bounding box)(2708)와 차량(2706)에 대한 측면 경계박스(bounding box)(2710)를 식별할 수 있다. 하기에 도 28의 방법(2800)을 참조하여 더 설명하는 바와 같이, 시스템은 한 경계박스(bounding box)의 맨 앞쪽과 인접한 경계박스(bounding box)의 맨 뒤쪽, 예를 들면, 경계박스(bounding box)(2708)의 앞쪽(2712)과 경계박스(bounding box)(2710)의 뒤쪽(2714)을 활용하여 식별된 경계박스(bounding box) 사이의 간격을 식별할 수 있다. 27A shows a road 2702 from the perspective of the system according to the disclosed embodiments. Road 2702 can include a plurality of stationary vehicles (eg, 2704, 2706). As described below with reference to method 2800 of FIG. 28 , the system creates a bounding box for the side of a stationary vehicle, e.g., a side bounding box for vehicle 2704. 2708 and side bounding box 2710 for vehicle 2706 can be identified. As further described below with reference to method 2800 of FIG. 28 , the system uses the front end of one bounding box and the back end of an adjacent bounding box, for example, a bounding box. The front 2712 of the box 2708 and the back 2714 of the bounding box 2710 can be used to identify the gap between the identified bounding boxes.

도 27b도 기재된 실시예에 따른 시스템의 시점에서 바라본 차량(2704)과 차량(2706)을 포함하는 도로(2702)를 도시한 것이다. 도 27a와 마찬가지로, 시스템은 차량(2704)에 대한 측면 경계박스(bounding box)(2708)와 차량(2706)에 대한 측면 경계박스(bounding box)(2710)를 식별하였다. 도 27b에 도시된 바와 같이, 경계박스(bounding box)(2708)의 앞쪽(2712)과 경계박스(bounding box)(2710)의 뒤쪽(2714) 사이에 식별된 간격에 근거하여 핫스팟(2716)이 식별되었다. 하기에 도 28의 방법(2800)을 참조하여 설명하는 바와 같이, 시스템은 식별된 핫스팟에 기반하여 호스트 차량의 주행 반응을 결정할 수 있다. 27B also shows road 2702 including vehicle 2704 and vehicle 2706 as seen from the perspective of the system according to the described embodiment. Similar to FIG. 27A , the system has identified a side bounding box 2708 for vehicle 2704 and a side bounding box 2710 for vehicle 2706 . As shown in FIG. 27B, a hotspot 2716 is identified based on the gap identified between the front 2712 of the bounding box 2708 and the back 2714 of the bounding box 2710. identified As described below with reference to method 2800 of FIG. 28 , the system can determine a driving response of the host vehicle based on the identified hotspot.

도 28은 기재된 실시예에 따른 차량 사이의 검출된 간격에 기반을 둔 주행제어를 위한 예시적인 과정(2800)을 도시한 순서도이다. 단계 2802에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 호스트 차량의 주변환경의 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)(예, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126))에 포함된 카메라가 호스트 차량의 전방 구역 및/또는 측면의 복수의 이미지를 캡처하여 디지털 연결(예, USB, 무선, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 레이더, 라이더, 음향 센서 등과 같은 기타 센서로부터의 추가 정보도 복수의 이미지를 대신하여 또는 병합하여 활용될 수 있다. 28 is a flow chart illustrating an exemplary process 2800 for driving control based on detected spacing between vehicles according to the disclosed embodiments. At step 2802 , processing unit 110 may receive a plurality of images of the surrounding environment of the host vehicle via data interface 128 . For example, a camera included in image acquisition unit 120 (e.g., image capture devices 122, 124, 126 having fields of view 202, 204, 206) may be used to view multiple views of the front area and/or side of the host vehicle. An image of may be captured and transmitted to the processing unit 110 through a digital connection (eg, USB, wireless, Bluetooth, etc.). Additional information from other sensors such as radar, lidar, acoustic sensors, etc. may also be utilized in lieu of or in combination with multiple images.

단계 2804에서, 처리부(110)는 복수의 이미지의 적어도 하나를 분석하여 적어도 두 대의 정지된 차량을 식별할 수 있다. 예를 들어, 정지된 차량을 식별하는 단계는 적어도 하나의 경계박스(bounding box)를 정지된 차량의 측면 형상과 연관시키는 단계를 더 포함할 수 있다. 예를 들면, 앞서 도 9 및 도 10을 참조하여 설명한 바와 같은 학습 알고리즘을 활용하여 상기 분석이 수행될 수 있다. At step 2804, processing unit 110 may analyze at least one of the plurality of images to identify at least two stopped vehicles. For example, identifying the stationary vehicle may further include associating at least one bounding box with the profile of the stationary vehicle. For example, the analysis may be performed using a learning algorithm as described above with reference to FIGS. 9 and 10 .

단계 2806에서, 처리부(110)는 식별된 차량 사이의 간격을 판단할 수 있다. 예를 들면, 처리부(110)는 적어도 하나의 이미지를 좌측에서 우측 방향으로(또는 우측에서 좌측 방향으로) 스캔하여 우측 에지 및 인접한 좌측 에지를 식별할 수 있다. 식별된 우측 에지와 식별된 좌측 에지는 한 경계박스(bounding box)의 맨 앞쪽과 다른 경계박스(bounding box)의 맨 뒤쪽을 포함할 수 있다. 우측 에지와 좌측 에지는 간격 쌍을 형성하고, 이 간격 쌍 사이의 간격이 계산될 수 있다. 이러한 실시예에서, 상기 간격은 정지된 차량 중 한 대의 앞쪽과 정지된 차량 중 다른 한 대의 뒤쪽 사이의 거리에 상응할 수 있다. At step 2806, processing unit 110 may determine the spacing between the identified vehicles. For example, processing unit 110 may scan the at least one image in a left-to-right direction (or right-to-left direction) to identify a right edge and an adjacent left edge. The identified right edge and the identified left edge may include the frontmost edge of one bounding box and the rearmost edge of another bounding box. The right edge and the left edge form an interval pair, and the interval between this interval pair can be calculated. In such an embodiment, the distance may correspond to the distance between the front of one of the stationary vehicles and the rear of another stationary vehicle.

다른 실시예에서, 식별된 우측 에지와 식별된 좌측 에지는 도로 일측의 한 경계박스(bounding box)와 도로 타측의 다른 경계박스(bounding box)를 포함할 수 있다. 이러한 실시예에서, 상기 간격은 정지된 차량의 인접한 측면 사이의 거리에 상응할 수 있다. In another embodiment, the identified right edge and the identified left edge may include one bounding box on one side of the road and another bounding box on the other side of the road. In this embodiment, the spacing may correspond to the distance between adjacent sides of a stationary vehicle.

일부 실시예에서, 단계 2806은 호스트 차량과 판단된 간격 사이의 거리를 계산하는 단계를 더 포함할 수 있다. 예를 들어, 처리부(110)는 호스트 차량의 이미지캡처장치(예, 카메라)의 높이와 초점거리에 기반하여 거리를 계산할 수 있다. 보행자 또는 기타 대상물의 알려진 특성(예, 키 또는 높이)에 근거하여, 처리부(110)는 계산된 간격 내부 및/또는 인근의 형상을 보행자 또는 기타 대상물이 등장할 수 있는 '핫스팟'으로 판단할 수 있다. 예를 들어, 이 형상은 사각형, 타원, 또는 기타 형상일 수 있다. In some embodiments, step 2806 may further include calculating a distance between the host vehicle and the determined gap. For example, processing unit 110 may calculate the distance based on the height and focal length of the host vehicle's image capture device (eg, camera). Based on known characteristics (eg, height or height) of the pedestrian or other object, processing unit 110 may determine features within and/or near the calculated interval as 'hotspots' from which the pedestrian or other object may emerge. there is. For example, this shape may be a rectangle, an ellipse, or other shape.

단계 2808에서, 처리부(110)는 호스트 차량의 주행 변경을 일으킬 수 있다. 예를 들어, 주행 반응은 회전(도 13에 도시), 차선 변경(예, 운행중인 차선 내에서 호스트 차량을 이동 또는 호스트 차량의 운행 차선을 변경), 가속도 변경(예, 호스트 차량의 감속) 등을 포함할 수 있다. 일부 실시예에서, 상기 적어도 하나의 주행 변경은 호스트 차량의 조향 메커니즘, 브레이크, 가속장치 중의 하나를 실행하여 수행될 수 있다. At step 2808, processing unit 110 may cause a change in driving of the host vehicle. For example, the driving response may include turning (shown in FIG. 13 ), changing lanes (eg, moving the host vehicle within the driving lane or changing the operating lane of the host vehicle), changing acceleration (eg, decelerating the host vehicle), etc. can include In some embodiments, the at least one travel change may be performed by activating one of the host vehicle's steering mechanism, brakes, or accelerator.

처리부(110)는 단계 2806에서 계산된 간격에 근거하여 상기 적어도 하나의 주행 반응을 일으킬 수 있다. 예를 들면, 처리부(110)는 계산된 간격이 보행자를 수용하기에 충분하다고 판단할 수 있다. 이러한 판단에 근거하여, 처리부는 호스트 차량을 감속 및/또는 호스트 차량을 간격으로부터 멀어지게 이동할 수 있다. 다시 말해, 정지된 두 대의 차량 사이의 간격이 보행자가 횡단하기에 충분하다고 판단되는 경우에 상기 주행 변경이 실행될 수 있다. Processing unit 110 may trigger the at least one travel response based on the interval calculated in step 2806. For example, processing unit 110 may determine that the calculated spacing is sufficient to accommodate a pedestrian. Based on this determination, the processing unit may decelerate the host vehicle and/or move the host vehicle away from the gap. In other words, the driving change may be executed when it is determined that the distance between the two stopped vehicles is sufficient for a pedestrian to cross.

다른 예를 들면, 처리부(110)는 계산된 간격이 차량을 수용하기에 충분하다고 판단할 수 있다. 이러한 판단에 근거하여, 처리부는 호스트 차량을 감속 및/또는 호스트 차량을 간격으로부터 멀어지게 이동할 수 있다. 다시 말해, 정지된 두 대의 차량 사이의 간격이 타깃 차량이 횡단하기에 충분하다고 판단되는 경우에 상기 주행 변경이 실행될 수 있다.For another example, processing unit 110 may determine that the calculated spacing is sufficient to accommodate the vehicle. Based on this determination, the processing unit may decelerate the host vehicle and/or move the host vehicle away from the gap. In other words, the driving change may be executed when it is determined that the gap between the two stopped vehicles is sufficient for the target vehicle to cross.

다른 예를 들면, 핫스팟의 모니터링에 근거하여, 처리부(110)는 보행자 또는 기타 대상물이 핫스팟 내부 또는 부근에서 식별되는 경우 또는 핫스팟 내부 또는 부근에서 동작이 검출되는 경우에 호스트 차량을 감속 및/또는 호스트 차량을 간격으로부터 멀어지게 이동할 수 있다. For another example, based on monitoring of the hotspot, processing unit 110 may slow down and/or host the host vehicle if a pedestrian or other object is identified in or near the hotspot or if motion is detected in or near the hotspot. The vehicle can be moved away from the gap.

일부 실시예에서, 이후, 처리부(110)는 복수의 이미지의 분석에 근거하여 두 대의 정지된 차량 사이의 간격 내에서 보행자를 검출할 수 있다. 예를 들어, 처리부(110)는 계산된 간격과 보행자의 예상 키를 활용하여 수신된 이미지 내에서 보행자의 머리가 등장할 것으로 예상될 수 있는 장소(예, 도 27b의 핫스팟(2716))를 판단할 수 있다. In some embodiments, processing unit 110 may then detect a pedestrian within the gap between the two stopped vehicles based on analysis of the plurality of images. For example, processing unit 110 may utilize the calculated distance and the expected height of the pedestrian to determine where within the received image the pedestrian's head may be expected to appear (e.g., hotspot 2716 in FIG. 27B). can do.

보행자의 검출은, 앞서 차량 측면에 대해 학습된 분류기와 유사하게, 보행자에 대해 학습된 분류기를 활용하여 수행될 수 있다. 이러한 예에서, 핫스팟 내부의 검사 지점의 분류기 점수가 상한 임계값보다 높으면, 처리부(110)는 확인된 보행자를 그 지점에서 검출할 수 있다. 반면에, 핫스팟 내부의 검사 지점의 분류기 점수가 하한 임계값보다 높고 상한 임계값보다 낮으면, 처리부(110)는 보행의심자(suspect pedestrian)를 그 지점에서 검출할 수 있다. 보행의심자는 도로를 향해 움직이는지 여부를 더 추적할 수 있고, 도로를 향한 움직임이 추적되는 경우, 처리부는 보행의심자를 확인된 보행자로 재분류할 수 있다. 이러한 검출 방법은 기존의 동작 검출을 개선할 수 있다. Detection of the pedestrian may be performed utilizing a classifier learned for the pedestrian, similar to the classifier previously learned for the side of the vehicle. In this example, if the classifier score of a test point inside the hotspot is higher than the upper threshold, processing unit 110 may detect an identified pedestrian at that point. On the other hand, if the classifier score of a test point inside the hotspot is higher than the lower threshold and lower than the upper threshold, processing unit 110 may detect a suspected pedestrian at that point. The suspected walk may further be tracked as to whether or not the person is moving towards the roadway, and if the motion toward the road is tracked, the processing unit may reclassify the suspect as a confirmed pedestrian. This detection method can improve existing motion detection.

일부 실시예에서, 두 대의 정지된 차량 사이의 간격의 적어도 일부분은 카메라의 시야로부터 가려질 수 있다. 이러한 실시예에서, 처리부(110)는 가려진 부분을 보완하기 위해 추가적인 분석을 수행할 수 있다. In some embodiments, at least a portion of the gap between the two stationary vehicles may be obscured from the camera's view. In such an embodiment, processing unit 110 may perform additional analysis to compensate for the obscured areas.

처리부(110)는 또한 속도 및 가속 모듈(406)의 실행으로 도출된 데이터를 활용하여 하나 이상의 주행 반응을 일으킬 수 있다. 다중 주행 반응은 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다. Processing unit 110 may also utilize data derived from execution of speed and acceleration module 406 to generate one or more navigational responses. Multiple travel responses can occur simultaneously, sequentially, or a combination thereof.

상기의 설명은 예시의 목적으로 제시되었다. 이 설명은 모든 것을 망라한 것이 아니며 기재된 그대로의 형태 또는 실시예로 제한되는 것이 아니다. 수정 및 적응은 본 명세서를 고려하고 기재된 실시예를 실시함으로써 당업자에게 당연할 것이다. 또한, 기재된 실시예의 양상들이 메모리에 저장되는 것으로 설명되었지만, 당업자라면 이러한 양상들이, 예를 들어, 하드 디스크 또는 CD ROM, 또는 다른 유형의 RAM 또는 ROM, USB 매체, DVD, 블루레이, 4K UHD 블루레이, 또는 기타 광드라이브 매체 등의 2차 저장장치와 같은 다른 유형의 컴퓨터 판독 가능한 매체에 저장될 수도 있음을 이해할 것이다. The foregoing description has been presented for purposes of illustration. This description is not exhaustive and is not limited to the forms or examples as described. Modifications and adaptations will occur to those skilled in the art from consideration of the present disclosure and practice of the described embodiments. Further, while aspects of the disclosed embodiments have been described as being stored in memory, those skilled in the art know that such aspects may be stored on, for example, a hard disk or CD ROM, or other type of RAM or ROM, USB media, DVD, Blu-ray, 4K UHD Blue It will be appreciated that it may also be stored on other types of computer readable media, such as secondary storage such as a storage device, memory card, or other optical drive media.

기재된 설명과 방법에 기반을 둔 컴퓨터 프로그램은 당업자에게는 당연한 기술이다. 다양한 프로그램 또는 프로그램 모듈이 당업자에게 공지인 기술을 사용하여 생성되거나 기존의 소프트웨어와 관련되어 설계될 수 있다. 예를 들어, 프로그램 섹션 또는 프로그램 모듈은 .Net Framework, .Net Compact Framework (및 Visual Basic, C 등과 같은 관련 언어), Java, C++, Objective-C, HTML, HTML/AJAX 조합, XML, 또는 자바 애플릿(Java applet)을 포함하는 HTML로 설계될 수 있다. A computer program based on the described descriptions and methods is well within the skill of those skilled in the art. Various programs or program modules can be created using techniques known to those skilled in the art or designed in conjunction with existing software. For example, a program section or program module may be .Net Framework, .Net Compact Framework (and related languages such as Visual Basic, C, etc.), Java, C++, Objective-C, HTML, HTML/AJAX combinations, XML, or Java applets. (Java applet) can be designed in HTML.

또한, 예시된 실시예들을 여기에 설명하였지만, 모든 실시예의 범위는 균등한 구성요소, 수정, 누락, 조합(예, 다양한 실시예에 걸친 양상의 조합), 적응, 및/또는 변경을 가짐은 본 발명의 당업자에게 당연하다. 청구항의 한정은 청구항에 사용된 언어에 근거하여 넓게 해석되어야 하며 본 명세서에서 또는 본 발명의 출원 중에 설명된 예시에 한정되지 않는다. 예시들은 배타적이지 않은 것으로 이해되어야 한다. 나아가, 기재된 방법의 단계들은 단계들의 순서를 재배열 및/또는 단계를 삽입 또는 삭제하는 등의 다양한 방법으로 수정될 수 있다. 따라서, 본 명세서와 예시들은 예시의 목적으로만 고려되고, 진정한 범위와 기술적 사상은 하기의 청구항과 그 균등한 범위에 의해 정의된다. Further, while illustrative embodiments have been described herein, it is intended that all embodiments are within the scope of equivalent elements, modifications, omissions, combinations (eg, combinations of aspects across various embodiments), adaptations, and/or variations. It is natural for those skilled in the art. The limitations of the claims are to be interpreted broadly based on the language used in the claims and are not limited to the examples described herein or during the prosecution of the present invention. It should be understood that the examples are not exclusive. Furthermore, the steps of a described method may be modified in various ways, such as rearranging the order of steps and/or inserting or deleting steps. Accordingly, this specification and examples are to be considered for purposes of illustration only, with the true scope and spirit being defined by the following claims and their equivalents.

100: 시스템
110: 처리부
120: 이미지획득부
122, 124, 126: 이미지캡처장치
130: 위치센서
140, 150: 메모리장치
160: 지도 데이터베이스
170: 사용자 인터페이스
172: 무선 송수신기
180: 애플리케이션 프로세서
190: 이미지 프로세서
200, 1106, 1204: 차량
1102, 1104, 1604, 1606: 휠
1502: 도로 호모그래피 모듈
1504: 휠 식별 모듈
1506: 동작 분석 모듈
1508: 주행 반응 모듈
100: system
110: processing unit
120: image acquisition unit
122, 124, 126: image capture device
130: position sensor
140, 150: memory device
160: map database
170: user interface
172: radio transceiver
180: application processor
190: image processor
200, 1106, 1204: vehicle
1102, 1104, 1604, 1606: wheel
1502 road homography module
1504: wheel identification module
1506: motion analysis module
1508: driving response module

Claims (20)

호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반하여 상기 호스트 차량을 주행(navigating)하는 시스템에 있어서,
상기 시스템은 적어도 하나의 처리장치를 포함하고, 상기 적어도 하나의 처리장치는:
상기 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신;
상기 복수의 이미지의 적어도 하나를 분석하여 상기 타깃 차량 및 상기 타깃 차량의 측면의 적어도 하나의 휠 요소(wheel component)를 식별;
상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 영역을 분석하여 상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 동작을 식별; 및
상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 상기 식별된 동작에 기반하여 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발;
하도록 프로그램되는 것을 특징으로 하는, 시스템.
A system for navigating a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is running, comprising:
The system includes at least one processing device, the at least one processing device comprising:
receiving a plurality of images associated with the environment of the host vehicle from an image capture device;
analyzing at least one of the plurality of images to identify the target vehicle and at least one wheel component of the side of the target vehicle;
identifying an action associated with the at least one wheel element of the target vehicle by analyzing a region including the at least one wheel element of the target vehicle in at least two images of the plurality of images; and
cause at least one navigational change in the host vehicle based on the identified motion associated with the at least one wheel element of the target vehicle;
Characterized in that, the system is programmed to do.
제1항에 있어서,
상기 적어도 하나의 주행 변경은 상기 호스트 차량의 진행 방향의 변경을 포함하는 것을 특징으로 하는 시스템.
According to claim 1,
wherein the at least one travel change comprises a change in the direction of travel of the host vehicle.
제1항에 있어서,
상기 적어도 하나의 주행 변경은 상기 호스트 차량의 브레이크의 작동을 포함하는 것을 특징으로 하는 시스템.
According to claim 1,
The system of claim 1 , wherein the at least one travel change comprises activating brakes of the host vehicle.
제1항에 있어서,
상기 타깃 차량을 식별하는 과정은 적어도 하나의 경계 박스(bounding box)를 상기 타깃 차량의 형상과 연계하는 것을 포함하는 것을 특징으로 하는 시스템.
According to claim 1,
The system of claim 1 , wherein identifying the target vehicle includes associating at least one bounding box with a shape of the target vehicle.
제1항에 있어서,
상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 상기 영역은 도로면과 인접한 영역을 포함하는 것을 특징으로 하는 시스템.
According to claim 1,
The system of claim 1 , wherein the area containing the at least one wheel element of the target vehicle includes an area adjacent to a road surface.
제1항에 있어서,
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 과정은 상기 복수의 이미지의 적어도 두 이미지에서 상기 적어도 하나의 휠 요소의 회전이 표시되는지 여부를 모니터하는 것을 포함하는 것을 특징으로 하는 시스템.
According to claim 1,
The system of claim 1, wherein identifying motion associated with the at least one wheel element comprises monitoring whether rotation of the at least one wheel element is indicated in at least two images of the plurality of images.
제1항에 있어서,
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 과정은 상기 적어도 하나의 휠 요소와 연관된 적어도 하나의 특징을 식별하고 상기 적어도 하나의 특징의 위치 변화의 지시자를 식별하는 것을 포함하는 것을 특징으로 하는 시스템.
According to claim 1,
Wherein the process of identifying motion associated with the at least one wheel element includes identifying at least one feature associated with the at least one wheel element and identifying an indicator of a change in position of the at least one feature. .
제7항에 있어서,
상기 적어도 하나의 처리장치는 상기 적어도 하나의 휠 요소와 연관된 상기 적어도 하나의 특징의 상기 위치 변화에 기반하여 상기 타깃 차량이 이동하는 속도를 판단하도록 더 구성된 것을 특징으로 하는 시스템.
According to claim 7,
The system of claim 1 , wherein the at least one processing unit is further configured to determine a speed at which the target vehicle is traveling based on the change in position of the at least one feature associated with the at least one wheel element.
제8항에 있어서,
상기 적어도 하나의 처리장치는 상기 타깃 차량의 상기 속도에 기반하여 상기 호스트 차량에 대한 횡적 안전 거리를 판단하도록 더 구성된 것을 특징으로 하는 시스템.
According to claim 8,
wherein said at least one processing unit is further configured to determine a lateral safety distance to said host vehicle based on said speed of said target vehicle.
제9항에 있어서,
상기 타깃 차량의 상기 적어도 하나의 주행 변경은 상기 판단된 횡적 안전 거리에 기반하는 것을 특징으로 하는 시스템.
According to claim 9,
wherein the at least one driving change of the target vehicle is based on the determined lateral safety distance.
제1항에 있어서,
상기 적어도 하나의 휠 요소는 타이어, 휠 캡, 휠 구조의 적어도 하나를 포함하는 것을 특징으로 하는 시스템.
According to claim 1,
The system of claim 1, wherein the at least one wheel element comprises at least one of a tire, a wheel cap, and a wheel structure.
호스트 차량이 운행중인 차로를 향한 타깃 차량의 이동에 기반하여 상기 호스트 차량을 주행(navigating)하는 방법에 있어서:
상기 호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계;
상기 복수의 이미지의 적어도 하나를 분석하여 상기 타깃 차량 및 상기 타깃 차량의 측면의 적어도 하나의 휠 요소(wheel component)를 식별하는 단계;
상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 영역을 분석하여 상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계; 및
상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 상기 식별된 동작에 기반하여 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 포함하는, 방법.
A method for navigating a host vehicle based on movement of a target vehicle toward a lane in which the host vehicle is driving, comprising:
receiving a plurality of images associated with the environment of the host vehicle from an image capture device;
analyzing at least one of the plurality of images to identify the target vehicle and at least one wheel component of the side of the target vehicle;
identifying an action associated with the at least one wheel element of the target vehicle by analyzing a region including the at least one wheel element of the target vehicle in at least two images of the plurality of images; and
inducing at least one navigational change in the host vehicle based on the identified motion associated with the at least one wheel element of the target vehicle.
제12항에 있어서,
상기 타깃 차량을 식별하는 단계는 적어도 하나의 경계 박스(bounding box)를 상기 타깃 차량의 형상과 연계하는 단계를 포함하는 것을 특징으로 하는 방법.
According to claim 12,
wherein identifying the target vehicle comprises associating at least one bounding box with a shape of the target vehicle.
제12항에 있어서,
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계는 상기 복수의 이미지의 적어도 두 이미지에서 상기 적어도 하나의 휠 요소의 회전이 표시되는지 여부를 모니터하는 단계를 포함하는 것을 특징으로 하는 방법.
According to claim 12,
wherein identifying motion associated with the at least one wheel element comprises monitoring whether rotation of the at least one wheel element is indicated in at least two images of the plurality of images.
제12항에 있어서,
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계는 상기 적어도 하나의 휠 요소와 연관된 적어도 하나의 특징을 식별하고 상기 적어도 하나의 특징의 위치 변화의 지시자를 식별하는 단계를 포함하는 것을 특징으로 하는 방법.
According to claim 12,
Wherein identifying an action associated with the at least one wheel element comprises identifying at least one feature associated with the at least one wheel element and identifying an indicator of a change in position of the at least one feature. method.
제15항에 있어서,
상기 적어도 하나의 휠 요소와 연관된 상기 적어도 하나의 특징의 상기 위치 변화에 기반하여 상기 타깃 차량이 이동하는 속도를 판단하는 단계; 및
상기 타깃 차량의 상기 속도에 기반하여 상기 호스트 차량에 대한 횡적 안전 거리를 판단하는 단계를 더 포함하는, 방법.
According to claim 15,
determining a speed at which the target vehicle is moving based on the change in position of the at least one feature associated with the at least one wheel element; and
determining a lateral safety distance to the host vehicle based on the speed of the target vehicle.
적어도 하나의 처리장치에 의해 실행되는 경우에 방법을 수행하는 명령을 저장하는 비일시적 컴퓨터 가독 매체에 있어서, 상기 방법은:
호스트 차량의 주변환경과 연관된 복수의 이미지를 이미지캡처장치로부터 수신하는 단계;
상기 복수의 이미지의 적어도 하나를 분석하여 타깃 차량 및 상기 타깃 차량의 측면의 적어도 하나의 휠 요소(wheel component)를 식별하는 단계;
상기 복수의 이미지의 적어도 두 이미지에서 상기 타깃 차량의 상기 적어도 하나의 휠 요소를 포함하는 영역을 분석하여 상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계; 및
상기 타깃 차량의 상기 적어도 하나의 휠 요소와 연관된 상기 식별된 동작에 기반하여 상기 호스트 차량에 적어도 하나의 주행 변경(navigational change)을 유발하는 단계를 포함하는, 비일시적 컴퓨터 가독 매체.
A non-transitory computer readable medium storing instructions that, when executed by at least one processing unit, perform a method, the method comprising:
receiving a plurality of images associated with the environment of the host vehicle from an image capture device;
analyzing at least one of the plurality of images to identify a target vehicle and at least one wheel component of a side of the target vehicle;
identifying an action associated with the at least one wheel element of the target vehicle by analyzing a region including the at least one wheel element of the target vehicle in at least two images of the plurality of images; and
inducing at least one navigational change in the host vehicle based on the identified motion associated with the at least one wheel element of the target vehicle.
제17항에 있어서,
상기 타깃 차량을 식별하는 단계는 적어도 하나의 경계 박스(bounding box)를 상기 타깃 차량의 형상과 연계하는 단계를 포함하는 것을 특징으로 하는, 비일시적 컴퓨터 가독 매체.
According to claim 17,
wherein identifying the target vehicle comprises associating at least one bounding box with a shape of the target vehicle.
제17항에 있어서,
상기 적어도 하나의 휠 요소와 연관된 동작을 식별하는 단계는 상기 적어도 하나의 휠 요소와 연관된 적어도 하나의 특징을 식별하고 상기 적어도 하나의 특징의 위치 변화의 지시자를 식별하는 단계를 포함하는 것을 특징으로 하는, 비일시적 컴퓨터 가독 매체.
According to claim 17,
Wherein identifying an action associated with the at least one wheel element comprises identifying at least one feature associated with the at least one wheel element and identifying an indicator of a change in position of the at least one feature. , a non-transitory computer readable medium.
제19항에 있어서,
상기 적어도 하나의 휠 요소와 연관된 상기 적어도 하나의 특징의 상기 위치 변화에 기반하여 상기 타깃 차량이 이동하는 속도를 판단; 및
상기 타깃 차량의 상기 속도에 기반하여 상기 호스트 차량에 대한 횡적 안전 거리를 판단하는 명령을 더 저장하는, 비일시적 컴퓨터 가독 매체.

According to claim 19,
determining a speed at which the target vehicle is moving based on the change in position of the at least one feature associated with the at least one wheel element; and
and further storing instructions for determining a lateral safety distance to the host vehicle based on the speed of the target vehicle.

KR1020237002352A 2016-06-27 2017-06-27 controlling host vehicle based on detected spacing between stationary vehicles KR20230017365A (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201662354946P 2016-06-27 2016-06-27
US62/354,946 2016-06-27
US201762445500P 2017-01-12 2017-01-12
US62/445,500 2017-01-12
PCT/US2017/039427 WO2018005441A2 (en) 2016-06-27 2017-06-27 Controlling host vehicle based on detected parked vehicle characteristics
KR1020227003640A KR102493878B1 (en) 2016-06-27 2017-06-27 controlling host vehicle based on detected spacing between stationary vehicles

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020227003640A Division KR102493878B1 (en) 2016-06-27 2017-06-27 controlling host vehicle based on detected spacing between stationary vehicles

Publications (1)

Publication Number Publication Date
KR20230017365A true KR20230017365A (en) 2023-02-03

Family

ID=59315715

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020227003640A KR102493878B1 (en) 2016-06-27 2017-06-27 controlling host vehicle based on detected spacing between stationary vehicles
KR1020237002352A KR20230017365A (en) 2016-06-27 2017-06-27 controlling host vehicle based on detected spacing between stationary vehicles
KR1020187037446A KR102359806B1 (en) 2016-06-27 2017-06-27 Control of the host vehicle based on the detected parking vehicle characteristics

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020227003640A KR102493878B1 (en) 2016-06-27 2017-06-27 controlling host vehicle based on detected spacing between stationary vehicles

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020187037446A KR102359806B1 (en) 2016-06-27 2017-06-27 Control of the host vehicle based on the detected parking vehicle characteristics

Country Status (6)

Country Link
US (8) US10055653B2 (en)
EP (6) EP3475659B1 (en)
JP (2) JP6997106B2 (en)
KR (3) KR102493878B1 (en)
CN (5) CN110345961B (en)
WO (1) WO2018005441A2 (en)

Families Citing this family (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11609336B1 (en) * 2018-08-21 2023-03-21 Innovusion, Inc. Refraction compensation for use in LiDAR systems
US9898671B2 (en) 2015-05-11 2018-02-20 Magna Electronics Inc. Vehicle vision system with structure and motion estimation
JP6915542B2 (en) * 2015-09-30 2021-08-04 日本電気株式会社 Information processing equipment, notification system, information transmission method and program
DE102016102510A1 (en) * 2016-02-12 2017-08-17 Kiekert Aktiengesellschaft Method and device for acting on a motor vehicle door in the sense of braking in particular for collision avoidance
CN110345961B (en) * 2016-06-27 2020-10-16 御眼视觉技术有限公司 Controlling a host vehicle based on detected parked vehicle characteristics
US9984567B2 (en) * 2016-09-09 2018-05-29 Ford Global Technologies, Llc Detection of oncoming vehicles with IR light
US10629079B2 (en) * 2016-12-05 2020-04-21 Ford Global Technologies, Llc Vehicle collision avoidance
CN106650806B (en) * 2016-12-16 2019-07-26 北京大学深圳研究生院 A kind of cooperating type depth net model methodology for pedestrian detection
WO2018132608A2 (en) * 2017-01-12 2018-07-19 Mobileye Vision Technologies Ltd. Navigation based on occlusion zones
US9988048B1 (en) * 2017-03-03 2018-06-05 GM Global Technology Operations LLC Lane detection systems and methods
US10160459B2 (en) * 2017-03-22 2018-12-25 Ford Global Technologies, Llc Vehicle lane direction detection
US10089872B1 (en) * 2017-05-11 2018-10-02 Here Global B.V. Vehicle communication system for vehicle boarding area
JP2019016188A (en) * 2017-07-07 2019-01-31 株式会社日立製作所 Moving entity remote control system and moving entity remote control method
US11112796B2 (en) * 2017-08-08 2021-09-07 Uatc, Llc Object motion prediction and autonomous vehicle control
US10656657B2 (en) * 2017-08-08 2020-05-19 Uatc, Llc Object motion prediction and autonomous vehicle control
JP6540917B1 (en) * 2017-09-08 2019-07-10 日本精工株式会社 Self-propelled device, travel control method of self-propelled device and travel control program
US20190094858A1 (en) * 2017-09-25 2019-03-28 Uber Technologies, Inc. Parking Location Prediction
WO2019067193A1 (en) * 2017-09-28 2019-04-04 Apple Inc. Nighttime sensing
US10997491B2 (en) * 2017-10-04 2021-05-04 Huawei Technologies Co., Ltd. Method of prediction of a state of an object in the environment using an action model of a neural network
US10534253B2 (en) 2017-11-10 2020-01-14 Denso Corporation Camera module which includes lens units and configured to be mounted on inside of windshiled of vehicle
US10232800B1 (en) * 2017-11-10 2019-03-19 Denson Corporation Camera module
US10406995B2 (en) 2017-11-10 2019-09-10 Denso Corporation Camera module
US11181816B2 (en) 2017-11-10 2021-11-23 Denso Corporation Windshield-mounted camera module
US10627606B2 (en) * 2017-11-10 2020-04-21 Denso Corporation Camera module
DE102018218997A1 (en) 2017-11-10 2019-05-16 Denso Corporation camera module
US10661725B2 (en) * 2017-11-10 2020-05-26 Denso Corporation Camera module
KR20190063750A (en) * 2017-11-30 2019-06-10 주식회사 만도 Apparatus and method for controlling vehicle based on 3d space cognition
US10699571B2 (en) * 2017-12-04 2020-06-30 Ford Global Technologies, Llc High definition 3D mapping
JP6922706B2 (en) * 2017-12-06 2021-08-18 トヨタ自動車株式会社 Sensor mounting structure
CN110248861B (en) 2018-01-07 2023-05-30 辉达公司 Guiding a vehicle using a machine learning model during vehicle maneuvers
US10596958B2 (en) * 2018-01-30 2020-03-24 Toyota Research Institute, Inc. Methods and systems for providing alerts of opening doors
DE112019000065T5 (en) 2018-02-02 2020-03-05 Nvidia Corporation SAFETY PROCEDURE ANALYSIS TO AVOID OBSTACLES IN AN AUTONOMOUS VEHICLE
US11210537B2 (en) 2018-02-18 2021-12-28 Nvidia Corporation Object detection and detection confidence suitable for autonomous driving
US11417107B2 (en) * 2018-02-19 2022-08-16 Magna Electronics Inc. Stationary vision system at vehicle roadway
CN111095291B (en) 2018-02-27 2024-04-09 辉达公司 Real-time detection of lanes and boundaries by autonomous vehicles
CN108482367B (en) * 2018-03-13 2020-08-18 京东方科技集团股份有限公司 Method, device and system for assisting driving based on intelligent rearview mirror
DE112019000048T5 (en) 2018-03-15 2020-01-16 Nvidia Corporation DETERMINATION OF A ACCESSIBLE CLEARANCE FOR AUTONOMOUS VEHICLES
US10685239B2 (en) * 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection
US11080590B2 (en) 2018-03-21 2021-08-03 Nvidia Corporation Stereo depth estimation using deep neural networks
WO2019191306A1 (en) 2018-03-27 2019-10-03 Nvidia Corporation Training, testing, and verifying autonomous machines using simulated environments
EP3832261A1 (en) 2018-04-03 2021-06-09 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
CN111566441B (en) * 2018-04-18 2022-08-09 移动眼视力科技有限公司 Vehicle environment modeling with camera
CN108647638B (en) 2018-05-09 2021-10-12 东软睿驰汽车技术(上海)有限公司 Vehicle position detection method and device
US10706563B2 (en) * 2018-05-15 2020-07-07 Qualcomm Incorporated State and position prediction of observed vehicles using optical tracking of wheel rotation
US11966838B2 (en) 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
JP2020021188A (en) * 2018-07-31 2020-02-06 田中 成典 Automobile attitude estimation device
US10663963B2 (en) * 2018-08-03 2020-05-26 Here Global B.V. Method and apparatus for visualizing future events for passengers of autonomous vehicles
CN109345512A (en) * 2018-09-12 2019-02-15 百度在线网络技术(北京)有限公司 Processing method, device and the readable storage medium storing program for executing of automobile image
US11040714B2 (en) * 2018-09-28 2021-06-22 Intel Corporation Vehicle controller and method for controlling a vehicle
US11495028B2 (en) * 2018-09-28 2022-11-08 Intel Corporation Obstacle analyzer, vehicle control system, and methods thereof
US12007783B2 (en) 2018-10-01 2024-06-11 EmergeX, LLC Methods and systems for navigating autonomous and semi-autonomous vehicles
CN111159833B (en) * 2018-10-22 2024-06-18 阿波罗智能技术(北京)有限公司 Method and device for evaluating unmanned vehicle algorithm
US11132586B2 (en) * 2018-10-29 2021-09-28 Nec Corporation Rolling shutter rectification in images/videos using convolutional neural networks with applications to SFM/SLAM with rolling shutter images/videos
US10698415B2 (en) * 2018-10-31 2020-06-30 Trw Automotive U.S. Llc Vehicle assist system
US20200143546A1 (en) * 2018-11-05 2020-05-07 GM Global Technology Operations LLC Apparatus and method for detecting slow vehicle motion
US11610115B2 (en) 2018-11-16 2023-03-21 Nvidia Corporation Learning to generate synthetic datasets for training neural networks
US11105927B2 (en) * 2018-11-29 2021-08-31 Waymo Llc Localization initialization for autonomous vehicles
EP3663978A1 (en) * 2018-12-07 2020-06-10 Thinkware Corporation Method for detecting vehicle and device for executing the same
JP7122589B2 (en) * 2018-12-26 2022-08-22 パナソニックIpマネジメント株式会社 PARKING ASSIST DEVICE, PARKING ASSIST METHOD, AND COMPUTER PROGRAM
US11170299B2 (en) 2018-12-28 2021-11-09 Nvidia Corporation Distance estimation to objects and free-space boundaries in autonomous machine applications
DE112019006484T5 (en) 2018-12-28 2021-10-21 Nvidia Corporation DETECTION OF DISTANCE TO OBSTACLES IN AUTONOMOUS MACHINE APPLICATIONS
WO2020140049A1 (en) 2018-12-28 2020-07-02 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
US11361557B2 (en) 2019-01-18 2022-06-14 Toyota Research Institute, Inc. Attention-based recurrent convolutional network for vehicle taillight recognition
US10796206B2 (en) * 2019-01-31 2020-10-06 StradVision, Inc. Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same
KR102671622B1 (en) * 2019-02-01 2024-06-03 주식회사 에이치엘클레무브 Apparatus and method for parking space detection
US11520345B2 (en) 2019-02-05 2022-12-06 Nvidia Corporation Path perception diversity and redundancy in autonomous machine applications
DE102019202107B3 (en) * 2019-02-18 2020-04-23 Zf Friedrichshafen Ag Collision avoidance of an autonomous agricultural machine
US11648945B2 (en) 2019-03-11 2023-05-16 Nvidia Corporation Intersection detection and classification in autonomous machine applications
DE102019203334A1 (en) * 2019-03-12 2020-09-17 Robert Bosch Gmbh Method for carrying out a reaction to persons on vehicles
JP2020166479A (en) * 2019-03-29 2020-10-08 本田技研工業株式会社 Drive support device
US11077846B2 (en) 2019-03-31 2021-08-03 Gm Cruise Holdings Llc Controlling an autonomous vehicle based upon a predicted imminent lane change
DE102019204656A1 (en) * 2019-04-02 2020-10-08 Conti Temic Microelectronic Gmbh Parking assistance system
US11618439B2 (en) * 2019-04-11 2023-04-04 Phantom Auto Inc. Automatic imposition of vehicle speed restrictions depending on road situation analysis
CN110084230B (en) * 2019-04-11 2021-05-28 北京百度网讯科技有限公司 Image-based vehicle body direction detection method and device
JP7156152B2 (en) * 2019-04-17 2022-10-19 日本電信電話株式会社 Danger prediction method and danger prediction device
DE102019207190B3 (en) * 2019-05-16 2020-08-27 Volkswagen Aktiengesellschaft Method for parking a vehicle in a perpendicular parking space, taking into account headlight positions of vehicles parked next to it, as well as parking assistance system
WO2020242945A1 (en) * 2019-05-24 2020-12-03 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation based on image analysis
JP7309480B2 (en) * 2019-06-27 2023-07-18 フォルシアクラリオン・エレクトロニクス株式会社 In-vehicle device and control method for in-vehicle device
US11636307B2 (en) * 2019-07-08 2023-04-25 Uatc, Llc Systems and methods for generating motion forecast data for actors with respect to an autonomous vehicle and training a machine learned model for the same
CN110262511B (en) * 2019-07-12 2022-08-09 同济人工智能研究院(苏州)有限公司 Biped robot adaptive walking control method based on deep reinforcement learning
US10956776B2 (en) 2019-08-06 2021-03-23 Alibaba Group Holding Limited 2D convolutional accelerator that generates 3D results
US10922826B1 (en) 2019-08-07 2021-02-16 Ford Global Technologies, Llc Digital twin monitoring systems and methods
US11853863B2 (en) 2019-08-12 2023-12-26 Micron Technology, Inc. Predictive maintenance of automotive tires
US11586194B2 (en) 2019-08-12 2023-02-21 Micron Technology, Inc. Storage and access of neural network models of automotive predictive maintenance
US11635893B2 (en) 2019-08-12 2023-04-25 Micron Technology, Inc. Communications between processors and storage devices in automotive predictive maintenance implemented via artificial neural networks
US11748626B2 (en) 2019-08-12 2023-09-05 Micron Technology, Inc. Storage devices with neural network accelerators for automotive predictive maintenance
US11775816B2 (en) 2019-08-12 2023-10-03 Micron Technology, Inc. Storage and access of neural network outputs in automotive predictive maintenance
US11586943B2 (en) 2019-08-12 2023-02-21 Micron Technology, Inc. Storage and access of neural network inputs in automotive predictive maintenance
US12061971B2 (en) 2019-08-12 2024-08-13 Micron Technology, Inc. Predictive maintenance of automotive engines
US11498388B2 (en) 2019-08-21 2022-11-15 Micron Technology, Inc. Intelligent climate control in vehicles
US11042350B2 (en) 2019-08-21 2021-06-22 Micron Technology, Inc. Intelligent audio control in vehicles
US11702086B2 (en) 2019-08-21 2023-07-18 Micron Technology, Inc. Intelligent recording of errant vehicle behaviors
US10993647B2 (en) 2019-08-21 2021-05-04 Micron Technology, Inc. Drowsiness detection for vehicle control
US11361552B2 (en) * 2019-08-21 2022-06-14 Micron Technology, Inc. Security operations of parked vehicles
US11788861B2 (en) 2019-08-31 2023-10-17 Nvidia Corporation Map creation and localization for autonomous driving applications
US11693562B2 (en) 2019-09-05 2023-07-04 Micron Technology, Inc. Bandwidth optimization for different types of operations scheduled in a data storage device
US11409654B2 (en) 2019-09-05 2022-08-09 Micron Technology, Inc. Intelligent optimization of caching operations in a data storage device
US11436076B2 (en) 2019-09-05 2022-09-06 Micron Technology, Inc. Predictive management of failing portions in a data storage device
US11650746B2 (en) 2019-09-05 2023-05-16 Micron Technology, Inc. Intelligent write-amplification reduction for data storage devices configured on autonomous vehicles
US11435946B2 (en) 2019-09-05 2022-09-06 Micron Technology, Inc. Intelligent wear leveling with reduced write-amplification for data storage devices configured on autonomous vehicles
CN112572424B (en) * 2019-09-11 2022-05-17 北京百度网讯科技有限公司 Vehicle control method, device, equipment and medium based on obstacle recognition
US10824882B1 (en) 2019-09-13 2020-11-03 Ford Global Technologies, Llc Systems and methods for improving vehicle parking skills
EP4273837A3 (en) 2019-09-17 2024-01-17 Mobileye Vision Technologies Ltd. Systems and methods for predicting blind spot incursions
JP7206172B2 (en) * 2019-09-19 2023-01-17 京セラ株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOBILE OBJECT AND OBJECT DETECTION METHOD
DE102019125245A1 (en) * 2019-09-19 2021-03-25 Ford Global Technologies, Llc System and method for the demand-oriented adjustment of a passage between two vehicles
US11891057B2 (en) * 2019-09-24 2024-02-06 Seek Thermal, Inc. Thermal imaging system with multiple selectable viewing angles and fields of view for vehicle applications
US11386670B2 (en) * 2019-10-03 2022-07-12 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for tracking non-connected vehicles
DE102019128253B4 (en) * 2019-10-18 2024-06-06 StreetScooter GmbH Procedure for navigating an industrial truck
US12052481B2 (en) * 2019-11-07 2024-07-30 Sony Semiconductor Solutions Corporation Imaging apparatus
KR102155054B1 (en) * 2019-11-28 2020-09-11 국민대학교산학협력단 Method for predicting the intentional cut-in of neighboring vehicles using artificial intelligence
US11180080B2 (en) 2019-12-13 2021-11-23 Continental Automotive Systems, Inc. Door opening aid systems and methods
US11250648B2 (en) 2019-12-18 2022-02-15 Micron Technology, Inc. Predictive maintenance of automotive transmission
US11709625B2 (en) 2020-02-14 2023-07-25 Micron Technology, Inc. Optimization of power usage of data storage devices
US11531339B2 (en) 2020-02-14 2022-12-20 Micron Technology, Inc. Monitoring of drive by wire sensors in vehicles
US11195033B2 (en) * 2020-02-27 2021-12-07 Gm Cruise Holdings Llc Multi-modal, multi-technique vehicle signal detection
CN113496184A (en) * 2020-04-08 2021-10-12 北京京东乾石科技有限公司 Target detection method and device, computer storage medium and electronic equipment
US12077190B2 (en) 2020-05-18 2024-09-03 Nvidia Corporation Efficient safety aware path selection and planning for autonomous machine applications
CN116783455A (en) * 2020-06-24 2023-09-19 御眼视觉技术有限公司 System and method for detecting an open door
WO2022019747A1 (en) * 2020-07-24 2022-01-27 Mimos Berhad System and method for identification of text region in video
US12065172B2 (en) * 2020-07-24 2024-08-20 Autobrains Technologies Ltd Open door predictor
JP7466396B2 (en) 2020-07-28 2024-04-12 株式会社Soken Vehicle control device
KR102176188B1 (en) * 2020-08-07 2020-11-09 정만식 Electronic device for evaluating deterioration level of the road and the operating method thereof
US11210533B1 (en) 2020-08-09 2021-12-28 Phantom AI, Inc. Method of predicting trajectory of vehicle
GB2599442A (en) * 2020-10-04 2022-04-06 Gerard Bailey Samuel Measuring vehicle speed in video capture
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
CN112277939B (en) * 2020-10-30 2022-09-06 重庆长安汽车股份有限公司 Offset control system and method for avoiding front line-pressing vehicle
JP7452402B2 (en) * 2020-12-18 2024-03-19 トヨタ自動車株式会社 Vehicle door leaning detection system
CN112644479B (en) * 2021-01-07 2022-05-13 广州小鹏自动驾驶科技有限公司 Parking control method and device
US11724641B2 (en) * 2021-01-26 2023-08-15 Ford Global Technologies, Llc Hazard condition warning for package delivery operation
CN113012441B (en) * 2021-03-25 2023-01-13 北京百度网讯科技有限公司 Vehicle parking detection method, system, electronic device, and storage medium
US11794737B2 (en) 2021-04-07 2023-10-24 Ford Global Technologies, Llc Vehicle operation
US11919526B1 (en) * 2021-04-28 2024-03-05 Zoox, Inc. Model-based vehicle drive system monitors
CN113246968B (en) * 2021-06-15 2021-10-22 成都信息工程大学 Automatic driving automobile accurate parking control method and device
US12017577B2 (en) 2021-06-30 2024-06-25 Apple Inc. Vehicles with automatic headlight alignment
DE102021209783A1 (en) 2021-09-06 2023-03-09 Robert Bosch Gesellschaft mit beschränkter Haftung Method for providing data to create a digital map
JP7491279B2 (en) * 2021-09-08 2024-05-28 トヨタ自動車株式会社 Vehicle behavior prediction device
US11879610B2 (en) 2021-09-20 2024-01-23 Apple Inc. Multi-mode lights
CN113945224A (en) * 2021-10-18 2022-01-18 上海智能网联汽车技术中心有限公司 Automatic generation method and system for intelligent driving ADAS test scene
US20230236313A1 (en) * 2022-01-26 2023-07-27 Motional Ad Llc Thermal sensor data vehicle perception
US20230311863A1 (en) 2022-04-04 2023-10-05 Mobileye Vision Technologies Ltd. Detecting an open door using a sparse representation
US20230007914A1 (en) * 2022-09-20 2023-01-12 Intel Corporation Safety device and method for avoidance of dooring injuries
KR102593769B1 (en) * 2023-05-04 2023-10-25 박찬배 Wireless Object Recognition System by Artificial Intelligence And Object Recognition Method by the Same
CN116580066B (en) * 2023-07-04 2023-10-03 广州英码信息科技有限公司 Pedestrian target tracking method under low frame rate scene and readable storage medium

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5170352A (en) * 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
JPH08177263A (en) * 1994-12-21 1996-07-09 Mitsubishi Heavy Ind Ltd Method for detecting opening or closing of car door
EP0913751B1 (en) * 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomous vehicle and guiding method for an autonomous vehicle
JP2004122844A (en) * 2002-09-30 2004-04-22 Clarion Co Ltd Parking support system
JP4110937B2 (en) * 2002-11-18 2008-07-02 日産自動車株式会社 Parking assistance device
JP4752311B2 (en) * 2004-04-13 2011-08-17 日産自動車株式会社 Lane departure prevention device
JP2006113836A (en) * 2004-10-15 2006-04-27 Fuji Heavy Ind Ltd Road information providing system
JP2006268081A (en) 2005-03-22 2006-10-05 Denso Corp Front vehicle door opening alarm controller and front vehicle door opening alarm control program
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
CN100572169C (en) * 2007-02-09 2009-12-23 财团法人车辆研究测试中心 The auxiliary driving device on virtual road border
US9103671B1 (en) * 2007-11-29 2015-08-11 American Vehicular Sciences, LLC Mapping techniques using probe vehicles
DE102008003662A1 (en) * 2008-01-09 2009-07-16 Robert Bosch Gmbh Method and device for displaying the environment of a vehicle
DE102008004632A1 (en) * 2008-01-16 2009-07-23 Robert Bosch Gmbh Device and method for measuring a parking space
EP2107503A1 (en) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
JP5225820B2 (en) * 2008-11-25 2013-07-03 アイシン精機株式会社 Input device, vehicle periphery monitoring device, icon switch selection method and program
KR101048369B1 (en) * 2008-12-22 2011-07-11 한국전자통신연구원 Automatic parking method of vehicle and its device
JP4614005B2 (en) * 2009-02-27 2011-01-19 トヨタ自動車株式会社 Moving locus generator
CN101823435B (en) * 2009-03-03 2012-12-12 珠海市智汽电子科技有限公司 Vehicular automatic driving system convenient for external installation and manual/automatic switching
FR2947223B1 (en) * 2009-06-29 2015-05-01 Valeo Vision METHOD FOR CONTROLLING LIGHTING BEAM FOR VEHICLES
AT509438A1 (en) * 2010-01-18 2011-08-15 Zeno Track Gmbh Method and system for detecting the position of a vehicle in a defined area
JP5601453B2 (en) * 2010-03-30 2014-10-08 マツダ株式会社 Vehicle driving support device
IT1399988B1 (en) * 2010-05-05 2013-05-09 Space S R L Con Unico Socio SYSTEM AND ITS METHOD OF DETERMINING THE WHEEL ALIGNMENT OF A VEHICLE
CN101957176B (en) * 2010-09-19 2012-05-02 天津大学 Robot and camera combined calibration based method for detecting high-precision car door
US9118816B2 (en) 2011-12-06 2015-08-25 Mobileye Vision Technologies Ltd. Road vertical contour detection
US8514099B2 (en) * 2010-10-13 2013-08-20 GM Global Technology Operations LLC Vehicle threat identification on full windshield head-up display
CN102175172B (en) * 2010-12-30 2012-07-04 南京理工大学 Image-identification-based system for detecting contour dimension of motor vehicle
JP5482670B2 (en) 2011-01-12 2014-05-07 株式会社デンソー Object detection device
DE102011003881A1 (en) * 2011-02-09 2012-08-09 Robert Bosch Gmbh Method for assisting a driver of a motor vehicle
CN102692224B (en) * 2011-03-24 2015-08-05 昆达电脑科技(昆山)有限公司 Invest navigational system and the air navigation aid thereof of carrier
WO2012159109A2 (en) * 2011-05-19 2012-11-22 Bir Bhanu Dynamic bayesian networks for vehicle classification in video
CN202230205U (en) * 2011-08-06 2012-05-23 李良杰 Automatic toll collection system for vehicle positioning navigation, anti-collision reminding and toll station stop-free
JP5616301B2 (en) * 2011-08-10 2014-10-29 株式会社日本自動車部品総合研究所 Vehicle detection device
DE102011081382A1 (en) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Method and device for changing a light emission of at least one headlight of a vehicle
JP5810843B2 (en) * 2011-11-02 2015-11-11 アイシン・エィ・ダブリュ株式会社 Lane guidance display system, method and program
CN202582559U (en) * 2011-12-07 2012-12-05 北京北方胜达机电科技发展有限公司 Compass satellite navigation positioning monitoring system for logistics vehicle
US9187117B2 (en) * 2012-01-17 2015-11-17 Ford Global Technologies, Llc Autonomous lane control system
US8855847B2 (en) * 2012-01-20 2014-10-07 Toyota Motor Engineering & Manufacturing North America, Inc. Intelligent navigation system
US9429943B2 (en) * 2012-03-05 2016-08-30 Florida A&M University Artificial intelligence valet systems and methods
US8504233B1 (en) * 2012-04-27 2013-08-06 Google Inc. Safely navigating on roads through maintaining safe distance from other vehicles
US8849515B2 (en) 2012-07-24 2014-09-30 GM Global Technology Operations LLC Steering assist in driver initiated collision avoidance maneuver
DE102012215093A1 (en) * 2012-08-24 2014-02-27 Robert Bosch Gmbh Driver assistance system and method for operating the driver assistance system
JP6119956B2 (en) 2012-10-10 2017-04-26 三菱自動車工業株式会社 Vehicle danger avoidance support device
US9076034B2 (en) * 2012-12-07 2015-07-07 Analog Devices, Inc. Object localization using vertical symmetry
CN102991504B (en) * 2012-12-07 2015-06-03 长安大学 Method for determining and prewarning lane change safety of drivers
CN203047045U (en) * 2013-01-09 2013-07-10 谢健良 Light warning system of vehicle door knob
JP6036371B2 (en) * 2013-02-14 2016-11-30 株式会社デンソー Vehicle driving support system and driving support method
CN103204123B (en) * 2013-03-25 2015-07-08 中国电子科技集团公司第三十八研究所 Vehicle-pedestrian detecting, tracking and early-warning device and method
DE102013208763A1 (en) * 2013-05-13 2014-11-13 Robert Bosch Gmbh Method and device for recognizing a starting intention of a holding vehicle
CN103465828A (en) * 2013-05-21 2013-12-25 麦特汽车服务股份有限公司 Automobile steering early warning method and vehicle-mounted intelligent terminal device thereof
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US9024787B2 (en) * 2013-09-18 2015-05-05 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Controlling vehicular traffic on a one-way roadway
EP3751459A1 (en) * 2013-12-04 2020-12-16 Mobileye Vision Technologies Ltd. Adjusting velocity of a vehicle for a curve
JP6237214B2 (en) * 2013-12-24 2017-11-29 株式会社デンソー Reverse running detection device
EP3100206B1 (en) * 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
US9547989B2 (en) 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
CN103984950B (en) * 2014-04-22 2017-07-14 北京联合大学 A kind of moving vehicle brake light status recognition methods for adapting to detection on daytime
JP6190758B2 (en) * 2014-05-21 2017-08-30 本田技研工業株式会社 Object recognition device and vehicle
US9734583B2 (en) * 2014-06-30 2017-08-15 Collin Walker Systems and methods for controlling vehicle position and orientation
US9575184B2 (en) * 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
JP6325927B2 (en) * 2014-07-18 2018-05-16 日立オートモティブシステムズ株式会社 Object detection apparatus and vehicle control system using the same
DE102014011630A1 (en) 2014-08-01 2015-03-26 Daimler Ag A method of reacting a vehicle to a holding bus and a vehicle
JP6296162B2 (en) 2014-08-11 2018-03-20 日産自動車株式会社 Vehicle travel control apparatus and method
CN104156737B (en) * 2014-08-19 2017-07-11 哈尔滨工程大学 A kind of passenger on public transport Safe getting-off automatic testing method
CN104260723B (en) * 2014-09-29 2018-03-06 长安大学 A kind of front vehicle motion state tracking prediction meanss and Forecasting Methodology
JP6025268B2 (en) * 2014-10-31 2016-11-16 富士重工業株式会社 Vehicle travel control device
US9672433B2 (en) * 2014-11-14 2017-06-06 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-directional vehicle maneuvering assistance
JP6126573B2 (en) * 2014-12-25 2017-05-10 本田技研工業株式会社 Collision avoidance support device
US9475429B2 (en) * 2015-03-03 2016-10-25 Chengdu Haicun Ip Technology Llc Night detection of parked vehicles
US9557736B1 (en) * 2015-04-08 2017-01-31 Google Inc. Detecting street parked vehicles
US20160357262A1 (en) * 2015-06-05 2016-12-08 Arafat M.A. ANSARI Smart vehicle
KR101843773B1 (en) * 2015-06-30 2018-05-14 엘지전자 주식회사 Advanced Driver Assistance System, Display apparatus for vehicle and Vehicle
CN105059190B (en) * 2015-08-17 2018-05-29 上海交通大学 The automobile door opening collision warning device and method of view-based access control model
US9740944B2 (en) * 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
CN110345961B (en) * 2016-06-27 2020-10-16 御眼视觉技术有限公司 Controlling a host vehicle based on detected parked vehicle characteristics
US10160459B2 (en) * 2017-03-22 2018-12-25 Ford Global Technologies, Llc Vehicle lane direction detection

Also Published As

Publication number Publication date
KR102359806B1 (en) 2022-02-09
US10055653B2 (en) 2018-08-21
US20170371344A1 (en) 2017-12-28
CN109416257A (en) 2019-03-01
US10303959B2 (en) 2019-05-28
CN110345961B (en) 2020-10-16
US20170371347A1 (en) 2017-12-28
CN110345963A (en) 2019-10-18
EP3598074B1 (en) 2021-10-20
WO2018005441A2 (en) 2018-01-04
EP4283563A2 (en) 2023-11-29
US10127465B2 (en) 2018-11-13
US20170371343A1 (en) 2017-12-28
WO2018005441A3 (en) 2018-06-07
EP3614106A1 (en) 2020-02-26
JP2022050427A (en) 2022-03-30
US10262217B2 (en) 2019-04-16
US20210056327A1 (en) 2021-02-25
EP3611472A1 (en) 2020-02-19
JP2019524525A (en) 2019-09-05
EP3598074A1 (en) 2020-01-22
EP3475659B1 (en) 2020-05-20
US10832066B2 (en) 2020-11-10
CN110264500A (en) 2019-09-20
EP3614106B1 (en) 2021-10-27
EP3614105C0 (en) 2023-10-18
EP4283563A3 (en) 2024-05-29
CN110345961A (en) 2019-10-18
US20170371345A1 (en) 2017-12-28
EP3614105B1 (en) 2023-10-18
KR20220021020A (en) 2022-02-21
US20170371340A1 (en) 2017-12-28
US20240331405A1 (en) 2024-10-03
US10354157B2 (en) 2019-07-16
EP3614105A1 (en) 2020-02-26
CN109416257B (en) 2020-07-07
CN110345962B (en) 2022-04-26
US11915491B2 (en) 2024-02-27
JP6997106B2 (en) 2022-01-17
US20190294897A1 (en) 2019-09-26
EP3475659A2 (en) 2019-05-01
CN110345962A (en) 2019-10-18
KR20190028386A (en) 2019-03-18
EP3611472B1 (en) 2021-11-24
KR102493878B1 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
KR102493878B1 (en) controlling host vehicle based on detected spacing between stationary vehicles
KR102524851B1 (en) System and method for lane merging and lane separation navigation
US20210271260A1 (en) Navigating a vehicle based on a detected barrier
US10303958B2 (en) Systems and methods for curb detection and pedestrian hazard assessment

Legal Events

Date Code Title Description
A107 Divisional application of patent