KR101584907B1 - Method and Apparatus for recognizing lane using region of interest - Google Patents

Method and Apparatus for recognizing lane using region of interest Download PDF

Info

Publication number
KR101584907B1
KR101584907B1 KR1020140096749A KR20140096749A KR101584907B1 KR 101584907 B1 KR101584907 B1 KR 101584907B1 KR 1020140096749 A KR1020140096749 A KR 1020140096749A KR 20140096749 A KR20140096749 A KR 20140096749A KR 101584907 B1 KR101584907 B1 KR 101584907B1
Authority
KR
South Korea
Prior art keywords
angle
lanes
lane
edge
image information
Prior art date
Application number
KR1020140096749A
Other languages
Korean (ko)
Inventor
조상복
장영민
조재현
Original Assignee
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단 filed Critical 울산대학교 산학협력단
Priority to KR1020140096749A priority Critical patent/KR101584907B1/en
Application granted granted Critical
Publication of KR101584907B1 publication Critical patent/KR101584907B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is a method for recognizing a lane using a region of interest. According to an embodiment of the present invention, the method for recognizing a lane using a region of interest comprises the steps of: acquiring image information including the two lanes which are the left lane and the right lane; setting multiple regions of interest in the acquired image information to detect the edge of the two lanes; applying the Hough transformation to the edge of the two lanes detected for each of the multiple regions of interest to detect multiple straight lines corresponding to the edge; and using the multiple straight lines detected for each of the multiple regions of interest to recognize the border of the two lanes.

Description

관심 영역을 이용한 차선 인식 방법 및 그 장치{Method and Apparatus for recognizing lane using region of interest}[0001] The present invention relates to a method and apparatus for recognizing a lane using a region of interest,

본 발명의 일 실시예는 차선 인식에 관한 것으로, 특히 관심 영역을 이용한 차선 인식 방법 및 그 장치에 관한 것이다. One embodiment of the present invention relates to lane recognition, and more particularly, to a lane recognition method and apparatus using a region of interest.

최근에는 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 컴퓨터 등에 의해 주행, 정지, 회전, 속 또는 감속 등의 운전 조작이 자동으로 이루어지는 지능형 차량이 개발되고 있다.In recent years, there has been developed an intelligent vehicle in which a driving operation such as running, stopping, turning, decelerating, or decelerating is automatically performed by a computer or the like without directly operating the vehicle, even if there is no driver or there is a driver.

이러한 지능형 차량의 주요 과제는 주행차선의 유지, 인접차량과의 안전거리 확보와 근접 장애물의 검출과 충돌 회피, 교통상황이나 도로 환경에 따른 차량속도 제어 등이 있다.The main tasks of these intelligent vehicles are to maintain driving lanes, to establish safety distances to adjacent vehicles, to detect and avoid collision obstacles, to control collision avoidance, and to control vehicle speed in response to traffic conditions and road conditions.

더욱이, 정보통신 기술의 진전에 따라 차선이탈 경고 시스템(LDWS : Lane Departure Warning System)이나 차선 유지와 같은 안전운전 보조시스템, 차량 자동 제어시스템 등이 개발되어 지능형 차량의 실용화가 더욱 급속하게 진행되고 있다. 특히, 주행차선의 검출은 지능형 차량에서의 주요 과제를 해결하는 핵심기술의 하나로서, 많은 연구가 활발히 진행되고 있다.Further, according to the progress of information and communication technology, a safety driving assist system such as a lane departure warning system (LDWS) or a lane keeping system, and a vehicle automatic control system have been developed, and the practical use of the intelligent vehicle is progressing more rapidly . Especially, the detection of the driving lane is one of the core technologies for solving the main problems in the intelligent vehicle, and many researches are actively conducted.

이와 같은 주행차선의 검출은 안전 운전에 지대한 영향을 미치게 되므로, 차선의 위치를 추정하고 판단하기 위해 여러 가지 센서들을 활용하여 정확한 주행차선을 검출하고 있다. 예로서, 이미지 센서, 레이더(RADAR) 또는 라이다(LIDAR) 센서 등 다양한 센서들이, 차선의 검출이나 차량 전방의 물체 인식을 위해 단독 또는 융합된 형태로 지능형 차량제어 시스템 구현에 사용되고 있다.Since the detection of such a driving lane has a great influence on the safe driving, an accurate driving lane is detected by using various sensors in order to estimate and determine the position of the lane. For example, various sensors such as an image sensor, a RADAR or a LIDAR sensor have been used to implement an intelligent vehicle control system in a stand-alone or fused form for lane detection or object recognition in front of the vehicle.

특히, 이미지 센서에 의한 영상 기반 시스템은 저렴한 비용으로 많은 정보의 추출이 가능하고, 기존의 다양한 영상 처리 알고리즘을 활용할 수 있는 장점으로 인해 널리 활용되어 왔다.Especially, image based system using image sensor has been widely used because it can extract a lot of information at low cost and can utilize various image processing algorithms.

이러한 영상 기반의 차선검출 시스템은, 입력 영상으로부터 특징 정보를 추출하고, 차선검출을 위한 파라미터릭(Parametric) 모델과 매칭, 칼만(Kalman) 필터 또는 파티클(Particle) 필터링 등과 같은 갱신 알고리즘의 적용에 의한 근사화 방법이나, 허프 변환(HT:Hough Transform)과 같은 변환에 의한 논파라미터릭(Non-Parametric)모델 매칭 등의 방법을 이용하여 차선을 검출하고 있다.Such an image-based lane detection system can extract feature information from an input image, apply a parametric model for lane detection, update algorithms such as matching, Kalman filter or particle filtering, A lane is detected using a method such as an approximation method or a non-parametric model matching by conversion such as a Hough Transform (HT).

이와 같은 종래의 차선 검출 알고리즘들은 차선 이외의 직선 노이즈를 차선으로 인식하는 문제점이 있었고, 입력 영상의 모든 영역에 대해서 이미지 처리를 하여 연산량이 많았으며 급커브 구간에서는 차선 인식률이 떨어지는 문제점이 있었다. Such conventional lane detection algorithms have a problem of recognizing linear noises other than the lane as lanes and have a problem that the amount of computation is large by performing image processing for all areas of the input image and the lane recognition rate is decreased in the rapid curve section.

본 발명의 일 실시예의 목적은 차선 인식을 위한 연산량은 줄이면서도 차선의 오인식률은 낮출 수 있는 차선 인식 방법 및 그 장치를 제공하는 것이다. An object of an embodiment of the present invention is to provide a lane recognition method and apparatus which can reduce a calculation amount for lane recognition and reduce a lane recognition accuracy.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 차선 인식 방법은 왼쪽 및 오른쪽 차선의 2개 차선을 포함하는 영상 정보를 획득하는 단계; 상기 획득된 영상 정보에서 복수의 관심 영역을 설정하여 상기 2개 차선의 에지를 검출하는 단계; 상기 복수의 관심 영역별로 검출된 상기 2개 차선의 에지에 허프변환을 적용하여 상기 에지에 대응되는 복수의 직선을 검출하는 단계; 및 상기 복수의 관심 영역별로 검출된 상기 복수의 직선을 이용하여 상기 2개 차선의 경계를 인식하는 단계를 포함한다. According to an aspect of the present invention, there is provided a lane recognition method including: obtaining image information including two lanes of left and right lanes; Detecting edges of the two lanes by setting a plurality of regions of interest in the obtained image information; Applying a Hough transform to edges of the two lanes detected for each of the plurality of ROIs to detect a plurality of straight lines corresponding to the edges; And recognizing the boundaries of the two lanes using the plurality of straight lines detected for each of the plurality of ROIs.

바람직하게는, 상기 허프변환을 적용하여 상기 에지에 대응되는 복수의 직선을 검출하는 단계는 상기 에지에 포함되는 픽셀의 좌표별로 각도 및 거리의 매개변수 집합으로 표시되는 복수의 직선을 검출하되, 소정 각도 범위 이내의 직선만을 검출할 수 있다. Preferably, the step of detecting a plurality of straight lines corresponding to the edge by applying the Hough transform may include detecting a plurality of straight lines represented by a set of parameters of angles and distances according to the coordinates of pixels included in the edge, Only straight lines within the angular range can be detected.

바람직하게는, 상기 소정 각도 범위는 상기 왼쪽 차선의 에지에서의 최하단 지점에 대한 각도인 LLA(Left Low Angle)부터 상기 왼쪽 차선의 에지에서의 최상단 지점에 대한 각도인 LHA(Left High Angle)까지의 제1 각도 범위 및 상기 오른쪽 차선의 에지에서의 최하단 지점에 대한 각도인 RLA(Right Low Angle)부터 상기 오른쪽 차선의 에지에서의 최상단 지점에 대한 각도인 RHA(Left High Angle)까지의 제2 각도 범위를 포함할 수 있다. Preferably, the predetermined angle range is from an LLA (Left Low Angle) to an LH (Left High Angle), which is an angle to an uppermost point in an edge of the left lane, A second angular range from an RLA (Right Low Angle), which is an angle with respect to the lowermost point on the edge of the right lane to an RHA (Left High Angle), which is an angle with respect to the uppermost point on the edge of the right lane, . ≪ / RTI >

바람직하게는, 상기 2개 차선의 에지를 검출하는 단계는 상기 획득한 영상 정보에서의 상기 복수의 관심 영역을 흑백 영상 정보로 변환하는 단계; 상기 흑백 영상 정보에 가우시안 블러 필터를 적용하여 잡음을 제거하는 단계; 및 상기 잡음이 제거된 흑백 영상 정보에 소벨 마스크(sobel mask)를 적용하여상기 2개 차선의 윤곽선을 검출하는 단계를 포함한다. Advantageously, the step of detecting edges of the two lanes comprises the steps of converting the plurality of ROIs in the acquired image information into monochrome image information; Removing noise by applying a Gaussian blur filter to the monochrome image information; And detecting a contour of the two lanes by applying a sobel mask to the noise-removed monochrome image information.

바람직하게는, 상기 복수의 직선을 이용하여 상기 2개 차선의 경계를 인식하는 단계는 상기 2개 차선의 에지에 대한 상기 복수의 직선에 대응되는 복수의 각도의 평균 값인 평균 각도를 계산하는 단계; 및 상기 평균 각도를 이용하여 상기 2개 차선의 에지 각각에 대하여 1개씩의 차선 경계를 인식하는 단계를 포함한다. Preferably, recognizing the boundaries of the two lanes using the plurality of straight lines includes calculating an average angle that is an average value of a plurality of angles corresponding to the plurality of straight lines with respect to the edges of the two lanes; And recognizing one lane boundary for each of the two lane edges using the average angle.

바람직하게는, 상기 복수의 관심 영역은 개별적으로 또는 소정 그룹으로 그룹화되어 병렬적인 연산 처리 대상이 될 수 있다. Preferably, the plurality of regions of interest may be individually or grouped into a predetermined group and subjected to parallel processing.

또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 차선 인식 장치는 왼쪽 및 오른쪽 차선의 2개 차선을 포함하는 영상 정보를 획득하는 영상 획득부; 상기 획득된 영상 정보에서 복수의 관심 영역을 설정하여 상기 2개 차선의 에지를 검출하는 에지 검출부; 상기 복수의 관심 영역별로 검출된 상기 2개 차선의 에지에 허프변환을 적용하여 상기 에지에 대응되는 복수의 직선을 검출하는 허프 변환부; 및 상기 복수의 관심 영역별로 검출된 상기 복수의 직선을 이용하여 상기 2개 차선의 경계를 인식하는 차선 경계 인식부를 포함한다. According to another aspect of the present invention, there is provided a lane recognition apparatus comprising: an image acquisition unit for acquiring image information including two lanes of left and right lanes; An edge detector configured to detect edges of the two lanes by setting a plurality of ROIs in the obtained image information; A Hough transform unit for applying a Hough transform to edges of the two lanes detected for each of the plurality of ROIs to detect a plurality of straight lines corresponding to the edges; And a lane boundary recognition unit for recognizing the boundaries of the two lanes using the plurality of straight lines detected for each of the plurality of ROIs.

바람직하게는, 상기 허프 변환부는 상기 에지에 포함되는 픽셀의 좌표별로 각도 및 거리의 매개변수 집합으로 표시되는 복수의 직선을 검출하되, 소정 각도 범위 이내의 직선만을 검출하는 방식으로 상기 복수의 직선을 검출할 수 있다. Preferably, the Hough transform unit detects a plurality of straight lines represented by a set of parameters of angles and distances according to the coordinates of the pixels included in the edge, and detects the straight lines within a predetermined angle range, Can be detected.

바람직하게는, 상기 소정 각도 범위는 상기 왼쪽 차선의 에지에서의 최하단 지점에 대한 각도인 LLA(Left Low Angle)부터 상기 왼쪽 차선의 에지에서의 최상단 지점에 대한 각도인 LHA(Left High Angle)까지의 제1 각도 범위 및 상기 오른쪽 차선의 에지에서의 최하단 지점에 대한 각도인 RLA(Right Low Angle)부터 상기 오른쪽 차선의 에지에서의 최상단 지점에 대한 각도인 RHA(Left High Angle)까지의 제2 각도 범위를 포함할 수 있다. Preferably, the predetermined angle range is from an LLA (Left Low Angle) to an LH (Left High Angle), which is an angle to an uppermost point in an edge of the left lane, A second angular range from an RLA (Right Low Angle), which is an angle with respect to the lowermost point on the edge of the right lane to an RHA (Left High Angle), which is an angle with respect to the uppermost point on the edge of the right lane, . ≪ / RTI >

바람직하게는, 상기 에지 검출부는 상기 획득한 영상 정보에서의 상기 복수의 관심 영역을 흑백 영상 정보로 변환하는 흑백 영상 변환부; 상기 흑백 영상 정보에 가우시안 블러 필터를 적용하여 잡음을 제거하는 잡음 제거부; 및 상기 잡음이 제거된 흑백 영상 정보에 소벨 마스크를 적용하여 상기 2개 차선의 윤곽선을 검출하는 단계를 포함하는 에지 처리부를 포함할 수 있다. Preferably, the edge detecting unit comprises: a monochrome image converting unit for converting the plurality of interest regions in the acquired image information into monochrome image information; A noise removing unit for removing noise by applying a Gaussian blur filter to the monochrome image information; And an edge processing unit for detecting a contour of the two lanes by applying a sobell mask to the noise-removed monochrome image information.

바람직하게는, 상기 차선 경계 인식부는 상기 2개 차선의 에지에 대한 상기 복수의 직선에 대응되는 복수의 각도의 평균 값인 평균 각도를 계산하는 각도 연산부; 및 상기 평균 각도를 이용하여 상기 2개 차선의 에지 각각에 대하여 1개씩의 차선 경계를 인식하는 차선 처리부를 포함할 수 있다. .Preferably, the lane boundary recognizing unit includes: an angle calculating unit for calculating an average angle that is an average value of a plurality of angles corresponding to the plurality of straight lines with respect to edges of the two lanes; And a lane processing unit for recognizing one lane boundary for each of the edges of the two lanes using the average angle. .

바람직하게는, 상기 복수의 관심 영역 각각은 개별적으로 또는 소정 그룹으로 그룹화되어 병렬적인 연산 처리 대상이 될 수 있다. Preferably, each of the plurality of ROIs may be grouped individually or in a predetermined group so as to be subject to parallel processing.

본 발명의 일 실시예에 따르면 차선 인식을 위한 연산량은 줄이면서도 차선의 오인식률은 낮출 수 있는 효과가 있다. According to the embodiment of the present invention, there is an effect that the amount of calculation for lane recognition can be reduced and the lane recognition rate can be lowered.

또한, 본 발명의 다른 실시예에 따르면 복수의 관심 영역에 대한 병렬 처리를 통해 차선 인식을 위한 연산 시간을 단축시킬 수 있는 효과가 있다. According to another embodiment of the present invention, there is an effect that the calculation time for lane recognition can be shortened through parallel processing for a plurality of ROIs.

또한, 본 발명의 또 다른 실시예에 따르면 급커브 구간에서도 차선을 정확히 인식할 수 있는 효과가 있다. Further, according to another embodiment of the present invention, the lane can be accurately recognized even in the rapid curve section.

도 1은 본 발명의 일 실시예에 따른 차선 인식 방법을 설명하기 위하여 도시한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 복수의 관심 영역을 설명하기 위하여 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 복수의 관심 영역에서의 에지 검출 방법을 설명하기 위하여 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 소벨 마스크에 기초한 에지 검출 방법을 설명하기 위하여 도시한 도면이다 .
도 5는 본 발명의 일 실시예에 따른 허프 변환 방법을 허프 평면상에서 설명하기 위하여 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 허프 변환 방법을 좌표 평면상에서 설명하기 위하여 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 허프 변환 방법을 영상 정보상에서 설명하기 위하여 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 차선 인식 방법을 이용하여 영상 정보상에서 차선을 인식한 예시를 도시한 것이다.
도 9는 본 발명의 일 실시예에 따른 차선 인식 장치를 설명하기 위하여 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 에지 검출부를 설명하기 위하여 도시한 도면이다.
1 is a flowchart illustrating a lane recognition method according to an embodiment of the present invention.
2 is a diagram illustrating a plurality of regions of interest according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating an edge detection method in a plurality of ROIs according to an exemplary embodiment of the present invention. Referring to FIG.
4 is a diagram illustrating an edge detection method based on a Sobel mask according to an embodiment of the present invention.
5 is a diagram for explaining a Hough transform method according to an embodiment of the present invention on a Huff plane.
6 is a diagram for explaining a Hough transform method according to an embodiment of the present invention on a coordinate plane.
FIG. 7 is a diagram illustrating a Hough transform method according to an embodiment of the present invention in video information.
FIG. 8 illustrates an example of recognizing a lane on image information using a lane recognition method according to an embodiment of the present invention.
9 is a view for explaining a lane recognizing apparatus according to an embodiment of the present invention.
10 is a diagram illustrating an edge detector according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 차선 인식 방법을 설명하기 위하여 도시한 흐름도이다. 1 is a flowchart illustrating a lane recognition method according to an embodiment of the present invention.

단계 110에서는, 차선 인식 장치가 왼쪽 및 오른쪽 차선의 2개 차선을 포함하는 영상 정보를 획득한다. In step 110, the lane recognition device obtains image information including two lanes of the left and right lanes.

이때, 차선 인식 장치는 자동차에 탑재된 블랙박스이거나, 자동차에 설치된 사용자의 휴대용 단말일 수 있다. At this time, the lane recognizing device may be a black box mounted on a car or a portable terminal of a user installed in a car.

단계 120에서는, 차선 인식 장치가 그 획득된 영상 정보에서 복수의 관심 영역을 설정하여 2개 차선의 에지를 검출한다. In step 120, the lane recognizing device detects a two-lane edge by setting a plurality of ROIs in the acquired image information.

바람직하게는, 복수의 관심 영역은 영상 정보에서의 2개 차선을 포함하도록 영역이 구성되고, 상호간에 상하 또는 좌우로 인접하도록 위치할 수 있다. 이에 대해서는, 도 2에서 보다 상세히 설명한다. Preferably, the plurality of ROIs are configured to include two lanes in the image information, and may be positioned vertically or horizontally adjacent to each other. This will be described in more detail in Fig.

또한, 2개 차선의 에지를 검출하는 구체적인 방법에 대해서는 도 3 및 도 4를 참조하여 후술한다. A specific method of detecting the edges of the two lanes will be described later with reference to Figs. 3 and 4. Fig.

단계 130에서는, 차선 인식 장치가 복수의 관심 영역별로 검출된 2개 차선의 에지에 허프변환을 적용하여 에지에 대응되는 복수의 직선을 검출한다. In step 130, the lane recognition device applies a Hough transform to the edges of two lanes detected for each of a plurality of ROIs to detect a plurality of straight lines corresponding to the edges.

이때, 허프 변환을 적용하여 복수의 직선을 검출하는 방법에 대해서는 도 5 내지 도 7을 참조하여 후술한다. At this time, a method of detecting a plurality of straight lines by applying the Hough transform will be described later with reference to FIG. 5 to FIG.

단계 140에서는, 차선 인식 장치가 복수의 관심 영역별로 검출된 복수의 직선을 이용하여 2개 차선의 경계를 인식한다. In step 140, the lane recognition device recognizes the boundaries of two lanes using a plurality of straight lines detected for each of a plurality of ROIs.

이와 같이, 본 발명의 일 실시예는 입력되는 영상 정보의 모든 영역에 대해서 이미지 처리를 하는 것이 아니라, 복수의 관심 영역에 대해서만 이미지 처리를 하여 차선을 인식하므로 종래에 비해 연산량이 줄어드는 효과가 있다. As described above, according to the embodiment of the present invention, the image processing is not performed on all the areas of the inputted image information, but the lane is recognized by performing image processing only on a plurality of ROIs.

또한, 본 발명의 일 실시예에 따르면 복수의 관심 영역의 크기 및 위치를 적절히 설정함으로써 하나의 관심 영역에서만 차선을 검출하는 종래 기술에 비해 급커브 구간에서의 차선 인식을 정확하게 할 수 있는 효과가 있다. In addition, according to the embodiment of the present invention, it is possible to accurately recognize the lane in the rapid curve section as compared with the conventional art in which lanes are detected only in one region of interest by appropriately setting the size and position of a plurality of ROIs .

도 2는 본 발명의 일 실시예에 따른 복수의 관심 영역을 설명하기 위하여 도시한 도면이다. 2 is a diagram illustrating a plurality of regions of interest according to an embodiment of the present invention.

도 2에는 4개의 관심 영역(212, 214, 222, 224)이 도시되어 있는데, 왼쪽 두 개의 관심 영역(212, 214)은 왼쪽의 노란색 중앙선을 포함하는 관심 영역이고, 오른쪽 두 개의 관심 영역(222, 224)은 오른쪽의 하얀색 차선을 포함하는 관심 영역이다. In FIG. 2, four areas of interest 212, 214, 222 and 224 are shown, with the two left area of interest 212 and 214 being the area of interest including the left yellow centerline, , 224) is the area of interest that contains the white lane to the right.

도 2에 도시된 4개의 관심 영역(212, 214, 222, 224)은 입력되는 영상에서의 한 이미지 프레임 내에서 설정된 것인데, 도 2에서와 같이 관심 영역 상호간에 인접하도록 위치가 설정될 수도 있고, 관심 영역 각각이 소정의 간격만큼 떨어지도록 위치가 설정될 수도 있다. The four regions of interest 212, 214, 222, and 224 shown in FIG. 2 are set within an image frame in the input image. As shown in FIG. 2, the regions of interest may be set adjacent to each other, The position may be set such that each of the regions of interest is separated by a predetermined distance.

이때, 관심 영역은 사용자에 의하여 설정될 수도 있지만, 차선을 포함하는 것으로 추정되는 복수의 영역이 관심 영역으로 포함되도록 차선 인식 장치에 의해 자동으로 설정될 수도 있다. At this time, the ROI may be set by the user, but may be automatically set by the lane recognition device so that a plurality of regions estimated to include lanes are included as ROIs.

다만, 다른 실시예에서는 관심 영역들이 한 이미지 프레임이 아니라 복수의 이미지 프레임에 걸쳐 설정될 수도 있고, 이와 같이 복수의 이미지 프레임에 걸쳐 관심 영역이 설정된 경우에는 자동차가 차선을 변경하는 경우에도 차선을 정확히 인식할 수 있게 된다. However, in another embodiment, the ROIs may be set over a plurality of image frames rather than one image frame. If the ROI is set across a plurality of image frames, even if the car changes lanes, .

한편, 관심 영역은 개별적으로 또는 소정 그룹으로 그룹화되어 병렬적인 연산 처리 대상이 될 수 있다. 예컨대, 도 2에서 왼쪽 차선에 대한 관심 영역들(212, 214)을 제1 그룹으로 그룹화하고, 오른쪽 차선에 대한 관심 영역들(222, 224)을 제2 그룹으로 그룹화한 후, 제1 그룹과 제2 그룹 각각에 대해 병렬 연산을 수행할 수 있다. 또한, 도 2의 4개의 관심 영역(212, 214, 222, 224)마다 병렬적으로 차선 인식을 위한 연산이 수행될 수도 있다. On the other hand, the ROIs may be individually grouped into a predetermined group, and may be subject to parallel processing. For example, in FIG. 2, interest areas 212 and 214 for the left lane are grouped into a first group, interest areas 222 and 224 for the right lane are grouped into a second group, Parallel operations may be performed on each of the second groups. In addition, an operation for lane recognition may be performed in parallel for each of the four ROIs 212, 214, 222, and 224 in Fig.

이와 같은 병렬 처리를 통해, 관심 영역 설정 없이 영상 정보의 모든 영역에 대해서 이미지 처리를 수행하여 차선을 인식하는 종래 기술에 비해 본 발명의 경우가 더 짧은 연산 시간을 가지게 된다.  Through this parallel processing, the present invention has a shorter computation time than the prior art in which lane recognition is performed by performing image processing on all areas of image information without setting a region of interest.

도 3은 본 발명의 일 실시예에 따른 복수의 관심 영역에서의 에지 검출 방법을 설명하기 위하여 도시한 흐름도이다. FIG. 3 is a flowchart illustrating an edge detection method in a plurality of ROIs according to an exemplary embodiment of the present invention. Referring to FIG.

단계 310에서는, 차선 인식 장치가 영상 정보에서의 복수의 관심 영역을 흑백 영상 정보로 변환한다. In step 310, the lane recognition device converts a plurality of ROIs in the image information into monochrome image information.

이와 같이, 영상 정보를 흑백 영상 정보로 변환하는 이유는 차선 인식을 위한 연산량을 줄이기 위한 것이다. The reason for converting the image information into the monochrome image information is to reduce the amount of calculation for lane recognition.

단계 320에서는, 차선 인식 장치가 그 흑백 영상 정보에 가우시안 블러 필터를 적용하여 잡음을 제거한다. In step 320, the lane recognizing device applies a Gaussian blur filter to the monochrome image information to remove noise.

가우시안 블러 필터는 수학식 1과 같이 정의될 수 있다. The Gaussian blur filter can be defined as Equation (1).

Figure 112014071940673-pat00001
Figure 112014071940673-pat00001

이때, x는 좌표 평면상에서의 픽셀의 x 좌표 값이고, y는 좌표 평면상에서의 픽셀의 y 좌표 값이고,

Figure 112014071940673-pat00002
는 가우스 분포의 표준 편차를 나타낸다. Where x is the x coordinate value of the pixel on the coordinate plane, y is the y coordinate value of the pixel on the coordinate plane,
Figure 112014071940673-pat00002
Represents the standard deviation of the Gaussian distribution.

이와 같이, 본 발명의 일 실시예에서는 흑백 영상 정보에서 가우시안 블러 필터를 적용하여 잡음을 제거한 후 차선 인식을 위한 이미지 처리를 수행하게 되므로, 차선 이외의 직선 노이즈를 차선으로 인식하게 되는 종래 기술의 문제점이 해결될 수 있다. As described above, according to the embodiment of the present invention, the Gaussian blur filter is applied to the black and white image information to remove the noise, and the image processing for lane recognition is performed. Therefore, the problem of the prior art that the straight line noise other than the lane is recognized as the lane Can be solved.

단계 330에서는, 차선 인식 장치가 잡음이 제거된 흑백 영상 정보에 소벨 마스크(sobel mask)를 적용하여 2개 차선의 윤곽선을 검출한다. In step 330, the lane recognition device detects a contour of two lanes by applying a sobel mask to the black and white image information from which noise has been removed.

소벨 마스크를 이용한 윤곽선 검출 방법을 설명하면 다음과 같다. The outline detection method using the Sobel mask will be described as follows.

먼저, 윤곽선을 검출하기 위한 소벨 마스크를 결정하는데, 3x3의 소벨 마스크의 경우에는 가로 방향 마스크 Gx와 세로 방향 마스크 Gy가 수학식 2와 같이 정의된다. First, a Sobel mask for detecting a contour is determined. In the case of a 3x3 Sobel mask, a horizontal mask Gx and a vertical mask Gy are defined as in Equation (2).

Figure 112014071940673-pat00003
Figure 112014071940673-pat00003

다음으로, 소벨 마스크의 기울기의 크기를 수학식 3에 따라 산출하고, 기울기의 방향은 수학식 4에 따라 산출한다. Next, the magnitude of the inclination of the Sobel mask is calculated according to Equation (3), and the direction of the inclination is calculated according to Equation (4).

Figure 112014071940673-pat00004
Figure 112014071940673-pat00004

Figure 112015098256022-pat00038
Figure 112015098256022-pat00038

다음으로, 소벨 마스크가 적용된 영상 정보의 그레디언트 값의 각도를 수학식 5에 의해 산출한다. Next, the angle of the gradient value of the image information to which the Sobel mask is applied is calculated by Equation (5).

Figure 112014071940673-pat00006
Figure 112014071940673-pat00006

마지막으로, 그레디언트 값의 각도를 높은 임계값(High Threshold) 및 낮은 임계값(Low threshold)과 비교하여 윤곽선을 검출하게 된다. 보다 구체적으로는, 그레디언트 값의 각도 d가 높은 임계값보다 높은 값을 가지면 강한 에지 픽셀로서 표시하고, 그레디언트 값의 각도 d가 낮은 임계값보다 작은 값을 가지면 약한 에지 픽셀로서 표시를 억제하는 방식으로 윤곽선을 검출하게 된다. Finally, the contour is detected by comparing the angle of the gradient value with the high threshold and the low threshold. More specifically, when the angle d of the gradient value has a value higher than the high threshold value, it is displayed as a strong edge pixel, and when the angle d of the gradient value has a value smaller than the low threshold value, display is suppressed as a weak edge pixel The contour is detected.

도 4는 본 발명의 일 실시예에 따른 소벨 마스크에 기초한 에지 검출 방법을 설명하기 위하여 도시한 도면이다 .4 is a diagram illustrating an edge detection method based on a Sobel mask according to an embodiment of the present invention.

도 4는 입력 영상 정보를 흑백 영상 정보로 변환한 후 가우시안 블러 필터를 적용하고, 최종적으로 소벨 마스크를 적용하여 영상 정보 내의 객체들의 윤곽선을 관심 영역별(212, 214, 222, 224)로 검출하여 표시한 도면이다. 4, the input image information is converted into monochrome image information, and then a Gaussian blur filter is applied. Finally, a contour line of the objects in the image information is detected by the regions of interest 212, 214, 222, and 224 by applying a Sobel mask Fig.

도 4에서는 차량의 윤곽선과 차선의 에지가 표시되어 있는데, 가우시안 블러 필터를 적용한 후 소벨 마스크를 적용함으로써 차선 근처의 잡음이 제거되어 표시된 것이다. In Fig. 4, the outline of the vehicle and the edge of the lane are displayed. After applying the Gaussian Blur filter, the noise near the lane is removed by applying the Sobel mask.

도 5는 본 발명의 일 실시예에 따른 허프 변환 방법을 허프 평면상에서 설명하기 위하여 도시한 도면이다. 5 is a diagram for explaining a Hough transform method according to an embodiment of the present invention on a Huff plane.

도 5(a)는 2개 차선에 대한 에지에 포함된 좌표 평면상의 4개의 픽셀을 종래의 허프 변환 방식에 따라 허프 평면상에 변환하여 표시한 것으로 좌표평면상에서 (x,y)의 좌표를 가지는 픽셀은 수학식 6에 의해 허프 변환되어 허프 평면상에 표시될 수 있다. Fig. 5 (a) shows four pixels on a coordinate plane included in an edge for two lanes, which are converted and displayed on a Hough plane according to a conventional Hough transform scheme. The coordinates (x, y) The pixel can be Huff transformed by the equation (6) and displayed on the Huff plane.

Figure 112014071940673-pat00007
Figure 112014071940673-pat00007

이때,

Figure 112014071940673-pat00008
는 원점에서 (x,y)의 좌표를 가지는 픽셀까지의 직선 거리를 나타내고,
Figure 112014071940673-pat00009
Figure 112014071940673-pat00010
와 y축이 이루는 각도를 나타낸다. At this time,
Figure 112014071940673-pat00008
Represents the straight line distance from the origin to a pixel having coordinates of (x, y)
Figure 112014071940673-pat00009
The
Figure 112014071940673-pat00010
And the y-axis.

도 5(a)에서는 좌표평면상의 4개의 픽셀이 수학식 6에 따라 허프 변환되어 허프 평면상에 4개의 곡선으로 표시되어 있는데, 이와 같은 허프 평면상에서 직선을 검출하기 위해서는 최소 2개의 픽셀이 허프 평면상에서 만나는 지점을 찾아야 한다. 도 5(a)의 그래프를 원점에서의 시작 위치에 따라 위에서부터 순차적으로 각각 제1 픽셀 그래프, 제2 픽셀 그래프, 제3 픽셀 그래프, 제4 픽셀 그래프로 명명하면, 제1 픽셀 그래프와 제2 픽셀 그래프의 교점인

Figure 112014071940673-pat00011
을 지나는 직선이 검출되고, 제3 픽셀 그래프와 제4 픽셀 그래프의 교점인
Figure 112014071940673-pat00012
를 지나는 직선이 검출될 수 있다. 이와 같은 방식으로 2개 차선에 대한 에지에 포함된 좌표 평면상에 포함된 모든 픽셀에 대해 허프 변환을 적용하면 에지에 포함되는 픽셀의 좌표별로 각도 및 거리의 매개변수 집합으로 표시되는 복수의 직선을 검출할 수 있다. 하지만, 이와 같은 방식은 픽셀별로 모든 각도에 대하여 직선을 검출하기 때문에 연산량이 지나치게 많다는 문제점이 있다. In FIG. 5 (a), four pixels on the coordinate plane are Huff transformed according to Equation (6) and are represented by four curves on the Huff plane. In order to detect a straight line on such a Huff plane, On the other hand. The graph of FIG. 5A is referred to as a first pixel graph, a second pixel graph, a third pixel graph, and a fourth pixel graph sequentially from the top according to the starting position at the origin, The intersection of a pixel graph
Figure 112014071940673-pat00011
Is detected, and the intersection of the third pixel graph and the fourth pixel graph
Figure 112014071940673-pat00012
Can be detected. In this way, applying a Hough transform to all the pixels contained on the coordinate plane included in the edge for the two lanes will cause a plurality of straight lines to be displayed as a set of parameters of angles and distances in the coordinates of the pixels contained in the edges Can be detected. However, such a method has a problem that a calculation amount is excessively large because a straight line is detected for every angle for each pixel.

본 발명의 일 실시예는 이와 같은 연산량을 줄이기 위하여 도 5(b)에서와 같이 허프 변환을 통해 에지에 대응되는 직선을 검출할 때 소정 각도 범위 이내의 직선만을 검출하여 연산량을 줄이게 된다. In an embodiment of the present invention, when detecting a straight line corresponding to an edge through Hough transform, as shown in FIG. 5 (b), only a straight line within a predetermined angle range is detected to reduce the amount of calculation.

보다 구체적으로는, 왼쪽 차선의 에지에서의 최하단 지점에 대한 각도인 LLA(Left Low Angle)부터 왼쪽 차선의 에지에서의 최상단 지점에 대한 각도인 LHA(Left High Angle)까지의 제1 각도 범위 및 오른쪽 차선의 에지에서의 최하단 지점에 대한 각도인 RLA(Right Low Angle)부터 오른쪽 차선의 에지에서의 최상단 지점에 대한 각도인 RHA(Left High Angle)까지의 제2 각도 범위에서만 직선을 검출하게 된다. 도 5(b)에서는 제1 각도 범위와 제2 각도 범위 이외의 각도 범위에서는 허프 변환을 통한 직선 검출 연산을 수행할 필요가 없게 되므로, 도 5(a)에 비해서 연산량이 훨씬 줄게 되는 효과가 있다. More specifically, a first angular range from LLA (Left Low Angle), which is an angle to the lowermost point on the edge of the left lane to LHA (Left High Angle), which is an angle to the uppermost point on the edge of the left lane, The straight line is detected only in the second angle range from the right low angle (RLA) to the lowermost point in the lane edge to the left high angle (RHA), which is the angle with respect to the uppermost point in the right lane edge. In Fig. 5 (b), it is not necessary to perform the straight line detection calculation through the Hough transform in the angular ranges other than the first angular range and the second angular range, so that the calculation amount is much reduced as compared with Fig. 5 (a) .

에지에 대응되는 직선을 검출할때 적용되는 제1 각도 범위 및 제2 각도 범위에 대한 구체적인 설명은 도 6을 참조하여 후술한다. A detailed description of the first angular range and the second angular range applied when detecting a straight line corresponding to an edge will be described later with reference to Fig.

도 6은 본 발명의 일 실시예에 따른 허프 변환 방법을 좌표 평면상에서 설명하기 위하여 도시한 도면이다. 6 is a diagram for explaining a Hough transform method according to an embodiment of the present invention on a coordinate plane.

도 6은 영상 정보에 포함된 2개의 차선 중에서

Figure 112014071940673-pat00013
의 좌표를 가지는 픽셀을 지나는 빨간색의 왼쪽 차선에 대한 직선(L1)을 검출하기 위한 제1 각도 범위를 설명하기 위한 도면이다. Fig. 6 is a view showing a state in which two lanes included in the image information
Figure 112014071940673-pat00013
And the first angular range for detecting the straight line L1 to the left lane of red passing through the pixel having the coordinates

도 6에서 1번으로 표시되는 직선은

Figure 112014071940673-pat00014
를 지나는 직선을 나타내고, 2번으로 표시되는 직선은
Figure 112014071940673-pat00015
의 좌표의 픽셀과 왼쪽 차선의 에지에서의 최하단 지점에 위치하는 픽셀을 연결하는 직선을 나타내고, 3번으로 표시되는 직선은
Figure 112014071940673-pat00016
의 좌표의 픽셀과 왼쪽 차선의 에지에서의 최상단 지점에 위치하는 픽셀을 연결하는 직선을 나타낸다. The straight line indicated by numeral 1 in Fig.
Figure 112014071940673-pat00014
And the straight line indicated by 2 indicates the straight line passing through
Figure 112014071940673-pat00015
And a straight line connecting the pixel at the lowest point in the left lane edge and the pixel at the coordinates of
Figure 112014071940673-pat00016
And the pixel located at the uppermost point in the edge of the left lane.

이때, 도 6의 2번 직선에 대한 각도가 LLA(Left Low Angle)이고 3번 직선에 대한 각도가 LHA(Left High Angle)이며 LLA부터 LHA까지의 각도 범위

Figure 112014071940673-pat00017
가 제1 각도 범위가 된다. 본 발명의 일 실시예에서는 제1 각도 범위 내에서만 왼쪽 차선의 에지에 대응되는 직선들을 검출하므로, 모든 각도 범위 내에서 직선들을 검출하는 종래 기술에 비해 연산량이 줄어들게 된다. In this case, the angle of the second straight line in FIG. 6 is LLA (Left Low Angle), the angle of the third straight line is LHA (Left High Angle), and the angle range from LLA to LHA
Figure 112014071940673-pat00017
Becomes the first angle range. In one embodiment of the present invention, since the straight lines corresponding to the edges of the left lane are detected only within the first angle range, the amount of computation is reduced as compared with the prior art in which straight lines are detected within all angular ranges.

한편, 오른쪽 차선에 대한 제2 각도 범위의 산출은 도 6에서의 왼쪽 차선에 대한 제1 각도 범위와 실질적으로 동일한 프로세스에 기초하여 수행되므로, 상세한 설명은 생략한다. On the other hand, the calculation of the second angular range with respect to the right lane is performed based on a process substantially the same as the first angular range with respect to the left lane in Fig. 6, and thus detailed description will be omitted.

도 7은 본 발명의 일 실시예에 따른 허프 변환 방법을 영상 정보상에서 설명하기 위하여 도시한 도면이다. FIG. 7 is a diagram illustrating a Hough transform method according to an embodiment of the present invention in video information.

도 7은 도 4에서 검출된 차선에 대한 에지에 대응되는 보라색으로 표시된 복수의 직선이 관심 영역별(712, 714, 722, 724)로 도시된 도면이다. 이때, 도 7에 도시된 에지에 대응되는 복수의 직선은 제1 각도 범위와 제2 각도 범위 내에서 검출된 직선들이다. FIG. 7 is a diagram showing a plurality of straight lines indicated by purple corresponding to the edges of the detected lanes in FIG. 4, by regions of interest 712, 714, 722, and 724. At this time, a plurality of straight lines corresponding to the edges shown in Fig. 7 are straight lines detected within the first angular range and the second angular range.

도 7에서 차선에 대한 에지에 대응하여 검출된 직선들은 실제 차선 영역과 겹쳐지지만, 상대적으로 넓은 영역을 차지하고 있어 정확한 경계를 판단하기 어려운 점이 있다. 따라서, 차선의 경계를 한개의 직선으로 명확히 표시할 필요가 있는데, 이에 대해서는 도 8을 참조하여 후술한다. In FIG. 7, the straight lines detected in correspondence with the edge of the lane overlap with the actual lane area, but occupy a relatively large area, making it difficult to determine an accurate boundary. Therefore, it is necessary to clearly display the boundary of the lane by one straight line, which will be described later with reference to Fig.

도 8은 본 발명의 일 실시예에 따른 차선 인식 방법을 이용하여 영상 정보상에서 차선을 인식한 예시를 도시한 것이다. FIG. 8 illustrates an example of recognizing a lane on image information using a lane recognition method according to an embodiment of the present invention.

도 8에서는 도 7에 비해 차선에 대한 에지에 대응하여 검출된 직선의 폭이 좁게 초록색으로 표시되어 있는데, 도 8의 초록색 직선의 폭이 좁은 이유는 도 7에서는 차선에 대한 에지에 대응하여 복수의 직선을 검출하여 표시한 것이지만 도 8에서는 그 검출된 복수의 직선 중에서 한개의 직선만을 표시한 것이기 때문이다. 이와 같이 도 8에서 한개의 직선만을 표시한 이유는 차선의 경계를 표시하기 위해서는 복수의 직선이 모두 필요 없고 왼쪽 차선과 오른쪽 차선 각각에 대응되는 한개씩의 직선만으로 차선의 경계를 표시할 수 있기 때문이다. In FIG. 8, the width of the detected straight line corresponding to the edge of the lane is narrowly indicated as green compared to FIG. 7. The reason why the width of the green straight line in FIG. 8 is narrow is that, This is because only one straight line among the detected plurality of straight lines is displayed in Fig. 8, only one straight line is displayed because a plurality of straight lines are not required to display the boundary of the lane, and the boundary of the lane can be displayed with only one straight line corresponding to each of the left lane and the right lane .

도 7에서 차선을 표시하기 위해 검출된 복수의 직선들 중에서 도 8과 같이 한개의 직선을 검출하기 위해서는 복수의 직선들에 대응되는 평균 각도를 이용한다. In FIG. 7, an average angle corresponding to a plurality of straight lines is used to detect one straight line among a plurality of straight lines detected to display a lane, as shown in FIG.

이때, 왼쪽 차선에 대응되는 복수의 직선들의 평균 각도는 수학식 7에 의하여 계산되고, 오른쪽 차선에 대응되는 복수의 직선들의 평균 각도는 수학식 8에 의하여 계산될 수 있다. The average angle of the plurality of straight lines corresponding to the left lane is calculated by Equation (7), and the average angle of the plurality of straight lines corresponding to the right lane can be calculated by Equation (8).

Figure 112014071940673-pat00018
Figure 112014071940673-pat00018

Figure 112014071940673-pat00019
Figure 112014071940673-pat00019

이때, 수학식 7에서는 n개의 직선들의 각도의 평균 값인 평균 각도

Figure 112014071940673-pat00020
를 계산하고, 수학식 8에서는 m개의 직선들의 각도의 평균 값인 평균 각도
Figure 112014071940673-pat00021
를 계산한다. In Equation (7), an average value of angles of n straight lines
Figure 112014071940673-pat00020
In Equation (8), an average value of the angles of m straight lines
Figure 112014071940673-pat00021
.

다음으로, 수학식 7 및 수학식 8에 의하여 왼쪽 차선 및 오른쪽 차선의 복수의 직선들의 평균 각도가 계산되면, 수학식 9 및 수학식 10에 의해 왼쪽 차선 및 오른쪽 차선 각각에 대해 1개씩의 직선이 검출된다. Next, when the average angles of the plurality of straight lines in the left lane and the right lane are calculated by Equations (7) and (8), one straight line is calculated for each of the left lane and the right lane by Equations (9) and .

Figure 112014071940673-pat00022
Figure 112014071940673-pat00022

Figure 112014071940673-pat00023
Figure 112014071940673-pat00023

즉, 수학식 9에 의해서 복수의 직선들 중에서 거리

Figure 112014071940673-pat00024
과 각도
Figure 112014071940673-pat00025
를 갖는 한개의 직선이 검출되고, 수학식 10에 의해서 복수의 직선들 중에서 거리
Figure 112014071940673-pat00026
와 각도
Figure 112014071940673-pat00027
를 갖는 한개의 직선이 검출된다. That is, according to Equation (9), the distance
Figure 112014071940673-pat00024
And angle
Figure 112014071940673-pat00025
One of the straight lines is detected, and the distance < RTI ID = 0.0 >
Figure 112014071940673-pat00026
And angle
Figure 112014071940673-pat00027
Is detected.

도 9는 본 발명의 일 실시예에 따른 차선 인식 장치를 설명하기 위하여 도시한 도면이다. 9 is a view for explaining a lane recognizing apparatus according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 일 실시예에 따른 차선 인식 장치는 영상 획득부(910), 에지 검출부(920), 허프 변환부(930) 및 차선 경계 인식부(940)를 포함한다. 9, the lane recognizing apparatus according to an embodiment of the present invention includes an image obtaining unit 910, an edge detecting unit 920, a Hough transform unit 930, and a lane boundary recognizing unit 940. [

영상 획득부(910)는 왼쪽 및 오른쪽 차선의 2개 차선을 포함하는 영상 정보를 획득한다. The image obtaining unit 910 obtains image information including two lanes of the left and right lanes.

에지 검출부(920)는 영상 획득부(910)를 통해 획득한 영상 정보에서 복수의 관심 영역을 설정하여 2개 차선의 에지를 검출한다. The edge detection unit 920 detects edges of two lanes by setting a plurality of ROIs in the image information acquired through the image acquisition unit 910. [

에지 검출부(920)의 세부 구성에 대해서는 도 10에서 후술한다. The detailed configuration of the edge detecting unit 920 will be described later with reference to FIG.

허프 변환부(930)는 복수의 관심 영역별로 검출된 2개 차선의 에지에 허프변환을 적용하여 에지에 대응되는 복수의 직선을 검출한다. The Hough transform unit 930 applies a Hough transform to edges of two lanes detected for each of a plurality of ROIs to detect a plurality of straight lines corresponding to the edges.

차선 경계 인식부(940)는 복수의 관심 영역별로 검출된 복수의 직선을 이용하여 2개 차선의 경계를 인식한다. The lane boundary recognition unit 940 recognizes the boundaries of two lanes using a plurality of straight lines detected for each of a plurality of ROIs.

바람직하게는, 차선 경계 인식부(940)는 2개 차선의 에지에 대한 복수의 직선에 대응되는 복수의 각도의 평균 값인 평균 각도를 계산하는 각도 연산부(미도시) 및 그 평균 각도를 이용하여 2개 차선의 에지 각각에 대하여 1개씩의 차선 경계를 인식하는 차선 처리부(미도시)를 포함할 수 있다. Preferably, the lane boundary recognizing unit 940 includes an angle calculating unit (not shown) for calculating an average angle that is an average value of a plurality of angles corresponding to a plurality of straight lines with respect to edges of two lanes, and an angle calculating unit And a lane processing unit (not shown) for recognizing one lane boundary for each of the edges of the lane.

도 10은 본 발명의 일 실시예에 따른 에지 검출부를 설명하기 위하여 도시한 도면이다. 10 is a diagram illustrating an edge detector according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 일 실시예에 따른 에지 검출부(920)는 흑백 영상 변환부(922), 잡음 제거부(924) 및 에지 처리부(926)를 포함한다. 10, an edge detector 920 according to an exemplary embodiment of the present invention includes a monochrome image converter 922, a noise eliminator 924, and an edge processor 926. Referring to FIG.

흑백 영상 변환부(922)는 영상 정보에서의 복수의 관심 영역을 흑백 영상 정보로 변환한다. The monochrome image converting unit 922 converts a plurality of regions of interest in the image information into monochrome image information.

잡음 제거부(924)는 흑백 영상 정보에 가우시안 블러 필터를 적용하여 잡음을 제거한다. The noise removing unit 924 removes noise by applying a Gaussian blur filter to the monochrome image information.

에지 처리부(926)는 잡음이 제거된 흑백 영상 정보에 소벨 마스크를 적용하여 2개 차선의 에지를 검출한다. The edge processing unit 926 detects a two-lane edge by applying a Sobel mask to the monochrome image information from which noise has been removed.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.The above-described embodiments of the present invention can be embodied in a general-purpose digital computer that can be embodied as a program that can be executed by a computer and operates the program using a computer-readable recording medium.

상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 를 포함한다.The computer readable recording medium includes a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM, DVD, etc.).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (12)

왼쪽 및 오른쪽 차선의 2개 차선을 포함하는 영상 정보를 획득하는 단계;
상기 획득된 영상 정보에서 복수의 관심 영역을 설정하여 상기 2개 차선의 에지를 검출하는 단계;
상기 복수의 관심 영역별로 검출된 상기 2개 차선의 에지에 허프변환을 적용하여 상기 에지에 대응되는 소정 각도 범위 내의 복수의 직선을 검출하는 단계; 및
상기 복수의 관심 영역별로 검출된 상기 복수의 직선을 이용하여 상기 2개 차선의 경계를 인식하는 단계를 포함하되,
상기 소정 각도 범위는
상기 왼쪽 차선의 에지에서의 최하단 지점에 대한 각도인 LLA(Left Low Angle)부터 상기 왼쪽 차선의 에지에서의 최상단 지점에 대한 각도인 LHA(Left High Angle)까지의 제1 각도 범위 및 상기 오른쪽 차선의 에지에서의 최하단 지점에 대한 각도인 RLA(Right Low Angle)부터 상기 오른쪽 차선의 에지에서의 최상단 지점에 대한 각도인 RHA(Left High Angle)까지의 제2 각도 범위를 포함하는 것을 특징으로 하는 차선 인식 방법.
Obtaining image information including two lanes of left and right lanes;
Detecting edges of the two lanes by setting a plurality of regions of interest in the obtained image information;
Applying a Hough transform to edges of the two lanes detected for each of the plurality of ROIs to detect a plurality of straight lines within a predetermined angle range corresponding to the edges; And
Recognizing a boundary of the two lanes using the plurality of straight lines detected for each of the plurality of ROIs,
The predetermined angular range
A first angular range from an LLA (Left Low Angle), which is an angle with respect to a lowermost point on the edge of the left lane to an LHA (Left High Angle), which is an angle with respect to an uppermost point on the edge of the left lane, And a second angle range from RLA (Right Low Angle), which is an angle to the lowermost point on the edge, to RHA (Left High Angle), which is an angle with respect to the uppermost point on the edge of the right lane, Way.
제1항에 있어서,
상기 허프변환을 적용하여 상기 에지에 대응되는 복수의 직선을 검출하는 단계는
상기 에지에 포함되는 픽셀의 좌표별로 각도 및 거리의 매개변수 집합으로 표시되는 복수의 직선을 검출하는 것을 특징으로 하는 차선 인식 방법.
The method according to claim 1,
The step of detecting the plurality of straight lines corresponding to the edge by applying the Hough transform
Wherein a plurality of straight lines represented by a set of parameters of angles and distances are detected for each of the coordinates of pixels included in the edge.
삭제delete 제1항에 있어서,
상기 2개 차선의 에지를 검출하는 단계는
상기 획득한 영상 정보에서의 상기 복수의 관심 영역을 흑백 영상 정보로 변환하는 단계;
상기 흑백 영상 정보에 가우시안 블러 필터를 적용하여 잡음을 제거하는 단계; 및
상기 잡음이 제거된 흑백 영상 정보에 소벨 마스크(sobel mask)를 적용하여 상기 2개 차선의 윤곽선을 검출하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
The method according to claim 1,
The step of detecting the edges of the two lanes
Converting the plurality of ROIs in the acquired image information into monochrome image information;
Removing noise by applying a Gaussian blur filter to the monochrome image information; And
And detecting a contour of the two lanes by applying a sobel mask to the noise-removed monochrome image information.
제1항에 있어서,
상기 복수의 직선을 이용하여 상기 2개 차선의 경계를 인식하는 단계는
상기 2개 차선의 에지에 대한 상기 복수의 직선에 대응되는 복수의 각도의 평균 값인 평균 각도를 계산하는 단계; 및
상기 평균 각도를 이용하여 상기 2개 차선의 에지 각각에 대하여 1개씩의 차선 경계를 인식하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
The method according to claim 1,
The step of recognizing the boundaries of the two lanes using the plurality of straight lines
Calculating an average angle that is an average value of a plurality of angles corresponding to the plurality of straight lines with respect to edges of the two lanes; And
And recognizing one lane boundary for each of the two lane edges using the average angle.
제1항에 있어서,
상기 복수의 관심 영역은
개별적으로 또는 소정 그룹으로 그룹화되어 병렬적인 연산 처리 대상이 되는 것을 특징으로 하는 차선 인식 방법.
The method according to claim 1,
The plurality of regions of interest
Are grouped individually or in a predetermined group so as to be subject to parallel processing.
왼쪽 및 오른쪽 차선의 2개 차선을 포함하는 영상 정보를 획득하는 영상 획득부;
상기 획득된 영상 정보에서 복수의 관심 영역을 설정하여 상기 2개 차선의 에지를 검출하는 에지 검출부;
상기 복수의 관심 영역별로 검출된 상기 2개 차선의 에지에 허프변환을 적용하여 상기 에지에 대응되는 소정 각도 범위 내의 복수의 직선을 검출하는 허프 변환부; 및
상기 복수의 관심 영역별로 검출된 상기 복수의 직선을 이용하여 상기 2개 차선의 경계를 인식하는 차선 경계 인식부를 포함하되,
상기 소정 각도 범위는
상기 왼쪽 차선의 에지에서의 최하단 지점에 대한 각도인 LLA(Left Low Angle)부터 상기 왼쪽 차선의 에지에서의 최상단 지점에 대한 각도인 LHA(Left High Angle)까지의 제1 각도 범위 및 상기 오른쪽 차선의 에지에서의 최하단 지점에 대한 각도인 RLA(Right Low Angle)부터 상기 오른쪽 차선의 에지에서의 최상단 지점에 대한 각도인 RHA(Left High Angle)까지의 제2 각도 범위를 포함하는 것을 특징으로 하는 차선 인식 장치.
An image obtaining unit for obtaining image information including two lanes of left and right lanes;
An edge detector configured to detect edges of the two lanes by setting a plurality of ROIs in the obtained image information;
A Hough transform unit for applying a Hough transform to edges of the two lanes detected for each of the plurality of ROIs to detect a plurality of straight lines within a predetermined angle range corresponding to the edges; And
And a lane boundary recognizing unit for recognizing a boundary of the two lanes using the plurality of straight lines detected for each of the plurality of ROIs,
The predetermined angular range
A first angular range from an LLA (Left Low Angle), which is an angle with respect to a lowermost point on the edge of the left lane to an LHA (Left High Angle), which is an angle with respect to an uppermost point on the edge of the left lane, And a second angle range from RLA (Right Low Angle), which is an angle to the lowermost point on the edge, to RHA (Left High Angle), which is an angle with respect to the uppermost point on the edge of the right lane, Device.
제7항에 있어서,
상기 허프 변환부는
상기 에지에 포함되는 픽셀의 좌표별로 각도 및 거리의 매개변수 집합으로 표시되는 복수의 직선을 검출하는 방식으로 상기 복수의 직선을 검출하는 것을 특징으로 하는 차선 인식 장치.
8. The method of claim 7,
The Hough transform unit
Wherein the plurality of straight lines are detected by detecting a plurality of straight lines represented by a set of parameters of angles and distances according to the coordinates of the pixels included in the edge.
삭제delete 제7항에 있어서,
상기 에지 검출부는
상기 획득한 영상 정보에서의 상기 복수의 관심 영역을 흑백 영상 정보로 변환하는 흑백 영상 변환부;
상기 흑백 영상 정보에 가우시안 블러 필터를 적용하여 잡음을 제거하는 잡음 제거부; 및
상기 잡음이 제거된 흑백 영상 정보에 소벨 마스크를 적용하여 상기 2개 차선의 윤곽선을 검출하는 단계를 포함하는 에지 처리부를 포함하는 것을 특징으로 하는 차선 인식 장치.
8. The method of claim 7,
The edge detector
A monochrome image conversion unit for converting the plurality of ROIs in the acquired image information into monochrome image information;
A noise removing unit for removing noise by applying a Gaussian blur filter to the monochrome image information; And
And detecting an outline of the two lanes by applying a Sobel mask to the noise-removed monochrome image information.
제7항에 있어서,
상기 차선 경계 인식부는
상기 2개 차선의 에지에 대한 상기 복수의 직선에 대응되는 복수의 각도의 평균 값인 평균 각도를 계산하는 각도 연산부; 및
상기 평균 각도를 이용하여 상기 2개 차선의 에지 각각에 대하여 1개씩의 차선 경계를 인식하는 차선 처리부를 포함하는 것을 특징으로 하는 차선 인식 장치.
8. The method of claim 7,
The lane boundary recognizing unit
An angle calculating unit for calculating an average angle that is an average value of a plurality of angles corresponding to the plurality of straight lines with respect to the edges of the two lanes; And
And a lane processing unit for recognizing one lane boundary for each of the edges of the two lanes using the average angle.
제7항에 있어서,
상기 복수의 관심 영역 각각은
개별적으로 또는 소정 그룹으로 그룹화되어 병렬적인 연산 처리 대상이 되는 것을 특징으로 하는 차선 인식 장치.
8. The method of claim 7,
Each of the plurality of regions of interest
And are grouped individually or in a predetermined group so as to be subject to parallel processing.
KR1020140096749A 2014-07-29 2014-07-29 Method and Apparatus for recognizing lane using region of interest KR101584907B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140096749A KR101584907B1 (en) 2014-07-29 2014-07-29 Method and Apparatus for recognizing lane using region of interest

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140096749A KR101584907B1 (en) 2014-07-29 2014-07-29 Method and Apparatus for recognizing lane using region of interest

Publications (1)

Publication Number Publication Date
KR101584907B1 true KR101584907B1 (en) 2016-01-22

Family

ID=55309003

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140096749A KR101584907B1 (en) 2014-07-29 2014-07-29 Method and Apparatus for recognizing lane using region of interest

Country Status (1)

Country Link
KR (1) KR101584907B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018159989A1 (en) * 2017-03-03 2018-09-07 삼성전자 주식회사 Electronic device and electronic device control method
WO2019054636A1 (en) * 2017-09-13 2019-03-21 (주)베이다스 Vehicle camera calibration apparatus and method thereof
US10460179B2 (en) 2017-03-10 2019-10-29 Mando Hella Electronics Corporation System and method for recognizing a lane
CN111462130A (en) * 2019-01-22 2020-07-28 斯特拉德视觉公司 Method and apparatus for detecting lane line included in input image using lane mask
CN112115778A (en) * 2020-08-11 2020-12-22 华南理工大学 Intelligent identification method for lane line under loop simulation condition
CN113223031A (en) * 2021-04-20 2021-08-06 毫末智行科技有限公司 Target edge line detection method and device based on Hough transform
CN113516014A (en) * 2020-04-10 2021-10-19 星克跃尔株式会社 Lane line detection method, lane line detection device, electronic apparatus, computer program, and computer-readable recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060062154A (en) * 2004-12-03 2006-06-12 한국전자통신연구원 Building extraction apparatus and method using hough transformation
WO2011065399A1 (en) * 2009-11-25 2011-06-03 日本電気株式会社 Path recognition device, vehicle, path recognition method, and path recognition program
JP2013156672A (en) * 2012-01-26 2013-08-15 Nippon Soken Inc Vehicle periphery monitoring device
KR20130112536A (en) * 2012-04-04 2013-10-14 모본주식회사 Method and system for lane departure warning based on image recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060062154A (en) * 2004-12-03 2006-06-12 한국전자통신연구원 Building extraction apparatus and method using hough transformation
WO2011065399A1 (en) * 2009-11-25 2011-06-03 日本電気株式会社 Path recognition device, vehicle, path recognition method, and path recognition program
JP2013156672A (en) * 2012-01-26 2013-08-15 Nippon Soken Inc Vehicle periphery monitoring device
KR20130112536A (en) * 2012-04-04 2013-10-14 모본주식회사 Method and system for lane departure warning based on image recognition

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170231B2 (en) 2017-03-03 2021-11-09 Samsung Electronics Co., Ltd. Electronic device and electronic device control meihod
KR20180101058A (en) * 2017-03-03 2018-09-12 삼성전자주식회사 Electronic apparatus and controlling method thereof
KR102356259B1 (en) * 2017-03-03 2022-01-27 삼성전자 주식회사 Electronic apparatus and controlling method thereof
WO2018159989A1 (en) * 2017-03-03 2018-09-07 삼성전자 주식회사 Electronic device and electronic device control method
US10460179B2 (en) 2017-03-10 2019-10-29 Mando Hella Electronics Corporation System and method for recognizing a lane
WO2019054636A1 (en) * 2017-09-13 2019-03-21 (주)베이다스 Vehicle camera calibration apparatus and method thereof
US11398051B2 (en) 2017-09-13 2022-07-26 Vadas Co., Ltd. Vehicle camera calibration apparatus and method
CN111462130A (en) * 2019-01-22 2020-07-28 斯特拉德视觉公司 Method and apparatus for detecting lane line included in input image using lane mask
CN111462130B (en) * 2019-01-22 2023-10-17 斯特拉德视觉公司 Method and apparatus for detecting lane lines included in input image using lane mask
CN113516014A (en) * 2020-04-10 2021-10-19 星克跃尔株式会社 Lane line detection method, lane line detection device, electronic apparatus, computer program, and computer-readable recording medium
CN112115778A (en) * 2020-08-11 2020-12-22 华南理工大学 Intelligent identification method for lane line under loop simulation condition
CN112115778B (en) * 2020-08-11 2023-07-21 华南理工大学 Intelligent lane line identification method under ring simulation condition
CN113223031A (en) * 2021-04-20 2021-08-06 毫末智行科技有限公司 Target edge line detection method and device based on Hough transform

Similar Documents

Publication Publication Date Title
KR102441085B1 (en) Apparatus and method for providing guidance information using crosswalk recognition result
KR101584907B1 (en) Method and Apparatus for recognizing lane using region of interest
KR102628654B1 (en) Method and apparatus of indicating lane
CN107330376B (en) Lane line identification method and system
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
Wu et al. Lane-mark extraction for automobiles under complex conditions
KR101392850B1 (en) Method and system for lane departure warning based on image recognition
KR101968349B1 (en) Method for detecting lane boundary by visual information
KR101517181B1 (en) System and method for warning lane departure
KR101281260B1 (en) Method and Apparatus for Recognizing Vehicle
KR101773822B1 (en) Vision based lane recognition apparatus
KR101094752B1 (en) Lane Classification Method Using Statistical Model of HSI Color Information
CN107392139B (en) Lane line detection method based on Hough transform and terminal equipment
US8983126B2 (en) Method and system for detecting vehicle position by employing polarization image
CN104899554A (en) Vehicle ranging method based on monocular vision
KR101464489B1 (en) Method and system for detecting an approaching obstacle based on image recognition
EP2741256A1 (en) Moving body detection device and moving body detection method
WO2019062163A1 (en) Object tracking method, object tracking apparatus, vehicle having the same, and computer-program product
Kortli et al. A novel illumination-invariant lane detection system
KR101067437B1 (en) Lane detection method and Detecting system using the same
WO2014002692A1 (en) Stereo camera
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
Raviteja et al. Advanced driver assitance system (ADAS)
Suddamalla et al. A novel algorithm of lane detection addressing varied scenarios of curved and dashed lanemarks

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191205

Year of fee payment: 5