KR20240106049A - Vehicle remote control method and control server performing the same - Google Patents

Vehicle remote control method and control server performing the same Download PDF

Info

Publication number
KR20240106049A
KR20240106049A KR1020220188631A KR20220188631A KR20240106049A KR 20240106049 A KR20240106049 A KR 20240106049A KR 1020220188631 A KR1020220188631 A KR 1020220188631A KR 20220188631 A KR20220188631 A KR 20220188631A KR 20240106049 A KR20240106049 A KR 20240106049A
Authority
KR
South Korea
Prior art keywords
vehicle
mode
control server
issue
information
Prior art date
Application number
KR1020220188631A
Other languages
Korean (ko)
Inventor
김민철
박현아
신성훈
최현우
Original Assignee
포티투닷 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포티투닷 주식회사 filed Critical 포티투닷 주식회사
Priority to KR1020220188631A priority Critical patent/KR20240106049A/en
Publication of KR20240106049A publication Critical patent/KR20240106049A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)

Abstract

관제 서버의 차량 제어 방법은, 상기 관제 서버가 제어하는 차량의 이슈 메세지를 획득하는 동작; 상기 이슈 메세지에 대응하여, 상기 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드와 연관된 오브젝트들을 활성화하는 동작; 및 상기 관제 서버를 이용하는 관리자의 상기 텔레오퍼레이션 모드에 대한 입력에 대응하여, 상기 차량을 원격으로 제어하는 동작을 포함할 상기 텔레오퍼레이션 모드는, 기지정된 명령어들에 기초하여 상기 차량을 원격으로 제어하는 제1 모드; 및 상기 관리자의 실시간 입력에 기초하여 상기 차량을 원격으로 제어하는 제2 모드를 포함할 수 있다.A method of controlling a vehicle by a control server includes: acquiring an issue message of a vehicle controlled by the control server; In response to the issue message, activating objects associated with a teleoperation mode for remotely controlling the vehicle; And the teleoperation mode, which will include an operation of remotely controlling the vehicle in response to an input to the teleoperation mode by an administrator using the control server, remotely controls the vehicle based on predetermined commands. first mode; And it may include a second mode for remotely controlling the vehicle based on real-time input from the manager.

Description

차량 원격 제어 방법 및 이를 수행하는 관제 서버{VEHICLE REMOTE CONTROL METHOD AND CONTROL SERVER PERFORMING THE SAME}Vehicle remote control method and control server performing the same {VEHICLE REMOTE CONTROL METHOD AND CONTROL SERVER PERFORMING THE SAME}

아래 개시는 차량 원격 제어 방법 및 이를 수행하는 관제 서버에 관한 것이다.The disclosure below relates to a vehicle remote control method and a control server that performs the same.

자율 주행 차량이란 운전자의 조작 없이 스스로 주행할 수 있는 자동차를 말한다. 자율 주행 차량은 다양한 센서를 이용하여 주변 환경을 인식하고, 목적지가 지정되면 자율적으로 주행한다.An autonomous vehicle is a car that can drive on its own without driver intervention. Self-driving vehicles use various sensors to recognize the surrounding environment and drive autonomously when a destination is designated.

자율 주행 차량의 발전에 따라, 자율 주행 차량의 안전한 주행을 위해, 자율 주행 차량을 원격으로 제어하는 관제 시스템 또한 같이 발전하고 있다. 관제 시스템은 자율 주행 차량을 모니터링하고, 문제가 생긴 자율 주행 차량을 원격으로 제어할 수 있다.As autonomous vehicles develop, control systems that remotely control autonomous vehicles are also developing to ensure safe driving of autonomous vehicles. The control system monitors autonomous vehicles and can remotely control self-driving vehicles that have problems.

일 실시예에 따른 관제 서버의 차량 제어 방법은, 상기 관제 서버가 제어하는 차량의 이슈 메세지를 획득하는 동작; 상기 이슈 메세지에 대응하여, 상기 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드와 연관된 오브젝트들을 활성화하는 동작; 및 상기 관제 서버를 이용하는 관리자의 상기 텔레오퍼레이션 모드에 대한 입력에 대응하여, 상기 차량을 원격으로 제어하는 동작을 포함할 상기 텔레오퍼레이션 모드는, 기지정된 명령어들에 기초하여 상기 차량을 원격으로 제어하는 제1 모드; 및 상기 관리자의 실시간 입력에 기초하여 상기 차량을 원격으로 제어하는 제2 모드를 포함할 수 있다.A method of controlling a vehicle by a control server according to an embodiment includes: acquiring an issue message of a vehicle controlled by the control server; In response to the issue message, activating objects associated with a teleoperation mode for remotely controlling the vehicle; And the teleoperation mode, which will include an operation of remotely controlling the vehicle in response to an input to the teleoperation mode by an administrator using the control server, remotely controls the vehicle based on predetermined commands. first mode; And it may include a second mode for remotely controlling the vehicle based on real-time input from the manager.

상기 제1 모드는, 상기 관리자로부터, 상기 차량의 갓길 정차, 대기, 또는 다시 주행에 각각 대응되는 입력 중 어느 하나를 수신하는 모드일 수 있다.The first mode may be a mode in which one of inputs corresponding to stopping the vehicle on the shoulder, waiting, or driving again is received from the manager.

상기 제2 모드는, 상기 관리자의 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력을 수신하는 모드일 수 있다.The second mode may be a mode that receives input for at least one of the manager's steering wheel, pedals, or gear.

상기 이슈 메세지는, 상기 차량에 장착된 센서들이 감지한 정보에 기초하여 생성된 것이거나; 또는 상기 차량의 자율 주행을 보조하는 안전 운전자(safety driver)의 이슈 리포팅에 대응하여 생성된 것일수 있다.The issue message is generated based on information detected by sensors mounted on the vehicle; Alternatively, it may be generated in response to issue reporting by a safety driver who assists the autonomous driving of the vehicle.

상기 활성화하는 동작은, 상기 관제 서버가 제공하는 실시간 모니터링 인터페이스 내에서, 상기 차량에 대한 알람을 제공하는 동작을 포함할 수 있다. 상기 실시간 모니터링 인터페이스는, 상기 관제 서버가 제어하는 복수의 차량에 대한 정보; 및 상기 복수의 차량에 장착된 카메라가 각각 촬영하는 복수의 실시간 영상 정보를 제공할 수 있다.The activating operation may include providing an alarm for the vehicle within a real-time monitoring interface provided by the control server. The real-time monitoring interface includes information on a plurality of vehicles controlled by the control server; And a plurality of real-time image information captured by cameras mounted on the plurality of vehicles can be provided.

상기 활성화하는 동작은, 상기 관리자의 상기 알람에 응답하는 입력에 기초하여, 차량 집중 모니터링 인터페이스를 제공하는 동작을 더 포함할 수 있다.The activating operation may further include providing a vehicle centralized monitoring interface based on the manager's input in response to the alarm.

상기 차량 집중 모니터링 인터페이스는, 상기 차량의 상태 정보 및 상기 차량의 이슈 정보를 제공할 수 있다.The vehicle intensive monitoring interface may provide status information of the vehicle and issue information of the vehicle.

상기 차량 집중 모니터링 인터페이스는, 상기 오브젝트들을 디스플레이하기 위한 원격 제어 오브젝트를 더 제공할 수 있다. 상기 활성화하는 동작은, 상기 원격 제어 오브젝트에 대한 상기 관리자 입력에 대응하여, 상기 차량 집중 모니터링 인터페이스 내에서 상기 텔레오퍼레이션 모드와 연관된 상기 오브젝트들을 활성화하는 동작을 더 포함할 수 있다.The vehicle intensive monitoring interface may further provide a remote control object for displaying the objects. The activating operation may further include activating the objects associated with the teleoperation mode within the vehicle centralized monitoring interface in response to the administrator input for the remote control object.

상기 활성화하는 동작은, 상기 차량의 주변 정보 또는 상기 차량에 장착된 센서들이 감지한 정보에 기초하여, 상기 오브젝트들 중 일부만을 활성화하는 동작을 포함할 수 있다.The activating operation may include activating only some of the objects based on surrounding information of the vehicle or information detected by sensors mounted on the vehicle.

상기 오브젝트들은, 상기 제1 모드와 연관된 오브젝트 및 상기 제2 모드와 연관된 오브젝트를 포함할 수 있다.The objects may include an object associated with the first mode and an object associated with the second mode.

상기 제어하는 동작은, 상기 제1 모드와 연관된 오브젝트에 대한 상기 관리자의 입력에 대응하여, 상기 기지정된 명령어들 중 어느 하나를 상기 차량으로 송신하는 동작을 포함할 수 있다.The controlling operation may include transmitting one of the predetermined commands to the vehicle in response to the manager's input for an object associated with the first mode.

상기 제어하는 동작은, 상기 제2 모드와 연관된 오브젝트에 대한 상기 관리자의 입력에 대응하여, 이슈 발생 차량 제어 인터페이스를 제공하는 동작을 포함할 수 있다.The controlling operation may include providing an issue-generating vehicle control interface in response to the manager's input for the object associated with the second mode.

상기 이슈 발생 차량 제어 인터페이스는, 상기 차량에 장착된 카메라가 촬영하는 실시간 영상 정보; 및 상기 차량의 상태 정보를 제공할 수 있다.The issue vehicle control interface includes real-time image information captured by a camera mounted on the vehicle; And status information of the vehicle may be provided.

일 실시예에 따른 관제 서버는, 인스트럭션들을 포함하는 메모리; 및 상기 인스트럭션들을 실행하기 위한 프로세서를 포함할 수 있다. 상기 프로세서에 의해 상기 인스트럭션들이 실행될 때, 상기 프로세서는 복수의 동작을 수행할 수 있다. 상기 복수의 동작은, 상기 관제 서버가 제어하는 차량의 이슈 메세지를 획득하는 동작; 상기 이슈 메세지에 대응하여, 상기 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드와 연관된 오브젝트들을 활성화하는 동작; 및 상기 관제 서버를 이용하는 관리자의 상기 텔레오퍼레이션 모드에 대한 입력에 대응하여, 상기 차량을 원격으로 제어하는 동작을 포함할 수 있다. 상기 텔레오퍼레이션 모드는, 기지정된 명령어들에 기초하여 상기 차량을 원격으로 제어하는 제1 모드; 및 상기 관리자의 실시간 입력에 기초하여 상기 차량을 원격으로 제어하는 제2 모드를 포함할 수 있다.A control server according to an embodiment includes: a memory including instructions; and a processor for executing the instructions. When the instructions are executed by the processor, the processor may perform a plurality of operations. The plurality of operations may include obtaining an issue message of a vehicle controlled by the control server; In response to the issue message, activating objects associated with a teleoperation mode for remotely controlling the vehicle; and an operation of remotely controlling the vehicle in response to an input to the teleoperation mode by an administrator using the control server. The teleoperation mode includes: a first mode for remotely controlling the vehicle based on predetermined commands; And it may include a second mode for remotely controlling the vehicle based on real-time input from the manager.

상기 제1 모드는, 상기 관리자로부터, 상기 차량의 갓길 정차, 대기, 또는 다시 주행에 각각 대응되는 입력 중 어느 하나를 수신하는 모드일 수 있다.The first mode may be a mode in which one of inputs corresponding to stopping the vehicle on the shoulder, waiting, or driving again is received from the manager.

상기 제2 모드는, 상기 관리자의 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력을 수신하는 모드일 수 있다.The second mode may be a mode that receives input for at least one of the manager's steering wheel, pedals, or gear.

상기 이슈 메세지는, 상기 차량에 장착된 센서들이 감지한 정보에 기초하여 생성된 것이거나; 또는 상기 차량의 자율 주행을 보조하는 안전 운전자(safety driver)의 이슈 리포팅에 대응하여 생성된 것일 수 있다.The issue message is generated based on information detected by sensors mounted on the vehicle; Alternatively, it may be generated in response to issue reporting by a safety driver who assists the autonomous driving of the vehicle.

상기 활성화하는 동작은, 상기 관제 서버가 제공하는 실시간 모니터링 인터페이스 내에서, 상기 차량에 대한 알람을 제공하는 동작을 포함할 수 있다. 상기 실시간 모니터링 인터페이스는, 상기 관제 서버가 제어하는 복수의 차량에 대한 정보; 및 상기 복수의 차량에 장착된 카메라가 각각 촬영하는 복수의 실시간 영상 정보를 제공할 수 있다.The activating operation may include providing an alarm for the vehicle within a real-time monitoring interface provided by the control server. The real-time monitoring interface includes information on a plurality of vehicles controlled by the control server; And a plurality of real-time image information captured by cameras mounted on the plurality of vehicles can be provided.

상기 활성화하는 동작은, 기 관리자의 상기 알람에 응답하는 입력에 기초하여, 차량 집중 모니터링 인터페이스를 제공하는 동작을 더 포함할 수 있다. 상기 차량 집중 모니터링 인터페이스는, 상기 차량의 상태 정보 및 상기 차량의 이슈 정보를 제공할 수 있다.The activating operation may further include providing a vehicle centralized monitoring interface based on an input of the existing manager in response to the alarm. The vehicle intensive monitoring interface may provide status information of the vehicle and issue information of the vehicle.

상기 차량 집중 모니터링 인터페이스는, 상기 오브젝트들을 디스플레이하기 위한 원격 제어 오브젝트를 더 제공할 수 있다.The vehicle intensive monitoring interface may further provide a remote control object for displaying the objects.

상기 활성화하는 동작은, 상기 원격 제어 오브젝트에 대한 상기 관리자 입력에 대응하여, 상기 차량 집중 모니터링 인터페이스 내에서 상기 텔레오퍼레이션 모드와 연관된 상기 오브젝트들을 활성화하는 동작을 더 포함할 수 있다.The activating operation may further include activating the objects associated with the teleoperation mode within the vehicle centralized monitoring interface in response to the administrator input for the remote control object.

상기 오브젝트들은, 상기 제1 모드와 연관된 오브젝트 및 상기 제2 모드와 연관된 오브젝트를 포함할 수 있다.The objects may include an object associated with the first mode and an object associated with the second mode.

도 1은 일 실시예에 따른 자율 주행 방식을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 자율 주행 장치에 포함되는 하드웨어를 도시한 블록도이다.
도 3은 일 실시예에 따른 자율 주행 차량을 제어하는 관제 시스템을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 관제 서버에 포함되는 하드웨어를 도시한 블록도이다.
도 5는 일 실시예에 따른 실시간 모니터링 인터페이스를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 차량 집중 모니터링 인터페이스를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 이슈 발생 차량 제어 인터페이스를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 차량 제어 방법의 흐름도를 나타낸다.
도 9는 일 실시예에 따른 전자 장치에 포함되는 하드웨어를 도시한 블록도이다.
도 10은 일 실시예에 따른 메인 인터페이스를 설명하기 위한 도면이다.
도 11 및 도 12는 일 실시예에 따른 리포팅 동작을 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 차량의 주행 이슈 리포팅 방법의 흐름도를 나타낸다.
1 is a diagram for explaining an autonomous driving method according to an embodiment.
Figure 2 is a block diagram showing hardware included in an autonomous driving device according to an embodiment.
Figure 3 is a diagram for explaining a control system for controlling an autonomous vehicle according to an embodiment.
Figure 4 is a block diagram showing hardware included in a control server according to an embodiment.
Figure 5 is a diagram for explaining a real-time monitoring interface according to an embodiment.
Figure 6 is a diagram for explaining a vehicle centralized monitoring interface according to an embodiment.
FIG. 7 is a diagram illustrating a control interface for a vehicle in which an issue occurs according to an embodiment.
Figure 8 shows a flowchart of a vehicle control method according to one embodiment.
FIG. 9 is a block diagram illustrating hardware included in an electronic device according to an embodiment.
Figure 10 is a diagram for explaining the main interface according to one embodiment.
11 and 12 are diagrams for explaining a reporting operation according to an embodiment.
Figure 13 shows a flowchart of a method for reporting driving issues of a vehicle according to an embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific disclosed embodiments, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. In this specification, terms such as "comprise" or "have" are intended to designate the presence of the described features, numbers, steps, operations, components, parts, or combinations thereof, but are not intended to indicate the presence of one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 예를 들어, '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다. 또한, '~부'는 하나 이상의 프로세서를 포함할 수 있다.The term '~unit' used in this document refers to software or hardware components such as FPGA or ASIC, and '~unit' performs certain roles. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. For example, '~part' refers to software components, object-oriented software components, components such as class components and task components, processes, functions, properties, procedures, May include subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card. Additionally, '~ part' may include one or more processors.

이하에서, '차량'은 자동차, 버스, 오토바이, 킥보드 또는 트럭과 같이 기관을 가지고 사람이나 물건을 이동시키기 위해 이용되는 모든 종류의 운송 수단을 의미할 수 있다.Hereinafter, 'vehicle' may refer to any type of transportation used to move people or objects with engine, such as a car, bus, motorcycle, kickboard, or truck.

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 일 실시예에 따른 자율 주행 방식을 설명하기 위한 도면이고, 도 2는 일 실시예에 따른 자율 주행 장치에 포함되는 하드웨어를 도시한 블록도이다.FIG. 1 is a diagram for explaining an autonomous driving method according to an embodiment, and FIG. 2 is a block diagram showing hardware included in an autonomous driving device according to an embodiment.

도 1을 참조하면, 일 실시예에 따르면, 자율 주행 장치(예: 도 2의 자율 주행 장치(40))는, 차량에 장착되어 자율 주행 차량(10)을 구현할 수 있다. 자율 주행 차량(10)은 운전자의 조작 없이 스스로 주행할 수 있는 자동차일 수 있다.Referring to FIG. 1 , according to one embodiment, an autonomous driving device (eg, self-driving device 40 of FIG. 2 ) may be mounted on a vehicle to implement an autonomous vehicle 10 . The autonomous vehicle 10 may be a car that can drive on its own without driver intervention.

자율 주행 차량(10)에 장착되는 자율 주행 장치(40)는, 주변의 상황 정보를 수집하기 위한 다양한 센서들(예: 도 2의 센서부(41))을 포함할 수 있다.The autonomous driving device 40 mounted on the autonomous vehicle 10 may include various sensors (eg, the sensor unit 41 in FIG. 2) to collect surrounding situation information.

자율 주행 장치(40)는 자율 주행 차량(10)의 전면에 장착된 이미지 센서 및/또는 이벤트 센서를 통해, 전방에서 운행 중인 선행 차량(20)의 움직임을 감지할 수 있다. 자율 주행 장치(40)는 자율 주행 차량(10)의 전면은 물론, 옆 차로에서 운행중인 다른 주행 차량(30)과, 자율 주행 차량(10) 주변의 보행자 등을 감지하기 위한 센서들을 더 포함할 수 있다.The autonomous driving device 40 may detect the movement of the preceding vehicle 20 running in front through an image sensor and/or an event sensor mounted on the front of the autonomous vehicle 10. The autonomous driving device 40 may further include sensors for detecting not only the front of the autonomous vehicle 10, but also other driving vehicles 30 running in the lane next to the autonomous vehicle 10 and pedestrians around the autonomous vehicle 10. You can.

자율 주행 차량(10) 주변의 상황 정보를 수집하기 위한 센서들 중 적어도 하나는, 도 1에 도시한 바와 같이 소정의 화각(FoV)을 가질 수 있다. 자율 주행 차량(10)의 전면에 장착된 센서가 도 1에 도시한 바와 같은 화각(FoV)을 갖는 경우에, 센서의 중앙에서 검출되는 정보가 상대적으로 높은 중요도를 가질 수 있다. 이는 센서의 중앙에서 검출되는 정보에, 선행 차량(20)의 움직임에 대응하는 정보가 대부분 포함되어 있기 때문일 수 있다.At least one of the sensors for collecting situational information around the autonomous vehicle 10 may have a predetermined field of view (FoV), as shown in FIG. 1 . When the sensor mounted on the front of the autonomous vehicle 10 has a field of view (FoV) as shown in FIG. 1, information detected at the center of the sensor may have relatively high importance. This may be because the information detected at the center of the sensor includes most of the information corresponding to the movement of the preceding vehicle 20.

자율 주행 장치(40)는 자율 주행 차량(10)의 센서들이 수집한 정보를 실시간으로 처리하여 자율 주행 차량(10)의 움직임을 제어하는 한편, 센서들이 수 집한 정보 중에 적어도 일부는 메모리 장치(예: 도 2의 메모리 시스템(47))에 저장할 수 있다.The autonomous driving device 40 controls the movement of the autonomous vehicle 10 by processing the information collected by the sensors of the autonomous vehicle 10 in real time, while at least some of the information collected by the sensors is stored in a memory device (e.g. : Can be stored in the memory system 47 of FIG. 2).

도 2를 참조하면, 일 실시예에 따르면, 자율 주행 장치(40)는 센서부(41), 프로세서(46), 메모리 시스템(47), 및 차체 제어 모듈(48) 등을 포함할 수 있다.Referring to FIG. 2, according to one embodiment, the autonomous driving device 40 may include a sensor unit 41, a processor 46, a memory system 47, and a vehicle body control module 48.

센서부(41)는 복수의 센서들(42-45)을 포함할 수 있다. 복수의 센서들(42-45)은 이미지 센서, 이벤트 센서, 조도 센서, GPS 장치, 가속도 센서 등을 포함할 수 있다. 센서들(42-45)이 수집한 데이터는 프로세서(46)로 전달될 수 있다.The sensor unit 41 may include a plurality of sensors 42-45. The plurality of sensors 42-45 may include an image sensor, an event sensor, an illumination sensor, a GPS device, an acceleration sensor, etc. Data collected by sensors 42-45 may be transmitted to processor 46.

프로세서(46)는 센서들(42-45)이 수집한 데이터를 메모리 시스템(47)에 저장할 수 있다. 프로세서(46)는 센서들(42-45)이 수집한 데이터에 기초하여 차체 제어 모듈(48)을 제어하여 차량의 움직임을 결정할 수 있다.The processor 46 may store data collected by the sensors 42-45 in the memory system 47. The processor 46 may determine the movement of the vehicle by controlling the body control module 48 based on data collected by the sensors 42-45.

메모리 시스템(47)은 둘 이상의 메모리 장치들과, 메모리 장치들을 제어하기 위한 시스템 컨트롤러를 포함할 수 있다. 메모리 장치들 각각은 하나의 반도체 칩으로 제공될 수 있다. 메모리 시스템(47)의 시스템 컨트롤러 외에, 메모리 시스템(47)에 포함되는 메모리 장치들 각각은 메모리 컨트롤러를 포함할 수 있다. 메모리 컨트롤러는 신경망과 같은 인공지능(AI) 연산 회로를 포함할 수 있다. 메모리 컨트롤러는 센서들(42-45) 또는 프로세서(46)로부터 수신한 데이터에 소정의 가중치를 부여하여 연산 데이터를 생성하고, 연산 데이터를 메모리 칩에 저장할 수 있다.The memory system 47 may include two or more memory devices and a system controller for controlling the memory devices. Each of the memory devices may be provided as one semiconductor chip. In addition to the system controller of the memory system 47, each of the memory devices included in the memory system 47 may include a memory controller. The memory controller may include artificial intelligence (AI) computing circuitry, such as a neural network. The memory controller may generate calculation data by assigning a predetermined weight to data received from the sensors 42 - 45 or the processor 46 and store the calculation data in a memory chip.

차체 제어 모듈(48)은 프로세서(46)로부터 명령을 수신하여 차량의 움직임을 제어할 수 있다.The vehicle body control module 48 may receive commands from the processor 46 and control the movement of the vehicle.

도 3은 일 실시예에 따른 자율 주행 차량을 제어하는 관제 시스템을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining a control system for controlling an autonomous vehicle according to an embodiment.

도 3을 참조하면, 일 실시예에 따르면, 관제 시스템(300)은 자율 주행 차량(310)(예: 도 1의 자율 주행 차량(10)) 및 관제 서버(320)를 포함할 수 있다.Referring to FIG. 3, according to one embodiment, the control system 300 may include an autonomous vehicle 310 (eg, the autonomous vehicle 10 of FIG. 1) and a control server 320.

자율 주행 차량(310)과 관제 서버(320)는 네트워크를 이용하여 통신을 수행할 수 있다. 예를 들어, 네트워크는 근거리 통신망 (Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신 망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함할 수 있다. 네트워크는 도 3에 도시된 각 네트워크 구성 주체(예: 자율 주행 차량(310), 관제 서버(320))가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 또한, 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지 (Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra-wideband), 적외 선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.The autonomous vehicle 310 and the control server 320 may communicate using a network. For example, networks include Local Area Network (LAN), Wide Area Network (WAN), Value Added Network (VAN), mobile radio communication network, satellite communication network, and others. It may include a mutual combination of. The network is a comprehensive data communication network that allows each network constituent shown in FIG. 3 (e.g., autonomous vehicle 310 and control server 320) to communicate smoothly with each other, and includes wired Internet and wireless Internet. and mobile wireless communication networks. In addition, wireless communications include, for example, wireless LAN (Wi-Fi), Bluetooth, Bluetooth low energy, ZigBee, WFD (Wi-Fi Direct), UWB (ultra-wideband), and infrared communication (IrDA). , infrared Data Association), NFC (Near Field Communication), etc., but are not limited to these.

자율 주행 차량(300)은 운전자의 조작 없이 스스로 주행할 수 있는 자동차를 말한다. 자율 주행 차량(300)은 다양한 센서를 이용하여 주변 환경을 인식하고, 목적지가 지정되면 자율적으로 주행할 수 있다.The autonomous vehicle 300 refers to a car that can drive on its own without driver intervention. The self-driving vehicle 300 can recognize the surrounding environment using various sensors and drive autonomously when a destination is designated.

관제 서버(320)는 자율 주행 차량(300)을 실시간으로 모니터링하고, 자율 주행 차량(300)의 원격 제어를 수행하는 서버일 수 있다. 이하에서는 관제 서버(320)의 하드웨어와 함께 관제 서버(320)의 동작을 상세히 설명하도록 한다.The control server 320 may be a server that monitors the autonomous vehicle 300 in real time and remotely controls the autonomous vehicle 300. Hereinafter, the operation of the control server 320 along with the hardware of the control server 320 will be described in detail.

도 4는 일 실시예에 따른 관제 서버에 포함되는 하드웨어를 도시한 블록도이다.Figure 4 is a block diagram showing hardware included in a control server according to an embodiment.

도 4를 참조하면, 일 실시예에 따르면, 관제 서버(320)는 차량(예: 도 1의 자율 주행 차량(10), 도 3의 자율 주행 차량(300))의 원격 제어를 수행할 수 있다. 관제 서버(320)는 텔레오퍼레이션 모드를 통해, 차량의 원격 제어를 수행할 수 있다. 텔레오퍼레이션 모드는 차량의 상황에 대응되는 원격 제어를 적응적으로 수행하기 위한, 복수의 모드를 포함할 수 있다. 관제 서버는 복수의 모드로 구성된 텔레오퍼레이션 모드에 기초하여, 차량의 원격 제어를 적응적으로 수행할 수 있다.Referring to FIG. 4, according to one embodiment, the control server 320 may perform remote control of a vehicle (e.g., the autonomous vehicle 10 of FIG. 1 and the autonomous vehicle 300 of FIG. 3). . The control server 320 can perform remote control of the vehicle through teleoperation mode. The teleoperation mode may include a plurality of modes for adaptively performing remote control corresponding to the vehicle situation. The control server can adaptively perform remote control of the vehicle based on a teleoperation mode composed of a plurality of modes.

관제 서버(320)는 차량(예: 도 1의 자율 주행 차량(10), 도 3의 자율 주행 차량(300))의 실시간 모니터링을 지원할 수 있다. 관제 서버(320)는 관리자(예: 관제 서버를 이용하는 관리자)와 상호작용하는 인터페이스(예: 사용자 인터페이스)를 제공함으로써, 차량의 효율적인 모니터링을 지원할 수 있다. 관제 서버(320)는 실시간 모니터링 인터페이스 내에서, 이슈가 발생한 차량에 대한 알람을 디스플레이할 수 있다. 관제 서버(320)는 이슈 발생 차량에 대한 다양한 정보를 관리자에게 명확히 제공함으로써, 관리자의 상황 판단 및 대응 조치 결정을 지원할 수 있다. 관제 서버(320)는 사용자 인터페이스의 형태를 통해 이슈 발생 차량에 대한 다양한 정보를 관리자에게 제공함으로써, 관리자의 관제 정확성과 편의성을 증대시킬 수 있다.The control server 320 may support real-time monitoring of vehicles (e.g., autonomous vehicle 10 in FIG. 1 and autonomous vehicle 300 in FIG. 3). The control server 320 can support efficient monitoring of vehicles by providing an interface (e.g., user interface) for interaction with an administrator (e.g., a manager using the control server). The control server 320 may display an alarm for a vehicle in which an issue has occurred within the real-time monitoring interface. The control server 320 can support the manager's judgment of the situation and decision on response measures by clearly providing various information about the vehicle in which an issue occurs to the manager. The control server 320 can increase the manager's control accuracy and convenience by providing the manager with various information about the vehicle causing the issue through the form of a user interface.

관제 서버(320)는 프로세서(330) 및 메모리(340)를 포함할 수 있다.The control server 320 may include a processor 330 and memory 340.

프로세서(330)는 메모리(340)에 저장된 데이터를 처리할 수 있다. 프로세서(330)는 메모리(340)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(330)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.The processor 330 may process data stored in the memory 340. The processor 330 may execute computer-readable code (eg, software) stored in the memory 340 and instructions triggered by the processor 330.

프로세서(330)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.The processor 330 may be a data processing device implemented in hardware that has a circuit with a physical structure for executing desired operations. For example, the intended operations may include code or instructions included in the program.

예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, data processing devices implemented in hardware include microprocessors, central processing units, processor cores, multi-core processors, and multiprocessors. , ASIC (Application-Specific Integrated Circuit), and FPGA (Field Programmable Gate Array).

메모리(340)는 휘발성 메모리 장치 또는 비휘발성 메모리 장치로 구현될 수 있다.The memory 340 may be implemented as a volatile memory device or a non-volatile memory device.

휘발성 메모리 장치는 DRAM(dynamic random access memory), SRAM(static random access memory), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), 또는 TTRAM(Twin Transistor RAM)으로 구현될 수 있다.Volatile memory devices may be implemented as dynamic random access memory (DRAM), static random access memory (SRAM), thyristor RAM (T-RAM), zero capacitor RAM (Z-RAM), or twin transistor RAM (TTRAM).

비휘발성 메모리 장치는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시(flash) 메모리, MRAM(Magnetic RAM), 스핀전달토크 MRAM(Spin-Transfer Torque(STT)-MRAM), Conductive Bridging RAM(CBRAM), FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), 저항 메모리(Resistive RAM(RRAM)), 나노 튜브 RRAM(Nanotube RRAM), 폴리머 RAM(Polymer RAM(PoRAM)), 나노 부유 게이트 메모리(Nano Floating Gate Memory(NFGM)), 홀로그래픽 메모리(holographic memory), 분자 전자 메모리 소자(Molecular Electronic Memory Device), 또는 절연 저항 변화 메모리(Insulator Resistance Change Memory)로 구현될 수 있다.Non-volatile memory devices include Electrically Erasable Programmable Read-Only Memory (EEPROM), Flash memory, Magnetic RAM (MRAM), Spin-Transfer Torque (STT)-MRAM (MRAM), and Conductive Bridging RAM (CBRAM). , FeRAM (Ferroelectric RAM), PRAM (Phase change RAM), Resistive RAM (RRAM), Nanotube RRAM (Nanotube RRAM), Polymer RAM (PoRAM), Nano Floating Gate Memory (NFGM), holographic memory, molecular electronic memory device, or insulation resistance change memory.

관제 서버(320)는 관리자(예: 관제 서버(320)를 이용하는 관리자)에게 차량(예: 도 3의 자율 주행 차량(310))의 모니터링 및 제어와 연관된 인터페이스들(예: 실시간 모니터링 인터페이스, 차량 집중 모니터링 인터페이스, 이슈 발생 차량 제어 인터페이스)을 제공할 수 있다. 관제 서버(320)는 상호작용이 가능한 인터페이스들을 관리자에게 제공함으로써, 차량의 원격 제어 및 모니터링을 지원할 수 있다. 인터페이스와 관련된 설명은 도 5 내지 도 7을 통해 상세히 설명하도록 한다.The control server 320 provides administrators (e.g., managers using the control server 320) with interfaces (e.g., real-time monitoring interface, vehicle A centralized monitoring interface and an issue-occurring vehicle control interface) can be provided. The control server 320 can support remote control and monitoring of vehicles by providing interactive interfaces to managers. Descriptions related to the interface will be explained in detail through FIGS. 5 to 7.

관제 서버(320)는 관제 서버(예: 도 3의 관제 서버(320))가 제어하는 차량으로부터 이슈 메세지를 수신할 수 있다. 이슈 메세지는 차량의 자율 주행을 보조하는 안전 운전자(safety driver)의 이슈 리포팅에 대응하여 생성된 것이거나, 또는 차량에 장착된 센서들(예: 도 2의 센서부(41))이 감지한 정보에 기초하여 생성된 것일 수 있다.The control server 320 may receive an issue message from a vehicle controlled by the control server (eg, the control server 320 in FIG. 3). The issue message is generated in response to issue reporting by a safety driver who assists the autonomous driving of the vehicle, or is information detected by sensors mounted on the vehicle (e.g., sensor unit 41 in FIG. 2). It may have been created based on .

관제 서버(320)는 이슈 메세지에 대응하여, 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드와 연관된 오브젝트들을 활성화할 수 있다.The control server 320 may activate objects related to a teleoperation mode for remotely controlling a vehicle in response to an issue message.

텔레오퍼레이션 모드는 기지정된 명령어들에 기초하여 차량을 원격으로 제어하는 제1 모드를 포함할 수 있다. 제1 모드는 관리자로부터 차량의 갓길 정차, 대기, 또는 다시 주행에 각각 대응되는 입력 중 어느 하나를 수신하는 모드일 수 있다. 텔레오퍼레이션 모드는 관리자의 실시간 입력에 기초하여 차량을 원격으로 제어하는 제2 모드를 포함할 수 있다. 제2 모드는 관리자의 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력을 수신하는 모드일 수 있다. 제2 모드는 제1 모드가 지원되지 않는 상황에서도 차량의 원격 제어를 수행하기 위한 모드일 수 있다.The teleoperation mode may include a first mode of remotely controlling the vehicle based on predetermined commands. The first mode may be a mode in which one of inputs corresponding to stopping the vehicle on the shoulder, waiting, or driving again is received from the manager. The teleoperation mode may include a second mode in which the vehicle is remotely controlled based on the manager's real-time input. The second mode may be a mode that receives input for at least one of the manager's steering wheel, pedals, or gear. The second mode may be a mode for performing remote control of the vehicle even in situations where the first mode is not supported.

관제 서버(320)는 관리자의 텔레오퍼레이션 모드에 대한 입력에 대응하여, 차량을 원격으로 제어할 수 있다. 관제 서버(320)는 제1 모드와 연관된 관리자의 입력에 대응하여, 기지정된 명령어들 중 어느 하나를 차량으로 송신할 수 있다. 기지정된 명령어들은 차량의 동작(예: 주행)을 제어하는 명령어일 수 있다. 관제 서버(320)는 제2 모드와 연관된 관리자의 입력(예: 관리자의 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력)에 기초하여 차량을 제어할 수 있다. 이하에서는 관제 서버(320)가 제공하는 인터페이스들과 관리자의 상호작용에 대하여 상세히 설명하도록 한다,The control server 320 can remotely control the vehicle in response to the manager's input into the teleoperation mode. The control server 320 may transmit any one of predetermined commands to the vehicle in response to the manager's input related to the first mode. The predetermined commands may be commands that control the operation (e.g., driving) of the vehicle. The control server 320 may control the vehicle based on the manager's input associated with the second mode (eg, the manager's input to at least one of the steering wheel, pedal, or gear). Below, the interfaces provided by the control server 320 and the manager's interaction will be described in detail.

도 5는 일 실시예에 따른 실시간 모니터링 인터페이스를 설명하기 위한 도면이다.Figure 5 is a diagram for explaining a real-time monitoring interface according to an embodiment.

도 5를 참조하면, 일 실시예에 따르면, 관제 서버(예: 도 4의 관제 서버(320))는 관리자(예: 관제 서버를 이용하는 관리자)와 상호작용하는 실시간 모니터링 인터페이스(500)를 제공할 수 있다.Referring to FIG. 5, according to one embodiment, a control server (e.g., control server 320 of FIG. 4) provides a real-time monitoring interface 500 that interacts with an administrator (e.g., an administrator using the control server). You can.

관리자는 실시간 모니터링 인터페이스(500)의 제1 영역(510)에 포함된 오브젝트와 상호작용함으로써, 관제 서버(예: 도 3의 관제 서버(320))가 제어할 수 있는 차량(예: 도 3의 자율 주행 차량(310))의 검색 조건을 설정할 수 있다. 관리자는 제1 영역(510)에 포함된 오브젝트와 상호작용함으로써, 운행 지역, 운영 회사, 운행 노선, 차종 상품, 관제 상태, 기사명, 차량 정보, 및 운행 정보에 대한 조건을 설정할 수 있다.The manager interacts with an object included in the first area 510 of the real-time monitoring interface 500 to control a vehicle (e.g., the control server 320 of FIG. 3). Search conditions for the autonomous vehicle 310 can be set. By interacting with objects included in the first area 510, the manager can set conditions for operation area, operating company, operation route, vehicle type product, control status, driver name, vehicle information, and operation information.

관제 서버(320)는 관리자가 설정한 검색 조건에 부합하는 복수의 차량(예: 세종에서 운행되는 차량)에 대한 정보를 실시간 모니터링 인터페이스(500)의 제2 영역(520)에 표시할 수 있다. 제2 영역(520)에는 검색 조건에 부합하는 차량의 운행 상태, 기사명, 운영 회사, 차량 번호, 및 코드(예: 차량 식별과 연관된 코드)가 표시될 수 있다. 예를 들어, 영역(521)을 참조하면, 차량의 운행 상태(예: 이슈 발생), 기사명(예: 김이사), 운영 회사(예: 42dot), 차량 번호(예: 임 0000), 및 코드(예: CG21)가 도시될 수 있다.The control server 320 may display information on a plurality of vehicles (eg, vehicles operating in Sejong) that meet the search conditions set by the administrator in the second area 520 of the real-time monitoring interface 500. The second area 520 may display the driving status, driver name, operating company, vehicle number, and code (eg, code associated with vehicle identification) of the vehicle that meets the search conditions. For example, referring to area 521, the vehicle's operating status (e.g., issue occurred), driver name (e.g., Director Kim), operating company (e.g., 42dot), vehicle number (e.g., Lim 0000), and code (eg CG21) may be shown.

관제 서버(320)는 복수의 차량(예: 관리자가 설정한 검색 조건에 부합하는 차량)에 장착된 카메라가 각각 촬영하는 복수의 실시간 영상 정보를, 실시간 모니터링 인터페이스(500)의 제3 영역(530)에 표시할 수 있다. 제3 영역(530)은 차량 관련 정보의 디스플레이 방법을 선택할 수 있는 오브젝트(533)를 포함할 수 있다. 관리자가 오브젝트(533)와 상호작용하여 지도 뷰를 선택한 경우, 관제 서버(320)는 복수의 차량이 표현된 실시간 맵 정보를 제3 영역(530)에 표시할 수도 있다.The control server 320 sends a plurality of real-time image information captured by cameras mounted on a plurality of vehicles (e.g., vehicles that meet the search conditions set by the administrator) to the third area 530 of the real-time monitoring interface 500. ) can be displayed. The third area 530 may include an object 533 that can select a display method of vehicle-related information. When the manager interacts with the object 533 and selects a map view, the control server 320 may display real-time map information representing a plurality of vehicles in the third area 530.

관제 서버(320)가 복수의 차량(예: 관리자가 설정한 검색 조건에 부합하는 차량) 중 어느 하나로부터 이슈 메시지를 수신한 경우, 관제 서버(320)는 실시간 모니터링 인터페이스(500) 내에서 이슈 발생 차량에 대한 알람을 제공할 수 있다. 예를 들어, 관제 서버(320)는 제2 영역(520) 내에서, 이슈 발생 차량에 대한 정보를 포함하는 영역(521)의 색을 변경(예: 빨간색으로 변경)할 수 있다. 또한, 관제 서버(320)는 제3 영역(530) 내에서, 이슈 발생 차량의 영상 정보를 포함하는 영역(531)의 색을 변경(예: 빨간색으로 변경)할 수 있다.When the control server 320 receives an issue message from one of a plurality of vehicles (e.g., a vehicle that meets the search conditions set by the administrator), the control server 320 generates an issue within the real-time monitoring interface 500. Alarms for vehicles can be provided. For example, the control server 320 may change the color of the area 521 containing information about the vehicle causing the issue within the second area 520 (eg, change it to red). Additionally, the control server 320 may change the color of the area 531 containing the image information of the vehicle causing the issue (eg, change it to red) within the third area 530.

알람에 응답하는 관리자의 입력(예: 영역(521) 또는 영역(531)을 클릭)에 대응하여, 관제 서버(320)는 오브젝트(532)를 활성화할 수 있다. 오브젝트(532)는 특정 차량을 집중적으로 모니터링할 수 있는 인터페이스로 전환하기 위한 오브젝트일 수 있다. 활성화된 오브젝트(532)에 대한 관리자의 입력(예: 클릭)에 대응하여, 관제 서버(320)는 선택된 차량(예: 이슈 발생 차량)의 집중 모니터링 인터페이스를 제공할 수 있다.In response to the administrator's input in response to the alarm (e.g., clicking on the area 521 or area 531), the control server 320 may activate the object 532. Object 532 may be an object for converting to an interface that can intensively monitor a specific vehicle. In response to the administrator's input (e.g., click) on the activated object 532, the control server 320 may provide an intensive monitoring interface for the selected vehicle (e.g., the vehicle in which an issue occurs).

도 6은 일 실시예에 따른 차량 집중 모니터링 인터페이스를 설명하기 위한 도면이다.Figure 6 is a diagram for explaining a vehicle centralized monitoring interface according to an embodiment.

도 6을 참조하면, 일 실시예에 따르면, 관제 서버(예: 도 4의 관제 서버(320))는 관리자(예: 관제 서버를 이용하는 관리자)와 상호작용하는 차량 집중 모니터링 인터페이스(600)를 제공할 수 있다.Referring to FIG. 6, according to one embodiment, a control server (e.g., control server 320 of FIG. 4) provides a vehicle centralized monitoring interface 600 that interacts with an administrator (e.g., a manager using the control server). can do.

차량 집중 모니터링 인터페이스(600)는 선택된 차량(예: 도 5에서 선택된 이슈 발생 차량)과 관련된 정보를 포함할 수 있다. 관제 서버(320)는 도 5와 마찬가지로 이슈 발생 차량에 대한 정보를 포함하는 영역(601)의 색을 유지(예: 빨간색으로 유지)할 수 있다.The vehicle intensive monitoring interface 600 may include information related to the selected vehicle (eg, the vehicle with an issue selected in FIG. 5 ). Like FIG. 5 , the control server 320 may maintain the color of the area 601 containing information about the vehicle causing the issue (e.g., keep it red).

관제 서버(320)는 차량 집중 모니터링 인터페이스(600)의 제1 영역(610)에 차량(예: 이슈 발생 차량)의 상태 정보를 표시할 수 있다. 차량의 상태 정보는 주행 이슈 정보(예: 도로 위 위급사항), 차량의 형상, 제한 속도(예: 50km), 차량의 현재 속도(예: 42km), 차량의 기어 정보(예: D)를 포함할 수 있다.The control server 320 may display status information of a vehicle (eg, a vehicle in which an issue occurs) in the first area 610 of the vehicle intensive monitoring interface 600. The vehicle's status information includes driving issue information (e.g., emergency on the road), vehicle shape, speed limit (e.g., 50 km), vehicle's current speed (e.g., 42 km), and vehicle gear information (e.g., D). can do.

관제 서버(320)는 차량 집중 모니터링 인터페이스(600)의 제1 영역(610)에 원격 제어 오브젝트(611)를 표시할 수 있다. 관리자는 원격 제어 오브젝트(611)와 상호작용(예: 클릭)하여, 텔레오퍼레이션 모드(예: 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드)와 연관된 오브젝트들을 활성화할 수 있다.The control server 320 may display a remote control object 611 in the first area 610 of the vehicle intensive monitoring interface 600. The administrator may interact (e.g., click) with the remote control object 611 to activate objects associated with a teleoperation mode (e.g., a teleoperation mode for remotely controlling a vehicle).

텔레오퍼레이션 모드는 기지정된 명령어들에 기초하여 차량(예: 이슈 발생 차량)을 원격으로 제어하는 제1 모드를 포함할 수 있다. 제1 모드는 관리자로부터 차량의 갓길 정차, 대기, 또는 다시 주행에 각각 대응되는 입력 중 어느 하나를 수신하는 모드일 수 있다. 텔레오퍼레이션 모드는 관리자의 실시간 입력에 기초하여 차량을 원격으로 제어하는 제2 모드를 포함할 수 있다. 제2 모드는 관리자의 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력을 수신하는 모드일 수 있다. 제2 모드는 제1 모드가 지원되지 않는 상황에서도 차량의 원격 제어를 수행하기 위한 모드일 수 있다.The teleoperation mode may include a first mode in which a vehicle (eg, a vehicle in which an issue occurs) is remotely controlled based on predetermined commands. The first mode may be a mode in which one of inputs corresponding to stopping the vehicle on the shoulder, waiting, or driving again is received from the manager. The teleoperation mode may include a second mode in which the vehicle is remotely controlled based on the manager's real-time input. The second mode may be a mode that receives input for at least one of the manager's steering wheel, pedals, or gear. The second mode may be a mode for performing remote control of the vehicle even in situations where the first mode is not supported.

텔레오퍼레이션 모드와 연관된 오브젝트들은 제1 모드와 연관된 오브젝트 및 제2 모드와 연관된 오브젝트를 포함할 수 있다. 관제 서버(320)는 차량의 주변 정보 또는 차량에 장착된 센서들이 감지한 정보에 기초하여, 텔레오퍼레이션 모드와 연관된 오브젝트들 중 일부만을 활성화할 수도 있다. 예를 들어, 차량의 주변에 갓길이 없는 경우, 관제 서버(320)는 갓길 정차 오브젝트를 활성화하지 않을 수 있다. 예를 들어, 차량 근처에서 빠르게 주행 중인 다른 차량들이 감지된 경우, 관제 서버(320)는 대기 오브젝트를 활성화하지 않을 수 있다.Objects associated with a teleoperation mode may include an object associated with a first mode and an object associated with a second mode. The control server 320 may activate only some of the objects associated with the teleoperation mode based on information about the vehicle's surroundings or information detected by sensors mounted on the vehicle. For example, if there is no shoulder around the vehicle, the control server 320 may not activate the shoulder stopping object. For example, when other vehicles driving quickly near the vehicle are detected, the control server 320 may not activate the waiting object.

관리자는 텔레오퍼레이션 모드와 연관된 오브젝트들과 상호작용(예: 클릭)하여, 차량(예: 이슈 발생 차량)을 원격으로 제어할 수 있다. 차량 집중 모니터링 인터페이스(600)는 관리자의 이슈 발생 차량에 대한 상황 판단 및 대응 조치 결정을 지원하기 위한 추가적인 정보를 포함할 수 있다. 관제 서버(320)는 차량 집중 모니터링 인터페이스(600)의 제2 영역(620)을 통해, 차량(예: 이슈 발생 차량)에 장착된 카메라가 촬영하는 영상을 제공할 수 있다.The administrator can remotely control the vehicle (e.g., the vehicle in question) by interacting (e.g., clicking) with objects associated with the teleoperation mode. The vehicle intensive monitoring interface 600 may include additional information to support the manager's judgment of the situation and decision of response measures for the vehicle in which an issue occurs. The control server 320 may provide images captured by a camera mounted on a vehicle (eg, a vehicle in which an issue occurs) through the second area 620 of the vehicle intensive monitoring interface 600.

관제 서버(320)는 차량 집중 모니터링 인터페이스(600)의 제3 영역(630)을 통해, 차량(예: 이슈 발생 차량)이 표현된 실시간 맵 정보를 표시할 수 있다. 관제 서버(320)는 이슈 발생 차량 옆에 느낌표 오브젝트(631)를 표시할 수 있다. 관리자는 느낌표 오브젝트(631)를 통해 이슈 발생 차량의 실시간 위치를 빠르게 확인할 수 있다.The control server 320 may display real-time map information representing a vehicle (eg, a vehicle causing an issue) through the third area 630 of the vehicle intensive monitoring interface 600. The control server 320 may display an exclamation point object 631 next to the vehicle in which an issue occurs. The manager can quickly check the real-time location of the vehicle in question through the exclamation mark object 631.

관제 서버(320)는 영역(631)을 통해, 차량의 이슈 정보를 제공할 수 있다. 차량의 이슈 정보는 기사명, 차량번호, 차량의 현재 위치, 차량의 현재 탑승 인원, 및 이슈 발생 시간을 포함할 수 있다. 관리자는 영역(631)에 포함된 이슈 발생 해제 오브젝트(632)와 상호작용(예: 클릭)하여, 이슈를 해제할 수도 있다.The control server 320 may provide vehicle issue information through the area 631. The issue information of the vehicle may include the driver's name, vehicle number, current location of the vehicle, current number of passengers in the vehicle, and time of issue occurrence. The administrator may release the issue by interacting (e.g., clicking) with the issue release object 632 included in the area 631.

도 7은 일 실시예에 따른 이슈 발생 차량 제어 인터페이스를 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating a control interface for a vehicle in which an issue occurs according to an embodiment.

도 7을 참조하면, 일 실시예에 따르면, 관제 서버(예: 도 4의 관제 서버(320))는 관리자(예: 관제 서버를 이용하는 관리자)와 상호작용하는 이슈 발생 차량 제어 인터페이스(700)를 제공할 수 있다.Referring to FIG. 7, according to one embodiment, a control server (e.g., control server 320 of FIG. 4) uses an issue vehicle control interface 700 to interact with an administrator (e.g., a manager using the control server). can be provided.

관리자의 제2 모드와 연관된 오브젝트와의 상호작용(예: 클릭)에 대응하여, 관제 서버(320)는 이슈 발생 차량 제어 인터페이스(700)를 제공할 수 있다. 전술한 바와 같이, 제2 모드는 관리자의 실시간 입력(예: 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력)에 기초하여 차량을 원격으로 제어하는 모드일 수 있다. 이슈 발생 차량 제어 인터페이스(700)는 이슈 발생 차량에 부착된 카메라가 촬영한 실시간 영상을 최대화하여 표시할 수 있다. 이슈 발생 차량 제어 인터페이스(700)는 영역(710)에 차량의 상태 정보를 표시할 수 있다. 차량의 상태 정보는 현재 속도(예: 52km), 제한 속도(예: 50km), 및 기어 정보(예: D)를 포함할 수 있다.In response to the manager's interaction (eg, clicking) with an object associated with the second mode, the control server 320 may provide the issue-generating vehicle control interface 700. As described above, the second mode may be a mode in which the vehicle is remotely controlled based on the manager's real-time input (eg, input to at least one of the steering wheel, pedal, or gear). The issue vehicle control interface 700 can maximize and display real-time images captured by a camera attached to the issue vehicle. The issue-generating vehicle control interface 700 may display status information of the vehicle in the area 710. The vehicle's status information may include current speed (e.g., 52 km), speed limit (e.g., 50 km), and gear information (e.g., D).

제2 모드에 기초하여 이슈 발생 차량을 제어하는 동작의 트리거는, 관리자의 선택(예: 제2 모드와 연관된 오브젝트를 클릭)에만 국한되지 않는다. 예를 들어, 제2 모드는 차량의 자율 주행을 보조하는 안전 운전자의 선택에 기반하여 개시될 수 있다. 또한, 제2 모드는 관제 서버(320)의 자체 결정 알고리즘에 따라 개시될 수 있다.The trigger for controlling the issue-generating vehicle based on the second mode is not limited to the manager's selection (eg, clicking on an object associated with the second mode). For example, the second mode may be initiated based on the safety driver's selection to assist autonomous driving of the vehicle. Additionally, the second mode may be initiated according to the self-determination algorithm of the control server 320.

도 8은 일 실시예에 따른 차량 제어 방법의 흐름도를 나타낸다.Figure 8 shows a flowchart of a vehicle control method according to one embodiment.

도 8을 참조하면, 일 실시예에 따르면, 동작 810 내지 동작 830은 순차적으로 수행될 수 있지만, 이에 한정되는 것은 아니다. 예를 들어, 둘 이상의 동작들이 병렬적으로 수행될 수 있다.Referring to FIG. 8, according to one embodiment, operations 810 to 830 may be performed sequentially, but are not limited thereto. For example, two or more operations may be performed in parallel.

동작 810에서, 관제 서버(예: 도 4의 관제 서버(320))는 관제 서버(예: 도 3의 관제 서버(320))가 제어하는 차량(예: 도 3의 자율 주행 차량(310))으로부터 이슈 메세지를 수신할 수 있다.In operation 810, the control server (e.g., control server 320 in FIG. 4) controls a vehicle (e.g., autonomous vehicle 310 in FIG. 3) controlled by the control server (e.g., control server 320 in FIG. 3). You can receive issue messages from .

동작 820에서, 관제 서버(320)는 이슈 메세지에 대응하여, 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드와 연관된 오브젝트들을 활성화할 수 있다.In operation 820, the control server 320 may activate objects associated with a teleoperation mode for remotely controlling a vehicle in response to an issue message.

동작 830에서, 관제 서버(320)는 관제 서버를 이용하는 관리자의 텔레오퍼레이션 모드에 대한 입력에 대응하여, 차량을 원격으로 제어할 수 있다.In operation 830, the control server 320 may remotely control the vehicle in response to an input to the teleoperation mode from an administrator using the control server.

동작 810 내지 동작 830은 도 1 내지 도 7을 참조하여 설명한 관제 서버(320)의 동작과 실질적으로 동일할 수 있다. 이에, 상세한 설명은 생략하도록 한다.Operations 810 to 830 may be substantially the same as the operations of the control server 320 described with reference to FIGS. 1 to 7 . Accordingly, detailed description will be omitted.

도 9는 일 실시예에 따른 전자 장치에 포함되는 하드웨어를 도시한 블록도이다.FIG. 9 is a block diagram illustrating hardware included in an electronic device according to an embodiment.

도 9를 참조하면, 일 실시예에 따르면, 전자 장치(900)는 자율 주행 장치(예: 2의 자율 주행 장치(40))와 동일한 것일 수 있고, 자율 주행 장치(40)의 일부로 구현된 것일 수도 있다. 전자 장치(900)는 자율 주행 차량(예: 도 3의 자율 주행 차량(310))에 장착된 것일 수 있다.Referring to FIG. 9, according to one embodiment, the electronic device 900 may be the same as the autonomous driving device (e.g., the autonomous driving device 40 of 2) and may be implemented as part of the autonomous driving device 40. It may be possible. The electronic device 900 may be mounted on an autonomous vehicle (eg, the autonomous vehicle 310 of FIG. 3).

전자 장치(900)는 차량(예: 자율 주행 차량)에 발생한 주행 이슈의 즉각적인 리포팅을 지원할 수 있다. 전자 장치(900)는 즉각적인 주행 이슈 리포팅을 지원함으로써, 주행 이슈의 골든 타임 내 대응에 기여할 수 있다. 전자 장치(900)는 즉각적인 주행 이슈 리포팅을 지원함으로써, 주행 이슈 정보의 신뢰도를 향상시킬 수 있다.The electronic device 900 may support immediate reporting of driving issues occurring in a vehicle (eg, autonomous vehicle). The electronic device 900 can contribute to responding to driving issues within the golden time by supporting immediate driving issue reporting. The electronic device 900 can improve the reliability of driving issue information by supporting immediate driving issue reporting.

전자 장치(900)는 체계적인 주행 이슈 관리에 기여할 수 있다. 전자 장치(900)가 생성한 주행 이슈 정보는 관제 시스템(예: 도 3의 관제 시스템(300)) 내에서 자동으로 전처리될 수 있다. 전자 장치(900)가 생성한 주행 이슈 정보는 자동으로 분류되고, 정량화될 수 있다. 전자 장치(900)는 통일된 형식으로 주행 이슈 정보를 생성함으로써, 체계적인 주행 이슈 관리에 기여할 수 있다.The electronic device 900 can contribute to systematic management of driving issues. Driving issue information generated by the electronic device 900 may be automatically preprocessed within the control system (e.g., the control system 300 of FIG. 3). Driving issue information generated by the electronic device 900 can be automatically classified and quantified. The electronic device 900 can contribute to systematic management of driving issues by generating driving issue information in a unified format.

전자 장치(900)가 생성한 주행 이슈 정보는 관제 서버(예: 도 3의 관제 서버(320))가 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드 설정에 이용되는 것일 수 있다. 전자 장치(900)는 차량(예: 자율 주행 차량)의 상황에 대응되는 적응적인 원격 제어에 기여할 수 있다.Driving issue information generated by the electronic device 900 may be used by a control server (e.g., control server 320 in FIG. 3) to set a teleoperation mode for remotely controlling the vehicle. The electronic device 900 may contribute to adaptive remote control corresponding to the situation of the vehicle (eg, autonomous vehicle).

전자 장치(900)는 프로세서(910) 및 메모리(920)를 포함할 수 있다.The electronic device 900 may include a processor 910 and a memory 920.

프로세서(910)는 메모리(920)에 저장된 데이터를 처리할 수 있다. 프로세서(910)는 메모리(920)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(910)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.The processor 910 may process data stored in the memory 920. The processor 910 may execute computer-readable code (eg, software) stored in the memory 920 and instructions triggered by the processor 910 .

프로세서(910)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.The processor 910 may be a data processing device implemented in hardware that has a circuit with a physical structure for executing desired operations. For example, the intended operations may include code or instructions included in the program.

예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, data processing devices implemented in hardware include microprocessors, central processing units, processor cores, multi-core processors, and multiprocessors. , ASIC (Application-Specific Integrated Circuit), and FPGA (Field Programmable Gate Array).

메모리(920)는 휘발성 메모리 장치 또는 비휘발성 메모리 장치로 구현될 수 있다.The memory 920 may be implemented as a volatile memory device or a non-volatile memory device.

휘발성 메모리 장치는 DRAM(dynamic random access memory), SRAM(static random access memory), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), 또는 TTRAM(Twin Transistor RAM)으로 구현될 수 있다.Volatile memory devices may be implemented as dynamic random access memory (DRAM), static random access memory (SRAM), thyristor RAM (T-RAM), zero capacitor RAM (Z-RAM), or twin transistor RAM (TTRAM).

비휘발성 메모리 장치는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시(flash) 메모리, MRAM(Magnetic RAM), 스핀전달토크 MRAM(Spin-Transfer Torque(STT)-MRAM), Conductive Bridging RAM(CBRAM), FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), 저항 메모리(Resistive RAM(RRAM)), 나노 튜브 RRAM(Nanotube RRAM), 폴리머 RAM(Polymer RAM(PoRAM)), 나노 부유 게이트 메모리(Nano Floating Gate Memory(NFGM)), 홀로그래픽 메모리(holographic memory), 분자 전자 메모리 소자(Molecular Electronic Memory Device), 또는 절연 저항 변화 메모리(Insulator Resistance Change Memory)로 구현될 수 있다.Non-volatile memory devices include Electrically Erasable Programmable Read-Only Memory (EEPROM), Flash memory, Magnetic RAM (MRAM), Spin-Transfer Torque (STT)-MRAM (MRAM), and Conductive Bridging RAM (CBRAM). , FeRAM (Ferroelectric RAM), PRAM (Phase change RAM), Resistive RAM (RRAM), Nanotube RRAM (Nanotube RRAM), Polymer RAM (PoRAM), Nano Floating Gate Memory (NFGM), holographic memory, molecular electronic memory device, or insulation resistance change memory.

전자 장치(900)는 차량(예: 도 3의 자율 주행 차량(310)) 내부의 콘솔을 통해, 차량의 자율 주행을 보조하는 안전 운전자(safety driver)가 상호작용할 수 있는 메인 인터페이스(예: 도 10의 메인 인터페이스(1000))를 제공할 수 있다. 메인 인터페이스는 도 10 내지 도 12를 참조하여 상세히 설명하도록 한다.The electronic device 900 provides a main interface (e.g., FIG. 10 main interfaces (1000) can be provided. The main interface will be described in detail with reference to FIGS. 10 to 12.

전자 장치(900)는 안전 운전자와 메인 인터페이스의 상호작용에 기초하여, 차량의 주행 이슈 정보를 생성할 수 있다. 주행 이슈 정보는 이슈 종류, 이슈의 심각도, 및/또는 이슈의 발생 시점을 포함할 수 있다.The electronic device 900 may generate driving issue information of the vehicle based on the interaction between the safety driver and the main interface. Driving issue information may include the type of issue, the severity of the issue, and/or the time of occurrence of the issue.

이슈 종류는 차량(예: 자율 주행 차량)의 인지 이슈, 조향 이슈, 가감속 이슈, 시스템 이슈, 및 기타 이슈를 포함할 수 있다. 이슈 종류는 차량(예: 자율 주행 차량)의 인지 이슈, 정차 이슈, 가속 이슈, 감속 이슈, 조향 이슈, 신호등 이슈, 차선 변경 이슈, V2X 이슈, GPS 이슈, 및 시스템 이슈를 포함할 수 있다.Issue types may include vehicle (e.g., autonomous vehicle) perception issues, steering issues, acceleration/deceleration issues, system issues, and other issues. Issue types may include vehicle (e.g., autonomous vehicle) recognition issues, stopping issues, acceleration issues, deceleration issues, steering issues, traffic light issues, lane change issues, V2X issues, GPS issues, and system issues.

전자 장치(900)는 차량에 장착된 센서들이 감지한 정보 또는 차량의 주변 정보에 기초하여, 이슈 종류를 안전 운전자에게 제안할 수 있다. 예를 들어, GPS 센서에 문제가 발생한 경우, 전자 장치(900)는 차량에 발생한 이슈의 종류가 GPS 이슈임을 제안할 수 있다. 다른 예를 들어, 차량 주변에 안개가 자욱하여 시야가 확보되지 않는 경우, 프로세서(910)는 차량에 발생한 이슈의 종류가 인지 이슈임을 제안할 수 있다.The electronic device 900 may suggest a type of issue to a safe driver based on information detected by sensors mounted on the vehicle or information surrounding the vehicle. For example, when a problem occurs with a GPS sensor, the electronic device 900 may suggest that the type of issue occurring in the vehicle is a GPS issue. For another example, when visibility is difficult due to fog around the vehicle, the processor 910 may suggest that the type of issue occurring in the vehicle is a cognitive issue.

이슈의 심각도는 안전 운전자가 직접 결정하는 것일 수 있다. 또한, 프로세서(910)는 이슈의 심각도 범위를 제안할 수도 있다. 이슈의 심각도 범위는 차량에 장착된 센서(예: 도 2의 센서부(41))들이 감지한 정보에 기초하여 생성된 것일 수 있다.The severity of the issue may be determined by the safety driver himself. Additionally, processor 910 may suggest a severity range for the issue. The severity range of the issue may be generated based on information detected by sensors mounted on the vehicle (e.g., sensor unit 41 in FIG. 2).

이슈의 발생 시점은 타임스탬프의 형식으로 기록되는 것일 수 있다. 이슈의 발생 시점은 안전 운전자의 이슈 리포팅 시점에 대응될 수 있다. 또한. 이슈의 발생 시점은 차량이 인지한 이슈 발생 시점에 대응될 수도 있다.The time of occurrence of an issue may be recorded in the form of a timestamp. The time of occurrence of an issue may correspond to the time of issue reporting by a safe driver. also. The time of occurrence of an issue may correspond to the time of occurrence of an issue recognized by the vehicle.

도 10은 일 실시예에 따른 메인 인터페이스를 설명하기 위한 도면이다.Figure 10 is a diagram for explaining the main interface according to one embodiment.

도 10을 참조하면, 일 실시예에 따르면, 전자 장치(예: 도 9의 전자 장치(900))는 안전 운전자(safety driver)가 상호작용할 수 있는 메인 인터페이스(1000)를 제공할 수 있다.Referring to FIG. 10 , according to one embodiment, an electronic device (eg, the electronic device 900 of FIG. 9 ) may provide a main interface 1000 with which a safety driver can interact.

전자 장치(900)는 메인 인터페이스(1000)의 제1 영역(1010)에, 주행 경로에 관한 정보를 표시할 수 있다. 제1 영역(1010)은 차량(1011)(예: 전자 장치(900)가 부착된 차량)의 주변 환경을 표시할 수 있다.The electronic device 900 may display information about the driving route in the first area 1010 of the main interface 1000. The first area 1010 may display the surrounding environment of the vehicle 1011 (eg, a vehicle to which the electronic device 900 is attached).

제1 영역(1010)에는 차량(1011)에 대응되는 아이콘이 포함될 수 있다. 차량(1011)에 대응되는 아이콘은 차량의 정보에 기초한 것일 수 있다. 예를 들어, 차량(1011)이 승용차인 경우, 차량(1011)에 대응되는 아이콘은 승용차 모양의 아이콘일 수 있다. 예를 들어, 차량(1011)이 승합차인 경우, 차량(1011)에 대응되는 아이콘은 승합차 모양의 아이콘일 수 있다.The first area 1010 may include an icon corresponding to the vehicle 1011. The icon corresponding to the vehicle 1011 may be based on vehicle information. For example, when the vehicle 1011 is a passenger car, the icon corresponding to the vehicle 1011 may be an icon in the shape of a passenger car. For example, if the vehicle 1011 is a van, the icon corresponding to the vehicle 1011 may be a van-shaped icon.

제1 영역(1010)에는 차선이 포함될 수 있다. 차선은 도로 정보(예: 차량(1011)의 위치 정보에 기초하여 수신된 도로 정보)에 기초하여 생성될 수 있다. 차선은 차량(1011)의 주변의 차선 정보에 기초하여 생성될 수 있다.The first area 1010 may include a lane. Lanes may be created based on road information (eg, road information received based on location information of the vehicle 1011). Lanes may be created based on information on lanes around the vehicle 1011.

제1 영역(1010)에는 차량(1011) 주변에 위치한 다른 차량에 대응되는 아이콘이 포함될 수 있다. 다른 차량에 대응되는 아이콘의 모양은 다른 차량의 정보에 기초하여 결정될 수 있다. 다른 차량에 대응되는 아이콘의 위치는 다른 차량의 위치 정보(예: 기준 차량(1011)에 대한 상대적인 위치 정보)에 기초하여 결정될 수 있다. 다른 차량의 정보 또는 다른 차량의 위치 정보는 차량(1011)에 부착된 센서로부터 인식될 수 있다. 전자 장치(900)는 다른 차량에 대응되는 아이콘을 차량(1011)을 기준으로 한 다른 차량의 상대적인 위치에 배치할 수 있다.The first area 1010 may include icons corresponding to other vehicles located around the vehicle 1011. The shape of the icon corresponding to another vehicle may be determined based on information about the other vehicle. The location of the icon corresponding to another vehicle may be determined based on the location information of the other vehicle (eg, location information relative to the reference vehicle 1011). Information about other vehicles or location information of other vehicles may be recognized from a sensor attached to the vehicle 1011. The electronic device 900 may place icons corresponding to other vehicles at positions relative to the other vehicles with respect to the vehicle 1011.

제1 영역(1010)에는 차량(1011)의 주변에 위치한 보행자에 대응되는 아이콘이 포함될 수 있다. 보행자의 위치 정보는 차량(1011)에 부착된 센서로부터 인식될 수 있다. 전자 장치(900)는 보행자에 대응되는 아이콘을 차량(1011)을 기준으로 한 보행자의 상대적인 위치에 배치할 수 있다.The first area 1010 may include icons corresponding to pedestrians located around the vehicle 1011. Pedestrian location information may be recognized from a sensor attached to the vehicle 1011. The electronic device 900 may place an icon corresponding to the pedestrian at the pedestrian's relative position with respect to the vehicle 1011.

전자 장치(900)는 차량(1011)에 대응되는 아이콘, 차선, 다른 차량에 대응되는 아이콘, 또는 보행자에 대응되는 아이콘을 생성할 수 있다. 전자 장치(900)는 수신 또는 수집된 정보에 기초하여, 차량(1011)에 대응되는 아이콘을 중심으로 차선, 다른 차량에 대응되는 아이콘, 또는 보행자에 대응되는 아이콘을 제1 영역(1010) 내 배치할 수 있다.The electronic device 900 may generate an icon corresponding to the vehicle 1011, a lane, an icon corresponding to another vehicle, or an icon corresponding to a pedestrian. Based on the received or collected information, the electronic device 900 arranges a lane, an icon corresponding to another vehicle, or an icon corresponding to a pedestrian in the first area 1010, centered on the icon corresponding to the vehicle 1011. can do.

전자 장치(900)는 메인 인터페이스(1000)의 제2 영역(1020)에, 안내 경로를 표시할 수 있다. 제2 영역(1020)은 목적지에 관한 정보, 네비게이션 지도, 및 주행 방법 안내를 포함할 수 있다. 제2 영역(1020)의 안내 경로는 목적지에 관한 정보, 차량의 위치 정보, 도로 정보, 교통량에 관한 정보 등에 기초하여 생성된 것일 수 있다.The electronic device 900 may display a guidance route in the second area 1020 of the main interface 1000. The second area 1020 may include information about the destination, a navigation map, and driving method guidance. The guidance route of the second area 1020 may be generated based on information about the destination, location information of the vehicle, road information, information about traffic volume, etc.

전자 장치(900)는 메인 인터페이스(1000)의 제3 영역(1030)에, 자율 주행 기능의 상태를 표시할 수 있다. 자율 주행 기능의 상태는 차량의 자율 주행을 구현하기 위해 탑재된, 자율 주행과 연관된 하나 이상의 장치, 기능 등의 작 동 상태를 의미하는 것일 수 있다. 전자 장치(900)는 제3 영역(1030)을 통해 자율 주행과 연관된 하나 이상의 장치, 기능 등이 정상적으로 작동하고 있는지를 표시할 수 있다. 이는 단순한 예시로서 제공되며, 장치, 기능 등의 작동 상태를 표시할 수 있는 임의의 적합한 방식이 적용될 수 있다.The electronic device 900 may display the status of the autonomous driving function in the third area 1030 of the main interface 1000. The state of the autonomous driving function may refer to the operating state of one or more devices, functions, etc. related to autonomous driving that are mounted to implement autonomous driving of the vehicle. The electronic device 900 may display whether one or more devices, functions, etc. related to autonomous driving are operating normally through the third area 1030. This is provided as a simple example, and any suitable way to indicate the operating status of a device, function, etc. may be applied.

전자 장치(900)는 메인 인터페이스(1000) 내에서 리포트 오브젝트(1040)를 표시할 수 있다. 리포트 오브젝트(1040)에 대한 안전 운전자의 입력(예: 터치 입력)에 대응하여, 전자 장치(900)는 메인 인터페이스(1000) 내에서 이슈 종류 오브젝트를 표시할 수 있다. 이슈 종류 오브젝트는 도 11 및 도 12를 통해 설명하도록 한다.The electronic device 900 may display a report object 1040 within the main interface 1000. In response to the safety driver's input (eg, touch input) on the report object 1040, the electronic device 900 may display an issue type object within the main interface 1000. The issue type object will be explained with reference to FIGS. 11 and 12.

도 11 및 도 12는 일 실시예에 따른 리포팅 동작을 설명하기 위한 도면이다.11 and 12 are diagrams for explaining a reporting operation according to an embodiment.

도 11을 참조하면, 일 실시예에 따르면, 전자 장치(예: 도 9의 전자 장치(900))는 안전 운전자(safety driver)가 상호작용(예: 터치 입력)할 수 있는 이슈 종류 오브젝트(1041)들을 메인 인터페이스(1000) 내에 표시할 수 있다. 이슈 종류 오브젝트(1041)들은, 주행 이슈 정보에 포함되는 이슈 종류를 각각 지시할 수 있다. 이슈 종류 오브젝트(1041)들은 차량의 인지 이슈, 조향 이슈, 가감속 이슈, 시스템 이슈, 및 기타 이슈에 각각 대응되는 오브젝트를 포함할 수 있다.Referring to FIG. 11, according to one embodiment, an electronic device (e.g., the electronic device 900 of FIG. 9) includes an issue type object 1041 with which a safety driver can interact (e.g., touch input). ) can be displayed in the main interface 1000. Issue type objects 1041 may each indicate issue types included in driving issue information. Issue type objects 1041 may include objects corresponding to vehicle recognition issues, steering issues, acceleration/deceleration issues, system issues, and other issues.

도 12를 참조하면, 일 실시예에 따르면, 전자 장치(900)는 이슈 종류 오브젝트들(1042)을 메인 인터페이스(1000) 내에 표시할 수 있다. 이슈 종류 오브젝트의 개수는 도 11과 같이 5개로 제한되지 않을 수 있다. 이슈 종류 오브젝트(1042)들은 차량의 인지 이슈, 정차 이슈, 가속 이슈, 감속 이슈, 조향 이슈, 신호등 이슈, 차선 변경 이슈, V2X 이슈, GPS 이슈, 및 시스템 이슈에 각각 대응되는 오브젝트를 포함할 수 있다.Referring to FIG. 12 , according to one embodiment, the electronic device 900 may display issue type objects 1042 in the main interface 1000. The number of issue type objects may not be limited to 5 as shown in FIG. 11. Issue type objects 1042 may include objects corresponding to vehicle recognition issues, stopping issues, acceleration issues, deceleration issues, steering issues, traffic light issues, lane change issues, V2X issues, GPS issues, and system issues. .

전자 장치(900)는 차량에 장착된 센서들이 감지한 정보 또는 차량의 주변 정보에 기초하여, 안전 운전자에게 이슈 종류를 제안할 수 있다. 예를 들어, GPS 센서에 문제가 발생한 경우, 전자 장치(900)는 차량에 발생한 이슈의 종류가 GPS 이슈임을 제안할 수 있다. 다른 예를 들어, 차량 주변에 안개가 자욱하여 시야가 확보되지 않는 경우, 프로세서(910)는 차량에 발생한 이슈의 종류가 인지 이슈임을 제안할 수 있다.The electronic device 900 may suggest a type of issue to the safe driver based on information detected by sensors mounted on the vehicle or information around the vehicle. For example, when a problem occurs with a GPS sensor, the electronic device 900 may suggest that the type of issue occurring in the vehicle is a GPS issue. For another example, when visibility is difficult due to fog around the vehicle, the processor 910 may suggest that the type of issue occurring in the vehicle is a cognitive issue.

이슈의 심각도는 안전 운전자가 직접 결정하는 것일 수 있다. 또한, 프로세서(910)는 이슈의 심각도 범위를 제안할 수도 있다. 이슈의 심각도 범위는 차량에 장착된 센서(예: 도 2의 센서부(41))들이 감지한 정보에 기초하여 생성된 것일 수 있다.The severity of the issue may be determined by the safety driver himself. Additionally, processor 910 may suggest a severity range for the issue. The severity range of the issue may be generated based on information detected by sensors mounted on the vehicle (e.g., sensor unit 41 in FIG. 2).

전술한 바와 같이, 전자 장치(900)는 안전 운전자와 메인 인터페이스의 상호작용에 기초하여, 차량의 주행 이슈 정보를 생성할 수 있다. 주행 이슈 정보는 이슈 종류, 이슈의 심각도, 및/또는 이슈의 발생 시점을 포함할 수 있다. 주행 이슈 정보 중 이슈의 발생 시점은 타임스탬프의 형식으로 기록되는 것일 수 있다. 이슈의 발생 시점은 안전 운전자의 이슈 리포팅 시점에 대응될 수 있다. 또한. 이슈의 발생 시점은 차량이 인지한 이슈 발생 시점에 대응될 수도 있다.As described above, the electronic device 900 may generate vehicle driving issue information based on the interaction between the safety driver and the main interface. Driving issue information may include the type of issue, the severity of the issue, and/or the time of occurrence of the issue. Among the driving issue information, the time of issue occurrence may be recorded in the form of a timestamp. The time of occurrence of an issue may correspond to the time of issue reporting by a safe driver. also. The time of occurrence of an issue may correspond to the time of occurrence of an issue recognized by the vehicle.

전자 장치(900)는 차량(예: 자율 주행 차량)에 발생한 주행 이슈의 즉각적인 리포팅을 지원할 수 있다. 전자 장치(900)는 즉각적인 주행 이슈 리포팅을 지원함으로써, 주행 이슈의 골든 타임 내 대응에 기여할 수 있다. 전자 장치(900)는 즉각적인 주행 이슈 리포팅을 지원함으로써, 주행 이슈 정보의 신뢰도를 향상시킬 수 있다.The electronic device 900 may support immediate reporting of driving issues occurring in a vehicle (eg, autonomous vehicle). The electronic device 900 can contribute to responding to driving issues within the golden time by supporting immediate driving issue reporting. The electronic device 900 can improve the reliability of driving issue information by supporting immediate driving issue reporting.

도 13은 일 실시예에 따른 차량의 주행 이슈 리포팅 방법의 흐름도를 나타낸다.Figure 13 shows a flowchart of a method for reporting driving issues of a vehicle according to an embodiment.

도 13을 참조하면, 일 실시예에 따르면, 동작 1310 내지 동작 1330은 순차적으로 수행될 수 있지만, 이에 한정되는 것은 아니다. 예를 들어, 둘 이상의 동작들이 병렬적으로 수행될 수 있다.Referring to FIG. 13, according to one embodiment, operations 1310 to 1330 may be performed sequentially, but are not limited thereto. For example, two or more operations may be performed in parallel.

동작 1310에서, 전자 장치(예: 도 9의 전자 장치(900))는 관제 서버(예: 도 3의 관제 서버(320))가 제어하는 차량(예: 도 3의 자율 주행 차량(310)) 내부의 콘솔을 통해, 차량의 자율 주행을 보조하는 안전 운전자(safety driver)가 상호작용할 수 있는 메인 인터페이스를 제공할 수 있다.In operation 1310, an electronic device (e.g., electronic device 900 of FIG. 9) is controlled by a vehicle (e.g., autonomous vehicle 310 of FIG. 3) controlled by a control server (e.g., control server 320 of FIG. 3). Through the internal console, it is possible to provide a main interface through which the safety driver who assists the vehicle's autonomous driving can interact.

동작 1320에서, 전자 장치(900)는 안전 운전자와 메인 인터페이스의 상호작용에 기초하여, 상기 차량의 주행 이슈 정보를 생성할 수 있다.In operation 1320, the electronic device 900 may generate driving issue information of the vehicle based on the interaction between the safety driver and the main interface.

동작 1330에서, 전자 장치(900)는 주행 이슈 정보를 상기 차량을 제어하는 관제 서버로 송신할 수 있다.In operation 1330, the electronic device 900 may transmit driving issue information to the control server that controls the vehicle.

동작 1310 내지 동작 1330은 도 9 내지 도 12를 참조하여 설명한 전자 장치(900)의 동작과 실질적으로 동일할 수 있다. 이에, 상세한 설명은 생략하도록 한다.Operations 1310 to 1330 may be substantially the same as the operations of the electronic device 900 described with reference to FIGS. 9 to 12 . Accordingly, detailed description will be omitted.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on a computer-readable recording medium.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. A computer-readable medium may store program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. there is. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (20)

관제 서버의 차량 제어 방법에 있어서,
상기 관제 서버가 제어하는 차량의 이슈 메세지를 획득하는 동작;
상기 이슈 메세지에 대응하여, 상기 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드와 연관된 오브젝트들을 활성화하는 동작; 및
상기 관제 서버를 이용하는 관리자의 상기 텔레오퍼레이션 모드에 대한 입력에 대응하여, 상기 차량을 원격으로 제어하는 동작
을 포함하고,
상기 텔레오퍼레이션 모드는,
기지정된 명령어들에 기초하여 상기 차량을 원격으로 제어하는 제1 모드; 및
상기 관리자의 실시간 입력에 기초하여 상기 차량을 원격으로 제어하는 제2 모드
를 포함하는, 차량 제어 방법.
In the vehicle control method of the control server,
Obtaining an issue message of a vehicle controlled by the control server;
In response to the issue message, activating objects associated with a teleoperation mode for remotely controlling the vehicle; and
An operation of remotely controlling the vehicle in response to an input to the teleoperation mode by an administrator using the control server.
Including,
The teleoperation mode is,
A first mode for remotely controlling the vehicle based on predetermined commands; and
A second mode for remotely controlling the vehicle based on real-time input from the manager
Including a vehicle control method.
제1항에 있어서,
상기 제1 모드는,
상기 관리자로부터, 상기 차량의 갓길 정차, 대기, 또는 다시 주행에 각각 대응되는 입력 중 어느 하나를 수신하는 모드인,
차량 제어 방법.
According to paragraph 1,
The first mode is,
A mode for receiving, from the manager, any one of inputs corresponding to stopping the vehicle on the shoulder, waiting, or driving again,
How to control the vehicle.
제1항에 있어서,
상기 제2 모드는,
상기 관리자의 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력을 수신하는 모드인,
차량 제어 방법.
According to paragraph 1,
The second mode is,
A mode for receiving input for at least one of the manager's steering wheel, pedals, or gear,
How to control the vehicle.
제1항에 있어서,
상기 이슈 메세지는,
상기 차량에 장착된 센서들이 감지한 정보에 기초하여 생성된 것거나; 또는
상기 차량의 자율 주행을 보조하는 안전 운전자(safety driver)의 이슈 리포팅에 대응하여 생성된 것인,
차량 제어 방법.
According to paragraph 1,
The issue message is,
It is generated based on information detected by sensors mounted on the vehicle; or
Generated in response to issue reporting by a safety driver who assists the autonomous driving of the vehicle,
How to control the vehicle.
제1항에 있어서,
상기 활성화하는 동작은,
상기 관제 서버가 제공하는 실시간 모니터링 인터페이스 내에서, 상기 차량에 대한 알람을 제공하는 동작
을 포함하고,
상기 실시간 모니터링 인터페이스는,
상기 관제 서버가 제어하는 복수의 차량에 대한 정보; 및
상기 복수의 차량에 장착된 카메라가 각각 촬영하는 복수의 실시간 영상 정보
를 제공하는, 차량 제어 방법.
According to paragraph 1,
The activating operation is,
An operation of providing an alarm for the vehicle within a real-time monitoring interface provided by the control server.
Including,
The real-time monitoring interface is,
Information on a plurality of vehicles controlled by the control server; and
A plurality of real-time image information captured by cameras mounted on the plurality of vehicles, respectively
providing a vehicle control method.
제5항에 있어서,
상기 활성화하는 동작은,
상기 관리자의 상기 알람에 응답하는 입력에 기초하여, 차량 집중 모니터링 인터페이스를 제공하는 동작
을 더 포함하고,
상기 차량 집중 모니터링 인터페이스는,
상기 차량의 상태 정보 및 상기 차량의 이슈 정보를 제공하는, 차량 제어 방법.
According to clause 5,
The activating operation is,
An operation of providing a vehicle centralized monitoring interface based on the manager's input in response to the alarm.
It further includes,
The vehicle intensive monitoring interface is,
A vehicle control method that provides status information of the vehicle and issue information of the vehicle.
제6항에 있어서,
상기 차량 집중 모니터링 인터페이스는,
상기 오브젝트들을 디스플레이하기 위한 원격 제어 오브젝트를 더 제공하고,
상기 활성화하는 동작은,
상기 원격 제어 오브젝트에 대한 상기 관리자 입력에 대응하여, 상기 차량 집중 모니터링 인터페이스 내에서 상기 텔레오퍼레이션 모드와 연관된 상기 오브젝트들을 활성화하는 동작
을 더 포함하는, 차량 제어 방법.
According to clause 6,
The vehicle intensive monitoring interface is,
further providing a remote control object for displaying the objects,
The activating operation is,
In response to the administrator input for the remote control object, activating the objects associated with the teleoperation mode within the vehicle centralized monitoring interface.
A vehicle control method further comprising:
제1항에 있어서,
상기 활성화하는 동작은,
상기 차량의 주변 정보 또는 상기 차량에 장착된 센서들이 감지한 정보에 기초하여, 상기 오브젝트들 중 일부만을 활성화하는 동작
을 포함하는, 차량 제어 방법.
According to paragraph 1,
The activating operation is,
An operation of activating only some of the objects based on surrounding information of the vehicle or information detected by sensors mounted on the vehicle
Including a vehicle control method.
제1항에 있어서,
상기 오브젝트들은,
상기 제1 모드와 연관된 오브젝트 및 상기 제2 모드와 연관된 오브젝트를 포함하는, 차량 제어 방법.

According to paragraph 1,
The objects are,
A vehicle control method including an object associated with the first mode and an object associated with the second mode.

제9항에 있어서,
상기 제어하는 동작은,
상기 제1 모드와 연관된 오브젝트에 대한 상기 관리자의 입력에 대응하여, 상기 기지정된 명령어들 중 어느 하나를 상기 차량으로 송신하는 동작
을 포함하는, 차량 제어 방법.
According to clause 9,
The controlling operation is,
An operation of transmitting any one of the predetermined commands to the vehicle in response to the manager's input for an object associated with the first mode.
Including a vehicle control method.
제9항에 있어서,
상기 제어하는 동작은,
상기 제2 모드와 연관된 오브젝트에 대한 상기 관리자의 입력에 대응하여, 이슈 발생 차량 제어 인터페이스를 제공하는 동작
을 포함하는, 차량 제어 방법.
According to clause 9,
The controlling operation is,
An operation of providing a vehicle control interface in which an issue occurs in response to the manager's input for an object associated with the second mode.
Including a vehicle control method.
제11항에 있어서,
상기 이슈 발생 차량 제어 인터페이스는,
상기 차량에 장착된 카메라가 촬영하는 실시간 영상 정보; 및
상기 차량의 상태 정보
를 제공하는, 차량 제어 방법.
According to clause 11,
The vehicle control interface where the issue occurred is,
Real-time video information captured by a camera mounted on the vehicle; and
Status information of the vehicle
providing a vehicle control method.
관제 서버에 있어서,
인스트럭션들을 포함하는 메모리; 및
상기 인스트럭션들을 실행하기 위한 프로세서
를 포함하고,
상기 프로세서에 의해 상기 인스트럭션들이 실행될 때, 상기 프로세서는 복수의 동작을 수행하고,
상기 복수의 동작은,
상기 관제 서버가 제어하는 차량의 이슈 메세지를 획득하는 동작;
상기 이슈 메세지에 대응하여, 상기 차량을 원격으로 제어하기 위한 텔레오퍼레이션 모드와 연관된 오브젝트들을 활성화하는 동작; 및
상기 관제 서버를 이용하는 관리자의 상기 텔레오퍼레이션 모드에 대한 입력에 대응하여, 상기 차량을 원격으로 제어하는 동작
을 포함하고,
상기 텔레오퍼레이션 모드는,
기지정된 명령어들에 기초하여 상기 차량을 원격으로 제어하는 제1 모드; 및
상기 관리자의 실시간 입력에 기초하여 상기 차량을 원격으로 제어하는 제2 모드
를 포함하는, 관제 서버.
In the control server,
memory containing instructions; and
Processor for executing the instructions
Including,
When the instructions are executed by the processor, the processor performs a plurality of operations,
The plurality of operations are:
Obtaining an issue message of a vehicle controlled by the control server;
In response to the issue message, activating objects associated with a teleoperation mode for remotely controlling the vehicle; and
An operation of remotely controlling the vehicle in response to an input to the teleoperation mode by an administrator using the control server.
Including,
The teleoperation mode is,
A first mode for remotely controlling the vehicle based on predetermined commands; and
A second mode for remotely controlling the vehicle based on real-time input from the manager
Including a control server.
제13항에 있어서,
상기 제1 모드는,
상기 관리자로부터, 상기 차량의 갓길 정차, 대기, 또는 다시 주행에 각각 대응되는 입력 중 어느 하나를 수신하는 모드인,
관제 서버.
According to clause 13,
The first mode is,
A mode for receiving, from the manager, any one of inputs corresponding to stopping the vehicle on the shoulder, waiting, or driving again,
Control server.
제13항에 있어서,
상기 제2 모드는,
상기 관리자의 스티어링 휠, 페달, 또는 기어 중 적어도 하나에 대한 입력을 수신하는 모드인,
관제 서버.
According to clause 13,
The second mode is,
A mode for receiving input for at least one of the manager's steering wheel, pedals, or gear,
Control server.
제13항에 있어서,
상기 이슈 메세지는,
상기 차량에 장착된 센서들이 감지한 정보에 기초하여 생성된 것이거나; 또는

상기 차량의 자율 주행을 보조하는 안전 운전자(safety driver)의 이슈 리포팅에 대응하여 생성된 것인,
관제 서버.
According to clause 13,
The issue message is,
It is generated based on information detected by sensors mounted on the vehicle; or

Generated in response to issue reporting by a safety driver who assists the autonomous driving of the vehicle,
Control server.
제13항에 있어서,
상기 활성화하는 동작은,
상기 관제 서버가 제공하는 실시간 모니터링 인터페이스 내에서, 상기 차량에 대한 알람을 제공하는 동작
을 포함하고,
상기 실시간 모니터링 인터페이스는,
상기 관제 서버가 제어하는 복수의 차량에 대한 정보; 및
상기 복수의 차량에 장착된 카메라가 각각 촬영하는 복수의 실시간 영상 정보
를 제공하는, 관제 서버.
According to clause 13,
The activating operation is,
An operation of providing an alarm for the vehicle within a real-time monitoring interface provided by the control server.
Including,
The real-time monitoring interface is,
Information on a plurality of vehicles controlled by the control server; and
A plurality of real-time image information captured by cameras mounted on the plurality of vehicles, respectively
A control server that provides.
제17항에 있어서,
상기 활성화하는 동작은,
상기 관리자의 상기 알람에 응답하는 입력에 기초하여, 차량 집중 모니터링 인터페이스를 제공하는 동작
을 더 포함하고,
상기 차량 집중 모니터링 인터페이스는,
상기 차량의 상태 정보 및 상기 차량의 이슈 정보를 제공하는, 관제 서버.
According to clause 17,
The activating operation is,
An operation of providing a vehicle centralized monitoring interface based on the manager's input in response to the alarm.
It further includes,
The vehicle intensive monitoring interface is,
A control server that provides status information of the vehicle and issue information of the vehicle.
제18항에 있어서,
상기 차량 집중 모니터링 인터페이스는,
상기 오브젝트를 디스플레이하기 위한 원격 제어 오브젝트를 더 제공하고,
상기 활성화하는 동작은,
상기 원격 제어 오브젝트에 대한 상기 관리자 입력에 대응하여, 상기 차량 집중 모니터링 인터페이스 내에서 상기 텔레오퍼레이션 모드와 연관된 상기 오브젝트들을 활성화하는 동작
을 더 포함하는, 관제 서버.
According to clause 18,
The vehicle intensive monitoring interface is,
further providing a remote control object for displaying the object,
The activating operation is,
In response to the administrator input for the remote control object, activating the objects associated with the teleoperation mode within the vehicle centralized monitoring interface.
A control server further comprising:
제13항에 있어서,
상기 오브젝트들은,
상기 제1 모드와 연관된 오브젝트 및 상기 제2 모드와 연관된 오브젝트를 포함하는, 관제 서버.
According to clause 13,
The objects are,
A control server including an object associated with the first mode and an object associated with the second mode.
KR1020220188631A 2022-12-29 2022-12-29 Vehicle remote control method and control server performing the same KR20240106049A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220188631A KR20240106049A (en) 2022-12-29 2022-12-29 Vehicle remote control method and control server performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220188631A KR20240106049A (en) 2022-12-29 2022-12-29 Vehicle remote control method and control server performing the same

Publications (1)

Publication Number Publication Date
KR20240106049A true KR20240106049A (en) 2024-07-08

Family

ID=91945992

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220188631A KR20240106049A (en) 2022-12-29 2022-12-29 Vehicle remote control method and control server performing the same

Country Status (1)

Country Link
KR (1) KR20240106049A (en)

Similar Documents

Publication Publication Date Title
US11040726B2 (en) Alarm system of autonomous driving vehicles (ADVs)
US20220153264A1 (en) Operational Risk Assessment for Autonomous Vehicle Control
US9921581B2 (en) Autonomous vehicle emergency operating mode
US11724708B2 (en) Fail-safe handling system for autonomous driving vehicle
KR102205240B1 (en) Unexpected Impulse Change Collision Detector
US20180224850A1 (en) Autonomous vehicle control system implementing teleassistance
JP2020004402A (en) Safety monitoring system for automatic driving vehicle based on neural network
US10996668B2 (en) Systems and methods for on-site recovery of autonomous vehicles
CN108089571A (en) For predicting the vehicular traffic behavior of automatic driving vehicle to make the method and system of Driving Decision-making
US20220355819A1 (en) Autonomous driving vehicle controlling
CN108334073A (en) The method for keeping the distance between automatic driving vehicle and following vehicle using Brake lamp
US11886187B1 (en) Planner system recovery for autonomous vehicles
US20230040713A1 (en) Simulation method for autonomous vehicle and method for controlling autonomous vehicle
US11866068B2 (en) Detecting and responding to malfunctioning traffic signals for autonomous vehicles
US20230256999A1 (en) Simulation of imminent crash to minimize damage involving an autonomous vehicle
US20230192077A1 (en) Adjustment of object trajectory uncertainty by an autonomous vehicle
US20230182754A1 (en) Determining an anomalous event from a scenario and an action of interest
KR20240106049A (en) Vehicle remote control method and control server performing the same
KR20240106068A (en) Vehicle driving issue reporting method and electronic device performing the same
US12134405B2 (en) Responding to unsupported or degraded conditions for autonomous vehicles
US20240087450A1 (en) Emergency vehicle intent detection
US11891076B1 (en) Manual operation vehicle constraints
Han et al. Architecture of iBus: a self-driving bus for public roads
US11697435B1 (en) Hierarchical vehicle action prediction
US20240219905A1 (en) Autonomous vehicle mission interruption and mission continuation