WO2023233515A1 - Object detection device, object detection method, and object detection program - Google Patents
Object detection device, object detection method, and object detection program Download PDFInfo
- Publication number
- WO2023233515A1 WO2023233515A1 PCT/JP2022/022107 JP2022022107W WO2023233515A1 WO 2023233515 A1 WO2023233515 A1 WO 2023233515A1 JP 2022022107 W JP2022022107 W JP 2022022107W WO 2023233515 A1 WO2023233515 A1 WO 2023233515A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image sensor
- noise
- object detection
- possibility
- orientation
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 193
- 238000000034 method Methods 0.000 claims description 22
- 230000036544 posture Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
Definitions
- the present disclosure relates to an object detection device, an object detection method, and an object detection program.
- Patent Document 1 discloses a technique of switching a camera and a laser sensor in order to realize robust self-position estimation in this technique.
- areas where the camera can be used and areas where the camera cannot be used are set in advance, and a laser sensor is used in the area where the camera cannot be used.
- An object of the present disclosure is to avoid determining whether a camera mounted on a moving object can be used only based on the position of the moving object.
- the object detection device includes: Based on the orientation of an image sensor mounted on a moving body and the incoming direction of electromagnetic waves observed by the image sensor, it is determined whether there is a possibility that noise will be added to the observation result of the image sensor, and the image sensor is A path planning unit is provided that calculates, as the attitude of the moving body, an attitude in which the orientation of the image sensor deviates from the line input direction when it is determined that there is a possibility that noise may be added to the observation result of the sensor.
- the attitude of the moving object is calculated such that the orientation of the image sensor deviates from the incoming line direction.
- an image sensor can be used when the direction of the image sensor deviates from the incoming line direction, and a camera can be cited as a specific example of the image sensor. Therefore, by utilizing the present disclosure, it is possible to avoid determining whether or not a camera mounted on a moving object can be used based only on the position of the moving object.
- FIG. 1 is a diagram showing a configuration example of an object detection system 90 according to Embodiment 1.
- FIG. FIG. 3 is a diagram illustrating processing of the route planning unit 130 according to the first embodiment.
- FIG. 7 is a diagram showing how the vehicle body of the moving body 80 according to the first embodiment is swung from side to side.
- 1 is a diagram showing an example of the hardware configuration of an object detection device 100 according to Embodiment 1.
- FIG. 7 is a flowchart showing the operation of object detection system 90 according to the first embodiment.
- 7 is a flowchart showing the operation of object detection system 90 according to the first embodiment.
- 7 is a flowchart showing the operation of object detection system 90 according to the first embodiment.
- 7 is a flowchart showing the operation of object detection system 90 according to the first embodiment.
- FIG. 3 is a diagram illustrating a hardware configuration example of an object detection device 100 according to a modification of the first embodiment.
- FIG. 1 shows a configuration example of an object detection system 90 according to this embodiment.
- the object detection system 90 includes a false detection information DB (Database) 30 and a moving body 80, as shown in this figure.
- the object detection system 90 is a system that detects peripheral objects that are objects that exist around the moving body 80.
- the false detection information DB 30 is a database that stores false detection information, and is typically held at air traffic control.
- the control is a base that controls the mobile object 80 as a specific example.
- the moving body 80 or the object detection device 100 may hold the false detection information DB 30.
- the false detection information is information regarding conditions that may cause false detection, that is, conditions that may cause the result of object detection by the object detection device 100 to be erroneous.
- the false detection information is information indicating a condition under which noise may be added to the observation result of the image sensor, and may be information indicating the position and orientation of the moving object 80.
- the false detection information may be information generated based on information indicating the source of the electromagnetic wave and information indicating structures around the moving body 80.
- false detection occurs when, among the surfaces of the image sensors constituting the sensor group 20, the surface that observes electromagnetic waves faces the source of the electromagnetic waves observed by the image sensors. Furthermore, as a specific example, false detection occurs when the image sensor receives direct light, indirect light, or reflected light. As another specific example, false detection is caused by an image sensor mounted on the moving object 80 capturing light passing through a transparent door, resulting in a matching error and a surrounding object existing near the image sensor. This is a phenomenon that appears to be the case. As another example, a false positive is a phenomenon caused by an image sensor capturing light that passes through a blind or sunshade instead of the transparent door. The image sensor is, for example, a camera.
- the electromagnetic waves include visible light or infrared light.
- the source of the electromagnetic waves is, for example, the sun or lighting.
- the source of the electromagnetic waves is, for example, the sun or a heat source such as a heater.
- Sources of electromagnetic waves include objects that directly emit electromagnetic waves and objects that reflect electromagnetic waves emitted from the objects.
- the false detection information is information indicating a combination of position, orientation, and time. In this example, when the moving body 80 exists at the position indicated by the false detection information at the time indicated by the false detection information, and the attitude of the moving body 80 is the attitude indicated by the false detection information, the object detection device 100 Object detection results may be incorrect.
- the false detection information is specifically a condition in which there is a possibility that noise may be added to the sensing information acquired by the sensors constituting the sensor group 20, and the position and orientation of the moving object 80, This is information indicating conditions related to time.
- the posture of the moving body 80 is, for example, a combination of the orientation of the moving body 80 and the shape of the moving body 80.
- the shape of the moving body 80 is determined by the shape of an arm included in the moving body 80, etc.
- the false detection information includes information indicating the source of the electromagnetic wave and information used when calculating the path of light emitted from the source.
- the false detection information is generated based on weather forecast information for the time period in which the mobile object 80 is moving, and information on a map showing the structure of the building where the mobile object 80 is moving and the surrounding environment of the building. This is the information.
- the weather forecast and the map are used, as a specific example, when calculating the direction of light incidence to each sensor making up the sensor group 20.
- the false detection information DB 30 receives information indicating each of a start point, a way point, and a goal point from the object detection device 100 as information indicating the movement route of the moving object 80, noise may be added to the sensing information.
- the object detection device 100 may be notified of the position and the attitude.
- the false detection information DB 30 may receive from the object detection device 100 information indicating the time period in which the moving object 80 passes through each point on the movement route. Note that the false detection information DB 30 holds data for generating false detection information instead of false detection information, and may transmit the data to the object detection device 100 as appropriate.
- the moving body 80 includes a sensor group 20 and an object detection device 100.
- the moving object 80 is an object that moves indoors or outdoors, and a specific example is an autonomous vehicle that moves within a factory. Note that the moving body 80 does not need to include the object detection device 100.
- the sensor group 20 consists of at least one sensor included in the moving body 80.
- the sensor group 20 includes, as a specific example, at least one of a camera, a laser sensor, a millimeter wave radar, a sonar, and a GNSS (Global Navigation Satellite System) sensor.
- the sensor group 20 includes an image sensor.
- the image sensor is, for example, a sensor that observes visible light or infrared light.
- the object detection device 100 includes a detection recognition section 110, a position/orientation detection section 120, a path planning section 130, a control section 140, and a false detection information collection section 150.
- the detection recognition unit 110 receives sensing information from each sensor forming the sensor group 20, detects surrounding objects based on the received sensing information, and recognizes the detected surrounding objects.
- detecting a surrounding object means understanding the position, shape, size, etc. of the surrounding object
- recognizing a surrounding object means understanding the object's attributes in addition to detection. shall be.
- Specific examples of methods for recognizing peripheral objects include methods using voxelization, machine learning, or deep learning.
- the position and orientation detection unit 120 receives sensing information from the sensors forming the sensor group 20, and calculates the position and orientation of the moving body 80 based on the received sensing information.
- the position and orientation detection unit 120 uses the absolute coordinates on the map and the roll angle of the mobile body 80 on the map as the position and orientation of the mobile body 80. , pitch angle, and yaw angle may be calculated. Further, the position and orientation detection unit 120 may calculate the latitude and longitude of the position where the mobile body 80 is located and the direction in which the mobile body 80 is facing, as the position and orientation of the mobile body 80, regardless of the map. .
- the route planning unit 130 creates a travel route for the moving object 80.
- the route planning unit 130 may select one of a plurality of routes created in advance, or may create a free route connecting a given starting point, way point, and goal point.
- the route planning unit 130 determines that noise may be added to the observation results of the image sensor based on the orientation of the image sensor mounted on the moving body 80 and the incoming direction of the electromagnetic waves observed by the image sensor. If it is determined that there is a possibility that noise may be added to the observation result of the image sensor, the attitude of the moving object 80 is calculated such that the orientation of the image sensor deviates from the direction of entry. do.
- the route planning unit 130 may calculate the position of the moving body 80 such that the direction of the image sensor deviates from the entry direction.
- the route planning unit 130 uses the false detection information DB 30 to determine whether there is a possibility that noise will be added to the observation result of the image sensor.
- the route planning unit 130 determines whether there is a possibility that noise will be added to the observation results of the image sensor at the target point on the set movement route of the moving object 80, and determines whether or not there is a possibility that noise will be added to the observation results of the image sensor at the target point.
- the attitude of the moving body 80 at the target point may be calculated such that the orientation of the image sensor deviates from the incoming line direction.
- the route planning unit 130 determines whether there is a possibility that noise will be added to the observation results of the image sensor at the target point on the set movement route of the moving object 80, and determines whether or not there is a possibility that noise will be added to the observation results of the image sensor at the target point. If it is determined that there is a possibility that noise may be added to the target point, the moving route of the moving object 80 may be changed to a moving route that does not pass through the target point.
- the route planning unit 130 When selecting one of the plurality of routes created in advance, the route planning unit 130 refers to the false detection information DB 30 and moves at least one of the positions and postures where false detection may occur. Select a route that can be avoided at all times while the body 80 is moving. On the other hand, when creating a free route, the path planning unit 130 takes measures such as virtually placing an object at a position where a false detection may occur, which may cause a false detection. A route is created in which the moving body 80 can always avoid at least one of the positions and postures that satisfy the conditions while moving.
- the route planning unit 130 estimates the position of a light source such as the sun for each point on the travel route based on the season and time, and uses the estimated light source position and map. By calculating the incident direction of the light based on the information indicating and comparing the calculated incident direction with the direction of the image sensor, it is possible to determine whether the direction of the image sensor is in a direction that may cause noise to be added to the observation results of the image sensor. It may be determined whether or not there is one.
- the route planning unit 130 determines whether the orientation of the image sensor is such that noise may be added to the observation result of the image sensor.
- the moving route may be corrected in consideration of the position and orientation of the moving body 80 so as not to take a possible direction.
- the light source may also be an object that reflects light emitted by another object.
- the term "point” may be replaced with the term "region” as appropriate. In other words, the present embodiment also holds true even if the term "point” is appropriately replaced with a range having a certain area.
- FIG. 2 is a diagram illustrating the process by which the route planning unit 130 corrects the travel route.
- the left side of FIG. 2 corresponds to the process of selecting a route
- the right side of FIG. 2 corresponds to the process of generating a free route.
- the route planning unit 130 first selects a first travel route from the candidate travel routes, and takes into account the orientation of the image sensor mounted on the mobile object 80 and the direction of incoming sunlight. Then, it is determined that noise is added to the observation result of the image sensor at the target point on the selected first travel route. At this time, the route planning unit 130 refers to the weather forecast and map.
- the route planning unit 130 selects a second travel route, which is a travel route such that the orientation of the image sensor deviates from the entry direction at the target point, from the travel route candidates.
- a second travel route which is a travel route such that the orientation of the image sensor deviates from the entry direction at the target point, from the travel route candidates.
- the route planning unit 130 first generates a travel route based on the given start point and goal point, and similarly to the left side of FIG. It is determined that noise is added to the observation results.
- the route planning unit 130 generates another travel route that avoids the target point.
- the control unit 140 controls the movement of the moving body 80.
- the control unit 140 calculates the traveling speed of the moving body 80, the angular velocity when the moving body 80 turns, etc. based on the route created by the route planning unit 130.
- the control unit 140 may control each sensor forming the sensor group 20, such as changing the sensor used for observing surrounding objects.
- the false positive information collection unit 150 collects or generates false positive information, and stores the collected or generated false positive information in the false positive information DB 30.
- the false detection information collection unit 150 extracts conditions related to the position and orientation of the moving body 80 as conditions under which noise may be added to the observation results of the image sensor.
- the detection recognition unit 110 detects a surrounding object
- the false detection information collection unit 150 shakes the vehicle body of the moving body 80 from side to side to determine if there is a position and orientation at which the detected surrounding object disappears. It may be determined whether or not the observation result contains noise by detecting whether or not the noise is present.
- the false detection information collection unit 150 collects the observation results of the image sensor mounted on the moving body 80 and the image sensors mounted on other moving bodies 80 coming from the opposite direction to the traveling direction of the moving body 80. It may be determined whether or not the observation results include noise by comparing the observation results with the observation results. In addition, the false detection information collection unit 150 collects observation results that are considered to include noise and observations made when the mobile object 80 passes through the position where the observation result was observed at the same time as the observation result. It may be determined whether or not the observation results include noise by comparing the results. When the image sensor acquires a noise observation result that is an observation result containing noise, the false detection information collection unit 150 collects the time point at which the noise observation result was acquired and the moving object 80 at that time point as false detection information. , and stores the generated information in the false detection information DB 30.
- FIG. 3 shows how the vehicle body of the moving body 80 is shaken from side to side when the detection recognition unit 110 detects a surrounding object.
- the detection recognition unit 110 detects surrounding objects based on the observation results of the image sensor when the moving body 80 is facing in the front direction. However, the observation results of the image sensor are actually noise.
- the control unit 140 turns the vehicle body of the moving body 80 diagonally to the left, and checks whether the detection recognition unit 110 detects a surrounding object. At this time, the detection recognition unit 110 does not detect surrounding objects. Note that the diagonal right direction is the same as the diagonal left direction.
- the detection recognition unit 110 detects surrounding objects when the moving body 80 is facing forward, the detection recognition unit 110 does not detect the surrounding objects when the vehicle body of the moving body 80 is shaken from side to side. Therefore, the false detection information collection unit 150 determines that the observation result of the image sensor when the moving object 80 is facing forward is contaminated with noise. Therefore, the false detection information collection unit 150 generates, as false detection information, information indicating each of the position and orientation of the moving body 80 when the moving body 80 faces in the front direction, and the time when the noise was observed, The generated false detection information is stored in the false detection information DB 30.
- FIG. 4 shows an example of the hardware configuration of the object detection device 100 according to this embodiment.
- Object detection device 100 consists of a computer.
- Object detection device 100 may include multiple computers.
- the object detection device 100 is a computer that includes hardware such as a processor 11, a memory 12, an auxiliary storage device 13, an input/output IF (Interface) 14, and a communication device 15. These pieces of hardware are appropriately connected via signal lines 19.
- the processor 11 is an IC (Integrated Circuit) that performs arithmetic processing, and controls hardware included in the computer.
- the processor 11 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
- the object detection device 100 may include a plurality of processors in place of the processor 11. A plurality of processors share the role of the processor 11.
- the memory 12 is typically a volatile storage device, and a specific example is a RAM (Random Access Memory). Memory 12 is also called main storage or main memory. The data stored in the memory 12 is stored in the auxiliary storage device 13 as necessary.
- RAM Random Access Memory
- the auxiliary storage device 13 is typically a nonvolatile storage device, and specific examples include a ROM (Read Only Memory), an HDD (Hard Disk Drive), or a flash memory. Data stored in the auxiliary storage device 13 is loaded into the memory 12 as needed.
- the memory 12 and the auxiliary storage device 13 may be configured integrally.
- the input/output IF 14 is a port to which an input device and an output device are connected.
- the input/output IF 14 is, for example, a USB (Universal Serial Bus) terminal.
- Specific examples of the input device include a keyboard and a mouse.
- a specific example of the output device is a display.
- the communication device 15 is a receiver and a transmitter.
- the communication device 15 is, for example, a communication chip or a NIC (Network Interface Card).
- Each part of the object detection device 100 may use the input/output IF 14 and the communication device 15 as appropriate when communicating with other devices.
- the auxiliary storage device 13 stores an object detection program.
- the object detection program is a program that causes a computer to realize the functions of each part of the object detection device 100.
- the object detection program is loaded into memory 12 and executed by processor 11.
- the functions of each part included in the object detection device 100 are realized by software.
- the storage device includes, as a specific example, at least one of the memory 12, the auxiliary storage device 13, a register within the processor 11, and a cache memory within the processor 11. Note that the terms "data” and "information” may have the same meaning.
- the storage device may be independent of the computer.
- the functions of the memory 12 and the auxiliary storage device 13 may be realized by other storage devices.
- the object detection program may be recorded on a computer-readable nonvolatile recording medium.
- the nonvolatile recording medium include an optical disk or a flash memory.
- the object detection program may be provided as a program product.
- the operation procedure of the object detection device 100 corresponds to an object detection method. Further, a program that realizes the operation of the object detection device 100 corresponds to an object detection program.
- FIG. 5 is a flowchart showing an example of the operation of the object detection system 90.
- the operation of the object detection system 90 will be explained with reference to FIG. Note that the object detection system 90 may execute the process shown in FIG. 5 while the moving object 80 is moving along the set moving route, and in a simulation in which the moving object 80 moves along the set moving route. The process shown in FIG. 5 may also be executed. Further, in FIG. 5, broken lines indicate data transmission and reception.
- the detection recognition unit 110 receives sensing information from each sensor making up the sensor group 20.
- Step S102 The detection recognition unit 110 detects surrounding objects based on the sensing information received in step S101.
- the detection recognition unit 110 recognizes the detected surrounding object, and then the object detection device 100 proceeds to step S103. In other cases, the object detection device 100 proceeds to step S101.
- Step S103 The position and orientation detection unit 120 detects the current position and orientation of the moving object 80, and transmits information indicating the detected position and orientation to the false detection information DB 30.
- Step S104 The route planning unit 130 receives false detection information corresponding to the position and orientation detected in step S103 from the false detection information DB 30, and determines the possibility that the surrounding object detected in step S102 is noise based on the received false detection information. Determine whether or not there is. Note that the route planning unit 130 does not need to receive false detection information from the false detection information DB 30. If the route planning unit 130 does not receive false detection information from the false detection information DB 30, the route planning unit 130 determines that the surrounding object detected in step S102 is not noise. If there is a possibility that the surrounding object detected in step S102 is noise, the object detection device 100 proceeds to step S105. In other cases, the object detection device 100 proceeds to step S108.
- Step S105 First, the route planning unit 130 calculates the attitude of the moving body 80 such that noise is not added to the observation result of the image sensor mounted on the moving body 80 based on the false detection information received in step S104. Next, the control unit 140 changes the attitude of the moving body 80 to the attitude calculated by the route planning unit 130. Next, the detection recognition unit 110 receives sensing information from each sensor forming the sensor group 20.
- Step S106 The detection recognition unit 110 detects surrounding objects based on the sensing information received in step S105.
- the detection recognition unit 110 detects a surrounding object, that is, when the surrounding object detected in step S102 is considered not to be noise, the detection recognition unit 110 recognizes the detected surrounding object, and then the object detection device 100 The process advances to step S107. In other cases, the object detection device 100 proceeds to step S108 and step S109.
- Step S107 The route planning unit 130 changes the travel route of the moving body 80.
- Step S108 The moving body 80 continues moving along the set moving route.
- the false detection information collection unit 150 extracts information indicating the conditions under which noise is detected as false detection information, and registers the extracted false detection information in the false detection information DB 30.
- FIG. 6 is a flowchart showing another example of the operation of the object detection system 90.
- the operation of the object detection system 90 will be explained with reference to FIG. Note that the object detection system 90 may execute the process shown in FIG. 6 while the moving body 80 is moving along the set moving route, and in a simulation in which the moving body 80 moves along the set moving route. The process shown in FIG. 6 may also be executed.
- Step S121 The route planning unit 130 receives false detection information corresponding to the position and orientation detected in step S103 from the false detection information DB 30. Note that the object detection system 90 repeats the processing from step S103 to step S121 N times (N is an integer of 2 or more) for the purpose of improving the accuracy of determining whether or not the observation result of the image sensor is noise. Execute.
- Step S122 the route planning unit 130 determines whether there is a possibility that noise will be added to the observation result of the image sensor mounted on the mobile object 80 based on the false detection information received in step S121. Next, if it is determined that there is a possibility that noise may be added to the observation result of the image sensor, the route planning unit 130 determines whether noise may be added to the observation result of the image sensor based on the false detection information received in step S121. The posture of the moving body 80 that does not exist is calculated.
- the route planning unit 130 determines that there is no possibility of noise being added to the observation results of the image sensor, the route planning unit 130 sets the attitude of the moving body 80 to a different attitude from the current attitude of the moving body 80, A posture in which there is no possibility that noise will be added to the observation result of the image sensor may be calculated based on the false detection information received in step S121.
- the control unit 140 changes the attitude of the moving body 80 to the attitude calculated by the route planning unit 130.
- the detection recognition unit 110 receives sensing information from each sensor forming the sensor group 20.
- Step S123 The detection recognition unit 110 detects surrounding objects based on the sensing information received in step S122. When the detection recognition unit 110 detects a peripheral object, the detection recognition unit 110 recognizes the detected peripheral object. Furthermore, based on the result of executing step S123 N times, it is determined whether the surrounding object detected by the detection recognition unit 110 is noise. If the detection recognition unit 110 determines that the detected peripheral object is noise, the object detection device 100 proceeds to steps S108 and S109. In other cases, the object detection device 100 proceeds to step S107.
- FIG. 7 is a flowchart showing another example of the operation of the object detection system 90.
- the detection recognition unit 110 acquires false detection information before detecting surrounding objects, and changes the attitude of the moving object 80 based on the acquired false detection information, thereby reducing the number of times the movement route is changed. can be reduced.
- the object detection system 90 may execute the process shown in FIG. 7 while the moving body 80 is moving along the set moving route, and in a simulation in which the moving body 80 moves along the set moving route. The process shown in FIG. 7 may also be executed.
- Step S141 First, the route planning unit 130 receives false detection information corresponding to the position and orientation detected in step S103 from the false detection information DB 30, and based on the received false detection information, the route planning unit 130 Determine whether there is a possibility that noise may be added to the observation results. Next, when it is determined that there is a possibility that noise will be added to the observation result of the image sensor, the route planning unit 130 calculates a posture of the moving object 80 in which there is no possibility that noise will be added to the observation result of the image sensor. do. Next, the control unit 140 changes the attitude of the moving body 80 to the attitude calculated by the route planning unit 130. Next, the detection recognition unit 110 receives sensing information from each sensor forming the sensor group 20.
- Step S142 The detection recognition unit 110 detects surrounding objects based on the sensing information received in step S141.
- the detection recognition unit 110 recognizes the detected surrounding object, and then the object detection device 100 proceeds to step S107. In other cases, the object detection device 100 proceeds to step S108.
- Embodiment 1 ***Explanation of effects of Embodiment 1*** Existing technology that estimates the position of a moving object based on data acquired by a camera mounted on the moving object has a problem in that autonomous driving stops due to false detection at a location where a false detection occurs.
- the observation results of the camera can be obtained using direct light, indirect light, or reflected light. It is possible to calculate whether there is a possibility that noise will be added to the image, and to avoid at least one of the positions and postures where noise may be added.
- the false detection information DB 30 since the false detection information DB 30 exists, the position and orientation where false detection is likely to occur are known in advance. Therefore, according to the present embodiment, it is possible to generate or select in advance a movement route in which there is no possibility of noise being introduced, and to move in a posture that does not cause false detection at a position where there is a possibility of noise being introduced. Travel routes can be calculated in advance.
- the route planning unit 130 determines that the observation result of the image sensor contains noise, instead of changing the travel route, it generates information indicating that the image sensor will not be used. According to this modification, even if it is determined that noise is added to the observation result of the image sensor, there is no need to change the movement route of the moving body 80.
- FIG. 8 shows an example of the hardware configuration of an object detection device 100 according to this modification.
- the object detection device 100 includes a processing circuit 18 instead of the processor 11, the processor 11 and the memory 12, the processor 11 and the auxiliary storage device 13, or the processor 11, the memory 12, and the auxiliary storage device 13.
- the processing circuit 18 is hardware that implements at least a portion of each section included in the object detection device 100.
- Processing circuit 18 may be dedicated hardware or may be a processor that executes a program stored in memory 12.
- the processing circuit 18 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) or a combination thereof.
- the object detection device 100 may include a plurality of processing circuits that replace the processing circuit 18. The plurality of processing circuits share the role of the processing circuit 18.
- some functions may be realized by dedicated hardware, and the remaining functions may be realized by software or firmware.
- the processing circuit 18 is implemented, for example, by hardware, software, firmware, or a combination thereof.
- the processor 11, memory 12, auxiliary storage device 13, and processing circuit 18 are collectively referred to as a "processing circuitry.” That is, the functions of each functional component of the object detection device 100 are realized by processing circuitry.
- Embodiment 1 has been described, a plurality of parts of this embodiment may be implemented in combination. Alternatively, this embodiment may be partially implemented. In addition, this embodiment may be modified in various ways as necessary, and may be implemented as a whole or in part in any combination. Note that the embodiments described above are essentially preferable examples, and are not intended to limit the present disclosure, its applications, and the scope of use. The procedures described using flowcharts and the like may be changed as appropriate.
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
An object detection device (100) comprises a route planning unit (130). The route planning unit (130) determines whether there is the possibility that noise could be superimposed on an observation result of an image sensor on the basis of the orientation of the image sensor mounted on a mobile body (80), and an electromagnetic wave entry direction observed by the image sensor. If the route planning unit has determined that there is the possibility that noise could be superimposed on the observation result of the image sensor, the route planning unit calculates, as posture for the mobile body (80), a posture such that the orientation of the image sensor is diverted from the entry direction.
Description
本開示は、物体検知装置、物体検知方法、及び物体検知プログラムに関する。
The present disclosure relates to an object detection device, an object detection method, and an object detection program.
移動体が搭載しているカメラが取得したデータに基づいて当該移動体の位置を推定する技術がある。当該技術には、倉庫の窓及び天窓等の近傍においてカメラに光が入ることにより推定結果が不安定になるという課題がある。
特許文献1は、当該技術においてロバストな自己位置推定を実現するために、カメラ及びレーザセンサを切り替える技術を開示している。特許文献1が開示する技術において、カメラ使用可である領域、及びカメラ使用不可である領域があらかじめ設定されており、カメラ使用不可である領域ではレーザセンサを利用する。 There is a technique for estimating the position of a moving object based on data acquired by a camera mounted on the moving object. This technique has a problem in that estimation results become unstable due to light entering the camera near windows, skylights, etc. of the warehouse.
Patent Document 1 discloses a technique of switching a camera and a laser sensor in order to realize robust self-position estimation in this technique. In the technology disclosed in Patent Document 1, areas where the camera can be used and areas where the camera cannot be used are set in advance, and a laser sensor is used in the area where the camera cannot be used.
特許文献1は、当該技術においてロバストな自己位置推定を実現するために、カメラ及びレーザセンサを切り替える技術を開示している。特許文献1が開示する技術において、カメラ使用可である領域、及びカメラ使用不可である領域があらかじめ設定されており、カメラ使用不可である領域ではレーザセンサを利用する。 There is a technique for estimating the position of a moving object based on data acquired by a camera mounted on the moving object. This technique has a problem in that estimation results become unstable due to light entering the camera near windows, skylights, etc. of the warehouse.
Patent Document 1 discloses a technique of switching a camera and a laser sensor in order to realize robust self-position estimation in this technique. In the technology disclosed in Patent Document 1, areas where the camera can be used and areas where the camera cannot be used are set in advance, and a laser sensor is used in the area where the camera cannot be used.
移動体の位置を推定する際に移動体が搭載しているカメラを使用する場合において、カメラへ光が入る方向によりカメラの観測結果にノイズが乗りやすいか否かが定まる。そのため、特許文献1が開示するカメラ使用不可である領域内に移動体が存在する場合であっても、移動体の姿勢によっては移動体が搭載しているカメラの観測結果にノイズが乗らない。
従って、特許文献1が開示する技術には、移動体の位置のみによって移動体が搭載しているカメラを使用することができるか否かを判断するために、移動体の姿勢によってはカメラを使用することができる場合であってもカメラを使用することができないと判断してしまうという課題がある。 When a camera mounted on a moving object is used to estimate the position of a moving object, the direction in which light enters the camera determines whether noise is likely to be included in the camera's observation results. Therefore, even if a moving object exists in the area disclosed in Patent Document 1 where the camera cannot be used, noise will not be added to the observation results of the camera mounted on the moving object depending on the attitude of the moving object.
Therefore, in the technology disclosed in Patent Document 1, in order to determine whether or not the camera mounted on a moving object can be used based only on the position of the moving object, the camera may be used depending on the attitude of the moving object. There is a problem in that even if it is possible to use the camera, it is determined that the camera cannot be used.
従って、特許文献1が開示する技術には、移動体の位置のみによって移動体が搭載しているカメラを使用することができるか否かを判断するために、移動体の姿勢によってはカメラを使用することができる場合であってもカメラを使用することができないと判断してしまうという課題がある。 When a camera mounted on a moving object is used to estimate the position of a moving object, the direction in which light enters the camera determines whether noise is likely to be included in the camera's observation results. Therefore, even if a moving object exists in the area disclosed in Patent Document 1 where the camera cannot be used, noise will not be added to the observation results of the camera mounted on the moving object depending on the attitude of the moving object.
Therefore, in the technology disclosed in Patent Document 1, in order to determine whether or not the camera mounted on a moving object can be used based only on the position of the moving object, the camera may be used depending on the attitude of the moving object. There is a problem in that even if it is possible to use the camera, it is determined that the camera cannot be used.
本開示は、移動体の位置のみによって移動体が搭載しているカメラを使用することができるか否かを判断しないようにすることを目的とする。
An object of the present disclosure is to avoid determining whether a camera mounted on a moving object can be used only based on the position of the moving object.
本開示に係る物体検知装置は、
移動体が搭載している画像センサの向きと、前記画像センサが観測する電磁波の入線方向とに基づいて前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、前記画像センサの観測結果にノイズが乗る可能性があると判定した場合に、前記移動体の姿勢として、前記画像センサの向きが前記入線方向から逸れるような姿勢を算出する経路計画部
を備える。 The object detection device according to the present disclosure includes:
Based on the orientation of an image sensor mounted on a moving body and the incoming direction of electromagnetic waves observed by the image sensor, it is determined whether there is a possibility that noise will be added to the observation result of the image sensor, and the image sensor is A path planning unit is provided that calculates, as the attitude of the moving body, an attitude in which the orientation of the image sensor deviates from the line input direction when it is determined that there is a possibility that noise may be added to the observation result of the sensor.
移動体が搭載している画像センサの向きと、前記画像センサが観測する電磁波の入線方向とに基づいて前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、前記画像センサの観測結果にノイズが乗る可能性があると判定した場合に、前記移動体の姿勢として、前記画像センサの向きが前記入線方向から逸れるような姿勢を算出する経路計画部
を備える。 The object detection device according to the present disclosure includes:
Based on the orientation of an image sensor mounted on a moving body and the incoming direction of electromagnetic waves observed by the image sensor, it is determined whether there is a possibility that noise will be added to the observation result of the image sensor, and the image sensor is A path planning unit is provided that calculates, as the attitude of the moving body, an attitude in which the orientation of the image sensor deviates from the line input direction when it is determined that there is a possibility that noise may be added to the observation result of the sensor.
本開示によれば、移動体が搭載している画像センサの観測結果にノイズが乗る可能性がある場合に画像センサの向きが入線方向から逸れるような移動体の姿勢を算出する。ここで、画像センサの向きが入線方向から逸れた場合に画像センサを使用することができ、画像センサの具体例としてカメラが挙げられる。従って、本開示を活用することにより、移動体の位置のみによって移動体が搭載しているカメラを使用することができるか否かを判断しないようにすることができる。
According to the present disclosure, when there is a possibility that noise may be added to the observation results of the image sensor mounted on the moving object, the attitude of the moving object is calculated such that the orientation of the image sensor deviates from the incoming line direction. Here, an image sensor can be used when the direction of the image sensor deviates from the incoming line direction, and a camera can be cited as a specific example of the image sensor. Therefore, by utilizing the present disclosure, it is possible to avoid determining whether or not a camera mounted on a moving object can be used based only on the position of the moving object.
実施の形態の説明及び図面において、同じ要素及び対応する要素には同じ符号を付している。同じ符号が付された要素の説明は、適宜に省略又は簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。また、「部」を、「回路」、「工程」、「手順」、「処理」又は「サーキットリー」に適宜読み替えてもよい。
In the description of the embodiments and the drawings, the same elements and corresponding elements are denoted by the same reference numerals. Descriptions of elements labeled with the same reference numerals will be omitted or simplified as appropriate. Arrows in the figure mainly indicate the flow of data or processing. Furthermore, "unit" may be read as "circuit," "process," "procedure," "process," or "circuitry" as appropriate.
実施の形態1.
以下、本実施の形態について、図面を参照しながら詳細に説明する。 Embodiment 1.
Hereinafter, this embodiment will be described in detail with reference to the drawings.
以下、本実施の形態について、図面を参照しながら詳細に説明する。 Embodiment 1.
Hereinafter, this embodiment will be described in detail with reference to the drawings.
***構成の説明***
図1は、本実施の形態に係る物体検知システム90の構成例を示している。物体検知システム90は、本図に示すように、誤検知情報DB(Database)30と、移動体80とを備える。物体検知システム90は、移動体80の周辺に存在する物体である周辺物体を検出するシステムである。 ***Explanation of configuration***
FIG. 1 shows a configuration example of anobject detection system 90 according to this embodiment. The object detection system 90 includes a false detection information DB (Database) 30 and a moving body 80, as shown in this figure. The object detection system 90 is a system that detects peripheral objects that are objects that exist around the moving body 80.
図1は、本実施の形態に係る物体検知システム90の構成例を示している。物体検知システム90は、本図に示すように、誤検知情報DB(Database)30と、移動体80とを備える。物体検知システム90は、移動体80の周辺に存在する物体である周辺物体を検出するシステムである。 ***Explanation of configuration***
FIG. 1 shows a configuration example of an
誤検知情報DB30は、誤検知情報を格納しているデータベースであり、典型的には管制に保持されている。管制は、具体例として移動体80を制御する拠点である。なお、移動体80又は物体検知装置100が誤検知情報DB30を保持していてもよい。
誤検知情報は、誤検知が発生する可能性がある条件、即ち物体検知装置100による物体検知の結果が誤りとなる可能性がある条件に関する情報である。誤検知情報は、画像センサの観測結果にノイズが乗る可能性がある条件を示す情報であって、移動体80の位置及び姿勢を示す情報であってもよい。誤検知情報は、電磁波の発生源を示す情報と、移動体80の周囲の構造物を示す情報とに基づいて生成された情報であってもよい。誤検知は、具体例として、センサ群20を構成する画像センサの面のうち電磁波を観測する面の向きが、当該画像センサが観測する電磁波の発生源と対向する向きであることによって発生する。また、具体例として、当該画像センサが直接光、間接光、又は反射光を受ける場合に誤検知は発生する。別の具体例として、誤検知は、移動体80に搭載されている画像センサが透明なドアを通過する光を捉えたために、マッチングミスが生じて当該画像センサに近い位置に周辺物体が存在するように見える現象である。別の具体例として、誤検知は、当該透明なドアの代わりにブラインド又はサンシェードを通過した光を画像センサが捉えることによって生じる現象である。画像センサは、具体例としてカメラである。電磁波は、具体例として可視光又は赤外光である。電磁波が可視光である場合において、電磁波の発生源は、具体例として太陽又は照明である。電磁波が赤外光である場合において、電磁波の発生源は、具体例として太陽又はヒータなどの熱源である。電磁波の発生源には、電磁波を直接的に発する物体と、当該物体から発せられた電磁波を反射する物体とが含まれる。
具体例として、誤検知情報は、位置と、姿勢と、時刻との組を示す情報である。本例において、誤検知情報が示す時刻において、誤検知情報が示す位置に移動体80が存在し、かつ、移動体80の姿勢が誤検知情報が示す姿勢である場合に、物体検知装置100による物体検知の結果が誤りである可能性がある。また、本例において、誤検知情報は、具体的には、センサ群20を構成するセンサが取得したセンシング情報にノイズが乗る可能性がある条件であって、移動体80の位置及び姿勢と、時刻とに関する条件を示す情報である。移動体80の姿勢は、具体例として、移動体80の向きと、移動体80の形状との組み合わせである。移動体80の形状は、移動体80が備えるアームの形状等によって定まる。
別の具体例として、誤検知情報は、電磁波の発生源を示す情報と、当該発生源から発せられた光の経路を算出する際に用いられる情報を含む。具体例として、誤検知情報は、移動体80が移動する時間帯における天気予報の情報と、移動体80が移動する建物の構造及び当該建物の周辺環境を示す地図の情報とに基づいて生成された情報である。天気予報及び地図は、具体例として、センサ群20を構成する各センサに対する光の入線方向を計算する際に用いられる。
誤検知情報DB30は、移動体80の移動経路を示す情報として、スタート地点、経由地点、及びゴール地点との各々を示す情報を物体検知装置100から受信した場合において、センシング情報にノイズが乗る可能性がある位置をセンシング情報にノイズが乗る可能性がある姿勢で移動体80が通過すると判断した場合に、当該位置及び当該姿勢を物体検知装置100に通知してもよい。この際、誤検知情報DB30は、移動体80が移動経路上の各地点を通過する時間帯を示す情報を物体検知装置100から受信してもよい。
なお、誤検知情報DB30は、誤検知情報の代わりに誤検知情報を生成するためのデータを保持しており、当該データを物体検知装置100に適宜送信してもよい。 The falsedetection information DB 30 is a database that stores false detection information, and is typically held at air traffic control. The control is a base that controls the mobile object 80 as a specific example. Note that the moving body 80 or the object detection device 100 may hold the false detection information DB 30.
The false detection information is information regarding conditions that may cause false detection, that is, conditions that may cause the result of object detection by theobject detection device 100 to be erroneous. The false detection information is information indicating a condition under which noise may be added to the observation result of the image sensor, and may be information indicating the position and orientation of the moving object 80. The false detection information may be information generated based on information indicating the source of the electromagnetic wave and information indicating structures around the moving body 80. As a specific example, false detection occurs when, among the surfaces of the image sensors constituting the sensor group 20, the surface that observes electromagnetic waves faces the source of the electromagnetic waves observed by the image sensors. Furthermore, as a specific example, false detection occurs when the image sensor receives direct light, indirect light, or reflected light. As another specific example, false detection is caused by an image sensor mounted on the moving object 80 capturing light passing through a transparent door, resulting in a matching error and a surrounding object existing near the image sensor. This is a phenomenon that appears to be the case. As another example, a false positive is a phenomenon caused by an image sensor capturing light that passes through a blind or sunshade instead of the transparent door. The image sensor is, for example, a camera. Specific examples of the electromagnetic waves include visible light or infrared light. When the electromagnetic waves are visible light, the source of the electromagnetic waves is, for example, the sun or lighting. When the electromagnetic waves are infrared light, the source of the electromagnetic waves is, for example, the sun or a heat source such as a heater. Sources of electromagnetic waves include objects that directly emit electromagnetic waves and objects that reflect electromagnetic waves emitted from the objects.
As a specific example, the false detection information is information indicating a combination of position, orientation, and time. In this example, when the movingbody 80 exists at the position indicated by the false detection information at the time indicated by the false detection information, and the attitude of the moving body 80 is the attitude indicated by the false detection information, the object detection device 100 Object detection results may be incorrect. Furthermore, in this example, the false detection information is specifically a condition in which there is a possibility that noise may be added to the sensing information acquired by the sensors constituting the sensor group 20, and the position and orientation of the moving object 80, This is information indicating conditions related to time. The posture of the moving body 80 is, for example, a combination of the orientation of the moving body 80 and the shape of the moving body 80. The shape of the moving body 80 is determined by the shape of an arm included in the moving body 80, etc.
As another specific example, the false detection information includes information indicating the source of the electromagnetic wave and information used when calculating the path of light emitted from the source. As a specific example, the false detection information is generated based on weather forecast information for the time period in which themobile object 80 is moving, and information on a map showing the structure of the building where the mobile object 80 is moving and the surrounding environment of the building. This is the information. The weather forecast and the map are used, as a specific example, when calculating the direction of light incidence to each sensor making up the sensor group 20.
When the falsedetection information DB 30 receives information indicating each of a start point, a way point, and a goal point from the object detection device 100 as information indicating the movement route of the moving object 80, noise may be added to the sensing information. If it is determined that the moving body 80 passes through a certain position in an attitude where there is a possibility that noise may be added to the sensing information, the object detection device 100 may be notified of the position and the attitude. At this time, the false detection information DB 30 may receive from the object detection device 100 information indicating the time period in which the moving object 80 passes through each point on the movement route.
Note that the falsedetection information DB 30 holds data for generating false detection information instead of false detection information, and may transmit the data to the object detection device 100 as appropriate.
誤検知情報は、誤検知が発生する可能性がある条件、即ち物体検知装置100による物体検知の結果が誤りとなる可能性がある条件に関する情報である。誤検知情報は、画像センサの観測結果にノイズが乗る可能性がある条件を示す情報であって、移動体80の位置及び姿勢を示す情報であってもよい。誤検知情報は、電磁波の発生源を示す情報と、移動体80の周囲の構造物を示す情報とに基づいて生成された情報であってもよい。誤検知は、具体例として、センサ群20を構成する画像センサの面のうち電磁波を観測する面の向きが、当該画像センサが観測する電磁波の発生源と対向する向きであることによって発生する。また、具体例として、当該画像センサが直接光、間接光、又は反射光を受ける場合に誤検知は発生する。別の具体例として、誤検知は、移動体80に搭載されている画像センサが透明なドアを通過する光を捉えたために、マッチングミスが生じて当該画像センサに近い位置に周辺物体が存在するように見える現象である。別の具体例として、誤検知は、当該透明なドアの代わりにブラインド又はサンシェードを通過した光を画像センサが捉えることによって生じる現象である。画像センサは、具体例としてカメラである。電磁波は、具体例として可視光又は赤外光である。電磁波が可視光である場合において、電磁波の発生源は、具体例として太陽又は照明である。電磁波が赤外光である場合において、電磁波の発生源は、具体例として太陽又はヒータなどの熱源である。電磁波の発生源には、電磁波を直接的に発する物体と、当該物体から発せられた電磁波を反射する物体とが含まれる。
具体例として、誤検知情報は、位置と、姿勢と、時刻との組を示す情報である。本例において、誤検知情報が示す時刻において、誤検知情報が示す位置に移動体80が存在し、かつ、移動体80の姿勢が誤検知情報が示す姿勢である場合に、物体検知装置100による物体検知の結果が誤りである可能性がある。また、本例において、誤検知情報は、具体的には、センサ群20を構成するセンサが取得したセンシング情報にノイズが乗る可能性がある条件であって、移動体80の位置及び姿勢と、時刻とに関する条件を示す情報である。移動体80の姿勢は、具体例として、移動体80の向きと、移動体80の形状との組み合わせである。移動体80の形状は、移動体80が備えるアームの形状等によって定まる。
別の具体例として、誤検知情報は、電磁波の発生源を示す情報と、当該発生源から発せられた光の経路を算出する際に用いられる情報を含む。具体例として、誤検知情報は、移動体80が移動する時間帯における天気予報の情報と、移動体80が移動する建物の構造及び当該建物の周辺環境を示す地図の情報とに基づいて生成された情報である。天気予報及び地図は、具体例として、センサ群20を構成する各センサに対する光の入線方向を計算する際に用いられる。
誤検知情報DB30は、移動体80の移動経路を示す情報として、スタート地点、経由地点、及びゴール地点との各々を示す情報を物体検知装置100から受信した場合において、センシング情報にノイズが乗る可能性がある位置をセンシング情報にノイズが乗る可能性がある姿勢で移動体80が通過すると判断した場合に、当該位置及び当該姿勢を物体検知装置100に通知してもよい。この際、誤検知情報DB30は、移動体80が移動経路上の各地点を通過する時間帯を示す情報を物体検知装置100から受信してもよい。
なお、誤検知情報DB30は、誤検知情報の代わりに誤検知情報を生成するためのデータを保持しており、当該データを物体検知装置100に適宜送信してもよい。 The false
The false detection information is information regarding conditions that may cause false detection, that is, conditions that may cause the result of object detection by the
As a specific example, the false detection information is information indicating a combination of position, orientation, and time. In this example, when the moving
As another specific example, the false detection information includes information indicating the source of the electromagnetic wave and information used when calculating the path of light emitted from the source. As a specific example, the false detection information is generated based on weather forecast information for the time period in which the
When the false
Note that the false
移動体80は、センサ群20と、物体検知装置100とを備える。移動体80は、屋内又は屋外を移動する物体であり、具体例として工場内を移動する自律走行車である。なお、移動体80は物体検知装置100を備えなくてもよい。
The moving body 80 includes a sensor group 20 and an object detection device 100. The moving object 80 is an object that moves indoors or outdoors, and a specific example is an autonomous vehicle that moves within a factory. Note that the moving body 80 does not need to include the object detection device 100.
センサ群20は、移動体80が備える少なくとも1つのセンサから成る。センサ群20は、具体例として、カメラと、レーザセンサと、ミリ波レーダと、ソナーと、GNSS(Global Navigation Satellite System)のセンサとの少なくともいずれかから成る。センサ群20には画像センサが含まれる。画像センサは、具体例として可視光又は赤外光を観測するセンサである。
The sensor group 20 consists of at least one sensor included in the moving body 80. The sensor group 20 includes, as a specific example, at least one of a camera, a laser sensor, a millimeter wave radar, a sonar, and a GNSS (Global Navigation Satellite System) sensor. The sensor group 20 includes an image sensor. The image sensor is, for example, a sensor that observes visible light or infrared light.
物体検知装置100は、検知認識部110と、位置姿勢検出部120と、経路計画部130と、制御部140と、誤検知情報収集部150とを備える。
The object detection device 100 includes a detection recognition section 110, a position/orientation detection section 120, a path planning section 130, a control section 140, and a false detection information collection section 150.
検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信し、受信したセンシング情報に基づいて周辺物体を検知し、検知した周辺物体を認識する。具体例として、周辺物体を検知することは周辺物体の位置、形状、及び大きさ等を把握することであり、周辺物体を認識することは検知に加えて物体の属性も把握することであるものとする。周辺物体を認識する手法としては、具体例として、ボクセル化、機械学習、又はDeep Learningを利用する方法が挙げられる。
The detection recognition unit 110 receives sensing information from each sensor forming the sensor group 20, detects surrounding objects based on the received sensing information, and recognizes the detected surrounding objects. As a specific example, detecting a surrounding object means understanding the position, shape, size, etc. of the surrounding object, and recognizing a surrounding object means understanding the object's attributes in addition to detection. shall be. Specific examples of methods for recognizing peripheral objects include methods using voxelization, machine learning, or deep learning.
位置姿勢検出部120は、センサ群20を構成するセンサからセンシング情報を受信し、受信したセンシング情報に基づいて移動体80の位置及び姿勢を算出する。事前に精細な地図を物体検知装置100が保持している場合において、位置姿勢検出部120は、移動体80の位置及び姿勢として、当該地図における絶対座標と、当該地図における移動体80のロール角、ピッチ角、及びヨー角とを算出してもよい。また、位置姿勢検出部120は、移動体80の位置及び姿勢として、移動体80が存在する位置の緯度経度と、移動体80が向いている方位とを地図とは無関係に算出してもよい。
The position and orientation detection unit 120 receives sensing information from the sensors forming the sensor group 20, and calculates the position and orientation of the moving body 80 based on the received sensing information. When the object detection device 100 holds a detailed map in advance, the position and orientation detection unit 120 uses the absolute coordinates on the map and the roll angle of the mobile body 80 on the map as the position and orientation of the mobile body 80. , pitch angle, and yaw angle may be calculated. Further, the position and orientation detection unit 120 may calculate the latitude and longitude of the position where the mobile body 80 is located and the direction in which the mobile body 80 is facing, as the position and orientation of the mobile body 80, regardless of the map. .
経路計画部130は、移動体80の移動経路を作成する。経路計画部130は、事前に作成してある複数の経路のいずれかを選択してもよく、与えられたスタート地点と経由地点とゴール地点とを結ぶ自由経路を作成してもよい。また、経路計画部130は、移動体80が搭載している画像センサの向きと、当該画像センサが観測する電磁波の入線方向とに基づいて当該画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、当該画像センサの観測結果にノイズが乗る可能性があると判定した場合に、移動体80の姿勢として、当該画像センサの向きが当該入線方向から逸れるような姿勢を算出する。経路計画部130は、当該画像センサの観測結果にノイズが乗ると判定した場合に、当該画像センサの向きが当該入線方向から逸れるような移動体80の位置を算出してもよい。経路計画部130は、誤検知情報DB30を利用して当該画像センサの観測結果にノイズが乗る可能性があるか否かを判定する。経路計画部130は、設定された移動体80の移動経路上の対象地点において当該画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、対象地点において当該画像センサの観測結果にノイズが乗る可能性があると判定した場合に、対象地点における移動体80の姿勢として、当該画像センサの向きが入線方向から逸れるような姿勢を算出してもよい。経路計画部130は、設定された移動体80の移動経路上の対象地点において当該画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、対象地点において当該画像センサの観測結果にノイズが乗る可能性があると判定した場合に、移動体80の移動経路を対象地点を通らない移動経路に変更してもよい。
経路計画部130は、事前に作成してある複数の経路のいずれかを選択する場合、誤検知情報DB30を参照して、誤検知が発生する可能性がある位置及び姿勢の少なくともいずれかを移動体80が移動中に常に回避することができる経路を選択する。
一方、自由経路を作成する場合、経路計画部130は、誤検知が発生する可能性がある位置に仮想的に物体を置く等の処置を実行することにより、誤検知が発生する可能性がある条件を満たす位置及び姿勢の少なくともいずれかを移動体80が移動中に常に回避することができる経路を作成する。
また、経路計画部130は、移動体80の移動経路を作成する際に、移動経路上の各地点に関して、季節及び時刻から太陽等の光源の位置を推定し、推定した光源の位置と、地図を示す情報とに基づいて光の入線方向を計算し、計算した入線方向と画像センサの向きと比較することにより、画像センサの向きが画像センサの観測結果にノイズが乗る可能性がある向きであるか否かを判定してもよい。このとき、経路計画部130は、画像センサの向きが画像センサの観測結果にノイズが乗る可能性がある向きとなる地点がある場合に、画像センサの向きが画像センサの観測結果にノイズが乗る可能性がある向きになることがないように移動体80の位置及び姿勢を考慮して移動経路を修正してもよい。なお、光源としては光を発している物体のほかに他の物体が発した光を反射している物体も考えられる。なお、地点という用語を領域という用語に適宜置き換えてもよい。即ち、地点をある程度の面積を有する範囲に適宜読み替えても本実施の形態は成立する。 Theroute planning unit 130 creates a travel route for the moving object 80. The route planning unit 130 may select one of a plurality of routes created in advance, or may create a free route connecting a given starting point, way point, and goal point. Furthermore, the route planning unit 130 determines that noise may be added to the observation results of the image sensor based on the orientation of the image sensor mounted on the moving body 80 and the incoming direction of the electromagnetic waves observed by the image sensor. If it is determined that there is a possibility that noise may be added to the observation result of the image sensor, the attitude of the moving object 80 is calculated such that the orientation of the image sensor deviates from the direction of entry. do. If the route planning unit 130 determines that noise is added to the observation result of the image sensor, it may calculate the position of the moving body 80 such that the direction of the image sensor deviates from the entry direction. The route planning unit 130 uses the false detection information DB 30 to determine whether there is a possibility that noise will be added to the observation result of the image sensor. The route planning unit 130 determines whether there is a possibility that noise will be added to the observation results of the image sensor at the target point on the set movement route of the moving object 80, and determines whether or not there is a possibility that noise will be added to the observation results of the image sensor at the target point. If it is determined that there is a possibility that noise may be added to the image sensor, the attitude of the moving body 80 at the target point may be calculated such that the orientation of the image sensor deviates from the incoming line direction. The route planning unit 130 determines whether there is a possibility that noise will be added to the observation results of the image sensor at the target point on the set movement route of the moving object 80, and determines whether or not there is a possibility that noise will be added to the observation results of the image sensor at the target point. If it is determined that there is a possibility that noise may be added to the target point, the moving route of the moving object 80 may be changed to a moving route that does not pass through the target point.
When selecting one of the plurality of routes created in advance, theroute planning unit 130 refers to the false detection information DB 30 and moves at least one of the positions and postures where false detection may occur. Select a route that can be avoided at all times while the body 80 is moving.
On the other hand, when creating a free route, thepath planning unit 130 takes measures such as virtually placing an object at a position where a false detection may occur, which may cause a false detection. A route is created in which the moving body 80 can always avoid at least one of the positions and postures that satisfy the conditions while moving.
In addition, when creating a travel route for themobile object 80, the route planning unit 130 estimates the position of a light source such as the sun for each point on the travel route based on the season and time, and uses the estimated light source position and map. By calculating the incident direction of the light based on the information indicating and comparing the calculated incident direction with the direction of the image sensor, it is possible to determine whether the direction of the image sensor is in a direction that may cause noise to be added to the observation results of the image sensor. It may be determined whether or not there is one. At this time, if there is a point where the orientation of the image sensor is such that noise may be added to the observation result of the image sensor, the route planning unit 130 determines whether the orientation of the image sensor is such that noise may be added to the observation result of the image sensor. The moving route may be corrected in consideration of the position and orientation of the moving body 80 so as not to take a possible direction. In addition to an object that emits light, the light source may also be an object that reflects light emitted by another object. Note that the term "point" may be replaced with the term "region" as appropriate. In other words, the present embodiment also holds true even if the term "point" is appropriately replaced with a range having a certain area.
経路計画部130は、事前に作成してある複数の経路のいずれかを選択する場合、誤検知情報DB30を参照して、誤検知が発生する可能性がある位置及び姿勢の少なくともいずれかを移動体80が移動中に常に回避することができる経路を選択する。
一方、自由経路を作成する場合、経路計画部130は、誤検知が発生する可能性がある位置に仮想的に物体を置く等の処置を実行することにより、誤検知が発生する可能性がある条件を満たす位置及び姿勢の少なくともいずれかを移動体80が移動中に常に回避することができる経路を作成する。
また、経路計画部130は、移動体80の移動経路を作成する際に、移動経路上の各地点に関して、季節及び時刻から太陽等の光源の位置を推定し、推定した光源の位置と、地図を示す情報とに基づいて光の入線方向を計算し、計算した入線方向と画像センサの向きと比較することにより、画像センサの向きが画像センサの観測結果にノイズが乗る可能性がある向きであるか否かを判定してもよい。このとき、経路計画部130は、画像センサの向きが画像センサの観測結果にノイズが乗る可能性がある向きとなる地点がある場合に、画像センサの向きが画像センサの観測結果にノイズが乗る可能性がある向きになることがないように移動体80の位置及び姿勢を考慮して移動経路を修正してもよい。なお、光源としては光を発している物体のほかに他の物体が発した光を反射している物体も考えられる。なお、地点という用語を領域という用語に適宜置き換えてもよい。即ち、地点をある程度の面積を有する範囲に適宜読み替えても本実施の形態は成立する。 The
When selecting one of the plurality of routes created in advance, the
On the other hand, when creating a free route, the
In addition, when creating a travel route for the
図2は、経路計画部130が移動経路を修正する処理を説明する図である。図2の左側は経路を選択する処理に対応し、図2の右側は自由経路を生成する処理に対応する。
図2の左側において、まず、経路計画部130は、移動経路の候補から第1の移動経路を選択し、移動体80が搭載している画像センサの向きと、太陽光の入線方向とを考慮して、選択した第1の移動経路上の対象地点において画像センサの観測結果にノイズが乗ると判定する。この際、経路計画部130は天気予報及び地図を参照する。次に、経路計画部130は、対象地点において当該画像センサの向きが入線方向から逸れるような移動経路である第2の移動経路を移動経路の候補から選択する。
図2の右側において、まず、経路計画部130は、与えられたスタート地点及びゴール地点に基づいて移動経路を生成し、図2の左側と同様に、生成した移動経路上の対象地点において画像センサの観測結果にノイズが乗ると判定する。次に、経路計画部130は、対象地点を回避する移動経路である別の移動経路を生成する。 FIG. 2 is a diagram illustrating the process by which theroute planning unit 130 corrects the travel route. The left side of FIG. 2 corresponds to the process of selecting a route, and the right side of FIG. 2 corresponds to the process of generating a free route.
On the left side of FIG. 2, theroute planning unit 130 first selects a first travel route from the candidate travel routes, and takes into account the orientation of the image sensor mounted on the mobile object 80 and the direction of incoming sunlight. Then, it is determined that noise is added to the observation result of the image sensor at the target point on the selected first travel route. At this time, the route planning unit 130 refers to the weather forecast and map. Next, the route planning unit 130 selects a second travel route, which is a travel route such that the orientation of the image sensor deviates from the entry direction at the target point, from the travel route candidates.
On the right side of FIG. 2, theroute planning unit 130 first generates a travel route based on the given start point and goal point, and similarly to the left side of FIG. It is determined that noise is added to the observation results. Next, the route planning unit 130 generates another travel route that avoids the target point.
図2の左側において、まず、経路計画部130は、移動経路の候補から第1の移動経路を選択し、移動体80が搭載している画像センサの向きと、太陽光の入線方向とを考慮して、選択した第1の移動経路上の対象地点において画像センサの観測結果にノイズが乗ると判定する。この際、経路計画部130は天気予報及び地図を参照する。次に、経路計画部130は、対象地点において当該画像センサの向きが入線方向から逸れるような移動経路である第2の移動経路を移動経路の候補から選択する。
図2の右側において、まず、経路計画部130は、与えられたスタート地点及びゴール地点に基づいて移動経路を生成し、図2の左側と同様に、生成した移動経路上の対象地点において画像センサの観測結果にノイズが乗ると判定する。次に、経路計画部130は、対象地点を回避する移動経路である別の移動経路を生成する。 FIG. 2 is a diagram illustrating the process by which the
On the left side of FIG. 2, the
On the right side of FIG. 2, the
制御部140は移動体80の移動を制御する。制御部140は、具体例として、経路計画部130が作成した経路に基づいて、移動体80の走行速度と、移動体80が曲がる際の角速度等を計算する。制御部140は、周辺物体の観測に用いるセンサを変更する等、センサ群20を構成する各センサを制御してもよい。
The control unit 140 controls the movement of the moving body 80. As a specific example, the control unit 140 calculates the traveling speed of the moving body 80, the angular velocity when the moving body 80 turns, etc. based on the route created by the route planning unit 130. The control unit 140 may control each sensor forming the sensor group 20, such as changing the sensor used for observing surrounding objects.
誤検知情報収集部150は、誤検知情報を収集又は生成し、収集又は生成した誤検知情報を誤検知情報DB30に格納する。誤検知情報収集部150は、具体例として、画像センサの観測結果にノイズが乗る可能性がある条件として移動体80の位置及び姿勢等に関する条件を抽出する。この際、誤検知情報収集部150は、具体例として、検知認識部110が周辺物体を検知した際に移動体80の車体を左右に振って検知した周辺物体が消失する位置及び姿勢があるか否かを検出することにより観測結果にノイズが乗っているか否かを判定してもよい。また、誤検知情報収集部150は、移動体80が搭載している画像センサの観測結果と、移動体80の進行方向に対して反対方向から来る他の移動体80が搭載している画像センサの観測結果とを比較することにより観測結果にノイズが乗っているか否かを判定してもよい。また、誤検知情報収集部150は、ノイズが乗っていると考えられる観測結果と、当該観測結果を観測した時刻と同じ時刻に当該観測結果を観測した位置を移動体80が通った際の観測結果とを比較することにより観測結果にノイズが乗っているか否かを判定してもよい。
誤検知情報収集部150は、ノイズが乗っている観測結果であるノイズ観測結果を画像センサが取得した場合に、誤検知情報として、ノイズ観測結果が取得された時点と、当該時点における移動体80の位置及び姿勢とを示す情報を生成し、生成した情報を誤検知情報DB30に格納する。 The false positiveinformation collection unit 150 collects or generates false positive information, and stores the collected or generated false positive information in the false positive information DB 30. As a specific example, the false detection information collection unit 150 extracts conditions related to the position and orientation of the moving body 80 as conditions under which noise may be added to the observation results of the image sensor. At this time, as a specific example, when the detection recognition unit 110 detects a surrounding object, the false detection information collection unit 150 shakes the vehicle body of the moving body 80 from side to side to determine if there is a position and orientation at which the detected surrounding object disappears. It may be determined whether or not the observation result contains noise by detecting whether or not the noise is present. Further, the false detection information collection unit 150 collects the observation results of the image sensor mounted on the moving body 80 and the image sensors mounted on other moving bodies 80 coming from the opposite direction to the traveling direction of the moving body 80. It may be determined whether or not the observation results include noise by comparing the observation results with the observation results. In addition, the false detection information collection unit 150 collects observation results that are considered to include noise and observations made when the mobile object 80 passes through the position where the observation result was observed at the same time as the observation result. It may be determined whether or not the observation results include noise by comparing the results.
When the image sensor acquires a noise observation result that is an observation result containing noise, the false detectioninformation collection unit 150 collects the time point at which the noise observation result was acquired and the moving object 80 at that time point as false detection information. , and stores the generated information in the false detection information DB 30.
誤検知情報収集部150は、ノイズが乗っている観測結果であるノイズ観測結果を画像センサが取得した場合に、誤検知情報として、ノイズ観測結果が取得された時点と、当該時点における移動体80の位置及び姿勢とを示す情報を生成し、生成した情報を誤検知情報DB30に格納する。 The false positive
When the image sensor acquires a noise observation result that is an observation result containing noise, the false detection
図3は、検知認識部110が周辺物体を検知した際に、移動体80の車体を左右に振る様子を示している。
図3において、まず、移動体80が正面方向を向いているときにおける画像センサの観測結果に基づいて検知認識部110が周辺物体を検知する。しかしながら、当該画像センサの観測結果は実際にはノイズである。
次に、制御部140は移動体80の車体を斜め左方向に向け、検知認識部110が周辺物体を検知するか否かを確認する。この際、検知認識部110は周辺物体を検知しない。なお、斜め右方向については斜め左方向と同様である。
従って、移動体80が正面方向を向いているときには検知認識部110が周辺物体を検知するものの、移動体80の車体を左右に振ると検知認識部110が当該周辺物体を検知しない。そのため、誤検知情報収集部150は、移動体80が正面方向を向いているときにおける画像センサの観測結果にノイズが乗っているものと判定する。そのため、誤検知情報収集部150は、移動体80が正面方向を向いているときにおける移動体80の位置及び姿勢と、ノイズを観測した時刻との各々を示す情報を誤検知情報として生成し、生成した誤検知情報を誤検知情報DB30に格納する。 FIG. 3 shows how the vehicle body of the movingbody 80 is shaken from side to side when the detection recognition unit 110 detects a surrounding object.
In FIG. 3, first, thedetection recognition unit 110 detects surrounding objects based on the observation results of the image sensor when the moving body 80 is facing in the front direction. However, the observation results of the image sensor are actually noise.
Next, thecontrol unit 140 turns the vehicle body of the moving body 80 diagonally to the left, and checks whether the detection recognition unit 110 detects a surrounding object. At this time, the detection recognition unit 110 does not detect surrounding objects. Note that the diagonal right direction is the same as the diagonal left direction.
Therefore, although thedetection recognition unit 110 detects surrounding objects when the moving body 80 is facing forward, the detection recognition unit 110 does not detect the surrounding objects when the vehicle body of the moving body 80 is shaken from side to side. Therefore, the false detection information collection unit 150 determines that the observation result of the image sensor when the moving object 80 is facing forward is contaminated with noise. Therefore, the false detection information collection unit 150 generates, as false detection information, information indicating each of the position and orientation of the moving body 80 when the moving body 80 faces in the front direction, and the time when the noise was observed, The generated false detection information is stored in the false detection information DB 30.
図3において、まず、移動体80が正面方向を向いているときにおける画像センサの観測結果に基づいて検知認識部110が周辺物体を検知する。しかしながら、当該画像センサの観測結果は実際にはノイズである。
次に、制御部140は移動体80の車体を斜め左方向に向け、検知認識部110が周辺物体を検知するか否かを確認する。この際、検知認識部110は周辺物体を検知しない。なお、斜め右方向については斜め左方向と同様である。
従って、移動体80が正面方向を向いているときには検知認識部110が周辺物体を検知するものの、移動体80の車体を左右に振ると検知認識部110が当該周辺物体を検知しない。そのため、誤検知情報収集部150は、移動体80が正面方向を向いているときにおける画像センサの観測結果にノイズが乗っているものと判定する。そのため、誤検知情報収集部150は、移動体80が正面方向を向いているときにおける移動体80の位置及び姿勢と、ノイズを観測した時刻との各々を示す情報を誤検知情報として生成し、生成した誤検知情報を誤検知情報DB30に格納する。 FIG. 3 shows how the vehicle body of the moving
In FIG. 3, first, the
Next, the
Therefore, although the
図4は、本実施の形態に係る物体検知装置100のハードウェア構成例を示している。物体検知装置100はコンピュータから成る。物体検知装置100は複数のコンピュータから成ってもよい。
FIG. 4 shows an example of the hardware configuration of the object detection device 100 according to this embodiment. Object detection device 100 consists of a computer. Object detection device 100 may include multiple computers.
物体検知装置100は、本図に示すように、プロセッサ11と、メモリ12と、補助記憶装置13と、入出力IF(Interface)14と、通信装置15等のハードウェアを備えるコンピュータである。これらのハードウェアは、信号線19を介して適宜接続されている。
As shown in this figure, the object detection device 100 is a computer that includes hardware such as a processor 11, a memory 12, an auxiliary storage device 13, an input/output IF (Interface) 14, and a communication device 15. These pieces of hardware are appropriately connected via signal lines 19.
プロセッサ11は、演算処理を行うIC(Integrated Circuit)であり、かつ、コンピュータが備えるハードウェアを制御する。プロセッサ11は、具体例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)である。
物体検知装置100は、プロセッサ11を代替する複数のプロセッサを備えてもよい。複数のプロセッサはプロセッサ11の役割を分担する。 Theprocessor 11 is an IC (Integrated Circuit) that performs arithmetic processing, and controls hardware included in the computer. The processor 11 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
Theobject detection device 100 may include a plurality of processors in place of the processor 11. A plurality of processors share the role of the processor 11.
物体検知装置100は、プロセッサ11を代替する複数のプロセッサを備えてもよい。複数のプロセッサはプロセッサ11の役割を分担する。 The
The
メモリ12は、典型的には揮発性の記憶装置であり、具体例としてRAM(Random Access Memory)である。メモリ12は、主記憶装置又はメインメモリとも呼ばれる。メモリ12に記憶されたデータは、必要に応じて補助記憶装置13に保存される。
The memory 12 is typically a volatile storage device, and a specific example is a RAM (Random Access Memory). Memory 12 is also called main storage or main memory. The data stored in the memory 12 is stored in the auxiliary storage device 13 as necessary.
補助記憶装置13は、典型的には不揮発性の記憶装置であり、具体例として、ROM(Read Only Memory)、HDD(Hard Disk Drive)、又はフラッシュメモリである。補助記憶装置13に記憶されたデータは、必要に応じてメモリ12にロードされる。
メモリ12及び補助記憶装置13は一体的に構成されていてもよい。 Theauxiliary storage device 13 is typically a nonvolatile storage device, and specific examples include a ROM (Read Only Memory), an HDD (Hard Disk Drive), or a flash memory. Data stored in the auxiliary storage device 13 is loaded into the memory 12 as needed.
Thememory 12 and the auxiliary storage device 13 may be configured integrally.
メモリ12及び補助記憶装置13は一体的に構成されていてもよい。 The
The
入出力IF14は、入力装置及び出力装置が接続されるポートである。入出力IF14は、具体例として、USB(Universal Serial Bus)端子である。入力装置は、具体例として、キーボード及びマウスである。出力装置は、具体例として、ディスプレイである。
The input/output IF 14 is a port to which an input device and an output device are connected. The input/output IF 14 is, for example, a USB (Universal Serial Bus) terminal. Specific examples of the input device include a keyboard and a mouse. A specific example of the output device is a display.
通信装置15は、レシーバ及びトランスミッタである。通信装置15は、具体例として、通信チップ又はNIC(Network Interface Card)である。
The communication device 15 is a receiver and a transmitter. The communication device 15 is, for example, a communication chip or a NIC (Network Interface Card).
物体検知装置100の各部は、他の装置等と通信する際に、入出力IF14及び通信装置15を適宜用いてもよい。
Each part of the object detection device 100 may use the input/output IF 14 and the communication device 15 as appropriate when communicating with other devices.
補助記憶装置13は物体検知プログラムを記憶している。物体検知プログラムは、物体検知装置100が備える各部の機能をコンピュータに実現させるプログラムである。物体検知プログラムは、メモリ12にロードされて、プロセッサ11によって実行される。物体検知装置100が備える各部の機能は、ソフトウェアにより実現される。
The auxiliary storage device 13 stores an object detection program. The object detection program is a program that causes a computer to realize the functions of each part of the object detection device 100. The object detection program is loaded into memory 12 and executed by processor 11. The functions of each part included in the object detection device 100 are realized by software.
物体検知プログラムを実行する際に用いられるデータと、物体検知プログラムを実行することによって得られるデータ等は、記憶装置に適宜記憶される。物体検知装置100の各部は記憶装置を適宜利用する。記憶装置は、具体例として、メモリ12と、補助記憶装置13と、プロセッサ11内のレジスタと、プロセッサ11内のキャッシュメモリとの少なくとも1つから成る。なお、データという用語と情報という用語とは同等の意味を有することもある。記憶装置は、コンピュータと独立したものであってもよい。
メモリ12及び補助記憶装置13の機能は、他の記憶装置によって実現されてもよい。 Data used when executing the object detection program, data obtained by executing the object detection program, etc. are appropriately stored in the storage device. Each part of theobject detection device 100 uses a storage device as appropriate. The storage device includes, as a specific example, at least one of the memory 12, the auxiliary storage device 13, a register within the processor 11, and a cache memory within the processor 11. Note that the terms "data" and "information" may have the same meaning. The storage device may be independent of the computer.
The functions of thememory 12 and the auxiliary storage device 13 may be realized by other storage devices.
メモリ12及び補助記憶装置13の機能は、他の記憶装置によって実現されてもよい。 Data used when executing the object detection program, data obtained by executing the object detection program, etc. are appropriately stored in the storage device. Each part of the
The functions of the
物体検知プログラムは、コンピュータが読み取り可能な不揮発性の記録媒体に記録されていてもよい。不揮発性の記録媒体は、具体例として、光ディスク又はフラッシュメモリである。物体検知プログラムは、プログラムプロダクトとして提供されてもよい。
The object detection program may be recorded on a computer-readable nonvolatile recording medium. Specific examples of the nonvolatile recording medium include an optical disk or a flash memory. The object detection program may be provided as a program product.
***動作の説明***
物体検知装置100の動作手順は物体検知方法に相当する。また、物体検知装置100の動作を実現するプログラムは物体検知プログラムに相当する。 ***Operation explanation***
The operation procedure of theobject detection device 100 corresponds to an object detection method. Further, a program that realizes the operation of the object detection device 100 corresponds to an object detection program.
物体検知装置100の動作手順は物体検知方法に相当する。また、物体検知装置100の動作を実現するプログラムは物体検知プログラムに相当する。 ***Operation explanation***
The operation procedure of the
図5は、物体検知システム90の動作の一例を示すフローチャートである。図5を参照して物体検知システム90の動作を説明する。なお、物体検知システム90は、設定された移動経路を移動体80が移動している途中において図5に示す処理を実行してもよく、設定された移動経路を移動体80が移動するシミュレーションにおいて図5に示す処理を実行してもよい。また、図5において破線はデータの送受信を示している。
FIG. 5 is a flowchart showing an example of the operation of the object detection system 90. The operation of the object detection system 90 will be explained with reference to FIG. Note that the object detection system 90 may execute the process shown in FIG. 5 while the moving object 80 is moving along the set moving route, and in a simulation in which the moving object 80 moves along the set moving route. The process shown in FIG. 5 may also be executed. Further, in FIG. 5, broken lines indicate data transmission and reception.
(ステップS101)
検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S101)
Thedetection recognition unit 110 receives sensing information from each sensor making up the sensor group 20.
検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S101)
The
(ステップS102)
検知認識部110は、ステップS101において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、検知認識部110は検知した周辺物体を認識し、その後、物体検知装置100はステップS103に進む。それ以外の場合、物体検知装置100はステップS101に進む。 (Step S102)
Thedetection recognition unit 110 detects surrounding objects based on the sensing information received in step S101.
When thedetection recognition unit 110 detects a surrounding object, the detection recognition unit 110 recognizes the detected surrounding object, and then the object detection device 100 proceeds to step S103. In other cases, the object detection device 100 proceeds to step S101.
検知認識部110は、ステップS101において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、検知認識部110は検知した周辺物体を認識し、その後、物体検知装置100はステップS103に進む。それ以外の場合、物体検知装置100はステップS101に進む。 (Step S102)
The
When the
(ステップS103)
位置姿勢検出部120は、移動体80の現在の位置及び姿勢を検出し、検出した位置及び姿勢を示す情報を誤検知情報DB30に送信する。 (Step S103)
The position andorientation detection unit 120 detects the current position and orientation of the moving object 80, and transmits information indicating the detected position and orientation to the false detection information DB 30.
位置姿勢検出部120は、移動体80の現在の位置及び姿勢を検出し、検出した位置及び姿勢を示す情報を誤検知情報DB30に送信する。 (Step S103)
The position and
(ステップS104)
経路計画部130は、ステップS103において検出した位置及び姿勢に対応する誤検知情報を誤検知情報DB30から受信し、受信した誤検知情報に基づいてステップS102において検知した周辺物体がノイズである可能性の有無を判断する。
なお、経路計画部130は誤検知情報を誤検知情報DB30から受信しなくてもよい。経路計画部130が誤検知情報を誤検知情報DB30から受信しない場合に、経路計画部130は、ステップS102において検知した周辺物体がノイズではないと判断する。
ステップS102において検知した周辺物体がノイズである可能性がある場合、物体検知装置100はステップS105に進む。それ以外の場合、物体検知装置100はステップS108に進む。 (Step S104)
Theroute planning unit 130 receives false detection information corresponding to the position and orientation detected in step S103 from the false detection information DB 30, and determines the possibility that the surrounding object detected in step S102 is noise based on the received false detection information. Determine whether or not there is.
Note that theroute planning unit 130 does not need to receive false detection information from the false detection information DB 30. If the route planning unit 130 does not receive false detection information from the false detection information DB 30, the route planning unit 130 determines that the surrounding object detected in step S102 is not noise.
If there is a possibility that the surrounding object detected in step S102 is noise, theobject detection device 100 proceeds to step S105. In other cases, the object detection device 100 proceeds to step S108.
経路計画部130は、ステップS103において検出した位置及び姿勢に対応する誤検知情報を誤検知情報DB30から受信し、受信した誤検知情報に基づいてステップS102において検知した周辺物体がノイズである可能性の有無を判断する。
なお、経路計画部130は誤検知情報を誤検知情報DB30から受信しなくてもよい。経路計画部130が誤検知情報を誤検知情報DB30から受信しない場合に、経路計画部130は、ステップS102において検知した周辺物体がノイズではないと判断する。
ステップS102において検知した周辺物体がノイズである可能性がある場合、物体検知装置100はステップS105に進む。それ以外の場合、物体検知装置100はステップS108に進む。 (Step S104)
The
Note that the
If there is a possibility that the surrounding object detected in step S102 is noise, the
(ステップS105)
まず、経路計画部130は、ステップS104において受信した誤検知情報に基づいて移動体80が搭載している画像センサの観測結果にノイズが乗らないような移動体80の姿勢を算出する。
次に、制御部140は、移動体80の姿勢を経路計画部130が算出した姿勢に変更する。
次に、検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S105)
First, theroute planning unit 130 calculates the attitude of the moving body 80 such that noise is not added to the observation result of the image sensor mounted on the moving body 80 based on the false detection information received in step S104.
Next, thecontrol unit 140 changes the attitude of the moving body 80 to the attitude calculated by the route planning unit 130.
Next, thedetection recognition unit 110 receives sensing information from each sensor forming the sensor group 20.
まず、経路計画部130は、ステップS104において受信した誤検知情報に基づいて移動体80が搭載している画像センサの観測結果にノイズが乗らないような移動体80の姿勢を算出する。
次に、制御部140は、移動体80の姿勢を経路計画部130が算出した姿勢に変更する。
次に、検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S105)
First, the
Next, the
Next, the
(ステップS106)
検知認識部110は、ステップS105において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、即ち、ステップS102において検知した周辺物体がノイズではないと考えられる場合、検知認識部110は検知した周辺物体を認識し、その後、物体検知装置100はステップS107に進む。それ以外の場合、物体検知装置100はステップS108及びステップS109に進む。 (Step S106)
Thedetection recognition unit 110 detects surrounding objects based on the sensing information received in step S105.
When thedetection recognition unit 110 detects a surrounding object, that is, when the surrounding object detected in step S102 is considered not to be noise, the detection recognition unit 110 recognizes the detected surrounding object, and then the object detection device 100 The process advances to step S107. In other cases, the object detection device 100 proceeds to step S108 and step S109.
検知認識部110は、ステップS105において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、即ち、ステップS102において検知した周辺物体がノイズではないと考えられる場合、検知認識部110は検知した周辺物体を認識し、その後、物体検知装置100はステップS107に進む。それ以外の場合、物体検知装置100はステップS108及びステップS109に進む。 (Step S106)
The
When the
(ステップS107)
経路計画部130は、移動体80の移動経路を変更する。 (Step S107)
Theroute planning unit 130 changes the travel route of the moving body 80.
経路計画部130は、移動体80の移動経路を変更する。 (Step S107)
The
(ステップS108)
移動体80は、設定された移動経路における移動を続ける。 (Step S108)
The movingbody 80 continues moving along the set moving route.
移動体80は、設定された移動経路における移動を続ける。 (Step S108)
The moving
(ステップS109)
誤検知情報収集部150は、ノイズを検知した際の条件を示す情報を誤検知情報として抽出し、抽出した誤検知情報を誤検知情報DB30に登録する。 (Step S109)
The false detectioninformation collection unit 150 extracts information indicating the conditions under which noise is detected as false detection information, and registers the extracted false detection information in the false detection information DB 30.
誤検知情報収集部150は、ノイズを検知した際の条件を示す情報を誤検知情報として抽出し、抽出した誤検知情報を誤検知情報DB30に登録する。 (Step S109)
The false detection
図6は、物体検知システム90の動作の別の例を示すフローチャートである。図6を参照して物体検知システム90の動作を説明する。なお、物体検知システム90は、設定された移動経路を移動体80が移動している途中において図6に示す処理を実行してもよく、設定された移動経路を移動体80が移動するシミュレーションにおいて図6に示す処理を実行してもよい。
FIG. 6 is a flowchart showing another example of the operation of the object detection system 90. The operation of the object detection system 90 will be explained with reference to FIG. Note that the object detection system 90 may execute the process shown in FIG. 6 while the moving body 80 is moving along the set moving route, and in a simulation in which the moving body 80 moves along the set moving route. The process shown in FIG. 6 may also be executed.
(ステップS121)
経路計画部130は、ステップS103において検出した位置及び姿勢に対応する誤検知情報を誤検知情報DB30から受信する。
なお、物体検知システム90は、画像センサの観測結果がノイズであるか否かを判定する精度を向上させることを目的として、ステップS103からステップS121の処理をN(Nは2以上の整数)回実行する。 (Step S121)
Theroute planning unit 130 receives false detection information corresponding to the position and orientation detected in step S103 from the false detection information DB 30.
Note that theobject detection system 90 repeats the processing from step S103 to step S121 N times (N is an integer of 2 or more) for the purpose of improving the accuracy of determining whether or not the observation result of the image sensor is noise. Execute.
経路計画部130は、ステップS103において検出した位置及び姿勢に対応する誤検知情報を誤検知情報DB30から受信する。
なお、物体検知システム90は、画像センサの観測結果がノイズであるか否かを判定する精度を向上させることを目的として、ステップS103からステップS121の処理をN(Nは2以上の整数)回実行する。 (Step S121)
The
Note that the
(ステップS122)
まず、経路計画部130は、ステップS121において受信した誤検知情報に基づいて移動体80が搭載している画像センサの観測結果にノイズが乗る可能性があるか否かを判定する。
次に、経路計画部130は、当該画像センサの観測結果にノイズが乗る可能性があると判定した場合に、ステップS121において受信した誤検知情報に基づいて当該画像センサの観測結果にノイズが乗らないような移動体80の姿勢を算出する。なお、経路計画部130は、当該画像センサの観測結果にノイズが乗る可能性がないと判定した場合において、移動体80の姿勢として、現在の移動体80の姿勢とは異なる姿勢であって、当該画像センサの観測結果にノイズが乗る可能性がない姿勢を、ステップS121において受信した誤検知情報に基づいて算出してもよい。その後、制御部140は、移動体80の姿勢を経路計画部130が算出した姿勢に変更する。
次に、検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S122)
First, theroute planning unit 130 determines whether there is a possibility that noise will be added to the observation result of the image sensor mounted on the mobile object 80 based on the false detection information received in step S121.
Next, if it is determined that there is a possibility that noise may be added to the observation result of the image sensor, theroute planning unit 130 determines whether noise may be added to the observation result of the image sensor based on the false detection information received in step S121. The posture of the moving body 80 that does not exist is calculated. Note that when the route planning unit 130 determines that there is no possibility of noise being added to the observation results of the image sensor, the route planning unit 130 sets the attitude of the moving body 80 to a different attitude from the current attitude of the moving body 80, A posture in which there is no possibility that noise will be added to the observation result of the image sensor may be calculated based on the false detection information received in step S121. After that, the control unit 140 changes the attitude of the moving body 80 to the attitude calculated by the route planning unit 130.
Next, thedetection recognition unit 110 receives sensing information from each sensor forming the sensor group 20.
まず、経路計画部130は、ステップS121において受信した誤検知情報に基づいて移動体80が搭載している画像センサの観測結果にノイズが乗る可能性があるか否かを判定する。
次に、経路計画部130は、当該画像センサの観測結果にノイズが乗る可能性があると判定した場合に、ステップS121において受信した誤検知情報に基づいて当該画像センサの観測結果にノイズが乗らないような移動体80の姿勢を算出する。なお、経路計画部130は、当該画像センサの観測結果にノイズが乗る可能性がないと判定した場合において、移動体80の姿勢として、現在の移動体80の姿勢とは異なる姿勢であって、当該画像センサの観測結果にノイズが乗る可能性がない姿勢を、ステップS121において受信した誤検知情報に基づいて算出してもよい。その後、制御部140は、移動体80の姿勢を経路計画部130が算出した姿勢に変更する。
次に、検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S122)
First, the
Next, if it is determined that there is a possibility that noise may be added to the observation result of the image sensor, the
Next, the
(ステップS123)
検知認識部110は、ステップS122において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、検知認識部110は検知した周辺物体を認識する。
また、ステップS123をN回実行した結果に基づいて、検知認識部110が検知した周辺物体がノイズであるか否かを判定する。検知認識部110が検知した周辺物体がノイズであると判定した場合、物体検知装置100はステップS108及びステップS109に進む。それ以外の場合、物体検知装置100はステップS107に進む。 (Step S123)
Thedetection recognition unit 110 detects surrounding objects based on the sensing information received in step S122.
When thedetection recognition unit 110 detects a peripheral object, the detection recognition unit 110 recognizes the detected peripheral object.
Furthermore, based on the result of executing step S123 N times, it is determined whether the surrounding object detected by thedetection recognition unit 110 is noise. If the detection recognition unit 110 determines that the detected peripheral object is noise, the object detection device 100 proceeds to steps S108 and S109. In other cases, the object detection device 100 proceeds to step S107.
検知認識部110は、ステップS122において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、検知認識部110は検知した周辺物体を認識する。
また、ステップS123をN回実行した結果に基づいて、検知認識部110が検知した周辺物体がノイズであるか否かを判定する。検知認識部110が検知した周辺物体がノイズであると判定した場合、物体検知装置100はステップS108及びステップS109に進む。それ以外の場合、物体検知装置100はステップS107に進む。 (Step S123)
The
When the
Furthermore, based on the result of executing step S123 N times, it is determined whether the surrounding object detected by the
図7は、物体検知システム90の動作の別の例を示すフローチャートである。図7を参照して物体検知システム90の動作を説明する。本例によれば、検知認識部110が周辺物体を検知する前に誤検知情報を取得し、取得した誤検知情報に基づいて移動体80の姿勢を変更することにより、移動経路の変更回数を減らすことができる。なお、物体検知システム90は、設定された移動経路を移動体80が移動している途中において図7に示す処理を実行してもよく、設定された移動経路を移動体80が移動するシミュレーションにおいて図7に示す処理を実行してもよい。
FIG. 7 is a flowchart showing another example of the operation of the object detection system 90. The operation of the object detection system 90 will be explained with reference to FIG. According to this example, the detection recognition unit 110 acquires false detection information before detecting surrounding objects, and changes the attitude of the moving object 80 based on the acquired false detection information, thereby reducing the number of times the movement route is changed. can be reduced. Note that the object detection system 90 may execute the process shown in FIG. 7 while the moving body 80 is moving along the set moving route, and in a simulation in which the moving body 80 moves along the set moving route. The process shown in FIG. 7 may also be executed.
(ステップS141)
まず、経路計画部130は、ステップS103において検出した位置及び姿勢に対応する誤検知情報を誤検知情報DB30から受信し、受信した誤検知情報に基づいて移動体80が搭載している画像センサの観測結果にノイズが乗る可能性があるか否かを判定する。
次に、経路計画部130は、当該画像センサの観測結果にノイズが乗る可能性があると判定した場合に、当該画像センサの観測結果にノイズが乗る可能性がない移動体80の姿勢を算出する。
次に、制御部140は、移動体80の姿勢を経路計画部130が算出した姿勢に変更する。
次に、検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S141)
First, theroute planning unit 130 receives false detection information corresponding to the position and orientation detected in step S103 from the false detection information DB 30, and based on the received false detection information, the route planning unit 130 Determine whether there is a possibility that noise may be added to the observation results.
Next, when it is determined that there is a possibility that noise will be added to the observation result of the image sensor, theroute planning unit 130 calculates a posture of the moving object 80 in which there is no possibility that noise will be added to the observation result of the image sensor. do.
Next, thecontrol unit 140 changes the attitude of the moving body 80 to the attitude calculated by the route planning unit 130.
Next, thedetection recognition unit 110 receives sensing information from each sensor forming the sensor group 20.
まず、経路計画部130は、ステップS103において検出した位置及び姿勢に対応する誤検知情報を誤検知情報DB30から受信し、受信した誤検知情報に基づいて移動体80が搭載している画像センサの観測結果にノイズが乗る可能性があるか否かを判定する。
次に、経路計画部130は、当該画像センサの観測結果にノイズが乗る可能性があると判定した場合に、当該画像センサの観測結果にノイズが乗る可能性がない移動体80の姿勢を算出する。
次に、制御部140は、移動体80の姿勢を経路計画部130が算出した姿勢に変更する。
次に、検知認識部110は、センサ群20を構成する各センサからセンシング情報を受信する。 (Step S141)
First, the
Next, when it is determined that there is a possibility that noise will be added to the observation result of the image sensor, the
Next, the
Next, the
(ステップS142)
検知認識部110は、ステップS141において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、検知認識部110は検知した周辺物体を認識し、その後、物体検知装置100はステップS107に進む。それ以外の場合、物体検知装置100はステップS108に進む。 (Step S142)
Thedetection recognition unit 110 detects surrounding objects based on the sensing information received in step S141.
When thedetection recognition unit 110 detects a surrounding object, the detection recognition unit 110 recognizes the detected surrounding object, and then the object detection device 100 proceeds to step S107. In other cases, the object detection device 100 proceeds to step S108.
検知認識部110は、ステップS141において受信したセンシング情報に基づいて周辺物体を検知する。
検知認識部110が周辺物体を検知した場合、検知認識部110は検知した周辺物体を認識し、その後、物体検知装置100はステップS107に進む。それ以外の場合、物体検知装置100はステップS108に進む。 (Step S142)
The
When the
***実施の形態1の効果の説明***
移動体が搭載しているカメラが取得したデータに基づいて当該移動体の位置を推定する既存技術には、誤検知が発生した箇所において、誤検知により自律走行が止まってしまうという課題がある。
一方、本実施の形態によれば、誤検知情報DB30があることによって、光源の状態及び方向と、移動体80の位置とが分かるため、直接光、間接光、又は反射光によってカメラの観測結果にノイズが乗る可能性の有無を計算することができ、ノイズが乗る可能性がある位置及び姿勢の少なくともいずれかを回避することができる。
また、本実施の形態によれば、誤検知情報DB30があるために誤検知が発生する可能性がある位置及び姿勢が事前に分かっている。そのため、本実施の形態によれば、ノイズが乗る可能性がない移動経路を事前に生成又は選択することができ、また、ノイズが乗る可能性がある位置において誤検知が発生しない姿勢で移動する移動経路を事前に計算することができる。 ***Explanation of effects of Embodiment 1***
Existing technology that estimates the position of a moving object based on data acquired by a camera mounted on the moving object has a problem in that autonomous driving stops due to false detection at a location where a false detection occurs.
On the other hand, according to the present embodiment, since the state and direction of the light source and the position of the movingbody 80 are known due to the presence of the false detection information DB 30, the observation results of the camera can be obtained using direct light, indirect light, or reflected light. It is possible to calculate whether there is a possibility that noise will be added to the image, and to avoid at least one of the positions and postures where noise may be added.
Further, according to the present embodiment, since the falsedetection information DB 30 exists, the position and orientation where false detection is likely to occur are known in advance. Therefore, according to the present embodiment, it is possible to generate or select in advance a movement route in which there is no possibility of noise being introduced, and to move in a posture that does not cause false detection at a position where there is a possibility of noise being introduced. Travel routes can be calculated in advance.
移動体が搭載しているカメラが取得したデータに基づいて当該移動体の位置を推定する既存技術には、誤検知が発生した箇所において、誤検知により自律走行が止まってしまうという課題がある。
一方、本実施の形態によれば、誤検知情報DB30があることによって、光源の状態及び方向と、移動体80の位置とが分かるため、直接光、間接光、又は反射光によってカメラの観測結果にノイズが乗る可能性の有無を計算することができ、ノイズが乗る可能性がある位置及び姿勢の少なくともいずれかを回避することができる。
また、本実施の形態によれば、誤検知情報DB30があるために誤検知が発生する可能性がある位置及び姿勢が事前に分かっている。そのため、本実施の形態によれば、ノイズが乗る可能性がない移動経路を事前に生成又は選択することができ、また、ノイズが乗る可能性がある位置において誤検知が発生しない姿勢で移動する移動経路を事前に計算することができる。 ***Explanation of effects of Embodiment 1***
Existing technology that estimates the position of a moving object based on data acquired by a camera mounted on the moving object has a problem in that autonomous driving stops due to false detection at a location where a false detection occurs.
On the other hand, according to the present embodiment, since the state and direction of the light source and the position of the moving
Further, according to the present embodiment, since the false
***他の構成***
<変形例1>
経路計画部130は、画像センサの観測結果にノイズが乗ると判定した場合に、移動経路を変更する代わりに、当該画像センサを用いないことを示す情報を生成する。
本変形例によれば、画像センサの観測結果にノイズが乗ると判定された場合において移動体80の移動経路を変更せずに済む。 ***Other configurations***
<Modification 1>
If theroute planning unit 130 determines that the observation result of the image sensor contains noise, instead of changing the travel route, it generates information indicating that the image sensor will not be used.
According to this modification, even if it is determined that noise is added to the observation result of the image sensor, there is no need to change the movement route of the movingbody 80.
<変形例1>
経路計画部130は、画像センサの観測結果にノイズが乗ると判定した場合に、移動経路を変更する代わりに、当該画像センサを用いないことを示す情報を生成する。
本変形例によれば、画像センサの観測結果にノイズが乗ると判定された場合において移動体80の移動経路を変更せずに済む。 ***Other configurations***
<Modification 1>
If the
According to this modification, even if it is determined that noise is added to the observation result of the image sensor, there is no need to change the movement route of the moving
<変形例2>
図8は、本変形例に係る物体検知装置100のハードウェア構成例を示している。
物体検知装置100は、プロセッサ11、プロセッサ11とメモリ12、プロセッサ11と補助記憶装置13、あるいはプロセッサ11とメモリ12と補助記憶装置13とに代えて、処理回路18を備える。
処理回路18は、物体検知装置100が備える各部の少なくとも一部を実現するハードウェアである。
処理回路18は、専用のハードウェアであってもよく、また、メモリ12に格納されるプログラムを実行するプロセッサであってもよい。 <Modification 2>
FIG. 8 shows an example of the hardware configuration of anobject detection device 100 according to this modification.
Theobject detection device 100 includes a processing circuit 18 instead of the processor 11, the processor 11 and the memory 12, the processor 11 and the auxiliary storage device 13, or the processor 11, the memory 12, and the auxiliary storage device 13.
Theprocessing circuit 18 is hardware that implements at least a portion of each section included in the object detection device 100.
Processingcircuit 18 may be dedicated hardware or may be a processor that executes a program stored in memory 12.
図8は、本変形例に係る物体検知装置100のハードウェア構成例を示している。
物体検知装置100は、プロセッサ11、プロセッサ11とメモリ12、プロセッサ11と補助記憶装置13、あるいはプロセッサ11とメモリ12と補助記憶装置13とに代えて、処理回路18を備える。
処理回路18は、物体検知装置100が備える各部の少なくとも一部を実現するハードウェアである。
処理回路18は、専用のハードウェアであってもよく、また、メモリ12に格納されるプログラムを実行するプロセッサであってもよい。 <Modification 2>
FIG. 8 shows an example of the hardware configuration of an
The
The
Processing
処理回路18が専用のハードウェアである場合、処理回路18は、具体例として、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)又はこれらの組み合わせである。
物体検知装置100は、処理回路18を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路18の役割を分担する。 When theprocessing circuit 18 is dedicated hardware, the processing circuit 18 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) or a combination thereof.
Theobject detection device 100 may include a plurality of processing circuits that replace the processing circuit 18. The plurality of processing circuits share the role of the processing circuit 18.
物体検知装置100は、処理回路18を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路18の役割を分担する。 When the
The
物体検知装置100において、一部の機能が専用のハードウェアによって実現されて、残りの機能がソフトウェア又はファームウェアによって実現されてもよい。
In the object detection device 100, some functions may be realized by dedicated hardware, and the remaining functions may be realized by software or firmware.
処理回路18は、具体例として、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせにより実現される。
プロセッサ11とメモリ12と補助記憶装置13と処理回路18とを、総称して「プロセッシングサーキットリー」という。つまり、物体検知装置100の各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。 Theprocessing circuit 18 is implemented, for example, by hardware, software, firmware, or a combination thereof.
Theprocessor 11, memory 12, auxiliary storage device 13, and processing circuit 18 are collectively referred to as a "processing circuitry." That is, the functions of each functional component of the object detection device 100 are realized by processing circuitry.
プロセッサ11とメモリ12と補助記憶装置13と処理回路18とを、総称して「プロセッシングサーキットリー」という。つまり、物体検知装置100の各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。 The
The
***他の実施の形態***
実施の形態1について説明したが、本実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、本実施の形態を部分的に実施しても構わない。その他、本実施の形態は、必要に応じて種々の変更がなされても構わず、全体としてあるいは部分的に、どのように組み合わせて実施されても構わない。
なお、前述した実施の形態は、本質的に好ましい例示であって、本開示と、その適用物と、用途の範囲とを制限することを意図するものではない。フローチャート等を用いて説明した手順は適宜変更されてもよい。 ***Other embodiments***
Although Embodiment 1 has been described, a plurality of parts of this embodiment may be implemented in combination. Alternatively, this embodiment may be partially implemented. In addition, this embodiment may be modified in various ways as necessary, and may be implemented as a whole or in part in any combination.
Note that the embodiments described above are essentially preferable examples, and are not intended to limit the present disclosure, its applications, and the scope of use. The procedures described using flowcharts and the like may be changed as appropriate.
実施の形態1について説明したが、本実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、本実施の形態を部分的に実施しても構わない。その他、本実施の形態は、必要に応じて種々の変更がなされても構わず、全体としてあるいは部分的に、どのように組み合わせて実施されても構わない。
なお、前述した実施の形態は、本質的に好ましい例示であって、本開示と、その適用物と、用途の範囲とを制限することを意図するものではない。フローチャート等を用いて説明した手順は適宜変更されてもよい。 ***Other embodiments***
Although Embodiment 1 has been described, a plurality of parts of this embodiment may be implemented in combination. Alternatively, this embodiment may be partially implemented. In addition, this embodiment may be modified in various ways as necessary, and may be implemented as a whole or in part in any combination.
Note that the embodiments described above are essentially preferable examples, and are not intended to limit the present disclosure, its applications, and the scope of use. The procedures described using flowcharts and the like may be changed as appropriate.
11 プロセッサ、12 メモリ、13 補助記憶装置、14 入出力IF、15 通信装置、18 処理回路、19 信号線、20 センサ群、30 誤検知情報DB、80 移動体、90 物体検知システム、100 物体検知装置、110 検知認識部、120 位置姿勢検出部、130 経路計画部、140 制御部、150 誤検知情報収集部。
11 Processor, 12 Memory, 13 Auxiliary storage device, 14 Input/output IF, 15 Communication device, 18 Processing circuit, 19 Signal line, 20 Sensor group, 30 False detection information DB, 80 Mobile object, 90 Object detection system, 100 Object detection Device, 110 detection recognition unit, 120 position and orientation detection unit, 130 route planning unit, 140 control unit, 150 false detection information collection unit.
Claims (10)
- 移動体が搭載している画像センサの向きと、前記画像センサが観測する電磁波の入線方向とに基づいて前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、前記画像センサの観測結果にノイズが乗る可能性があると判定した場合に、前記移動体の姿勢として、前記画像センサの向きが前記入線方向から逸れるような姿勢を算出する経路計画部
を備える物体検知装置。 Based on the orientation of an image sensor mounted on a moving body and the incoming direction of electromagnetic waves observed by the image sensor, it is determined whether there is a possibility that noise will be added to the observation result of the image sensor, and the image sensor is Object detection comprising a path planning unit that calculates a posture of the moving body such that the orientation of the image sensor deviates from the line entry direction when it is determined that there is a possibility that noise may be added to the observation results of the sensor. Device. - 前記経路計画部は、前記画像センサの観測結果にノイズが乗ると判定した場合に、前記画像センサを用いないことを示す情報を生成する請求項1に記載の物体検知装置。 The object detection device according to claim 1, wherein the route planning unit generates information indicating that the image sensor is not used when it is determined that noise is added to the observation result of the image sensor.
- 前記経路計画部は、前記画像センサの観測結果にノイズが乗ると判定した場合に、前記画像センサの向きが前記入線方向から逸れるような前記移動体の位置を算出する請求項1又は2に記載の物体検知装置。 3. The route planning unit calculates a position of the moving object such that the orientation of the image sensor deviates from the line entry direction when it is determined that noise is added to the observation result of the image sensor. The object detection device described.
- 前記経路計画部は、前記画像センサの観測結果にノイズが乗る可能性がある条件を示す情報であって、前記移動体の位置及び姿勢を示す情報である誤検知情報を格納している誤検知情報データベースを利用して前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定する請求項1から3のいずれか1項に記載の物体検知装置。 The route planning unit stores false detection information, which is information indicating conditions where noise may be added to the observation results of the image sensor, and is information indicating the position and orientation of the moving body. The object detection device according to any one of claims 1 to 3, which uses an information database to determine whether there is a possibility that noise will be added to the observation results of the image sensor.
- 前記誤検知情報は、電磁波の発生源を示す情報と、前記移動体の周囲の構造物を示す情報とに基づいて生成された情報である請求項4に記載の物体検知装置。 The object detection device according to claim 4, wherein the false detection information is information generated based on information indicating a source of electromagnetic waves and information indicating structures around the moving object.
- 前記物体検知装置は、さらに、
ノイズが乗っている観測結果であるノイズ観測結果を前記画像センサが取得した場合に、前記誤検知情報として、前記ノイズ観測結果が取得された時点と、前記時点における前記移動体の位置及び姿勢とを示す情報を生成し、生成した情報を前記誤検知情報データベースに格納する誤検知情報収集部
を備える請求項4に記載の物体検知装置。 The object detection device further includes:
When the image sensor acquires a noise observation result that is an observation result containing noise, the false detection information includes the time when the noise observation result was acquired, and the position and orientation of the moving object at the time. The object detection device according to claim 4, further comprising a false detection information collection unit that generates information indicating the false detection information and stores the generated information in the false detection information database. - 前記経路計画部は、設定された前記移動体の移動経路上の対象地点において前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、前記対象地点において前記画像センサの観測結果にノイズが乗る可能性があると判定した場合に、前記対象地点における前記移動体の姿勢として、前記画像センサの向きが前記入線方向から逸れるような姿勢を算出する請求項1から6のいずれか1項に記載の物体検知装置。 The route planning unit determines whether or not there is a possibility that noise will be included in the observation results of the image sensor at a target point on the set movement route of the moving body, and determines whether or not there is a possibility that noise will be included in the observation results of the image sensor at the target point. 7. If it is determined that there is a possibility that noise may be added to the result, an attitude is calculated as the attitude of the moving body at the target point such that the orientation of the image sensor deviates from the line input direction. The object detection device according to any one of the items.
- 前記経路計画部は、設定された前記移動体の移動経路上の対象地点において前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、前記対象地点において前記画像センサの観測結果にノイズが乗る可能性があると判定した場合に、前記移動体の移動経路を前記対象地点を通らない移動経路に変更する請求項1から6のいずれか1項に記載の物体検知装置。 The route planning unit determines whether or not there is a possibility that noise will be included in the observation results of the image sensor at a target point on the set movement route of the moving body, and determines whether or not there is a possibility that noise will be included in the observation results of the image sensor at the target point. The object detection device according to any one of claims 1 to 6, wherein when it is determined that there is a possibility that noise may be included in the result, the moving route of the moving object is changed to a moving route that does not pass through the target point.
- コンピュータが、移動体が搭載している画像センサの向きと、前記画像センサが観測する電磁波の入線方向とに基づいて前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、前記画像センサの観測結果にノイズが乗る可能性があると判定した場合に、前記移動体の姿勢として、前記画像センサの向きが前記入線方向から逸れるような姿勢を算出する物体検知方法。 A computer determines whether or not there is a possibility that noise will be added to the observation result of the image sensor based on the direction of the image sensor mounted on the moving body and the incoming direction of electromagnetic waves observed by the image sensor. , an object detection method that calculates, as the attitude of the moving object, an attitude in which the orientation of the image sensor deviates from the line entry direction when it is determined that there is a possibility that noise may be added to the observation result of the image sensor.
- 移動体が搭載している画像センサの向きと、前記画像センサが観測する電磁波の入線方向とに基づいて前記画像センサの観測結果にノイズが乗る可能性があるか否かを判定し、前記画像センサの観測結果にノイズが乗る可能性があると判定した場合に、前記移動体の姿勢として、前記画像センサの向きが前記入線方向から逸れるような姿勢を算出する経路計画処理
をコンピュータである物体検知装置に実行させる物体検知プログラム。 Based on the orientation of an image sensor mounted on a moving body and the incoming direction of electromagnetic waves observed by the image sensor, it is determined whether there is a possibility that noise will be added to the observation result of the image sensor, and the image sensor is If it is determined that there is a possibility that noise may be added to the observation results of the sensor, the computer performs a route planning process of calculating an orientation of the moving object such that the orientation of the image sensor deviates from the line entry direction. An object detection program that is executed by an object detection device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022576535A JP7233627B1 (en) | 2022-05-31 | 2022-05-31 | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD, AND OBJECT DETECTION PROGRAM |
PCT/JP2022/022107 WO2023233515A1 (en) | 2022-05-31 | 2022-05-31 | Object detection device, object detection method, and object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/022107 WO2023233515A1 (en) | 2022-05-31 | 2022-05-31 | Object detection device, object detection method, and object detection program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023233515A1 true WO2023233515A1 (en) | 2023-12-07 |
Family
ID=85414439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/022107 WO2023233515A1 (en) | 2022-05-31 | 2022-05-31 | Object detection device, object detection method, and object detection program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7233627B1 (en) |
WO (1) | WO2023233515A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005180994A (en) * | 2003-12-17 | 2005-07-07 | Nissan Motor Co Ltd | Front obstacle detecting device for vehicle, and method |
JP2010102427A (en) * | 2008-10-22 | 2010-05-06 | Nec Corp | Lane division line detection device, lane division line detection method and line division line detection program |
JP2020076663A (en) * | 2018-11-08 | 2020-05-21 | 株式会社Ihiエアロスペース | Unmanned mobile object and method for controlling unmanned mobile object |
WO2020105123A1 (en) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | Autonomous work machine, autonomous work machine control method, and program |
JP2021140309A (en) * | 2020-03-03 | 2021-09-16 | 株式会社デンソー | On-vehicle unit, server, automatic driving possibility determination system and automatic driving possibility determination program |
-
2022
- 2022-05-31 JP JP2022576535A patent/JP7233627B1/en active Active
- 2022-05-31 WO PCT/JP2022/022107 patent/WO2023233515A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005180994A (en) * | 2003-12-17 | 2005-07-07 | Nissan Motor Co Ltd | Front obstacle detecting device for vehicle, and method |
JP2010102427A (en) * | 2008-10-22 | 2010-05-06 | Nec Corp | Lane division line detection device, lane division line detection method and line division line detection program |
JP2020076663A (en) * | 2018-11-08 | 2020-05-21 | 株式会社Ihiエアロスペース | Unmanned mobile object and method for controlling unmanned mobile object |
WO2020105123A1 (en) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | Autonomous work machine, autonomous work machine control method, and program |
JP2021140309A (en) * | 2020-03-03 | 2021-09-16 | 株式会社デンソー | On-vehicle unit, server, automatic driving possibility determination system and automatic driving possibility determination program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023233515A1 (en) | 2023-12-07 |
JP7233627B1 (en) | 2023-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109059902B (en) | Relative pose determination method, device, equipment and medium | |
US7463340B2 (en) | Ladar-based motion estimation for navigation | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
上條俊介 et al. | Autonomous vehicle technologies: Localization and mapping | |
JP5316572B2 (en) | Object recognition device | |
Singh et al. | Comparative analysis of range sensors for the robust autonomous navigation–a review | |
US10107899B1 (en) | System and method for calibrating light intensity | |
US10109074B2 (en) | Method and system for inertial measurement having image processing unit for determining at least one parameter associated with at least one feature in consecutive images | |
KR101882483B1 (en) | Apparatus and method for detecting obstacle by unmanned surface vessel | |
JP2022188203A (en) | Measurement precision calculation device, self-position estimation device, control method, program and storage medium | |
KR102176834B1 (en) | Environment feature based position recognition apparatus and method for autonomous vehicles | |
US11954918B2 (en) | Object detection device, object detection method, and storage medium | |
WO2022179207A1 (en) | Window occlusion detection method and apparatus | |
GB2370706A (en) | Determining the position of a vehicle | |
JP6631796B2 (en) | Moving object detecting device, program and recording medium | |
JP6740470B2 (en) | Measuring device, measuring method and program | |
JP7366695B2 (en) | Object recognition method and object recognition device | |
Volden et al. | Development and experimental evaluation of visual-acoustic navigation for safe maneuvering of unmanned surface vehicles in harbor and waterway areas | |
WO2023233515A1 (en) | Object detection device, object detection method, and object detection program | |
Peter et al. | Line segmentation of 2d laser scanner point clouds for indoor slam based on a range of residuals | |
Joerger et al. | Measurement-level integration of carrier-phase GPS and laser-scanner for outdoor ground vehicle navigation | |
CN113050119A (en) | Judgment method suitable for interference of optical flash three-dimensional imaging radar | |
US11609307B2 (en) | Object detection apparatus, vehicle, object detection method, and computer readable medium | |
KR20140054755A (en) | Sensor fusion system reflecting environment information and method thereof | |
Mamchenko et al. | Algorithm for sensor data merging using analytical module for priority sensor selection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2022576535 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22944803 Country of ref document: EP Kind code of ref document: A1 |