DE102017121127A1 - Exploration of an unknown environment by an autonomous mobile robot - Google Patents
Exploration of an unknown environment by an autonomous mobile robot Download PDFInfo
- Publication number
- DE102017121127A1 DE102017121127A1 DE102017121127.6A DE102017121127A DE102017121127A1 DE 102017121127 A1 DE102017121127 A1 DE 102017121127A1 DE 102017121127 A DE102017121127 A DE 102017121127A DE 102017121127 A1 DE102017121127 A1 DE 102017121127A1
- Authority
- DE
- Germany
- Prior art keywords
- robot
- area
- sub
- subarea
- robotic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000001514 detection method Methods 0.000 claims abstract description 68
- 238000000034 method Methods 0.000 claims abstract description 53
- 238000004140 cleaning Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 abstract description 8
- 230000006399 behavior Effects 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 241000519995 Stachys sylvatica Species 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010411 cooking Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009408 flooring Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000012459 cleaning agent Substances 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Es wird ein Verfahren zur Erkundung eines Robotereinsatzgebietes durch einen autonomen mobilen Roboter beschrieben. Gemäß einem Ausführungsbeispiel umfasst das Verfahren das Starten einer Erkundungsfahrt, wobei der der Roboter während der Erkundungsfahrt Objekte in seiner Umgebung detektiert und detektierte Objekte als Kartendaten in einer Karte speichert, während der Roboter sich durch das Robotereinsatzgebiet bewegt. Während der Erkundungsfahrt führt der Roboter Teilgebietsdetektion basierend auf den gespeicherten Kartendaten durch, wobei zumindest ein Referenzteilgebiet detektiert wird. Anschließend wird geprüft, ob das Referenzteilgebiet vollständig erkundet ist. Der Roboter wiederholt die Teilgebietsdetektion, um das Referenzteilgebiet zu aktualisieren, und prüft erneut, ob das (aktualisierte) Referenzteilgebiet vollständig erkundet ist. Die Erkundung des Referenzteilgebiets wird fortgesetzt, bis dass die Prüfung ergibt, dass das Referenzteilgebiet vollständig erkundet ist. Anschließend wird der Roboter die Erkundungsfahrt in einem weiteren Teilgebiet fortsetzen, sofern ein weiteres Teilgebiet detektiert wurde, wobei das weitere Teilgebiet als Referenzteilgebiet verwendet wird. A method of exploring a robotic mission area by an autonomous mobile robot is described. According to an embodiment, the method comprises starting a reconnaissance trip, wherein the robot detects objects in its vicinity during the reconnaissance trip and stores detected objects as map data in a map while the robot is moving through the robotic use area. During the reconnaissance trip, the robot performs subarea detection based on the stored map data, wherein at least one reference subarea is detected. Subsequently, it is checked whether the reference subarea is completely explored. The robot repeats the partial area detection to update the reference partial area and again checks whether the (updated) reference partial area is fully explored. The exploration of the reference subarea is continued until the test reveals that the reference subarea is fully explored. Subsequently, the robot will continue the reconnaissance trip in a further subarea, provided that a further subarea has been detected, wherein the further subarea is used as the reference subarea.
Description
TECHNISCHES GEBIETTECHNICAL AREA
Die Beschreibung betrifft das Gebiet der autonomen mobilen Roboter, insbesondere Methoden zur Exploration einer für den autonomen mobilen Roboter noch unbekannten Umgebung in einem Robotereinsatzgebiet.The description relates to the field of autonomous mobile robots, in particular methods for the exploration of a still unknown to the autonomous mobile robot environment in a robotic area.
HINERGRUNDHinergrund
Zahlreiche autonome mobile Roboter sind für verschiedenste private oder gewerbliche Anwendungen erhältlich, beispielsweise die Bearbeitung oder Reinigung von Bodenflächen, der Transport von Gegenständen oder die Inspektion einer Umgebung. Einfache Geräte kommen ohne die Erstellung und Nutzung einer Karte des Robotereinsatzgebiets aus, indem sie sich beispielsweise zufällig über eine zu reinigende Bodenfläche bewegen (vgl. z.B. Publikation
Bevor die Karte für eine Pfadplanung (und andere Zwecke) genutzt werden kann, muss der Roboter seine Umgebung in dem Robotereinsatzgebiet erkunden, um eine Karte zu erstellen. Es sind Methoden für die Exploration einer für den Roboter unbekannten Umgebung bekannt. Beispielsweise können Techniken wie z.B. die „simultane Lokalisierung und Kartenerstellung“ (Simultaneous Localization and Mapping, SLAM) in einer Explorationsphase eines Robotereinsatzes verwendet werden. Die Erfinder haben sich die Aufgabe gestellt, den Vorgang der Exploration einer für den Roboter noch unbekannten Umgebung innerhalb eines Robotereinsatzgebiets zu verbessern.Before the map can be used for path planning (and other purposes), the robot must explore its environment in the robotic field to create a map. Methods are known for exploring an environment unknown to the robot. For example, techniques such as Simultaneous Localization and Mapping (SLAM) are used in an exploration phase of a robotic mission. The inventors have set themselves the task to improve the process of exploration of a still unknown to the robot environment within a robotic area.
ZUSAMMENFASSUNGSUMMARY
Die oben genannte Aufgabe kann mit einem Verfahren gemäß Anspruch 1 oder 16 sowie mit einer Robotersteuerung gemäß Anspruch 19 gelöst werden. Unterschiedliche Ausführungsbeispiele und Weiterentwicklungen sind Gegenstand der abhängigen Ansprüche.The above object can be achieved by a method according to claim 1 or 16 as well as with a robot controller according to claim 19. Different embodiments and further developments are the subject of the dependent claims.
Es wird ein Verfahren zur Erkundung eines Robotereinsatzgebietes durch einen autonomen mobilen Roboter beschrieben. Gemäß einem Ausführungsbeispiel umfasst das Verfahren das Starten einer Erkundungsfahrt, wobei der der Roboter während der Erkundungsfahrt Objekte in seiner Umgebung detektiert und detektierte Objekte als Kartendaten in einer Karte speichert, während der Roboter sich durch das Robotereinsatzgebiet bewegt. Während der Erkundungsfahrt führt der Roboter Teilgebietsdetektion basierend auf den gespeicherten Kartendaten durch, wobei zumindest ein Referenzteilgebiet detektiert wird. Anschließend wird geprüft, ob das Referenzteilgebiet vollständig erkundet ist. Der Roboter wiederholt die Teilgebietsdetektion, um das Referenzteilgebiet zu aktualisieren, und prüft erneut, ob das (aktualisierte) Referenzteilgebiet vollständig erkundet ist. Die Erkundung des Referenzteilgebiets wird fortgesetzt, bis dass die Prüfung ergibt, dass das Referenzteilgebiet vollständig erkundet ist. Anschließend wird der Roboter die Erkundungsfahrt in einem weiteren Teilgebiet fortsetzen, sofern ein weiteres Teilgebiet detektiert wurde, wobei das weitere Teilgebiet als Referenzteilgebiet verwendet wird.A method of exploring a robotic mission area by an autonomous mobile robot is described. According to an embodiment, the method comprises starting a reconnaissance trip, wherein the robot detects objects in its vicinity during the reconnaissance trip and stores detected objects as map data in a map while the robot is moving through the robotic use area. During the reconnaissance trip, the robot performs subarea detection based on the stored map data, wherein at least one reference subarea is detected. Subsequently, it is checked whether the reference subarea is completely explored. The robot repeats the partial area detection to update the reference partial area and again checks whether the (updated) reference partial area is fully explored. The exploration of the reference subarea is continued until the test reveals that the reference subarea is fully explored. Subsequently, the robot will continue the reconnaissance trip in a further subarea, provided that a further subarea has been detected, wherein the further subarea is used as the reference subarea.
Gemäß einem weiteren Ausführungsbeispiel umfasst das Verfahren das Starten einer Erkundungsfahrt in einem ersten von mehreren Räumen des Robotereinsatzgebietes, welche durch Türdurchgänge verbunden sind. Während der Erkundungsfahrt detektiert der Roboter Objekte in seiner Umgebung und speichert detektierte Objekte als Kartendaten in einer Karte, während der Roboter sich durch das Robotereinsatzgebiet bewegt. Des Weiteren detektiert der Roboter während der Erkundungsfahrt einen oder mehrere Türdurchgänge und prüft, ob der erste Raum bereits vollständig erkundet ist. Die Erkundungsfahrt wird im ersten Raum fortgesetzt, bis dass die Prüfung ergibt, dass der erste Raum vollständig erkundet ist. Anschließend kann die Erkundungsfahrt in einem weiteren Raum fortgesetzt werden.According to a further embodiment, the method comprises starting a reconnaissance trip in a first of a plurality of rooms of the robotic use area, which are connected by doorways. During the reconnaissance trip, the robot detects objects in its environment and stores detected objects as map data in a map while the robot is moving through the robot use area. Furthermore, the robot detects one or more doorways during the reconnaissance trip and checks if the first space is already fully explored. The reconnaissance trip will continue in the first room until the test reveals that the first room is fully explored. Afterwards the exploration trip can be continued in another room.
Figurenlistelist of figures
Verschiedene Ausführungsbeispiele werden nachfolgend anhand von Abbildungen näher erläutert. Die Darstellungen sind nicht zwangsläufig maßstabsgetreu und die Erfindung beschränkt sich nicht nur auf die dargestellten Aspekte. Vielmehr wird Wert darauf gelegt, die zugrunde liegenden Prinzipien darzustellen. In den Abbildungen zeigt:
-
1 illustriert einen autonomen mobilen Roboters in einem Robotereinsatzgebiet. -
2 illustriert anhand eines Blockdiagramms exemplarisch den Aufbau eines autonomen mobilen Roboters. -
3 zeigt eine von einem mobilen Roboter automatisiert erzeugte Karte seines Robotereinsatzgebietes (einer Wohnung) mit einer Vielzahl von Begrenzungslinien. -
4 zeigt exemplarisch das Ergebnis eine automatisierten Aufteilung des Robotereinsatzgebietes in Teilgebiete. -
5 illustriert anhand eines Flussdiagramms ein Beispiel eines Verfahrens zur vollständigen Exploration eines Robotereinsatzgebietes. -
6 illustriert die Kartierung von Hindernissen durch den Roboter. -
7 illustriert die Bewegung des Roboters durch ein zu erkundendes Einsatzgebiet. -
8-13 illustrieren schrittweise die Erkundung eines Robotereinsatzgebietes mit mehreren Zimmern.
-
1 illustrates an autonomous mobile robot in a robotic area. -
2 illustrates exemplarily the structure of an autonomous mobile robot based on a block diagram. -
3 shows an automated map generated by a mobile robot robot use area (a flat) with a plurality of boundary lines. -
4 shows by way of example the result of an automated division of the robot application area into subareas. -
5 Illustrates, by means of a flow chart, an example of a method for the complete exploration of a robotic area. -
6 illustrates the mapping of obstacles by the robot. -
7 illustrates the movement of the robot through a field to be explored. -
8-13 illustrate the step-by-step exploration of a multi-room robotic deployment area.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
Des Weiteren ist die Unterteilung der vom Roboter erstellten Karte in Teilgebiete an sich bekannt (vgl. z.B.
Bevor auf die Exploration der Umgebung des Roboters genauer eingegangen wird, soll zunächst der Aufbau eines autonomen mobilen Roboters kurz beschrieben werden.
Der autonome mobile Roboter
Der autonome mobile Roboter
Beispiele für externe Geräte
Der autonome mobile Roboter
In einigen Fällen wie beispielsweise bei einem Telepräsenz-Roboter oder einem Überwachungsroboter wird eine andere Baueinheit zur Erfüllung der vorgesehenen Aufgaben genutzt und es ist keine Arbeitseinheit
Der autonome mobile Roboter
Zusätzlich kann der Roboter Sensoren besitzen, um einen (zumeist unbeabsichtigten) Kontakt (bzw. Kollision) mit einem Hindernis zu detektieren. Dies kann durch Beschleunigungsmesser (die z.B. die Geschwindigkeitsänderung des Roboters bei einer Kollision detektieren), Kontaktschalter, kapazitive Sensoren oder andere taktile bzw. berührungsempfindliche Sensoren realisiert werden. Zusätzlich kann der Roboter Bodensensoren besitzen, um eine Kante im Boden, beispielsweise einer Treppenstufe, zu erkennen. Weitere übliche Sensoren im Bereich autonomer mobiler Roboter sind Sensoren zur Bestimmung der Geschwindigkeit und/oder des zurückgelegten Weges des Roboters wie z.B. O-dometer bzw. Inertialsensoren (Beschleunigungssensor, Drehratensensor) zur Bestimmung von Lage- und Bewegungsänderung des Roboters sowie Radkontaktschalter, um einen Kontakt zwischen Rad und Boden zu detektieren.In addition, the robot may have sensors to detect (mostly unintentional) contact (or collision) with an obstacle. This can be realized by accelerometers (which detect, for example, the speed change of the robot in a collision), contact switches, capacitive sensors or other tactile or touch-sensitive sensors. In addition, the robot may have floor sensors to detect an edge in the floor, for example a step. Other common sensors in the field of autonomous mobile robots are sensors for determining the speed and / or the distance traveled by the robot, such as e.g. O-dometer or inertial sensors (acceleration sensor, yaw rate sensor) for determining the position and movement of the robot and Radkontaktschalter to detect contact between the wheel and ground.
Der autonome mobile Roboter
Die Steuereinheit
Damit der Roboter autonom eine Aufgabe (task) verrichten kann, kann die Steuereinheit
- • das Erstellen von (elektronischen) Karten durch Sammeln von Informationen über die Umgebung mit
Hilfe der Sensoreinheit 120 , beispielsweise aber nicht ausschließlich mittels SLAM-Verfahren, - • das Management von einer oder mehreren Karten zu einem oder mehreren den Karten zugeordneten Einsatzgebieten des Roboters,
- • das Bestimmen der Position und Orientierung (Pose) des Roboters in einer Karte basierend auf den mit den
Sensoren der Sensoreinheit 120 ermittelten Informationen der Umgebung, - • eine kartenbasierte Pfadplanung (Trajektorienplanung) von einer aktuellen Pose des Roboters (Startpunkt) zu einem Zielpunkt,
- • ein Konturfolgemodus, in dem der Roboter (
100 ) sich entlang der Kontur eines oder mehrerer Hindernisse (z.B. einer Wand) in einem im Wesentlichen konstanten Abstand d zur dieser Kontur bewegt, - • eine Teilgebietserkennung, bei der die Karte analysiert und in Teilgebiete zerlegt wird, wobei beispielsweise Raumgrenzen wie Wände und Türdurchgänge identifiziert werden, wodurch die Teilgebiete die Räume einer Wohnung und/oder sinnvolle Teilbereiche dieser Räume beschreiben.
- • creating (electronic) maps by gathering information about the environment using the
sensor unit 120 but not exclusively by means of SLAM methods, - The management of one or more cards to one or more application areas of the robot assigned to the cards,
- • determining the position and orientation (pose) of the robot in a map based on that with the sensors of the
sensor unit 120 determined information of the environment, - A map-based path planning (trajectory planning) from a current pose of the robot (starting point) to a destination point,
- A contour following mode in which the robot (
100 ) moves along the contour of one or more obstacles (eg, a wall) at a substantially constant distance d from that contour, - • Partial area recognition, in which the map is analyzed and divided into subareas, identifying, for example, spatial boundaries such as walls and doorways, whereby the subareas describe the spaces of a dwelling and / or meaningful parts of these spaces.
Die Steuereinheit
Im Allgemeinen ist eine vom Roboter
Ein technisches Gerät ist für einen menschlichen Nutzer im täglichen Leben am nützlichsten, wenn einerseits das Verhalten des Geräts für den Nutzer nachvollziehbar und verständlich ist und andererseits die Bedienung intuitiv möglich ist. Es ist in der Regel wünschenswert, dass ein autonomer mobiler Roboter (z.B. ein Bodenreinigungsroboter) ein für einen menschlichen Nutzer intuitiv nachvollziehbares und praktisches Verhalten an den Tag legt. Dazu muss der Roboter sein Einsatzgebiet durch technische Verfahren ähnlich interpretieren und in Teilgebiete aufteilen wie dies ein menschlicher Nutzer tun würde (z.B. Wohnzimmer, Schlafzimmer, Flur, Küche, Essbereich, etc.). Dies ermöglicht eine einfache Kommunikation zwischen Nutzer und Roboter, beispielsweise in Form einfacher Kommandos an den Roboter (z.B. „Reinige das Schlafzimmer“) und/oder in Form von Benachrichtigungen an den Nutzer (z.B. „Reinigung des Schlafzimmers abgeschlossen“). Darüber hinaus können die erwähnten Teilgebiete für die Anzeige einer Karte des Robotereinsatzgebiets und die Bedienung des Roboters mittels dieser Karte genutzt werden.A technical device is the most useful for a human user in daily life, when on the one hand the behavior of the device is comprehensible and understandable for the user and on the other hand the operation is intuitively possible. It is generally desirable for an autonomous mobile robot (e.g., a floor cleaning robot) to exhibit an intuitively traceable and practical behavior for a human user. For this purpose, the robot must interpret its field of application by technical methods similar and divide into subdivisions as a human user would do (for example, living room, bedroom, hallway, kitchen, dining area, etc.). This allows for easy user-robot communication, for example, in the form of simple commands to the robot (e.g., "clean the bedroom") and / or in the form of notifications to the user (e.g., "cleaning the bedroom completed"). In addition, the mentioned sub-areas can be used for the display of a map of the robotic area and the operation of the robot by means of this card.
Nun kann eine Aufteilung des Robotereinsatzgebiets in Teilgebiete durch einen Nutzer zum Einen nach anerkannten Konvention und zum Anderen nach persönlichen Vorlieben (und somit benutzerspezifisch, z.B. Essbereich, Kinderspielecke, etc.) vorgenommen werden. Ein Beispiel einer bekannten Konvention ist die Unterteilung einer Wohnung in verschiedene Zimmer wie z.B. Schlafzimmer, Wohnzimmer und Flur. Gemäß einer beispielhaften benutzerspezifischen Unterteilung könnte ein Wohnzimmer z.B. in einen Kochbereich, eine Essecke oder Bereiche vor und neben dem Sofa eingeteilt werden. Die Grenzen zwischen diesen Bereichen können mitunter sehr „unscharf“ definiert sein und unterliegen im Allgemeinen der Interpretation des Nutzers. Ein Kochbereich könnte beispielsweise durch einen Fliesenboden gekennzeichnet sein, während der Essbereich lediglich durch die Anwesenheit eines Tisches mit Stühlen gekennzeichnet ist. Die Anpassung an den menschlichen Nutzer kann für einen Roboter eine sehr schwierige Aufgabe sein und häufig kann eine Roboter-Nutzer-Interaktion notwendig sein, um die Aufteilung des Robotereinsatzgebietes korrekt vorzunehmen. Um diese Roboter-Nutzer-Interaktion einfach und verständlich zu gestalten müssen die Kartendaten und die bereits automatisch vorgenommene Aufteilung vom Gerät interpretiert und aufbereitet werden. Des Weiteren erwartet sich der menschliche Nutzer ein an die vorgenommene Aufteilung angepasstes Verhalten des autonomen mobilen Roboters. Deshalb kann es gewünscht sein, dass die Teilgebiete vom Benutzer oder automatisch durch den Roboter mit Attributen versehen werden können, die das Verhalten des Roboters beeinflussen.Now a division of the robot use area into sub-areas by a user on the one hand according to recognized convention and on the other hand according to personal preferences (and thus user-specific, eg dining area, children's play area, etc.) are made. An example of one well-known convention is the subdivision of an apartment in different rooms such as bedroom, living room and hallway. According to an exemplary user-specific subdivision, a living room could, for example, be divided into a cooking area, a dining area or areas in front of and beside the sofa. The boundaries between these areas can sometimes be defined very "blurred" and are generally subject to the user's interpretation. For example, a cooking area could be characterized by a tile floor, while the dining area is characterized only by the presence of a table with chairs. The adaptation to the human user can be a very difficult task for a robot and often a robot-user interaction may be necessary to correctly divide the robotic area. In order to make this robot-user interaction simple and comprehensible, the map data and the already automatic division must be interpreted and prepared by the device. Furthermore, the human user expects a behavior of the autonomous mobile robot adapted to the division made. Therefore, it may be desired that the subregions may be provided by the user or automatically by the robot with attributes that affect the behavior of the robot.
Eine technische Voraussetzung hierfür ist, dass der autonome mobile Roboter eine Karte seines Einsatzgebiets besitzt, um sich in diesem anhand der Karte zu orientieren. Diese Karte wird beispielsweise von dem Roboter selbsttätig aufgebaut und permanent gespeichert. Um das Ziel einer für den Nutzer intuitiven Aufteilung des Robotereinsatzgebiets zu erreichen, werden technische Verfahren benötigt, die (
Nicht nur um die Interaktion mit einem menschlichen Nutzer zu vereinfachen, sondern auch, um das Einsatzgebiet in (aus Sicht des Nutzers) sinnvollerweise „abzuarbeiten“ soll der Roboter zunächst automatisiert sein Robotereinsatzgebiet in Teilgebiete unterteilen (also eine Teilgebietsdetektion durchführen). Eine solche Unterteilung in Teilgebiete ermöglicht dem Roboter, seine Aufgabe in seinem Einsatzgebiet leichter, systematischer, differenzierter, (aus Sicht des Nutzers) „logischer“, etc. auszuführen und die Interaktion mit dem Nutzer zu verbessern. Um eine sinnvolle Unterteilung zu erhalten, muss der Roboter verschieden Sensordaten gegeneinander abwägen. Insbesondere kann er Informationen über die Befahrbarkeit (schwierig/leicht) eines Bereichs seines Einsatzgebietes nutzen, um ein Teilgebiet zu definieren. Des Weiteren kann der Roboter von der (widerlegbaren) Annahme ausgehen, dass Räume in der Regel rechteckig sind. Der Roboter kann lernen, dass einige Änderungen der Aufteilung zu sinnvolleren Ergebnissen führt (so dass z.B. bestimmte Hindernisse mit einer gewissen Wahrscheinlichkeit in einem bestimmten Teilgebiet liegen).Not only to simplify the interaction with a human user, but also to "work off" the application area in (from the point of view of the user), the robot should first automatically subdivide its robot deployment area into subareas (ie carry out a subarea detection). Such a subdivision into subareas allows the robot to carry out its task more easily, more systematically, more differentiated, (from the point of view of the user) "logical", etc., and to improve the interaction with the user. In order to obtain a meaningful subdivision, the robot must weigh different sensor data against each other. In particular, he can use information about the navigability (difficult / easy) of a section of his field of application to define a sub-area. Furthermore, the robot can assume (refutable) that spaces are usually rectangular. The robot can learn that some changes in the split lead to more meaningful results (so that, for example, certain obstacles are likely to be in a particular sub-area).
Wie in
Um die erwähnten Probleme zu lösen und eine Unterteilung des Robotereinsatzgebietes in unterschiedliche Teilgebiete (z.B. Zimmer) automatisiert zu ermöglichen, stellt der Roboter basierend auf den Sensordaten „Hypothesen“ betreffend die Umgebung des Roboters auf, welche mittels unterschiedlicher Verfahren getestet werden. Kann eine Hypothese falsifiziert werden, wird sie verworfen. Sind zwei Begrenzungslinien (z.B. die Linien A-A' und O-O' in
Bei der Erstellung einer Hypothese durch den Roboter werden verschieden Sensormessungen kombiniert. Für einen Türdurchgang sind dies beispielsweise die Durchgangsbreite, Durchgangstiefe (gegeben durch Wanddicke), die Existenz einer Wand rechts und links des Durchgangs oder eine in den Raum ragende Tür. Diese Informationen können beispielsweise mit einem Abstandssensor durch den Roboter ermittelt werden. Mittels eines Beschleunigungssensors oder eines Lagesensors (z.B. ein gyroskopischer Sensor) kann eine möglicherweise vorhandene Türschwelle, welche der Roboter überfährt, detektiert werden. Durch Bildverarbeitung und eine Vermessung der Deckenhöhe können zusätzliche Informationen ermittelt werden.When creating a hypothesis by the robot different sensor measurements are combined. For a doorway these are, for example, the passage width, passage depth (given by wall thickness), the existence of a wall to the right and left of the passage or a door projecting into the room. This information can be determined, for example, with a distance sensor by the robot. By means of an acceleration sensor or a position sensor (for example a gyroscopic sensor), it is possible to detect a possibly existing door threshold which the robot passes over. By image processing and a measurement of the ceiling height additional information can be determined.
Ein weiteres Beispiel für eine mögliche Hypothese ist der Verlauf von Wänden im Robotereinsatzgebiet. Diese sind unter anderem durch zwei parallele Linien gekennzeichnet, welche einen Abstand einer typischen Wanddicke (siehe
Um Hypothesen zu testen und zu bewerten, kann ihnen ein Maß an Plausibilität zugeordnet werden. In einem einfachen Ausführungsbeispiel wird einer Hypothese für jede bestätigende Sensormessung ein vordefinierter Punktewert gutgeschrieben. Wenn auf diese Weise eine bestimmte Hypothese eine Mindestpunktzahl erreicht, so wird sie als plausibel angesehen. Eine negative Punktzahl könnte zum Verwerfen der Hypothese führen. In einem weiter entwickelten Ausführungsbeispiel wird einer bestimmten Hypothese eine Wahrscheinlichkeit für ihr zutreffen zugeordnet. Dies erfordert ein Wahrscheinlichkeitsmodel, welches Korrelationen zwischen verschiedenen Sensormessungen berücksichtigt, ermöglicht aber auch komplexe Wahrscheinlichkeitsaussagen mit Hilfe stochastischer Rechenmodelle und somit eine verlässlichere Vorhersage der Erwartungen des Benutzers. Beispielsweise können in gewissen Region (z.B. Ländern), in denen der Roboter zum Einsatz kommt, die Türbreiten standardisiert sein. Misst der Roboter eine solche standardisierte Breite, handelt es sich mit hoher Wahrscheinlichkeit um eine Tür. Abweichungen von den Standardbreiten reduzieren die Wahrscheinlichkeit, dass es sich um eine Tür handelt. Hierfür kann beispielsweise ein Wahrscheinlichkeitsmodell basierend auf einer Normalverteilung verwendet werden. Eine weitere Möglichkeit zur Erstellung und Bewertung von Hypothesen ist die Nutzung von „maschinellem Lernen“, um geeignete Modelle und Maßfunktionen zu erstellen (siehe z.B. Trevor Hastie, Robert Tibshirani, Jerome Friedman: „The Elements of Statistical Learning“,
Eine weitere Methode, die alternativ oder zusätzlich zu der Verwendung der oben erläuterten Hypothesen verwendet werden kann, ist die Unterteilung eines Robotereinsatzgebietes (z.B. eine Wohnung) in mehrere rechteckige Bereiche (z.B. Zimmer). Dieser Ansatz basiert auf der Annahme, dass Zimmer in der Regel rechteckig sind oder aus mehreren Rechtecken zusammengesetzt werden können. In einer von einem Roboter erstellten Karte ist diese rechteckige Form der Zimmer im Allgemeinen nicht zu erkennen, da in den Zimmern zahlreiche Hindernisse mit komplexen Begrenzungen wie z.B. Möbel das Einsatzgebiet des Roboters einschränken. Another method, which can be used alternatively or in addition to the use of the hypotheses discussed above, is to divide a robotic deployment area (eg, an apartment) into several rectangular areas (eg, rooms). This approach is based on the assumption that rooms are usually rectangular or can be composed of multiple rectangles. In a map created by a robot, this rectangular shape of the room is generally undetectable because in the rooms, numerous obstacles with complex boundaries such as furniture restrict the field of use of the robot.
Basierend auf der Annahme rechteckiger Zimmer wird das Robotereinsatzgebiet mit Rechtecken unterschiedlicher Größe überdeckt, welche die Zimmer wiedergeben sollen. Insbesondere werden die Rechtecke so gewählt, dass jedem für den Roboter zugänglichen Punkt in der Karte des Robotereinsatzgebiets eindeutig ein Rechteck zugeordnet werden kann. Das heißt, die Rechtecke überlappen sich in der Regel nicht. Dabei wird nicht ausgeschlossen, dass ein Rechteck Punkte enthält, die für den Roboter nicht zugänglich sind (z.B. weil Möbel die Zugänglichkeit ausschließen). Das durch die Rechtecke beschriebene Gebiet kann also größer und von geometrisch einfacherer Gestalt sein als das tatsächliche Robotereinsatzgebiet. Um die Orientierung und Größe der einzelnen Rechtecke zu bestimmen, werden beispielsweise lange gerade Begrenzungslinien in der Karte des Robotereinsatzgebiets genutzt, wie sie z.B. entlang von Wänden auftreten (siehe z.B.
Basierend auf der Annahme, dass Räume im Wesentlichen rechteckig sind, kann der Roboter aus der Karte der Begrenzungslinien (siehe
Wie bereits erwähnt wird in der Regel eine im Wesentlichen vollständige Karte des Robotereinsatzgebietes benötigt, bevor der Roboter eine sinnvolle automatische Unterteilung einer Karte in Teilgebiete (z.B. Zimmer) vornehmen kann. Bis dahin bewegt sich der Roboter durch das Roboter Einsatzgebiet, ohne Teilgebietsgrenzen beachten zu können. Dies kann zu ineffizienten und für einem Nutzer schwer nachvollziehbaren Verhalten des Roboters in der „Explorationsphase“ führen. Beispielsweise passiert der Roboter einen Türdurchgang und kommt in einen weiteren Raum bevor er einen Raum vollständig erkundet hat, was dazu führen kann, dass der Roboter durch einen großen Teil des Robotereinsatzgebietes (z.B. einer Wohnung) gefahren ist, und dennoch an unterschiedlichen Stellen der Wohnung (in unterschiedlichen Zimmern) „weiße Flecken“ in der Karte bleiben. Der Roboter muss schließlich diese „weißen Flecken“ in der Karte einzeln anfahren, um diese zu erkunden und eine vollständige Karte zu erhalten. Die hier beschriebenen Ausführungsbeispiele betreffen unter anderem ein Verfahren, welches zumindest in einigen Situationen die erwähnte Explorationsphase effizienter gestaltet das Verhalten des Roboters in dieser Explorationsphase für einen Nutzer „logischer“ erscheinen lässt.As already mentioned, a substantially complete map of the robotic area is usually needed before the robot can make a meaningful automatic subdivision of a map into subareas (e.g., rooms). Until then, the robot moves through the robot application area, without being able to pay attention to sub-area boundaries. This can lead to inefficient and difficult to understand behavior of the robot in the "exploration phase". For example, the robot passes through a doorway and enters another room before fully exploring a room, which may result in the robot moving through a large part of the robotic area (eg, a dwelling) and yet at different locations in the dwelling ( in different rooms) "white spots" remain in the map. The robot must finally approach these "white spots" in the map individually to explore them and get a complete map. The exemplary embodiments described here relate inter alia to a method which, at least in some situations, makes the mentioned exploration phase more efficient and makes the behavior of the robot in this exploration phase more "logical" for a user.
Während der Erkundungsfahrt führt der Roboter
Zur Aktualisierung des Referenzteilgebietes können bei der Teilgebietsdetektion sowohl die aktuellen Kartendaten als auch die bisherigen (d.h. bei einer früheren Teilgebietsdetektion festgelegten) Grenzen des Referenzteilgebietes berücksichtigt werden. Die laufende Aktualisierung des Referenzteilgebietes wird später noch genauer erläutert (vgl.
Algorithmen zur automatisierten Aufteilung einer Karte in Teilgebiete sind an sich bekannt. Einige dieser Algorithmen funktionieren nur, wenn die Karte vollständig erkundet, also durch Wände und andere Hindernisse vollständig eingeschlossen ist. Diese Algorithmen können für eine nicht-vollständig erkundete Karte genutzt werden, wenn die Karte „künstlich“ abgeschlossen wird. Hierzu kann beispielsweise ein Rahmen (bounding box) um das bereits erkundete Gebiet gelegt werden, und als „virtuelles“ Hindernis berücksichtigt werden. Auch andere Möglichkeiten, eine unvollständig erkundete Karte abzuschließen um die Algorithmen zur automatisierten Aufteilung einer vollständigen Karte zu nutzen, können alternative verwendet werden. In den hier beschriebenen Ausführungsbeispielen können für die Teilgebietsdetektion eine oder mehrere auf Kartendaten basierenden Informationen genutzt werden, beispielsweise die Position von Wänden und/oder anderen Hindernissen, die Position von Türdurchgängen und die Position von Bodenbelagsgrenzen. Zusätzlich oder alternativ können (z.B. in der Karte gespeicherte) Informationen über die Bodenstruktur, die Deckenstruktur und/oder die Wandstruktur berücksichtigt werden. Ein weiteres Kriterium für die Festlegung eines Teilgebiets sind vorgebbare geometrische Eigenschaften von Teilgebieten, wie beispielsweise eine minimale oder eine maximale Größe eines Teilgebiets. Deckenstrukturen und insbesondere die Ecken zwischen Decke und einer Wand können direkt Hinweise über die Form und Größe eines Raumes liefern. Hieraus können beispielsweise Türdurchgänge erkannt werden als Öffnungen in der Wand, die nicht bis an die Decke reichen. Wandstrukturen wie beispielsweise Fenster können Hinweise geben, ob es sich bei der besagten Wand um eine Außenwand handelt. Bodenstrukturen wie insbesondere der Wechsel des Bodenbelags oder eine Türschwelle können Indizien für Raumgrenzen und insbesondere für Türdurchgänge sein.Algorithms for the automated division of a map into subareas are known per se. Some of these algorithms only work if the card is fully explored, ie completely enclosed by walls and other obstructions. These algorithms can be used for a not fully explored map when the map is "artificially" completed. For this purpose, for example, a bounding box can be placed around the already explored area, and considered as a "virtual" obstacle. Other ways of completing an incompletely explored map to use the algorithms to automatically map a complete map can also be used as alternatives. In the embodiments described herein, one or more information based on map data may be utilized for the partial area detection, such as the position of walls and / or other obstacles, the position of doorways, and the location of flooring boundaries. Additionally or alternatively, information about the floor structure, the ceiling structure, and / or the wall structure (e.g., stored in the map) may be taken into account. Another criterion for the definition of a subarea are predefinable geometric properties of subareas, such as a minimum or a maximum size of a subarea. Ceiling structures and in particular the corners between the ceiling and a wall can directly provide information about the shape and size of a room. From this, for example, doorways can be recognized as openings in the wall that do not reach to the ceiling. Wall structures, such as windows, can provide clues as to whether the wall is an exterior wall. Floor structures such as, in particular, the change of floor covering or a threshold may be indicia of room boundaries and, in particular, doorways.
Je nach Implementierung der Teilbereichsdetektion können die Begrenzungslinien eines Teilgebietes zumindest teilweise prädiktiv ermittelt werden. In diesem Zusammenhang bedeutet prädiktiv, dass vorhandene, bereits detektierte und in der Karte gespeicherte Konturen (z.B. einer Wand) genutzt werden, um eine Begrenzungslinie eines Teilbereichs vorherzusagen. Beispielsweise kann eine bereits detektierte und in der Karte gespeicherte Kontur einer Wand (virtuell) geradlinig verlängert werden, um die Begrenzung eines Teilgebiets zu vervollständigen. Gemäß einem anderen Beispiel wird eine Begrenzungslinie eines Teilgebiets parallel oder rechtwinklig zu einer bereits detektierten und in der Karte gespeicherten Kontur einer Wand (oder eines anderen Hindernisses) so festgelegt, dass sie den Rand des bereits erkundeten Bereichs des Robotereinsatzgebietes berührt. Ein Beispiel hierfür wird später anhand
Der Roboter verfolgt (tracking) seine eigene Position in der Karte. Nach einer Teilgebietsdetektion prüft kann der Roboter prüfen, ob er sich noch in dem (aktualisierten) Referenzteilgebiet befindet. Falls das nicht der Fall ist und falls das Referenzteilgebiet noch nicht vollständig erkundet ist, fährt der Roboter in das Referenzteilgebiet zurück, um dort die Erkundungsfahrt fortzusetzen. Die Erkundungsfahrt wird außerhalb des Referenzteilgebietes nicht fortgesetzt. Ergibt die Prüfung jedoch, dass das (aktualisierte) Referenzteilgebiet bereits vollständig erkundet wurde (beispielsweise weil es ausschließlich durch Konturen von Hindernissen oder Grenzlinien zu anderen detektierten Teilgebieten begrenzt ist) wird ein anderes Teilgebiet zum Referenzteilgebiet und die Erkundungsfahrt wird dort fortgesetzt.The robot tracks its own position in the map. After a partial area detection, the robot can check whether it is still in the (updated) reference subarea. If this is not the case and if the reference sub-area is not yet fully explored, the robot travels back to the reference sub-area to continue the reconnaissance there. The reconnaissance trip will not continue outside the reference subarea. However, if the test indicates that the (updated) reference sub-area has already been completely explored (for example, because it is limited only by contours of obstacles or borderlines to other detected sub-areas), another sub-area will become the reference sub-area and the reconnaissance will continue there.
Wie erwähnt kann die Teilgebietsdetektion regelmäßig oder als Reaktion auf die Detektion bestimmter Ereignisse wiederholt werden. Eine Wiederholung der Teilgebietsdetektion kann z.B. ausgelöst werden, wenn der Roboter feststellt, dass ein bestimmtes Zeitintervall ist seit der letzten Teilgebietsdetektion abgelaufen ist, dass der Roboter seit der letzten Teilgebietsdetektion eine bestimmte Wegstrecke zurückgelegt hat, dass seit der letzten Teilgebietsdetektion der erkundete Bereich des Robotereinsatzgebietes um eine bestimmte Fläche angewachsen ist oder dass der Aufwand für die weitere Erkundung des Referenzteilgebietes einen bestimmten Wert übersteigt. Der Aufwand kann z.B. mittels einer Kostenfunktion bewertet werden. Eine Wiederholung der Teilgebietsdetektion kann z.B. auch ausgelöst werden, wenn der Roboter einen für die Erkundung ermittelten Zielpunkt erreicht hat. Solch ein Zielpunkt kann beispielsweise auf der Grenze zwischen erkundetem und (noch) nicht-erkundetem Teilgebieten gewählt werden. Während der Roboter auf diesen Punkt zusteuert, kann er mit seinen Sensoren neue Bereiche erfassen und so die Grenzen des erkundeten Gebietes ausdehnen.As mentioned, the sub-area detection may be repeated regularly or in response to the detection of certain events. A repetition of the partial area detection may e.g. are triggered when the robot determines that a certain time interval has elapsed since the last subarea detection, that the robot has traveled since the last subarea detection a certain distance that since the last subarea detection of the explored area of the robotic area has increased by a certain area, or that the effort for the further exploration of the reference sub-area exceeds a certain value. The effort can e.g. be evaluated by means of a cost function. A repetition of the partial area detection may e.g. also be triggered when the robot has reached a destination determined for the exploration. Such a target point can be chosen, for example, on the border between explored and (still) unexplored subareas. While the robot is heading to this point, it can detect new areas with its sensors and thus extend the boundaries of the area explored.
Wenn der Roboter feststellt, dass das Referenzteilgebiet vollständig erkundet wurde, dann wird es gespeichert und seine Grenzen werden später nicht mehr verändert. Solange noch weitere nicht vollständig erkundete Teilgebiete existieren, wählt der Roboter ein weiteres Teilgebiet als Referenzteilgebiet und setzt die Erkundungsfahrt dort fort. Das bisherige Referenzteilgebiet (oder die bisherigen Referenzteilgebiete) können bei der weiteren Teilgebietsdetektion dahingehend berücksichtigt werden, dass dessen (oder deren) Begrenzungslinien nicht mehr verändert werden und damit auch die Grenzen benachbarter Teilgebiete (zumindest teilweise) festgelegt sind. Das heißt, die Begrenzungslinien der bisherigen Referenzteilgebiete können bei der Ermittlung der Begrenzungslinien weiterer Teilgebiete berücksichtigt werden.When the robot detects that the reference sub-area has been completely explored, it is saved and its boundaries are not changed later. As long as there are more sub-regions that are not completely explored, the robot selects a further sub-area as reference sub-area and continues the exploration journey there. The previous reference sub-area (or the previous reference sub-areas) can be considered in the further sub-area detection to the effect that its (or their) boundary lines are not changed and thus the boundaries of adjacent sub-areas (at least partially) are fixed. That is, the boundary lines of the previous reference sub-areas can be taken into account in the determination of the boundary lines of other sub-areas.
Falls der Roboter ein Reinigungsroboter ist, kann er - nachdem er ein Referenzteilgebiet vollständig erkundet hat - dieses reinigen, bevor ein weiteres Teilgebiet als Referenzgebiet gewählt und die Erkundungsfahrt dort fortgesetzt wird. Dieses Verhalten kann abhängig von einer Nutzereingabe gemacht werden, was die Flexibilität des Roboters erhöht. Der Roboter kann demnach eine Nutzereingabe entgegennehmen, abhängig von der der Roboter drei Betriebsmodi unterscheidet. Die Nutzereingabe (z.B. „erkunden“, „erkunden und reinigen“, „reinigen“) kann beispielsweise über eine HMI erfolgen (z.B. auf einem portablen externen Gerät oder direkt am Roboter). In einem ersten Betriebsmodus führt der Roboter eine Erkundungsfahrt durch und erkundet der Roboter das Robotereinsatzgebiet und erstellt dabei eine neue Karte. Die Erkundungsfahrt kann gemäß den hier beschriebenen Verfahren implementiert sein. In einem zweiten Betriebsmodus führt der Roboter eine Erkundungsfahrt durch, erstellt dabei eine neue Karte und reinigt dabei auch das Robotereinsatzgebiet. In einem dritten Betriebsmodus wird keine neue Karte erstellt, sondern das Robotereinsatzgebiet basierend auf einer bereits existierenden, gespeicherten Karte gereinigt. Dieses Konzept kann auch auf andere Roboter übertragen werden, die keine Reinigungsroboter sind. In diesem Fall führt der Roboter statt der Reinigung eine andere Tätigkeit aus.If the robot is a cleaning robot, it can - after he has completely explored a reference sub-area - clean it before selecting another sub-area as a reference area and continue the reconnaissance trip there. This behavior can be made dependent on a user input, which increases the flexibility of the robot. The robot can therefore accept a user input, depending on which the robot distinguishes three operating modes. The user input (e.g., "explore," "explore and clean," "clean") may be, for example, via an HMI (e.g., on a portable external device or directly on the robot). In a first mode of operation, the robot performs a reconnaissance trip and the robot explores the robotic area and creates a new map. The reconnaissance trip may be implemented according to the methods described herein. In a second operating mode, the robot performs a reconnaissance trip, creating a new map while also cleaning the robotic area. In a third mode of operation, no new map is created, but the robotic area is cleaned based on an existing, stored map. This concept can also be applied to other robots that are not cleaning robots. In this case, the robot performs another activity instead of cleaning.
Der Roboter kann den bereits erkundeten Bereich des Robotereinsatzgebietes als „erkundet“ in der Karte markieren (z.B. durch Setzen eines bestimmten Bits oder einer anderen Markierung, oder durch erfassen, aktualisieren und speichern der Grenze zwischen erkundeten und nicht-erkundeten Bereichen). Beispielsweise können jene Bereiche als erkundet in der Karte markiert werden, die während der Erkundungsfahrt zumindest einmal innerhalb eines Erfassungsbereichs eines Navigationssensors des Roboters gelegen sind (vgl.
Der Roboter kann die Erkundungsfahrt beenden, wenn er feststellt, dass das Einsatzgebiet vollständig erkundet wurde (z.B. weil der als erkundet markierte Bereich vollständig von Hindernissen begrenzt ist) und/oder falls ein Fortsetzen der Erkundungsfahrt nicht möglich ist, weil kein weiteres (noch nicht vollständig erkundetes) Teilgebiet mehr detektiert wurde. In dieser Situation kann der Roboter erneut eine Teilgebietsdetektion durchführen und dabei die Kartendaten betreffend das vollständig erkundete Robotereinsatzgebiet berücksichtigen. Bei dieser abschließenden Teilbereichsdetektion kann der Roboter andere (z.B. genauere und/oder aufwändigere) Algorithmen verwenden als bei der wiederholt durchgeführten Teilbereichsdetektion während der Erkundungsfahrt. Alternativ kann der gleiche Algorithmus jedoch mit veränderten Parametern verwendet werden. Schließlich kann der Roboter nach Beenden der Erkundungsfahrt zu einem Ausgangspunkt zurückkehren, an dem die Erkundungsfahrt gestartet wurde, oder zu einer Basisstation, die während der Erkundungsfahrt detektiert und in der Karte gespeichert wurde.The robot may terminate the reconnaissance if it determines that the mission has been fully explored (eg, because the explorer is explored) marked area is completely limited by obstacles) and / or if it is not possible to continue the reconnaissance trip because no further (not yet fully explored) subarea has been detected. In this situation, the robot can again perform a partial area detection taking into account the map data concerning the fully explored robotic area. In this final partial area detection, the robot can use other (eg more accurate and / or more elaborate) algorithms than in the repeatedly performed partial area detection during the exploration trip. Alternatively, however, the same algorithm can be used with changed parameters. Finally, after completing the reconnaissance, the robot may return to a starting point where the reconnaissance trip was started or to a base station detected during the reconnaissance trip and stored in the map.
Die Diagramme in
Der Roboter
Die
Der Roboter
Um das Referenzteilgebiet weiter zu erkunden kann der Roboter beispielsweise versuchen zu einer der Begrenzungslinien des erkundeten Bereichs
Aufgrund der Festlegung des Referenzteilgebietes R fährt der Roboter
Ausgehend von der in
In dem in
In der in
In einer einfachen Variante des hier beschriebenen Verfahrens ist die Teilgebietsdetektion reduziert auf eine Detektion der Türdurchgänge. Die Detektion eines (offenen) Türdurchganges impliziert die Detektion eines benachbarten Raumes. Das heißt, die Teilgebietsdetektion detektiert während der Erkundungsfahrt praktisch nur verschiede Räume als unterschiedliche Teilgebiete. Im Übrigen ist dieses Ausführungsbeispiel gleich oder ähnlich zu den zuvor beschriebenen Ausführungsbeispielen. Der Roboter wird erst einen Raum vollständig erkunden, bevor er einen Türdurchgang durchfährt, um die Erkundungsfahrt in einem benachbarten Raum fortzusetzen. Sofern der Roboter zufällig in einen Benachbarten Raum fährt, beispielsweise weil ein Türdurchgang erst als solcher erkannt wird, nachdem der Roboter diesen Türdurchgang als solchen detektiert hat, kann der Roboter feststellen, dass er den zuvor erkundeten Raum verlassen hat, obwohl dieser noch nicht vollständig erkundet ist. In dieser Situation wird der Roboter die Erkundungsfahrt in dem Raum, in dem er sich aktuell befindet, beenden und den zuvor zufällig durchfahrenen Türdurchgang nochmal (in die entgegengesetzte Richtung) durchfahren, auf diese Weise in den zuvor erkundeten Raum zurückkehren und dieser weiter erkunden.In a simple variant of the method described here, the partial area detection is reduced to a detection of the doorways. The detection of an (open) doorway implies the detection of an adjacent room. That is, the sub-area detection detects during the reconnaissance trip practically only different rooms than different sub-areas. Incidentally, this embodiment is the same as or similar to the above-described embodiments. The robot will first fully explore a room before going through a doorway to continue exploration in a neighboring room. If the robot accidentally moves into a neighboring room, for example because a doorway is only recognized as such after the robot has detected this doorway as such, the robot can determine that it has left the previously explored space, although it has not yet fully explored is. In this situation, the robot will end the reconnaissance trip in the room in which it is currently located and drive through the previously accidentally passed doorway again (in the opposite direction), in this way return to the previously explored space and explore this further.
Die hier beschriebenen Verfahren können in Form von Software implementiert sein. Die Software kann auf einem Roboter, auf einem Mensch-Maschine-Schnittstelle (human-machine interface, HMI) und/oder auf einem beliebigen anderen Computer wie insbesondere einem Home-Server oder einem Cloud-Server ausgeführt werden. Insbesondere können einzelne Teile des Verfahrens mittels Software implementiert sein, die in verschieden Softwaremodule unterteilt sein kann und die auf verschiedenen Geräten ausgeführt werden können. Wenn der Roboter „etwas macht“ (z.B. einen Verfahrensschritt ausführt) kann dieser Vorgang (z.B. Verfahrensschritt) von der Steuereinheit
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 2287697 A2 [0002]EP 2287697 A2
- DE 102010017689 A1 [0009]DE 102010017689 A1 [0009]
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017121127.6A DE102017121127A1 (en) | 2017-09-12 | 2017-09-12 | Exploration of an unknown environment by an autonomous mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017121127.6A DE102017121127A1 (en) | 2017-09-12 | 2017-09-12 | Exploration of an unknown environment by an autonomous mobile robot |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017121127A1 true DE102017121127A1 (en) | 2019-03-14 |
Family
ID=65441407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017121127.6A Ceased DE102017121127A1 (en) | 2017-09-12 | 2017-09-12 | Exploration of an unknown environment by an autonomous mobile robot |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017121127A1 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110432834A (en) * | 2019-07-02 | 2019-11-12 | 上海岚豹智能科技有限公司 | A kind of cleaning method and sweeper of sweeper |
CN111489362A (en) * | 2020-04-03 | 2020-08-04 | 小狗电器互联网科技(北京)股份有限公司 | Space division method and device, readable medium and electronic equipment |
CN111721280A (en) * | 2020-05-25 | 2020-09-29 | 科沃斯机器人股份有限公司 | Area identification method, self-moving equipment and storage medium |
CN111722630A (en) * | 2020-06-30 | 2020-09-29 | 深圳市银星智能科技股份有限公司 | Partition boundary extension method, device, equipment and storage medium of cleaning robot |
CN112180940A (en) * | 2020-10-16 | 2021-01-05 | 三一机器人科技有限公司 | Mapping method and device for reverse positioning and vehicle operation method and device |
CN113509104A (en) * | 2021-04-25 | 2021-10-19 | 珠海格力电器股份有限公司 | Cleaning method, storage medium and cleaning robot |
CN114543808A (en) * | 2022-02-11 | 2022-05-27 | 杭州萤石软件有限公司 | Indoor relocation method, device, equipment and storage medium |
CN114764238A (en) * | 2020-12-30 | 2022-07-19 | 广东美的白色家电技术创新中心有限公司 | Mapping method of autonomous mobile device, electronic device and storage medium |
WO2023024347A1 (en) * | 2021-08-27 | 2023-03-02 | 深圳市优必选科技股份有限公司 | Autonomous exploration method for robot, and terminal device and storage medium |
US11656082B1 (en) * | 2017-10-17 | 2023-05-23 | AI Incorporated | Method for constructing a map while performing work |
WO2024037260A1 (en) * | 2022-08-18 | 2024-02-22 | 科沃斯家用机器人有限公司 | Control method of cleaning device, cleaning device, and storage medium |
CN118219280A (en) * | 2024-05-23 | 2024-06-21 | 北京大学 | Multi-machine collaborative exploration system, method, robot and man-side |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2287697A2 (en) | 2001-06-12 | 2011-02-23 | iRobot Corporation | Method and system for multi-code coverage for an autonomous robot |
DE102010017689A1 (en) | 2010-07-01 | 2012-01-05 | Vorwerk & Co. Interholding Gmbh | Automatically movable device and method for orientation of such a device |
DE102015119501A1 (en) * | 2015-11-11 | 2017-05-11 | RobArt GmbH | Subdivision of maps for robot navigation |
-
2017
- 2017-09-12 DE DE102017121127.6A patent/DE102017121127A1/en not_active Ceased
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2287697A2 (en) | 2001-06-12 | 2011-02-23 | iRobot Corporation | Method and system for multi-code coverage for an autonomous robot |
DE102010017689A1 (en) | 2010-07-01 | 2012-01-05 | Vorwerk & Co. Interholding Gmbh | Automatically movable device and method for orientation of such a device |
DE102015119501A1 (en) * | 2015-11-11 | 2017-05-11 | RobArt GmbH | Subdivision of maps for robot navigation |
Non-Patent Citations (2)
Title |
---|
HASTIE, Trevor; TIBSHIRANI, Robert; FRIEDMAN, Jerome: The elements of statistical learning - Data mining, inference, and prediction. 2. ed. New York: Springer, [2016] (Springer series in statistics). Deckblatt und Inhaltsverzeichnis. - ISBN 978-0-387-84857-0 (P); 978-0-387-84858-7 (E). DOI: 10.1007/978-0-387-84858-7. URL: https://rd.springer.com/content/pdf/bfm%3A978-0-387-84858-7%2F1.pdf [abgerufen am 2017-10-09] * |
LEE, David: The map-building and exploration strategies of a simple sonar-equipped robot - An experimental, quantitative evaluation. Cambridge: Cambridge University Press, 1996 (Distinguished dissertations in computer science). Deckblatt und Inhaltsverzeichnis. - ISBN 0-521-57331-9. - Zugl.: London, Univ., Diss., 1995 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11656082B1 (en) * | 2017-10-17 | 2023-05-23 | AI Incorporated | Method for constructing a map while performing work |
CN110432834A (en) * | 2019-07-02 | 2019-11-12 | 上海岚豹智能科技有限公司 | A kind of cleaning method and sweeper of sweeper |
CN111489362A (en) * | 2020-04-03 | 2020-08-04 | 小狗电器互联网科技(北京)股份有限公司 | Space division method and device, readable medium and electronic equipment |
CN111489362B (en) * | 2020-04-03 | 2023-12-05 | 北京小狗吸尘器集团股份有限公司 | Space division method and device, readable medium and electronic equipment |
CN111721280A (en) * | 2020-05-25 | 2020-09-29 | 科沃斯机器人股份有限公司 | Area identification method, self-moving equipment and storage medium |
CN111722630A (en) * | 2020-06-30 | 2020-09-29 | 深圳市银星智能科技股份有限公司 | Partition boundary extension method, device, equipment and storage medium of cleaning robot |
CN111722630B (en) * | 2020-06-30 | 2024-02-02 | 深圳银星智能集团股份有限公司 | Partition boundary extension method, device and equipment of cleaning robot and storage medium |
CN112180940A (en) * | 2020-10-16 | 2021-01-05 | 三一机器人科技有限公司 | Mapping method and device for reverse positioning and vehicle operation method and device |
CN114764238A (en) * | 2020-12-30 | 2022-07-19 | 广东美的白色家电技术创新中心有限公司 | Mapping method of autonomous mobile device, electronic device and storage medium |
CN113509104A (en) * | 2021-04-25 | 2021-10-19 | 珠海格力电器股份有限公司 | Cleaning method, storage medium and cleaning robot |
WO2023024347A1 (en) * | 2021-08-27 | 2023-03-02 | 深圳市优必选科技股份有限公司 | Autonomous exploration method for robot, and terminal device and storage medium |
CN114543808A (en) * | 2022-02-11 | 2022-05-27 | 杭州萤石软件有限公司 | Indoor relocation method, device, equipment and storage medium |
WO2024037260A1 (en) * | 2022-08-18 | 2024-02-22 | 科沃斯家用机器人有限公司 | Control method of cleaning device, cleaning device, and storage medium |
CN118219280A (en) * | 2024-05-23 | 2024-06-21 | 北京大学 | Multi-machine collaborative exploration system, method, robot and man-side |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3682305B1 (en) | Exploration of an unknown environment by an autonomous mobile robot | |
DE102017121127A1 (en) | Exploration of an unknown environment by an autonomous mobile robot | |
EP3814067B1 (en) | Exploration of a robot deployment area by an autonomous mobile robot | |
EP3659001B1 (en) | Magnetometer for robot navigation | |
EP3590014B1 (en) | Method for controlling an autonomous, mobile robot | |
EP3417350B1 (en) | Method for controlling an autonomous mobile robot | |
EP3494446A1 (en) | Method for controlling an autonomous mobile robot | |
EP3374834A2 (en) | Subdivision of maps for robot navigation | |
EP3676680A1 (en) | Movement planning for autonomous mobile robots | |
DE102016114594A1 (en) | Method for controlling an autonomous mobile robot | |
EP2812766B1 (en) | Method for automatically triggering a self-positioning process | |
DE102015119865B4 (en) | Robot-assisted processing of a surface using a robot | |
EP2898382B1 (en) | Robot and method for autonomous inspection or processing of floor areas | |
EP3709853B1 (en) | Floor processing by means of an autonomous mobile robot | |
DE102017104427A1 (en) | Method for controlling an autonomous, mobile robot | |
DE102020105045A1 (en) | METHODS AND DEVICES FOR FACILITATING AUTONOMOUS NAVIGATION OF ROBOTIC DEVICES | |
DE102017104428A1 (en) | Method for controlling an autonomous, mobile robot | |
EP3367200A1 (en) | Method for operating an automatically moving robot | |
DE102016114593A1 (en) | Method for controlling an autonomous mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |
|
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |