Direkt zum Seiteninhalt springen

Projekt ARCHES

Autonome Roboter proben für Mars und die Tiefsee

Der Rover LRU1 (Lightweight Rover Unit 1) während der "Demomission Weltraum" auf dem Ätna. Bild: DLR (CC BY-NC-ND 3.0)

Autonome Forschungsroboter spielen in der Tiefseeforschung wie bei der Erkundung ferner Planeten eine entscheidende Rolle. Helmholtz-Forscher aus beiden Bereichen haben sich zusammengetan und entwickeln gemeinsam neue Techniken. 

Der Ätna auf Sizilien: Mit bizarren Landschaften und einzigartiger Natur zieht Europas höchster aktiver Vulkan Reisende aus aller Welt in seinen Bann. Doch was sich seinen Besuchern im Juni 2022 dort bot, war ein Schauspiel der ganz anderen Art. Auf einer zerklüfteten Ebene, gut 2.500 Meter über dem Meeresspiegel zogen Roboter wie von Geisterhand gesteuert ihre Furchen durch das Vulkangestein, sammelten Proben, errichteten Antennen und seilten sich gegenseitig in einen der kleineren Krater ab. Roboter, die Kraterlandschaften erforschen? Sind das nicht eher Szenen einer Mondmission? Hatte sich hier jemand im Himmelskörper geirrt?

„Nein“, sagt Armin Wedler schmunzelnd. „Das war eine Demomission für den Weltraumpart des Helmholtz-Zukunftsprojekts ARCHES.“ Der Maschinenbauer arbeitet am Institut für Robotik und Mechatronik des Deutschen Zentrums für Luft- und Raumfahrt (DLR) und leitet das Projekt, an dem auch das Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel  und das Karlsruher Institut für Technologie (KIT) beteiligt sind. „ARCHES steht für Autonomous Robotic Networks to Help Modern Societies. Es geht also um vernetzte Robotersysteme, die weiträumig und kontinuierlich in extremen Umgebungen operieren“, erklärt er. „Das DLR repräsentiert mit dem Weltraum eine dieser extremen Umgebungen. GEOMAR und AWI repräsentieren mit der Tiefsee eine andere.“

Armin Wedler im Mobil Labor des Robotik und Mechatronik Zentrums am DLR in Oberpfaffenhofen, mit den radgetriebenen Robotern LRU 1 (links) und LRU 2 (rechts). Bild: DLR/ Alexandra Beier

Eiseskälte oder Höllenglut; extremer Druck oder Vakuum; giftige Atmosphäre; tödliche Strahlung; ewige Dunkelheit – die Tiefsee und der Weltraum sind nicht gerade einladend. Und da der Mensch nicht unbedingt geschaffen ist für das Extreme, sollen sich Roboterteams dorthin begeben – so die Idee hinter dem Projekt. Die Teams bestehen aus einzelnen Spezialisten, die miteinander vernetzt sind und sich gegenseitig unterstützen. Wie das bei einer Raumfahrtmission aussehen könnte, sollte die Demomission zeigen. Also trafen sich 55 Wissenschaftlerinnen und Wissenschaftler, Ingenieurinnen und Ingenieure in Sizilien am Ätna. Unter ihnen waren auch 12 von der europäischen Raumfahrtagentur ESA.

Erkunden, steuern, Basis bauen

„Der Ätna ist ein aktiver Vulkan. Das heißt, das Gestein in dieser Umgebung ist noch nicht stark durch Umwelteinflüsse verändert. Es ähnelt dem Gestein auf Mond und Mars“, erklärt Armin Wedler die Wahl des Missionsortes. „Technologisch schafft das einige Herausforderungen – zum Beispiel für die Fortbewegung der Roboter. Und wissenschaftlich bietet es die Möglichkeit, hier auf der Erde mit Analyseverfahren für spätere Missionen auf anderen Himmelskörpern zu üben.

Die Demomission bestand aus drei Teilen. Der erste war eine Precursor-Mission. So nennen es Raumfahrer, wenn ein Himmelskörper erkundet werden soll. Am Ätna wurde eine automatische Erkundung des Mondes simuliert. „Das Szenario sah weder eine Station in der Mondumlaufbahn noch Funkrelais oder eine Bedienung aus einem Raumschiff im Mondorbit vor“, sagt der Projektleiter. „Die beiden radgetriebenen Roboter LRU 1 und LRU 2 sowie die Drohne Ardea waren also auf sich allein gestellt und haben das Gebiet vollkommen autonom erkundet.“ Als Nächstes wollten sich die Forscher ein Gebiet genauer anschauen – so, wie sie es auch tatsächlich auf einer Weltraummission tun würden – mit einer Fernsteuerungsmission. „Dazu haben wir einen der Konferenzräume in unserem Hotel am Ätna in ein Kontrollzentrum umgewandelt“, erzählt Armin Wedler. Dort liefen die Daten vom Vulkan zusammen und von dort wurde der Roboter „Interact-Rover“ ferngesteuert. Ein Team der ESA hat diesen Schritt in einem Kontrollraum des Europäisches Raumfahrtkontrollzentrums ESOC in Darmstadt beaufsichtigt. Einer, der bei diesem Missionsteil an den Kontrollpulten saß und auch die Steuerung übernahm, war der Astronaut Thomas Reiter.

„Im dritten Teil haben wir eine permanente Basis auf dem Mond simuliert“, sagt Armin Wedler. „Die Roboter hatten den Auftrag, ein Radioteleskop auf der dunklen Seite des Mondes zu errichten.“ Das ist eine Aufgabe, die vor allem Radioastronomen aufhorchen lässt. Denn denen macht auf der Erde ein immerwährendes Gewirr an Radiostrahlung aus unterschiedlichsten Geräten der modernen Zivilisation das Leben schwer. Die Rückseite des Mondes hingegen bietet ungestörten „Blick“ ins Universum. Aus der Übung könnte also durchaus später einmal eine echte Mission werden.

Die Boxen mit Antennenelementen verbinden sich bei Sonnenaufgang zu einem großen Teleskop. LRU2 hat sie für das Experiment LoFar (Low Frequency Array) punktgenau platziert. Bild: Florian Voggender

Auch Roboterteams brauchen einen Plan

Wie aber bringt man unterschiedlichste Roboter dazu, zusammenzuarbeiten und sich bei Bedarf auch durch die Zwischenrufe eines menschlichen Operators nicht aus dem Takt bringen zu lassen? Das erforscht Sören Hohmann am KIT-Institut für Regelungs- und Steuersysteme schon seit vielen Jahren erfolgreich. Esther Bischoff aus seinem Team erklärt: „Wenn man verschiedene Roboter hat, die innerhalb einer Mission verschiedene Aufgaben ausführen sollen, muss das geplant werden.“ Das hört sich erstmal einfach an. Doch meist müssen dazu bestimmte Randbedingungen erfüllt werden. So gibt es zum Beispiel Aufgaben, die dürfen erst begonnen werden, wenn vorher eine andere erfüllt wurde. „Und wenn dann auch noch die Präferenzen der menschlichen Projektbeteiligten beachtet werden sollen, übernimmt diese Planung besser ein Computeralgorithmus.“ Einen solchen hat die junge Wissenschaftlerin für das ARCHES-Projekt entworfen und dessen Fähigkeiten am Ätna demonstriert.

LRU2 greift eine Gesteinsprobe vom Boden und legt sie in seine Transportbox. Die Hand am Ende des Roboterarms wurde vom KIT (Karlsruher Institut für Technologie) entwickelt. LRU2 kann unterschiedliche Instrumente benutzen, sie von einem Lander holen und wieder zurückgeben. Bild: DLR (CC BY-NC-ND 3.0)

„Wir haben ein riesiges Touch-Display benutzt, dass eine Geländekarte nebst der aktuellen Position der verschiedenen Roboter zeigte“, erzählt sie. „Dafür haben wir einen Planungs- und Koordinationsalgorithmus entworfen und die interaktive Nutzeroberfläche entwickelt, die zur Interaktion mit dem Menschen dient.“ In der Simulation ließen sich dann alle Aufgaben definiert, die die Roboter später abarbeiten sollten. Auch konnte der Operator festlegen, ob ein ganz bestimmter Roboter für eine Aufgabe vorgesehen ist oder ob das System frei entscheiden soll. Und während der Mission stand es dem Operator frei, jederzeit einzugreifen. So ließen sich etwa neue Aufgaben hinzufügen oder bestimmten Robotern eine andere Aufgabe zuteilen. „Wir haben alles mit zum Ätna gebracht, die Simulation dort aufgebaut und den Kollegen aus den anderen Zentren präsentiert“, erklärt die Elektro- und Informationstechnikerin. „Die verschiedenen Aufgaben konnten in der Nutzeroberfläche definiert werden und wurden dann in der Simulation abgearbeitet.“

Extreme Welten fordern die Wissenschaft heraus

Unter den Kollegen, die der Präsentation gespannt lauschten, war auch Sascha Flögel. Der Geologe und Paläontologe forscht am GEOMAR. „Ich war diesmal als Zuschauer dabei“, erzählt er. „Gemeinsam mit dem AWI hatten wir vom GEOMAR unsere Feuertaufe bereits vor zwei Jahren.“ Denn die Demomission Tiefsee fand bereits im Oktober 2020 in der Eckernförder Bucht statt. Pandemiebedingt nur in kleiner Besetzung, bauten die Meeresforscher damals ein autonomes Unterwasser-Messnetz auf und demonstrierten erfolgreich die Zusammenarbeit von sieben mobilen und stationären Messplattformen.

Insgesamt besteht das Unterwasser-Messnetz aus vier stationären und drei mobilen Elementen. Eines davon ist das Unterwasserfahrzeug VIATOR: Dieser sogenannte Crawler kann sich autonom über den Meeresboden bewegen und ihn mithilfe eines Kamerasystems und eines Laser-Scanners erkunden. Foto: Uli Kunz, www.uli-kunz.com

„Es ist schon etwas anderes, wenn die Missionszentrale ein feststehendes Gebäude mit Anschluss an die Versorgung ist und kein schwankendes Schiff mutterseelenallein im Ozean“, sagt Sascha Flögel mit Blick auf den Kontrollraum im Hotel am Ätna. „Und dann auch noch die Systeme und ihre Interaktion hautnah zu sehen, war eine sehr spannende Erfahrung.“

Denn auch wenn beides extreme Umgebungen sind, so stellen Weltraum und Tiefsee die Forschenden doch mitunter vor ganz unterschiedliche Herausforderungen. Zum Beispiel in der Kommunikation. „Auch wenn es Laufzeitverzögerungen bei der Übertragung gibt, steht in der Raumfahrt die Mission Control in der Regel ständig mit dem robotischen System in Verbindung“, erklärt Sascha Flögel. „In der Meeresforschung ist das anders. Sind die Systeme im Ozean einmal abgesetzt und nicht über ein Kabel oder akustisch mit dem Schiff verbunden, dann hat man darauf für die Laufzeit der Mission keinen Zugriff.“ Das heißt, die Forschenden erfahren in der Regel erst nach 12 oder 14 Monaten, ob alles gut gegangen ist. Ob alle Messsysteme funktioniert haben und ob die Daten alle da sind.

Sascha Flögel ist Teil des Teams, das sich um die Mission „Tiefsee“ kümmert. Bild: Alfred-Wegener-Institut / Esther Horvath

„Unter Wasser funktioniert die Kommunikation nur akustisch“, fährt der Meeresforscher fort. „Das beschränkt die Datenrate auf wenige Kilobyte pro Sekunde.“ Bilder oder Videos an die Oberfläche zu senden, dauert lange; an Livebilder ist gar nicht erst zu denken. Auch die wissenschaftlichen Daten – die selbst nur wenig Speicherplatz belegen – werden sehr oft im System gespeichert und erst nach Missionsende mit diesen zusammen vom Grund des Meeres geborgen. „Eine solche Kooperation von Robotersystemen, wie wir sie bei ARCHES entwickelt haben, hat es in der Meeresforschung so noch nicht gegeben“, erklärt er. „Sie eröffnet uns sehr viele neue und vor allem spannende Möglichkeiten.“ Und das nicht nur auf der Erde. Denn Ozeane gibt es auch auf anderen Himmelskörpern. Zum Beispiel den Eismonden im äußeren Sonnensystem. Die rücken in den letzten Jahren immer stärker in den Fokus der Wissenschaft. „Bei einer robotischen Mission zu den Eismonden würden dann die Weltraum- und die Tiefseeforschung tatsächlich zusammenwachsen“, freut sich Sascha Flögel.

Entwickelt, vernetzt und praktisch eingesetzt

Wie schon die Demomission „Tiefsee“ in der Kieler Bucht hat die Demomission „Weltraum“ am Ätna die Funktion der robotischen Systeme und ihre Fähigkeit zur kooperativen Arbeit unter Beweis gestellt. Wäre das nicht die beste Ausgangsposition für ein Folgeprojekt? „Bei ARCHES und Co sprechen wir nicht von Folgeprojekten“, sagt Armin Wedler. „Es sind vielmehr Impulse oder Leuchttürme, die sich mit einem Thema intensiv beschäftigen und dann Anstoß dazu geben, dass andere Forschungsteams da weiter machen, wo wir aufhören.“ Doch das bedeutet bei Weitem nicht das Ende der erfolgreichen Zusammenarbeit. „Im neuen Projekt iFOODis erforschen wir die Ostsee und die Schleiregion“, verrät er. „Diesmal geht es darum herauszufinden, welche Auswirkungen eine intensive Landnutzung auf Natur und Umwelt hat.“ Neben dem DLR sind auch das AWI und GEOMAR dabei. „In der Eckernförder Bucht kommen wieder verschiedene Robotersysteme zu Land und zu Wasser zum Einsatz. Ergänzt wird das Set-up durch Satellitendaten und Messsystemen an Land.“

Die Helmholtz-Forschungskampagne zu Sustainable Value Chains

Die Anträge sind mittlerweile genehmigt. Das Projekt startet im Januar 2023. „Für mich ist es Fortsetzung und logische Konsequenz zugleich“, sagt Sascha Flögel. „In ROBEX haben wir die Systeme entwickelt [Anm. d. Red. siehe Kasten]. In ARCHES haben wir die Systeme verbunden. Und in iFOODis werden wir die Systeme zusammen praktisch einsetzen. Und es wird dazu auch zum allerersten Mal eine gemeinsame Demomission geben.“

Die Evolution autonomer Roboter

Bereits 2012 schlossen sich Forscherinnen und Forscher von DLR, AWI und GEOMAR zur Helmholtz-Allianz ROBEX  zusammen. Die Aufgabe der „Robotischen Exploration unter Extrembedingungen“: Es sollten autonome Roboter mit unterschiedlichen Fähigkeiten entwickelt werden, die gemeinsam unter den extremen Bedingungen von Weltall und Tiefsee aber auch bei Rettungseinsätzen in Katastrophengebieten oder beim Rückbau von Kernreaktoren zusammenarbeiten. Damals entstanden robotische Systeme, wie der Meeresboden-Crawler VIATOR samt Dockingstation MANSIO oder der Krabbler des DLR. Um zu erforschen, wie sich solche Robotersysteme vernetzen lassen, wie sie autonom im Team arbeiten und wie die Zusammenarbeit mit einem menschlichen Operator funktioniert, wurde im Jahr 2018 eine neue Allianz geschmiedet: ARCHES. Neben DLR, AWI und GEOMAR stieß diesmal auch das KIT als Experte für vernetzte Systeme hinzu. Nach erfolgreicher Demonstration in der Eckernförder Bucht und am Ätna ist es nun an der Zeit, den nächsten Schritt zu wagen. Bei iFOODis rückt jetzt eine gemeinsame Anwendung in den Fokus der Projektpartner – die Raumfahrt- und die Tiefseeforschung in der Helmholtz-Gemeinschaft wachsen also wieder ein Stück enger zusammen.

Leser:innenkommentare