Zum Hauptinhalt springen
Logo

Leitvorträge - 27.09.2022

Erdsystemforschung in einer datenreichen Zeit

Herr Prof. Miguel Mahecha
UFZ
Universität Leipzig

Angesichts des schnellen Klimawandels und der Transformation der Landoberfläche müssen wir unser Verständnis der Dynamik des Erdsystems beständig verbessern. Auswirkungen sich intensivierender Klimaextreme zum Beispiel auf Ökosysteme und Menschen sind noch nicht ausreichend verstanden. Nur durch eine Verbesserung unseres Prozessverständnisses kommen wir langfristig zu robusten Modellen und Szenarien für die Zukunft. Heute eröffnet die beispiellose Verfügbarkeit von Datenströmen, die verschiedene Facetten der Erde beschreiben, grundlegend neue Möglichkeiten für die Forschung und interessierte Öffentlichkeit. Allerdings stehen praktischen Hürden einer vollen Exploration dieser datenreichen Zeit im Wege. In diesem Vortrag gehe ich zunächst darauf ein, wie wir die aufkommenden Hürden wie "mangelnde Interoperabilität" überwinden können, z. B. mit neuen Visualisierungsansätzen oder dem Konzept des Erdsystemdatenwürfels. Zweitens zeige ich am Beispiel der Auswirkungen von Klimaextremen auf Wälder und andere Ökosysteme, wie wir heute von den dieser datenreichen Zeit profitieren können.

Quantentechnologien in der Raumfahrt

Frau Dr. Lisa Wörner
DLR-Institut für Quantentechnologie
Ulm

Die Quantenrevolution ist in vollem Gange. Mit den technologischen und wissenschaftlichen Errungenschaften der vergangenen Jahre werden Anwendungen von quantenmechanischen Sensoren und Technologien immer greifbarer. Diese Entwicklung wird zusätzlich durch die gestiegenen nationalen und internationalen Förderungen und den technologischen Fortschritt außerhalb Deutschlands vorangetrieben.

In meinem Vortrag möchte ich über die Verwendung von Quantentechnologien in der Raumfahrt und deren Gewinn für die Gesellschaft auf der Erde sprechen. Dabei werde ich Themen wie die Erdbeobachtung, globale Kommunikation, Navigation und fundamentale Wissenschaft ansprechen, den aktuellen Stand der Technik darstellen und kommende Technologien zusammenfassen. Im Rahmen des Vortrages werde ich versuchen die zugrundeliegenden quantenmechanischen Prinzipien und die daraus resultierenden Vorteile gegenüber klassischen Technologien zusammen zu stellen. Der Fokus des Vortrages wird auf Techniken mit kalten Atomen liegen, deren Verwendung insbesondere in der Erdbeobachtung immer wichtiger wird. Aber auch Themenkomplexe zur Verschränkung, Frequenzreferenz und Magnetfelddetektion werden Teil des Vortrages sein. Letzterer wird aktuell durch die Anforderungen für die Planetenforschung immer prominenter, was derzeit auch durch die Quantensensorik auf der JUICE-Mission unterstrichen wird.

Abschließend möchte ich den Bogen zurück zu Anwendungen auf dem Boden schlagen, die erst durch die Anforderungen der Raumfahrt ermöglicht wurden.

Session 1 - Neue Technologien und Raumfahrt

Granulare Materialien und Flüssigkristalle

Frau Dr. Kirsten Harth / Herr Dr. Dmitry Puzyrev
Universität Magdeburg

Wir stellen zwei voneinander unabhängige Forschungsthemen vor, die in an der Otto-von-Guericke-Universität Magdeburg und künftig auch an der TH Brandenburg bearbeitet werden.

Eines der Themen behandelt die Untersuchung flüssigkristalliner Filme unter Schwerelosigkeit. Flüssigkristalle verbinden die Fließeigenschaften von Flüssigkeiten mit charakteristischen Eigenschaften von Kristallen wie zum Beispiel einer räumlichen Ordnung. Sie können dadurch dünne freitragende, wenige Nanometer dicke aber gleichzeitig stabile flüssige Filme mit mehreren Quadratzentimetern Fläche bilden. Die Eigenschaften dieser Filme weichen erheblich von denen „normaler“ Flüssigkeiten ab. Diese Geometrie erlaubt Experimente, die der klassischen Flüssigkristallforschung an dünnen Zellen nicht zugänglich sind. Wir untersuchen die Dynamik dieser Filme und die Selbstorganisation und die Wechselwirkungen von Einschlüssen darin. Dabei findet man einzigartige Beispiele quasi-zweidimensionaler Emulsionen oder kolloidaler Kristalle.

Der zweite Teil des Vortrages widmet sich granularen Gasen. Dies sind Ensembles makroskopischer Teilchen, die sich in permanenter Bewegung befinden und nur durch gelegentliche Stöße miteinander wechselwirken. Granulare Gase erlauben sowohl Erkenntnisse zu fundamentalen Fragen der statistischen Physik von Vielteilchensystemen als auch die Möglichkeit, Simulationsmethoden zu validieren und zu verbessern. In den Experimenten fallen große Mengen von optischen Bild- und Videodaten an, zu deren Auswertung eine präzise und verlässliche Detektion und Verfolgung aller Partikel unerlässlich ist.  Diese Auswertung physikalischer Daten basiert auf einer 3D-Rekonstruktion, die erst mit Hilfe von Methoden des maschinellen Lernens schnell und effizient ermöglicht wird. Für dichtere Ensembles von Teilchen, bei denen die optische Beobachtung an ihre Grenzen kommt, entwickeln wir eine andere Beobachtungsmethode. Neben der optischen Beobachtung bietet sich die Verwendung von Messsonden an, die direkt in den Partikeln integriert sind. Solche Verfahren sind für granulare Ensembles höherer Teilchenzahldichte anwendbar und darüber hinaus auf viele ähnliche Untersuchungen. Zusätzlich zu unseren Experimenten führen wir repräsentative numerische Simulationen durch. Wir konnten in den bisherigen Arbeiten einige fundamentale physikalische Eigenschaften granularer Gase identifizieren und überprüfen. Die in den Projekten entwickelten Methoden konnten auf weitere Systeme angewandt werden, in denen die Beobachtung und Verfolgung von Partikeln in Ensembles hoher Teilchenzahlen nötig ist.


Verbrennungsforschung am ZARM
Für bessere Raumfahrtantriebe und erhöhte Feuersicherheit

Herr Dr. Florian Meyer
Zentrum für angewandte Raumfahrttechnologie und Mikrogravitation (ZARM)
Universität Bremen

Der Vortag gibt einen aktuellen Überblick über die Verbrennungsforschung am ZARM. Grundsätzlich ist die Forschung in zwei Bereiche unterteilt: Tropfenverbrennung und Feuersicherheit in der astronautischen Raumfahrt. Die Forschung zur Tropfenverbrennung zielt auf ein detailliertes Verständnis der Sprayverbrennung, welche die Grundlage vieler technischer Verbrennungsprozesse ist. So wird beispielsweise mit dem „PHOENIX II“-Experiment im Rahmen einer deutsch-japanischen Kooperation die Zündung und Ausbreitung von Cool-Flames in verschiedenen Konfigurationen an Bord einer TEXUSHöhenforschungsrakete untersucht. Die Ergebnisse liefern wertvolle Erkenntnisse zum Zündverhalten von Sprays und können z.B. zur Optimierung von Flugzeugturbinen beitragen. In dem Vorhaben „HYDRA“ wird die Verbrennung von flüssigem Sauerstofftropfen in Wasserstoffatmosphäre im unterund überkritischen Regime untersucht. Diese Treibstoffkombination ist weit verbreitetet im Bereich der kryogenen Raketentriebwerke. Mithilfe von Fallturmexperimenten wurden grundlegende Daten gewonnen, die nun als Grundlage zur Entwicklung und Validierung von numerischen Simulationen genutzt werden. Dies geschieht in Kooperation mit amerikanischen und japanischen Universitäten. Ziel ist es die Effizienz von zukünftigen Raketentriebwerken zu steigern. In Bezug auf die Forschung zur Feuersicherheit der astronautischen Raumfahrt wird in dem Vorhaben „TOPOFLAME“ das Brandverhalten von Materialien unter Mikrogravitation untersucht. Hierzu wird im Herbst 2022 ein Experiment auf einer TEXUS-Höhenforschungsrakete durchgeführt, welches fünf zylindrische Proben beinhaltet, die unter erhöhter Sauerstoffkonzentration verbrannt werden. Dadurch sollen wichtige Erkenntnisse zum Einfluss der Sauerstoffkonzentration und der Materialdicke gewonnen werden, was insbesondere für zukünftig geplante Explorationsmissionen wichtig ist, die bei erhöhter Sauerstoffkonzentration durchgeführt werden sollen. Im Rahmen des SAFFIRE-Programms der NASA wurden bislang fünf Verbrennungsexperimente auf dem Raumtransporter Cygnus im Orbit durchgeführt. Innerhalb eines internationalen Topical Teams war das ZARM an der Festlegung von Experimentbedingungen und an der Auswertung der Ergebnisse beteiligt. Das Vorhaben „FLARE-G“ stellt den deutschen Beitrag zum internationalen FLARE-Programm dar, welches von der JAXA initiiert wurde. In diesem Programm liegt der Fokus auf der Anpassung und Erweiterung von terrestrischen Testverfahren, die zur Materialqualifikation für die astronautische Raumfahrt verwendet werden. Neben gemeinsamen ISS-Experimenten werden auch im Bremer Fallturm Experimente durchgeführt, um die Datengrundlage zur Entwicklung neuer Testprozeduren bereitzustellen. Das neue Vorhaben „Pre-ignition Fire Detection System (PDFS)“ widmet sich der Branddetektion und ist aus der DLRChallenge des INNOspace Masters 2022 hervorgegangen. Hierbei gilt es Gassensor-Netzwerke mithilfe von künstlicher Intelligenz zu trainieren, sodass kritische Materialzustände vor einer Entzündung detektiert werden können. Dieses System soll zuerst auf einige ausgewählte Raumfahrtmaterialien trainiert und getestet werden.

Materialwissenschaften in Schwerelosigkeit

Herr Dr. Markus Mohr
Institut für Funktionelle Nanosysteme
Universität Ulm

Die Materialwissenschaften befassen sich grundsätzlich mit der Suche nach neuen Materialien, sowie mit der Optimierung von bestehenden Materialien und Werkstoffen. Dabei sind vor allem metallische Produkte von großer globaler wirtschaftlicher Bedeutung. Daher sind Verbesserungen der Produktqualität, der Energie-, und Materialeffizienz, sowie der Recycelbarkeit von metallischen Werkstoffen für alle modernen Gesellschaften von enormer Wichtigkeit. Oftmals wird die Umsetzung neuer Technologien und Innovationen erst durch die Entwicklung neuer und verbesserter Werkstoffe möglich.

Der Schlüssel liegt dabei im detaillierten Verständnis, wie die Prozessierung des Materials die Mikrostruktur und damit die Eigenschaften des Materials beeinflusst. Anders als das traditionelle, iterative Vorgehen der Werkstoffentwicklung, werden heute moderne Simulationen eingesetzt. Dabei steht vor allem die Erstarrung aus der flüssigen Phase im Vordergrund. Als einer der ersten Prozess-Schritte bei der Werkstoffprozessierung hinterlassen die Bedingungen bei der Erstarrung ihren Fingerabdruck im festen Werkstoff.

Die Voraussetzung dafür, die Herstellungsprozesse zu optimieren, um die innere Struktur und die Eigenschaften eines Werkstoffs auf die Anwendung anzupassen, ist daher, mehr über die Eigenschaften der Materialien im geschmolzenen Zustand zu erfahren, und mehr über das genaue Erstarrungsverhalten zu lernen.

Für viele Experimente, in denen die Eigenschaften der geschmolzenen Materialien untersucht werden, und in denen das Erstarrungsverhalten der Materialien studiert wird, ist die Schwerelosigkeit eine notwendige Voraussetzung. Die Experimentbedingungen können in der Schwerelosigkeit zu einem Grad kontrolliert werden, wie dies auf der Erde unmöglich ist. Die besten Bedingungen für Untersuchungen in der Schwerelosigkeit liefert die Internationale Raumstation ISS. An Bord befinden sich mehrere experimentelle Einrichtungen, mit denen materialwissenschaftliche Experimente durchgeführt werden.

Die Ergebnisse sind zum Nutzen für die Prozess- und Werkstofftechnik auf der Erde. Sie können in die Entwicklung von neuen Legierungen einfließen, sowie in die Entwicklung und Optimierung von neuen Herstellungsverfahren. Die dabei untersuchten Materialien umfassen Strukturmaterialien (Stahl, Aluminium-basierte Legierungen, …), Hochleistungsmaterialien (Ni- und Ti-basierte Legierungen, …), und Funktionelle Materialien (Halbleiter, …).

In diesem Vortrag wird ein kurzer Überblick über verschiedene Experimente gegeben, die in Schwerelosigkeit, und speziell an Bord der Internationalen Raumstation ISS genutzt werden um Eigenschaften von Schmelzen und deren Erstarrungsverhalten zu untersuchen. Ein spezieller Fokus wird dabei auf die erhaltenen Ergebnissen und geplanten Experimente am Elektromagnetischen Levitator an Bord der ISS gelegt.


Quantentechnologie in der Erdbeobachtung und Navigation

Herr Prof. Steffen Schön
Universität Hannover

Quantentechnologie in der Erdbeobachtung und Navigation von Prof. Dr.-Ing. Steffen Schön Auf Quantentechnologien beruhende Sensoren, wie optische Uhren, Beschleunigungsmesser oder Kreisel auf dem Prinzip von Cold Atom Interferometer, werden durch ihre erhöhte Genauigkeit, Stabilität und potentielle Driftfreiheit die gravimetrische Erdbeobachtung verbessern, zum Erkenntnisgewinn im System Erde beitragen und neue Anwendungen in der Trägheitsnavigation ermöglichen. Dieser Vortrag wird einen kurzen Überblick über die wesentlichen Herausforderungen und Forschungsfragen liefern, das genutzte quanten-basierte Messprinzip anreißen und aufzeigen, welchen Beitrag es zur Lösung der Forschungsfragen liefern kann. Mithilfe von niedrigfliegenden Satelliten, wie GOCE oder Satellitenpaaren wie GRACE oder GRACE Follow-On, wird das Erdschwerefeld und Beiträge zu Massenveränderungen wie Eismassenverluste, Wassertransporte messtechnisch bestimmt. Die zeitliche Auflösung liegt hierbei aktuell bei Monatslösungen des globalen Erdschwerefeldes; die räumliche Auflösung bei mehreren hundert Kilometern an der Erdoberfläche. Um viele geophysikalische Prozesse genau zu bestimmen und besser zu verstehen, ist dies noch unzureichend. Diese aktuellen Beschränkungen liegen zum einen am Design der Satellitenkonstellation (ein oder zwei Satelliten) als Testobjekte im Erdschwerefeld. Andererseits wird die Satellitenbewegung im Erdschwerefeld nicht nur von der interessierenden Gravitationsbeschleunigung beeinflusst, sondern auch von nicht-gravitativen Störbeschleunigungen, z.B. durch atmosphärische Reibung. Diese müssen mithilfe von 3D Beschleunigungsmesser an Bord des Satelliten bestimmt und korrigiert werden. Die Größenordnung der Effekte liegt variiert abhängig von der Bahnhöhe zwischen 10-4 und 10-10 m/s2 . Da gebräuchliche Beschleunigungsmesser inhärente Driften und nicht-weißes Rauschen aufweisen, kann nur eine bestimmte Bandbreite reduziert werden, so dass die resultierenden Erdschwerefelder und deren zeitlichen Änderungen noch systematische Abweichungen und Artefakte aufweisen. Beschleunigungsmesser nach dem Bautyp Cold Atome Interferometer können hier in Zukunft Abhilfe schaffen, da sie höhere Auflösungen als klassische Beschleunigungsmesser erzielen und kaum Driften aufweisen. Die Beschleunigungsmesser nutzen eine Mach-Zehender Interferometer-Struktur. Nachdem die Atome (z.B. Rubidium) gekühlt sind und ihr atomarer Zustand präpariert wurde, wird die Atomwolke fallengelassen und mit Laserpulsen manipuliert. Diese lassen sich als Analogien für die Bauteile Strahlteiler, Spiegel im klassischen Lichtinterferometer aufspalten. Bei der Strahlteilung wird die Atomwolke physisch in unterschiedliche Zustände ihrer Hyperfeinstruktur aufgeteilt, die bei ihrer Ausbreitung unterschiedliche lineare Beschleunigungen oder Rotationen erfahren und sich in der Wahrscheinlichkeitsverteilung der Atome im Grund- und angeregten Zustand nach Schließen des Interferometer-Prozesses ausdrücken. Neben der Anwendung in der terrestrischen und Satellitengravimetrie lassen sich diese Prinzipien bei Beschleunigungsmessern und Kreiseln für die Trägheitsnavigation einsetzen. Dort wirken sie den typischen IMU Driften und damit schnell verschlechternden Positionierungsgenauigkeit der Inertialnavigation deutlich entgegen. Da die Quantenübergänge der Erdalkalimetalle mit festen Übergangsfrequenzen verbunden sind, können diese als bekannte Zusatzinformation technisch genutzt. Solche Sensoren werden im Rahmen des Vorhabens QGyro/QGyroPlus mit Partnern am Institut für Erdmessung entwickelt. Schlussendlich werden bei Atomuhren die Quantenübergänge genutzt, um auf fest definierte Frequenzen bzw. Frequenzunterschiede messtechnisch zuzugreifen. Mit Hilfe der Konzepte der relativistischen Geodäsie kann die durch eine Höhenänderung zwischen zwei verbundenen optischen Uhren hervorgerufene Frequenzveränderung durch eine relativistische Rotverschiebung gemessen werden. Die Auswertung verbundener Uhren bietet so erstmals die Möglichkeit, physikalische Höhen zu definieren, und dedizierte physikalische Höhenunterschiede zwischen einzelnen Orten auf der Erde direkt zu bestimmen. Dies wird unter anderem im Rahmen des Sonderforschungsbereichs TerraQ untersucht.

Session 2 - Daten und KI

Bayes'sche Bilderzeugung & Künstliche Intelligenz


Herr PD Dr. Torsten Enßlin

Max-Planck-Institut für Astrophysik
Garchingen

Bildgebende Verfahren müssen aus unvollständigen und verrauschten Sensordaten interpretierbare Abbilder der Wirklichkeit liefern. Dies erfordert das Einbeziehen von Wissen über das vermessene Signal.
Bayes'sche Bildgebung via Informationsfeldtheorie erlaubt die Synthese aus Messinformation und Wissen. Diese hat sich in einer Reihe von astrophysikalischen Anwendungen bewährt, welche hier vorgestellt werden.
Die Methodik kann als interpretierbare künstliche Intelligenz mit Unsicherheitsquantifikation verstanden werden, und kann mit Generativen Neuronalen Netzen interagieren.


Monitoring von Infrastrukturen in Deutschland mit Copernicus-Daten

Frau Dr.-Ing. Clémence Dubois
Universität Jena

Infrastrukturen in Deutschland werden in vier Hauptkategorien unterteilt: Straßen, Schienen, Wasser und Luft. Während Letztere vorrangig die Hauptverkehrsflughäfen betrifft, werden in den anderen Kategorien sowohl die Verkehrsnetze als auch die zugehörigen Anlagen miteinbezogen. So zählen nicht nur Straßen und Schienen, sondern auch u.a. Brücken, Tunnel, Bahnhöfe, Schleusen und Staubauwerke zu kritischen Infrastrukturen, die es gilt, regelmäßig zu überwachen. Aufgrund des damit verbundenen Aufwandes werden diese Anlagen jedoch in unregelmäßigen, sehr langen zeitlichen Abständen (ein bis zwei Mal im Jahr) oder gar nicht überwacht.

Das Copernicus-Programm als Erdbeobachtungsprogramm der europäischen Union kann dabei das Monitoring von Infrastrukturen durch eine Vielzahl an Informationsdiensten und dedizierten Satellitendaten unterstützen. Dazu zählen insbesondere der Bodenbewegungsdienst Deutschland (BBD) sowie sein europäisches Pendant, der European Ground Motion Service (EGMS). Letzteres ist im Copernicus Landüberwachungsdienst verfügbar und wird jährlich aktualisiert. Diese beiden Dienste basieren auf prozessierten multi-temporalen, interferometrischen SAR Daten der Copernicus Sentinel-1 Mission. Die genutzte Methode der Persistent Scatterer Interferometry (PSI) ermöglicht es, basierend auf einem Datenstapel Bewegungen von spezifischen Punkten der Erdoberfläche in Millimeter-Genauigkeit zu ermitteln und für die Beobachtungsperiode eine entsprechende Deformationsmessreihe zu bekommen. Diese Daten und Dienste werden in Deutschland bereits in verschiedenen Projekten genutzt, die in dem Vortrag kurz skizziert werden.

In einem zweiten Teil wird näher auf ein an der Friedrich-Schiller-Universität Jena laufendes Projekt zur Überwachung von Staubauwerken eingegangen. Im Projekt KI4KI – künstliche Intelligenz für klimaresilientes Infrastrukturmonitoring sollen in Kooperation mit dem Ruhrverband mehrere Staumauern und Staudämme mittels Copernicus-Daten und Diensten überwacht werden. Dabei wird die Belastung dieser verschiedenen Infrastrukturen durch klimatische Veränderungen überwacht. Zentrale Fragen stellen neben der regelmäßigen Aktualisierung der Deformationszeitreihe die Identifizierung geeigneter Anlagen für den Einsatz von Copernicus-Daten, der Einsatz neuartiger Corner Reflektoren, um die Sichtbarkeit der Infrastrukturen in den Copernicus-Daten zu erhöhen, sowie die Schätzung der zu erwartenden Bewegung im Falle diverser Wetterszenarien.


Datenverarbeitung mit Provenienz-Metadaten – VAMPIRA


Herr Dr. Hans-Reiner Klöckner

Max-Planck-Institut für Radioastronomie
Bonn

Astronomische Observatorien werden die großen, zivilen Datenproduzenten der nächsten Jahrzehnte sein und stoßen schon jetzt in vielen Bereichen der Datenanalyse an technische Grenzen. Zusätzlich wird durch die steigende Autonomie und Komplexität der automatisierten Datenverarbeitung es immer schwieriger die Herkunft einzelner Ergebnisse vollumfänglich zu dokumentieren und damit einhergehend Vertrauen in die so gewonnenen wissenschaftlichen Erkenntnisse zu gewährleisten.

Daher gewinnen Diagnostikwerkzeuge fortwährend an Bedeutung, die Arbeitsschritte automatisiert protokollieren und so auch prozessübergreifende Analysen ermöglichen. So lassen sich nicht nur einzelne Ergebnisse verifizieren, sondern auch Verbesserungspotentiale in den Abläufen selbst identifizieren. Die Radioastronomie steht hierbei als Beispiel für diese Entwicklungen. Wir stellen die Arbeiten des VAMPIRA Projekts vor, das eine einheitliche, automatisierte Erfassung und Verarbeitung von Provenienzinformationen zum Ziel hat und somit die Voraussetzungen für systematische Analysen und selbst lernende Systeme schafft.

Gefördert durch das Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages unter der Projektnummer 50OO1905.
VAMPIRA =  (V)erwaltung, (A)uswertung und (M)odellierung von (P)rovenienz (I)nformationen aus (R)echenintensiven wissenschaftlichen (A)rbeitsabläufen


Gaia Datenauswertung


Herr Dr. Michael Biermann
Astronomisches Rechen-Institut
Universität Heidelberg

Gaia ist die große Astrometrie-Mission der ESA. Seit über acht Jahren macht Gaia jeden Tag mehr als 20 Millionen astrometrische und photometrische Messungen und nimmt zusätzlich über sieben Millionen Spektren auf. Etwa 450 Wissenschaftler und Softwareentwickler verarbeiten diese Messdaten zu einem Katalog von fast 2 Milliarden Objekten in der Milchstraße und weit darüber hinaus, der hochpräzise Positionen, Eigenbewegungen, Parallaxen und viele weitere Eigenschaften dieser Objekte enthält. Hier sollen Herausforderungen und Erfolge dieser Datenverarbeitung an Beispielen vorgestellt werden, die bereits zu einer deutlichen Verbesserung der Gaia-Kataloge geführt haben.


Datenmanagement, Big Data

Herr Dr. Harry Enke
AIP Potsdam

Die außerordentliche Steigerung der Leistungsfähigkeit der Instrumente und der Simulationen nicht nur in der Astronomie geht einher mit dem Wachstum der Datenmengen. Im gleichen Masse muss die Effizienz der Datennutzung und der hierzu notwendigen Infrastrukturen gesteigert werden. Das Virtual Observatory hat bereits einiges erreicht, aber nachhaltige Infrastrukturen für Datenpublikation und -analysis sind rar.

Bestimmung der 3D-Waldstruktur und Waldbiomasse aus Radarfernerkundungsdaten

Herr Dr. Konstantinos Papathanassiou
DLR - Institut für Hochfrequenztechnik und Radarsysteme
Oberpfaffenhofen

Wälder sind durch komplexe 3D-Muster gekennzeichnet, die das Ergebnis von natürlichen, klimatischen und anthropogenen Prozessen. Diese starke räumlichen Variabilität der 3D-Waldstruktur ist auch der Hauptgrund der großen Unsicherheit in der Bestimmung kritischer Waldparameter durch konventionelle Fernerkundungsdaten. Die genaue Erfassung der 3D-Waldstruktur ermöglicht die Charakterisierung des Zustands der Wälder und erlaubt die Bestimmung der Waldbiomasse in bisher nicht dagewesener Qualität.  Aufgrund ihrer Fähigkeit, die räumliche Variabilität der vertikalen Waldstruktur zu erfassen und dadurch eine Rekonstruktion der 3-D-Waldstruktur zu erlauben, haben interferometrische und tomographische SAR-Messungen diesbezüglich einen entscheidenden Durchbruch ermöglicht.

Die Interaktion von Mikrowellen (Radarwellen) mit der 3D Waldstruktur ist jedoch komplex und erfordert meistens ein physikalisches Model das diese komplizierte Wechselwirkung mathematisch formuliert und sie dadurch berechenbar macht. Die Inversion des Modells ermöglicht dann die Bestimmung relevanter Waldstrukturparameter aus den Radarmessungen, auch wenn diese selbst nicht direkt gemessen werden können. Jedoch ist im TanDEM-X Fall die Anzahl der Radarmessungen nicht ausreichend um eine genaue Inversion zu erlauben da weniger Information vorliegt, als zur Bestimmung der Waldstrukturparameter des Models nötig ist. Einen Ausweg aus diesem Problem kann die kombinierte Nutzung von Lidar- und interferometrischen oder tomographischen SAR Daten die das Potenzial hat, die dringend erforderliche Erfassung und Charakterisierung der 3D Waldstruktur auf geeigneten räumlichen und zeitlichen Skalen zu erlauben. Dabei können KI-Ansätze Eine wichtige Rolle spielen da die Kombination datengetriebener KI-Modelle mit modelbasierten Invertierungsverfahren, erlaubt die Bestimmung der physikalischen Parameter zu optimieren.

In diesem Zusammenhang wird, anhand aktueller Beispiele, das Potenzial interferometrischer oder tomographischer SAR-Missionen vorgestellt, die gemeinsame Verarbeitung und Fusion multispektraler 3D-Fernerkundungsdaten für die Erfassung und Kartierung von 3D-Waldstrukturen erörtert und die wichtige Rolle, die KI in diesem Rahmen spielen kann diskutiert.

 

Session 3 - Weltraummissionen und Astronomie

Das Weltraumteleskop Gaia

Frau Dr. Katja Weingrill
AIP Potsdam

Gemessen an wissenschaftlichen Ergebnissen in Form von Veröffentlichungen ist Gaia die erfolgreichste astrophysikalische Mission aller Zeiten. Pro Arbeitstag kommen im Schnitt fünf wissenschaftliche Publikationen heraus, die die Daten der Gaia Mission benutzen - und dies quer durch alle Felder der Astrophysik.


Das Ziel der ESA Weltraummission Gaia ist nichts Geringeres als das Vermessen unserer Milchstraße. Um Ursprung und  Evolution unserer Galaxie zu studieren, erstellt Gaia die  genaueste Karte der Milchstraße. Vermessen werden die Positionen, Raumbewegungen und physikalische Parameter der Sterne unserer Galaxie. Hierfür ist der Satellit mit drei Instrumenten ausgestattet:
Das astrometrische Feld misst die präzise Position sowie die Eigenbewegung der Lichtquellen am Himmel
Das blaue und rote Photometer stellt astrophysikalische Parameter wie die Helligkeit, Farbe, Temperatur und die Spektralklasse der Sterne zur Verfügung
Der Radialgeschwindigkeitsspektrograph ermöglicht die Messung der dritten Geschwindigkeitskomponente - auf uns zu oder von uns weg - aber auch der Metallizität und Oberflächenschwerebeschleunigung sowie der Häufigkeit der chemischen Elemente.

Seit Juli 2014 beobachtet Gaia vom Lagrange Punkt 2 aus ununterbrochen die Lichtquellen am Himmel. Nach dem Transfer der Daten auf die Erde, werden sie von einem 450-köpfigen, europäischen Konsortiuum - dem Data Processing and Analysis Consortiuum (DPAC) - ausgewertet und der wissenschaftlichen Gemeinschaft zugänglich gemacht (s. Vortrag von Dr. M. Biermann):
Nach zwei sehr erfolgreichen Gaia Datenkatalogen wurde am 13. Juni 2022 der dritte Gaia Datenkatalog veröffentlicht, der neben Positionen und Helligkeiten für 1,8 Milliarden Sterne zum ersten Mal auch Spektren enthält. Es wurden 320 Millionen Spektren des  Polarimeters sowie 1 Million Spektren des Radialgeschwindigkeitsspektrographen veröffentlicht. Dazu enthält der Datensatz mit 33 Millionen Einträgen den größten Radialgeschwindigkeitskatalog der Welt, den größten spektrophotometrischen Katalog, die erste weltraumbasierte Himmelsdurchmusterung von Quasaren, den genauesten spektrophotometrischen Katalog von Asteroiden mit Dynamik, und für viele Klassen  variabler Sterne die größte Datensammlung jemals.

In der astrophysikalischen Gemeinschaft ist diese Veröffentlichung sehnsüchtig erwartet worden, denn Gaia liefert neue Daten für fast alle Gebiete der Astrophysik. Objekte unseres Sonnensystems können mit den Gaia Daten ebenso studiert werden wie die Sterne unserer Milchstraße oder weit entfernt liegende Quasare und Galaxien.


Technik der Weltraummission EUCLID

Herr Dr. Frank Grupp
LMU München

Im Rahmen des cosmic vision frame-works der ESA ist Euclid die Mission welche sich dem dunklen Universum; Dunkler Materie und Dunkler Energie widmet. Diese wichtigen Faktoren in der Entwicklung unseres Universums stellt hohe Anforderungen an die beobachterischen Möglichkeiten des Satelliten sowie der Software an Bord und am Boden. Wir zeigen wie Euclid tun soll wofür er gebaut wurde und welche technischen Herausforderungen zu beantworten waren um diese Mission, die zum Start bereit ist, möglich zu machen.

Der Weltraum-Gravitationswellendetektor LISA

Herr Dr. Jens Reiche
AEI Hannover

Seit 2015 werden erfolgreich Gravitationswellen mit Detektoren am Boden gemessen, 100 Jahre nachdem Albert Einstein diese vorausgesagt hat. Die beobachtbaren Frequenzen liegen dabei im Bereich zwischen einigen 10 Hertz und einigen Kilohertz.

LISA soll als GW-Observatorium im All ab ca. 2036 dieses Frequenzspektrum hin zu niederfrequenten GW unterhalb zwischen ca. 10-4 Hz und etwa einem 1 Hertz erweitern. Hier werden besonders interessante GW-Quellen erwartet. Es wird das Konzept und der aktuelle Status präsentiert. 


Die Röntgenmission Athena

Prof. Dr. Jörn Wilms

Remeis-Sternwarte & ECAP
FAU Erlangen-Nürnberg

Die Röntgenmission Athena ist eine der zwei geplanten L-Class-Missionen, die gerade in Europa für einen Start in den 2030er Jahren vorbereitet werden. Der Vortrag beschreibt die wissenschaftlichen Fragestellungen, die von der Mission adressiert werden sollen - die Suche nach den fehlenden Baryonen, die Entwicklung Schwarzer Löcher und die Physik heißer Plasmen mit Temperaturen im Bereich von Millionen Grad -  und geht dann auf die beiden an Bord befindlichen Instrumente eingehen, dem Wide Field Imager und dem X-ray Integral Field Unit. Zusammen werden es diese Instrumente sowohl Bildgebung als auch spektroskopische Informationen in unerreichter Qualität zu messn. Der Vortrag endet mit einer Zusammenfassung des jetzigen Stands der Missionsplanung.

Session 4 - Erde und Klima


Unterstützung der Umsetzung des Pariser Klimaabkommens mit Erdbeobachtung

Frau Dr. Julia Marshall
DLR - Institut für Physik der Atmosphäre
Oberpfaffenhofen

Klimawandel gehört zu den größten Herausforderungen der Menschheit. Er wird hauptsächlich durch anthropogene Emissionen von Treibhausgasen, zu Vorderste Kohlendioxid (CO2), verursacht. Ein zentraler Schritt auf dem Weg zur Bewältigung des Klimawandels ist das Übereinkommen von Paris aus dem Jahr 2015, das erstmals Staaten der Welt verpflichtet, ihre Treibhausgasemissionen zu reduzieren. Mit der Ratifizierung müssen die Staaten Maßnahmen zur Erreichung der nationalen Klimaschutzziele ergreifen. Die Überprüfung der Treibhausgas-Emissionsreduktionen gemäß den nationalen Fähigkeiten (Nationally Determined Contributions) ist integraler Bestandteil des Abkommens. 2019 wurden die Leitlinien für die Berichterstattung dahingehend geändert, dass In-situ- und Satellitenmessungen atmosphärischer Treibhausgase ausdrücklich als ergänzende Informationsquelle zu den nationalen Inventardaten aufgenommen wurden. Aber wie werden diese Informationen benutzt?

Momentan befinden wir uns in einer Ära mit einem Reichtum an Erdbeobachtungsdaten auf immer höherer räumlicher Auflösung: Messungen der Zusammensetzung der Atmosphäre, der verschiedensten Eigenschaften der Erdoberfläche, sogar der anthropogenen Aktivitäten. Diese Präsentation stellt einen Überblick der Verwendung dieser Datenströme im Kontext von Emissions-Monitoring dar. Auf der operationellen Ebene wird die künftige EU/ESA Mission CO2M eine bedeutende Rolle spielen, mit einem Fokus auf anthropogenen Emissionen von größeren Punktquellen. Das aktuelle EU-Projekt CoCO2 entwickelt gerade ein Modellierungssystem, um diese Daten in einen künftigen Copernicus CO2 Monitoring Service zu verwenden. Die DLR Demonstrator-Mission CO2Image wird auch vorgestellt, konzipiert als eine Art „Lupe“ in Synergie mit CO2M, die auch kleinere Emissionsquellen erkennen und quantifizieren kann. Wie diese hochaufgelösten Messungen effizient und zuverlässig in Emissionsabschätzungen umgewandelt werden ist ein hochaktuelles Forschungsthema, das hier geschildert wird. Erdbeobachtungsdaten werden mithilfe von künstlicher Intelligenz auch verwendet, um anthropogene und biogene Signale voneinander zu trennen. Zusammen bieten diese Messungen und Methoden eine unabhängige Kontrolle der nationalen Emissionsberichten.


ICARUS (Klima)

Herr Prof. Martin Wikelski
MPG für Verhaltensbiologie
Radolfzell

Die kollektive Weisheit der Tiere der Erde stellt einen immensen Schatz an noch nie dagewesenen Informationen für die Menschheit dar. Das "Internet der Tiere" kann uns dabei helfen, Naturkatastrophen vorherzusagen, die globale Ausbreitung von Zoonosen zu prognostizieren oder Nahrungsressourcen zu sichern. Die entwickelten Sinne der Tiere sowie technische Sensoren an von Tieren getragenen Peilsendern ermöglichen lokale Erdbeobachtungen mit höchster räumlicher und zeitlicher Auflösung. Um die von Tieren erbrachten Ökosystemleistungen zu schützen und zu verstehen, müssen wir einzelne Tiere nahtlos auf globaler Ebene überwachen. Gleichzeitig bieten diese beispiellosen Daten über die Lebensgeschichte einzelner Wildtiere tiefe, neue Einblicke in grundlegende biologische Prozesse.

Die ICARUS-Initiative, eine internationale, wissenschaftlich getriebene Bottom-up-Technologieentwicklung von kleinen, günstigen und autonomen IoT-Sensoren (Internet der Dinge) für die Bewegung und das Verhalten von Tieren, zielt darauf ab: Wearables für Wildtiere. Die daraus resultierenden Big Data, die in der Open-Source-Datenbank Movebank verfügbar sind, helfen, das Leben auf unserem Planeten zu verstehen, zu überwachen, vorherzusagen und zu schützen.


Fluidphysik: Geophysikalisch motivierte Strömungen unter Schwerelosigkeit


Prof. Dr. Ing. Christoph Egbers
Lehrstuhl Aerodynamik und Strömungslehre
BTU Cottbus-Senftenberg

Das Innere unserer Erde gleicht den Schichten einer Zwiebel. Aber was genau passiert dort drinnen? Dieser Frage gehen die ISS-Experimente GeoFlow I und II sowie das AtmoFlow-Experiment nach. Auf der ISS, wo sich Erdanziehung und Zentrifugalkraft die Waage halten, muss dieses Kraftfeld innerhalb einer Apparatur – einer „Mini-Erde“ - künstlich erzeugt werden, um das Rätsel der Strömungs- und Temperaturverhältnisse im Erdinneren oder in den Atmosphären experimentell aufzuklären.

Das Ziel des AtmoFlow-Experimentes ist die Untersuchung atmosphärischer, konvektiver Strömungen im Kugelspalt, welche für die Disziplinen Geophysik, Astrophysik und ganz besonders Atmosphärenforschung von zentraler Bedeutung sind. In AtmoFlow sollen Strömungen in sphärischer Geometrie unter dem Einfluss eines zentralen Kraftfeldes („Mini-Erde“) untersucht werden, die atmosphärenähnlichen Randbedingungen ausgesetzt sind. Im Erdlabor interferieren axiale und radiale, künstliche Beschleunigung. Unter Mikrogravitationsbedingungen jedoch kann mittels eines dielektrophoretischen Kraftfeldes auftriebsgetriebene Konvektion in Kugelschalen ideal simuliert werden.

Beteiligte: BTU Cottbus-Senftenberg, DLR Raumfahrtmanagement, ESA, NASA, internationales Wissenschaftler-Team (ESPCI Paris, Universität LeHavre, Universität Leeds, DLR-PF Berlin, Universität Potsdam)


Die EnMAP Mission: Grundlage für neue wissenschaftliche Forschung und Anwendung

Frau Prof. Sabine Chabrillat
GFZ Potsdam

Helmholtz Center Potsdam GFZ German Research Center for Geosciences, Potsdam, Germany and Leibniz University Hannover (LUH), Institute of soil science, Hannover, Germany

Am 1. April 2022 ist der erste in Deutschland gebaute und entwickelte Hyperspektralsatellit EnMAP an Bord einer Falcon-9-Rakete des US-amerikanischen Raumfahrtkonzerns SpaceX von Cape Canaveral in Florida ins All gestartet. Die Mission wird von der Deutschen Raumfahrtagentur im DLR in Bonn im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) geführt. Mit der Entwicklung und dem Bau des Satelliten sowie des Hyperspektralinstrumentes wurde die OHB-System AG beauftragt, das Bodensegment wird vom DLR in Oberpfaffenhofen entwickelt und betrieben. Die Mission steht unter der wissenschaftlichen Koordination des GeoForschungszentrums Potsdam (GFZ).

Der Umweltsatellite EnMAP (Environmental Mapping and Analysis Program) wird den Zustand der Erdoberfläche mittels abbildender Spektroskopie erfassen. Die wichtigsten wissenschaftlichen Ziele von EnMAP sind die Untersuchung von Umweltveränderungen, die Erforschung der Reaktionen von Ökosystemen auf menschliche Aktivitäten und die Überwachung der Bewirtschaftung natürlicher Ressourcen. Der Satellit wird ein kontinuierliches Spektrum in 224 Spektralbändern von 420 nm bis 2450 nm liefern, mit einer mittleren spektralen Abtastung von 6,5 nm (VNIR) und 10 nm (SWIR). Entscheidend für die wissenschaftlichen Ziele von EnMAP sind qualitativ hochwertige Spektraldaten, eine räumliche Auflösung von 30 m, eine Wiederholungszeit von 27 Tagen im Nadir und eine Wiederholungszeit von 4 Tagen mit einer Neigung von 30° außerhalb des Nadirs, die zur Überwachung dynamischer Ereignisse genutzt werden kann. Nach der Inbetriebnahmephase (commissioning phase) werden die EnMAP-Daten kostenfrei für die internationale Nutzergemeinschaft zur Verfügung gestellt.

Abbildende-Spektroskopie ermöglicht die Identifizierung und Quantifizierung von Oberflächen anhand ihrer spektralen Charakteristika. Die EnMAP-Mission stellt aus verschiedenen Gründen einen Meilenstein in der abbildenden Spektroskopie dar. Die bisher einmalig hohe Datenqualität wird durch die präzise Onboard-Kalibrierungen gewährleistet, die eine aus dem Weltall bisher unerreichte Genauigkeit in der Quantifizierung von Oberflächeneigenschaften erlaubt. Darüber hinaus zeichnet sich die Mission durch die intensive wissenschaftliche Nutzungs-vorbereitung mit der Entwicklung von Auswertealgorithmen, Befliegungskampagnen, Doktorandenausbildung und Online-Schulungen aus, die zum Ziel hat, dass die Nut-zergemeinschaft die Daten bestmöglich in Wert setzen kann. Die vielfältigen Einsatzmöglichkeiten von EnMAP Daten reichen von der Erkundung von Lagerstätten und der Bodenkartierung über die Überwachung der Gewässergüte bis hin zur frühzeitigen Erkennung von Pflanzenstress und der Erfassung von Umweltverschmutzungen. EnMAP wird wichtige Daten bereitstellen, um die Folgen des Klimawandels und anderer Umweltveränderungen auf der Erde genau zu ermitteln. In diesem Vortrag wird ein aktueller Überblick über die Entwicklung des EnMAP-Satelliten, den aktuellen Missionsstand und die zu erwartende wissenschaftliche Forschung gegeben.


Vermessung und Monitoring von Gletschern und Eisschilden mittels Erdbeobachtung

Herr Dr. Thorsten Seehaus
FAU Universität Erlangen-Nürnberg

Die voranschreitende Klimakatastrophe wirkt sich besonders stark auf die Gletscher und Eisschilde aus. Ein großer Anteil des aktuellen Meeresspiegelanstiegs kann auf das Abschmelzen von Gletschereis zurückgeführt werden. Auch hat das Abschmelzen der Gletscher negative Auswirkungen auf die Wasserversorgungssicherheit in vielen Regionen weltweit, und führt zu einem erhöhten Risiko von Naturgefahren wie Hangrutschungen und Gletscherseenausbrüchen.

Auf Grund der meist abgelegenen Lage und der großen räumlichen Ausdehnung der Gletschereismassen bieten Erdbeobachtungsdaten die ideale Grundlage für die Vermessung und Überwachung von Gletschern und Eisschilden.

Es gibt eine Vielzahl an Erdbeobachtungsmission die zur Ableitung von Gletschervariablen genutzt werden können. Zur Erfassung von Eismassenänderungen auf globaler Skala sind besonders die Daten der Gravimetrie-Missionen GRACE und GRACE-FO nützlich. Die Zwillingssatellitensysteme vermessen Änderungen des Gravitationspotentials der Erde die u.a. durch Massenänderungen an der Erdoberfläche hervorgerufen werden. Hierdurch kann in vergletscherten Gebieten die Eismassenänderung auf großen räumlichen Skalen ermittelt werden.

Für das ermitteln von Gletschermassenveränderungen auf kleiner räumlichen Skalen ist die sogenannte geodätische Methode geeignet, welche auf das Differenzieren von Geländehöheninformation von verschieden Zeitpunkten beruht. Das Satellitensystem TanDEM-X liefert hierfür eine ideale Datengrundlage. Die wetterunabhängig aufgenommenen bistatischen SAR Daten ermöglichen die Ermittlung von präzisen hochaufgelösten Geländehöhen und somit das Vermessen der Gletschervolumenänderungen.

Die verschiedenen Erfassungsmethoden ergänzen sich gegenseitig auf räumlichen und zeitlichen Skalen und liefern wichtige Daten für das Monitoring der Eismassenveränderungen auf unserem Planeten. Durch die gewonnen Erkenntnisse können die Auswirkungen der klimatischen Veränderungen besser analysiert und verstanden werden, und zukünftige Entwicklungen besser prognostiziert werden.