API src

Found 5363 results.

Related terms

Sentinel-5P TROPOMI Surface Nitrogendioxide (NO2), Level 4 – Regional (Germany and neighboring countries)

The TROPOMI instrument onboard the Copernicus SENTINEL-5 Precursor satellite is a nadir-viewing, imaging spectrometer that provides global measurements of atmospheric properties and constituents on a daily basis. It is contributing to monitoring air quality and climate, providing critical information to services and decision makers. The instrument uses passive remote sensing techniques by measuring the top of atmosphere solar radiation reflected by and radiated from the earth and its atmosphere. The four spectrometers of TROPOMI cover the ultraviolet (UV), visible (VIS), Near Infra-Red (NIR) and Short Wavelength Infra-Red (SWIR) domains of the electromagnetic spectrum. The operational trace gas products generated at DLR on behave ESA are: Ozone (O3), Nitrogen Dioxide (NO2), Sulfur Dioxide (SO2), Formaldehyde (HCHO), Carbon Monoxide (CO) and Methane (CH4), together with clouds and aerosol properties. This product displays the Nitrogen Dioxide (NO2) near surface concentration for Germany and neighboring countries as derived from the POLYPHEMUS/DLR air quality model. Surface NO2 is mainly generated by anthropogenic sources, e.g. transport and industry. POLYPHEMUS/DLR is a state-of-the-art air quality model taking into consideration - meteorological conditions, - photochemistry, - anthropogenic and natural (biogenic) emissions, - TROPOMI NO2 observations for data assimilation. This Level 4 air quality product (surface NO2 at 15:00 UTC) is based on innovative algorithms, processors, data assimilation schemes and operational processing and dissemination chain developed in the framework of the INPULS project. The DLR project INPULS develops (a) innovative retrieval algorithms and processors for the generation of value-added products from the atmospheric Copernicus missions Sentinel-5 Precursor, Sentinel-4, and Sentinel-5, (b) cloud-based (re)processing systems, (c) improved data discovery and access technologies as well as server-side analytics for the users, and (d) data visualization services.

Die Anwendung Maschinellen Lernens bei der Fertigung von Festoxidzellen ( Machine-Learning for Solid Oxide Cells ), Teilvorhaben: Prozesstechnische Aspekte der Anwendung Maschinellen Lernens bei der Fertigung von Festoxidzellen

Im Rahmen des Projekts ML4SOC werden Verfahren des maschinellen Lernens (ML) angewandt, um die Herstellung von elektrochemischen Energiewandlern (Festoxidzellen (Solid Oxide Cells, SOC) als wichtige Technologie für die Wasserstoffwirtschaft) durch Foliengießen zu optimieren. Es wird eine neuartige Forschungsdaten-Managementstruktur aufgebaut werden, die eine lückenlose Erfassung aller Prozessschritte auf Basis eines elektronischen Laborbuchs, d.h. von der Schlickerherstellung bis zur fertigen Schicht, mittels in-situ Messmethoden ermöglicht. Anschließend werden Schlickerrezepte und Verarbeitungsparameter bereitgestellt und durch ausgewählte ML-Algorithmen getestet, um die optimalen Prozessparameter zu ermitteln. Schließlich werden diese durch Simulationen ermittelten Parameter von den Projektpartnern praktisch überprüft. Ziel des Teilprojektes KMS ist es dabei, die für die Multi-Skalen-Modellierung mit künstlicher Intelligenz (KI) und maschinellem Lernen (ML) benötigten Daten und Messwerte im Prozess der Fertigung von Festoxidzellen zu gewinnen und der Modellierung zur Verfügung zu stellen. Dazu müssen die verwendeten Foliengießanlagen modifiziert und mit geeigneter Messtechnik und Datenerfassung ausgerüstet werden.

Vertikaler turbulenter Aerosolpartikeltransport über offenem Wasser und Eis in der zentralen Arktis während des Sommers - Aerosolpartikelquellen und -umwandlung in der arktischen marinen Grenzschicht

In der Arktis ist aktuell die stärkste Temperaturerhöhung im Zuge des Klimawandels zu beobachten. Diese Tatsache beruht auf einer komplexen Kette von Prozessen und Rückkopplungen, in denen Aerosolpartikel durch ihren Einfluss auf Strahlungsbilanz und Wolkenbildung eine wesentliche Rolle spielen. Um die Auswirkungen der sich ändernden Eisbedeckung abschätzen zu können, müssen die Wechselwirkungen zwischen Ozean sowie Eis und der Atmosphäre besser verstanden werden. Grundsätzlich mangelt es besonders im Bereich des arktischen Ozeans an atmosphärischen Messungen, die zum Verständnis der Prozesse aber auch zur Vorhersage der zu erwartenden Änderungen dringend benötigt werden. Austauschprozesse zwischen Ozean/Eis und Atmosphäre sind in diesen Regionen ebenfalls wenig untersucht. Im Rahmen dieses Projektes sollen mithilfe der RV Polarstern vertikale Austauschprozesse oberhalb von Wasser und Eis im Detail betrachtet werden und damit verbundene Quellen für Aerosolpartikel lokalisiert werden. Dazu ist eine Reihe von kontinuierlichen Aerosolmessungen an Bord des Schiffes geplant, die die Anzahlgrößenverteilungen, optische Parameter (Streuung, Absorption), das Mischungsverhältnis von Partikeln, die schwarzen Kohlenstoff (BC) enthalten, die Konzentration von eisbildenden Partikeln (INP) sowie die chemische Zusammensetzung der Aerosolpartikel umfassen. Weiterhin werden in den im Sommer häufig auftretenden Nebelphasen Nebelwasserproben gesammelt, sowie während der gesamten Kampagne täglich Wasserproben aus dem Ozean entnommen. Diese Proben werden nach der Kampagne auf die Konzentration von INP und BC untersucht. Weiterhin sollen erstmals mit Laser-Inkandeszenz Methoden die BC-Konzentrationen sowohl im luftgetragenen Aerosol als auch in Wasserproben gemessen werden. Zur Vorbereitung der Wasserproben mit hoher Salinität werden neuartige Methoden angewandt. Durch diese Kombination der parallelen Untersuchung von Bestandteilen in Luft und Wasser sollen Transport- und Austauschprozesse dieser Aerosolpartikel quantifiziert werden. Während langsamer Fahrt des Schiffes oder Drift mit dem Eis wird Messtechnik zur Bestimmung von vertikalen Partikelflüssen am vorderen Ausleger des Schiffes eingesetzt. Damit werden Zeitreihen des Windvektors und der Partikelkonzentration erfasst, mit deren Hilfe im Anschluss der vertikale, turbulente Partikelfluss über unterschiedlichen Oberflächen durch die Eddy Kovarianz Methode bestimmt werden soll. Kombiniert mit diesen Messungen wird die Konzentration der INP erfasst, um deren Ursprung und Quellen lokalisieren zu können. Ein weiteres Messsystem, das aus einer eindimensionalen Windmessung und einem Partikelzähler besteht, wird am Kranhaken des vorderen Auslegers befestigt und bestimmt Vertikalprofile der Partikelkonzentration, aus denen ebenfalls eine Abschätzung des Vertikalflusses von Partikeln möglich ist. Diese Methoden sind erprobt und etabliert, wurden nur bisher noch nie in dieser Form über dem arktischen Ozean angewendet.

Sensortechnik zur ganzflächig mechanischen Unkrautbekämpfung

Die mechanische Unkrautbekämpfung erhält neue Bedeutung - systembedingt im ökologischen Landbau und außerdem als Alternative zum Einsatz chemischer Mittel. Das Wirkprinzip der Geräte, unter ihnen dominiert der Striegel, beruht weitgehend auf dem Verschütten, auch dem Herausreißen der unerwünschten Pflanzen. In der heranwachsenden Kultur aber wird auch die Nutzpflanze gefährdet. Je nach Wachstumsstadium und Bodenzustand gelingt der Effekt auf das Unkraut und misslingt die Schonung der Nutzpflanze. Die Sorgfalt zur Geräteeinstellung ist - vor allem unter wechselnden Bedingungen - begrenzt. Das gleiche gilt für die Auswahl des jeweils geeigneten Geräts und Arbeitsorgans; also der Zinkenform und -position. Daher soll ein Mess- und Regelsystem konzipiert und erprobt werden: es soll den Effekt des Arbeitswerkzeugs auf Unkraut und Kulturpflanze messtechnisch erfassen, um die Eingriffsintensität den Unterschieden im Boden und Pflanzenbestand anzupassen.

Daily HUME: Daily Homogenization, Uncertainty Measures and Extremes (Homogenisierung täglicher Daten, Fehlermaße und Extreme)

Global change not only affects the long-term mean temperature, but may also lead to further changes in the frequency distribution and especially in their tails. The study of the whole frequency distribution is important as, e.g., heat and cold waves are responsible for a considerable part of morbidity and mortality due to meteorological events. Daily datasets are essential for studying such extremes of weather and climate and therefore the basis for political decisions with enormous socio-economic consequences. Reliably assessing such changes requires homogeneous observational data of high quality. Unfortunately, however, the measurement record contains many non-climatic changes, e.g. homogeneities due to relocations, new weather screens or instruments. Such changes affect not only the means, but the whole frequency distribution. To increase the quality and reliability of global daily temperature records, we propose to develop an automatic homogenisation method for daily temperature data that corrects the frequency distribution. We propose to describe homogenisation as an optimisation problem and solve it using a genetic algorithm. In this way, entire temperature networks can be homogenised simultaneously leading to an increase in sensitivity, while avoiding setting false (spurious) breaks. By not homogenising the daily data directly, but by homogenising monthly indices (probably the monthly moments), the full power and understanding of monthly homogenization methods can be carried over to the homogenisation of daily data. Furthermore, in an optimisation framework, the optimal temporal correction scale can be determined objectively and straightforwardly, that is whether the corrections are best applied annually (all twelve months get the same correction), semi-annually, seasonally or monthly. All three aspects are new: the simultaneous homogenisation of an entire network, the objective selection of the degrees of freedom of the adjustments and of the temporal averaging scale of the correction model. This new method will be applied to homogenise the temperature datasets of the International Surface Temperature Initiative. This large dataset necessitates an automatic homogenisation method. To validate the method, we will generate an artificial climate dataset with known inhomogeneities. To be able to generate such a validation dataset with realistic inhomogeneities, we need to understand the nature of inhomogeneities in daily data much better. Therefore, we intend to collect and study parallel measurements (two set-ups at one location), which allow us to study the changes in the frequency distribution if one set-up is replaced by the other. Finally, we will study and quantify the uncertainties due to persistent errors remaining in the dataset after homogenisation and utilise this to improve the accuracy of the homogenisation algorithm. The knowledge of uncertainties is also indispensable for climatologists using the homogenised data.

Methanemissionen aus Kleinseen: Dynamik und Verteilungsmuster (MethDyn)

Kleinseen stellen eine bedeutende Quelle von Methan im globalen Methanhaushalt dar. Diese Seen weisen pro Flächeneinheit höhere Methanflüsse auf als große Seen und haben einen wesentlichen Anteil an den weltweiten Methanemissionen aus Seen. Allerdings sind die Abschätzungen der seeweiten Methanemissionen mit sehr großen Unsicherheiten behaftet. Das liegt daran, dass es nur wenige und unzureichende Messungen und Modellansätze gibt, die die zeitliche und räumliche Variabilität von Methan in Seen erfasst. Die Ziele des Projekts sind die Dynamik und Verteilungsmuster von Methan in und Methanemissionen aus Kleinseen zu untersuchen sowie die Eigenschaften der Seen zu charakterisieren und die Prozesse zu quantifizieren, die die seeweiten Methanemissionen aus Kleinseen bestimmen. Ein spezieller Fokus des Projekts liegt dabei auf der relativen Bedeutung und zeitlichen Variabilität der räumlichen Methangradienten, der Herbst-Vollzirkulation und der verschieden Emissionspfade für die jährlichen, seeweiten Methanemissionen. Am Beispiel von sechs Kleinseen, die unterschiedliche Eigenschaften besitzen, werden intensive Feldexperimente durchgeführt. Während der Feldexperimente werden unter Berücksichtigung der Hauptemissionspfade die seeinterne Dynamik, räumliche Heterogenität, seeweite Verteilung und zeitliche Variabilität von gelöstem Methan und Methanemissionen zusammen mit den abiotischen Bedingungen in den sechs Kleinseen gemessen und analysiert. Dabei kommen neuste Messtechniken zum Einsatz (Eddy-Kovarianz System, Ein- und Mehrfrequenz Echolote, Methansonden, automatisierte Methanflusskammern und -trichter, tragbarer Treibhausgasanalysator, Sauerstoff- und Kohlendioxid-Optoden), die mit einer intensiven Wasserprobenahme und -analyse (gelöstes Methan, Methan-Isotopenzusammensetzung, Methan-Oxidationsraten und andere Wasserinhaltsstoffe) verknüpft werden. Diese Kombination erlaubt eine genaue und zuverlässige Aufnahme aller im Kontext nötigen abiotischen Parameter und im Speziellen der gelösten Methankonzentration mit einer hohen zeitlichen und räumlichen Auslösung. Die Feldexperimente werden durch numerische Simulationen zur Dynamik von Methan mit einem 3D Methan Modell komplettiert. Ziel dieser Modellrechnungen ist es, den horizontalen Transport, die Dynamik, Verteilung sowie den seeweiten, diffusiven Fluss von gelöstem Methan in die Atmosphäre bei sich ändernden Randbedingungen zu untersuchen. Des Weiteren wird mit numerischen Experimenten bestimmt wie sich ein verändertes Klima und unterschiedliche Windszenarien auf den diffusiven Fluss von gelöstem Methan in die Atmosphäre während Zirkulationsphasen auswirken und deren relativen Anteil an den seeweiten, jährlichen Emissionen verändern.

Intensiv-Bodendauerbeobachtungsflächen

Integrierte Umweltbeobachtung mit Messerhebungen zum Klima, Bodensubstrat, Bodenwasser, Deposition, Grundwasser.

BBD-V, Teilvorhaben: DLR e.V

Smarte Automatisierungssysteme und -services für den Obstanbau an der Niederelbe, Teilprojekt C

Das Ziel des Projektkonsortiums ist es die regional stark verankerte Obstbaulandwirtschaft nachhaltig zu unterstützen. Der Fokus des Vorhabens liegt dabei auf den Themen Bewässerung und Pflanzenschutz und hat zum Ziel durch den Einsatz smarter Messtechnik und intelligenter Auswertealgorithmen Einsparungen von Betriebsmitteln, wie Diesel, Pflanzenschutzmittel und Wasser zu ermöglichen. Erreicht werden soll dieses Ziel durch ein Neudenken der etablierten Bewirtschaftungsmethoden, die sich auf Expertenwissen und langjährige nicht quantifizierbare Erfahrungen beruhen. Die begrenzte Erfassbarkeit der komplexen Einflussfaktoren wie Klima, Vorjahresertrag, Blühverlauf uvm. auf die Erntemenge und -qualität lassen sich vom Erzeuger nicht im Detail überblicken und führen somit zu verallgemeinerten Behandlungen der gesamten Anbaufläche mit Pflanzenschutzmitteln anstatt punktuell zu agieren. Mit dem Ansatz eines multisensoriellen Bilderfassungssystems können alle Obstbäume und Anbauflächen automatisiert erfasst und katalogisiert werden. Die Bild- und Sensordaten können entlang der Saison Aufschluss über die Kenngrößen der Pflanzen (Wachstum, Frucht- und Blütenzahl, durchgeführte Behandlungen) liefern und über Jahre hinweg gesichert und mit Hilfe von KI-Algorithmen analysiert werden, wodurch relevantere Handlungsempfehlungen teilflächen- und baumspezifisch abgeleitet werden können. Mit Hilfe autonomer Robotik können die individuell abgestimmten Behandlungen der Bäume durchgeführt werden. Die Sammlung der Daten in einem zentralen interaktiven Hofmanagementsystem bietet zudem eine Schnittstelle, um hochaufgelöste Wetterdaten von verteilten Stationen zu integrieren, wodurch ein teilflächenspezifischer Einsatz der Frostschutzberegnung und somit eine Einsparung von Wasser erreicht werden kann. Durch die Vernetzung und Kooperation der Projektpartner mit lokalen Partnern und Obstbauern kann das erworbene Forschungswissen nachhaltig in der Region an Interessierte weitergegeben werden.

Entwicklung einer innovativen Gassensensorik zur Erfassung des Wasserstoffgehaltes in Erdgas und zur Bestimmung der Gasqualität, Teilvorhaben DBI: Testung und Validierung der Gassensorik

Das Projekt HYDROgas zielt darauf ab, einen innovativen Gassensensor zur Messung verschiedener Gasqualitätsparameter in Wasserstoff/ Erdgas-Gemischen zu entwickeln und praktisch im Gasnetz zu testen und zu validieren. Dazu sind mehrere Prototypen erforderlich die dem späteren Serienprodukt, hinsichtlich der Messeigenschaften möglichst nahekommen. In einer Übergangsphase bis ca. 2040 wird nicht ausreichend H2 für eine komplette H2-Umstellung der Gasversorgung zur Verfügung stehen. Neben reinen, lokalen H2-Netzen werden H2/ Erdgas-Gemische hergestellt werden. Der Wasserstoff soll dem Erdgas zugemischt werden und kann somit auf die vorhandenen Gas-Infrastruktur zurückgreifen. Derzeitig werden Konzentrationen von bis zu 20 Vol.-% H2 im Erdgas diskutiert, die in den nächsten Jahren im Netz erreicht werden sollen. Das ist messtechnisch zu kontrollieren. Der Projektpartner Wi.Tec Sensorik GmbH entwickelt eine entsprechende Sensortechnik, die auf Basis der H2-Konzentrationsmessung weitere notwendige Gas-Beschaffenheitsparameter ermittelt (Brennwert, Dichte etc.). Die Aufgaben des DBI bestehen in der Prüfung des Gerätes im Labor, der Validierung der Messergebnisse und der Berechnungen sowie der Durchführung von Gerätetests im realen Feld, d.h. im Gasnetz und bei weiteren potenziellen Abnehmern, den Gaskunden. Der Vergleich erfolgt mittels, beim Antragsteller vorhandener, aufwändiger Messtechnik (Gaschromatographen) im eigenen Prüflabor, welches für Messungen von Gasgemischen akkreditiert ist.

1 2 3 4 5535 536 537