API src

Found 4770 results.

Fluglärm Lden 2022

Berechnungsergebnis Lden (day, evening, night) 2022 nach EU-Umgebungslärmrichtlinie (2002/49/EG, 34. BImSchV) als Isophonenbänder für den Großflughafen Hannover/Langenhagen. Die Berechnung des Pegels Lden erfolgt nach der Berechnungsmethode für den Umgebungslärm von Flugplätzen (BUF). Ermittelt werden diese Pegel rechnerisch in einer Höhe von 4 m über Grund und in einem Raster von 50 x 50 m. Als akustische Quelle dienen die relevanten Flugrouten mit den darauf fliegenden Luftfahrzeugen. Die Darstellung erfolgt in 5 dB Klassen gemäß Legende. Die Geometrie des Pegelrasters liegt in UTM- Koordinaten vor.

Schwerpunktprogramm (SPP) 1158: Antarctic Research with Comparable Investigations in Arctic Sea Ice Areas; Bereich Infrastruktur - Antarktisforschung mit vergleichenden Untersuchungen in arktischen Eisgebieten, Zirkum-Antarktische Auftrittsfrequenz von Meereis-Rinnen und regionale Verteilung aus Satellitendaten

Ziel dieses Projektvorhabens ist es, einen Einblick in die räumliche und zeitliche Variabilität des Auftretens von Meereisrinnen im Antarktischen Meereis während der Wintermonate zu erhalten. Meereis-Rinnen zeichnen sich dadurch aus, dass es in ihrem Einflussbereich zu einem starken Austausch von Wärme, Feuchte und Impuls zwischen dem relativ warmen Ozean und der kalten Atmosphäre kommt. In Meereis-Rinnen bildet sich demnach neues, dünnes Eis und trägt damit zur Meereis-Massenbilanz bei. Wir beabsichtigen auf einer Methode aufzubauen, die entwickelt wurde, um Eisrinnen in der Arktis automatisch aus Thermal-Infrarot Satellitendaten zu identifizieren. Diese Methode muss für eine Anwendung auf Satellitendaten der Antarktis neu implementiert und erweitert werden. In diesem Rahmen gilt es auch, hemisphärische Besonderheiten in den Meereiseigenschaften und atmosphärischen Einflüssen zu berücksichtigen. Darum werden Anpassungen im ursprünglichen Algorithmus mit Hilfe detaillierter Fallstudien vorzunehmen sein. Als Ergebnis erwarten wir umfangreiche Erkenntnisse darüber, wann und wo Meereis-Rinnen gehäuft in der Antarktis auftreten, und wie diese Auftrittsmuster durch atmosphärische und ozeanische Antriebe gesteuert werden.

Forschergruppe (FOR) 2416: Space-Time Dynamics of Extreme Floods (SPATE), Teilprojekt: Hydrologie extremer Hochwasser - Ereignisanalysen

In den letzten zwei Jahrzehnten ereigneten sich in Deutschland und Österreich eine Reihe extremer Hochwasser, die mit den größten derartigen Ereignissen seit Beginn der systematischen Abflussbeobachtungen zu Beginn des 20. Jahrhunderts vergleichbar waren, oder diese sogar in ihrer Größe überschritten. Derartige Rekordhochwasser unterscheiden sich in mehrfacher Hinsicht von kleineren Hochwasserereignissen. Das Ausmaß, die Dauer und die räumliche Ausdehnung eines extremen Hochwassers werden von einer Reihe von Faktoren (beispielsweise durch den Niederschlag und seine räumliche und zeitliche Verteilung, den Vorfeuchtebedingungen und den Einzugsgebietseigenschaften wie Flächennutzung, Böden, Flussnetzen und anderen) gesteuert. Das Zusammenwirken des Regens in seiner ereignisspezifischen räumlichen und zeitlichen Verteilung mit der Bodenfeuchte ist oft der auslösende Faktor, da es eine extreme Abflussbildung bedingt. Sobald eine Hochwasserwelle sich im Flussnetz stromabwärts bewegt, wird ihr weitere Verlauf durch die Wechselwirkungen zwischen der Abflussbildung in den verschiedenen Teilbereichen des Einzugsgebietes, der Überlagerung von Hochwasserwellen aus Zuflüssen und den zur Verfügung stehenden Retentionsvolumina in den Überschwemmungsgebieten bestimmt. Welche Kombinationen dieser Faktoren extreme Hochwasserereignisse bedingen, stellt eine wichtige und interessante hydrologische Frage dar. Oft werden nur einige dieser Faktoren die Hochwasserentstehung dominieren und selten werden alle diese Faktoren gleichzeitig im Bereich ihres Maximums auftreten. Große Realisierungen einiger Wirkungsfaktoren reichen aber in der Regel aus, um extreme Hochwasserereignisse zu bedingen. In diesem Projekt werden diese Faktoren und deren Kombinationen im Rahmen einer detaillierten Analyse von extremen Hochwasserereignissen in verschiedenen Regionen Deutschlands und Österreichs untersucht. Aus der Anwendung eines einheitlichen analytischen Rahmens sind weitergehende Einblicke in den Hochwasserentstehungsprozess zu erwarten. Die Ergebnisse der Ereignisanalysen können durch regionalen Vergleiche verallgemeinert werden. Die Erkenntnisse zur Steuerung der hydrologischen Prozesse der Hochwasserentstehung werden in einem neuen GIS-basierte deterministischen Modellen zusammengefasst, um so das Wissen über die Entstehung von extremen Hochwasserereignissen zu verallgemeinern und zu formalisieren.

Daily HUME: Daily Homogenization, Uncertainty Measures and Extremes (Homogenisierung täglicher Daten, Fehlermaße und Extreme)

Global change not only affects the long-term mean temperature, but may also lead to further changes in the frequency distribution and especially in their tails. The study of the whole frequency distribution is important as, e.g., heat and cold waves are responsible for a considerable part of morbidity and mortality due to meteorological events. Daily datasets are essential for studying such extremes of weather and climate and therefore the basis for political decisions with enormous socio-economic consequences. Reliably assessing such changes requires homogeneous observational data of high quality. Unfortunately, however, the measurement record contains many non-climatic changes, e.g. homogeneities due to relocations, new weather screens or instruments. Such changes affect not only the means, but the whole frequency distribution. To increase the quality and reliability of global daily temperature records, we propose to develop an automatic homogenisation method for daily temperature data that corrects the frequency distribution. We propose to describe homogenisation as an optimisation problem and solve it using a genetic algorithm. In this way, entire temperature networks can be homogenised simultaneously leading to an increase in sensitivity, while avoiding setting false (spurious) breaks. By not homogenising the daily data directly, but by homogenising monthly indices (probably the monthly moments), the full power and understanding of monthly homogenization methods can be carried over to the homogenisation of daily data. Furthermore, in an optimisation framework, the optimal temporal correction scale can be determined objectively and straightforwardly, that is whether the corrections are best applied annually (all twelve months get the same correction), semi-annually, seasonally or monthly. All three aspects are new: the simultaneous homogenisation of an entire network, the objective selection of the degrees of freedom of the adjustments and of the temporal averaging scale of the correction model. This new method will be applied to homogenise the temperature datasets of the International Surface Temperature Initiative. This large dataset necessitates an automatic homogenisation method. To validate the method, we will generate an artificial climate dataset with known inhomogeneities. To be able to generate such a validation dataset with realistic inhomogeneities, we need to understand the nature of inhomogeneities in daily data much better. Therefore, we intend to collect and study parallel measurements (two set-ups at one location), which allow us to study the changes in the frequency distribution if one set-up is replaced by the other. Finally, we will study and quantify the uncertainties due to persistent errors remaining in the dataset after homogenisation and utilise this to improve the accuracy of the homogenisation algorithm. The knowledge of uncertainties is also indispensable for climatologists using the homogenised data.

Nachhaltige Altlastenbewältigung unter Einbeziehung des natürlichen Reinigungsvermögens, Entwicklung eines Simulationstools zur Prognose der Ausbreitung und des Abbaus von Schadstoffen in der gesättigten und der vadosen Zone

Ziel ist dabei unter anderem, eine Datenbasis für die Modellierung des Schadstoffabbaus und der Schadstoffausbreitung zu schaffen, die in ein sechstes Teilprojekt einfließt. Dieses wird von Mitarbeitern der Professoren Knabner und Rüde bearbeitet und befasst sich standortübergreifend mit der mathematischen Modellierung von Transport-, Rückhalte- und Abbauprozessen mittels moderner und effizienter Verfahren. Für die numerische Simulation wird ein Prognoseinstrument entwickelt, das belastbare Risikoeinschätzungen liefern soll. Aufgrund der anspruchsvollen Struktur der Probleme - Systeme von gekoppelten, nichtlinearen partiellen Differentialgleichungen - werden auch Techniken der Höchstleistungssimulation eingebracht. An jedem untersuchten Standort soll das Verständnis der im Untergrund ablaufenden Prozesse so vertieft werden, dass nicht nur der momentane Zustand beschrieben werden kann, sondern auch langfristige Prognosen möglich sind. Angesichts von rund 13300 altlastverdächtigen Flächen in Bayern ist es von großer volkswirtschaftlicher Bedeutung, neben der Entwicklung von kostengünstigen und praxisorientierten Technologien zur Altlastensanierung die natürlichen Selbstreinigungskräfte der Umwelt zu nutzen. Um angemessen handeln zu können, brauchen Behörden und andere Entscheidungsträger eine zuverlässige Antwort auf die Frage: Wie groß ist das natürliche Potenzial eines Altlastenstandortes, sich selbst zu reinigen?

Schwerpunktprogramm (SPP) 1689: Climate Engineering: Risiken, Herausforderungen, Möglichkeiten?, Stratosphärischer Ozonverlust im Sommer in mittleren Breiten - ein potentielles Risiko von Climate-Engineering? (CE-O3)

In jüngster Zeit wurde ein neuer Mechanismus zum Ozonabbau über besiedelten Gebieten in der wissenschaftlichen Gemeinschaft diskutiert, der vor einer zunehmenden Gefahr von niedrigem Ozon im Sommer in mittleren Breiten in der unteren Stratosphäre warnt. Der Ozonabbau soll durch erhöhte Mengen an Wasserdampf verursacht werden, die konvektiv in die Stratosphäre injiziert werden und zu durch Chlor bedingtem katalytischen Ozonverlust führen soll durch heterogene Reaktionen an binären Sulfat-Wasser-Aerosolen (H2SO4/H2O). Diese heterogenen Reaktionen werden durch erhöhte Mengen an Wasserdampf und niedrige Temperaturen beschleunigt. Vorausgesetzt, dass die Intensität und die Frequenz des konvektiv injizierten Wasserdampfes durch den anthropogenen Klimawandel in den nächsten Jahrzehnten ansteigen, ist mit einer Erhöhung der ultravioletten Strahlung (UV) auf der Erdoberfläche über besiedelten Gebieten zu rechnen. Die Details dieses neuen Ozonverlust-Mechanismus sind jedoch noch unklar, so dass eine genaue Quantifizierung des Ozonverlustes und seiner Sensitivität auf stratosphärischen Schwefel und Wasserdampf noch nicht möglich war. Ferner wurde im Rahmen von Climate-Engineering-Methoden, die Injektion von Sulfat-Aerosol in die Stratosphäre vorgeschlagen, um die globale Erderwärmung abzuschwächen. Dies könnte zusätzlich den Ozonabbau in der unteren Stratosphäre in mittleren Breiten verstärken. Motiviert durch diese Wissenslücken in unserem gegenwärtigen Verständnis von Ozonverlustprozessen in mittleren Breiten in der unter Stratosphäre, schlagen wir im Rahmen des DFG Schwerpunktprogramms 'Climate Engineering' ein Projekt vor, dass unter Bedingungen mit sowohl erhöhtem Wasserdampf als auch erhöhtem Sulfat-Aerosol den Ozonverlust analysiert. Unser Projekt basiert auf verschiedenen Simulationen mit dem drei-dimensionalen Chemie-Transport-Modell CLaMS mit dem Ziel die Details dieses neuen Ozonverlust-Mechanismus zu verstehen und zu quantifizieren. Ferner soll der mögliche Ozonverlustes unter Klima-Engineering-Bedingungen zuverlässig simulieren werden. Ein Algorithmus, der die Abhängigkeit des Ozonverlustes in mittleren Breiten von erhöhtem stratosphärischem Schwefel beschreibt, wird der Klima-Engineering-Community als Basis für weitere ökonomische Analysen zur Verfügung gestellt. Unsere Ergebnisse werden helfen zukünftige Entscheidungen über Klima-Engineering zu bewerten, um mögliche Risiken und Kosten für die Gesellschaft zu minimieren.

BSCALE: Downscaling von Niederschlag: Entwicklung, Kalibrierung und Validierung eines Bayes'schen probabilisitischen Ansatzes.

Downscaling von Atmosphärenmodellausgaben, insbesondere von Niederschlagsdaten, ist erforderlich um Variablen von der niedrigaufgelösten Skala des Modells zur Punktskala des Standortes hin zu transformieren, auf der die entsprechenden Variablen für praktische Anwendungen genutzt werden. Dazu gehören unter anderem, das Füllen von Datenlücken, hydrologische oder glaziologische Anwendungen, Klimaprognosen, Anwendungen in der Bewässerung oder Vorhersagen für Energieversorger. Statistisches Downscaling besteht darin, stochastische Beziehungen zwischen Beobachtungen oder Modellausgaben auf großer Skala, die als Prädiktoren dienen, und die an einem Standort zu schätzende Größe, dem Prädiktand, herzustellen. Die dazu angewandten Beziehungen sind häufig lineare Regressionen, es kommen aber auch nicht-lineare Transformationen, wie nicht-lineare Regressionen oder das Quantile-Matching zur Anwendung. In besagten Fällen wird ein stationärer, homoskedastischer Zusammenhang zwischen stochastischen Variablen angenommen, die zwar den bedingten Erwartungswert, aber nicht die Ränder der Verteilung, welche die meteorologischen Extreme abbilden, adäquat transformieren. Im vorliegendem Antrag wird ein probabilistischer Prozessor für das Downscaling von Niederschlagsdaten als Ansatz vorgeschlagen, der als bedingter Bayesscher Prozessor implementiert wird und die nicht-lineare Umformungen zwischen Prädiktoren von der Meso-Skala hin zur Skala eines Standortes unterstützt. In diesem Zusammenhang werden stochastische Zusammenhänge zwischen Prädiktoren und Prädiktanden im Gaußschen Raum modelliert. Die Methode ermöglicht es, mehrere Indikatoren innerhalb eines räumlichen Fensters von Modellzellen gleichzeitig zu verwenden, und kann auf die Anwendung von Prädiktoren, die von mehreren unterschiedlichen Vorhersagemodellen stammen, ausgeweitet werden. Durch die Anwendung multivariater abgeschnittener Normalverteilungen können auch heteroskedastische Beziehungen von stochastischen Variablen abgebildet, analytisch nach den Prädiktoren marginalisiert und anschließend in den Herkunftsraum zurücktransformiert werden. Das Downscaling der Schätzung des Prädikanten von der Skala der Modellzelle auf den Standort erfolgt anschließend mit Hilfe eines nicht-Markovschen, nicht-stationären stochastischen Wettergenerators. Sowohl der Bayessche Prozessor als auch der stochastische Wettergenerator müssen über ein ausreichend weites Zeitfenster anhand von Beobachtungsreihen und Simulationsergebnissen geeicht und validiert werden.

Räumlich differenzierte Flächenpotentiale für erneuerbare Energien in Deutschland

Der verstärkte Ausbau erneuerbarer Energien ist erklärtes Ziel der Bundesregierung. Das Energiekonzept von 2010 formuliert hierzu Ausbauziele, die den Nutzungsdruck auf die verfügbaren Flächen deutlich erhöhen. Um Konflikte mit anderen Raumnutzungen zu vermeiden, ist es erforderlich, die regionalen Flächenpotenziale für die Nutzung erneuerbarer Energien zu kennen. Nur so kann jeder Raum entsprechend seiner Möglichkeiten optimal genutzt werden. Gegenstand und Zielsetzung: Ziel des Forschungsvorhabens ist die Entwicklung, Erprobung und Anwendung eines praxisgerechten Berechnungsmodells zur Abschätzung der regionalen Flächenpotenziale der verschiedenen EE-Sparten. Hintergrund ist dabei nicht, Vorgaben bezüglich umsetzbarer Flächenpotenziale für Bundesländer oder Regionen zu generieren. Es soll vielmehr ein Beitrag zur Methodenentwicklung und -harmonisierung geleistet werden, der eine transparente Zieldiskussion ermöglicht, die es erlaubt, die raum- und umweltverträgliche Umsetzbarkeit von Beginn an adäquat in den Entscheidungsprozess einzubeziehen. Das Modell soll die Berechnung raum- und umweltverträglicher EE-Flächenpotenziale auf Bundes-, Landes- und regionaler Ebene ermöglichen und hinreichende Einzelfallgerechtigkeit aufweisen. Die Ergebnisse der Analyse sollen die Akteure in die Lage versetzen, Handlungsempfehlungen für den weiteren Ausbau EE formulieren zu können sowie bestehende Zielsetzungen auf ihre Raum- und Umweltverträglichkeit zu prüfen. Dazu soll den Akteuren eine Methodik angeboten werden, die - im Gegensatz zu bestehenden Analyseansätzen - Raumansprüche und Raumwirkungen der einzelnen EE-Sparten in Abhängigkeit von den naturräumlichen Potenzialen sowie von den politischen, rechtlichen und insbesondere planerischen, technischen und wirtschaftlichen Rahmenbedingungen berücksichtigt. Darüber hinaus wird eine flexible Anpassung des Kriterienkatalogs vor dem Hintergrund der Planungsebene sowie der regionalen Eigenschaften ermöglicht. Der Anwender soll mit dem bereitgestellten Grundgerüst der Methodik und mit den Erläuterungen zur ebenenspezifischen Anpassung eigene, regionsspezifische Auswertungen unter Verwendung eigener Restriktionskriterien durchführen können. Das Vorgehen wird anhand der Fallstudien verdeutlicht. Im Ergebnis des Vorhabens werden ein standartisierter Datenkatalog und Hinweise auf weitere, ggf. regional verfügbare Datensätze erarbeitet.

Numerische Untersuchung eines neuen Konzepts zur Lastenkontrolle von Windenergieanlagen in atmosphärischer turbulenter Zuströmung

Um die Energieausbeute zu erhöhen wurden in den vergangenen Jahren Windenergieanlagen mit zunehmend größerem Rotordurchmesser entwickelt. Eine weitere signifikante Vergrößerung der Rotoren erfordert die Entwicklung neuer Konzepte und Technologien, um einen überproportionalen Anstieg von Gewicht und Herstellungskosten zu vermeiden und die Energie-Erzeugungskosten zu senken. Das gemeinsame Ziel des Forschungsschwerpunktes besteht in der Entwicklung und Bewertung innovativer Konzepte zur Lastenkontrolle. Im beantragten Teilvorhaben soll eine hochgenaue CFD-basierte Berechnungskette weiterentwickelt und zur Berechnung der instationären Lasten einer Windenergieanlage mit bzw. ohne aktivierter Lastenkontrolle angewendet werden. Dabei soll eine realitätsnahe atmosphärische Zuströmung mit zeitlich aufgelöster Turbulenz betrachtet werden. Die Komplexität der betrachteten Konfiguration sowie der Zuströmung wird dabei sukzessive erhöht, um spezifische Einflüsse gezielt untersuchen zu können, Vergleiche mit Windkanalversuchen der Univ. Oldenburg und der TU Darmstadt zu ermöglichen und schließlich Daten zur Verbesserung vereinfachter Berechnungsverfahren der TU Berlin und der TU Darmstadt zu liefern. Da sich die Windkanalversuche nur im Modellmaßstab durchführen lassen wird das entwickelte numerische Verfahren zur Bewertung der Wirksamkeit des Lastenkontrollkonzepts für eine generische Anlage im Original-Maßstab unter atmosphärischen Bedingungen genutzt.

Leistungsoptimierte Lithium-lonen Batterien

Der schnelle Fortschritt der elektronischen Geräte erhöht die Nachfrage nach verbesserten Li-Ionen Batterien. Kommerziell erhältliche Li-Zellen nutzen meist Lithiumkobaltoxid für die positive Elektrode. Doch gerade dieses Material ist ein Hindernis für eine weitere Optimierung, insbesondere für eine Kostensenkung. Vor allem für größere Anwendungen wie Hybrid- oder Elektrofahrzeuge müssen alternative Materialen erforscht werden, die billiger, sicherer und umweltverträglicher sind. Daher wird im ISEA derzeit ein neues Forschungsprojekt ins Leben gerufen und die dafür benötigte Infrastruktur geschaffen. Die Forschung wird sich auf die Untersuchung geeigneter Übergangsmetalloxide und Polyanionen konzentrieren, die besonders gut zur Einlagerung von Li-Ionen geeignet sind. Es werden neue Herstellungsverfahren unter Verwendung wässriger Precurser-Substanzen untersucht, die Verbindungen mit überlegenen Eigenschaften erzeugen und außerdem leicht an eine Massenproduktion angepasst werden können. Ziel der Arbeiten ist, preisgünstiges Elektrodenmaterial zu entwickeln, das eine spezifische Energie von über 200 Wh/kg und eine Leistungsdichte von 400 W/kg aufweist. Außerdem werden Arbeiten im Bereich der physikalisch-chemischen Charakterisierung der neuen Materialien stattfinden sowie elektrochemische Analysen der gesamten Zellen- und Batteriesysteme durchgeführt. Das elektrodynamische Verhalten der neuen Zellen wird u. a. mit Hilfe der elektrochemischen Impedanzspektroskopie analysiert, um präzise und zuverlässige Algorithmen für ein späteres Batteriemonitoring im realen Betrieb zu finden.

1 2 3 4 5475 476 477