API src

Found 988 results.

Related terms

Gewässergüte (Chemie) 2001

Temperatur (02.01.2) Die Temperatur ist eine bedeutende Einflussgröße für alle natürlichen Vorgänge in einem Gewässer. Biologische, chemische und physikalische Vorgänge im Wasser sind temperaturabhängig , z.B. Zehrungs- und Produktionsprozesse, desgleichen Adsorption und Löslichkeit für gasförmige, flüssige und feste Substanzen. Dies gilt auch für Wechselwirkungen zwischen Wasser und Untergrund oder Schwebstoffen und Sedimenten sowie zwischen Wasser und Atmosphäre. Die Lebensfähigkeit und Lebensaktivität der Wasserorganismen sind ebenso an bestimmte Temperaturgrenzen oder -optima gebunden wie das Vorkommen unterschiedlich angepasster Organismenarten und Fischbesiedelungen nach Flussregionen in Mitteleuropa. Die Darstellung der Heizkraftwerke in der Karte sowie deren Einfluss auf die Gewässertemperatur sind bei der Betrachtung zu berücksichtigen. Aus der Temperaturverteilungskarte wird deutlich sichtbar, dass die Wärmeeinleitungen in die Berliner Gewässer in den letzten Jahren rückläufig war, vor allem im Bereich der Spreemündung und der Havel. Die kritische Schwelle von 28° C wurde nicht überschritten, die Maxima bzw. 95-Perzentile liegen im Bereich um 25° C. Ende der neunziger Jahre wurden sporadisch noch Temperaturen über 28° C gemessen. Der Rückgang der Wärmefrachten der Berliner Kraftwerke in die Gewässer beträgt seit 1993 ca. 13 Mio. GJ und ist im Wesentlichen auf den Anschluss des Berliner Stromnetzes an das westeuropäische Verbundnetz zurückzuführen. Durch die Liberalisierung des Strommarktes bedingte sinkende Strombeschaffungskosten und damit verbundene geringere Erzeugung in den Berliner Kraftwerken hat zur Stilllegung bzw. Teilstilllegung von Kraftwerken geführt, die zum Teil mit Modernisierungen zur Effizienzsteigerung verbunden waren. Die derzeitige Wärmefracht beträgt ca. 10 Mio. GJ. Sauerstoffgehalt (02.01.1) Der Sauerstoffgehalt des Wassers ist das Ergebnis sauerstoffliefernder und -zehrender Vorgänge . Sauerstoff wird aus der Atmosphäre eingetragen, wobei die Sauerstoffaufnahme vor allem von der Größe der Wasseroberfläche, der Wassertemperatur, dem Sättigungsdefizit, der Wasserturbulenz sowie der Luftbewegung abhängt. Sauerstoff wird auch bei der Photosynthese der Wasserpflanzen freigesetzt, wodurch Sauerstoffübersättigungen auftreten können. Beim natürlichen Abbau organischer Stoffe im Wasser durch Mikroorganismen sowie durch die Atmung von Tieren und Pflanzen wird Sauerstoff verbraucht . Dies kann zu Sauerstoffmangel im Gewässer führen. Der kritische Wert liegt bei 4 mg/l, unterhalb dessen empfindliche Fischarten geschädigt werden können. Sowohl aus den Werten der Messstationen als auch aus den Stichproben ist eine Verbesserung des Sauerstoffgehaltes der Berliner Gewässer nur teilweise ablesbar. Kritisch sind nach wie vor die Gewässer, in die Mischwasserüberläufe stattfinden. In der Mischwasserkanalisation werden Regenwasser und Schmutzwasser in einem Kanal gesammelt und über Pumpwerke zu den Klärwerken gefördert. Dieses Entwässerungssystem ist in der gesamten Innenstadt Berlins präsent. (vgl. Karte 02.09) Im Starkregenfall reicht die Aufnahmekapazität der Mischkanalisation nicht aus und das Gemisch aus Regenwasser und unbehandeltem Abwasser tritt in Spree und Havel über. Infolge dessen kann es durch Zehrungsprozesse zu Sauerstoffdefiziten kommen. Besonders extreme Ereignisse lösen in einigen Gewässerabschnitten (v.a. Landwehrkanal und Neuköllner Schifffahrtskanal) sogar Fischsterben aus. Um die Überlaufmengen künftig deutlich zu verringern, werden im Rahmen eines umfassenden Sanierungsprogramms zusätzliche unterirdische Speicherräume aktiviert bzw. neu errichtet. Die kritischen Situationen im Tegel Fließ sind auf nachklingende Rieselfeldeinflüsse bzw. Landwirtschaft zurückzuführen. TOC (02.01.10) und AOX (02.01.7) Die gesamtorganische Belastung in Oberflächengewässern wird mit Hilfe des Leitparameters TOC (total organic carbon) ermittelt. Die Summe der “Adsorbierbaren organisch gebundenen Halogene” wird über die AOX -Bestimmung wiedergegeben. Bei der Bestimmung des Summenparameters AOX werden die Halogene (AOJ, AOCl, AOBr) in einer Vielfalt von Stoffen mit ganz unterschiedlichen Eigenschaften erfasst. Dieser Parameter dient insofern weniger der ökotoxikologischen Gewässerbewertung, sondern vielmehr in der Gewässerüberwachung dem Erfolgsmonitoring von Maßnahmen zur Reduzierung des Eintrags an “Adsorbierbaren organisch gebundenen Halogenen”. Beide Messgrößen lassen prinzipiell keine Rückschlüsse auf Zusammensetzung und Herkunft der organischen Belastung zu. Erhöhte AOX – Befunde in städtischen Ballungsräumen wie Berlin dürften jedoch einem vornehmlich anthropogenen Eintrag über kommunale Kläranlagen zuzuschreiben sein. TOC-Einträge können sowohl anthropogenen Ursprungs als auch natürlichen Ursprungs z.B. durch den Eintrag von Huminstoffen aus dem Einzugsgebiet bedingt sein, was die ökologische Aussagefähigkeit des Parameters teilweise einschränkt. Bewertungsmaßstab ist für beide Messgrößen das 90-Perzentil. Unter Anwendung dieses strengen Maßstabs wird die Zielgröße Güteklasse II für den TOC bereits in den Zuflüssen nach Berlin und im weiteren Fließverlauf durch die Stadt in sämtlichen Haupt- und Nebenfließgewässern überschritten . Für AOX liegen die Messwerte nicht durchgängig für alle Fließabschnitte der Berliner Oberflächengewässer vor. Dennoch lässt sich ableiten, dass lediglich in den Gewässerabschnitten, die unmittelbar den Klärwerkseinleitungen ausgesetzt sind (Neuenhagener Fließ, Wuhle, Teltowkanal, Nordgraben), leicht erhöhte AOX – Messwerte auftreten und die Zielvorgabe knapp überschritten wird (Güteklasse II bis III). Ammonium-Stickstoff (02.01.3), Nitrit-Sickstoff (02.01.5), Nitrat-Stickstoff (02.01.4) Stickstoff tritt im Wasser sowohl molekular als Stickstoff (N 2 ) als auch in anorganischen und organischen Verbindungen auf. Organisch gebunden ist er überwiegend in pflanzlichem und tierischem Material (Biomasse) festgelegt. Anorganisch gebundener Stickstoff kommt vorwiegend als Ammonium (NH 4 ) und Nitrat (NO 3 ) vor. In Wasser, Boden und Luft sowie in technischen Anlagen (z.B. Kläranlagen) finden biochemische (mikrobielle) und physikalisch-chemische Umsetzungen der Stickstoffverbindungen statt (Oxidations- und Reduktionsreaktionen). Eine Besonderheit des Stickstoffeintrages ist die Stickstofffixierung, eine biochemische Stoffwechselleistung von Bakterien und Blaualgen (Cyanobakterien), die molekularen gasförmigen Stickstoff aus der Atmosphäre in den Stoffwechsel einschleusen können. Innerhalb Berlins ist der Eintrag über die Kläranlagen die Hauptbelastungsquelle . Durch die Regenentwässerungssysteme werden sporadisch kritische Ammoniumeinträge verursacht. Ammonium kann in höheren Konzentrationen erheblich zur Belastung des Sauerstoffhaushalts beitragen, da bei der mikrobiellen Oxidation (Nitrifikation) von 1 mg Ammonium-Stickstoff zu Nitrat rd. 4,5 mg Sauerstoff verbraucht werden. Dieser Prozess ist allerdings stark temperaturabhängig. Erhebliche Umsätze erfolgen nur in der warmen Jahreszeit . Bisweilen überschreitet die Sauerstoffzehrung durch Nitrifikationsvorgänge die durch den Abbau von Kohlenstoffverbindungen erheblich. Toxikologische Bedeutung kann das Ammonium bei Verschiebung des pH-Wertes in den alkalischen Bereichen erlangen, wenn in Gewässern mit hohen Ammoniumgehalten das fischtoxische Ammoniak freigesetzt wird. Nitrit-Stickstoff tritt als Zwischenstufe bei der mikrobiellen Oxidation von Ammonium zu Nitrat ( Nitrifikation ) auf. Nitrit hat eine vergleichsweise geringere ökotoxikologische Bedeutung. Mit zunehmender Chloridkonzentration verringert sich die Nitrit-Toxizität bei gleichem pH-Wert. Während für die Spree, Dahme und Havel im Zulauf nach Berlin die LAWA – Qualitätsziele (Güteklasse II) für NH 4 -N eingehalten werden, werden die Ziele überall dort überschritten, wo Gewässer dem Ablauf kommunaler Kläranlagen und Misch- und Regenwassereinleitungen ausgesetzt sind. Die Ertüchtigung der Nitrifikationsleistungen in den Klärwerken der Berliner Wasserbetriebe seit der Wende führte stadtweit zu einer signifikanten Entlastung der Gewässer mit Gütesprüngen um drei bis vier Klassen . Viele Gewässerabschnitte konnten den Sprung in die Güteklasse II schaffen. Die Werte für die Wuhle und in Teilen für die Vorstadtspree sind für den jetzigen Zustand nicht mehr repräsentativ, da mit der Stilllegung des Klärwerkes Falkenberg im Frühjahr 2003 eine signifikante Belastungsquelle abgestellt wurde. Mit der Stillegung des Klärwerkes Marienfelde (Teltowkanal, 1998) und der Ertüchtigung von Wassmansdorf konnte die hohe Belastung des Teltowkanals ebenfalls deutlich reduziert werden. Das Neuenhagener Mühlenfließ ist nach wie vor sehr hoch belastet. Hier besteht Handlungsbedarf beim Klärwerk Münchehofe . Die Stadtspree (von Köpenick bis zur Mündung in die Havel) weist durchgängig die Güteklasse II bis III auf und verfehlt damit die LAWA – Zielvorgabe ebenso wie die Unterhavel , der Teltowkanal und die mischwasserbeeinflussten innerstädtischen Kanäle . In 2001 ist eine Überschreitung der LAWA – Zielvorgabe für Nitrit-Stickstoff (90-Perzentil) in klärwerksbeeinflussten Abschnitten von Neuenhagener Fließ und Wuhle (s. Anmerkung oben) sowie in drei Abschnitten des Teltowkanals zu verzeichnen. Die Nitratwerte der Berliner Gewässer sind durchgehend unkritisch. Chlorid (02.01.8) In den Berliner Gewässern liegt der natürliche Chloridgehalt unter 60 mg/l. Anthropogene Anstiege der Chloridkonzentration erfolgen durch häusliche und industrielle Abwässer sowie auch durch Streusalz des Straßenwinterdienstes. Einem typischen Jahresverlauf unterliegt das Chlorid durch den sommerlichen Rückgang des Spreewasserzuflusses und der damit verbundenen Aufkonzentrierung in der Stadt. Bei Chloridwerten über 200 mg/l können für die Trinkwasserversorgung Probleme auftauchen. Die Chloridwerte der Berliner Gewässer stellen kein gewässerökologisches Problem dar. Sulfat (02.01.9) Der Beginn anthropogener Beeinträchtigungen im Berliner Raum wird mit etwa 120 mg/l angegeben. Die Güteklasse II (< 100 mg/l) kann somit für unsere Region nicht Zielgröße sein. Die Bedeutung des Parameters Sulfat liegt im Spree-Havel-Raum weniger in seiner ökotoxikologischen Relevanz, als vielmehr in der Bedeutung für die Trinkwasserversorgung. Der Trinkwassergrenzwert liegt bei 240 mg/l (v.a. Schutz der Nieren von Säuglingen vor zu hoher Salzfracht). Die Zuläufe nach Berlin weisen Konzentrationen von 150 bis 180 mg/l auf. Hier ist in Zukunft mit einer Zunahme der Sulfatfracht aus den Bergbauregionen der Lausitz zu rechnen. Folgende Einträge in die Gewässer sind im Spreeraum von Relevanz: Eintrag über Sümpfungswässer aus Tagebauen Direkter Eintrag aus Tagebaurestseen, die zur Wasserspeicherung genutzt werden indirekter Eintrag über Grundwässer aus Tagebaugebieten Einträge des aktiven Bergbaus Atmosphärischer Schwefeleintrag (Verbrennung fossiler Brennstoffe) Diffuse und direkte Einträge (Kläranlageneinleitungen, Abschwemmungen, Landwirtschaft) In gewässerökologischer Hinsicht können erhöhte Sulfatkonzentrationen eutrophierungsfördernd sein. Sulfat kann zur Mobilisierung von im Sediment festgelegten Phosphor führen. Gesamt-Phosphor (02.01.6) Phosphor ist ein Nährstoffelement, das unter bestimmten Bedingungen Algenmassenentwicklungen in Oberflächengewässern verursachen kann (nähere Erläuterungen siehe Karte 02.03). Unbelastete Quellbäche weisen Gesamt-Phosphorkonzentrationen von weniger als 1 bis 10 µg/l P, anthropogen nicht belastete Gewässeroberläufe in Einzugsgebieten mit Laubwaldbeständen 20-50 µg/l P auf. Die geogenen Hintergrundkonzentrationen für die untere Spree und Havel liegen in einem Bereich um 60 bis 90 µg/l P. Auf Grund der weitgehenden Verwendung phosphatfreier Waschmittel und vor allem auch der fortschreitenden Phosphatelimination bei der Abwasserbehandlung ist der Phosphat-Eintrag über kommunale Kläranlagen seit 1990 deutlich gesunken , vor allem in den Jahren bis 1995. Der Eintrag über landwirtschaftliche Flächen ist ebenfalls rückgängig. Die Phosphorbelastung der Berliner Gewässer beträgt für den Zeitraum 1995-1997: Zuflüsse nach Berlin 188 t/a Summe Kläranlagen 109 t/a Misch- und Trennkanalisation 38 t/a Summe Zuflüsse und Einleitungen 336 t/a Summe Abfluss 283 t/a In den Zuflüssen nach Berlin überwiegen die diffusen Einträge mit ca. 60 %. Der Grundwasserpfad ist mit ca.50 % der dominante Eintragspfad (diffuser Eintrag 100 %). Beim Gesamtphosphor wird der Mittelwert der entsprechenden Jahre zugrundegelegt. Deutlich wird die erhöhte P-Belastung der Berliner Gewässer etwa um den Faktor 2 bis 3 über den Hintergrundwerten. Eine Ausnahme bildet der Tegeler See . Der Zufluss zum Hauptbecken des Tegeler Sees wird über eine P-Eliminationsanlage geführt und somit der Nährstoffeintrag in den See um ca. 20 t/a entlastet.

Heat flux and energy balance data of an arctic thermokarst lake

TableOfContents

Cruise EMB265 - Three-dimensional acoustic mapping of small-scale physical processes in the North Sea and Baltic Sea

During this short cruise, we explored the potential of acoustic echo sounding techniques (wideband single-beam and multibeam systems) for the quantitative investigation of turbulence and other small-scale processes in the water column. These activities were embedded in the research project „Four dimensional Research applying Modeling and Observations for the Sea and Atmosphere“ (FORMOSA), funded by the German Leibniz-Association (WGL) in the framework of the national funding line “Cooperative Excellence”. The cruise took place in May 2021 in the Kattegat region and the western Baltic Sea (Arkona Basin). Our activities focused on the mixing of salty North Sea waters and brackish outflow waters from the Baltic Sea in the Kattegat region with the help of turbulence microstructure and acoustic observations. Measurements were conducted by scientists from IOW in collaboration with project partners from Stockholm University (Sweden) and an additional engineering group from Rostock University (Germany).

TrilaWatt: Use-Cases

Im Forschungsprojekt TrilaWatt (Digitaler hydromorphologischer Zwilling des trilateralen Wattenmeers) wurden durch die Integration und Analyse von Geodaten konsistente Basisdaten zur Bathymetrie, Sedimentologie, Hydrodynamik und Morphodynamik entwickelt. Die Erstellung dieser Daten wurde mit praxisnahen Use-Cases, die im Laufe des Projekts mit externen Partnern entstanden sind, begleitet. Use-Cases existieren beispielsweise im Bereich der wissenschaftlichen Küstenforschung, in der Unterstützung von Bau- und Entwicklungsprojekten im Küstenbereich sowie in der Umweltüberwachung bzw. im Naturschutz. Datenprodukte aus TrilaWatt führen im Bereich der Deutschen Bucht die Zeitreihe des Projekts EasyGSH-DB (Link, 1996 - 2015) bis einschl. 2021 fort. Alle Daten sind kostenfrei nach den FAIR Grundsätzen "Findable, Accessible, Interoperable, Re-Usable" auffindbar und referenzierbar. Langzeitdaten tragen zum Systemverständnis der hydromorphologischen und physikalischen Prozesse im trilateralen Wattenmeer bei. Dieser Metadatensatz ist der Elterndatensatz für alle in TrilaWatt entwickelten Use-Cases. Jeder Use-Case enthält dokumentierte Projektbeschreibungen zum Bedarf bzw. der Relevanz, neuer Methodik, der Durchführung und neuen Datenprodukten. English: Data products from the digital twin of the trilateral Wadden Sea are used in scientific coastal research, for planning and evaluation of construction and development projects in coastal areas, environmental monitoring and nature conservation. By integrating and analyzing extensive consistent data on bathymetry, sedimentology, hydrodynamics and morphodynamics, the digital twin enables reliable statements to be made about physical processes and developments. Data products from TrilaWatt continue the time series of the EasyGSH-DB project (Link, 1996 - 2015) in the German Bight up to and including 2021. All data can be found and referenced free of charge in accordance with the FAIR principles “Findable, Accessible, Interoperable, Re-Usable”. This metadata set is the parent to all documented use cases. The metadata of the individual use cases include descriptions on methodology, data requirements and implementation.

Linking remote sensing and geodiversity and their traits relevant to biodiversity

In the face of rapid global change it is imperative to preserve geodiversity for the overall conservation of biodiversity. Geodiversity is important for understanding complex biogeochemical and physical processes and is directly and indirectly linked to biodiversity on all scales of ecosystem organization. Despite the great importance of geodiversity, there is a lack of suitable monitoring methods. Compared to conventional in-situ techniques, remote sensing (RS) techniques provide a pathway towards cost-effective, increasingly more available, comprehensive, and repeatable, as well as standardized monitoring of continuous geodiversity on the local to global scale. This paper gives an overview of the state-of-the-art approaches for monitoring soil characteristics and soil moisture with unmanned aerial vehicles (UAV) and air- and spaceborne remote sensing techniques. Initially, the definitions for geodiversity along with its five essential characteristics are provided, with an explanation for the latter. Then, the approaches of spectral traits (ST) and spectral trait variations (STV) to record geodiversity using RS are defined. LiDAR (light detection and ranging), thermal and microwave sensors, multispectral, and hyperspectral RS technologies to monitor soil characteristics and soil moisture are also presented. Furthermore, the paper discusses current and future satellite-borne sensors and missions as well as existing data products. Due to the prospects and limitations of the characteristics of different RS sensors, only specific geotraits and geodiversity characteristics can be recorded. The paper provides an overview of those geotraits. Quelle: https://www.mdpi.com

Oberflächentemperaturen bei Tag und Nacht 2000

Die Einbeziehung klimatologischer Gesichtspunkte in die Bewertung der Umweltsituation städtischer Ballungsgebiete und deren räumliche Planung setzt zunächst eine Definition des Begriffes Stadtklima voraus. Unter Stadtklima versteht man nach Schirmer et al. (1987) “das gegenüber dem Umland stark modifizierte Mesoklima von Städten und Industrieballungsräumen. Es umfasst das gesamte Volumen der bodennahen Luftschicht oberhalb und in unmittelbarer Umgebung der Stadt bzw. der städtischen Grenzschicht. Verursacht wird es durch die Art und Dichte der Bebauung, das Wärmespeicherungsvermögen der Baustoffe, die Versiegelung des Bodens, das Fehlen von Vegetation, durch einen veränderten Wasserhaushalt und die vermehrte Emission von Abgasen, Aerosolen und Abwärme.” Bewertungs- und Untersuchungsansätze Für die Bewertung der jeweiligen Klimasituation fehlen verbindliche Grenz- und Richtwerte analog den Luftgüte-Werten des Bundes-Immissionsschutz-Gesetzes. Empfehlenden Charakter besitzt eine Richtlinie der Kommission Reinhaltung der Luft im VDI (vgl. Verein Deutscher Ingenieure (VDI) 3787 Blatt 2 1998). Diese hat das Ziel, Bewertungsverfahren der Human-Biometeorologie als Standard für die auf Menschen bezogene Berücksichtigung von Klima und Lufthygiene (Bioklima) bei der Stadt- und Regionalplanung bereitzustellen. Die Human-Biometeorologie beschäftigt sich mit den Wirkungen von Wetter, Witterung, Klima und Lufthygiene auf den menschlichen Organismus. Im vorliegenden ersten Teil dieser Richtlinie werden die human-biometeorologischen Wirkungskomplexe zusammengestellt und die empfohlenen Bewertungsmethoden für den Bereich “Klima” erläutert. Insbesondere steht hierbei der thermische Wirkungskomplex im Vordergrund, der in der Stadt- und Regionalplanung mit dem Ziel eingesetzt werden soll, gesunde Wohn- und Arbeitsbedingungen zu sichern. Mit seiner Hilfe können planerische Fragestellungen aus bioklimatologischer Sicht behandelt werden. Als Idealzustand sollte ein Stadtklima angestrebt werden, das weitgehend frei von Schadstoffen ist und den Stadtbewohnern eine möglichst große Vielfalt an Atmosphärenzuständen unter Vermeidung von Extremen bietet (vgl. Deutsche Meteorologische Gesellschaft 1989). Zur Erfassung des städtischen Klimas bietet sich neben der Anwendung der Methoden der klassischen klimatologischen Forschung mit Messfahrten und Messgängen (vgl. Karten 04.02 – 04.05) auch die Berechnung der Temperaturen der einzelnen Oberflächenelemente (Dächer, Straßen, Baumkronen usw.) mittels Thermal-Infrarot (IR)-Rasteraufnahmen an. Dabei wird von dem physikalischen Prinzip ausgegangen, dass alle Körper entsprechend ihrer Oberflächentemperatur Wärmestrahlung abgeben (vgl. Methode). Indikatoren Als Steuerungsgröße für den Wärmehaushalt der Erdoberfläche kommt der Wärmestrahlung und damit der Oberflächentemperatur als Bestandteil der Strahlungsbilanz jedes Körpers eine große Bedeutung zu. Während tagsüber der kurzwellige Strahlungsbereich vor allem mit der direkten Einstrahlung der Sonnenenergie und ihrer Absorption bzw. Reflexion (Albedo, vgl. Tab. 1) an der Körperoberfläche bestimmend ist, beeinflusst nachts der langwellige Bereich mit dem Bodenwärmestrom ausschließlich das thermische Ausstrahlungsverhalten eines Körpers. Je nach Art und Beschaffenheit von Oberflächen ergeben sich deshalb bei gleichen Einstrahlungs- und Ausstrahlungsbedingungen u.U. erhebliche Unterschiede in der Oberflächentemperatur (vgl. Abb. 1). Digitale Thermalkarten Für (städtische) Klimaanalysen liegt der wesentliche Nutzen von Thermalkarten in ihrem flächenhaften, digital verarbeitbaren Informationsgehalt . Es ist zu unterscheiden zwischen Infrarot-Aufnahmen mit Thermal-Scannern von Flugzeugen aus und den für die vorliegenden Karten benutzten Satellitendaten . Unter Berücksichtigung der Größe Berlins und des engeren Verflechtungsraumes von fast 2 000 km² ermöglicht nur ein satellitengestütztes Verfahren die jeweils fast zeitgleiche Erfassung der langwelligen Eigenstrahlung der Erde (Oberflächentemperatur) in einer aufeinanderfolgenden Nacht-/Tagsituation. Andererseits sind die Überfliegungszeiten des Satelliten nicht beeinflussbar und in diesem Falle für den Berliner Raum als nicht optimal einzuschätzen (vgl. Datengrundlage). Die Interpretation der IR-Thermalbilder erlaubt es, einzelnen Oberflächenelementen und Raumeinheiten über die spezielle erfasste Situation hinaus qualitativ allgemeine thermische Eigenschaften zuzuordnen. Diese Umsetzung setzt jedoch großes klimatisches Fachwissen und die Nutzung weiterer Datengrundlagen wie Nutzungs- und Reliefkarten voraus, da die Ausprägung der Oberflächentemperatur verschiedener Nutzungsstrukturen im Rasterbild stets das Ergebnis komplexer physikalischer Prozesse ist, an denen verschiedene horizontale und vertikale Wärmeflüsse und Energieumsätze (Verdunstung, Kondensation) beteiligt sind. Unter Einbeziehung weiterer klimatologischer Parameter wie Lufttemperatur und Windgeschwindigkeit können Oberflächentemperaturkarten zusätzlich als Unterstützung für die Bestimmung von Klimafunktionsräumen herangezogen werden (vgl. Karte 04.07).

Oberflächentemperaturen bei Tag und Nacht 1991

Die Einbeziehung klimatologischer Gesichtspunkte in die Bewertung der Umweltsituation städtischer Ballungsgebiete und deren räumliche Planung setzt zunächst eine Definition des Begriffes Stadtklima voraus. Unter Stadtklima versteht man nach Schirmer et al. (1987) “das gegenüber dem Umland stark modifizierte Mesoklima von Städten und Industrieballungsräumen. Es umfasst das gesamte Volumen der bodennahen Luftschicht oberhalb und in unmittelbarer Umgebung der Stadt bzw. der städtischen Grenzschicht. Verursacht wird es durch die Art und Dichte der Bebauung, das Wärmespeicherungsvermögen der Baustoffe, die Versiegelung des Bodens, das Fehlen von Vegetation, durch einen veränderten Wasserhaushalt und die vermehrte Emission von Abgasen, Aerosolen und Abwärme.” Für die Bewertung der jeweiligen Klimasituation fehlen verbindliche Grenz- und Richtwerte. Als Idealzustand sollte ein Stadtklima angestrebt werden, das weitgehend frei von Schadstoffen ist und den Stadtbewohnern eine möglichst große Vielfalt an Atmosphärenzuständen unter Vermeidung von Extremen bietet (vgl. Deutsche Meteorologische Gesellschaft 1989). Zur Erfassung des städtischen Klimas bietet sich neben der Anwendung der Methoden der klassischen klimatologischen Forschung mit Messfahrten und Messgängen (vgl. Karten 04.02 – 04.05) auch die Berechnung der Temperaturen der einzelnen Oberflächenelemente (Dächer, Straßen, Baumkronen usw.) mittels Thermal-Infrarot(IR)-Rasteraufnahmen an. Dabei wird von dem physikalischen Prinzip ausgegangen, dass alle Körper entsprechend ihrer Oberflächentemperatur Wärmestrahlung abgeben (vgl. Methode). Als Steuerungsgröße für den Wärmehaushalt der Erdoberfläche kommt der Wärmestrahlung und damit der Oberflächentemperatur als Bestandteil der Strahlungsbilanz jedes Körpers eine große Bedeutung zu. Während tagsüber der kurzwellige Strahlungsbereich vor allem mit der direkten Einstrahlung der Sonnenenergie und ihrer Absorption bzw. Reflexion (Albedo, vgl. Tab.1) an der Körperoberfläche bestimmend ist, beeinflusst nachts der langwellige Bereich mit dem Bodenwärmestrom ausschließlich das thermische Ausstrahlungsverhalten eines Körpers. Je nach Art und Beschaffenheit von Oberflächen ergeben sich deshalb bei gleichen Einstrahlungs- und Ausstrahlungsbedingungen u.U. erhebliche Unterschiede in der Oberflächentemperatur (vgl. Abb.1). Für (städtische) Klimaanalysen liegt der wesentliche Nutzen von Thermalkarten in ihrem flächenhaften, digital verarbeitbaren Informationsgehalt . Es ist zu unterscheiden zwischen Infrarot-Aufnahmen mit Thermal-Scannern von Flugzeugen aus und den für die vorliegenden Karten benutzten Satellitendaten . Unter Berücksichtigung der Größe Berlins und des engeren Verflechtungsraumes von fast 2 000 km2 ermöglicht nur ein satellitengestütztes Verfahren die jeweils fast zeitgleiche Erfassung der langwelligen Eigenstrahlung der Erde (Oberflächentemperatur) in einer aufeinanderfolgenden Nacht-/Tagsituation. Andererseits sind die Überfliegungszeiten des Satelliten nicht beeinflussbar und in diesem Falle für den Berliner Raum als nicht optimal einzuschätzen (vgl. Datengrundlage). Die Interpretation der IR-Thermalbilder erlaubt es, einzelnen Oberflächenelementen und Raumeinheiten über die spezielle erfasste Situation hinaus qualitativ allgemeine thermische Eigenschaften zuzuordnen. Diese Umsetzung setzt jedoch großes klimatisches Fachwissen und die Nutzung weiterer Datengrundlagen wie Nutzungs- und Reliefkarten voraus, da die Ausprägung der Oberflächentemperatur verschiedener Nutzungsstrukturen im Rasterbild stets das Ergebnis komplexer physikalischer Prozesse ist, an denen verschiedene horizontale und vertikale Wärmeflüsse und Energieumsätze (Verdunstung, Kondensation) beteiligt sind. Unter Einbeziehung weiterer klimatologischer Parameter wie Lufttemperatur und Windgeschwindigkeit können Oberflächentemperaturkarten zusätzlich als Unterstützung für die Bestimmung von Klimafunktionsräumen herangezogen werden (vgl. Karte 04.07).

Numerische Modelle in den Sicherheitsuntersuchungen für die Endlagersuche (PDF)

Numerische Modelle in den Sicherheitsuntersuchungen für die Endlagersuche Dr. Christoph Behrens, Merle Bjorge, Alexander Renz, Paulina Müller, Dr. Marlene Gelleszun, Dr. Shorash Miro, Dr. Robert Seydewitz, Dr. Phillip Kreye, Dr. Wolfram Rühaak / Bereich Standortauswahl 1. Numerische Modelle 2. Der Nutzen von Modellen Numerische Modelle, insbesondere Modelle von physikalischen Prozessen, spielen eine wichtige Rolle bei der Bewertung der Sicherheit eines Endlagerstandorts, so auch bei den Sicherheitsuntersuchungen im Standortauswahlverfahren zur Ermittlung eines Standorts für die Endlagerung hochradioaktiver Abfälle in Deutschland (StandAG; Hoyer et al. 2021). Modelle bilden die Realität zu einem gewissen Grad ab (Abb. 1) und ermöglichen es so, in vielfältiger Weise etwas über die realen Systeme zu erfahren – häufig in Form einer Prognose. Sie werden beispielsweise dafür verwendet, den Transport von Radionukliden im Untergrund quantitativ zu beschreiben (Behrens et al. 2023, Schafmeister & Schäfer 2024), tiefe Grundwasserströmungen in einem Gebiet abzubilden, oder die geomechanische Integrität der geologischen und geotechnischen Barrieren zu bewerten. In Behrens et al. 2024 diskutieren wir die prinzipiellen Möglichkeiten und Grenzen solcher Modelle. Abb. 2: Inverse Modellierung. Quelle: Behrens et al. 2024 Die epistemische Nützlichkeit eines Modells hängt eng mit seinem Modell- oder Verwendungszweck zusammen. Modelle können in unterschiedlicher Weise nützlich sein; zum einen können Modelle zur Prognose genutzt werden, andererseits können sie das Systemverständnis als solches verbessern (Abb. 2). Weiterhin können sie im Rahmen der sogenannten inversen Modellierung auch genutzt werden, um Wissen über zuvor unbekannte Systemparameter zu gewinnen. Bei der Verwendung von Modellen ist immer zu berücksichtigen, unter welchen Rahmenbedingungen und zu welchem Zweck ein bestimmtes Modell entwickelt wurde, um eine Über- oder Fehlinterpretation zu vermeiden. Abb. 1: Betrachtete Modelltypen. Quelle: Behrens et al. 2024 3. Transparente Modelle Das Standortauswahlverfahren in Deutschland legt einen besonders starken Fokus auf Transparenz und Nachvollziehbarkeit seitens der Öffentlichkeit. Dieser Fokus ist sowohl im Standortauswahlgesetz verankert, als auch Teil des Selbstverständnisses der BGE als Vorhabenträgerin. Der Transparenzanspruch betrifft auch numerische Modelle, besonders insofern sie entscheidungsrelevante Informationen liefern. Die Konzepte Open-Source und Open-Data, die in den Fachwissenschaften große Verbreitung finden, können ihren Beitrag dazu leisten, den Transparenzgedanken mit Leben zu füllen. Beide Konzepte betreffen numerische Modelle in unterschiedlicher Weise. Open-Source: Der Programmcode, der das numerische Modell implementiert, stellt Software dar, die Gegenstand einer Open-Source- Veröffentlichung sein kann. Allgemeiner können Auswertungen und/oder Auswerteskripte, Diagramme und Tabellen, die in der Analyse von Modellergebnissen relevant sind, im Sinne von Open-Science veröffentlicht werden. Insbesondere im Kontext von Reproducible Science stellt sich auch die Frage nach der Langzeitarchivierung von Code. Abb. 4: Ein vereinfachtes Beispiel für Transparenz in der Parameterbelegung. Verändert nach: Behrens et al. 2024 Forschungsprojekte, die von der BGE beauftragt wurden bzw. werden, sind darauf ausgelegt, eine nachhaltige Nutzung von Software und Ergebnissen zu gewährleisten (Abb. 5). Eine weitgehende Veröffentlichung von Methoden und Daten wird auch hier angestrebt. Abb. 3: Symbolbild Transparentes Modell. Quelle: BGE Auch proprietäre Software kann unter gewissen Umständen relativ transparent eingesetzt werden. Dies ist insbesondere dann der Fall, wenn die Aus- und Eingabeformate der jeweiligen Software interoperabel gestaltet sind, also auch mit Open-Source-Software gelesen werden können. Das Ziel eines vollständig transparenten Modells (Abb. 3) ist zunächst ein Idealbild, dessen Verwirklichung eine komplexe Aufgabe darstellt. Dies betrifft auf der einen Seite die Veröffentlichung von Code und Daten selbst (s. etwa OpenWorkflow-Projekt, Lehmann et al. 2024), und auf der anderen Seite auch die begleitende Kommunikation für unterschiedliche Zielgruppen.Abb. 5: Beispielbild aus dem Forschungsprojekt Open Workflow: numerische Simulation (FEM) eines 3D-Viertelmodells der vorläufigen Endlagerauslegung in der Open-Source Software „OpenGeoSys“. Das Modell dient der Optimierung der Behälterbeladung, um die zulässige Temperatur an der Behälteraußenwand einzuhalten. Quelle: BGE Open-Data: Geometrien und Parameter (Abb. 4) sind Daten, die ggf. veröffentlicht werden sollten. Wenn sich Geometrien und Parameter auf Messdaten oder geologische Karten beziehen, so stellen diese ebenfalls Daten dar.Literatur Behrens, C., Luijendijk, E., Kreye, P. et al., TransPyREnd: a code for modelling the transport of radionuclides on geological time-scales. Advances in Geoscience, 58, pp. 109–119 (2023) Behrens, C., Bjorge, M., Renz, A. et al. Numerische Modelle in Sicherheitsuntersuchungen für die Endlagersuche: Möglichkeiten und Grenzen. Grundwasser - Zeitschrift der Fachsektion Hydrogeologie 29, 17–30 (2024) Hoyer, E.-M., Luijedijk, E., Müller, P. et al. Preliminary safety analyses in the high-level radioactive waste site selection procedure in Germany. Advances in Geoscience 56, 67–75 (2021) Lehmann, C., Bilke, L., Buchwald, J. et al., OpenWorkFlow - Development of an open-source synthesis-platform for safety inves-tigations in the site selection process, Grundwasser - Zeitschrift der Fachsektion Hydrogeologie, 29, 31–47 (2024) Schafmeister, MT., Schäfer, T. Hydrogeologische Aspekte bei der Endlagerung radioaktiver Abfälle. Grundwasser - Zeitschrift der Fachsektion Hydrogeologie 29, 1–2 (2024) StandAG: Standortauswahlgesetz vom 5. Mai 2017 (BGBl. I S. 1074), das zuletzt durch Artikel 8 des Gesetzes vom 22. März 2023 (BGBl. 2023 I Nr. 88) geändert worden ist. www.bge.de Tage der Standortauswahl 2024 / Goslar GZ: SG01201/5-6/1-2024#14 | Objekt-ID: 11155994 | Stand 20.03.2024

Transmutation hochradioaktiver Abfälle

Transmutation hochradioaktiver Abfälle Partitionierung und Transmutation (P&T) ist bislang nur eine Theorie. Mithilfe von Transmutation soll hochradioaktiver Atommüll so aufbereitet werden, dass die Strahlung schneller abnimmt. Sind diese Konzepte in der Praxis umsetzbar und können sie ein Endlager ersetzen? Mithilfe von Partitionierung und Transmutation (P&T) soll es möglich sein, hochradioaktive Abfälle so aufzubereiten, dass sich die Dauer, die sie nennenswert strahlen, reduziert. Bislang gelang dies allenfalls im Labormaßstab. Bei intensiver Forschung würden voraussichtlich mehrere Jahrzehnte vergehen, bis die Technologie einsatzbereit wäre. Ein Endlager für hochradioaktive Abfälle wäre trotzdem erforderlich, da nur ein Teil des hochradioaktiven Atommülls umwandelbar ist. Die tiefengeologische Entsorgung ist absehbar die bessere Alternative: Zu diesem Schluss kommt ein aktuelles Gutachten , dass das BASE in Auftrag gegeben hat. Partitionierung und Transmutation Weltweit forschen Wissenschaftlerinnen und Wissenschaftler seit Jahrzehnten an verschiedenen Möglichkeiten, hochradioaktive Abfälle sicher zu entsorgen. Eine Variante, die es bisher nur in der Theorie gibt, ist die industrielle Anwendung von Transmutation zur Verringerung der Menge radioaktiver Abfälle. Mit diesem Verfahren sollen langlebige Bestandteile des Abfalls gezielt in kurzlebige oder stabile Stoffe umgewandelt werden. Transmutation – Wohin mit dem ganzen Müll? Die Nutzung der Kernenergie hat 27.000 m³ hochradioaktive Abfälle allein in Deutschland hinterlassen. Können diese Abfälle recycelt werden? Bisher funktioniert die Transmutation im Kontext der Abfallbehandlung nur in der Theorie. Wäre sie zukünftig vielleicht eine Alternative zur Endlagerung tief unter der Erde? Unser Video gibt Antworten. Was ist Transmutation? Langlebige Bestandteile wie Uran und Plutonium werden abgetrennt und in kurzlebige Bestandteile umgewandelt, dabei entsteht auch Energie. © BASE Transmutation ist ein physikalischer Prozess, bei dem ein Element in ein anderes umgewandelt wird. In Atomkraftwerken passiert dies bereits für einige Stoffe (insbesondere Uran und Plutonium ) als Nebeneffekt der Stromerzeugung. Transmutation, im Kontext der Abfallbehandlung, bedeutet, dass langlebige radioaktive Atomkerne ( Radionuklide ) in kurzlebige oder stabile Atomkerne umgewandelt werden. Ein Transmutationsverfahren zur gezielten industriellen Abfallbehandlung existiert noch nicht. Sollte das eines Tages technisch möglich sein, würde, so die Hoffnung, der hochradioaktive Atommüll nicht mehr für hunderttausende Jahre Menschen und Umwelt gefährden, sondern nur für einen deutlich kürzeren Zeitraum. Im Gegenzug würde sich aber voraussichtlich das Volumen an schwach- und mittelradioaktiven Abfällen deutlich erhöhen. Auf ein Endlager für hochradioaktive Abfälle könnte auch deshalb nicht verzichtet werden, da nur ein Teil der hochradioaktiven Abfälle überhaupt transmutiert werden kann. Aus was besteht eigentlich Atommüll? Hochradioaktive Abfälle aus Atomkraftwerken sind eine Mischung aus verschiedenen Stoffen bzw. Stoffgruppen, die jeweils unterschiedliche Eigenschaften haben. Da die hochradioaktiven Abfälle über einen sehr langen Zeitraum ein hohes Gefährdungspotential besitzen, müssen sie durch ein Endlager für eine Million Jahre von der Umwelt abgeschirmt werden. Die Hauptbestandteile sind: Uran Uran wird aus der Erde geschürft und zu Brennstoff verarbeitet. Der Großteil des Urans, nämlich gut 94%, wird während des Einsatzes im Atomkraftwerk jedoch nicht gespalten, sondern als Teil des hochradioaktiven Abfalls entsorgt. Das im Kraftwerk eingesetzte Uran selbst strahlt nur sehr schwach und ist wenig mobil im Erdreich. Einige P&T -Konzepte sehen daher vor, es nicht umzuwandeln. Stattdessen würde es vom Rest des Abfalls abgetrennt und direkt einem Endlager zugeführt. Transurane Transurane sind Stoffe, die entstehen, wenn Uran Neutronen einfängt statt durch diese gespalten zu werden. Dadurch bilden sich Elemente mit einer höheren Ordnungszahl - also mit mehr Protonen - als Uran. Relevant sind dabei insbesondere die Elemente Neptunium, Plutonium , Americium und Curium. Transurane machen etwa 1,5 % des deutschen hochradioaktiven Abfalls (in Form von Brennelementen ) aus. Sie tragen zu einer hohen Strahlung und großen Wärmefreisetzung der bestrahlten Brennelemente bei. Spaltprodukte Spaltprodukte entstehen, wenn Uran oder Transurane gespalten werden. Spaltprodukte machen etwa 4 % des hochradioaktiven Abfalls (in Form von Brennelementen ) aus. Sie tragen in den ersten Jahrzehnten am meisten zur Strahlung sowie zur Wärmefreisetzung der verbrauchten Brennelemente bei. Spaltprodukte sind oft gut wasserlöslich und somit sehr mobil im Erdreich. Wie funktioniert Transmutation im Kontext der Abfallbehandlung? Das angestrebte technische Verfahren zur Abfallbehandlung wird „Partitionierung und Transmutation" ( P&T ) genannt und besteht aus drei Schritten: Abtrennung (Partitionierung), Brennstofffertigung und Umwandlung (Transmutation). Bei der Abtrennung werden zunächst Transurane aus den abgebrannten Brennelementen herausgelöst. Für Uran und Plutonium geschieht dies heute bereits in Wiederaufarbeitungsanlagen. Um auch die übrigen Transurane abtrennen zu können, bedarf es erheblicher technischer Weiterentwicklungen. Bislang gelang dies nur im Labor. Anschließend sollen die abgetrennten Transurane zu neuen Brennelementen verarbeitet und in speziellen Reaktoren mit Neutronen beschossen werden. Ein Teil der Transurane wird dabei gespalten und in kurzlebigere oder stabile Atomkerne umgewandelt. Im geringen Umfang entstehen aber auch langlebige Spaltprodukte , beispielsweise Iod-129. Das P&T-Verfahren müsste allerdings viele Male wiederholt werden, da bei jedem Durchgang nur ein Teil der Transurane umgewandelt werden kann. © BASE Ist Transmutation in der Praxis umsetzbar? Bislang existiert keine industriereife Transmutations-Anlage. Bis dahin könnten – so dass vom BASE in Auftrag gegebene Gutachten – noch viele Jahrzehnte vergehen. Die Forschungs- und Entwicklungsarbeit wäre mit hohen Kosten verbunden. Laut den Modellrechnungen müssten drei bis 23 dieser auf Transmutation ausgelegten Atomkraftwerke zwischen 55 und 300 Jahren betrieben werden, um einen Großteil der deutschen Transurane zu transmutieren. Das P&T-Verfahren würde somit den Aufbau einer umfangreichen kerntechnischen Industrie notwendig machen. Dies ist durch die derzeitige Gesetzeslage in Deutschland nicht gedeckt. Der Grund: Nach den Reaktorkatastrophen von Tschernobyl und Fukushima gibt es hierzulande einen breiten gesellschaftlichen Konsens darüber, künftig keine Atomkraftwerke mehr zu betreiben. Die drei letzten Atomkraftwerke wurden am 15. April 2023 abgeschaltet. Kann Transmutation ein Endlager ersetzen? Auch mit Transmutation würde ein Endlager für hochradioaktive Abfälle erforderlich bleiben. Dies hat insbesondere drei Gründe: Selbst bei mehrmaliger Transmutation bleiben Transuran-Reste zurück, die einem Endlager zugeführt werden müssten. Langlebige Spaltprodukte (sowohl bestehende als auch neu entstehende) müssten in einem Endlager eingelagert werden. Nur ein Teil der hochradioaktiven Abfälle liegt in Form von Brennelementen vor. Ca. 40% der Abfälle wurden im Rahmen der Wiederaufbereitung verglast. Hier wäre die erneute Partitionierung deutlich anspruchsvoller. Weiterhin ist zu beachten, dass sich die Menge an schwach- und mittelradioaktiven Abfällen, beispielsweise aus dem Rückbau der Anlagen, erheblich erhöhen würde. Fazit Die Leistungsfähigkeit sowie der Zeitpunkt einer möglichen Verfügbarkeit der Transmutation zur industriellen Behandlung von radioaktiven Abfällen sind ungewiss. Auf diese Technologie als Ersatz für ein Endlager für hochradioaktive Abfälle zu setzen, ist daher mit dem Verantwortungsprinzip nicht vereinbar. Dieses Prinzip ist im Standortauswahlgesetz verankert und sieht vor, dass ein bestmöglicher Schutz von Mensch und Umwelt vor den Wirkungen ionisierender Strahlung sowie die Vermeidung unzumutbarer Lasten für zukünftige Generationen gewährleistet sein muss. Die Zukunft Für den Fall, dass Partitionierung & Transmutation in den kommenden Jahrzehnten oder Jahrhunderten tatsächlich bis zur industriellen Reife weiterentwickelt wird und sich die Menge der hochradioaktiven Abfälle verringern ließe, sieht das Standortauswahlgesetz Korrekturmöglichkeiten vor. Laut Gesetz sollen die hochradioaktiven Abfälle bis zum Verschluss des Endlagers zurückgeholt werden können. Gutachten zu Partitionierung und Transmutation Kategorie: Nukleare Sicherheit | Datum: 10.03.2021 Konzepte zu Partitionierung und Transmutation werden international diskutiert und erforscht. Mithilfe von Transmutation soll hochradioaktiver Atommüll so aufbereitet werden, dass die Strahlung schneller abnimmt. Doch bislang ist das nur Theorie. Das BASE hat ein Gutachten in Auftrag gegeben, um zu prüfen, ob diese Konzepte in der Praxis umsetzbar sind. © BASE Uran Uran wird aus der Erde geschürft und zu Brennstoff verarbeitet. Der Großteil des Urans, nämlich gut 94%, wird während des Einsatzes im Atomkraftwerk jedoch nicht gespalten, sondern als Teil des hochradioaktiven Abfalls entsorgt. Das im Kraftwerk eingesetzte Uran selbst strahlt nur sehr schwach und ist wenig mobil im Erdreich. Einige P&T -Konzepte sehen daher vor, es nicht umzuwandeln. Stattdessen würde es vom Rest des Abfalls abgetrennt und direkt einem Endlager zugeführt. Transurane Transurane sind Stoffe, die entstehen, wenn Uran Neutronen einfängt statt durch diese gespalten zu werden. Dadurch bilden sich Elemente mit einer höheren Ordnungszahl - also mit mehr Protonen - als Uran. Relevant sind dabei insbesondere die Elemente Neptunium, Plutonium , Americium und Curium. Transurane machen etwa 1,5 % des deutschen hochradioaktiven Abfalls (in Form von Brennelementen ) aus. Sie tragen zu einer hohen Strahlung und großen Wärmefreisetzung der bestrahlten Brennelemente bei. Spaltprodukte Spaltprodukte entstehen, wenn Uran oder Transurane gespalten werden. Spaltprodukte machen etwa 4 % des hochradioaktiven Abfalls (in Form von Brennelementen ) aus. Sie tragen in den ersten Jahrzehnten am meisten zur Strahlung sowie zur Wärmefreisetzung der verbrauchten Brennelemente bei. Spaltprodukte sind oft gut wasserlöslich und somit sehr mobil im Erdreich. Forschungsvorhaben des BASE Sicherheitstechnische Analyse und Risikobewertung von Konzepten zu Partitionierungs- und Transmutationsanlagen für hochradioaktive Abfälle (P&T) Verfolgung und Aufbereitung des Standes von Wissenschaft und Technik bei alternativen Entsorgungsoptionen für hochradioaktive Abfälle (altEr) Kurzinformationen zu Partitionierung und Transformation Partitionierung und Transmutation (P&T) Herunterladen (PDF, 73KB, barrierefrei⁄barrierearm)

Darf ich im Winter lüften, wenn es draußen regnet?

Darf ich im Winter lüften, wenn es draußen regnet? Film-Premiere: Ein YouTube-Video macht Unsichtbares sichtbar. Im Rahmen des Projektes Gutes KinderzimmerWetter wurde ein Erklärvideo produziert, welches anschaulich zeigt, warum es auch im Winter bei Regen sinnvoll ist, zu lüften und welche physikalischen Prozesse dahinterstecken. Der Regionalverband Umweltberatung Nord e.V. informiert im Rahmen des Projektes Gutes KinderzimmerWetter junge Eltern über gesundes Wohnen vor und nach der Geburt ihres Kindes. In interaktiven Video-Seminaren werden Hinweise und Tipps zum Heizen und Lüften gegeben, um Schimmel oder Schadstoffbelastungen zu vermeiden. Viele Fragen sind aber nicht nur für junge Eltern wichtig. Zusammen mit dem Institut für Didaktik der Physik der Goethe-Universität Frankfurt wurde im Hinblick auf den bevorstehenden Winter ein Video produziert, das durch lebendige Animationen den physikalischen Prozess erklärt, was genau beim Lüften passiert. Wie verändert sich die Luftfeuchtigkeit im Innenraum und wie bewegen sich die Wassermoleküle, wenn die Luftfeuchtigkeit draußen höher ist als drinnen. Diese Fragen werden in bildhafter und verständlicher Weise beantwortet. Die Premiere des Erklärvideos startet am 10.11.2023 um 10 Uhr. Sie sind herzlich eingeladen, sich das Video anzuschauen und gemeinsam zu diskutieren. Youtube-Premiere am 10.11.2023, 10 Uhr: https://youtu.be/CCsmBt4-xb8 Erklärfilm: https://kinderzimmerwetter.de/erklaerfilm-darf-ich-im-winter-lueften/ Weitere Infos unter https://kinderzimmerwetter.de

1 2 3 4 597 98 99