Die Interpretation der Messergebnisse eines Cosmic Ray Neutron Sensing (CRNS)-Detektors benötigt ein tiefgreifendes Verständnis der zugrunde liegenden physikalischen Prozesse. In diesem Zusammenhang haben sich Monte-Carlo-basierte Vielteilchensimulationen, z.B. MCNPX, als sehr hilfreich erwiesen. Die allgemein akzeptierten Transferfunktionen um aus einer Neutronendichte die Bodenfeuchte zu berechnen, wurden semi-empirisch für idealisierte Bedingungen ermittelt. Die Effekte von Bodenbeschaffenheit, Vegetation und Schneebeschaffenheit werden teilweise durch Hinzufügen phänomenologisch motivierter Parameter berücksichtigt. Allerdings gibt es dazu bisher keine tiefergreifenden theoretischen Untersuchungen und Validierungen. Wir haben daher das Monte-Carlo Werkzeug namens URANOS entwickelt, welches speziell auf die Anforderungen der Umweltphysik und CRNS zugeschnitten wurde. Der benötigte Rechenaufwand konnte durch effektive, problemspezifische Methoden im Vergleich zu herkömmlichen Vielteilchensimulationen stark reduziert werden. In den letzten Jahren konnten wir damit das Verständnis der Signal-Reichweite-Beziehung deutlich verbessern und eine analytische Beschreibung unter Berücksichtigung von Umweltfaktoren herleiten. Das Hauptziel dieses Teilprojektes ist es, die Änderung des CRNS-Signals, hervorgerufen durch verschiedene Umweltfaktoren und Bodenstrukturen innerhalb des Einflussbereichs, zu verstehen. Dabei handelt es sich um folgende Faktoren: Bodenbeschaffenheit, vertikale Wasserverteilung in Boden und Luft, Landnutzung, Schneebedeckung, Bewuchs, und durch solches abgefangenes Wasser bei Regenfällen sowie generelle räumliche Inhomogenität. Um dies zu erreichen werden wir versuchen, Korrekturfunktion basierend auf physikalischen Modellen zu verwenden, um die wachsende Anzahl von empirischen und standortspezifischen Näherungen überflüssig zu machen. Zusätzlich werden die Neutronensimulationen benötigt, um den Einfluss verschiedener Detektoranordnungen zu untersuchen. Unverzichtbar sind die Neutronensimulationen für die Verbesserung bezüglich energieabhängiger Gewichtung und Weiterentwicklung der Neutronendetektoren sowie energiebereichsspezifischer Abschirmung. Des Weiteren werden sie für konzeptionelle Untersuchungen des Einflusses der Vegetation und weiterer Wasserspeicher benötigt. Für die Großversuchskampagne werden wir 3D-Modelle der Sensor-Standorte erstellen und die simulierten Messsignale den Arbeitsbereichen Großflächiges CRNS-Netzwerk und Mobiles CRNS zu Verfügung stellen. Schließlich können zusammen mit den Arbeitsbereichen Hydrologische Modellierung und Grundwasserneubildung räumlich-zeitliche Modellrechnungen durchgeführt werden um komplexe Zusammenhänge im Wasserhaushalt der Umwelt zu verstehen. Für die Weiterentwicklung des URANOS-Programms für den Einsatz im CRNS-Bereich benötigen wir die Vorschläge und Rückmeldungen der Nutzer.
# robbenblick A Computer Vision project for object detection and annotation management using YOLOv8, SAHI, and FiftyOne, with the primary aim of counting objects (Robben) in large aerial images. ## Overview This repository provides a complete MLOps pipeline for: * **Data Preparation:** Converting raw CVAT annotations (XML) and large images into a tiled, YOLO-compatible dataset. * **Automated Experiments:** Systematically training and tuning YOLOv8 models. * **Tiled Inference:** Running optimized inference (SAHI) on large, high-resolution images for object counting. * **Evaluation:** Assessing model performance for both detection (mAP) and counting (MAE, RMSE, R²). * **Visualization:** Analyzing datasets and model predictions interactively with FiftyOne. ## Pretrained Model Weights Pretrained model weights are available on Hugging Face: https://huggingface.co/ki-ideenwerkstatt-23/robbenblick/ ## Project Workflow The project is designed to follow a clear, sequential workflow: 1. **Prepare Data (`create_dataset.py`):** Organize your raw images and CVAT `annotations.xml` in `data/raw/` as shown below. ```text data/raw/ ├── dataset_01/ │ ├── annotations.xml │ └── images/ └── dataset_02/ ... ``` Run the script to generate a tiled, YOLO-formatted dataset in `data/processed/` and ground truth count CSVs. 2. **Tune Model (`run_experiments.py`):** Define a set of hyperparameters (e.g., models, freeze layers, augmentation) in `configs/base_iter_config.yaml`. Run the script to train a model for every combination and find the best performer. 3. **Validate Model (`yolo.py`):** Take the `run_id` of your best experiment and run validation on the hold-out `test` set to get **detection metrics (mAP)**. 4. **Infer & Count (`predict_tiled.py`):** Use the best `run_id` to run sliced inference on new, large images. This script generates final counts and visual outputs. 5. **Evaluate Counts (`evaluate_counts.py`):** Compare the `detection_counts.csv` from inference against the `ground_truth_counts.csv` to get **counting metrics (MAE, RMSE)**. 6. **Visualize (`run_fiftyone.py`):** Visually inspect your ground truth dataset or your model's predictions at any stage. ## Configuration This project uses two separate configuration files, managed by `robbenblick.utils.load_config`. * **`configs/base_config.yaml`** * **Purpose:** The single source of truth for **single runs**. * **Used By:** `create_dataset.py`, `predict_tiled.py`, `run_fiftyone.py`, and `yolo.py` (for validation/single-predict). * **Content:** Defines static parameters like data paths (`dataset_output_dir`), model (`model`), and inference settings (`confidence_thresh`). * **`configs/base_iter_config.yaml`** * **Purpose:** The configuration file for **experiments and tuning**. * **Used By:** `run_experiments.py`. * **Content:** Any parameter defined as a **YAML list** (e.g., `model: [yolov8n.pt, yolov8s.pt]`) will be iterated over. `run_experiments.py` will test every possible combination of all lists. ## Environment Setup 1. Clone the repository: ```sh git clone git@github.com:ki-iw/robbenblick.git cd robbenblick ``` 2. Create the Conda environment: ```sh conda env create --file environment.yml conda activate RobbenBlick ``` 3. (Optional) Install pre-commit hooks: ```sh pre-commit install ``` ## Core Scripts & Usage ### `create_dataset.py` * **Purpose:** Converts raw CVAT-annotated images and XML files into a YOLO-compatible dataset, including tiling and label conversion. * **How it works:** * Loads configuration from a config file. * Scans `data/raw/` for dataset subfolders. * Parses CVAT XML annotations and extracts polygons. * Tiles large images into smaller crops based on `imgsz` and `tile_overlap` from the config. * Converts polygon annotations to YOLO bounding box format for each tile. * Splits data into `train`, `val`, and `test` sets and writes them to `data/processed/dataset_yolo`. * Saves a `ground_truth_counts.csv` file in each raw dataset subfolder, providing a baseline for counting evaluation. * **Run:** ```sh # Do a 'dry run' to see statistics without writing files python -m robbenblick.create_dataset --dry-run --config configs/base_config.yaml # Create the dataset, holding out dataset #4 as the test set python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 4 ``` * **Key Arguments:** * `--config`: Path to the `base_config.yaml` file. * `--dry-run`: Run in statistics-only mode. * `--test-dir-index`: 1-based index of the dataset subfolder to use as a hold-out test set. * `--val-ratio`: Ratio of the remaining data to use for validation. ### `run_experiments.py` * **Purpose:** **This is the main training script.** It automates hyperparameter tuning by iterating over parameters defined in `base_iter_config.yaml`. * **How it works:** * Finds all parameters in the config file that are lists (e.g., `freeze: [None, 10]`). * Generates a "variant" for every possible combination of these parameters. * For each variant, it calls `yolo.py --mode train` as a subprocess with a unique `run_id`. * After all runs are complete, it reads the `results.csv` from each run directory, sorts them by `mAP50`, and prints a final ranking table. * **Run:** ```sh # Start the experiment run defined in the iteration config python -m robbenblick.run_experiments --config configs/base_iter_config.yaml # Run experiments and only show the top 5 results python -m robbenblick.run_experiments --config configs/base_iter_config.yaml --top-n 5 ``` ### `predict_tiled.py` * **Purpose:** **This is the main inference script.** It runs a trained YOLOv8 model on new, full-sized images using Sliced Aided Hyper Inference (SAHI). * **How it works:** * Loads a trained `best.pt` model specified by the `--run_id` argument. * Loads inference parameters (like `confidence_thresh`, `tile_overlap`) from the `base_config.yaml`. * Uses `get_sliced_prediction` from SAHI to perform tiled inference on each image. * Saves outputs, including visualized images (if `--save-visuals`), YOLO `.txt` labels (if `--save-yolo`), and a `detection_counts.csv` file. * **Run:** ```sh # Run inference on a folder of new images and save the visual results python -m robbenblick.predict_tiled \ --config configs/base_config.yaml \ --run_id "best_run_from_experiments" \ --source "data/new_images_to_count/" \ --output-dir "data/inference_results/" \ --save-visuals ``` ### `evaluate_counts.py` * **Purpose:** Evaluates the *counting* performance of a model by comparing its predicted counts against the ground truth counts. * **How it works:** * Loads the `ground_truth_counts.csv` generated by `create_dataset.py`. * Loads the `detection_counts.csv` generated by `predict_tiled.py`. * Merges them by `image_name`. * Calculates and prints key regression metrics (MAE, RMSE, R²) to assess the accuracy of the object counting. * **Run:** ```sh # Evaluate the counts from a specific run python -m robbenblick.evaluate_counts \ --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" \ --pred-csv "data/inference_results/detection_counts.csv" ``` ### `yolo.py` * **Purpose:** The core engine for training, validation, and standard prediction. This script is called by `run_experiments.py` for training. You can use it directly for validation. * **How it works:** * `--mode train`: Loads a base model (`yolov8s.pt`) and trains it on the dataset specified in the config. * `--mode validate`: Loads a *trained* model (`best.pt` from a run directory) and validates it against the `test` split defined in `dataset.yaml`. This provides **detection metrics (mAP)**. * `--mode predict`: Runs standard (non-tiled) YOLO prediction on a folder. * **Run:** ```sh # Validate the 'test' set performance of a completed run python -m robbenblick.yolo \ --config configs/base_config.yaml \ --mode validate \ --run_id "best_run_from_experiments" ``` ### `run_fiftyone.py` * **Purpose:** Visualizes datasets and predictions using FiftyOne. * **How it works:** * `--dataset groundtruth`: Loads the processed YOLO dataset (images and ground truth labels) from `data/processed/`. * `--dataset predictions`: Loads images, runs a specified model (`--run_id`) on them, and displays the model's predictions. * **Run:** ```sh # View the ground truth annotations for the 'val' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset groundtruth \ --split val \ --recreate # View the predictions from 'my_best_run' on the 'test' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset predictions \ --split test \ --run_id "my_best_run" \ --recreate ``` ### `streamlit_app.py` * **Purpose:** Quick test runs with the trained model of your choice for counting the seals in the image(s) and visualization. * **How it works:** * Loads the selected YOLO model from `runs/detect/`. * Upload images, run model, then displays the counts and model's predictions as image visualization. * **Run:** ```sh # View the ground truth annotations for the 'val' split export PYTHONPATH=$PWD && streamlit run robbenblick/streamlit_app.py ``` ## Recommended Full Workflow 1. **Add Raw Data:** * Place your first set of images and annotations in `data/raw/dataset_01/images/` and `data/raw/dataset_01/annotations.xml`. * Place your second set (e.g., from a different location) in `data/raw/dataset_02/images/` and `data/raw/dataset_02/annotations.xml`. 2. **Create Dataset:** * Run `python -m robbenblick.create_dataset --dry-run` to see your dataset statistics. Note the indices of your datasets. * Let's say `dataset_02` is a good hold-out set. Run: `python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 2` * This creates `data/raw/dataset_02/ground_truth_counts.csv` for later. 3. **Find Best Model:** * Edit `configs/base_iter_config.yaml`. Define your experiments. ```yaml # Example: Test two models and two freeze strategies model: ['yolov8s.pt', 'yolov8m.pt'] freeze: [None, 10] yolo_hyperparams: scale: [0.3, 0.5] ``` * Run the experiments: `python -m robbenblick.run_experiments`. * Note the `run_id` of the top-ranked model, e.g., `iter_run_model_yolov8m.pt_freeze_10_scale_0.3`. 4. **Validate on Test Set (Detection mAP):** * Check your best model's performance on the unseen test data: `python -m robbenblick.yolo --mode validate --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --config configs/base_config.yaml` * This tells you how well it *detects* objects (mAP). 5. **Apply Model for Counting:** * Get a new folder of large, un-annotated images (e.g., `data/to_be_counted/`). * Run `predict_tiled.py`: `python -m robbenblick.predict_tiled --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --source "data/to_be_counted/" --output-dir "data/final_counts/" --save-visuals` * This creates `data/final_counts/detection_counts.csv`. 6. **Evaluate Counting Performance (MAE, RMSE):** * Now, compare the predicted counts (Step 5) with the ground truth counts (Step 2). Let's assume your "to_be_counted" folder *was* your `dataset_02`. `python -m robbenblick.evaluate_counts --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" --pred-csv "data/final_counts/detection_counts.csv"` * This gives you the final MAE, RMSE, and R² metrics for your **counting task**. ## Additional Notes This repository contains only the source code of the project. The training data and the fine-tuned model weights are not included or published. The repository is currently not being actively maintained. Future updates are not planned at this time. For transparency, please note that the underlying model used throughout this project is based on **YOLOv8 by Ultralytics**. ## License Copyright (c) 2025 **Birds on Mars**. This project is licensed under the **GNU Affero General Public License v3.0 (AGPL-3.0)**. This aligns with the license of the underlying **YOLOv8** model architecture used in this project. Please note: **Training data and fine-tuned model weights are not part of the licensed materials** and are not included in this repository. For full details, see the LICENSE file. ## Troubleshooting ### FiftyOne: images (partially) not visible Try using `--recreate` flag to force FiftyOne to reload the dataset: ```sh python robbenblick/run_fiftyone.py --dataset groundtruth --split val --recreate ``` ### FiftyOne: failed to bind port If you get: ``` fiftyone.core.service.ServiceListenTimeout: fiftyone.core.service.DatabaseService failed to bind to port ``` Try killing any lingering `fiftyone` or `mongod` processes: ```sh pkill -f fiftyone pkill -f mongod Then rerun your script. ``` # Collaborators The code for this project has been developed through a collaborative effort between [WWF Büro Ostsee](https://www.wwf.de/themen-projekte/projektregionen/ostsee) and [KI-Ideenwerkstatt](https://www.ki-ideenwerkstatt.de), technical implementation by [Birds on Mars](https://birdsonmars.com). <p></p> <a href="https://ki-ideenwerkstatt.de" target="_blank" rel="noopener noreferrer"> <img src="assets/kiiw.jpg" alt="KI Ideenwerkstatt" height="100"> </a> <p></p> Technical realization <br> <a href="https://birdsonmars.com" target="_blank" rel="noopener noreferrer"> <img src="assets/bom.jpg" alt="Birds On Mars" height="100"> </a> <p></p> An AI initiative by <br> <a href="https://www.bundesumweltministerium.de/" target="_blank" rel="noopener noreferrer"> <img src="assets/bmukn.svg" alt="Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit" height="100"> </a> <p></p> In the context of <br> <a href="https://civic-coding.de" target="_blank" rel="noopener noreferrer"> <img src="assets/civic.svg" alt="Civic Coding" height="100"> </a>
Zurzeit ist die 'Biokohle' in aller Munde, und diese wird als Wunderstoff zur Steigerung und Stabilisierung der Bodenqualität angesehen. Eigene Modellversuche mit drei verschiedenen Böden ergaben, dass die Kohlen, bis auf eine Hydro-Thermal-Kohle (HTC) aus Eichenästen, recht stabil im Boden sind und dass diese dazu beitragen können, den Kohlenstoff im Boden zu sequenzieren. Die vielfach geäußerte Vorstellung, dass eine Biokohleapplikation die spezifische Adsorption von Phosphat reduziert, konnten wir in unseren Untersuchungen nicht bestätigen. Auf drei Standorten wird die Wirkung von Biokohle aus Holzhackschnitzel-Siebresten auf einer Löss-Parabraunerde in Rauischholzhausen, einem Sandboden in Groß-Gerau und einem Alluvium in Gießen in Feldversuchen geprüft. Die Versuche begannen im Frühjahr 2012 bzw. im Herbst 2012. Es hat den Anschein, dass die Biokohle die N-Effizienz zu Silomais aus der Löss-Parabraunerde zu fördern scheint, da die Erträge in den Varianten mit Biokohle über denen ohne Biokohle lagen. Auf dem Sandboden und auch auf dem Alluvium förderet die Biokohleapplikation weder von 15 noch von 30 t/ha den Ertrag von Körnermais, Winterweizen oder Sommergerste. Die Wassernutzung wurde auf dem Sandboden nicht durch Biokohle gefördert. Verbessert wurde aber die Nitratretention durch Biokohle. Um diese Mechanismen von Biokohle besser zu verstehen, untersucht Christian Koch in seiner von der Deutschen Bundesstiftung-Umwelt (DBU) geförderten Promotion, inwieweit durch verschiedene Herstellungstemperaturen die Eigenschaften von Biokohlen aus Fichtenrestholz, Landschaftspflegeheu und Nusshäutchen von Haselnuss beeinflusst werden. Erste Ergebnisse zeigen, dass die Karbonisierungstemperatur die Sorption von Huminsäuren beeinflusst. Dagegen haben die Karbonisierungstemperaturen keinen Einfluss auf die von uns durchgeführten Versuche zur Nitratretention und Kationenaustauschkapazität (= Bariumsorption).
Rund 10.000 Einwohner eines Teilgebietes im Iserlohner Ortsteil Letmathe nehmen über die Dauer eines Jahres an diesem bundesweit einmaligen Modellversuch teil. Die Beteiligten erwarten nach Abschluss des Versuches belastbare Ergebnisse, die einen technischen und wirtschaftlichen Vergleich mit dem bestehenden Entsorgungssystem zulassen. Hinter dem Begriff SiB steht ein ebenso einfaches wie innovatives Entsorgungssystem: Über lediglich einen Behälter werden verschiedene Abfallarten, die bereits im Haushalt in farblich unterschiedlichen, hochreißfesten Spezialsäcken gesammelt wurden, erfasst. Nach dem Transport in eine Sortieranlage werden anhand der Sackfarben die Wertstoffe wieder aussortiert und zur Verwertung weitergeleitet, der Restabfall geht von dort in das Müllheizkraftwerk. Beim Pilotprojekt SiB in Iserlohn-Letmathe betrifft dies die Abfallarten Restabfall (grauer Sack), Leichtverpackungen Grüner Punkt (gelber Sack) sowie Papier/Pappe (blauer Sack). Anstelle der grauen Restmülltonne und der gelben Wertstofftonne werden die am Modellversuch teilnehmenden Haushalte in den Abfuhrrevieren 7und 9 mit Behältern ausgestattet, die durch einen silberfarbenen Deckel als SiB-Behälter gekennzeichnet sind. Die Abfuhr dieser Behälter erfolgt wöchentlich. Die Projektverantwortlichen erhoffen sich durch den Versuch positive Ergebnisse mit Blick auf eine Verbesserung der Qualität von Wertstoffen bei gleichzeitiger Erfassung mehrerer Abfallarten. Im Vergleich zu anderen in der Öffentlichkeit intensiv diskutierten Sortierversuchen liegt ein wesentlicher Vorteil des SiB-Systems auf der Hand: Vorher vermischte Restabfälle und Wertstoffe müssen nicht nachträglich mit erheblichem verfahrenstechnischen Aufwand wieder aussortiert werden. Die für eine Wiederverwertung notwendige Qualität der Wertstoffe wird bei SiB durch die bereits im Behälter erfolgte Trennung nicht beeinträchtigt. (...)Wissenschaftlich begleitet und ausgewertet wird der Pilotversuch von zwei renommierten Instituten, dem Institut für Entsorgung und Umwelttechnik gGmbH (IFEU) in Iserlohn sowie dem Institut für Abfall, Abwasser und Infrastruktur-Management GmbH (INFA) in Ahlen. Erste Ergebnisse werden im August 2007 erwartet.
Die Intensivierung der Landwirtschaft und insbesondere der Einsatz von Düngemitteln ist der Schlüssel zur Ernährungssicherung einer wachsenden Weltbevölkerung. Der im Dünger enthaltene Stickstoff geht jedoch nicht nur in die pflanzliche Biomasse ein und wird schließlich geerntet, sondern wird auch als reaktiver Stickstoff (Nr) über verschiedene gasförmige und hydrologische Pfade in die Umwelt abgegeben. Dies führt zu gravierenden Umweltproblemen wie Eutrophierung, Treibhausgasemissionen oder Grundwasserverschmutzung. Wir gehen davon aus, dass wissenschaftlich fundierte Stickstoffminderungsstrategien es ermöglichen, die N2O- und NH3-Emissionen zu reduzieren und die NO3-Einträge in die Gewässer zu verringern, während die Erträge erhalten bleiben. Ziel des MINCA-Projekts ist daher die Etablierung eines gekoppelten, prozessbasierten hydro-biogeochemischen Modells zur Identifizierung von Feldbewirtschaftungsstrategien zu nutzen, die es ermöglichen, den Nr-Überschuss zu reduzieren und damit die N-Belastung in landwirtschaftlich dominierten Landschaften zu mindern. Unser besonderes Interesse gilt den Nr-Umwandlungsmechanismen an den Schnittstellen von Feldern, Grundwasser, Uferzone und Bächen. Um das derzeit begrenzte Verständnisses der zeitlichen und räumlichen hydro-biogeochemischen Flüsse bei der Nr-Transformation in der Landschaft zu überwinden, werden wir innovative Feldexperimente mit einem prozessbasierten Modellierungsansatz kombinieren. Der N-Zyklus in hydro-biogeochemischen Modellen ist jedoch komplex und die Validierung der zugrunde liegenden Prozesse datenintensiv. Die Messungen werden daher auf vier verschiedenen landwirtschaftlichen-, einem Grünland- und einem Waldgebiet durchgeführt. MINCA besteht aus vier eng miteinander verbundenen Arbeitspaketen (WP). In WP1 werden bereits laufende Messung der Wasser- und Stickstoffflüsse im Vollnkirchener Bach Studiengebiet beschrieben. Die bereits relativ umfangreichen kontinuierlichen Messungen, z.B. N2O-Emissionen, Bodenfeuchte, Abfluss und Gewässerqualität, sollen durch weitere Messungen wie NO3-Auswaschung und -Konzentrationen, saisonale Blattflächenindices, Erträge, Biomasse und deren C- und N-Gehalt ergänzt werden. Zusätzlich werden 15N2O und 15NO3 Isotopomer in Feldkampagnen gemessen. Komplexe Messungen für Modellversuche in WP1, modellbasierte hochskalierungs-Methoden im Rahmen von WP2 und Parameterreduktion, Unsicherheitsanalyse und Prozessplausibilitätsprüfung von WP3 erlauben es uns zu erkennen, wann und wo N-Belastung in der Landschaft auftreten. Dieses vertiefte Wissen wird die Grundlage für die Entwicklung von wissenschaftlich fundierten Mitigationsszenarien im WP4 bilden. Das gekoppelte Modell wird im Echtzeit-Modus ausgeführt, um die vom Bundesministerium für Ernährung und Landwirtschaft erstrebten Zielwerte von reduziertem Nr-Überschuss zu erreichen. Maßgeschneiderte in-situ-Experimente zu N2O-Emissionen und NO3-Auswaschung werden die Wirksamkeit des Minderungspotenzials aufzeigen.
The sorption of anions in geotechnical multibarrier systems of planned high level waste repositories (HLWR) and of non-ionic and organic pollutants in conventional waste disposals are in the center of recent research. In aquatic systems, persistent radionuclides such as 79Se, 99Tc, 129I exist in a form of anions. There is strongly increasing need to find materials with high sorption capacities for such pollutants. Specific requirements on barrier materials are long-term stability of adsorbent under various conditions such as T > 100 C, varying hydrostatic pressure, and the presence of competing ions. Organo-clays are capable to sorb high amounts of cations, anions and non-polar molecules simultaneously having selectivity for certain ions. This project is proposed to improve the understanding of sorption and desorption processes in organo-clays. Additionally, the modification of material properties under varying chemical and thermal conditions will be determined by performing diffusion and advection experiments. Changes by sorption and diffusion will be analyzed by determining surface charge and contact angles. Molecular simulations on models of organo-clays will be conducted in an accord with experiments with aim to understand and analyze experimental results. The computational part of the project will profit from the collaboration of German partner with the group in Vienna, which has a long standing experience in a modeling of clay minerals.
Navigation Lock Filling - Modeled Geometry and Physical Model Measurement Data This data set provides the geometry files and physical model measurement data for the filling process of a large navigation lock with a ship in the lock chamber from a water saving basin. The measured data contains water levels, pressure differences, forces on the ship and the opening height of the valves. The lock consists of a lock chamber with a pressure chamber underneath. Both chambers are hydraulically connected with vertical cylindrical filling nozzles inside the floor between both chambers. The three lateral saving basins are connected to the pressure chamber via two lateral culverts each of smoothly varying rectangular shape. Each saving basin has two of these connecting culverts. A vertical lifting valve in each culvert allows the controlled filling operation from the saving basins into the pressure chamber. In the experiment, the lock chamber is filled from the lowest saving basin. The physical model was constructed at a scale of 1:25. The provided data (geometry and model test results) is scaled to prototype scale by Froude's similitude. The data was used in the following publication: Thorenz, C., Schulze, L. (2021): Numerical Investigations of Ship Forces During Lockage. Journal of Coastal and Hydraulic Strucures. Please cite the paper when using the data.
This dataset documents a series of analogue experiments designed to investigate the coupled evolution of magma-driven surface uplift and rainfall-driven geomorphic processes. Seven controlled laboratory experiments were conducted, each combining shallow intrusion of a magma analogue with imposed rainfall of varying intensity, in order to systematically explore the role of surface processes under different forcing conditions. The experimental setup consists of a rigid Plexiglas container filled with a water-saturated granular mixture formulated to reproduce brittle crustal behaviour under wet conditions. Magmatic intrusion was simulated by injecting a fixed volume (360 cm³) of low-viscosity polyglycerine through a basal inlet at three distinct injection rates, while surface processes were imposed using an overhead rainfall system delivering three different rainfall intensities. Topographic evolution during each experiment was monitored using a structured-light laser scanner (Artec Leo). For every model run, six Digital Elevation Models (DEMs) were generated at synchronised stages corresponding to 0%, 20%, 40%, 60%, 80% and 100% of the injected volume, yielding a total of 42 DEMs. Raw scans were processed through a triangulated irregular network (TIN) meshing workflow and subsequently rasterised to GeoTIFF format without additional post-processing, in order to preserve the original topographic signal. In parallel, time-lapse photographic documentation was acquired throughout each experiment using a digital camera, providing a complementary visual record of dome growth, surface incision and sediment redistribution. The dataset is organised into two main components: (i) high-resolution topographic datasets (DEMs) and (ii) time-indexed photographic sequences, both linked to the temporal evolution of each experiment. Quality control procedures include scanner calibration prior to acquisition, verification of mesh consistency and raster resolution, and a closed-system experimental design ensuring mass conservation. All data are distributed in their original formats and accompanied by detailed documentation describing experimental procedures, data processing workflows, and file organisation, enabling reproducibility and reuse in quantitative analyses of coupled magmatic and surface processes. This publication results from work conducted under the transnational access/national open access action at University Roma Tre, Laboratory of Experimental Tectonics (LET) supported by WP3 ILGE - MEET project, PNRR - EU Next Generation Europe program, MUR grant number D53C22001400005.
The pattern of plant nutrient uptake in a soil profile is the result of complex processes occurring at the cellular or sub-cellular levels but affecting the whole-plant behaviour in function of the plant environment that varies strongly in time and space. The plant nutrient acquisition depends on root architecture and growth, on soil properties and heterogeneity, and on the 3-D distribution of nutrients and water. Equally important is how these parameters interact, as for instance how the nutrient distribution and soil properties and heterogeneity impact root growth or how nutrient and water limitation affect assimilate allocation. Mathematical modelling using a spatial resolution that resolves the spatial structure of the root structure and the nutrient and water distribution is therefore needed to quantitatively account for these complex and interacting processes and to predict plant nutrient uptake behaviour under environmental constraints. The main goal of the project is to build a modelling platform able to describe 3-D flow and transport processes in the soil to individual roots of an entire root system (WP1). Model parameters will be derived from specific experiments performed at the plant scale in the research group (WP3) and stored in a specific data warehouse (WP2). The impact of different parameters, which describe root growth and nutrient uptake at the single root scale, on nutrient uptake at the soil profile scale, will be investigated based on scenario analyses (WP4). Data on water and nutrient uptake and root growth from plant and field scale experiments will be compared with model predictions to validate the model. Simulations with the 3-D root scale model will be used to validate hypotheses and parameterizations of larger scale 1-D models that do not describe processes at the scale of individual roots (WP5 and SP10).
Basierend auf der Grundlage zur Bemessung für Böschungs- und Sohlsicherungen an Binnenwasserstraßen (GBB, 2010) sollen Modellversuche und Berechnungen zur Porenwasserdruckentwicklung in (schluffigen) Sanden durchgeführt werden um ein mögliches Optimierungspotenzial zu bewerten. Zudem soll das Verflüssigungsverhalten dieser Sande betrachtet werden. Aufgabenstellung und Ziel Ufer von Bundeswasserstraßen unterliegen hydraulischen Einwirkungen. Schiffe z. B. erzeugen bei Vorbeifahrt am Ufer einen sogenannten Absunk, der im Boden Porenwasserüberdrücke und damit Porenströmungen erzeugt, die zur Verflüssigung einer oberflächennahen Schicht führen können. Bei konventionellen Deckwerken wird die lokale Standsicherheit der Böschungen durch das Aufbringen einer Flächenlast (Wasserbausteine) gewährleistet. Die Bemessung der Deckschicht erfolgt dabei anhand des BAW-Merkblatts „Grundlagen zur Bemessung von Böschungs- und Sohlsicherungen an Binnenwasserstraßen (GBB)“ (Bundesanstalt für Wasserbau 2010). Technisch-biologische Ufersicherungen (TBU) können dabei helfen, Wasserstraßen wieder naturnaher zu gestalten. Diese können aus einer Kombination von pflanzlicher und technischer Sicherung oder durch eine rein pflanzliche Sicherung hergestellt werden. Bei TBUs ohne technische Komponenten fehlt eine sichernde Auflast. Die Stabilität wird hier primär durch das Wurzelwerk der Pflanzen hergestellt. An bestehenden TBUs wurde beobachtet, dass besonders in den ersten Jahren nach dem Einbau Bodenerosion auftritt, obwohl die Fließgeschwindigkeiten gering sind (Fleischer und Soyeaux 2016). Möglicherweise wird der Erosionsprozess durch das Auftreten von Porenwasserüberdrücken bis hin zur Verflüssigung hervorgerufen bzw. begünstigt. In dieser Arbeit werden Versuche zur Überprüfung des Ansatzes für den Porenwasserüberdruck bei der Bemessung der Deckschichtdicke für schluffige Sande unter Auflast an der Wechseldurchströmungsanlage (WDA) durchgeführt. Zudem werden auch Versuche mit freier Oberfläche durchgeführt, um das Verhalten der entsprechenden Böden für TBUs besser einschätzen und mögliche Verflüssigungsprozesse erkennen zu können. Die Versuche werden dann nach dem BAW Merkblatt: „GBB“ (Bundesanstalt für Wasserbau 2010) sowohl mit analytischen als auch numerischen Methoden nachgerechnet, mit den Versuchsergebnissen verglichen und um eine Parameterstudie ergänzt. Hierbei steht die Überprüfung der Bemessungsgrundlagen und die Bewertung des Optimierungspotenzials der Deckwerksdicke im Vordergrund. Bedeutung für die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) Als Dienstleisterin der WSV entwickelt die BAW im Referat Erdbau- und Uferschutz die Bemessungsregeln für Deckwerke an Bundeswasserstraßen und untersucht insbesondere die Standsicherheit und Weiterentwicklung naturnaher Ufersicherungen, welche zunehmend an Bedeutung gewinnen. Durch eine mögliche Optimierung der Bemessung von Deckschichtdicken könnten Ufersicherungen noch wirtschaftlicher und ressourcenschonender geplant werden. Zudem gilt es, für die weitere Planung von Wasserstraßen den immer wichtiger werdenden Aspekt einer umweltverträglichen und ökologisch sinnvollen Alternative zu Schüttsteindeckwerken voran zu treiben. Um die bereits eingesetzten technisch-biologischen Ufersicherungen weiter etablieren zu können, ist ein vertieftes Prozessverständnis der Verflüssigungsprozesse in Bereichen ohne Deckschicht für verschiedene Bodentypen (z. B. nach dem BAW-Merkblatt MAR B2, B3 und B4) notwendig.
| Organisation | Count |
|---|---|
| Bund | 1734 |
| Europa | 65 |
| Kommune | 10 |
| Land | 88 |
| Weitere | 20 |
| Wirtschaft | 16 |
| Wissenschaft | 1173 |
| Zivilgesellschaft | 35 |
| Type | Count |
|---|---|
| Daten und Messstellen | 2 |
| Ereignis | 1 |
| Förderprogramm | 1710 |
| Software | 1 |
| Text | 38 |
| unbekannt | 571 |
| License | Count |
|---|---|
| Geschlossen | 42 |
| Offen | 1766 |
| Unbekannt | 515 |
| Language | Count |
|---|---|
| Deutsch | 1615 |
| Englisch | 857 |
| Resource type | Count |
|---|---|
| Archiv | 2 |
| Datei | 5 |
| Dokument | 20 |
| Keine | 1022 |
| Unbekannt | 2 |
| Webdienst | 1 |
| Webseite | 1287 |
| Topic | Count |
|---|---|
| Boden | 1041 |
| Lebewesen und Lebensräume | 1308 |
| Luft | 994 |
| Mensch und Umwelt | 2323 |
| Wasser | 889 |
| Weitere | 2304 |