Untersuchung des Verhaltens der Flussohle bei verschiedenen Abfluessen ohne und mit abgelaufenen Naturvorgaengen.
In der Bundesrepublik Deutschland sollen fuer Lebensmittel tierischer Herkunft Hoechstgehalte fuer Cadmium festgelegt werden. Da z.Zt. nicht bekannt ist, wie hoch der Uebergang von Cadmium aus Futtermitteln in tierische Gewebe ist, wird folgendes Experiment durchgefuehrt: In einem Schweinemastversuch erhalten 100 Tiere zu einer Gersten-Sojaration unterschiedliche Zulagen von Cadmiumchlorid. In diesem Versuch soll nach dem Modell einer Dosiswirkungskurve der Zusammenhang zwischen Futterrationen mit unterschiedlichen Cadmiumkonzentrationen und den Cadmiumgehalten in den wichtigsten Geweben des Mastschweines geprueft werden. Die Versuchsergebnisse sollen Hinweise dafuer geben, welche Cadmiumkonzentrationen in Futtermitteln fuer Schweine geduldet werden koennen.
It is well established that reduced supply of fresh organic matter, interactions of organic matter with mineral phases and spatial inaccessibility affect C stocks in subsoils. However, quantitative information required for a better understanding of the contribution of each of the different processes to C sequestration in subsoils and for improvements of subsoil C models is scarce. The same is true for the main controlling factors of the decomposition rates of soil organic matter in subsoils. Moreover, information on spatial variabilities of different properties in the subsoil is rare. The few studies available which couple near and middle infrared spectroscopy (NIRS/MIRS) with geostatistical approaches indicate a potential for the creation of spatial maps which may show hot spots with increased biological activities in the soil profile and their effects on the distribution of C contents. Objectives are (i) to determine the mean residence time of subsoil C in different fractions by applying fractionation procedures in combination with 14C measurements; (ii) to study the effects of water content, input of 13C-labelled roots and dissolved organic matter and spatial inaccessibility on C turnover in an automatic microcosm system; (iii) to determine general soil properties and soil biological and chemical characteristics using NIRS and MIRS, and (iv) to extrapolate the measured and estimated soil properties to the vertical profiles by using different spatial interpolation techniques. For the NIRS/MIRS applications, sample pretreatment (air-dried vs. freeze-dried samples) and calibration procedures (a modified partial least square (MPLS) approach vs. a genetic algorithm coupled with MPLS or PLS) will be optimized. We hypothesize that the combined application of chemical fractionation in combination with 14C measurements and the results of the incubation experiments will give the pool sizes of passive, intermediate, labile and very labile C and N and the mean residence times of labile and very labile C and N. These results will make it possible to initialize the new quantitative model to be developed by subproject PC. Additionally, we hypothesize that the sample pretreatment 'freeze-drying' will be more useful for the estimation of soil biological characteristics than air-drying. The GA-MPLS and GA-PLS approaches are expected to give better estimates of the soil characteristics than the MPLS and PLS approaches. The spatial maps for the different subsoil characteristics in combination with the spatial maps of temperature and water contents will presumably enable us to explain the spatial heterogeneity of C contents.
# robbenblick A Computer Vision project for object detection and annotation management using YOLOv8, SAHI, and FiftyOne, with the primary aim of counting objects (Robben) in large aerial images. ## Overview This repository provides a complete MLOps pipeline for: * **Data Preparation:** Converting raw CVAT annotations (XML) and large images into a tiled, YOLO-compatible dataset. * **Automated Experiments:** Systematically training and tuning YOLOv8 models. * **Tiled Inference:** Running optimized inference (SAHI) on large, high-resolution images for object counting. * **Evaluation:** Assessing model performance for both detection (mAP) and counting (MAE, RMSE, R²). * **Visualization:** Analyzing datasets and model predictions interactively with FiftyOne. ## Pretrained Model Weights Pretrained model weights are available on Hugging Face: https://huggingface.co/ki-ideenwerkstatt-23/robbenblick/ ## Project Workflow The project is designed to follow a clear, sequential workflow: 1. **Prepare Data (`create_dataset.py`):** Organize your raw images and CVAT `annotations.xml` in `data/raw/` as shown below. ```text data/raw/ ├── dataset_01/ │ ├── annotations.xml │ └── images/ └── dataset_02/ ... ``` Run the script to generate a tiled, YOLO-formatted dataset in `data/processed/` and ground truth count CSVs. 2. **Tune Model (`run_experiments.py`):** Define a set of hyperparameters (e.g., models, freeze layers, augmentation) in `configs/base_iter_config.yaml`. Run the script to train a model for every combination and find the best performer. 3. **Validate Model (`yolo.py`):** Take the `run_id` of your best experiment and run validation on the hold-out `test` set to get **detection metrics (mAP)**. 4. **Infer & Count (`predict_tiled.py`):** Use the best `run_id` to run sliced inference on new, large images. This script generates final counts and visual outputs. 5. **Evaluate Counts (`evaluate_counts.py`):** Compare the `detection_counts.csv` from inference against the `ground_truth_counts.csv` to get **counting metrics (MAE, RMSE)**. 6. **Visualize (`run_fiftyone.py`):** Visually inspect your ground truth dataset or your model's predictions at any stage. ## Configuration This project uses two separate configuration files, managed by `robbenblick.utils.load_config`. * **`configs/base_config.yaml`** * **Purpose:** The single source of truth for **single runs**. * **Used By:** `create_dataset.py`, `predict_tiled.py`, `run_fiftyone.py`, and `yolo.py` (for validation/single-predict). * **Content:** Defines static parameters like data paths (`dataset_output_dir`), model (`model`), and inference settings (`confidence_thresh`). * **`configs/base_iter_config.yaml`** * **Purpose:** The configuration file for **experiments and tuning**. * **Used By:** `run_experiments.py`. * **Content:** Any parameter defined as a **YAML list** (e.g., `model: [yolov8n.pt, yolov8s.pt]`) will be iterated over. `run_experiments.py` will test every possible combination of all lists. ## Environment Setup 1. Clone the repository: ```sh git clone git@github.com:ki-iw/robbenblick.git cd robbenblick ``` 2. Create the Conda environment: ```sh conda env create --file environment.yml conda activate RobbenBlick ``` 3. (Optional) Install pre-commit hooks: ```sh pre-commit install ``` ## Core Scripts & Usage ### `create_dataset.py` * **Purpose:** Converts raw CVAT-annotated images and XML files into a YOLO-compatible dataset, including tiling and label conversion. * **How it works:** * Loads configuration from a config file. * Scans `data/raw/` for dataset subfolders. * Parses CVAT XML annotations and extracts polygons. * Tiles large images into smaller crops based on `imgsz` and `tile_overlap` from the config. * Converts polygon annotations to YOLO bounding box format for each tile. * Splits data into `train`, `val`, and `test` sets and writes them to `data/processed/dataset_yolo`. * Saves a `ground_truth_counts.csv` file in each raw dataset subfolder, providing a baseline for counting evaluation. * **Run:** ```sh # Do a 'dry run' to see statistics without writing files python -m robbenblick.create_dataset --dry-run --config configs/base_config.yaml # Create the dataset, holding out dataset #4 as the test set python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 4 ``` * **Key Arguments:** * `--config`: Path to the `base_config.yaml` file. * `--dry-run`: Run in statistics-only mode. * `--test-dir-index`: 1-based index of the dataset subfolder to use as a hold-out test set. * `--val-ratio`: Ratio of the remaining data to use for validation. ### `run_experiments.py` * **Purpose:** **This is the main training script.** It automates hyperparameter tuning by iterating over parameters defined in `base_iter_config.yaml`. * **How it works:** * Finds all parameters in the config file that are lists (e.g., `freeze: [None, 10]`). * Generates a "variant" for every possible combination of these parameters. * For each variant, it calls `yolo.py --mode train` as a subprocess with a unique `run_id`. * After all runs are complete, it reads the `results.csv` from each run directory, sorts them by `mAP50`, and prints a final ranking table. * **Run:** ```sh # Start the experiment run defined in the iteration config python -m robbenblick.run_experiments --config configs/base_iter_config.yaml # Run experiments and only show the top 5 results python -m robbenblick.run_experiments --config configs/base_iter_config.yaml --top-n 5 ``` ### `predict_tiled.py` * **Purpose:** **This is the main inference script.** It runs a trained YOLOv8 model on new, full-sized images using Sliced Aided Hyper Inference (SAHI). * **How it works:** * Loads a trained `best.pt` model specified by the `--run_id` argument. * Loads inference parameters (like `confidence_thresh`, `tile_overlap`) from the `base_config.yaml`. * Uses `get_sliced_prediction` from SAHI to perform tiled inference on each image. * Saves outputs, including visualized images (if `--save-visuals`), YOLO `.txt` labels (if `--save-yolo`), and a `detection_counts.csv` file. * **Run:** ```sh # Run inference on a folder of new images and save the visual results python -m robbenblick.predict_tiled \ --config configs/base_config.yaml \ --run_id "best_run_from_experiments" \ --source "data/new_images_to_count/" \ --output-dir "data/inference_results/" \ --save-visuals ``` ### `evaluate_counts.py` * **Purpose:** Evaluates the *counting* performance of a model by comparing its predicted counts against the ground truth counts. * **How it works:** * Loads the `ground_truth_counts.csv` generated by `create_dataset.py`. * Loads the `detection_counts.csv` generated by `predict_tiled.py`. * Merges them by `image_name`. * Calculates and prints key regression metrics (MAE, RMSE, R²) to assess the accuracy of the object counting. * **Run:** ```sh # Evaluate the counts from a specific run python -m robbenblick.evaluate_counts \ --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" \ --pred-csv "data/inference_results/detection_counts.csv" ``` ### `yolo.py` * **Purpose:** The core engine for training, validation, and standard prediction. This script is called by `run_experiments.py` for training. You can use it directly for validation. * **How it works:** * `--mode train`: Loads a base model (`yolov8s.pt`) and trains it on the dataset specified in the config. * `--mode validate`: Loads a *trained* model (`best.pt` from a run directory) and validates it against the `test` split defined in `dataset.yaml`. This provides **detection metrics (mAP)**. * `--mode predict`: Runs standard (non-tiled) YOLO prediction on a folder. * **Run:** ```sh # Validate the 'test' set performance of a completed run python -m robbenblick.yolo \ --config configs/base_config.yaml \ --mode validate \ --run_id "best_run_from_experiments" ``` ### `run_fiftyone.py` * **Purpose:** Visualizes datasets and predictions using FiftyOne. * **How it works:** * `--dataset groundtruth`: Loads the processed YOLO dataset (images and ground truth labels) from `data/processed/`. * `--dataset predictions`: Loads images, runs a specified model (`--run_id`) on them, and displays the model's predictions. * **Run:** ```sh # View the ground truth annotations for the 'val' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset groundtruth \ --split val \ --recreate # View the predictions from 'my_best_run' on the 'test' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset predictions \ --split test \ --run_id "my_best_run" \ --recreate ``` ### `streamlit_app.py` * **Purpose:** Quick test runs with the trained model of your choice for counting the seals in the image(s) and visualization. * **How it works:** * Loads the selected YOLO model from `runs/detect/`. * Upload images, run model, then displays the counts and model's predictions as image visualization. * **Run:** ```sh # View the ground truth annotations for the 'val' split export PYTHONPATH=$PWD && streamlit run robbenblick/streamlit_app.py ``` ## Recommended Full Workflow 1. **Add Raw Data:** * Place your first set of images and annotations in `data/raw/dataset_01/images/` and `data/raw/dataset_01/annotations.xml`. * Place your second set (e.g., from a different location) in `data/raw/dataset_02/images/` and `data/raw/dataset_02/annotations.xml`. 2. **Create Dataset:** * Run `python -m robbenblick.create_dataset --dry-run` to see your dataset statistics. Note the indices of your datasets. * Let's say `dataset_02` is a good hold-out set. Run: `python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 2` * This creates `data/raw/dataset_02/ground_truth_counts.csv` for later. 3. **Find Best Model:** * Edit `configs/base_iter_config.yaml`. Define your experiments. ```yaml # Example: Test two models and two freeze strategies model: ['yolov8s.pt', 'yolov8m.pt'] freeze: [None, 10] yolo_hyperparams: scale: [0.3, 0.5] ``` * Run the experiments: `python -m robbenblick.run_experiments`. * Note the `run_id` of the top-ranked model, e.g., `iter_run_model_yolov8m.pt_freeze_10_scale_0.3`. 4. **Validate on Test Set (Detection mAP):** * Check your best model's performance on the unseen test data: `python -m robbenblick.yolo --mode validate --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --config configs/base_config.yaml` * This tells you how well it *detects* objects (mAP). 5. **Apply Model for Counting:** * Get a new folder of large, un-annotated images (e.g., `data/to_be_counted/`). * Run `predict_tiled.py`: `python -m robbenblick.predict_tiled --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --source "data/to_be_counted/" --output-dir "data/final_counts/" --save-visuals` * This creates `data/final_counts/detection_counts.csv`. 6. **Evaluate Counting Performance (MAE, RMSE):** * Now, compare the predicted counts (Step 5) with the ground truth counts (Step 2). Let's assume your "to_be_counted" folder *was* your `dataset_02`. `python -m robbenblick.evaluate_counts --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" --pred-csv "data/final_counts/detection_counts.csv"` * This gives you the final MAE, RMSE, and R² metrics for your **counting task**. ## Additional Notes This repository contains only the source code of the project. The training data and the fine-tuned model weights are not included or published. The repository is currently not being actively maintained. Future updates are not planned at this time. For transparency, please note that the underlying model used throughout this project is based on **YOLOv8 by Ultralytics**. ## License Copyright (c) 2025 **Birds on Mars**. This project is licensed under the **GNU Affero General Public License v3.0 (AGPL-3.0)**. This aligns with the license of the underlying **YOLOv8** model architecture used in this project. Please note: **Training data and fine-tuned model weights are not part of the licensed materials** and are not included in this repository. For full details, see the LICENSE file. ## Troubleshooting ### FiftyOne: images (partially) not visible Try using `--recreate` flag to force FiftyOne to reload the dataset: ```sh python robbenblick/run_fiftyone.py --dataset groundtruth --split val --recreate ``` ### FiftyOne: failed to bind port If you get: ``` fiftyone.core.service.ServiceListenTimeout: fiftyone.core.service.DatabaseService failed to bind to port ``` Try killing any lingering `fiftyone` or `mongod` processes: ```sh pkill -f fiftyone pkill -f mongod Then rerun your script. ``` # Collaborators The code for this project has been developed through a collaborative effort between [WWF Büro Ostsee](https://www.wwf.de/themen-projekte/projektregionen/ostsee) and [KI-Ideenwerkstatt](https://www.ki-ideenwerkstatt.de), technical implementation by [Birds on Mars](https://birdsonmars.com). <p></p> <a href="https://ki-ideenwerkstatt.de" target="_blank" rel="noopener noreferrer"> <img src="assets/kiiw.jpg" alt="KI Ideenwerkstatt" height="100"> </a> <p></p> Technical realization <br> <a href="https://birdsonmars.com" target="_blank" rel="noopener noreferrer"> <img src="assets/bom.jpg" alt="Birds On Mars" height="100"> </a> <p></p> An AI initiative by <br> <a href="https://www.bundesumweltministerium.de/" target="_blank" rel="noopener noreferrer"> <img src="assets/bmukn.svg" alt="Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit" height="100"> </a> <p></p> In the context of <br> <a href="https://civic-coding.de" target="_blank" rel="noopener noreferrer"> <img src="assets/civic.svg" alt="Civic Coding" height="100"> </a>
Basierend auf der Grundlage zur Bemessung für Böschungs- und Sohlsicherungen an Binnenwasserstraßen (GBB, 2010) sollen Modellversuche und Berechnungen zur Porenwasserdruckentwicklung in (schluffigen) Sanden durchgeführt werden um ein mögliches Optimierungspotenzial zu bewerten. Zudem soll das Verflüssigungsverhalten dieser Sande betrachtet werden. Aufgabenstellung und Ziel Ufer von Bundeswasserstraßen unterliegen hydraulischen Einwirkungen. Schiffe z. B. erzeugen bei Vorbeifahrt am Ufer einen sogenannten Absunk, der im Boden Porenwasserüberdrücke und damit Porenströmungen erzeugt, die zur Verflüssigung einer oberflächennahen Schicht führen können. Bei konventionellen Deckwerken wird die lokale Standsicherheit der Böschungen durch das Aufbringen einer Flächenlast (Wasserbausteine) gewährleistet. Die Bemessung der Deckschicht erfolgt dabei anhand des BAW-Merkblatts „Grundlagen zur Bemessung von Böschungs- und Sohlsicherungen an Binnenwasserstraßen (GBB)“ (Bundesanstalt für Wasserbau 2010). Technisch-biologische Ufersicherungen (TBU) können dabei helfen, Wasserstraßen wieder naturnaher zu gestalten. Diese können aus einer Kombination von pflanzlicher und technischer Sicherung oder durch eine rein pflanzliche Sicherung hergestellt werden. Bei TBUs ohne technische Komponenten fehlt eine sichernde Auflast. Die Stabilität wird hier primär durch das Wurzelwerk der Pflanzen hergestellt. An bestehenden TBUs wurde beobachtet, dass besonders in den ersten Jahren nach dem Einbau Bodenerosion auftritt, obwohl die Fließgeschwindigkeiten gering sind (Fleischer und Soyeaux 2016). Möglicherweise wird der Erosionsprozess durch das Auftreten von Porenwasserüberdrücken bis hin zur Verflüssigung hervorgerufen bzw. begünstigt. In dieser Arbeit werden Versuche zur Überprüfung des Ansatzes für den Porenwasserüberdruck bei der Bemessung der Deckschichtdicke für schluffige Sande unter Auflast an der Wechseldurchströmungsanlage (WDA) durchgeführt. Zudem werden auch Versuche mit freier Oberfläche durchgeführt, um das Verhalten der entsprechenden Böden für TBUs besser einschätzen und mögliche Verflüssigungsprozesse erkennen zu können. Die Versuche werden dann nach dem BAW Merkblatt: „GBB“ (Bundesanstalt für Wasserbau 2010) sowohl mit analytischen als auch numerischen Methoden nachgerechnet, mit den Versuchsergebnissen verglichen und um eine Parameterstudie ergänzt. Hierbei steht die Überprüfung der Bemessungsgrundlagen und die Bewertung des Optimierungspotenzials der Deckwerksdicke im Vordergrund. Bedeutung für die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) Als Dienstleisterin der WSV entwickelt die BAW im Referat Erdbau- und Uferschutz die Bemessungsregeln für Deckwerke an Bundeswasserstraßen und untersucht insbesondere die Standsicherheit und Weiterentwicklung naturnaher Ufersicherungen, welche zunehmend an Bedeutung gewinnen. Durch eine mögliche Optimierung der Bemessung von Deckschichtdicken könnten Ufersicherungen noch wirtschaftlicher und ressourcenschonender geplant werden. Zudem gilt es, für die weitere Planung von Wasserstraßen den immer wichtiger werdenden Aspekt einer umweltverträglichen und ökologisch sinnvollen Alternative zu Schüttsteindeckwerken voran zu treiben. Um die bereits eingesetzten technisch-biologischen Ufersicherungen weiter etablieren zu können, ist ein vertieftes Prozessverständnis der Verflüssigungsprozesse in Bereichen ohne Deckschicht für verschiedene Bodentypen (z. B. nach dem BAW-Merkblatt MAR B2, B3 und B4) notwendig.
Berechnung und Messung von Schiffswellen in seitlich begrenztem Fahrwasser Wie weit reichen die schiffserzeugten Wellen und Strömungen des Primärwellensystems eines Schiffes? Neben der Beantwortung dieser Frage soll zusätzlich der validierte Bereich vom Nahfeld des Schiffs in Richtung Ufer vergrößert werden. Dazu werden bestehende Messverfahren zur Vermessung der Wasseroberfläche eingesetzt. Aufgabenstellung und Ziel An den Seehafenzufahrten liegen seitlich der Fahrrinne häufig sehr weitläufige und flache Gewässerbereiche oder angrenzende Strukturen wie Hafenbecken und Seitenarme. In diesen Bereichen beruht die Prognose von Ausbreitung und Wirkbereich schiffserzeugter Primärwellen derzeit auf vereinfachten Annahmen und theoretischen Überlegungen oder muss sehr aufwändig im gegenständlichen Modell mit einem hohen Personal- und Sachmitteleinsatz untersucht werden. Die Relevanz dieser Gewässerbereiche nimmt aufgrund ökologischer Aspekte oder verstärkter Betroffenheiten zu, sodass die Prognosesicherheit der schiffserzeugten Belastungen hier verbessert werden muss. Das bereits zur Berechnung von Schiffsdynamik und schiffserzeugten Belastungen eingesetzte CFD-Verfahren (numerische Strömungssimulation) wird für die projektpraktische Anwendung im Böschungs- und Uferbereich eingerichtet und anhand von Messdaten aus dem Labor und aus der Natur validiert. Anhand von systematischen CFD-Untersuchungen wird ermittelt: (i) unter welchen Bedingungen weit von der Fahrrinne entfernt liegende Böschungs- und Uferbereiche durch schiffsinduzierte Wellen und Strömungen belastet werden, (ii) unter welchen Bedingungen eine Belastung von Böschungen und Ufern entsteht, die sich nicht durch eine lineare Übertragung der Belastungen am Böschungsfuß der Fahrrinne herleiten lässt und (iii) wie sich die Primärwelle in angeschlossenen Gewässerbereichen, bspw. Hafenbecken und Seitenarmen, ausbreitet und quantitativ auswirkt. Bedeutung für die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) Um Fragestellungen in der Fachaufgabe Wechselwirkung Seeschiff/Seeschifffahrtsstraße effizient bearbeiten zu können, wurde die Methode der numerischen Strömungssimulation eingeführt. Die Verfügbarkeit eines numerischen Strömungsmodells zur Vorhersage fahrdynamischer Größen und Strömungsbedingungen im Flachwasser ist bei vielen Aufgaben der WSV erforderlich. Zusätzlich zu dem Fokus auf die Schiffsdynamik ist eine Aussage zu der schiffserzeugten Belastung notwendig. In diesem FuE-Projekt soll die Prognosefähigkeit des CFD-Verfahrens insbesondere in Ufer- und Seitenbereichen deutlich erhöht werden. Neben der Verfügbarkeit einer prognosefähigeren Methode werden außerdem anhand der Untersuchungen allgemeingültige Zusammenhänge ermittelt. Damit ist zukünftig für einfache Sachverhalte eine Ableitung der Ausbreitung und Wirkung von Schiffsprimärwellen in Seeschifffahrtsstraßen ohne aufwändige CFD-Simulation möglich. Untersuchungsmethoden Um die oben aufgeführten Ziele zu erreichen, wird das kommerziell verfügbare, bereits seit vielen Jahren in der BAW eingesetzte und für die unterschiedlichen Fragestellungen validierte CFD-Softwarepaket STARCCM+® genutzt (Bechthold und Kastens 2020, Kochanowski und Kastens 2022, Delefortrie et al. 2023). Im Bereich Naturmessungen soll durch Einsatz neuer Vermessungsmethoden, die in der BAW bereits vorhanden sind, eine Verbesserung von Wellen- und Strömungsdaten angestrebt werden, um flächenhafte Daten zum Schiffswellensystem zu erheben. Mit diesen neuen flächenhaften Daten und bereits vorhandenen punktuellen Daten aus dem physikalischen Modellversuch soll das CFD-Verfahren jenseits des Nahbereichs um das Schiff weiter validiert werden. Das validierte Verfahren wird dann für systematische Untersuchungen flacher, weitläufiger Bereiche und angeschlossener Gewässerteile genutzt.
Mit Hilfe der Präzisionsphänotypisierung und Hochdurchsatzsequenzierung sollen Nachkommenschaften schmalkroniger Hochlagenfichten und breitkroniger Tieflagenfichten unter kontrollierten Gewächshausbedingungen charakterisiert werden. Das Ziel ist die Identifizierung von genetischen und phänotypischen Zeigermerkmalen zur Früherkennung und züchterischen Auswahl von autochthonen und anpassungsfähigen Hochlagenfichten für den Fichten-Provenienzwechsel im Thüringer Wald. Weiterhin soll, basierend auf vergleichenden morphologischen Messungen an adulten Fichten unterschiedlicher Herkünfte (Hochlagen und Tieflagen), ein parametrisierbares 3D-Modell der Verzweigungsarchitektur und Benadelung entwickelt werden. Dieses soll die Grundlage bilden für biomechanische Simulationen zur Stabilität der Krone unter Wind- und/oder Schneebelastung. Durch Modellexperimente soll so die Hypothese geprüft werden, dass der Hochlagen-Phänotyp besser an diese Lasten adaptiert ist. In dem FNR-geförderten Vorgängerprojekt 'Verwendung moderner SNP-Technologie zur Identifikation und Auswahl von Frost- und schneeharten Bergfichten zur Begründung stabiler und ertragreicher Fichtenbestände im Rahmen des Fichten-Provenienzwechsels im Thüringer Wald' (06/2016 - 06/2020, Referenznummer: 22023814) wurden basierend auf genetischen Untersuchungen und der phänotypischen Ansprache im Bestand Elternbäume der Hochlagenfichte im Vorkommen der Schloßbergfichten in Thüringen und in drei zusätzlichen Vorkommen identifiziert (Caré et al., 2020a; Caré et al., 2020b; Caré et al., 2018).
Mit Hilfe der Präzisionsphänotypisierung und Hochdurchsatzsequenzierung sollen Nachkommenschaften schmalkroniger Hochlagenfichten und breitkroniger Tieflagenfichten unter kontrollierten Gewächshausbedingungen charakterisiert werden. Das Ziel ist die Identifizierung von genetischen und phänotypischen Zeigermerkmalen zur Früherkennung und züchterischen Auswahl von autochthonen und anpassungsfähigen Hochlagenfichten für den Fichten-Provenienzwechsel im Thüringer Wald. Weiterhin soll, basierend auf vergleichenden morphologischen Messungen an adulten Fichten unterschiedlicher Herkünfte (Hochlagen und Tieflagen), ein parametrisierbares 3D-Modell der Verzweigungsarchitektur und Benadelung entwickelt werden. Dieses soll die Grundlage bilden für biomechanische Simulationen zur Stabilität der Krone unter Wind- und/oder Schneebelastung. Durch Modellexperimente soll so die Hypothese geprüft werden, dass der Hochlagen-Phänotyp besser an diese Lasten adaptiert ist. In dem FNR-geförderten Vorgängerprojekt 'Verwendung moderner SNP-Technologie zur Identifikation und Auswahl von Frost- und schneeharten Bergfichten zur Begründung stabiler und ertragreicher Fichtenbestände im Rahmen des Fichten-Provenienzwechsels im Thüringer Wald' (06/2016 - 06/2020, Referenznummer: 22023814) wurden basierend auf genetischen Untersuchungen und der phänotypischen Ansprache im Bestand Elternbäume der Hochlagenfichte im Vorkommen der Schloßbergfichten in Thüringen und in drei zusätzlichen Vorkommen identifiziert (Caré et al., 2020a; Caré et al., 2020b; Caré et al., 2018).
Zement angreifende chemische Stoffe im Grundwasser wie z. B. Kohlensäure, Ammonium und Sulfat können die Grenztragfähigkeit von geotechnischen Bauteilen wie Verpressanker und Pfählen reduzieren. Dies soll anhand von Versuchen und numerischen Simulationen untersucht werden. Aufgabenstellung und Ziel Bei den laufenden Projekten und Baumaßnahmen der Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) ergeben sich immer wieder Schwierigkeiten, die Auswirkungen eines chemischen Angriffs auf den Mörtel bzw. Beton bei geotechnischen Elementen wie Verpressankern, Kleinverpresspfählen und Betonpfählen bezüglich der dauerhaften Tragfähigkeit realistisch zu bewerten und angemessene Anforderungen an Baustoffe und Bauweisen festzulegen. Die in der Literatur und teilweise auch im Regelwerk sowie in Zulassungen beschriebenen Lösungsansätze sind zumeist entweder nicht praxistauglich oder aufgrund der gewählten Randbedingungen bei den dokumentierten Modellversuchen nicht ausreichend realitätsnah. Im Rahmen eines in drei Teile gegliederten Gesamtvorhabens (1. Einwirkungen von chemischen Substanzen aus dem Grundwasser, 2. Widerstand des Mörtels bzw. Betons gegenüber dem chemischen Angriff, 3. Veränderung des Tragverhaltens aufgrund der Veränderung des Mörtels bzw. Betons) wird in diesem Teilprojekt 3 die Grenztragfähigkeit der geotechnischen Elemente unter der Einwirkung eines chemischen Angriffs untersucht. Ein Hauptaspekt des FuE-Vorhabens ist die Untersuchung des kalklösenden Kohlensäureangriffs auf Verpressanker. Zur Tragfähigkeit von Ankern und Verpresspfählen unter Einwirkung von kalklösender Kohlensäure sind bisher nur wenige Versuchsreihen (Manns und Lange 1993, Hof 2004, Triantafyllidis und Schreiner 2007) durchgeführt worden, welche aufgrund der differierenden Versuchsrandbedingungen nur schwer direkt vergleichbar sind. Unterschiede liegen zum Beispiel in der Größe der Ankerkörper und deren Herstellung. In allen Versuchsreihen zeigte sich in den ersten Monaten eine deutlich erkennbare Abnahme der Tragfähigkeit, die sich mit fortschreitender Dauer des chemischen Angriffs verlangsamte. Dabei variierte der Tragfähigkeitsverlust zwischen 20 und 70 Prozent. Diese divergierenden Ergebnisse für die Grenztragfähigkeit der Verpressanker sollen verifiziert und entsprechend der neuen Erkenntnisse angepasst werden. Bedeutung für die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) Verpressanker und Kleinverpresspfähle werden im Rahmen von Baumaßnahmen der WSV - beispielweise bei Auftriebssicherungen von Schleusen- und Wehrsohlen, bei Rückverankerungen von Ufereinfassungen, aber auch bei der temporären Sicherung von Baugruben - verwendet. In den Fällen mit einem erhöhten chemischen Angriff aus dem Grundwasser oder dem Boden auf den Mörtel bzw. Beton dieser geotechnischen Elemente müssen diese aufgrund nicht ausreichender praxistauglicher Erkenntnisse und Lösungsansätze über die Tragfähigkeitsverluste durch kostenintensivere Konstruktionen wie z. B. Stahlrammpfähle ersetzt werden. Die Konsequenzen sind deutliche Kostensteigerungen, höhere Lärmbelästigungen, größere Erschütterungen sowie insgesamt ein gestiegener Arbeitsaufwand in Verbindung mit einer längeren Bauzeit. Untersuchungsmethoden Im Rahmen dieses Forschungs- und Entwicklungsvorhabens wird zum einen ein umfangreiches Laborprogramm mit Modellankern, bei denen baupraktische Randbedingungen wie In-situ-Spannungszustände und der Verpressvorgang berücksichtigt werden können, durchgeführt. Zum anderen findet parallel die Untersuchung an Verpressankern hinsichtlich ihrer Grenztragfähigkeit bei betroffenen Bauvorhaben der WSV statt. In Verbindung mit der Ruhr-Universität Bochum und der Firma Schudy Sondermaschinenbau erfolgte die Entwicklung eines Versuchsstandes, der im Frühjahr 2019 in Betrieb genommen wurde. Der Versuchsstand besteht insgesamt aus sieben Versuchscontainern. (Text gekürzt)
| Origin | Count |
|---|---|
| Bund | 1748 |
| Land | 16 |
| Wissenschaft | 552 |
| Zivilgesellschaft | 13 |
| Type | Count |
|---|---|
| Daten und Messstellen | 2 |
| Ereignis | 1 |
| Förderprogramm | 1709 |
| Software | 1 |
| Text | 39 |
| unbekannt | 569 |
| License | Count |
|---|---|
| geschlossen | 42 |
| offen | 1763 |
| unbekannt | 516 |
| Language | Count |
|---|---|
| Deutsch | 1615 |
| Englisch | 856 |
| Resource type | Count |
|---|---|
| Archiv | 2 |
| Datei | 6 |
| Dokument | 24 |
| Keine | 1018 |
| Unbekannt | 2 |
| Webdienst | 1 |
| Webseite | 1286 |
| Topic | Count |
|---|---|
| Boden | 1061 |
| Lebewesen und Lebensräume | 1039 |
| Luft | 1001 |
| Mensch und Umwelt | 2321 |
| Wasser | 906 |
| Weitere | 1771 |