API src

Found 254 results.

Related terms

Schwerpunktprogramm (SPP) 527: Bereich Infrastruktur - International Ocean Discovery Program, Teilprojekt: Sedimente des Melvillesees: Ein Zeitfenster in die präholozäne Glazialgeschichte des Laurentidischen Eisschildes (Akronym: MELSED)

Der Melvillesee ist ein Fjordsee, der sich in der letzten Eiszeit am Rande des hochdynamischen Laurentidischen Eisschildes (LIS) befand. Die obersten 10 m der insgesamt ca. 300-400 m Seesedimente haben die postglaziale Geschichte der letzten 10000 Jahre aufgezeichnet. In diesem dicken Sedimentpaket dürfte der See die Klimageschichte bis weit zurück vor das letzte Glazial gespeichert haben und würde sich daher als exzellentes Klimaarchiv anbieten. Um diesen Sachverhalt zu klären, wurde im Sommer 2019 eine Expedition mit dem FS Maria S. Merian (MSM84) unternommen. Während dieser Expedition wurden Sedimentkerne gezogen sowie ein dichtes Netz von hydroakustischen Messungen durchgeführt. Anhang der Sedimentkerne und der Sedimentecholot-Daten kann man fünf verschiedene Schichten im Untergrund des Sees erkennen: (I) post-glaziale Sedimente; (II) Sedimente aus der Zeit des Eisrückzuges; (III) Sedimente, die mit großer Wahrscheinlichkeit in einem subglazialen See unterhalb des aufschwimmenden LIS abgelagert wurden. Darunter finden sich (IV) wiederum schön geschichtete Sedimente, die aus einem früheren eisfreien Zeitraum stammen dürften, vermutlich MIS5, MIS4 oder die erste Hälfte des MIS3. Als unterste Schichte ist das Grundgestein (V) zu erkennen. Unsere Sedimentkerne enthalten Sedimente aus I und II sowie aus dem obersten Bereich von III. Im Rahmen dieses Projektes schlagen wir vor, die post-glazialen Sedimente sowie diejenige vom Rückzug des LIS genauer zu untersuchen, um daran Paläoklimaschwankungen sowie die Rückzugsgeschichte des LIS zu rekonstruieren. In einem zweiten Schritt möchten wir auch die Sedimente analysieren, die vom subglazialen See zu stammen, um diesen besser zu charakterisieren und um zu testen, ob auch diese Sedimente Klimaschwankungen aufgezeichnet haben. Um diese Fragen zu beantworten, werden wir die Sedimentkerne zuerst mit zerstörungsfreien Methoden wie CT-Scanning, Multisensor-Core-Logging und XRF-Scanning untersuchen. Danach werden ausgewählte Kernabschnitte beprobt. Mit Hilfe von Radiokarbondatierungen und paläomagnetischen Messungen werden wir ein Altersmodell erstellen können. Mit einer Kombination der zerstörungsfreien Messungen mit Einzelprobenmessungen (TIC, TOC, Korngröße, XRD, WD-XRF) werden wir die in den Kernen enthaltene paläoklimatologische Information entschlüsseln. Hierbei werden wir einen Schwerpunkt auf die Entwicklung von Proxies legen, die geeignet sind, die vergangenen Vorstöße und Rückzüge des LIS zu rekonstruieren. Falls wir zeigen können, dass die Sedimente des Melvillesees tatsächlich ein Archiv für Klimageschichte auch jenseits des Holozäns sind, dann empfiehlt sich der See als ein Hauptziel einer zukünftigen amphibischen Tiefbohrung von IODP und ICDP. Diese würde mit dem Ziel abgeteuft, die Dynamik des LIS zu rekonstruieren.

Besondere Gebührenverordnung des BMUV für individuell zurechenbare öffentliche Leistungen in dessen Zuständigkeitsbereich (BMUBGebV)

Nichtamtliches Inhaltsverzeichnis § 1 Erhebung von Gebühren und Auslagen (1) Gebühren und Auslagen werden für individuell zurechenbare öffentliche Leistungen (gebührenfähige Leistungen) erhoben, die auf Grund der folgenden Vorschriften erbracht werden: 1. Chemikaliengesetz, auch in Verbindung mit der Verordnung (EU) Nr. 528/2012 des Europäischen Parlaments und des Rates vom 22. Mai 2012 über die Bereitstellung auf dem Markt und die Verwendung von Biozidprodukten (ABl. L 167 vom 27.6.2012, S. 1), die zuletzt durch die Delegierte Verordnung (EU) 2021/407 (ABl. L 81 vom 9.3.2021, S. 15) geändert worden ist, in der jeweils geltenden Fassung und der Verordnung (EU) Nr. 649/2012 des Europäischen Parlaments und des Rates vom 4. Juli 2012 über die Aus- und Einfuhr gefährlicher Chemikalien (ABl. L 201 vom 27.7.2012, S. 60), die zuletzt durch die Delegierte Verordnung (EU) 2020/1068 (ABl. L 234 vom 21.7.2020, S. 1) geändert worden ist, in der jeweils geltenden Fassung, 2. Wasch- und Reinigungsmittelgesetz in Verbindung mit der Verordnung (EG) Nr. 648/2004 des Europäischen Parlaments und des Rates vom 31. März 2004 über Detergenzien (ABl. L 104 vom 8.4.2004, S. 1), die zuletzt durch die Verordnung (EU) Nr. 259/2012 (ABl. L 94 vom 30.3.2012, S. 16) geändert worden ist, in der jeweils geltenden Fassung, 3. Verordnung (EG) Nr. 1013/2006 des Europäischen Parlaments und des Rates vom 14. Juni 2006 über die Verbringung von Abfällen (ABl. L 190 vom 12.7.2006, S. 1), die zuletzt durch die Delegierte Verordnung (EU) 2020/2174 (ABl. L 433 vom 22.12.2020, S. 11) geändert worden ist, in der jeweils geltenden Fassung, 4. Umweltschutzprotokoll-Ausführungsgesetz, 5. Delegierte Verordnung (EU) 2019/1122 der Kommission vom 12. März 2019 zur Ergänzung der Richtlinie 2003/87/EG des Europäischen Parlaments und des Rates im Hinblick auf die Funktionsweise des Unionsregisters (ABl. L 177 vom 2.7.2019, S. 3), die zuletzt durch die Delegierte Verordnung (EU) 2019/1124 (ABl. L 177 vom 2.7.2019, S. 66) geändert worden ist, in der jeweils geltenden Fassung in Verbindung mit dem Treibhausgas-Emissionshandelsgesetz, 6. Trinkwasserverordnung, 7. Upstream-Emissionsminderungs-Verordnung, 8. Verpackungsgesetz, 9. Bundesnaturschutzgesetz, 10. Umweltschadensgesetz, 11. Verordnung (EG) Nr. 338/97 des Rates vom 9. Dezember 1996 über den Schutz von Exemplaren wildlebender Tier- und Pflanzenarten durch Überwachung des Handels (ABl. L 61 vom 3.3.1997, S. 1), die zuletzt durch die Verordnung (EU) 2019/2117 (ABl. L 320 vom 11.12.2019, S. 13) geändert worden ist, in der jeweils geltenden Fassung, 12. Verordnung (EG) Nr. 865/2006 der Kommission vom 4. Mai 2006 mit Durchführungsbestimmungen zur Verordnung (EG) Nr. 338/97 des Rates über den Schutz von Exemplaren wild lebender Tier- und Pflanzenarten durch Überwachung des Handels (ABl. L 166 vom 19.6.2006, S. 1), die zuletzt durch die Verordnung (EU) 2019/220 (ABl. L 35 vom 7.2.2019, S. 3) geändert worden ist, in der jeweils geltenden Fassung, 13. Gesetz zur Umsetzung der Verpflichtungen nach dem Nagoya-Protokoll und zur Durchführung der Verordnung (EU) Nr. 511/2014, 14. Gesetz zu dem Übereinkommen vom 1. Juni 1972 zur Erhaltung der antarktischen Robben, 15. Einwegkunststofffondsgesetz. (2) Für gebührenfähige Leistungen nach Absatz 1 Nummer 9 und 10 in Verbindung mit Abschnitt 9 Nummer 2 und Abschnitt 10 des Gebühren- und Auslagenverzeichnisses in der Anlage gelten die Vorschriften dieser Besonderen Gebührenverordnung nach Maßgabe der Vorgaben des Seerechtsübereinkommens der Vereinten Nationen vom 10. Dezember 1982 (BGBl. 1994 II S. 1798, 1799; 1995 II S. 602) auch im Bereich der deutschen ausschließlichen Wirtschaftszone und des Festlandsockels.

Reservoir-modelling and parametrization of a potential reservoir structure (Pilot area B) in the German North Sea

As part of the CDRmare joint project GEOSTOR (https://geostor.cdrmare.de/), the BGR created detailed static geological 3D models for two potential CO2 storage structures in the Middle Buntsandstein in the Exclusive Economic Zone (EEZ) of the German North Sea and supplemented them with petrophysical parameters (e.g. porosities, permeabilities). The 3D geological model (Pilot area B; ~560 km2) is located in the north-western part of the German North Sea sector, the so-called “Entenschnabel”, an approximately 150 kilometer long and 30 kilometer wide area between the offshore sectors of the Netherlands, Denmark and Great Britain (pilot region B). The model in the Ducks Beak is based on several high-resolution 3D seismic data and geophysical/geological information from four exploration wells. It includes 20 generalized faults and the following 16 horizon surfaces: 1) Sea Floor, 2) Mid Miocene Unconformity, 3) Base Tertiary, 4) Base Upper Cretaceous, 5) Base Lower Cretaceous, 6) Base Upper Jurassic, 7) Base Lower Jurassic, 8) Base Muschelkalk, 9) Base Röt, 10) Base Solling Formation, 11) Base Detfurth Formation, 12) Base Volpriehausen Wechselfolge, 13) Base Volpriehausen Formation, 14) Base Triassic, 15) Base Zechstein, 16) Top Basement. The reservoir formed by sandstones of the Middle Buntsandstein is located within the Mads Graben, which is bounded to the west by the extensive Mads Fault (normal fault). Marine mudstones of the Upper Jurassic and Lower Cretaceous serve as the main seal formations. Petrophysical analyses of all considered well data were conducted and reservoir properties (including porosity and permeability) were calculated to determine the static reservoir capacity for these potential CO2 storage structures. The model parameterized and can be used for further dynamic simulations of storage capacity, geo-risk, and infrastructure analyses, in order to develop a comprehensive feasibility study for potential CO2 storage within the project framework. The 3D models were created by the BGR between 2021 and 2024. SKUA-GOCAD was used as the modeling software. We would like to thank AspenTech for providing licenses for their SSE software package as part of the Academic Program (https://www.aspentech.com/en/academic-program).

Repository der KI-Ideenwerkstatt: robbenblick

# robbenblick A Computer Vision project for object detection and annotation management using YOLOv8, SAHI, and FiftyOne, with the primary aim of counting objects (Robben) in large aerial images. ## Overview This repository provides a complete MLOps pipeline for: * **Data Preparation:** Converting raw CVAT annotations (XML) and large images into a tiled, YOLO-compatible dataset. * **Automated Experiments:** Systematically training and tuning YOLOv8 models. * **Tiled Inference:** Running optimized inference (SAHI) on large, high-resolution images for object counting. * **Evaluation:** Assessing model performance for both detection (mAP) and counting (MAE, RMSE, R²). * **Visualization:** Analyzing datasets and model predictions interactively with FiftyOne. ## Pretrained Model Weights Pretrained model weights are available on Hugging Face: https://huggingface.co/ki-ideenwerkstatt-23/robbenblick/ ## Project Workflow The project is designed to follow a clear, sequential workflow: 1. **Prepare Data (`create_dataset.py`):** Organize your raw images and CVAT `annotations.xml` in `data/raw/` as shown below. ```text data/raw/ ├── dataset_01/ │ ├── annotations.xml │ └── images/ └── dataset_02/ ... ``` Run the script to generate a tiled, YOLO-formatted dataset in `data/processed/` and ground truth count CSVs. 2. **Tune Model (`run_experiments.py`):** Define a set of hyperparameters (e.g., models, freeze layers, augmentation) in `configs/base_iter_config.yaml`. Run the script to train a model for every combination and find the best performer. 3. **Validate Model (`yolo.py`):** Take the `run_id` of your best experiment and run validation on the hold-out `test` set to get **detection metrics (mAP)**. 4. **Infer & Count (`predict_tiled.py`):** Use the best `run_id` to run sliced inference on new, large images. This script generates final counts and visual outputs. 5. **Evaluate Counts (`evaluate_counts.py`):** Compare the `detection_counts.csv` from inference against the `ground_truth_counts.csv` to get **counting metrics (MAE, RMSE)**. 6. **Visualize (`run_fiftyone.py`):** Visually inspect your ground truth dataset or your model's predictions at any stage. ## Configuration This project uses two separate configuration files, managed by `robbenblick.utils.load_config`. * **`configs/base_config.yaml`** * **Purpose:** The single source of truth for **single runs**. * **Used By:** `create_dataset.py`, `predict_tiled.py`, `run_fiftyone.py`, and `yolo.py` (for validation/single-predict). * **Content:** Defines static parameters like data paths (`dataset_output_dir`), model (`model`), and inference settings (`confidence_thresh`). * **`configs/base_iter_config.yaml`** * **Purpose:** The configuration file for **experiments and tuning**. * **Used By:** `run_experiments.py`. * **Content:** Any parameter defined as a **YAML list** (e.g., `model: [yolov8n.pt, yolov8s.pt]`) will be iterated over. `run_experiments.py` will test every possible combination of all lists. ## Environment Setup 1. Clone the repository: ```sh git clone git@github.com:ki-iw/robbenblick.git cd robbenblick ``` 2. Create the Conda environment: ```sh conda env create --file environment.yml conda activate RobbenBlick ``` 3. (Optional) Install pre-commit hooks: ```sh pre-commit install ``` ## Core Scripts & Usage ### `create_dataset.py` * **Purpose:** Converts raw CVAT-annotated images and XML files into a YOLO-compatible dataset, including tiling and label conversion. * **How it works:** * Loads configuration from a config file. * Scans `data/raw/` for dataset subfolders. * Parses CVAT XML annotations and extracts polygons. * Tiles large images into smaller crops based on `imgsz` and `tile_overlap` from the config. * Converts polygon annotations to YOLO bounding box format for each tile. * Splits data into `train`, `val`, and `test` sets and writes them to `data/processed/dataset_yolo`. * Saves a `ground_truth_counts.csv` file in each raw dataset subfolder, providing a baseline for counting evaluation. * **Run:** ```sh # Do a 'dry run' to see statistics without writing files python -m robbenblick.create_dataset --dry-run --config configs/base_config.yaml # Create the dataset, holding out dataset #4 as the test set python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 4 ``` * **Key Arguments:** * `--config`: Path to the `base_config.yaml` file. * `--dry-run`: Run in statistics-only mode. * `--test-dir-index`: 1-based index of the dataset subfolder to use as a hold-out test set. * `--val-ratio`: Ratio of the remaining data to use for validation. ### `run_experiments.py` * **Purpose:** **This is the main training script.** It automates hyperparameter tuning by iterating over parameters defined in `base_iter_config.yaml`. * **How it works:** * Finds all parameters in the config file that are lists (e.g., `freeze: [None, 10]`). * Generates a "variant" for every possible combination of these parameters. * For each variant, it calls `yolo.py --mode train` as a subprocess with a unique `run_id`. * After all runs are complete, it reads the `results.csv` from each run directory, sorts them by `mAP50`, and prints a final ranking table. * **Run:** ```sh # Start the experiment run defined in the iteration config python -m robbenblick.run_experiments --config configs/base_iter_config.yaml # Run experiments and only show the top 5 results python -m robbenblick.run_experiments --config configs/base_iter_config.yaml --top-n 5 ``` ### `predict_tiled.py` * **Purpose:** **This is the main inference script.** It runs a trained YOLOv8 model on new, full-sized images using Sliced Aided Hyper Inference (SAHI). * **How it works:** * Loads a trained `best.pt` model specified by the `--run_id` argument. * Loads inference parameters (like `confidence_thresh`, `tile_overlap`) from the `base_config.yaml`. * Uses `get_sliced_prediction` from SAHI to perform tiled inference on each image. * Saves outputs, including visualized images (if `--save-visuals`), YOLO `.txt` labels (if `--save-yolo`), and a `detection_counts.csv` file. * **Run:** ```sh # Run inference on a folder of new images and save the visual results python -m robbenblick.predict_tiled \ --config configs/base_config.yaml \ --run_id "best_run_from_experiments" \ --source "data/new_images_to_count/" \ --output-dir "data/inference_results/" \ --save-visuals ``` ### `evaluate_counts.py` * **Purpose:** Evaluates the *counting* performance of a model by comparing its predicted counts against the ground truth counts. * **How it works:** * Loads the `ground_truth_counts.csv` generated by `create_dataset.py`. * Loads the `detection_counts.csv` generated by `predict_tiled.py`. * Merges them by `image_name`. * Calculates and prints key regression metrics (MAE, RMSE, R²) to assess the accuracy of the object counting. * **Run:** ```sh # Evaluate the counts from a specific run python -m robbenblick.evaluate_counts \ --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" \ --pred-csv "data/inference_results/detection_counts.csv" ``` ### `yolo.py` * **Purpose:** The core engine for training, validation, and standard prediction. This script is called by `run_experiments.py` for training. You can use it directly for validation. * **How it works:** * `--mode train`: Loads a base model (`yolov8s.pt`) and trains it on the dataset specified in the config. * `--mode validate`: Loads a *trained* model (`best.pt` from a run directory) and validates it against the `test` split defined in `dataset.yaml`. This provides **detection metrics (mAP)**. * `--mode predict`: Runs standard (non-tiled) YOLO prediction on a folder. * **Run:** ```sh # Validate the 'test' set performance of a completed run python -m robbenblick.yolo \ --config configs/base_config.yaml \ --mode validate \ --run_id "best_run_from_experiments" ``` ### `run_fiftyone.py` * **Purpose:** Visualizes datasets and predictions using FiftyOne. * **How it works:** * `--dataset groundtruth`: Loads the processed YOLO dataset (images and ground truth labels) from `data/processed/`. * `--dataset predictions`: Loads images, runs a specified model (`--run_id`) on them, and displays the model's predictions. * **Run:** ```sh # View the ground truth annotations for the 'val' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset groundtruth \ --split val \ --recreate # View the predictions from 'my_best_run' on the 'test' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset predictions \ --split test \ --run_id "my_best_run" \ --recreate ``` ### `streamlit_app.py` * **Purpose:** Quick test runs with the trained model of your choice for counting the seals in the image(s) and visualization. * **How it works:** * Loads the selected YOLO model from `runs/detect/`. * Upload images, run model, then displays the counts and model's predictions as image visualization. * **Run:** ```sh # View the ground truth annotations for the 'val' split export PYTHONPATH=$PWD && streamlit run robbenblick/streamlit_app.py ``` ## Recommended Full Workflow 1. **Add Raw Data:** * Place your first set of images and annotations in `data/raw/dataset_01/images/` and `data/raw/dataset_01/annotations.xml`. * Place your second set (e.g., from a different location) in `data/raw/dataset_02/images/` and `data/raw/dataset_02/annotations.xml`. 2. **Create Dataset:** * Run `python -m robbenblick.create_dataset --dry-run` to see your dataset statistics. Note the indices of your datasets. * Let's say `dataset_02` is a good hold-out set. Run: `python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 2` * This creates `data/raw/dataset_02/ground_truth_counts.csv` for later. 3. **Find Best Model:** * Edit `configs/base_iter_config.yaml`. Define your experiments. ```yaml # Example: Test two models and two freeze strategies model: ['yolov8s.pt', 'yolov8m.pt'] freeze: [None, 10] yolo_hyperparams: scale: [0.3, 0.5] ``` * Run the experiments: `python -m robbenblick.run_experiments`. * Note the `run_id` of the top-ranked model, e.g., `iter_run_model_yolov8m.pt_freeze_10_scale_0.3`. 4. **Validate on Test Set (Detection mAP):** * Check your best model's performance on the unseen test data: `python -m robbenblick.yolo --mode validate --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --config configs/base_config.yaml` * This tells you how well it *detects* objects (mAP). 5. **Apply Model for Counting:** * Get a new folder of large, un-annotated images (e.g., `data/to_be_counted/`). * Run `predict_tiled.py`: `python -m robbenblick.predict_tiled --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --source "data/to_be_counted/" --output-dir "data/final_counts/" --save-visuals` * This creates `data/final_counts/detection_counts.csv`. 6. **Evaluate Counting Performance (MAE, RMSE):** * Now, compare the predicted counts (Step 5) with the ground truth counts (Step 2). Let's assume your "to_be_counted" folder *was* your `dataset_02`. `python -m robbenblick.evaluate_counts --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" --pred-csv "data/final_counts/detection_counts.csv"` * This gives you the final MAE, RMSE, and R² metrics for your **counting task**. ## Additional Notes This repository contains only the source code of the project. The training data and the fine-tuned model weights are not included or published. The repository is currently not being actively maintained. Future updates are not planned at this time. For transparency, please note that the underlying model used throughout this project is based on **YOLOv8 by Ultralytics**. ## License Copyright (c) 2025 **Birds on Mars**. This project is licensed under the **GNU Affero General Public License v3.0 (AGPL-3.0)**. This aligns with the license of the underlying **YOLOv8** model architecture used in this project. Please note: **Training data and fine-tuned model weights are not part of the licensed materials** and are not included in this repository. For full details, see the LICENSE file. ## Troubleshooting ### FiftyOne: images (partially) not visible Try using `--recreate` flag to force FiftyOne to reload the dataset: ```sh python robbenblick/run_fiftyone.py --dataset groundtruth --split val --recreate ``` ### FiftyOne: failed to bind port If you get: ``` fiftyone.core.service.ServiceListenTimeout: fiftyone.core.service.DatabaseService failed to bind to port ``` Try killing any lingering `fiftyone` or `mongod` processes: ```sh pkill -f fiftyone pkill -f mongod Then rerun your script. ``` # Collaborators The code for this project has been developed through a collaborative effort between [WWF Büro Ostsee](https://www.wwf.de/themen-projekte/projektregionen/ostsee) and [KI-Ideenwerkstatt](https://www.ki-ideenwerkstatt.de), technical implementation by [Birds on Mars](https://birdsonmars.com). <p></p> <a href="https://ki-ideenwerkstatt.de" target="_blank" rel="noopener noreferrer"> <img src="assets/kiiw.jpg" alt="KI Ideenwerkstatt" height="100"> </a> <p></p> Technical realization <br> <a href="https://birdsonmars.com" target="_blank" rel="noopener noreferrer"> <img src="assets/bom.jpg" alt="Birds On Mars" height="100"> </a> <p></p> An AI initiative by <br> <a href="https://www.bundesumweltministerium.de/" target="_blank" rel="noopener noreferrer"> <img src="assets/bmukn.svg" alt="Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit" height="100"> </a> <p></p> In the context of <br> <a href="https://civic-coding.de" target="_blank" rel="noopener noreferrer"> <img src="assets/civic.svg" alt="Civic Coding" height="100"> </a>

Seehunde: Ruheplätze im Schleswig-Holsteinischen Wattenmeer ab 1989, (Puffer: 500m)

Dienstbezogener Datenbestand zu den Ruheplätzen von Seehunden. Ein Ruheplatz ist eine berechnete Fläche, die auf Basis einzelner Liegeplätze von Seehunden bzw. Kegelrobben generiert wird. Dazu werden die Liegeplätze pro Jahr räumlich zusammengefasst. Ein Ruheplatz wird als Kreis mit einem Radius von 500m um einen Liegeplatz (mit mind. 2 Seehunden) herum definiert, wobei mehrere Liegeplätze so zu einer größeren Fläche aggregiert werden können. Der Abstand von 500m wurde gewählt, da Störungen, die mehr als 500m entfernt sind, keine oder kaum Auswirkungen auf ruhende Robben haben. Diese Flächen werden für Eingriffsplanungen benötigt, um die mit dem Eingriff verbundenen Störungen der Robben auf ein Mindestmaß zu reduzieren. Für Seehunde werden zur Berechnung der Ruheplätze pro Jahr Flüge vom 1.03-30.09 berücksichtigt. Der Dienst beinhaltet folgende Informationen: die Lage und Größe des Ruheplatzes und den Zeitraum der Erfassungen, die in die Berechnung eingeflossen sind.

Time series of environmental parameters of habitats along the Schleswig-Holstein Baltic Sea (2018 et seq)

The here presented data time-series are connected to the publication "Environmental parameters of shallow water habitats in the SW Baltic Sea" (Franz, M. et al. 2019b). Since 2019 a number of stations were added, and, hence, new time-series started. Every year a new dataset will be published including both, old and new stations. The following abstract is revised from Franz, M. et al. (2019b): The coastal areas of the Baltic Sea represent highly variable environments. In order to record the environmental conditions in shallow water habitats of the SW Baltic Sea, a monitoring program was established. The monitoring sites are located along the Baltic Sea coast of Schleswig-Holstein, Germany. Along the coast, 23 stations were established, where samplings for dissolved inorganic nutrient concentrations are conducted. Here, twice per month, water samples are collected in a water depth of 0.5 m. The samples are analysed for the concentration of dissolved inorganic nutrients (total oxidized nitrogen, nitrite, ammonia, phosphate and silicate) by UV/VIS spectroscopy using a continuous flow analyser (type QuAAtro 30; comp. SEAL Analytical, Hamburg, Germany. The system is equipped with a SEAL XY-2 autosampler). Quality control for nutrient measurements is ensured by certified reference material (CRM) by KANSO TECHNOS CO, LTD, Osaka, Japan. Additionally, at four shallow water stations (Booknis Eck, Bülk, Behrensdorf and Katharinenhof) temperature, salinity and dissolved oxygen are continuously logged at 2-3 m depth by self-contained data loggers. These are: (I) MiniDOT loggers (Precision Measurement Engineering; http://pme.com; ±10 µmol L-1 or ±5 % saturation) including antifouling copper option (copper plate and mesh) to measure dissolved oxygen concentration and (II) DST CT salinity & temperature loggers (Star-Oddi; http://star-oddi.com; ±1.5 mS cm-1) to record the conductivity. Both sensor types additionally record water temperature with an accuracy of ± 0.1 °C. The sampling interval was set to 30 minutes for all parameters. Another seven stations for continuous recordings of environmental parameters (again: temperature, salinity, dissolved oxygen) with the same two types of sensors were installed at 4-6 m depth in the context to the long-term monitoring project RegLocDiv (Regional-Local-Diversity) by M. Wahl (Franz, M. et al. 2019a) and included into this data set. These stations are at: Falshoeft, Booknis Eck, Schoenberg, Westermakesdorf, Staberhuk, Kellenhusen and Salzhaff (abandoned in 2023). Since 2021, in the context of implementing a reef monitoring to fulfil obligations by the EU Habitats Directive, step-by-step, eleven further stations were installed at reefs in the Schleswig-Holstein Baltic Sea. These are at: Platengrund (14 m depth) and Mittelgrund (8 m) (both since 2021), at Walkyriengrund (9 m), Brodtener Ufer (8 m), Außenschlei (11 m), Kalkgrund (8 m), Stollergrund (7.5 m) and Flueggesand (10 m) (all since 2022), as well as at Gabelsflach (10 m), Sagasbank (8.5 m) and Stabehuk (11.5 m) (all since 2023). Again, at all of these 11 stations, temperature, salinity and dissolved oxygen are continuously logged by self-contained data loggers: Conductivity (and temperature) is logged by HOBO® Salt Water Conductivity/Salinity Data Logger (Onset Computer Corporation, Bourne, MA, USA; https://www.onsetcomp.com) using the U2X protective housing to prevent fouling on the sensors. The same MiniDOT loggers (Precision Measurement Engineering) as at the above mentioned more shallow stations (including antifouling copper plate and mesh) are used to measure dissolved oxygen concentration. Dissolved oxygen concentration data measured by the MiniDOT loggers are corrected for a depth of 5 m (or 2,5 m on the shallow stations) using the software provided by the manufacturer. Additionally, a manual compensation for salinity was calculated (see details in Franz, M. et al. 2019b). Quality control was carried out by spike and gradient tests, following recommendations of SeaDataNet quality control procedures (see https://seadatanet.org/Standards/Data-Quality-Control). All data values were flagged according to applied quality checks using the following flags: 1 = Pass, 2 = Suspect, 3 = Fail, 4 = Visually suspect, 5 = Salinity compensation fail (further explanations can be found in Franz, M. et al. 2019b). The project is funded by the LfU (Landesamt für Umwelt, Schleswig-Holstein, Germany). Main responsible persons are C. Hiebenthal, C. Lieberum, F. Weinberger and R. Karez. Responsible for the nutrient analysis: N. Stärck; Responsible for taking the water samples: C. Lieberum and D. Bürger.

Seehunde: Sichtungen an Liegeplätzen im Schleswig-Holsteinischen Wattenmeer ab 1989

Dieser dienstbezogene Datenbestand stellt alle ab 1989 verfügbaren Seehund-Daten aus Zählflügen im Bereich des Nationalparks "Schleswig-Holsteinisches Wattenmeer" zur Verfügung. Hier handelt es sich um Daten aus flächendeckenden, flugzeuggestützten Erfassungen aus, für Seehunden relevanten Jahreszeiten, ab 1989: in der Regel werden pro Jahr zur Wurfzeit (Mai - Juli) drei und zur Haarwechselzeit (August - September) zwei Erfassungsflüge durchgeführt. Dieser Dienst liefert folgende Informationen, die zur Bestandsabschätzung nötig sind: Anzahlen von Seehunden pro Liegeplatz pro Flug und den Anteil an Jungtieren. Der hier beschriebene Datenbestand liefert alle Daten der Erfassungsflüge ab 1989. Durch einen Jahres-Filter können die Daten auf die einzelnen Erfassungsjahre eingeschränkt werden, pro Jahr werden dann alle fünf Erfassungen dargestellt. Auf Basis des Flugdatums können die Erfassungen auch einzeln dargestellt werden. Während des Monitorings wird allen gezählten Einzeltieren bzw. Gruppen eine punktgenaue Koordinate zugewiesen, die als Liegeplatz definiert ist. Wenn möglich wird bei der Zählung nach adulten und juvenilen Tieren unterschieden. Sichtungen außerhalb dieses Zeitraumes werden in diesem Datensatz nicht zur Verfügung gestellt (siehe dazu: Robben: Monitoring der Bestände von Seehunden und Kegelrobben im Schleswig-Holsteinischen Wattenmeer ab 1989.

Robben: Monitoring der Bestände von Seehunden und Kegelrobben im Schleswig-Holsteinischen Wattenmeer ab 1989

Diese ungefilterte aber geprüfte Datentabellle stellt alle ab 1989 verfügbaren Seehund und Kegelrobben-Daten aus Zählflügen im Bereich des Nationalparks Schleswig-Holsteinischen Wattenmeer zur Verfügung. Es handelt sich bei den Daten einerseits um Erfassungen die während der Seehund-Flüge in den Monaten Mai - Juli (Wurfzeit) und August - September (Haarwechselzeit) durchgeführt werden, andererseits aber auch um Daten, die während der Kegelrobben-Flüge in den Monaten November - April erfasst wurden. Da es sich um eine UIG entsprechende vollständige Weitergabe der aufbereiteten Rohdaten handelt, wurde keine methodische oder biologische Filterung der Daten vorgenommen. Daher sind die Daten für eine Bestandsberechnung nur nach ansprechender Filterung möglich.

(WMS) - Seehunde: Sichtungen an Liegeplätzen im Schleswig-Holsteinischen Wattenmeer ab 1989 (LKN.SH - NPV)

Darstellungs-Geodienst zum Vorkommen von Seehunden an Liegeplätzen im Bereich des Nationalparks "Schleswig-Holsteinisches Wattenmeer". Hier handelt es sich um Daten aus flächendeckenden, flugzeuggestützten Erfassungen aus, für Seehunden relevanten Jahreszeiten, ab 1989: in der Regel werden pro Jahr zur Wurfzeit (Mai - Juli) drei und zur Haarwechselzeit (August - September) zwei Erfassungsflüge durchgeführt. Dieser Dienst liefert folgende Informationen, die zur Bestandsabschätzung nötig sind: Anzahlen von Seehunden pro Liegeplatz pro Flug und den Anteil an Jungtieren. Es sind folgende Layer / Tabellen in diesem Dienst enthalten: 1. Gesamttabelle mit allen Seehund-Monitoring-Flügen ab 1989 2. Tabellen gesplittet nach einzelnen Jahren (ab 2015). In einem Jahres-Layer sind die Daten aller fünf Erfassungen eines Jahres enthalten. 3. Gesamttabelle mit den Anteilen der Jungtiere (nur Daten aus den drei Flügen in der Wurfzeit - In Vorbereitung) Bei flächendeckenden, flugzeuggestützten Erfassungen wird allen gezählten Einzeltieren bzw. Gruppen eine punktgenaue Koordinate zugewiesen, die als Liegeplatz definiert ist. Wenn möglich wird bei der Zählung nach adulten und juvenilen Tieren unterschieden. Für Bestandsberechnungen können die Daten nach einzelnen Erfassungsflügen gefiltert werden. Auf Grundlage der Liegeplatz-Daten wurden zur Bewertung von Eingriffen auch die Ruheplätze der Seehunde berechnet und als Dienst bereitgestellt: (WFS) - Seehunde: Ruheplätze, Objekt-ID:bd9656630-a451-4c01-a228-d9fff62df5f8 Sichtungen außerhalb des oben genannten Zeitraumes werden in diesem Datensatz nicht zur Verfügung gestellt (siehe dazu "(WFS)-Robben: Monitoring der Bestände von Seehunden und Kegelrobben im Schleswig-Holsteinischen Wattenmeer ab 1989" (Object-ID: d847163b-b077-4195-be56-de7664201768).

Inklusives und integriertes multi-Gefahren Risikomanagement und Freiwilligenengagement zur Erhöhung sozialer Resilienz im Klimawandel, Teilvorhaben: Multi-Risiko Indikatoren Ansatz für Bewertung urbaner Resilienz

1 2 3 4 524 25 26