API src

Found 1712 results.

Similar terms

s/maschinelles-lernen/Maschinelles Lernen/gi

Weiterentwicklung des BirdRecorders mit neuester Sensortechnologie und Erweiterung für nachtaktive Vögel und Fledermäuse zur Minderung von Kollisionen von Vögeln und Fledermäusen an Windenergieanlagen, Teilvorhaben: Multifunktionaler Laserentfernungsmesser

Ziel des Vorhabens ist die Entwicklung und Erprobung eines neuartigen, modularen Bird- und BatRecorders (BBR 2.0) als Antikollisionssystem für den vogel- und fledermausfreundlichen Betrieb von Windkraftanlagen, anpassbar auf beliebige Windparklayouts für Offenland- und Waldstandorte. Basis der Entwicklung des BBR 2.0 Systems ist die Prototypentwicklung des kamerabasierten BirdRecorder-Systems, das im Rahmen eines vom Bundesamt für Naturschutz geförderten Vorhabens entwickelt wurde. Mit einer neuartigen Kombination von scannenden Lidarsensoren und Laserentfernungsmesstechnik mit fest installierten und nachgeführten Kameras im sichtbaren und nahen Infrarot Spektralbereich ist die Detektion und Verfolgung der Flugbahn von tag- und nachtaktiven Vögeln und Fledermäusen im Umkreis von Windenergieanlagen möglich. Mit Methoden der künstlichen Intelligenz erfolgt die Arterkennung von Vögeln und Fledermäusen, um Kollisionen mit Windenergieanlagen weitgehend vermeiden zu können. Mittels Modularisierung des BBR 2.0 Systems wird ein Systembaukasten von Sensoren, Komponenten und Modulen entwickelt, der je nach geforderter Beobachtungssituation am Standort, für den vogel- und fledermausfreundlichen Betrieb von einzelnen WEAs bis zu großen Windparks zusammengestellt, konfiguriert und kontinuierlich betrieben werden kann. Damit können die bisherigen, meist pauschalen Abschaltzeiten von WEAs bedarfsgerecht minimiert werden, um den Ertrag von bestehenden und neuen Windparks zu steigern. Das entwickelte BBR 2.0 wird zusammen mit Partnern in mehreren Windparks in unterschiedlichen Naturräumen erprobt. Das Vorhaben wird von einer projektbegleitenden Arbeitsgruppe begleitet und beraten, in der Vertreter:innen aller relevanten Stakeholder aus dem Bereich Windenergie, Naturschutz und Branchenverbände vertreten sein werden.

Performante Open Source Software Suite für die Forschung zur Dynamik von Stromnetzen

Angesichts der Herausforderungen der Energiewende und insbesondere dem anstehenden Wechsel von Synchronmaschinen zu netzbildenden Wechselrichtern, ist methodische Forschung zur kollektiven Dynamik von Stromnetzen hochaktuell. Existierende Simulationsumgebungen entsprechen oft nicht dem Stand der Technik, was numerische Methoden sowie die Nutzung von High-Performance Computern (HPC) und GPUs angeht. Dies verhindert ihren Einsatz in großen Sampling Studien, die zum Beispiel für den Einsatz von Machine Learning (ML) notwendig sind. Des Weiteren lassen sich methodische und mathematische Fortschritte häufig nur schwer oder gar nicht in existierender Software implementieren, wodurch sie nicht an realistischen Modellen validiert werden können und letzten Endes nicht in der Praxis ankommen. Für die methodische Forschung ist die Flexibilität der Implementierung der Modelle, als auch die Performance von Simulationen von entscheidender Bedeutung. Für den Einsatz von KI und ML sind große Mengen an Simulationsdaten als Input erforderlich. Um überhaupt in die Forschung zu hybriden KI Methoden, die physikalischen Simulationen und ML direkt verbinden, einsteigen zu können, ist es notwendig, die Modelle in dafür konzeptionierten Programmiersprachen zu implementieren. Existierende Softwaretools stoßen auch in der Praxis an Performance-Grenzen. Durch die eingeschränkte Leistungsfähigkeit heutiger Simulationssoftware können so in zeitkritischen Situationen nicht alle potenziell relevanten Störfälle betrachtet werden. In diesem Projekt soll diese Lücke geschlossen werden, indem eine Software Suite entwickelt wird, die darauf ausgelegt ist, methodische Neuerungen schnell und effektiv zu integrieren und gleichzeitig realistische dynamische Modelle des Stromnetzes simulieren kann. Die Aufgaben des PIK umfassen Koordination des Projekts, Community-Building und Workshops, Trainingsmaterialien und Tutorials, Backend- und Frontend-Entwicklung sowie erste Forschungsvorhaben als Modellstudien.

Tree Species - Sentinel-1/2 - Germany, 2022

The Tree Species Germany product provides a map of dominant tree species across Germany for the year 2022 at a spatial resolution of 10 meters. The map depicts the distribution of ten tree species groups derived from multi-temporal optical Sentinel-2 data, radar data from Sentinel-1, and a digital elevation model. The input features explicitly incorporate phenological information to capture seasonal vegetation dynamics relevant for species discrimination. A total of over 80,000 training and test samples were compiled from publicly accessible sources, including urban tree inventories, Google Earth Pro, Google Street View, and field observations. The final classification was generated using an XGBoost machine learning algorithm. The Tree Species Germany product achieves an overall F1-score of 0.89. For the dominant species pine, spruce, beech, and oak, class-wise F1-scores range from 0.76 to 0.98, while F1-scores for other widespread species such as birch, alder, larch, Douglas fir, and fir range from 0.88 to 0.96. The product provides a consistent, high-resolution, and up-to-date representation of tree species distribution across Germany. Its transferable, cost-efficient, and repeatable methodology enables reliable large-scale forest monitoring and offers a valuable basis for assessing spatial patterns and temporal changes in forest composition in the context of ongoing climatic and environmental dynamics.

Standorte von Onshore-Windenergieanlagen in Deutschland – abgeleitet aus Fernerkundungsdaten (Datensatz)

Der rasche Ausbau der erneuerbaren Energiequellen stellt eine große Herausforderung dar, wenn es darum geht, die Energieentwicklung mit konkurrierenden Interessen in Einklang zu bringen. Dies unterstreicht die Notwendigkeit präziser raumbezogener Daten, um eine effektive Bilanzierung, Steuerung oder Bewertung der Einhaltung gesetzlicher Vorgaben zu ermöglichen. In Deutschland stellt das vom Bundesnetzagentur betriebene Marktstammdatenregister (MaStR) eine weit verbreitete Datenquelle für standort- und anlagenspezifische Informationen dar. Der vorliegende Datensatz baut auf dem Marktstammdatenregister auf und verbessert dessen räumliche Genauigkeit für Onshore-Windkraftanlagen durch die Nutzung hochauflösender Fernerkundungsdaten und Deep Learning gestützter Objekterkennung. Der Datensatz besteht aus Punktgeometrien von Windenergieanlagen an Land in Deutschland. Die Windkraftanlagen wurden mithilfe des Objekterkennungsalgorithmus YOLO auf hochauflösenden Satellitenbild-Zeitreihen von PlanetScope detektiert. Die Inferenz erfolgte auf monatlichen PlanetScope-Basiskarten (Global Monthly Basemaps) für die Monate April bis Oktober der Jahre 2018 bis 2024, mit insgesamt 45 deutschlandweiten Inferenzdurchläufen. Das Trainingsdatenset basiert auf den von Manske & Schmiedt (2023) am UFZ semi-manuell korrigierten Standortdaten des Marktstammdatenregisters für die Jahre 2021, 2022 und 2023. Dabei wurden Windkraftanlagen standortgleichmäßig ausgewählt, um eine geografisch ausgewogene Trainingsstichprobe zu gewährleisten. Zusätzlich wurden Negativbeispiele in das Trainingsset aufgenommen. Diese wurden sowohl zufällig aus ganz Deutschland ausgewählt (mit Ausschlusszonen um Windkraftstandorte) als auch gezielt aus Objektklassen, die häufig zu Fehlklassifizierungen führen (z. B. Strommasten, Mobilfunktürme), basierend auf Daten aus OpenStreetMap. Der Datensatz wurde in mehreren Iterationen verfeinert: Schlechte anfängliche Labels, die nicht zuverlässig über mehrere Zeitpunkte hinweg vom trainierten Modell erneut erkannt wurden, wurden gefiltert. Zusätzlich wurden Szenen ergänzt, bei denen das Modell Schwierigkeiten hatte. Die monatlichen Detektionen von Windkraftanlagen über Deutschland hinweg wurden zeitlich aggregiert. Hierzu wurden alle Detektionen zusammengeführt, die innerhalb eines bestimmten Puffers über die Zeit hinweg wiederholt erkannt wurden. Die Zeitreihe der Erkennungszeitpunkte wurde als Attribut an die aggregierten Punkte angefügt. Um Detektionsrauschen zu filtern, kann der Datensatz nach einer Mindestanzahl von Erkennungen pro Punkt gefiltert werden. In zukünftigen Arbeiten planen wir, den Datensatz um aktuelle Monate zu erweitern, die Nachbearbeitung zur Eliminierung von Fehlklassifikationen zu verbessern sowie für jede Erkennung eine Verlinkung zur jeweiligen ID im Marktstammdatenregister bereitzustellen.

Resiliente Abfluss- und Stauregelung der Wasserstraßen bei extremen Niederschlagsereignissen

Abflussprognosen zur Bewältigung von Extremwetterlagen Um das Transportaufkommen in Deutschland auch unter schwierigen Bedingungen zu bewältigen und dies aufrecht zu erhalten bzw. zu steigern, sind verkehrsträgerübergreifende Lösungsansätze notwendig. Ziel dieses Projekt ist es, die Resilienz und die Verfügbarkeit des Verkehrsträgers Wasserstraße bei extremen Wetterereignissen zu erhöhen. Aufgabenstellung und Ziel Etwa 3.000 km der Bundeswasserstraßen sind mit Staustufen ausgebaut, die meist aus einem beweglichen Wehr, einer Schleuse und einem Laufwasserkraftwerk bestehen. Durch das Ändern des Abflusses über das Kraftwerk und über das Wehr hält ein lokaler Regler den gewünschten Oberwasserstand innerhalb der vorgegebenen Stauzieltoleranz. Die Abfluss- und Stauregelung soll dabei mehrere, mitunter gegensätzliche Ziele erfüllen: Einhaltung des Stauziels innerhalb der festgelegten Toleranz, Verminderung von Abflussschwankungen, optimale Nutzung der Wasserkraft und Minimierung des Verschleißes der Wehrverschlüsse. Im Zuge des Klimawandels ist mit einer Zunahme extremer Wetterereignisse zu rechnen. Die Abfluss- und Stauregelung steht gerade in Niedrigwasserperioden vor wachsenden Herausforderungen. Schwankungen des Abflusses sind in diesen Phasen schwierig auszugleichen und Über- bzw. Unterschreitungen der Stauzieltoleranz sind nicht auszuschließen. Dadurch entsteht eine Gefahr für die Schifffahrt. Ziel des vorgestellten Vorhabens ist es, anhand einer fundierten Datenanalyse und der Methode des maschinellen Lernens Zusammenhänge zwischen Niederschlagsereignissen und Abflussschwankungen vertieft zu untersuchen. Zusätzlich sollen Abflussprognosen erstellt werden, welche die Abfluss- und Stauregelung unterstützen. Bedeutung für die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) Die Verwendung maschinellen Lernens für Abflussvorhersagen auf der Basis von Niederschlags- und Zuflussdaten stellt ein vielversprechendes Werkzeug für die WSV dar. Prognosen schaffen einen vorausschauenden Handlungsspielraum für die Abfluss- und Stauregelung, sodass starke Wasserstandsund Abflussschwankungen minimiert und damit die Sicherheit und Leichtigkeit der Schifffahrt erhöht werden. Die Resilienz der Wasserstraße wird dadurch auch unter den zunehmenden Auswirkungen des Klimawandels gesteigert. Untersuchungsmethoden Das Verfahren wird exemplarisch an einer Stauhaltung der Mosel getestet. Die Niederschlagsdaten des Einzugsgebiets der Stauhaltung werden vom Deutschen Wetterdienst im Rahmen der Zusammenarbeit im BMDV-Expertennetzwerk bereitgestellt. Die Pegeldaten der oberliegenden Stauhaltung sowie die der untersuchten Stauhaltung selbst werden von der WSV zur Verfügung gestellt. In einem ersten Schritt werden die Pegeldaten untersucht. Anhand einer Kreuzkorrelation können Abhängigkeiten zwischen dem oberliegenden Pegel und dem Pegel in der untersuchten Stauhaltung aufgezeigt werden. In einem weiteren Schritt werden ebenfalls die Niederschlags- und Wehrdaten betrachtet und deren Zusammenhang mit den Pegeldaten untersucht. Zusätzlich wird eine Methode erarbeitet, um Wasserstandsschwankungen so zu filtern, dass die Werte möglichst unbeeinflusst von Schleusungen und Schifffahrt sind. Im Anschluss an die Aufbereitung der Daten wird nach einer geeigneten Methode des Maschinellen Lernens (ML) gesucht. Dabei werden unterschiedliche ML-Modelle in Python implementiert und trainiert. Der vielversprechendste Modelltyp soll weiter genutzt und mit unterschiedlichen Parametrierungen getestet werden. Hierbei wird immer auf einen Prognosezeitraum von drei Stunden hingearbeitet. Für die Abfluss- und Stauregelung ist eine dreistündige Prognose wünschenswert, um Schwankungen des Abflusses effektiv zu bewältigen.

Schlammindexvorhersage mittels künstlicher Intelligenz zum effizienteren Ressourceneinsatz in der Abwasserbeseitigung

Mit der Abwasserbehandlung auf Kläranlagen gehen eine Vielzahl von chemischen und biologischen Prozessen simultan einher. Diese sich gegenseitig beeinflussenden Prozesse, deren Auswirkungen, wenn sich bestimmte Parameter im Prozess ändern und wie Veränderungen vorhergesagt werden können, stellt die Betreiber der Anlagen zum Teil vor große Herausforderungen. Die meisten Einflüsse auf den Prozess bei sich ändernden Umständen sind bereits bekannt, lassen sich aber nur mit großem Aufwand darstellen. Im laufenden Betrieb fällt eine große Anzahl an Messparametern mit entsprechenden Daten an, die zentral abgespeichert werden. Hierbei handelt es sich zum einen um fest eingestellte Betriebswerte, zum anderen aber auch um Daten zu Verbräuchen und sich in Abhängigkeit der Prozesse ergebende Daten. Diese Daten stehen dabei meistens direkt bzw. indirekt in Beziehung zueinander. Bedingt durch die sehr großen Mengen an Daten war es bisher nur sehr schwer möglich, alle anfallenden Messwerte hinsichtlich eines Zielparameters auszuwerten. Eine Möglichkeit zur Analyse, die in den letzten Jahren mehr Beachtung gewinnt, besteht über die Nutzung von künstliche Intelligenz (KI), die durch tausende Rechenoperationen pro Sekunde Muster aufdecken kann. Über die Auswertung historischer Daten kann mit Nutzung der KI ein mathematischer Zusammenhang hergestellt werden. Dieser Zusammenhang soll für die Erstellung zukünftiger Prognosemodelle verwendet werden. Das zum Einsatz kommende Prognosemodell beruht dabei auf einem Digitalen Zwilling der Kläranlage, welcher, verbunden über die Sensoren der Kläranlage, diese virtuell abbildet und in Echtzeit mit seinem wirklichen Vorbild vernetzt ist. Diesem Vorgehen liegt der pragmatische Annahme zugrunde, dass der genaue Einfluss eines bestimmten Parameters zunächst nicht bekannt sein muss, sofern er mathematisch beschrieben werden kann. Das erstellte Modell kann dann beliebig auf Zielparameter eingestellt werden. Im Zuge des Forschungsvorhabens soll dieser Ansatz für die Anwendbarkeit einer möglichen Prognose der Absetzbarkeit des Belebtschlamms vorgenommen werden, explizit der Schlammindexvorhersage (ISV) im Belebtschlammverfahren.

Vorhersage von Schüttungen alpiner Karstquellen im Hinblick auf den Klimawandel unter Verwendung neuer Deep Learning-Methoden

Karstgrundwasserleiter spielen im Alpenraum eine wichtige Rolle. Sie bedecken etwa 56% der Fläche, und ein erheblicher Teil der Bevölkerung ist ganz oder teilweise von Trinkwasser aus Karstquellen abhängig, die oft mit wertvollen Ökosystemen verbunden sind und zur Wasserkrafterzeugung beitragen. Die Alpen zählen nach Studien zu den am stärksten vom Klimawandel betroffenen Gebieten in Europa. Als Folge der steigenden Temperaturen werden sich die gespeicherten Mengen an Schnee und Eis stark verringern, was zu einer Verschiebung zwischen Wasserhaushaltskomponenten in Verbindung mit einer saisonalen Umverteilung der Niederschläge führt. Außerdem wird erwartet, dass Hoch- und Niedrigwasserereignisse häufiger auftreten werden. Der Stand der Technik bei der Modellierung der Schüttung von Karstquellen, meist mittels konventioneller numerischer Modelle, ist auf standortspezifische, oft aufwändige und nicht übertragbare wissenschaftliche Studien beschränkt, die manuelle Modellabstimmung und Kalibrierung erfordern. Bis heute gibt es keinen leicht übertragbaren Ansatz, der gleichzeitig auf viele Karstquelleinzugsgebiete anwendbar ist. In diesem Projekt werden wir einen modernen, Deep-Learning basierten Ansatz zur Modellierung der Schüttung von Karstquellen entwickeln, der sich besonders gut eignet, übertragbare Modelle, die Informationen von verschiedenen Standorten nutzen können, aufzubauen. Deep Learning ist ein Teilgebiet des maschinellen Lernens, basierend auf künstlichen neuronalen Netzen, das sich sowohl bei akademischen als auch bei industriellen Anwendungen als sehr erfolgreich erwiesen hat. Die vorgeschlagene Studienregion sind die Alpen, mit Karstgebieten in Österreich, der Schweiz, Deutschland, Frankreich, Italien und Slowenien, mit einem Schwerpunkt auf dem besonders vom Klimawandel betroffenen von der Alpenkonvention abgegrenzten Gebirgsgebiet. Als Grundlage der Studie dient das World Karst Spring Database (WoKaS). Es wird im Laufe des Projekts mit zusätzlichen Daten von Behörden und Wasserversorgern ergänzt, insbesondere in Regionen mit bislang schlechter Abdeckung. Die Arbeiten beinhalten die Erstellung eines umfassenden Datensatzes mit Einzugsgebietsattributen und meteorologischen Einflussgrößen für etwa 150 Quellen. Klassische Lumped-Parameter-Modelle werden als Benchmarks aufgesetzt und mit den neu entwickelten Deep-Learning basierten Modellergebnissen verglichen. Ziel ist es, die Eignung neuartiger Deep-Learning Modellansätze für die Abschätzung der Auswirkungen des Klimawandels für eine Vielzahl von kurz- und langfristigen Vorhersagen zu untersuchen. Eine vertiefende Fallstudie des Dachsteingebietes, dessen große Karstregion wesentlich zur Wasserversorgung und Wasserkrafterzeugung beiträgt, wird die vergleichende Untersuchung mit einem numerischen 3D-Modell erweitern. Schließlich werden die entwickelten Modelle dazu verwendet, um Auswirkungen des Klimawandels auf die alpinen Karstgrundwasserressourcen vorherzusagen.

Vorhersage urbaner atmosphärischer Anzahlkonzentrationen ultrafeiner Partikel mit Hilfe von Machine Learning- und Deep Learning-Algorithmen (ULTRAMADE)

Ultrafeine Partikel (UFP) mit einem aerodynamischen Durchmesser kleiner als 100 nm stehen unter dem Verdacht die menschliche Gesundheit zu schädigen, allerdings fehlt bisher die abschließende wissenschaftliche Evidenz aus epidemiologischen Studien. Zur Herleitung von Expositionskonzentrationen gegenüber UFP wurden zum Teil statistische Modellierungsverfahren genutzt um UFP-Anzahlkonzentrationen vorherzusagen. Ein häufig genutztes Verfahren ist eine auf Flächennutzung basierte lineare Regression („land-use regression“, LUR). Allerdings wurden in luftqualitativen Studien auch andere, ausgefeiltere Modellansätze benutzt, z.B. „machine learning“ (ML) oder „deep learning“ (DL), die eine bessere Vorhersagegenauigkeit versprechen. Das Ziel des Projekts ist die Modellierung von UFP-Anzahlkonzentration in urbanen Räumen basierend auf ML- und DL-Algorithmen. Diese Algorithmen versprechen eine bessere Vorhersagegenauigkeit gegenüber linearen Modellansätzen. Mit unserem Modellansatz wollen wir sowohl räumliche als auch zeitliche Variabilität der UFP-Anzahlkonzentrationen abbilden. In einem ersten Schritt werden die Messergebnisse aus mobilen Messkampagnen genutzt um ein ML-basiertes LUR Modell zu kalibrieren. Zusätzlich werden urbane Emissionen aus lokalen Quellen, abseits vom Straßenverkehr, identifiziert und explizit in das Modell einbezogen. In einem zweiten Schritt wird ein DL-Modellansatz basierend auf Langzeit-UFP-Messungen mit dem ML-Modell gekoppelt um die Repräsentierung der zeitlichen Variabilität zu verbessern. Unser vorgeschlagenes Arbeitsprogramm besteht aus fünf Arbeitspaketen (WP): WP 1 beinhaltet mobile Messungen mittels eines mobilen Labors und eines Messfahrads. WP 2 besteht aus stationären Messungen, die an Stationen des German Ultrafine Aerosol Network durchgeführt werden. In WP 3 werden wichtige UFP-Emissionsquellen, insbesondere Nicht-Verkehrsemissionen, mit Hilfe von zusätzlichen kurzzeitigen stationären Messungen identifiziert und quantifiziert. In WP 4 werden ML-Algorithmen genutzt um ein statistisches Modell aufzubauen. Als Kalibrierungsdatensatz werden die Messungen aus WP 1 benutzt. Das Modell wird UFP-Anzahlkonzentrationen mit Hilfe eines Datensatzes aus erklärenden Variablen, u.a. meteorologische Größen, Flächennutzung, urbaner Morphologie, Verkehrsmengen und zusätzlichen Informationen zu UFP-Quellen nach WP 3, vorhersagen. In WP 5 werden die UFP-Anzahlkonzentrationen aus WP 2 für einen DL-Modellansatz genutzt, der die zeitliche Variabilität repräsentieren wird. Dieser wird dann mit dem ML-Modell aus WP 4 gekoppelt. Der Nutzen der Modellkopplung wird mit dem Datensatz aus WP 3 validiert. Aus unserem Projekt wird ein Modell hervorgehen, das in der Lage ist die räumliche und zeitliche Variabilität urbaner UFP-Anzahlkonzentrationen in einer hohen Genauigkeit zu repräsentieren. Damit wird unsere Studie einen Beitrag zur Quantifizierung von Expositionskonzentrationen gegenüber UFP z.B. in epidemiologischen Studien leisten.

Modularer Prüf- und Charakterisierungsbaukasten zur Herstellung von Brennstoffzellen und Elektrolyseuren, Teilvorhaben: Vibroakustische Prüfung des Fügeprozesses

Um eine ressourcenschonende und energieeffiziente Brennstoffzellenproduktion zu etablieren, bedarf es verbesserter Kontrollsysteme und Prüfmethoden. Übergeordnetes Ziel des Projektes ist daher, die modulare Abbildung der gesamten Test- und Charakterisierungskette zu realisieren. Dazu sollen Konzepte entwickelt und prototypisch umgesetzt werden, die auf eine automatisierte Produktion mit integrierten, kostengünstigen Prüfungen von Brennstoffzellen und deren Komponenten abzielen. Der Fokus liegt dabei auf der Prüfung relevanter Komponenten und Prozessschritte entlang der Produktionskette. Mit der Evaluierung verschiedener Prüfverfahren, wie z.B. der vibroakustischen Emissionsdetektion, verfolgt Amitronics einen vielversprechenden Ansatz, der mit Hilfe von Methoden des maschinellen Lernens dazu dienen soll, schnell und effizient Vorhersagemodelle für Bauzustände (Funktionsdichtheit der BZ) und Produktionsprozesse (Schweißprozesse) zu entwickeln. Am Beispiel des laserbasierten Fertigungsprozesses der BPP soll die neben Wärmestrahlung und Streulicht entstehende Ultraschallakustik zur Überprüfung der Qualität der erzeugten Schweißnähte genutzt werden. Ziel ist es zu untersuchen, ob mit KI-basierten Methoden eine Echtzeitüberwachung der Brennstoffzelle hinsichtlich ihrer Schweißnähte möglich ist. Durch eine sich anschließende Kombination der verschiedenen Prüfmodule soll eine Überwachung der Prüfkette erreicht und Trends in den Datenreihen abgeleitet werden. Durch die Integration eines vibroakustischen Überwachungssystems sollen Material- und Produktionsbedingungen so bewertet werden, dass Fehler bereits während der Produktion (Schweißprozess) vermieden werden können. Damit wird eine effiziente Produktionstechnologie Realität, die eine Qualitätskontrolle in Echtzeit und eine Null-Fehler-Produktion mit hoher Rate ermöglichen soll.

Energiepark Herzogenrath Forschung und Entwicklung, Teilvorhaben: Erforschung sektorenübergreifender, teilautonomer Energiemanagementverfahren für Energiesystemkomponenten und verschiedene industrielle Anwendungen

Die Dekarbonisierung des Energiesystems ist eine große und komplexe Herausforderung. Im Rahmen eines gesamtheitlichen, sektorenübergreifenden Ansatz soll das Vorhaben im Rahmen des Energieparks Herzogenrath (EPH) erforschen, wie die dynamische Vernetzung unterschiedlicher Akteure auf Erzeugungs- und Verbrauchsseite realisiert werden kann. Hierzu soll ein zentrales Energiemanagementkonzept entwickelt werden, in dem die Informationen dezentraler Knoten zusammenlaufen und wo mit Hilfe künstlicher Intelligenz Prognosen für einen möglichst kosteneffizienten, systemdienlichen und Emissionsarmen Betrieb abgebildet werden können. Hierzu wird ein Prototypensystem entwickelt, das auf Basis von IOT-Edge-Devices Daten im verteilten System erfassen und zentral zusammenführen kann. Hierbei werden autonome und teil-autonome Betriebsmodi erforscht. Zur Realisierung soll ein digitaler Zwilling der Systemkomponenten, eines Kommunalen Verbrauchers, industrieller Betriebe und lokaler Erzeuger sowie Mobilitätsinfrastruktur entwickelt werden, auf dem Algorithmische Strategien abgebildet werden können, die es erlauben zentrale Synergiepotenziale zusammenzufassen und durch verschiedene Marktkanäle gezielt zu erschließen. Hierdurch soll ein optimaler Betrieb einer CO2-freien Stadt realitätsnah und mit hohem Detailgrad demonstriert werden und eine reale Umsetzung für die Kommune vorbereitet werden. Auf Basis der Szenariountersuchung sollen die gewonnen Erkenntnisse als Blaupause für die Dekarbonisierung in weiteren Kommunen dienen.

1 2 3 4 5170 171 172