API src

Found 24 results.

Computergestützter Ansatz zur Kalibrierung und Validierung mathematischer Modelle für Strömungen im Untergrund - COMPU-FLOW

Vorhersagen im Untergrund (z.B. Grundwasserströmung oder Schadstofftransport) leiden unter hohen Unsicherheiten. Diese entstehen vor allem durch die Heterogenität von geologischen Materialien, die unmöglich im Detail erfasst werden kann. Die Auflösung der Struktur kann jedoch durch neue Arten von Daten verbessert und die verbleibende Unsicherheit verringert werden, indem Strömungs- und Transportmodelle auf gemessene Werte von Zustandsvariablen kalibriert werden. Um die verbleibende Unsicherheit zu quantifizieren, müssen stochastisch-inverse Techniken anstelle konventioneller Kalibrierungsmethoden verwendet werden. Tatsächlich gibt es viele verschiedene (stochastisch-)inverse Methoden in der Literatur. Jedoch fehlt bislang eine schlüssige und überzeugende Gegenüberstellung ihrer gegenseitigen Vor- und Nachteile, und dies behindert massiv die aktuelle Forschung an verbesserten inversen Methoden. Vor Allem fehlen wohldefinierte Benchmark-Szenarios für Vergleiche unter standardisierten, kontrollierten und reproduzierbaren Bedingungen. Das beantragte Projekt wird dieses Problem lösen indem eine Auswahl an Benchmarks mit hochakkuraten Referenzlösungen erstellt wird. Darauf aufbauend wird eine gemeinschaftliche Vergleichsstudie durchgeführt. Die Benchmarks, Referenzlösungen und Vergleichslösungen werden öffentlich langfristig zur Verfügung gestellt, um auch jenseits des beantragten Projekts eingesetzt zu werden. Die Benchmarks erstrecken sich auf vollgesättigte, transiente Grundwasserströmung, schwache und starke Heterogenität sowie multi-Gauß'sche und nicht-multi-Gauß'sche Strukturtypen. Besonderes Augenmerk liegt auf der Genauigkeit der Referenzlösungen. Diese werden mit spezialisiert weiterentwickelten Versionen des 'preconditioned Crank-Nicholson Markov Chain Monte Carlo' erstellt, ausgerüstet mit adaptiven Sprungverteilungen, multi-temperierten parallelen Ketten, stochastischen Gradientensuchen und Erweiterungen für nicht-multi-Gauß'sche Fälle. Die Algorithmen werden zum hochparallelisierten Einsatz auf den Großrechenanlagen in Jülich angepasst. Die Community der inversen Modellierung wird über einen Workshop eingebunden, in dem die genaue Strategie, Kriterien und Logistik für die Vergleichsstudie festgesetzt werden. Weltweit haben bereits 12 namhafte Forschungsgruppen zugesagt, am Workshop und an der Vergleichsstudie teilzunehmen. Insgesamt ist dieser Antrag eine einzigartige Initiative, um die internationale Community der inversen Grundwassermodellierung zusammenzubringen, wichtige Erkenntnisse zu gewinnen und inverse Methoden weiter zu verbessern.

Teilprojekt 4: Innovative Produkte für Nutzer dekadischer Vorhersagen (IPRODUCTS)^MiKlip II: Synthese (Modul D), Teilprojekt 3: Koordinierung der operationellen dekadischen Vorhersage, Unsicherheiten-Analysen, nutzerorientierte Teststudien

MiKlip II verbessert das dekadische Klimavorhersagesystem der ersten MiKlip-Phase durch weitere Forschung und Entwicklung, so dass der Deutsche Wetterdienst (DWD) am Ende der vier Projektjahre über ein operationelles System verfügt. Modul D stellt die essentielle wissenschaftliche und technische Infrastruktur für das Vorhersagesystem bereit. Die Hauptziele sind: - Die Weiterentwicklung und Verbesserung des globalen dekadischen Vorhersage- und Evaluierungssystems - Die Überführung des dekadischen Vorhersage- und Evaluierungssystems in den operationellen Betrieb am DWD - Pilotstudien zur Anwendung mittelfristiger Vorhersagen in Behörden und der Privatwirtschaft - MiKlip Koordination MiKlip II ist in zwei Entwicklungsphasen eingeteilt, eine prä-operationelle und eine quasi-operationelle Phase. In jeder der Phasen werden in Modul D retrospektive Vorhersagen ('hindcasts'), Vorhersagen sowie ein Teil der Evaluationen produziert, welche auf dem MiKlip Server sowie einer Internetschnittstelle zur Verfügung gestellt werden. Nach Vollendung von MiKlip II wird der DWD das dekadische Vorhersagesystem operationell betreiben, sofern das System ausreichend Vorhersagegüte aufweist. Der Ressourcenbedarf hierfür wurde bereits in die langfristige Strategieplanung des DWD aufgenommen. Der DWD wird die folgenden Arbeitspakete bearbeiten: D-WP2.1: Transfer des Vorhersage- und Evaluierungssystems auf den Großrechner des DWD D-WP3.1: Statistische Analyse der Unsicherheiten und Erstellung nutzerorientierter Teststudien.

Teilvorhaben: Interorganisationales Einsatz-, Krisen- und Notfallmanagement im Umfeld des Ereignisses^Optimierung der Rauchableitung und Personenführung in U-Bahnhöfen: Experimente und Simulationen (ORPHEUS)^Teilvorhaben: U-Bahn-Klimatologie - Erfassen von Randbedingungen und Validierungsdaten numerischer Strömungssimulationen, Teilvorhaben: Brand- und Personenstromsimulationen in unterirdischen Verkehrsstationen

HLRE-3 - Hochleistungsrechner für Klima- und Erdsystemmodellierung (High Performance Computing System for Climate and Earth System Modelling at DKRZ) - Basisvorhaben für die zentrale Rechnerkomponente

Das Deutsche Klimarechenzentrum stellt seit 25 Jahren gezielt Rechenleistung und Datendienste für die deutsche Klimaforschung bereit. Um mit der technischen Entwicklung schritthalten und damit die international führende Rolle der deutschen Klimaforschung sichern zu können, ist eine Erneuerung des zentralen Hochleistungsrechners und ein entsprechender Ausbau der Datenhaltungskapazität sowie der notwendigen Infrastruktur geplant. Aus einer Analyse der Nutzeranforderungen ergibt sich der Bedarf, Leistung und Kapazität im Vergleich zum derzeit betriebenen System, dem HLRE2, um mindestens das Zwanzigfache zu steigern. Der Großrechner und die Datenspeicher werden im Laufe des Jahres 2013 gemäß europäischer Vergaberichtlinien ausgeschrieben. Als Basis für die Vergabeentscheidung wird in Absprache mit der Nutzergruppe und dem wissenschaftlichen Lenkungsausschuss des DKRZ ein Leistungsverzeichnis erstellt und eine Reihe von Anwendungsprogrammen als 'Benchmarks' definiert. Parallel dazu werden die notwendigen Infrastrukturmaßnahmen vorbereitet. Die Installation und Inbetriebnahme des Systems ist für Mitte 2014 geplant.

Berechnung der Kurzzeit-Dosisbelastung und Hauptbeaufschlagungszonen fuer die Notfallplanung von GKN und KWO mit dem Grossrechner GRAY-2, Erstellung des Dosismoduls fuer den Online-Einsatz mit dem Ausbreitungsprogramm SPEEDI

Das Umweltministerium ist fuer den Fall eines Unfalles in einer kerntechnischen Anlage im Land oder im benachbarten Ausland fuer die Erstellung der radiologischen Lage und deren Bewertung zustaendig. Daraus ergeben sich Empfehlungen fuer die Durchfuehrung von Massnahmen zum Schutz der Bevoelkerung. Fuer seine Aufgaben der Fachberatung der Katastropheneinsatzleitung bei Unfaellen im kerntechnischen Bereich nutzt das Umweltministerium zur Erstellung der radiologischen Lage das Programmsystem SPEEDI, welches schon frueher auf baden-wuerttembergische Belange umgearbeitet wurde. Zur weiteren Verbesserung des Systems wurde ein Dosismodul eingearbeitet, das aus den dreidimensionalen Konzentrationsverteilungen von radioaktiven Stoffen in der Luft die zugehoerigen Dosen aller Expositionspfade berechnet und grafisch darstellt. Das System, dessen Anwendung bisher auf die Standorte Obrigheim und Neckarwestheim beschraenkt war, wurde anlaesslich der europaeischen Notfalluebung KKP 94 um die orografischen Gegebenheiten des Standorts Philippsburg erweitert.

Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen, Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen

Hauptziel des vorgeschlagenen Projekts ist die Bereitstellung benutzerfreundlicher Analysewerkzeuge für den Energieverbrauch von HPC-Anwendungen. Damit sollen Anwendungsentwickler in die Lage versetzt werden, den Energieverbrauch ihrer parallelen Anwendung im Detail zu untersuchen, mit den Erkenntnissen Optimierungen vorzunehmen und die Verbesserungen quantitativ zu bewerten. Bei den Anwendungsentwicklern soll kein besonderes Wissen über die Ermittlung des Energieverbrauchs vorausgesetzt werden. Vielmehr wird ein einfacher Zugang mit engem Bezug zu dem parallelen Anwendungsprogramm angestrebt. Die Werkzeuge sollen weltweit und insbesondere in den Gaußzentren zur Optimierung von akademischen und industriellen Simulationscodes beitragen. Die TU Dresden wird im Projekt zwei Schwerpunkte bearbeiten. Zum einen das Thema Energieverbrauch in AP1. Es enthält die direkte Messung mittels Messgeräten, die Messung von Einflussfaktoren und darauf aufbauend die Modellierung. Damit wird die Grundlage für die Partner in AP2 geschaffen sowie die Verbindungen zu den US-Projekten MUMMI und POWERPACK. Zum anderen die Pflege und Erweiterung der Score-P Infrastruktur in AP5. Hier sind die Anpassungen an neue HPC-Trends bzgl. Hardware, Parallelisierungsmethoden, Werkzeugschnittstellen, u.a. vorgesehen. Daneben beteiligt sich die TU Dresden an der Evaluierung, der Dissemination und den Tutorials.

Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen, Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen

Hauptziel des vorgeschlagenen Projekts ist die Bereitstellung benutzerfreundlicher Analysewerkzeuge für den Energieverbrauch von HPC-Anwendungen. Damit sollen Anwendungsentwickler in die Lage versetzt werden, den Energieverbrauch ihrer parallelen Anwendung im Detail zu untersuchen, mit den Erkenntnissen Optimierungen vorzunehmen und die Verbesserungen quantitativ zu bewerten. Bei den Anwendungsentwicklern soll kein besonderes Wissen über die Ermittlung des Energieverbrauchs vorausgesetzt werden. Vielmehr wird ein einfacher Zugang mit engem Bezug zu dem parallelen Anwendungsprogramm angestrebt. Die Werkzeuge sollen weltweit und insbesondere in den Gaußzentren zur Optimierung von akademischen und industriellen Simulationscodes beitragen. Der Fokus der RWTH liegt auf zwei Punkten. Zum einen sollen automatische Optimierungsvorgänge zur Energie- und Laufzeitoptimierung entwickelt werden mit dem Fokus auf OpenMP parallelen Programmen. Zum anderen soll die Visualisierung der Energie- und Performancedaten deutlich erweitert werden indem eine Beziehung zur Geometrie des Simulationscodes hergestellt wird. Für Anwender wird hierdurch ein Transfer der Energie- und Performance-Analysedaten in die Anwenderdomain möglich. Dies ermöglicht es dem Nutzer einfacher sein domain-spezifisches Fachwissen in die Optimierung einzubringen, da die Daten auf einer für den Nutzer alltäglichen Abstraktionseben präsentiert werden und nicht wie bisher üblich mit Bezug auf die verwendete Hardware.

Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen, Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen

Hauptziel des vorgeschlagenen Projekts ist die Bereitstellung benutzerfreundlicher Analysewerkzeuge für den Energieverbrauch von HPC-Anwendungen. Damit sollen Anwendungsentwickler in die Lage versetzt werden, den Energieverbrauch ihrer parallelen Anwendung im Detail zu untersuchen, mit den Erkenntnissen Optimierungen vorzunehmen und die Verbesserungen quantitativ zu bewerten. Bei den Anwendungsentwicklern soll kein besonderes Wissen über die Ermittlung des Energieverbrauchs vorausgesetzt werden. Vielmehr wird ein einfacher Zugang mit engem Bezug zu dem parallelen Anwendungsprogramm angestrebt. Die Werkzeuge sollen weltweit und insbesondere in den Gaußzentren zur Optimierung von akademischen und industriellen Simulationscodes beitragen. Die Jülicher Projektarbeiten konzentrieren sich auf drei Schwerpunkte: die Einbeziehung von Messdaten auf Knotenebene in die Profildatenanalyse mit Score-P und -visualisierung mit CUBE, Aktualisierung der Score-P Funktionalität und Portierung auf neue Plattformen insbesondere die Unterstützung für die neue MPI 3.0 MPIT Mess-Schnittstelle, sowie die skalierbare Datei-Ein-/Ausgabe von Leistungsdaten mittels SIONlib. In Zusammenarbeit mit anderen Projektpartnern beschäftigen sich Jülich auch mit der Übersichtsvisualisierung Geometrie-bezogener Leistungsdaten. Außerdem beteiligt sich Jülich an der Evaluierung, der Dissemination und den Tutorien.

Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen, Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen

Hauptziel des vorgeschlagenen Projekts ist die Bereitstellung benutzerfreundlicher Analysewerkzeuge für den Energieverbrauch von HPC-Anwendungen. Damit sollen Anwendungsentwickler in die Lage versetzt werden, den Energieverbrauch ihrer parallelen Anwendung im Detail zu untersuchen, mit den Erkenntnissen Optimierungen vorzunehmen und die Verbesserungen quantitativ zu bewerten. Bei den Anwendungsentwicklern soll kein besonderes Wissen über die Ermittlung des Energieverbrauchs vorausgesetzt werden. Vielmehr wird ein einfacher Zugang mit engem Bezug zu dem parallelen Anwendungsprogramm angestrebt. Die Werkzeuge sollen weltweit und insbesondere in den Gaußzentren zur Optimierung von akademischen und industriellen Simulationscodes beitragen. Die TUM wird im Rahmen des Projektes an der Optimierung des Energieverbrauchs von Anwendungen auf großen HPC-Systemen arbeiten. Hierzu wird das Online Access Interface von Score-E für den Zugriff auf die Energieverbrauchsdaten und die Realisierung von Laufzeit-Tuning-Aktionen erweitert. Für das Periscope Tuning Framework werden Plugins programmiert, die durch gezielte Beeinflussung des DVFS der Prozessoren sowie durch Modifikation des Parallelisierungsgrades eine Energiereduktion für Anwendungscodes ermöglichen. Es werden hierzu zu Beginn des Projektes gemeinsam mit den Partnern geeignete Zielfunktionen bestimmt, die sowohl den Energieverbrauch als auch die Ausführungsgeschwindigkeit berücksichtigen.

Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen^Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen, Score-E: Skalierbare Werkzeuge zur Energieanalyse und -optimierung im Höchstleistungsrechnen

Hauptziel des vorgeschlagenen Projekts ist die Bereitstellung benutzerfreundlicher Analysewerkzeuge für den Energieverbrauch von HPC-Anwendungen. Damit sollen Anwendungsentwickler in die Lage versetzt werden, den Energieverbrauch ihrer parallelen Anwendung im Detail zu untersuchen, mit den Erkenntnissen Optimierungen vorzunehmen und die Verbesserungen quantitativ zu bewerten. Bei den Anwendungsentwicklern soll kein besonderes Wissen über die Ermittlung des Energieverbrauchs vorausgesetzt werden. Vielmehr wird ein einfacher Zugang mit engem Bezug zu dem parallelen Anwendungsprogramm angestrebt. Die Werkzeuge sollen weltweit und insbesondere in den Gaußzentren zur Optimierung von akademischen und industriellen Simulationscodes beitragen. Der Hauptbeitrag der GRS zum Projekt ist die Entwicklung und Evaluation des Modells zur Projektion des Energieverbrauchs einer Anwendung auf höheren Prozessorkonfigurationen. Ein zweiter Arbeitsschwerpunkt der GRS ist die Repräsentation von Anwendungsgeometriedaten im Score-P Profildatenformat als Voraussetzung für die anwendungsbezogene Visualisierung von Leistungsdaten. Darüber hinaus beteiligt sich die GRS an Tutorials, Dissemination und Evaluierung.

1 2 3