WaterGAP ist eine globale hydrologische Simulationssoftware zur Berechnung von Wasserflüssen und -speicherung auf allen Kontinenten der Erde. Sie wird verwendet, um Wasserverfügbarkeit und Wasserstress für Menschen und andere Biota weltweit zu bestimmen. In zahlreichen Studien wurde WaterGAP genutzt, um z.B. den Einfluss des Klimawandels auf Bewässerungsbedarf, ökologisch relevante Durchflusscharakteristika, Grundwasserneubildung und auf Wasserressourcen im Allgemeinen zu erforschen. Resultate aus diesen Studien sind in IPCC-Berichte eingegangen. WaterGAP nimmt unter den hydrologischen Modellen weltweit eine Führungsrolle ein. Allerdings wurde die Software über mehr als 20 Jahre von mehreren Doktoranden und Postdocs verändert und befindet noch sich immer in einem Prototypstadium. Die Software wurde nie grundlegend überarbeitet oder auf Grundlage einer sorgfältig geplanten Software-Architektur entwickelt. Es handelt sich eher um eine Ansammlung von Dateien mit jeweils fast 10.000 Code-Zeilen, ohne eine konsequente Modularisierung. Es ist es uns daher aktuell nicht möglich, die Software anderen Forschern zur Verfügung zu stellen, damit sie Ergebnisse replizieren und verstehen können oder die Software für eigene Forschung zu erweitern. Auch Modellveränderungen und Erweiterungen durch unsere beiden Gruppen sind herausfordernd und kosten Zeit. Gerade wegen der wichtigen Forschungsergebnisse bezüglich der Beurteilung und Projektion von globalen Wasserressourcen wäre eine Replikation der Ergebnisse durch Dritte unbedingt notwendig, was eine deutliche Verbesserung der Softwarequalität voraussetzt. Projektziel ist es. die Forschungssoftware in einer modernen Programmiersprache neu zuschreiben und ausführlich zu dokumentieren. Zudem soll die räumliche Auflösung flexibel anpassbar sein. Die resultierende Software soll testbar, wartbar, erweiterbar und durch Dritte nutzbar und erweiterbar sowie gründlich getestet sein. Die Neuentwicklung wird mit einem angepassten Scrum-Prozess durchgeführt und die Planung der Software Architektur wird auf Grundlage des IEEE 1016-2009 Dokuments erstellt. Mehrere Methoden werden genutzt um nachhaltig die Qualität der Software intern und externe zu steuern. Dieses Projekt wird anderen Forschern erlauben unser globales hydrologisches Modell selbst auszuführen, Ergebnisse zu replizieren oder die Einflüsse von Modifikationen in den Eingabedaten und Algorithmen zu untersuchen. Die Forschergemeinschaft kann so algorithmische Ansätze vergleichen, unserer Ergebnisse überprüfen und auch Fehler in unserer Software identifizieren. Um die Berichterstattung und Zusammenarbeit so einfach wie möglich zu gestalten setzen wir auf die etablierte Plattform github. Auch werden wir von automatisierten Tests und Benchmarkszenarien Gebrauch machen. Dies wird nicht nur dazu beitragen die Forschungssoftware WaterGAP effizienter zu nutzen und wissenschaftliche Ergebnisse robuster machen, sondern auch den wissenschaftlichen Fortschritt beschleunigen.
The research interests of our group are in two areas of Spatial Information Science: 1) spatial decision support techniques and 2) human-computer interaction in collaborative spatial decision making and problem solving. In the area of spatial decision support techniques we aim at supporting people (individuals, groups and organizations) in solving spatial decision problems by addressing three fundamental steps of decision process: intelligence, design, and choice. The focal research problems here are: - Idea generation tools including structured diagramming and cartographic visualization (2D, 3D) supporting 'spatial thinking' and the identification of value-objective-attribute hierarchies; - GeoSimulation models to generate decision options and compute their consequences; - Multi-criteria analysis techniques to evaluate decision options using spatial data about option impacts and user preferences; - Participatory techniques and collaborative approaches to group decision making. Subsequent research questions we are interested include: - Which software architectures are useful for developing robust spatial decision support systems? - Can a generic toolkit for spatial decision support be created? - What decision support services can be offered on-line in wide area networks (Internet) using open spatial data standards? In the area of human-computer interaction research our rational is that methods and techniques for spatial decision support must be subjected to empirical studies so that substantive knowledge about the intended effects of applying geospatial information technologies can be developed. We plan to study information processing, and problem-solving in interactive, collaborative spatial decision environments built by others and ourselves. In building prototype software environments we use off-the-shelf GIS software such as ArcGIS, Idrisi, Grass, use the existing GIS toolkits such as ArcObjects, apply various geosimulation tools, and use higher level programming languages such as Java and VB. Substantive domains for application development and testing of collaborative decision support environments include: - Urban development and transportation planning; - Community planning; - Water resource management; - Land use change. Our group welcomes interested students and other potential participants who would like to work with us in the broadly-defined research area of SDSS. We are very much open to new ideas, which may expand the above listed research interests.
DESIRE ist eine an der HTW Berlin entwickelte Simulationsumgebung für regenerative Energiesysteme. Obwohl diese Simulationsumgebung extrem viele Freiheitsgrade bietet, ist ein Erlernen auch für Personen mit geringeren Computerkenntnissen in kürzester Zeit möglich. Um dies zu erreichen, baut DESIRE auf MS Excel als Entwicklungsumgebung auf, wobei Geschwindigkeitsnachteile von MS Excel bei komplexen Simulationsrechnungen durch die Entwicklung höherer Funktionsbibliotheken in einer höheren Programmiersprache wie C++ in Form von Dynamic Link Libraries (DLL) kompensiert werden. DESIRE enthält verschiedene Funktionsbibliotheken aus unterschiedlichen Bereichen regenerativer Energien, die sich dynamisch zu Werkzeugen oder komplexen Simulationsmodulen kombinieren lassen. Zahlreiche Analyse- und Simulationswerkzeuge (Tools) bieten auch dem Laien die Möglichkeiten der Analyse regenerativer Energiesysteme mit DESIRE. Eine Online-Version von DESIRE ermöglicht zusätzlich das Ausführen von DESIRE-Tools auch direkt über das Internet und erweitert so das eLearning-Angebot der HTW Berlin. Die Tools wurden in JAVA implementiert und erfordern zum Ausführen lediglich einen Webbrowser und ein aktuelles JAVA-Plugin. Hier können Anwender spielerisch komplexe funktionale Zusammenhänge verinnerlichen. DESIRE ist ein internes Projekt der HTW Berlin. Die Simulationsumgebung wird inzwischen in der Lehre und in weiteren Drittmittelprojekten wie dem Solar Decathlon Europe (SDE) eingesetzt.
Mit dem am Institut fuer Hydrobiologie entwickelten dynamischen Oekosystemmodell SALMO laesst sich der Einfluss externer Belastungsquellen (Naehrstoffe, organische Belastung) und gewaesserinterner Massnahmen (Stauspiegelabsenkung, Teilzirkulation, Biomanipulation) auf die Wasserqualitaet von Talsperren und Seen (Phytoplanktonbiomasse, Sauerstoff, Nitratkonzentration) abschaetzen. So half das Modell in einer Studie der IDUS-GmbH bei der Charakterisierung von Einfluss und Wechselwirkungen unterschiedlicher Belastungskomponenten (Naehrstoffe, lichtabsorbierende Stoffe) bezueglich der Wasserguete der Talsperre Bleiloch. Unter massgeblicher Beteiligung des Instituts fuer Automatisierungs- und Systemtechnik der TU Ilmenau entstand eine komplette Neuimplementierung des Gleichungssystems mit dem Simulationssystem Matlab/Simulink sowie in der objektorientierten Programmiersprache JAVA. Diese ermoeglicht die Simulation raeumlich kompartimentierter Gewaesser, eine einfachere Handhabbarkeit des Gleichungssystems und eine betraechtliche Erweiterung des Anwendungsspektrums von SALMO als Werkzeug fuer Forschung, Lehre und Entscheidungsfindung.
Im Rahmen des Sachverständigengutachtens "Quantitative Bewertung von Umweltindikatoren" wurde ein R-Programm entwickelt, mit welchem alternative Bewertungsverfahren zur Beurteilung von Umweltindikatoren angewandt werden können. Diese IT-gestützten Analysen historischer Zeitreihenentwicklungen ermöglichen die Beurteilung zukünftiger Trendentwicklungen auf Basis standardisierter statistischer Maßzahlen sowie automatisierter Trend-Identifikations-Algorithmen. Die R-Anwendung ermöglicht dabei eine Anwendung etablierter Bewertungsroutinen der derzeitigen Umweltberichterstattung sowie eines eigenständigen, im Rahmen dieses Vorhabens entwickelten zeitreihenökonometrischen Spezifikations-Algorithmus. Bei der Indikatorbewertung können sämtliche anwendbaren Verfahren durch die Nutzerinnen und Nutzer flexibel modifiziert werden. Insbesondere der Vergleich der für unterschiedliche Bewertungsverfahren und -vorgaben identifizierten Trendtendenzen ermöglicht eine objektivierte Beurteilung der Frage, ob aktuelle Indikatorentwicklungen auf das zukünftige Erreichen gegebener Indikator-Zielwerte schließen lassen. Zudem können die Auswirkungen alternativer zukünftiger Trendentwicklungen auf die berechneten Zielerreichungsgrade betrachtet werden. Zum Projektabschluss wurde der Quellcode dieser Anwendung dem Umweltbundesamt vollständig übergeben. Das Programm kann daher zukünftig auf beliebigen Arbeitsplatz-PCs des Umweltbundesamtes ohne größeren Aufwand installiert werden. Quelle: Forschungsbericht
Goals: Many of today's technical blessings, e.g. weather forecast, fuel efficient car-shapes, medical tomography analysis or even a simple Google query depend on massive computer programs that are executed on super-computing centers with thousands of computers, which consume a lot of electrical energy. With increasing super-computing demand severe economic and ecological problems arise. Already 15% of the world-wide electrical energy is used to power all the computers in use today, and this number is quickly increasing. There are alternative kinds of computing devices such as smart-phone processors, 3D graphic chips and reconfigurable FPGA hardware (as used in DSL modems and network switches), which can provide much higher energy efficiency than traditional processors. Today, a typical super-computing program consists of a huge number of small jobs. Some of them can be run on these alternative architectures, reducing the demand and therefore the required number of traditional high-energy, high performance processors. Motivation: The FiPS project thus proposes to build a new heterogeneous super-computer class. It combines traditional high performance processors for complex tasks with many of the efficient alternative processors for simple tasks. As the total number of processors increases, these new super-computers will be slightly faster, but will at the same time substantially reduce the energy demand. FiPS will not only have an ecological impact by reducing energy demand (and thus carbon dioxide emission), but also an economic impact by cutting one of the major costs of running a super-computing center, its energy costs. Supercomputing will become cheaper and thus affordable for many other applications. Promotion: This project has received funding from the European Union's Seventh Framework Programme for research, technological development and demonstration under grant agreement no 609757. Technology: The drawback of building super-computers from a heterogeneous network of processors rather than a regular grid of identical processors is that heterogeneous systems are much harder to program, as the individual properties of many different components have to be considered. For instance, different processors require different programming languages, and it has to be decided, which processor type will finally run a computation job, either to get the result as fast as possible or with the lowest energy costs. And finally, all processors working on different parts of the same problem have to synchronize on their intermediate results. This is up to now only possible in a regular grid of homogeneous processors. To solve these issues, FiPS will setup a programming methodology, in which just a single programming language is used to write the super-computing program. The final software is then analyzed and splitted into chunks by the FiPS methodology. (abridged text)
Dieses Projekt befasst sich mit dem Aufbau eines Energy Harvesting Systems auf der Grundlage von thermoelektrischen Generatoren. Dabei wird ein Versuchsstand an einer gewöhnlichen Ölheizung aufgebaut sowie ein Simulationsmodell der kompletten Anlage erstellt. Thermoelektrische Generatoren (TEG) sind in der Lage den energetischen Wirkungsgrad eines Energiesystems, z.B. Heizungsanlagen oder Verbrennungsmaschinen, durch Nutzung der verbleibenden Abwärme zu steigern. Dabei erzeugen sie auf Grund einer Temperaturdifferenz elektrische Leistung. In diesem Projekt wird ein objekt-orientiertes Modell der TEGs in der Programmiersprache Modelica® weiterentwickelt und um die peripheren Komponenten erweitert. Dies soll zu einem kompletten Modell für das thermoelektrische Energy Harvesting System führen, welches neben den TEGs auch den Kühlkreislauf, die Wärmequelle sowie die Leistungselektronik enthält. Zur Validierung des Simulationsmodells werden Messungen an dem Testaufbau vorgenommen und die realen Messwerte mit den Simulationswerten verglichen. Ziel des Projekts ist es, ein optimales Simulationsmodell zu entwickeln um den Einsatz eines Energy Harvesting Systems mittels thermoelektrischer Generatoren für die jeweilige Situation rechtfertigen zu können.
1.Durch die Betriebsdatenanalyse von ca. 10 Anlagen zur therm. Abfallbehandlung erfolgt eine erste Einordnung und Abgrenzung von Korrosionsgeschehen und erste Einschätzungen über die Einflüsse auf das Korrosionsmaß. 2.Ein wesentliches Problem-sowohl in der realen Anlage als auch in der Modellierung-ist die Brennstoffaufgabe mit ihren zahlreichen Unbekannten. Durch Berechnungen zum Brennstoffmassenstrom wird die Modellierung der Aufgabe deutlich verbessert. 3.Erst durch die Kopplung der FLR mit dem Feuerungsmodell wird es möglich, verschiedene sim. Zustände des Brennbettverhaltens zu validieren.4.Durch Herstellen von expliziten Feuerungszuständen können erstmalig Zusammenhänge zwischen Betriebsparametern und dem Partikelaustrag erkannt (und gemessen) werden. Jedes der zu bearbeitenden Arbeitspakete erfordert ein unterschiedliche Herangehensweise und Methode. Die Betriebsdatenanalyse erfolgt durch die Anwendung von statistischen Methoden in Korrelation mit konstruktiven und verfahrenstechnischen Merkmalen. Die Kopplung zwischen FLR und Feuerungsmodell ist softwarelastig. Es werden div. Programmiersprachen und Industriestandards angewendet, damit eine betriebssichere Kopplung zustande kommt. Die Untersuchungen zur Partikelfreisetzung mittels Primärmaßnahmen sind praxisorientiert, da hier bei laufender Anlage in den Feuerungsbetrieb eingegriffen wird. Analog dazu verhält es sich bei der Umsetzung der gewonnenen Erkenntnisse. Auch diese müssen bei laufenden Anlagenbetrieb getestet werden.
| Origin | Count |
|---|---|
| Bund | 33 |
| Type | Count |
|---|---|
| Förderprogramm | 31 |
| unbekannt | 2 |
| License | Count |
|---|---|
| geschlossen | 2 |
| offen | 31 |
| Language | Count |
|---|---|
| Deutsch | 24 |
| Englisch | 11 |
| Resource type | Count |
|---|---|
| Keine | 20 |
| Webseite | 13 |
| Topic | Count |
|---|---|
| Boden | 15 |
| Lebewesen und Lebensräume | 11 |
| Luft | 11 |
| Mensch und Umwelt | 33 |
| Wasser | 9 |
| Weitere | 33 |