API src

Found 29 results.

Isolierung und industrieller Einsatz von Keratin abbauenden Mikroorganismen

Jaehrlich fallen bei der Gefluegelzucht mehr als 20.000 t Federn an. Federn bestehen zu 95 Prozent aus dem unloeslichen Strukturprotein Keratin, welches sehr stabil ist. Durch chemische und mechanische Methoden koennen Federn hydrolysiert werden und als Quelle fuer definierte Aminosaeuren und Peptide genutzt werden. Problematisch ist die dabei anfallende hohe Salzfracht. Der Einsatz von Enzymen kann eine 'sanfte' Aufarbeitung der Federn bewirken. Von Vorteil ist dabei die Entstehung definierter Produkte. Aus heissen Quellen der Azoreninsel San Miguel wurde ein anaerober, thermophiler Stamm mit keratinolytischer Aktivitaet isoliert und als Fervidobacterium pennavorans charakterisiert. Federn, Wolle und Keratin aus Hoernern konnten von dem Neuisolat abgebaut werden. Zellgebundene Keratinaseaktivitaet konnte im pH-Bereich von 6-11 und im Temperaturbereich von 30-120 Grad C. nachgewiesen werden. Das Enzym wurde mit Hilfe von praeparativer Gelelektrophorese gereinigt und naeher charakterisiert. Es handelte sich um eine Serinprotease mit einer Molekularmasse von 130.000 Da, die optimal bei pH 10,0 und 80 Grad C. aktiv war. Der isoelektrische Punkt lag bei pH 3,8. Die thermostabile Keratinase konnte das Modellsubstrat Federmehl zu Peptiden mit einer Molekularmasse kleiner 3.000 Da abbauen. Die Keratinase soll zur Umsetzung von unloeslichen und loeslichen Proteinen wie Keratinen oder Gelatine in industriell verwertbare Produkte eingesetzt werden.

Horizont Europa SBEP 1: Entwicklung einer nachhaltigen blauen Wirtschaft, Nachhaltige und klimafreundliche Nahrungsergänzungsmittel aus marinen Nebenströmen; Stakeholder

Neues, energieeffizientes, durch maschinelles Lernen unterstütztes Verfahren zur Konzentrierung in der Gelatineherstellung, Teilvorhaben: Verfahrensentwicklung und Versuchsdurchführung

Die Firma GELITA mit Hauptsitz in Eberbach ist der größte Produzent und Anbieter von Gelatine und kollagenen Peptiden weltweit und produziert ein breites Sortiment an Gelatine-Produkten für den Bereich Food und Pharma. Grundlage ist die Verarbeitung von tierischen Produkten, aus denen die benötigten Grundstoffe zur Weiterverarbeitung für Gelatine gewonnen werden können. Die Verarbeitung von Lebensmitteln ist, und dies trifft auch für die Verarbeitung von Gelatine zu, eine der energieintensivsten Branchen in Deutschland. Daher ist das Ziel Energie in den Fertigungsprozessen von hochwertigen Lebensmitteln einzusparen allgegenwärtig. Ein wesentlicher Verfahrensschritt in der Herstellung von Gelatine ist die Konzentrierung und Trocknung einer wässrigen Gelatinelösung bis zu einem Feststoff, der nach heutigem Stand der Technik gemahlen und weiterverarbeitet werden kann. Speziell die Trocknung ist sehr aufwändig und energieintensiv, da sehr viel Dampf erzeugt und vorgehalten werden muss. Ziel des Vorhabens ist es daher, den derzeitigen Prozess aus Konzentrierung und Trocknung durch ein energetisch günstigeres Verfahren zu ersetzen. Die Nachteile und Limitierungen des zur Konzentrierung eingesetzten Dünnschichtverdampfers sollen durch die Entwicklung eines Planetenextruders mit großer innerer Oberfläche überwunden werden. Das Verfahren soll zusätzlich durch den Einsatz von maschinellem Lernen intelligent gesteuert werden, um alle möglichen Gelatinequalitäten und Viskositäten effizient verarbeiten zu können. Dieser Extruder soll mittels seiner Förderwerkzeuge die verschiedenen, meist hochviskosen Medien durch Entgasung, auch unter dem optionalen Einsatz eines Vakuums, energetisch optimiert aufkonzentrieren, so dass eine erheblich vereinfachte Trocknung folgen kann. Unter Berücksichtigung aller Stellgrößen, könnten über dieses neue innovative Verfahren Energieeinsparungen bei der Herstellung von Gelatine von ca. 34 GWh pro Jahr erreicht werden.

Neues, energieeffizientes, durch maschinelles Lernen unterstütztes Verfahren zur Konzentrierung in der Gelatineherstellung

Die Firma GELITA mit Hauptsitz in Eberbach ist der größte Produzent und Anbieter von Gelatine und kollagenen Peptiden weltweit und produziert ein breites Sortiment an Gelatine-Produkten für den Bereich Food und Pharma. Grundlage ist die Verarbeitung von tierischen Produkten, aus denen die benötigten Grundstoffe zur Weiterverarbeitung für Gelatine gewonnen werden können. Die Verarbeitung von Lebensmitteln ist, und dies trifft auch für die Verarbeitung von Gelatine zu, eine der energieintensivsten Branchen in Deutschland. Daher ist das Ziel Energie in den Fertigungsprozessen von hochwertigen Lebensmitteln einzusparen allgegenwärtig. Ein wesentlicher Verfahrensschritt in der Herstellung von Gelatine ist die Konzentrierung und Trocknung einer wässrigen Gelatinelösung bis zu einem Feststoff, der nach heutigem Stand der Technik gemahlen und weiterverarbeitet werden kann. Speziell die Trocknung ist sehr aufwändig und energieintensiv, da sehr viel Dampf erzeugt und vorgehalten werden muss. Ziel des Vorhabens ist es daher, den derzeitigen Prozess aus Konzentrierung und Trocknung durch ein energetisch günstigeres Verfahren zu ersetzen. Die Nachteile und Limitierungen des zur Konzentrierung eingesetzten Dünnschichtverdampfers sollen durch die Entwicklung eines Planetenextruders mit großer innerer Oberfläche überwunden werden. Das Verfahren soll zusätzlich durch den Einsatz von maschinellem Lernen intelligent gesteuert werden, um alle möglichen Gelatinequalitäten und Viskositäten effizient verarbeiten zu können. Dieser Extruder soll mittels seiner Förderwerkzeuge die verschiedenen, meist hochviskosen Medien durch Entgasung, auch unter dem optionalen Einsatz eines Vakuums, energetisch optimiert aufkonzentrieren, so dass eine erheblich vereinfachte Trocknung folgen kann. Unter Berücksichtigung aller Stellgrößen, könnten über dieses neue innovative Verfahren Energieeinsparungen bei der Herstellung von Gelatine von ca. 34 GWh pro Jahr erreicht werden.

Particle image velocimetry data from an analog seismo-tectonic model addressing the interaction between neighbor asperities

This dataset includes the results of Particle Image Velocimetry (PIV) of one experiment on subduction megathrust earthquakes (with interacting asperities) performed at the Laboratory of Experimental Tectonics (LET) Univ. Roma Tre in the framework of AspSync, the Marie Curie project (grant agreement 658034; https://aspsync.wordpress.com). Detailed descriptions of the experiments and monitoring techniques can be found in Corbi et al. (2017). This data set is from one experiment characterized by the presence of a 7 cm wide barrier separating two asperities with equal size, geometry and friction. Here we provide PIV data relative to a 16.3 min long interval during which the experiment produces 138 analog earthquakes with an average recurrence time of 7 s. The PIV analysis yields quantitative information about the velocity field characterizing two consecutive frames, measured in this case at the model surface. For a detailed description of the experimental procedure, set-up and materials used, please refer to the article of Corbi et al. (2017) paragraph 2. This data set has been used for: a) studying velocity variations (Fig. 2 in Corbi et al., 2021) and rupture patterns (Fig. 3a, b in Corbi et al., 2021) occurring during the velocity peak of one of the two asperities (aka trigger).

PB Gelatins GmbH, Nienburg / Weser

Die Firma PB Gelatins GmbH, Große Drakenburger Straße 43 in 31582 Nienburg / Weser, hat beim Staatlichen Gewerbeaufsichtsamt Hannover die Erteilung einer Genehmigung gemäß § 16 Abs. 1 i. V. m. § 19 BImSchG für die wesentliche Änderung einer Anlage zur Herstellung von Gelatine und einer Anlage zur Erzeugung von Strom, Dampf, Warmwasser, Prozesswärme oder erhitztem Abgas in einer Verbrennungseinrichtung (hier: Gasturbinenanlage / Kesselhaus inkl. Mikrogasturbine 1 und 2) am Standort in 31582 Nienburg / Weser, Große Drakenburger Straße 43, Gem. Nienburg, Flur 2, Flurstück 49/16 beantragt.

Ressourcenschonendes Verfahren zur Herstellung von Biofolien + Messprogramm

Ziel des Vorhabens ist es, Biofolie energie- und materialeffizient herzustellen. Die Innovation des Vorhabens besteht in der erstmaligen Anwendung eines kontinuierlichen Verfahrens zum Auflösen der eingesetzten Rohstoffe (u.a. Gelatine, Agar-Agar). In der Auflöseanlage wird der pulverförmige Rohstoff gleichzeitig in Wasser aufgelöst und gereinigt, wobei die zudosierte Wassermenge im Vergleich zum Stand der Technik erheblich niedriger ist. Demzufolge muss der Gelatine beim anschließenden Trocknungsprozess auch weniger Wasser entzogen werden, was den Energiebedarf für die Trocknung deutlich reduziert. Die bei dem Trocknungsprozess abgesaugte Luft wird aufgefangen und erneut zur Trocknung der Gelatinefolien genutzt. Es entfallen bisher einzeln durchgeführte Verfahrensschritte, da sie gleichzeitig innerhalb der Auflöseanlage erfolgen. Die Energiebilanz des neuen Verfahrens ermöglicht es, nahezu die gesamte für den Produktionsprozess erforderliche Wärme- und Elektroenergie mit einem Blockheizkraftwerk zu erzeugen und somit den Primärenergiebedarf deutlich zu senken. Bezogen auf die geplante Jahresproduktion von Biofolie kann der Wasserbrauch und der Abwasseranfall um ca. 70 bis 80 Prozent reduziert werden. Mit dem Vorhaben können zudem jährlich ca. 93.000 Kilowattstunden Energie sowie ca. 62 Tonnen Gas eingespart werden. Daraus ergibt sich eine CO2-Minderung von 746 Tonnen pro Jahr. Die Gelinova GmbH wurde 2001 gegründet und ist im Bereich der Pharma- und Le-bensmittelindustrie tätig.

MM-BYE: Forschung und Entwicklung eines innovativen und energieeffizienten Herstellungsprozesses zur Aufarbeitung von Rohstoffen für die Gelatineherstellung

Ziel des Forschungsprojekts ist es, die gesamte Prozesskette der Herstellung von Gelatine aus dem Rohstoff Frischknochen am Standort von GELITA in Memmingen hinsichtlich der Energieeffizienz zu analysieren und zu optimieren. Dazu werden alle Verfahrensschritte überprüft um Einsparpotenziale zu realisieren. Als Ergebnis soll eine Senkung des Energiebedarfs innerhalb der Prozesskette und der gesamten Anlage von bis zu 20% erreicht werden. Das Projekt ist auf 24 Monate ausgelegt und soll am 01.01.2017 beginnen. Das Vorhaben wird im Rahmen von 7 Arbeitspaketen von den Projektpartnern aus der Industrie abgearbeitet.

Supplementary material to "Rough subducting seafloor reduces interseismic coupling and mega-earthquake occurrence: insights from analogue models"

This dataset contains digital image correlation (DIC) data of eight seismotectonic analogue experiments that were performed at the Laboratory of Experimental Tectonics (LET), Univ. Rome Tre, to investigate the effect of subduction interface roughness on the seismogenic behaviour of the megathrust. The study has been done in the framework of the Marie Sklodowska-Curie grant agreement 642029 – ITN CREEP. Together with DIC data we also provide analogue earthquake characteristics and Matlab scripts for visualization.Here we provide Digital Image Correlation data for eight experiments that last about 20 minutes (i.e., including tens of seismic cycles), of which four experiments include a smooth subduction interface and four a rough subduction interface. The DIC analysis provides a velocity field between two consecutive frames, measured at the surface of the model. Details about the nature and geometry of this interface, as well as the experimental procedure, model set-up and materials can be found in van Rijsingen et al. (2019), paragraph 2 and supporting information.A more detailed description of the data that we provide, the methods and the matlab scripts used for visualisation can be found in the data description file. An overview of the dataset can be found in the list of files.

Supplementary material to "Machine Learning can predict the timing and size of analog earthquakes"

This data set includes the results of digital image correlation of one experiment on subduction megathrust earthquakes with interacting asperities performed at the Laboratory of Experimental Tectonics (LET) Univ. Roma Tre in the framework of AspSync, the Marie Curie project (grant agreement 658034) lead by F. Corbi in 2016-2017. Detailed descriptions of the experiments and monitoring techniques can be found in Corbi et al. (2017 and 2019) to which this data set is supplementary material.We here provide Digital Image Correlation (DIC) data relative to a 7 min long interval during which the experiment 
produces 40 seismic cycles with average duration of about 10.5 s (see Figure S1 in Corbi et al., 2019). The DIC analysis yields quantitative about the velocity field characterizing two consecutive frames, measured in this case at the model surface. For a detailed description of the experimental procedure, set-up and materials used, please refer to the article of Corbi et al. (2017) paragraph 2. This data set has been used for: a) studying the correlation between apparent slip-deficit maps and earthquake slip pattern (see Corbi et al., 2019; paragraph 4); and b) as input for the Machine Learning investigation (see Corbi et al., 2019; paragraph 5).Further technical information about the methods, data products and matlab scripts is proviced in the data description file. The list of files explains the file and folder structure of the data set.

1 2 3