Refine
Year of publication
- 2015 (22) (remove)
Document Type
- Report (7)
- Working Paper (7)
- Book (3)
- Conference Proceeding (2)
- Doctoral Thesis (2)
- Preprint (1)
Has Fulltext
- yes (22)
Keywords
Institute
- Fakultät 04 / Institut für Versicherungswesen (10)
- Fakultät 10 / Institut für Informatik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (3)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (2)
- Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (ITT) (1)
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Economic Scenario Generators (ESGs) sind zu einem unverzichtbaren Instrument für das Risikomanagement von Versicherungsunternehmen geworden. Auf Grund der Langfristigkeit ihres Geschäftsmodells nutzen insbesondere Lebensversicherer ESGs zur wertorientierten Steuerung. Mit Einführung von Solvency II zum 1.1.2016 werden ESGs verstärkt auch bei der Berechnung des erforderlichen Solvenzkapitals eingesetzt. Stochastische Modellierungen der Kapitalmärkte bilden die Grundlage jedes ESGs. Die Modellannahmen und erst recht die Kalibrierung der Modelle bedingen einen sehr großen Gestaltungsspielraum beim Einsatz von ESGs. Das Symposium gibt Anstöße für die Beurteilung der Qualität eines ESGs. Ein weiterer Schwerpunkt des Symposiums ist das Thema "Liquiditäts(risiko-)management für Versicherer". Liquidität ist die Fähigkeit eines Unternehmens, seinen Zahlungsverpflichtungen jederzeit in vollem Umfang nachzukommen. Liquiditätsrisiken erwachsen bei einem Versicherungsunternehmen vor allem aus einer illiquiden Kapitalanlage, aber auch aus der Unsicherheit hinsichtlich des Zeitpunkts und der Höhe der versicherungstechnischen Verpflichtungen. Auf dem Symposium werden Methoden des Liquiditätsmanagements und Methoden der Steuerung des Liquiditätsrisikos vorgestellt und diskutiert.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools i. d. R. intensive Vorarbeiten benötigt werden. Im ersten Teil wurden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. In diesem Teil wird die Projektion der Standardformel auf das Folgejahr durchgeführt und es werden weitere Anwendungen an Hand dieses durchgängigen Datenmodells erläutert.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.
Management des Langlebigkeitsrisikos. Proceedings zum 7. FaRis & DAV Symposium am 5.12.2014 in Köln
(2015)
Die säkulare Sterblichkeitsverbesserung stellt seit langem alle Alterssicherungssysteme vor große Herausforderungen. Nicht zuletzt die Lebensversicherungswirtschaft als klassischer Anbieter von privaten Rentenversicherungen ist davon betroffen. Eine Analyse der Sterblichkeitsentwicklung kann unter ganz unterschiedlichen Blickwinkeln durchgeführt werden; einige wichtige Aspekte wurden beim 7. FaRis & DAV-Symposium vertieft behandelt.
Land-use intensification and urbanisation processes are degrading ecosystem services in the Guapiaçu-Macacu watershed in the state of Rio de Janeiro, Brazil. Paying farmers to forgo agricultural production activities in order to restore natural watershed services might be a viable means of securing water resources over the long term for the approximately 2.5 million urban water users in the region. This study quantified the costs of changing current land-use patterns to enhance watershed services. These costs are compared to estimates of the avoided water treatment costs for the public potable water supply as a proxy of willingness-to-pay for watershed services. Farm-household data was used to estimate the opportunity costs of abandoning current land uses in order to allow natural vegetation succession; a process that is very likely to improve water quality in terms of reducing erosion and subsequently water turbidity. Opportunity cost estimates were extrapolated to the watershed scale based on land-use classifications and a vulnerability analysis for identifying priority areas for watershed management interventions. Water quality and treatment cost data from the primary local water treatment plant (principal water user in the study area) were analysed to assess the potential demand for watershed services. The conversion of agricultural land uses for the benefit of watershed service provision was found to entail high opportunity costs in the study area, which is near the city of Rio de Janeiro. Alternative, relatively low-cost practices that support watershed conservation do exist for the livestock production systems. Other options include: implementing soil conservation techniques, permanent protection of areas that are vulnerable to erosion, protecting and restoring riparian and headwater areas, and applying more sustainable agricultural practices. These measures have the potential to directly reduce the amount of sediment and nutrients reaching water bodies and, in turn, decrease the costs of treatment required for providing the potable water supply. Based on treatment costs, the state water utility company’s willingness-to-pay for watershed services alone will not be sufficient to compensate farmers for forgoing agricultural production activities in order to improve the provision of additional watershed services. The results suggest that the opportunity costs of land-cover changes at the scale needed to improve water quality will likely exceed the cost of additional investments in water treatment. Monetary incentives conditioned on specific adjustments to existing production systems could offer a complementary role for improving watershed services. The willingness-to-pay analysis, however, only focused on chemical treatment costs and one of a potentially wide range of ecosystem services provided by the natural vegetation in the Guapiaçu-Macacu watershed (water quality maintenance for potable water provision). Other ecosystem services provided by forest cover include carbon sequestration and storage, moderation of extreme weather events, regulation of water flows, landscape aesthetics, and biodiversity protection. Factoring these additional ecosystem services into the willingness-to-pay equation is likely to change the conclusions of the assessment in favour of additional conservation action, either through payments for ecosystem services (PES) or other policy instruments. This effort contributes to the growing body of related scientific literature by offering additional knowledge on how to combine spatially explicit economic and environmental information to provide valuable insights into the feasibility of implementing PES schemes at the scale of entire watersheds. This is relevant to helping inform decision-making processes with respect to the economic scope of incentive-based watershed management in the context of the Guapiaçu-Macacu watershed. Furthermore, the findings of this research can serve long-term watershed conservation initiatives and public policy in other watersheds of the Atlantic Forest biome by facilitating the targeting of conservation incentives for a cost-effective watershed management.
Dieser Schlussbericht beschreibt die im Projekt „CI-basierte mehrkriterielle Optimierungsverfahren für Anwendungen in der Industrie“ (CIMO) im Zeitraum von November 2011 bis einschließlich Oktober 2014 erzielten Ergebnisse. Für aufwändige Optimierungsprobleme aus der Industrie wurden geeignete Lösungsverfahren entwickelt. Der Schwerpunkt lag hierbei auf Methoden aus den Bereichen Computational Intelligence (CI) und Surrogatmodellierung. Diese bieten die Möglichkeit, wichtige Herausforderung von aufwändigen, komplexen Optimierungsproblemen zu lösen. Die entwickelten Methoden können verschiedene konfliktäre Zielgrößen berücksichtigen, verschiedene Hierarchieebenen des Problems in die Optimierung integrieren, Nebenbedingungen beachten, vektorielle aber auch strukturierte Daten verarbeiten (kombinatorische Optimierung) sowie die Notwendigkeit teurer/zeitaufwändiger Zielfunktionsberechnungen reduzieren. Die entwickelten Methoden wurden schwerpunktmäßig auf einer Problemstellung aus der Kraftwerkstechnik angewendet, nämlich der Optimierung der Geometrie eines Fliehkraftabscheiders (auch: Zyklon), der Staubanteile aus Abgasen filtert. Das Optimierungsproblem, das diese FIiehkraftabscheider aufwerfen, führt zu konfliktären Zielsetzungen (z.B. Druckverlust, Abscheidegrad). Zyklone können unter anderem über aufwändige Computational Fluid Dynamics (CFD) Simulationen berechnet werden, es stehen aber auch einfache analytische Gleichungen als Schätzung zu Verfügung. Die Verknüpfung von beidem zeigt hier beispielhaft wie Hierarchieebenen eines Optimierungsproblems mit den Methoden des Projektes verbunden werden können. Neben dieser Schwerpunktanwendung konnte auch gezeigt werden, dass die Methoden in vielen weiteren Bereichen Erfolgreich zur Anwendung kommen können: Biogaserzeugung, Wasserwirtschaft, Stahlindustrie. Die besondere Herausforderung der behandelten Probleme und Methoden bietet viele wichtige Forschungsmöglichkeiten für zukünftige Projekte, die derzeit durch die Projektpartner vorbereitet werden.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Ein Wiki ist eine Form von Social Software, die sich insbesondere zur Unterstützung der kollaborativen Wissensverarbeitung eignet und zunehmend im Unternehmenskontext eingesetzt wird. Ein Wiki lebt vom Prinzip der kollektiven Intelligenz. Somit wird die Schaffung einer kritischen Masse an Nutzern zum Erfolgsfaktor. Erkennt der Nutzer einen echten Mehrwert, so ist er gewillt, die Anwendung zu nutzen. Um diesen Mehrwert zu generieren, erfordert es eine funktionale Integration in die Arbeitsprozesse und die Systemlandschaft des Unternehmens. Um dies zu gewährleisten, wird in der vorliegenden Veröffentlichung eine idealtypische Vorgehensweise zur Einführung eines Wikis entwickelt. Es wird gezeigt, wie sich der Grundgedanke des prozessorientierten Wissensmanagements auf die Konzeption eines Wikis übertragen lässt. Die erarbeiteten theoretischen Grundlagen werden an der beispielhaften fachlichen Konzeption eines Wikis zur Unterstützung des Wissensmanagements im Produktentwicklungsprozess eines Lebens-versicherers angewendet. Zu diesem Zweck werden Anwendungsszenarien entwickelt, in denen die Nutzer durch den Einsatz des Wikis profitieren.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools in der Regel intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standardformel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Sind diese Zahlungsströme mit Risiken behaftet, so kann der Barwert als Zufallsvariable interpretiert werden. In der vorliegenden Arbeit wird der risikobehaftete Zahlungsstrom als bewertete inhomogene Markov-Kette modelliert. Als Hauptergebnis wird eine Formel für die charakteristische Funktion bzw. die momentenerzeugende Funktion der Zufallsvariablen „Barwert“ hergeleitet. Damit ist die Verteilung der Zufallsvariablen eindeutig festgelegt. In konkreten Fallbeispielen wird gezeigt, wie man mit einer EDV-technischen Umsetzung der Formel den Erwartungswert, die Varianz und die Standardabweichung der Zufallsvariablen „Barwert“ ermitteln kann.
Aufgrund der aktuellen gesetzlichen Rahmenbedingungen können Energieversorger von erneuerbaren Energien (Windkraft, Sonnenenergie, Geothermie) relativ stabile Erträge über längere Zeiträume generieren, so dass eine Investition in erneuerbare Energien für ein Versicherungsunternehmen eine attraktive Anlage darstellen kann. In dieser Arbeit soll daher mit einem vereinfachten Modell analysiert werden, wie eine solche Kapitalanlage sich auf das allgemeine ALM eines Versicherungsunternehmens auswirkt.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
We propose to apply typed Genetic Programming (GP) to the problem of finding surrogate-model ensembles for global optimization on compute-intensive target functions. In a model ensemble, base-models such as linear models, random forest models, or Kriging models, as well as pre- and post-processing methods, are combined. In theory, an optimal ensemble will join the strengths of its comprising base-models while avoiding their weaknesses, offering higher prediction accuracy and robustness. This study defines a grammar of model ensemble expressions and searches the set for optimal ensembles via GP. We performed an extensive experimental study based on 10 different objective functions and 2 sets of base-models. We arrive at promising results, as on unseen test data, our ensembles perform not significantly worse than the best base-model.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.