Refine
Year of publication
- 2015 (22) (remove)
Document Type
- Report (7)
- Working Paper (7)
- Book (3)
- Conference Proceeding (2)
- Doctoral Thesis (2)
- Preprint (1)
Has Fulltext
- yes (22)
Keywords
- Optimierung (5)
- Risikomanagement (5)
- Versicherungswirtschaft (4)
- Soft Computing (3)
- Disaster Risk Reduction (2)
- Evolutionärer Algorithmus (2)
- Extreme Events (2)
- Forschungsbericht (2)
- Forschungsstelle Versicherungsmarkt (2)
- Langlebigkeitsrisiko (2)
- Metaheuristik (2)
- Modellierung (2)
- Natural Hazards (2)
- Naturgefahr (2)
- Optimierungsproblem (2)
- Resilience (2)
- Resilienz (2)
- Risk Management (2)
- Solvency II (2)
- Standardformel (2)
- Versicherungsmathematik (2)
- Versuchsplanung (2)
- Verwundbarkeit (2)
- Vulnerability (2)
- Actuarial tontine (1)
- Aktienrenditen (1)
- Anpassung (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Asset-Liability-Management (1)
- Auxiliaries (1)
- Barwert (1)
- Bevölkerungsschutz (1)
- Brazil (1)
- Cairns-Blake-Dowd Modell (1)
- Capital market risk (1)
- Charakteristische Funktion (1)
- Civil Protection (1)
- Climate Change Adaptation (1)
- Co-Kriging (1)
- Computational Intelligence (1)
- Design of Experiments (1)
- Dichte <Stochastik> (1)
- Digitalisierung (1)
- Disaster Relief Forces (1)
- Economic Scenario Generator (1)
- Einsatzkräfte (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Ensemble Methods (1)
- Enterprise 2.0 (1)
- Erneuerbare Energien (1)
- Evolution Strategies (1)
- Evolutionary Algorithms (1)
- Evolutionsstrategie (1)
- Evolutionsstrategien (1)
- Evolutionäre Algorithmen (1)
- Farbmittel (1)
- Flood (1)
- Forschung (1)
- Forschungsschwerpunkt Rückversicherung (1)
- Forschungsstelle (1)
- Forschungsstelle FaRis (1)
- Genetic Algorithms (1)
- Genetic Programming (1)
- Genetic programming (1)
- Genetische Algorithmen (1)
- Genetisches Programmieren (1)
- Glaspartikel (1)
- Helfer (1)
- Heston Model (1)
- Hochwasser (1)
- Holbein, Hans, 1460-1524 (1)
- Institut für Versicherungswesen (1)
- Intergene (1)
- Kapitalanlagerisiko (1)
- Kapitalmarktrisiken (1)
- Klimawandelanpassung (1)
- Klimaänderung (1)
- Knowledge (1)
- Kriging (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Maltechnik (1)
- Markov-Ketten (1)
- Metamodel (1)
- Methode von Heligman-Pollard (1)
- Mikroökonomie (1)
- Mixed-Effects Models (1)
- Model Calibration (1)
- Modellkalibrierung (1)
- Motivation (1)
- Pensionsversicherungsmathematik (1)
- Produktentwicklungsprozess (1)
- Produktionstheorie (1)
- R (1)
- Research Report (1)
- Risiko-Rendite-Profile (1)
- Risikoneutrale Bewertung (1)
- Risk-return-profiles (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Simulation (1)
- Simulationsmodell (1)
- Soziale Software (1)
- Statistische Versuchsplanung (1)
- Stochastic Processes (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogatmodellbasierte Optimierung (1)
- Unsicherheit (1)
- Unterzeichnung (1)
- Varianzanalyse (1)
- Versicherung (1)
- Versicherungswissenschaft (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wertorientierte Steuerung (1)
- Wiki (1)
- Wissen (1)
- Wissensmanagement (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Zufriedenheit (1)
- economic assessment (1)
- ecosystem services (1)
- opportunity costs (1)
- water resources (1)
- watershed protection (1)
- Ökosystem-Dienstleistungen (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (10)
- Fakultät 10 / Institut für Informatik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (3)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (2)
- Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (ITT) (1)
We propose to apply typed Genetic Programming (GP) to the problem of finding surrogate-model ensembles for global optimization on compute-intensive target functions. In a model ensemble, base-models such as linear models, random forest models, or Kriging models, as well as pre- and post-processing methods, are combined. In theory, an optimal ensemble will join the strengths of its comprising base-models while avoiding their weaknesses, offering higher prediction accuracy and robustness. This study defines a grammar of model ensemble expressions and searches the set for optimal ensembles via GP. We performed an extensive experimental study based on 10 different objective functions and 2 sets of base-models. We arrive at promising results, as on unseen test data, our ensembles perform not significantly worse than the best base-model.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Management des Langlebigkeitsrisikos. Proceedings zum 7. FaRis & DAV Symposium am 5.12.2014 in Köln
(2015)
Die säkulare Sterblichkeitsverbesserung stellt seit langem alle Alterssicherungssysteme vor große Herausforderungen. Nicht zuletzt die Lebensversicherungswirtschaft als klassischer Anbieter von privaten Rentenversicherungen ist davon betroffen. Eine Analyse der Sterblichkeitsentwicklung kann unter ganz unterschiedlichen Blickwinkeln durchgeführt werden; einige wichtige Aspekte wurden beim 7. FaRis & DAV-Symposium vertieft behandelt.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Sind diese Zahlungsströme mit Risiken behaftet, so kann der Barwert als Zufallsvariable interpretiert werden. In der vorliegenden Arbeit wird der risikobehaftete Zahlungsstrom als bewertete inhomogene Markov-Kette modelliert. Als Hauptergebnis wird eine Formel für die charakteristische Funktion bzw. die momentenerzeugende Funktion der Zufallsvariablen „Barwert“ hergeleitet. Damit ist die Verteilung der Zufallsvariablen eindeutig festgelegt. In konkreten Fallbeispielen wird gezeigt, wie man mit einer EDV-technischen Umsetzung der Formel den Erwartungswert, die Varianz und die Standardabweichung der Zufallsvariablen „Barwert“ ermitteln kann.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools i. d. R. intensive Vorarbeiten benötigt werden. Im ersten Teil wurden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. In diesem Teil wird die Projektion der Standardformel auf das Folgejahr durchgeführt und es werden weitere Anwendungen an Hand dieses durchgängigen Datenmodells erläutert.