Refine
Year of publication
- 2015 (22) (remove)
Document Type
- Report (7)
- Working Paper (7)
- Book (3)
- Conference Proceeding (2)
- Doctoral Thesis (2)
- Preprint (1)
Has Fulltext
- yes (22)
Keywords
- Optimierung (5)
- Risikomanagement (5)
- Versicherungswirtschaft (4)
- Soft Computing (3)
- Disaster Risk Reduction (2)
- Evolutionärer Algorithmus (2)
- Extreme Events (2)
- Forschungsbericht (2)
- Forschungsstelle Versicherungsmarkt (2)
- Langlebigkeitsrisiko (2)
- Metaheuristik (2)
- Modellierung (2)
- Natural Hazards (2)
- Naturgefahr (2)
- Optimierungsproblem (2)
- Resilience (2)
- Resilienz (2)
- Risk Management (2)
- Solvency II (2)
- Standardformel (2)
- Versicherungsmathematik (2)
- Versuchsplanung (2)
- Verwundbarkeit (2)
- Vulnerability (2)
- Actuarial tontine (1)
- Aktienrenditen (1)
- Anpassung (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Asset-Liability-Management (1)
- Auxiliaries (1)
- Barwert (1)
- Bevölkerungsschutz (1)
- Brazil (1)
- Cairns-Blake-Dowd Modell (1)
- Capital market risk (1)
- Charakteristische Funktion (1)
- Civil Protection (1)
- Climate Change Adaptation (1)
- Co-Kriging (1)
- Computational Intelligence (1)
- Design of Experiments (1)
- Dichte <Stochastik> (1)
- Digitalisierung (1)
- Disaster Relief Forces (1)
- Economic Scenario Generator (1)
- Einsatzkräfte (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Ensemble Methods (1)
- Enterprise 2.0 (1)
- Erneuerbare Energien (1)
- Evolution Strategies (1)
- Evolutionary Algorithms (1)
- Evolutionsstrategie (1)
- Evolutionsstrategien (1)
- Evolutionäre Algorithmen (1)
- Farbmittel (1)
- Flood (1)
- Forschung (1)
- Forschungsschwerpunkt Rückversicherung (1)
- Forschungsstelle (1)
- Forschungsstelle FaRis (1)
- Genetic Algorithms (1)
- Genetic Programming (1)
- Genetic programming (1)
- Genetische Algorithmen (1)
- Genetisches Programmieren (1)
- Glaspartikel (1)
- Helfer (1)
- Heston Model (1)
- Hochwasser (1)
- Holbein, Hans, 1460-1524 (1)
- Institut für Versicherungswesen (1)
- Intergene (1)
- Kapitalanlagerisiko (1)
- Kapitalmarktrisiken (1)
- Klimawandelanpassung (1)
- Klimaänderung (1)
- Knowledge (1)
- Kriging (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Maltechnik (1)
- Markov-Ketten (1)
- Metamodel (1)
- Methode von Heligman-Pollard (1)
- Mikroökonomie (1)
- Mixed-Effects Models (1)
- Model Calibration (1)
- Modellkalibrierung (1)
- Motivation (1)
- Pensionsversicherungsmathematik (1)
- Produktentwicklungsprozess (1)
- Produktionstheorie (1)
- R (1)
- Research Report (1)
- Risiko-Rendite-Profile (1)
- Risikoneutrale Bewertung (1)
- Risk-return-profiles (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Simulation (1)
- Simulationsmodell (1)
- Soziale Software (1)
- Statistische Versuchsplanung (1)
- Stochastic Processes (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogatmodellbasierte Optimierung (1)
- Unsicherheit (1)
- Unterzeichnung (1)
- Varianzanalyse (1)
- Versicherung (1)
- Versicherungswissenschaft (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wertorientierte Steuerung (1)
- Wiki (1)
- Wissen (1)
- Wissensmanagement (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Zufriedenheit (1)
- economic assessment (1)
- ecosystem services (1)
- opportunity costs (1)
- water resources (1)
- watershed protection (1)
- Ökosystem-Dienstleistungen (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (10)
- Fakultät 10 / Institut für Informatik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (3)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (2)
- Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (ITT) (1)
This volume addresses the topics of Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) from the perspective of participants of the DAAD Alumni Summer School 2013. Contributions from 16 countries are gathered in this volume, thereby sharing specific knowledge on climate extremes, disasters, adaptation and prevention measures as well as current strategies in a range of different national contexts. The DAAD Alumni Summer School opened up a forum for integrative thinking and learning across cultures, disciplines and institutions. This volume is directly linked to the first volume of the series and presents a further outcome of the Summer School 2013. It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making. The outcomes presented in the two volumes are a starting point for further international & transdisciplinary knowledge exchange activities planned for the upcoming years.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Dieser Schlussbericht beschreibt die im Projekt „CI-basierte mehrkriterielle Optimierungsverfahren für Anwendungen in der Industrie“ (CIMO) im Zeitraum von November 2011 bis einschließlich Oktober 2014 erzielten Ergebnisse. Für aufwändige Optimierungsprobleme aus der Industrie wurden geeignete Lösungsverfahren entwickelt. Der Schwerpunkt lag hierbei auf Methoden aus den Bereichen Computational Intelligence (CI) und Surrogatmodellierung. Diese bieten die Möglichkeit, wichtige Herausforderung von aufwändigen, komplexen Optimierungsproblemen zu lösen. Die entwickelten Methoden können verschiedene konfliktäre Zielgrößen berücksichtigen, verschiedene Hierarchieebenen des Problems in die Optimierung integrieren, Nebenbedingungen beachten, vektorielle aber auch strukturierte Daten verarbeiten (kombinatorische Optimierung) sowie die Notwendigkeit teurer/zeitaufwändiger Zielfunktionsberechnungen reduzieren. Die entwickelten Methoden wurden schwerpunktmäßig auf einer Problemstellung aus der Kraftwerkstechnik angewendet, nämlich der Optimierung der Geometrie eines Fliehkraftabscheiders (auch: Zyklon), der Staubanteile aus Abgasen filtert. Das Optimierungsproblem, das diese FIiehkraftabscheider aufwerfen, führt zu konfliktären Zielsetzungen (z.B. Druckverlust, Abscheidegrad). Zyklone können unter anderem über aufwändige Computational Fluid Dynamics (CFD) Simulationen berechnet werden, es stehen aber auch einfache analytische Gleichungen als Schätzung zu Verfügung. Die Verknüpfung von beidem zeigt hier beispielhaft wie Hierarchieebenen eines Optimierungsproblems mit den Methoden des Projektes verbunden werden können. Neben dieser Schwerpunktanwendung konnte auch gezeigt werden, dass die Methoden in vielen weiteren Bereichen Erfolgreich zur Anwendung kommen können: Biogaserzeugung, Wasserwirtschaft, Stahlindustrie. Die besondere Herausforderung der behandelten Probleme und Methoden bietet viele wichtige Forschungsmöglichkeiten für zukünftige Projekte, die derzeit durch die Projektpartner vorbereitet werden.
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
We propose to apply typed Genetic Programming (GP) to the problem of finding surrogate-model ensembles for global optimization on compute-intensive target functions. In a model ensemble, base-models such as linear models, random forest models, or Kriging models, as well as pre- and post-processing methods, are combined. In theory, an optimal ensemble will join the strengths of its comprising base-models while avoiding their weaknesses, offering higher prediction accuracy and robustness. This study defines a grammar of model ensemble expressions and searches the set for optimal ensembles via GP. We performed an extensive experimental study based on 10 different objective functions and 2 sets of base-models. We arrive at promising results, as on unseen test data, our ensembles perform not significantly worse than the best base-model.