Refine
Year of publication
Document Type
- Working Paper (76)
- Report (52)
- Conference Proceeding (25)
- Book (16)
- Article (10)
- Preprint (7)
- Doctoral Thesis (3)
- Other (1)
Language
- German (138)
- English (51)
- Multiple languages (1)
Has Fulltext
- yes (190)
Keywords
- Versicherungswirtschaft (36)
- Optimierung (20)
- Forschungsbericht (19)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (10)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (77)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (24)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (11)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (5)
- Zentrum für Lehrentwicklung (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 02 / Köln International School of Design (3)
- Fakultät 07 / Institut für Nachrichtentechnik (2)
In the present paper a calculation tool for the lifetime prediction of composite materials with focus on local multiaxial
stress states and different local stress ratios within each lamina is developed. The approach is based on repetitiv, progressive in-plane stress calculations using classical laminate theory with subsequent analysis of the material stressing effort and use of appropriate material degradation models. Therefore experimentally data of S-N curves are
used to generate anistropic constant life diagrams for a closer examination of critical fracture planes under any given combination of local stress ratios. The model is verified against various balanced angle plies and multi-directional
laminates with arbitrary stacking sequences and varying stress ratios throughout the analysis. Different sections of the
model, such as residual strength and residual stiffness, are examined and verified over a wide range of load cycles. The obtained results agree very well with the analyzed experimental data.
RGP is genetic programming system based on, as well as fully integrated into, the R environment. The system implements classical tree-based genetic programming as well as other variants including, for example, strongly typed genetic programming and Pareto genetic programming. It strives for high modularity through a consistent architecture that allows the customization and replacement of every algorithm component, while maintaining accessibility for new users by adhering to the "convention over configuration" principle.
Multi-criteria optimization has gained increasing attention during the last decades. This article exemplifies multi-criteria features, which are implemented in the statistical software package SPOT. It describes related software packages such as mco and emoa and gives a comprehensive introduction to simple multi criteria optimization tasks. Several hands-on examples are used for illustration. The article is well-suited as a starting point for performing multi-criteria optimization tasks with SPOT.
There is a strong need for sound statistical analysis of simulation and optimization algorithms. Based on this analysis, improved parameter settings can be determined. This will be referred to as tuning. Model-based investigations are common approaches in simulation and optimization. The sequential parameter optimization toolbox (SPOT), which is implemented as a package for the statistical programming language R, provides sophisticated means for tuning and understanding simulation and optimization algorithms. The toolbox includes methods for tuning based on classical regression and analysis of variance techniques; tree-based models such as classification and regressions trees (CART) and random forest; Gaussian process models (Kriging), and combinations of different meta-modeling approaches. This article exemplifies how an existing optimization algorithm, namely simulated annealing, can be tuned using the SPOT framework.
Surrogate-based optimization and nature-inspired metaheuristics have become the state of the art in solving real-world optimization problems. Still, it is difficult for beginners and even experts to get an overview that explains their advantages in comparison to the large number of available methods in the scope of continuous optimization. Available taxonomies lack the integration of surrogate-based approaches and thus their embedding in the larger context of this broad field.
This article presents a taxonomy of the field, which further matches the idea of nature-inspired algorithms, as it is based on the human behavior in path finding. Intuitive analogies make it easy to conceive the most basic principles of the search algorithms, even for beginners and non-experts in this area of research. However, this scheme does not oversimplify the high complexity of the different algorithms, as the class identifier only defines a descriptive meta-level of the algorithm search strategies. The taxonomy was established by exploring and matching algorithm schemes, extracting similarities and differences, and creating a set of classification indicators to distinguish between five distinct classes. In practice, this taxonomy allows recommendations for the applicability of the corresponding algorithms and helps developers trying to create or improve their own algorithms.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
Nach einem Jahr Corona-bedingter Pause fand das FaRis & DAV-Symposium am 10. Dezember 2021 an der Technischen Hochschule Köln statt. Unter dem Titel „Aktuelle Herausforderungen an das aktuarielle und finanzielle Risikomanagement durch COVID-19 und die anhaltende Niedrigzinsphase“ beleuchtete das virtuell durchgeführte 16. FaRis & DAV-Symposium Symposium die aktuelle Situation der Lebensversicherungen und der betrieblichen Altersversorgung aus unterschiedlichen Blickwinkeln. Im ersten Teil der Veranstaltung lag der Fokus auf der Kapitalanlage. Im zweiten Teil wurde die Abschätzung der Pandemie-Folgen auf Pensionskassen thematisiert und um einen Blick auf den Status Quo sowie die Zukunft des Geschäftsmodells der Lebensversicherungen und betrieblichen Altersversorgung ergänzt.
Der vorliegende Tagungsband stellt eine Zusammenfassung der Themen des Symposiums dar.
Das prinzipienorientierte Aufsichtssystem von Solvency II erkennt als zentralen Grundsatz, dass nach dem Prinzip „Substanz über Form“ die ökonomische Wirkung eines Risikotransferinstrumentes und nicht die formale Einbettung desselben als Entscheidungskriterium der Berücksichtigungsfähigkeit gilt. Dieser Grundsatz trägt den Entwicklungen auf dem Rückversicherungsmarkt insoweit Rechnung, da dadurch auch alternative Formen des vt. Risikotransfers grundsätzlich Anerkennung finden können, wenn sie den Anerkennungsvoraussetzungen der aufsichtsrechtlichen Vorgaben entsprechen. Dabei zeigt sich, dass der Aufbau und die Mechanik dieser alternativen Formen des vt. Risikotransfer insbesondere eine (ökonomisch) abweichende Bewertung hinsichtlich des vt. Basisrisikos und Ausfallrisikos bedingen können. Kern der vorliegenden Arbeit ist deshalb die Prüfung, inwieweit die Vorgaben von Solvency II diese Unterschiedlichkeit zur Berücksichtigung von vt. Basisrisiko ökonomisch adäquat abbilden. Dabei wird dargestellt, dass insbesondere eine nach Solvency II im Vergleich zum Marktverständnis weit gefasste Definition der Begrifflichkeit sowie eine uneinheitliche Anwendung innerhalb der Gesetzestexte der einheitlichen Berücksichtigung potentiell zuwiderlaufen oder uneinheitliche Prüfungserfordernisse an ökonomisch gleich wirkende Instrumente stellen. Darüber wird hergeleitet, dass die Vorgaben nach Solvency II Regelungen enthalten, welche die ökonomische Wirkung des vt. Basisrisikos (z. B. aus Währungsinkongruenzen) inadäquat widerspiegeln.
Mit einem Anlagevolumen von rund 872 Mrd. €1 sind die deutschen Lebensversicherer mit Abstand die wichtigsten institutionellen Kapitalanleger für die Altersvorsorge. Sie stehen vor der Herausforderung, das Geld ihrer Kunden rentabel und zugleich sicher am Kapitalmarkt anzulegen. Derzeit bietet eine Neuanlage in Staatspapiere höchster Bonität eine Rendite, die kaum ausreicht die Preissteigerung auszugleichen und teilweise deutlich niedriger ist als der Bestand- Rechnungszins. Das Geschäftsmodell der klassischen Lebensversicherung mit den Jahrzehnte- umspannenden Zinsgarantien steht zur Disposition: Niedrigzinsphase und der Übergang einem zum kapitalmarktorientierten Aufsichtsmodell (Solvency 2) zwingen die Lebensversicherer über Alternativen nachzudenken. Beim 2. FaRis & DAV-Symposium wurde das Thema „Alternative Zinsgarantien in der Lebensversicherung“ von verschiedenen Seiten beleuchtet. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Das im März 2024 vorgestellte Rentenpaket II der Ampelregierung sieht vor, das Rentenniveau zu stabilisieren und gleichzeitig eine schuldenfinanzierte Kapitaldeckung (Generationenkapital) einzuführen.
Allerdings führen diese Maßnahmen im Umlageverfahren zu einer einseitigen Belastung der jüngeren Generationen, die auch nicht durch den Aufbau des Generationenkapitals gemildert wird, wie die Ausführungen in diesem Artikel zeigen.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Die lineare Regression ist das bekannteste Verfahren zur Fehlerausgleichung, welches relativ einfach umgesetzt werden kann. Verallgemeinerte lineare Modelle sind eine zweckmäßige Erweiterung dieses Verfahrens, können aber aufgrund ihrer hohen Komplexität i. d. R. nur mit spezieller Software gerechnet werden. Aus diesem Grund wird in dieser Arbeit anhand eines fiktiven Storno-bestandes illustriert, wie man Ausgleichsrechnungen auch mit Hilfe von Gauß Markow Modellen durchführen kann, die mittels EXCEL und Visual Basic ebenfalls noch vergleichsweise einfach umsetzbar sind.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Nach einer langen Prozess- und Entwicklungsphase ist Solvency II seit dem 1. Januar 2016 als EU-einheitliches Solvenzsystem für Versicherungen eingeführt, wobei eine nicht unerhebliche Her-ausforderung in diesem Zusammenhang – auch im Hinblick auf die flankierenden Prozesse – die doch sehr extensiven Berichtsanforderungen aus der dritten Säule von Solvency II darstellen, die sich in einen quantitativen Teil mit einer Fülle von Tabellen und in einen qualitativen Teil mit mehreren narrativen Berichten aufteilen.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette durch lineare Interpolation der Übergangsmatrizen und der Einheitsmatrix sowohl eine unterjährliches als auch ein zeitstetige bewertete inhomogene Markov-Kette konstruiert. Beim unterjährlichen Modell liegt der Fokus auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion und einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen. Beim zeitstetigen Modell steht neben der Konstruktion und den üblichen Ergebnissen für zeitstetige Markov-Ketten, die Verallgemeinerung des Restglieds bzw. des Invarianzsatzes im Mittelpunkt des Interesses.
Mit der „IVW Privat AG“ liegt ein relativ durchgängiges Datenmodell eines Schadenversicherungs-unternehmens vor, mit dem in vorangegangenen Publikationen eine Vielzahl von Solvency II Anwen-dungen illustriert werden konnten. Ergänzend dazu sollen in dieser Publikation unterschiedliche Bewertungsansätze für das verfügbare Kapital vorgestellt und miteinander verglichen werden – ausgehend vom sicherheitsorientierten HGB Kapital bis hin zum Marktkonsistenten Embedded Value (MCEV).
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Viele der dabei verwendeten Modelle sind gedächtnislos. In der vorliegenden Arbeit wird für diese Fälle ein Modell, das auf der Theorie der Markov- Ketten basiert, eingeführt. Aus dieser Modellierung ergibt sich u.a. eine grundlegende Bewertungsformel. In drei unterschiedlichen ökonomischen Beispielen wird gezeigt, dass die Anwendung dieser Bewertungsformel zu den Standardbewertungsansätzen führt. Das primäre Ziel der Arbeit ist dabei nicht die Darstellung neuer Ergebnisse, sondern die grundlegende Aufbereitung der Thematik. Dabei soll die Ausarbeitung eine Basis für weitere Anwendungen schaffen und als Grundlagen für eine EDVtechnische Umsetzung dienen.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Sowohl der Zinssatz als auch die Wahrscheinlichkeiten liegen dabei normalerweise als Jahreswerte vor, die Zahlungen hingegen erfolgen meist unterjährlich. In der vorliegenden Arbeit wird für diesen unterjährlichen Fall ein auf der Theorie der Markov-Ketten basierendes Modell zur Barwertberechnung behandelt. Die unterjährlichen Wahrscheinlichkeiten ergeben sich dabei durch Linearisierung der Jahreswerte, als unterjährliches Zinsmodell wird die gemischte Verzinsung – alternativ mit dem relativen Zinssatz und dem konformen Zinssatz – betrachtet.