Refine
Year of publication
Document Type
- Working Paper (86) (remove)
Has Fulltext
- yes (86)
Keywords
- Versicherungswirtschaft (16)
- Hochschuldidaktik (9)
- Versicherungsmathematik (8)
- Solvency II (7)
- Barwert (5)
- Bewertete Markov-Kette (5)
- Markov-Ketten (5)
- Risikomanagement (5)
- Rückversicherung (5)
- Benchmarking (4)
- Embedded Value (4)
- Hochschulforschung (4)
- Markov-Kette (4)
- Optimierung (4)
- Optimization (4)
- Schadenversicherung (4)
- Versicherungswissenschaft (4)
- insurance (4)
- Betriebliche Altersversorgung (3)
- E-Learning (3)
- Markov Chain (3)
- Modeling (3)
- Required Capital (3)
- Soziale Software (3)
- Standardformel (3)
- Versicherung (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Altersversorgung (2)
- Charakteristische Funktion (2)
- Digitalisierung (2)
- Direktversicherung (2)
- Ereignisdefinition (2)
- Hybride Lehre (2)
- Interne Modelle (2)
- Kapitalanlage (2)
- Kapitalmarkt (2)
- Kollektive Sparprozesse (2)
- Künstliche Intelligenz (2)
- Lehrevaluation (2)
- Marketing (2)
- Mikroökonomie (2)
- Online-Sozialisation (2)
- Onlineversicherung (2)
- Parallelization (2)
- Priced Markov Chain (2)
- Produktionstheorie (2)
- Reinsurance (2)
- Risiko (2)
- Risikobehaftete Zahlungsströme (2)
- Simulation (2)
- Test Function (2)
- Value at Risk (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- Aktivierung (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Asset-Liability-Management (1)
- Ausgleichsverfahren (1)
- Authentizität (1)
- Automation (1)
- Backtesting (1)
- Basisrisiko (1)
- Bayesian Optimization (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Berichtspflichten (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big Data (1)
- Big data platform (1)
- Binomialmodell (1)
- Blended Learning (1)
- Business Intelligence (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Central limit theorem (1)
- Check24 (1)
- Coaching (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Copula (1)
- Curriculumentwicklung (1)
- Curriculumevaluation (1)
- Customer Journey (1)
- Customized Distribution (1)
- DA-Direkt (1)
- DAX (1)
- Data-Warehouse-Konzept (1)
- Decision tree (1)
- Design of Experiments (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Digitale Gruppenarbeit (1)
- Digitale Kompetenz (1)
- Digitale Lehre (1)
- Digitale Medien (1)
- Digitales Zeitalter (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Dritte Säule (1)
- E-Book (1)
- Economic Value Added (1)
- Effizienz einer Rückversicherungslösung (1)
- Electrostatic Precipitator (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Entdeckendes Lernen (1)
- Entrepreneurship (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Erneuerbare Energien (1)
- Evolutionary Computation (1)
- Expensive Optimization (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faserverbundwerkstoffe (1)
- Fehlerbaum Analyse (1)
- Feldafinger Brandkasse (1)
- Fernunterricht (1)
- Finanzmathematik (1)
- Flowcurve (1)
- Forschendes Lernen (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Frequency Severity Model (1)
- Fréchet-Hoeffding-Bounds (1)
- Fréchet-Hoeffding-Schranken (1)
- Funktionstest (1)
- Gaussian Process (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- Gemischtes Lehrformat (1)
- Gründungskultur (1)
- HUK24 (1)
- Health condition monitoring (1)
- Heston Model (1)
- Hochschuldidaktische Forschung (1)
- Hochschulkommunikation (1)
- Hot rolling (1)
- Imputation (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationskompetenz (1)
- Informationsverhalten (1)
- Informationsvermittlung (1)
- Ingenieurstudium (1)
- Innerinstitutionelle Forschung (1)
- Instagram (1)
- Insurance Linked Securities (ILS) (1)
- Integriertes Lernen (1)
- Intergene (1)
- Internes Modell (1)
- Kapitalanlagerisiko (1)
- Kfz-Versicherung (1)
- Knowledge extraction (1)
- Kognition (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompetenzentwicklung (1)
- Kompression (1)
- Konstruktivismus (1)
- Konsumenteninformation (1)
- Korrelationsmatrix (1)
- Kraftfahrtversicherung (1)
- Kriging (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenverhalten (1)
- Kurzpräsentation (1)
- Langlebigkeitsrisiko (1)
- Lehr-/Lernforschung (1)
- Lehramt (1)
- Lehrentwicklung (1)
- Lehrinterventionen (1)
- Lehrplanentwicklung (1)
- Lehrveranstaltung (1)
- Lernmotivation (1)
- Lifetime Prediction (1)
- Longevity risk (1)
- MCEV (1)
- Machine learning (1)
- Markowitz Optimierung (1)
- Marktanteile (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metal (1)
- Metamodels (1)
- Mixed-Methods-Ansatz (1)
- Model Calibration (1)
- Modelierung (1)
- Modellkalibrierung (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Motivation (1)
- Multi-Agent Systems (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Neue Medien (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Online Information Review (1)
- Online-Portal (1)
- Parallelisierung (1)
- Peer-Feedback (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Performanceoptimierung (1)
- Personenversicherungsmathematik (1)
- Plywise Analysis (1)
- Present Value (1)
- Prokrastination (1)
- Prozesse (1)
- Prüfungsdaten (1)
- Quantitatives Risikomanagement (1)
- RFID (1)
- Referenzmodell (1)
- Reflexion (1)
- Reifegradmodell (1)
- Rendite (1)
- Resilienz (1)
- Return on Risk Adjusted Capital (1)
- Risiko-Rendite-Profile (1)
- Risikoaggregation (1)
- Risikomanagement technischer Systeme (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- SOTL (1)
- Scholarship of Teaching and Learning (1)
- Selbstbestimmungstheorie (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Signalanalyse (1)
- Social Media (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Social-Media-Kommunikation (1)
- Soziale Medien (1)
- Standardisierung (1)
- Statistik (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Structural Health Monitoring (1)
- Studierendenaktivierung (1)
- Supervision (1)
- Surrogate (1)
- Surrogate model based optimization (1)
- Surrogates (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Teamteaching (1)
- Technische Versicherung (1)
- Test function generator (1)
- Testgröße (1)
- Time Series (1)
- Transparenz (1)
- Umfrage (1)
- Univariate Data (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Unterrichtsplanung (1)
- Unterrichtssimulation (1)
- Value-Based-Management (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versicherungsmarkt (1)
- Verteilungsanpassung (1)
- Volkswirtschaftslehre (1)
- Vorgehensmodell (1)
- Wahrnehmung (1)
- Wertschätzung (1)
- Wissenschaftspraxis (1)
- Word-of-Mouth (1)
- Workloaderhebung (1)
- World Wide Web 2.0 (1)
- Zentraler Grenzwertsatz (1)
- Zins (1)
- Zinsmodelle (1)
- Zusammengesetzte Poisson-Verteilung (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- charakteristische Funktion (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- reinsurance (1)
- reinsurance programs (1)
- social media maturity model (1)
- social media strategy (1)
- team teaching (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- Übersetzen (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (40)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (15)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (13)
- Zentrum für Lehrentwicklung (11)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (2)
- Fakultät 08 / Institut für Fahrzeugtechnik (1)
In the present paper a calculation tool for the lifetime prediction of composite materials with focus on local multiaxial
stress states and different local stress ratios within each lamina is developed. The approach is based on repetitiv, progressive in-plane stress calculations using classical laminate theory with subsequent analysis of the material stressing effort and use of appropriate material degradation models. Therefore experimentally data of S-N curves are
used to generate anistropic constant life diagrams for a closer examination of critical fracture planes under any given combination of local stress ratios. The model is verified against various balanced angle plies and multi-directional
laminates with arbitrary stacking sequences and varying stress ratios throughout the analysis. Different sections of the
model, such as residual strength and residual stiffness, are examined and verified over a wide range of load cycles. The obtained results agree very well with the analyzed experimental data.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
Das prinzipienorientierte Aufsichtssystem von Solvency II erkennt als zentralen Grundsatz, dass nach dem Prinzip „Substanz über Form“ die ökonomische Wirkung eines Risikotransferinstrumentes und nicht die formale Einbettung desselben als Entscheidungskriterium der Berücksichtigungsfähigkeit gilt. Dieser Grundsatz trägt den Entwicklungen auf dem Rückversicherungsmarkt insoweit Rechnung, da dadurch auch alternative Formen des vt. Risikotransfers grundsätzlich Anerkennung finden können, wenn sie den Anerkennungsvoraussetzungen der aufsichtsrechtlichen Vorgaben entsprechen. Dabei zeigt sich, dass der Aufbau und die Mechanik dieser alternativen Formen des vt. Risikotransfer insbesondere eine (ökonomisch) abweichende Bewertung hinsichtlich des vt. Basisrisikos und Ausfallrisikos bedingen können. Kern der vorliegenden Arbeit ist deshalb die Prüfung, inwieweit die Vorgaben von Solvency II diese Unterschiedlichkeit zur Berücksichtigung von vt. Basisrisiko ökonomisch adäquat abbilden. Dabei wird dargestellt, dass insbesondere eine nach Solvency II im Vergleich zum Marktverständnis weit gefasste Definition der Begrifflichkeit sowie eine uneinheitliche Anwendung innerhalb der Gesetzestexte der einheitlichen Berücksichtigung potentiell zuwiderlaufen oder uneinheitliche Prüfungserfordernisse an ökonomisch gleich wirkende Instrumente stellen. Darüber wird hergeleitet, dass die Vorgaben nach Solvency II Regelungen enthalten, welche die ökonomische Wirkung des vt. Basisrisikos (z. B. aus Währungsinkongruenzen) inadäquat widerspiegeln.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Die lineare Regression ist das bekannteste Verfahren zur Fehlerausgleichung, welches relativ einfach umgesetzt werden kann. Verallgemeinerte lineare Modelle sind eine zweckmäßige Erweiterung dieses Verfahrens, können aber aufgrund ihrer hohen Komplexität i. d. R. nur mit spezieller Software gerechnet werden. Aus diesem Grund wird in dieser Arbeit anhand eines fiktiven Storno-bestandes illustriert, wie man Ausgleichsrechnungen auch mit Hilfe von Gauß Markow Modellen durchführen kann, die mittels EXCEL und Visual Basic ebenfalls noch vergleichsweise einfach umsetzbar sind.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Nach einer langen Prozess- und Entwicklungsphase ist Solvency II seit dem 1. Januar 2016 als EU-einheitliches Solvenzsystem für Versicherungen eingeführt, wobei eine nicht unerhebliche Her-ausforderung in diesem Zusammenhang – auch im Hinblick auf die flankierenden Prozesse – die doch sehr extensiven Berichtsanforderungen aus der dritten Säule von Solvency II darstellen, die sich in einen quantitativen Teil mit einer Fülle von Tabellen und in einen qualitativen Teil mit mehreren narrativen Berichten aufteilen.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette durch lineare Interpolation der Übergangsmatrizen und der Einheitsmatrix sowohl eine unterjährliches als auch ein zeitstetige bewertete inhomogene Markov-Kette konstruiert. Beim unterjährlichen Modell liegt der Fokus auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion und einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen. Beim zeitstetigen Modell steht neben der Konstruktion und den üblichen Ergebnissen für zeitstetige Markov-Ketten, die Verallgemeinerung des Restglieds bzw. des Invarianzsatzes im Mittelpunkt des Interesses.
Mit der „IVW Privat AG“ liegt ein relativ durchgängiges Datenmodell eines Schadenversicherungs-unternehmens vor, mit dem in vorangegangenen Publikationen eine Vielzahl von Solvency II Anwen-dungen illustriert werden konnten. Ergänzend dazu sollen in dieser Publikation unterschiedliche Bewertungsansätze für das verfügbare Kapital vorgestellt und miteinander verglichen werden – ausgehend vom sicherheitsorientierten HGB Kapital bis hin zum Marktkonsistenten Embedded Value (MCEV).
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Viele der dabei verwendeten Modelle sind gedächtnislos. In der vorliegenden Arbeit wird für diese Fälle ein Modell, das auf der Theorie der Markov- Ketten basiert, eingeführt. Aus dieser Modellierung ergibt sich u.a. eine grundlegende Bewertungsformel. In drei unterschiedlichen ökonomischen Beispielen wird gezeigt, dass die Anwendung dieser Bewertungsformel zu den Standardbewertungsansätzen führt. Das primäre Ziel der Arbeit ist dabei nicht die Darstellung neuer Ergebnisse, sondern die grundlegende Aufbereitung der Thematik. Dabei soll die Ausarbeitung eine Basis für weitere Anwendungen schaffen und als Grundlagen für eine EDVtechnische Umsetzung dienen.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Sowohl der Zinssatz als auch die Wahrscheinlichkeiten liegen dabei normalerweise als Jahreswerte vor, die Zahlungen hingegen erfolgen meist unterjährlich. In der vorliegenden Arbeit wird für diesen unterjährlichen Fall ein auf der Theorie der Markov-Ketten basierendes Modell zur Barwertberechnung behandelt. Die unterjährlichen Wahrscheinlichkeiten ergeben sich dabei durch Linearisierung der Jahreswerte, als unterjährliches Zinsmodell wird die gemischte Verzinsung – alternativ mit dem relativen Zinssatz und dem konformen Zinssatz – betrachtet.
Bewertungsportale, in denen man seine Meinung zu Gütern oder Dienstleistungen äußern kann, sind seit einiger Zeit bekannt und verbreitet. Kann durch sie die Nachfrageseite eine neue, informationsgestützte Machtposition erlangen? Ein Projektteam des Instituts für Versicherungswesen an der TH Köln (ivwKöln) hat sich dieser Frage gewidmet und zunächst kontrastierende Hypothesen aus der Gegenüberstellung des informationsökonomischen und des diffusionstheoretischen Ansatzes entwickelt. Eine Hypothesengruppe bezog sich auf die Frage, von welchen Faktoren die Nachfrage und Wertschätzung von Bewertungsportalen abhängig ist, eine andere unterstellte, dass globale Produkteigenschaften auf der Dimension Such-, Erfahrungs-, Vertrauenseigenschaften sich auf die Nutzung von Portalen auswirkten. Untersucht wurden deshalb sehr unterschiedliche Portale, für Kleidung, Restaurants, Ärzte und Versicherungen. Empirische Grundlage war eine online-gestützte Befragung mit einem Convenience-Sample von 114 Befragten. Neben Studierenden des ivwKöln wurden Angestellte und Personen im Rentenalter zur Teilnahme motiviert, um eine breite Altersstreuung zu erreichen. Die Ergebnisse zur ersten Hypothesengruppe sprechen eindeutig für den diffusionstheoretischen Ansatz. Bei den beiden analysierbaren Portalen (Restaurants und Ärzte) ergibt sich: Entscheidende Faktoren für den Besuch von Restaurantportalen sind Internetaffinität, Alter, Produktinvolvement und Meinungsführerschaft; für den Besuch von Ärzteportalen sind es Internetaffinität und Produktinvolvement. Damit ist auch klar, dass sich die Machtposition der Nachfrager durch die Nutzung von Portalen allenfalls selektiv verstärkt. Die zweite Hypothese, dass Portalnutzung auch von globalen Produkteigenschaften abhängig sei, ließ sich nicht bestätigen.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
Collective Defined Contribution Plans – Backtesting Based on German Capital Market Data 1950 - 2022
(2022)
Using historical capital market data for Germany (1950-2022) we analyze and compare (individual) defined contribution (IDC-) and collective defined contribution (CDC) pension plans. To this end we define simple asset liability management rules that govern a CDC pension plan and compare these to IDC-plans with the same asset allovation. Our main result is, that the CDC pension plans allow for a significant improvement of the risk return profile compared to individual pension plans. Hereby we consider different risk measures. This empirical study affirms the theoretical results based on stochastic CDC-models.
The availability of several CPU cores on current computers enables
parallelization and increases the computational power significantly.
Optimization algorithms have to be adapted to exploit these highly
parallelized systems and evaluate multiple candidate solutions in
each iteration. This issue is especially challenging for expensive
optimization problems, where surrogate models are employed to
reduce the load of objective function evaluations.
This paper compares different approaches for surrogate modelbased
optimization in parallel environments. Additionally, an easy
to use method, which was developed for an industrial project, is
proposed. All described algorithms are tested with a variety of
standard benchmark functions. Furthermore, they are applied to
a real-world engineering problem, the electrostatic precipitator
problem. Expensive computational fluid dynamics simulations are
required to estimate the performance of the precipitator. The task
is to optimize a gas-distribution system so that a desired velocity
distribution is achieved for the gas flow throughout the precipitator.
The vast amount of possible configurations leads to a complex
discrete valued optimization problem. The experiments indicate
that a hybrid approach works best, which proposes candidate solutions
based on different surrogate model-based infill criteria and
evolutionary operators.
As the amount of data gathered by monitoring systems increases, using computational tools to analyze it becomes a necessity.
Machine learning algorithms can be used in both regression and classification problems, providing useful insights while avoiding the bias and proneness to errors of humans. In this paper, a specific kind of decision tree algorithm, called conditional inference tree, is used to extract relevant knowledge from data that pertains to electrical motors. The model is chosen due to its flexibility, strong statistical foundation, as well as great capabilities to generalize and cope with problems in the data. The obtained knowledge is organized in a structured way and then analyzed in the context of health condition monitoring. The final
results illustrate how the approach can be used to gain insight into the system and present the results in an understandable, user-friendly manner
Benchmark experiments are required to test, compare, tune, and understand optimization algorithms. Ideally, benchmark problems closely reflect real-world problem behavior. Yet, real-world problems are not always readily available for benchmarking. For example, evaluation costs may be too high, or resources are unavailable (e.g., software or equipment). As a solution, data from previous evaluations can be used to train surrogate models which are then used for benchmarking. The goal is to generate test functions on which the performance of an algorithm is similar to that on the real-world objective function. However, predictions from data-driven models tend to be smoother than the ground-truth from which the training data is derived. This is especially problematic when the training data becomes sparse. The resulting benchmarks may not reflect the landscape features of the ground-truth, are too easy, and may lead to biased conclusions.
To resolve this, we use simulation of Gaussian processes instead of estimation (or prediction). This retains the covariance properties estimated during model training. While previous research suggested a decomposition-based approach for a small-scale, discrete problem, we show that the spectral simulation method enables simulation for continuous optimization problems. In a set of experiments with an artificial ground-truth, we demonstrate that this yields more accurate benchmarks than simply predicting with the Gaussian process model.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
Interne Modelle in der Schadenversicherung gehen üblicherweise vom ökonomischen Kapital nach einem Jahr als zugrunde gelegter stochastischer Zielfunktion aus. Dieses basiert auf der sofortigen Realisation aller Aktiva und Passiva zu Marktpreisen, was nicht immer eine realistische Hypothese darstellt. Beim Embedded Value (der in der Schadenversicherung noch nicht so etabliert ist wie in der Lebensversicherung) werden die Werte der Aktiva und Passiva erst über die Zeit realisiert. Sinnvoll angewendet kann dieses Konzept somit einen deutlich realistischeren Ansatz für ein internes Modell in der Schadenversicherung liefern als die Modellierung auf Basis des ökonomischen Kapitals.