Refine
Year of publication
Document Type
- Working Paper (76) (remove)
Has Fulltext
- yes (76)
Keywords
- Versicherungswirtschaft (16)
- Versicherungsmathematik (8)
- Solvency II (7)
- Barwert (5)
- Bewertete Markov-Kette (5)
- Markov-Ketten (5)
- Risikomanagement (5)
- Rückversicherung (5)
- Benchmarking (4)
- Embedded Value (4)
Institute
- Fakultät 04 / Institut für Versicherungswesen (40)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (14)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (13)
- Zentrum für Lehrentwicklung (4)
- Fakultät 08 / Institut für Fahrzeugtechnik (1)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (1)
Das im März 2024 vorgestellte Rentenpaket II der Ampelregierung sieht vor, das Rentenniveau zu stabilisieren und gleichzeitig eine schuldenfinanzierte Kapitaldeckung (Generationenkapital) einzuführen.
Allerdings führen diese Maßnahmen im Umlageverfahren zu einer einseitigen Belastung der jüngeren Generationen, die auch nicht durch den Aufbau des Generationenkapitals gemildert wird, wie die Ausführungen in diesem Artikel zeigen.
Faserverbundwerkstoffe (FVW) und Composites haben in der Luft- und Raumfahrtindustrie, im Automobilbau, beim Bau von Windenergieanlagen und in vielen weiteren zukunftsträchtigen Branchen eine große Bedeutung. Maßnahmen, die ein Erkennen von Schädigungen simultan zur Entstehung ermöglichen und Restbetriebszeiten prognostizieren können, sind geeignet, die Lebensdauer von FVW-Konstruktionen zu erhöhen. Darüber hinaus ist eine zustandsorientierte und somit kosteneffektive Wartung dieser Bauteile möglich.
Sowohl die Prognose, als auch die Detektion von Schäden würde den ressourcenschonenden Einsatz dieser Werkstoff-gruppe ermöglichen. Das sogenannte Structural Health Monitoring (SHM) bezeichnet in diesem Zusammenhang eine Methode, die es ermöglicht, kontinuierlich Anhalts-punkte über die Funktionsfähigkeit von Bauteilen und Konstruktionen zu erhalten.
Dieser Artikel beschreibt die Planung, Durchführung und Analyse von SHM-Experimenten. Das Hauptziel bestand in der Planung von Experimenten zur Gewinnung von Messdaten mittels piezoelektrischen Elementen auf Versuchstafeln, bei denen bewusst trukturbeschädigungen eingebracht wurden. Statistische Auswertungsmethoden sollen auf ihre Eignung getestet werden, Rückschlüsse aus den experimentell gewonnenen Daten auf die Art der Strukturbeschädigungen zu ziehen.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht den einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparvermögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In der hier vorliegenden Arbeit untersuchen wir zeit-diskrete Versionen des Modells, die wir mit Hilfe von Monte-Carlo-Simulationen auswerten. Hierbei berechnen wir verschiedenen Rendite-Risiko-Profile des kollektiven Sparens und vergleichen diese mit entsprechenden Profilen für nicht-kollektive Anlagestrategien (Constant-Mix-, Buy-and- Hold- und CPPI-Strategien). Der Vergleich zeigt einen klaren komparativen Vorteil des kollektiven Sparens.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Bewertungsportale, in denen man seine Meinung zu Gütern oder Dienstleistungen äußern kann, sind seit einiger Zeit bekannt und verbreitet. Kann durch sie die Nachfrageseite eine neue, informationsgestützte Machtposition erlangen? Ein Projektteam des Instituts für Versicherungswesen an der TH Köln (ivwKöln) hat sich dieser Frage gewidmet und zunächst kontrastierende Hypothesen aus der Gegenüberstellung des informationsökonomischen und des diffusionstheoretischen Ansatzes entwickelt. Eine Hypothesengruppe bezog sich auf die Frage, von welchen Faktoren die Nachfrage und Wertschätzung von Bewertungsportalen abhängig ist, eine andere unterstellte, dass globale Produkteigenschaften auf der Dimension Such-, Erfahrungs-, Vertrauenseigenschaften sich auf die Nutzung von Portalen auswirkten. Untersucht wurden deshalb sehr unterschiedliche Portale, für Kleidung, Restaurants, Ärzte und Versicherungen. Empirische Grundlage war eine online-gestützte Befragung mit einem Convenience-Sample von 114 Befragten. Neben Studierenden des ivwKöln wurden Angestellte und Personen im Rentenalter zur Teilnahme motiviert, um eine breite Altersstreuung zu erreichen. Die Ergebnisse zur ersten Hypothesengruppe sprechen eindeutig für den diffusionstheoretischen Ansatz. Bei den beiden analysierbaren Portalen (Restaurants und Ärzte) ergibt sich: Entscheidende Faktoren für den Besuch von Restaurantportalen sind Internetaffinität, Alter, Produktinvolvement und Meinungsführerschaft; für den Besuch von Ärzteportalen sind es Internetaffinität und Produktinvolvement. Damit ist auch klar, dass sich die Machtposition der Nachfrager durch die Nutzung von Portalen allenfalls selektiv verstärkt. Die zweite Hypothese, dass Portalnutzung auch von globalen Produkteigenschaften abhängig sei, ließ sich nicht bestätigen.
Am speziellen Fall der Studierenden des Instituts für Versicherungswesen an der Fachhochschule Köln wurde untersucht, wie das Medium E-Book eingeschätzt wird. Die empirische Untersuchung sollte im Wesentlichen die folgende Fragestellung beantworten: Welche Merkmale von E-Book und gedrucktem Buch bestimmen die Ein- stellung der Studierenden zu ihnen? Dabei griff das Projektteam zunächst auf die von K. Messner u.a. vorgeschlagene Skala zur Einstellung gegenüber E-Books zurück (Book Lovers, Technophiles, Printers, and Pragmatists: The Social and Demographic Structure of User Attitudes Toware e-Books, in: College and research libraries, 2012, Nr. 5, Jg. 73, S. 420 ff.). Für die Erhebung wählte das Projektteam die Methode einer Online-Befragung, die sich an aktuell Studierende und ehemalige Studierende des Instituts richtete. Die Befragung folgt einem standardisierten Ansatz und konnte auf 189 verwertbare Fragebögen zurückgreifen. Untersucht wurde der Einfluss folgender Faktoren: Alter, Geschlecht, Vorerfahrung mit digitalen Texten, Internetaffinität und grund-legende Einstellung zur Digitalisierung der Lebensbereiche. Mehrere Regressions- und Pfadanalyse-Ansätze ergaben: Die beiden stärksten Einflussfaktoren waren Vorerfahrung mit digitalen Texten und Internetaffinität; von Geschlecht ging nur eine indirekte Wirkung über Internetaffinität aus. Alter spielte keine Rolle, und auch für die grundlegende Einstellung zur Digitalisierung der Lebensbereiche konnte kein Zusammenhang zur Präferenz von E-Books aufgewiesen werden.
Der Beitrag behandelt ein zum Teil im nationalsozialistischen ductus gehaltenes Urteil des Reichsgerichts zur sog. „Führerscheinklausel“ in der Kraftfahrtversicherung aus dem Jahre 1941. Hintergrund dieses Urteil war eine verbrecherische „Anordnung“ von Heinrich Himmler, welche jüdischen Deutschen das Fahren von Kraftfahrzeugen verbot.
Der Verfasser kam auf dieses Urteil, als er im Archiv der BGH-Bibliothek die unveröffentlichten Urteile des Versicherungssenates des Reichsgerichtes zwischen 1939 bis 1945 durcharbeitete. Im Bundesarchiv konnte der Autor sodann die Gerichtsakte einsehen und ferner die Personalakten der entscheidenden Reichsgerichtsräte. Der Verfasser geht auch auf das Schicksal des später im Rahmen der Schoa ermordeten jüdischen Fahrers ein.
Dieses Urteil des Versicherungssenates belegt anschaulich, insbesondere unter Berücksichtigung der erfolgten Auswertung auch seiner übrigen Rechtsprechung, wie im Bereich des Zivilrechtes die Gerichte ihre Rechtsprechung auch nach der „Machtergreifung“ scheinbar normal weiterführten, teilweise auch Klage von Juden stattgaben und auch sind beim Versicherungssenat des Reichsgerichtet direkte politische Enflussnahmen nicht zu belegen. Aber wie die Auswertung des Verfassers rund um das „Führerscheinurteil“ belegt, war dies auch nicht notwendig, da denn Richter bewusst gewesen sein dürfte, wie sie einerseits formaljuristisch „richtig“ entscheiden, anderseits sich gegenüber den nationalsozialistischen Machthabers nicht angreifbar machen.
Der MCEV stellt nicht nur in der Lebensversicherung, sondern auch in der Schadenversicherung einen alternativen Ansatz dar, um den ökonomischen Wert eines Unternehmens zu ermitteln. Dabei ist die Ermittlung des MCEV in der Schaden-versicherung durchaus weniger komplex als in der Lebensversicherung, da das Phänomen der Stochastik in der Stochastik i. d. R. nicht auftritt. In dieser Arbeit ist für die Schadenversicherung ein vereinfachtes Formelwerk für den MCEV ohne Renewals dargestellt, mit dem die wichtigsten Auswirkungen des Embedded Values in der Scha-denversicherung getestet werden kann.
Die Solvency II Standardformel erlaubt zusätzlich zum Ansatz einer Verlust- absorbierung durch Rückstellungen auch den Ansatz einer Verlustabsorbierung durch latente Steuern. Die Verlustabsorbierung durch latente Steuern hängt davon ab, wie werthaltig aktivierte latente Steuern in einer Marktwertbilanz für einen vordefinierten Verlustfall sind. Hier gibt die Standardformel keine klaren Vorgaben, sondern verlangt für den Ansatz einer Verlustabsorbierung und damit einhergehend einer Minderung des Solvenzkapitalbedarfs eine Einschätzung der Werthaltigkeit aktivierter latenter Steuern.
Mit Hilfe von internen Modellen kann man in der Schadenversicherung das Risiko / Rendite Profil einer Neugeschäftsstrategie bewerten und Entscheidungen daraus ableiten. Dabei kann man i. d. R. nur einzelne Strategien miteinander vergleichen, aber kein allgemein gültiges Optimum herleiten. Unter bestimmten Voraussetzungen ist es allerdings möglich, für das (Brutto) Neugeschäft auch geschlossene Lösungen für diese Fragestellung zu finden. Selbst wenn diese Voraussetzungen in der Reinform meistens kaum vorliegen, ergeben sich doch aus diesem Ansatz einige interessante Implikationen für die Unternehmenssteuerung. Insbesondere können solche Ansätze dafür verwendet werden, bessere „Startwerte“ zu finden, die dann mit internen Modellen getestet werden können.
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
In zwei vorangegangen Arbeiten wurde an Hand des durchgängigen Datenmodells der IVW Privat AG die Standardformel und deren wichtigsten Anwendungen diskutiert. In dieser Ausarbeitung wird ergänzend dazu die Konzeption eines internen Modells auf Basis dieses Datenmodells erläutert und die Ergebnisse denjenigen aus den Berechnungen des Standardmodells gegenübergestellt.
Für eine angemessene Modellierung von Nat Cat Risiken (beispielsweise im Zusammenhang mit einer Rückversicherungsoptimierung) verwendet man üblicherweise Event Loss Tabellen, die von professionellen externen Anbietern mit regelmäßigen Aktualisierungen zur Verfügung gestellt werden. Diese Modelle sind i. d. R. sehr kostspielig, so dass sie oft nur von Rückversicherern oder Rückversicherungsmaklern für die Anwendung auf die eigenen Kundenportfolios lizenziert werden. Alternativ dazu kann mit öffentlich verfügbaren Informationen eine (wenn auch im Vergleich zu professionellen externen Modellen) vereinfachte Nat Cat Modellierung durchgeführt werden, die Erkenntnisse für eine Rückversicherungsoptimierung ermöglicht.
Für Schadenreserven existieren keine hinreichend fungiblen Märkte und somit auch keine Marktpreise im klassischen Sinn. Für eine Fair Value Bewertung bedarf es also eines geeigneten Modellansatzes. In der Schadenversicherung wird üblicher- weise der Transaktionswert modelliert, wobei hier die korrekte Modellierung der Kapitalkosten einer der zentralen Punkte ist. Der Fair Value der zedierten Reserven kann als Differenz zwischen dem Fair Value der Bruttoreserven und dem Fair Value der Nettoreserven angesetzt werden. Dieser Ansatz berücksichtigt allerdings nicht das Bonitätsrisiko des Rückversicherers. Eine adäquate Anpassung des Bewertungsmodells ist demnach erforderlich.
Interne Modelle in der Schadenversicherung gehen üblicherweise vom ökonomischen Kapital nach einem Jahr als zugrunde gelegter stochastischer Zielfunktion aus. Dieses basiert auf der sofortigen Realisation aller Aktiva und Passiva zu Marktpreisen, was nicht immer eine realistische Hypothese darstellt. Beim Embedded Value (der in der Schadenversicherung noch nicht so etabliert ist wie in der Lebensversicherung) werden die Werte der Aktiva und Passiva erst über die Zeit realisiert. Sinnvoll angewendet kann dieses Konzept somit einen deutlich realistischeren Ansatz für ein internes Modell in der Schadenversicherung liefern als die Modellierung auf Basis des ökonomischen Kapitals.
Die lineare Regression ist das bekannteste Verfahren zur Fehlerausgleichung, welches relativ einfach umgesetzt werden kann. Verallgemeinerte lineare Modelle sind eine zweckmäßige Erweiterung dieses Verfahrens, können aber aufgrund ihrer hohen Komplexität i. d. R. nur mit spezieller Software gerechnet werden. Aus diesem Grund wird in dieser Arbeit anhand eines fiktiven Storno-bestandes illustriert, wie man Ausgleichsrechnungen auch mit Hilfe von Gauß Markow Modellen durchführen kann, die mittels EXCEL und Visual Basic ebenfalls noch vergleichsweise einfach umsetzbar sind.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools in der Regel intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standardformel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools i. d. R. intensive Vorarbeiten benötigt werden. Im ersten Teil wurden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. In diesem Teil wird die Projektion der Standardformel auf das Folgejahr durchgeführt und es werden weitere Anwendungen an Hand dieses durchgängigen Datenmodells erläutert.
Nach einer langen Prozess- und Entwicklungsphase ist Solvency II seit dem 1. Januar 2016 als EU-einheitliches Solvenzsystem für Versicherungen eingeführt, wobei eine nicht unerhebliche Her-ausforderung in diesem Zusammenhang – auch im Hinblick auf die flankierenden Prozesse – die doch sehr extensiven Berichtsanforderungen aus der dritten Säule von Solvency II darstellen, die sich in einen quantitativen Teil mit einer Fülle von Tabellen und in einen qualitativen Teil mit mehreren narrativen Berichten aufteilen.
Aufgrund der aktuellen gesetzlichen Rahmenbedingungen können Energieversorger von erneuerbaren Energien (Windkraft, Sonnenenergie, Geothermie) relativ stabile Erträge über längere Zeiträume generieren, so dass eine Investition in erneuerbare Energien für ein Versicherungsunternehmen eine attraktive Anlage darstellen kann. In dieser Arbeit soll daher mit einem vereinfachten Modell analysiert werden, wie eine solche Kapitalanlage sich auf das allgemeine ALM eines Versicherungsunternehmens auswirkt.
Mit der „IVW Privat AG“ liegt ein relativ durchgängiges Datenmodell eines Schadenversicherungs-unternehmens vor, mit dem in vorangegangenen Publikationen eine Vielzahl von Solvency II Anwen-dungen illustriert werden konnten. Ergänzend dazu sollen in dieser Publikation unterschiedliche Bewertungsansätze für das verfügbare Kapital vorgestellt und miteinander verglichen werden – ausgehend vom sicherheitsorientierten HGB Kapital bis hin zum Marktkonsistenten Embedded Value (MCEV).
Standardformel und weitere Anwendungen am Beispiel des durchgängigen Datenmodells der „IVW Leben AG“
(2016)
Der Aufbau der Standardformel ist relativ komplex, wobei für die Durchführung der Berechnungen intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungs-schritte an Hand des durchgängigen Datenmodells der „IVW Leben AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standard-formel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
To maximize the throughput of a hot rolling mill,
the number of passes has to be reduced. This can be achieved by maximizing the thickness reduction in each pass. For this purpose, exact predictions of roll force and torque are required. Hence, the predictive models that describe the physical behavior of the product have to be accurate and cover a wide range of different materials.
Due to market requirements a lot of new materials are tested and rolled. If these materials are chosen to be rolled more often, a suitable flow curve has to be established. It is not reasonable to determine those flow curves in laboratory, because of costs and time. A strong demand for quick parameter determination and the optimization of flow curve parameter with minimum costs is the logical consequence. Therefore parameter estimation and the optimization with real data, which were collected during previous runs, is a promising idea. Producers benefit from this data-driven approach and receive a huge gain in flexibility when rolling new
materials, optimizing current production, and increasing quality. This concept would also allow to optimize flow curve parameters, which have already been treated by standard methods. In this article, a new data-driven approach for predicting the physical behavior of the product and setting important parameters is presented.
We demonstrate how the prediction quality of the roll force and roll torque can be optimized sustainably. This offers the opportunity to continuously increase the workload in each pass to the theoretical maximum while product quality and process stability can also be improved.
In den Wirtschaftswissenschaften liegen die für Bewertungen benötigten Daten normalerweise als Jahreswerte vor, z.B. Zinssätze oder Sterblichkeiten in der Finanz- und Versicherungsmathematik. Darauf aufbauend lassen sich Markov-Ketten mit einem jährlichen Zeitraster konstruieren. Zu bewertende Zahlungen hingegen erfolgen meist unterjährlich. Der vorliegende Artikel beschäftigt sich mit der Frage, wie aus einer Markov-Kette mit jährlichem Zeitraster, eine Markov-Kette mit unterjährlichem Zeitraster konstruiert werden kann. Dabei stehen Markov-Ketten, deren Übergangsmatrizen als obere Dreiecks-matrizen gegeben sind, im Mittelpunkt des Interesses. Es werden zwei Ansätze und deren Anwendung dargestellt. Der erste Ansatz basiert auf der T-ten Wurzel der Übergangsmatrizen, der zweite Ansatz auf einer Linearisierung der Übergangsmatrizen.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Sind diese Zahlungsströme mit Risiken behaftet, so kann der Barwert als Zufallsvariable interpretiert werden. In der vorliegenden Arbeit wird der risikobehaftete Zahlungsstrom als bewertete inhomogene Markov-Kette modelliert. Als Hauptergebnis wird eine Formel für die charakteristische Funktion bzw. die momentenerzeugende Funktion der Zufallsvariablen „Barwert“ hergeleitet. Damit ist die Verteilung der Zufallsvariablen eindeutig festgelegt. In konkreten Fallbeispielen wird gezeigt, wie man mit einer EDV-technischen Umsetzung der Formel den Erwartungswert, die Varianz und die Standardabweichung der Zufallsvariablen „Barwert“ ermitteln kann.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Sowohl der Zinssatz als auch die Wahrscheinlichkeiten liegen dabei normalerweise als Jahreswerte vor, die Zahlungen hingegen erfolgen meist unterjährlich. In der vorliegenden Arbeit wird für diesen unterjährlichen Fall ein auf der Theorie der Markov-Ketten basierendes Modell zur Barwertberechnung behandelt. Die unterjährlichen Wahrscheinlichkeiten ergeben sich dabei durch Linearisierung der Jahreswerte, als unterjährliches Zinsmodell wird die gemischte Verzinsung – alternativ mit dem relativen Zinssatz und dem konformen Zinssatz – betrachtet.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Dabei liegt jeder Barwertberechnung ein geeignetes Zinsmodell zugrunde. Bei einem speziellen Zinsmodell – der relativ gemischten Verzinsung – lassen sich einfache nichttriviale Beispiele/Zahlungsströme konstruieren, bei denen der Barwert bei jedem Zinssatz null ist. In der vorliegenden Arbeit wird die Frage untersucht, ob es bei anderen Zinsmodellen ebenfalls solche Zahlungsströme gibt. Im Hauptsatz kann die Beantwortung dieser Frage mit Mitteln der Analysis auf die Existenz von Lösungen eines homogenen linearen Gleichungssystems zurückgeführt werden.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Viele der dabei verwendeten Modelle sind gedächtnislos. In der vorliegenden Arbeit wird für diese Fälle ein Modell, das auf der Theorie der Markov- Ketten basiert, eingeführt. Aus dieser Modellierung ergibt sich u.a. eine grundlegende Bewertungsformel. In drei unterschiedlichen ökonomischen Beispielen wird gezeigt, dass die Anwendung dieser Bewertungsformel zu den Standardbewertungsansätzen führt. Das primäre Ziel der Arbeit ist dabei nicht die Darstellung neuer Ergebnisse, sondern die grundlegende Aufbereitung der Thematik. Dabei soll die Ausarbeitung eine Basis für weitere Anwendungen schaffen und als Grundlagen für eine EDVtechnische Umsetzung dienen.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette durch lineare Interpolation der Übergangsmatrizen und der Einheitsmatrix sowohl eine unterjährliches als auch ein zeitstetige bewertete inhomogene Markov-Kette konstruiert. Beim unterjährlichen Modell liegt der Fokus auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion und einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen. Beim zeitstetigen Modell steht neben der Konstruktion und den üblichen Ergebnissen für zeitstetige Markov-Ketten, die Verallgemeinerung des Restglieds bzw. des Invarianzsatzes im Mittelpunkt des Interesses.
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
In der vorliegenden Arbeit werden in drei Fallbeispielen aus dem Bereich der betrieblichen Altersversorgung die Versorgungszusagen mithilfe von bewerteten inhomogenen Markov-Ketten modelliert. Dabei liegt der Fokus auf den Pfaden der Markov-Ketten. Es wird anhand der Fallbeispiele gezeigt, wie man mithilfe der Pfade den Erwartungswert und die Standardabweichung der Zufallsvariablen „Barwert aller zukünftigen Zahlungen“ berechnen kann. Darüber hinaus ist es auf Basis der Pfade möglich, in Bezug auf diese Zufallsvariable auch Wahrscheinlichkeiten von speziellen Ereignissen und Risikomaße – Value at Risk und Expected Shortfall – zu berechnen.
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette eine unterjährliche bewertete inhomogene Markov-Kette konstruiert. Die Konstruktion der unterjährlichen Übergangsmatrizen basiert auf der Taylorreihe der Potenzfunktion bzw. deren Partialsummen. Dieser Ansatz ist eine Verallgemeinerung des Falls, dass die unterjährlichen Übergangsmatrizen durch Interpolation der jährlichen Übergangsmatrizen und der Einheitsmatrix definiert werden. Anschließend liegt der Fokus der Arbeit auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion, einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen und dessen Anwendung in zwei Fallbeispielen.
Markov-Ketten haben bei der Modellierung von ökonomischen Sachverhalten eine Vielzahl von Anwendungen. In den Wirtschaftswissenschaften steht oft ein Portfolio von Markov -Ketten im Mittelpunkt des Interesses, z.B. das Kreditportfolio einer Bank oder das Vertragsportfolio einer Versicherung. In den meisten Modellen wird dabei die stochastische Unabhängigkeit der unterschiedlichen Markov-Ketten vorausgesetzt. In der vorliegenden Arbeit wird ein Modell zur Berücksichtigung einer Abhängigkeitsstruktur in einem solchen Portfolio vorgestellt. Die Abhängigkeiten werden dabei mit einer Familie von Copulas modelliert und werden bei den Übergangsmatrizen berücksichtigt.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
Die Reinhaltung der Luft spielt heute mehr denn je eine wichtige Rolle. In Gesellschaft und Politik wird über Dieselfahrverbote in Innenstädten diskutiert, um die Feinstaubbelastung in den Städten zu senken. Besonders die Industrie steht vor der Aufgabe, den Partikelausstoß zu senken und Wege zu finden, um eine gesunde Luft zu wahren. Zur Abgasreinigung werden oft Filter eingesetzt. Diese weisen aber hohe Energieverluste auf. Die ständige Reinigung oder der Wechsel der Filter kostet Zeit und Geld. Daher ist neben Filtern eine der gängigsten Methoden die Abgasreinigung durch Staubabscheider. Staubabscheider funktionieren filterlos. Dadurch entfällt eine wiederkehrende Filterreinigung, beziehungsweise der regelmäßige Filtertausch. Die Technik der Staubabscheider hat ihren Ursprung in der Natur. Aus der Betrachtung von Zyklonen (in den Tropen vorkommende Wirbelstürme) wurde ein Verfahren entwickelt, um staubhaltige Fluide von den Verunreinigungen zu trennen. Die Abgasreinigung mittels Zyklon-Staubabscheider wird in vielen verschiedenen
Industrien eingesetzt, heutzutage meist als Vorabscheider. Beispiele hierfür sind die
braunkohleverarbeitende Industrie, die Gesteinsindustrie und die papier- oder holzverarbeitende Industrie, insbesondere dort, wo viel Staub oder auch größere Späne in die Luft gelangen. Auch im Alltag sind Zyklon-Staubabscheider zu finden. Hier kommen sie in beutellosen Staubsaugern oder als Vorabscheider von Staubsaugern bei der Holzverarbeitung zum Einsatz.
Die Vorgänge im Staubabscheider-Zyklon sind bereits durch mathematische Modelle beschrieben worden. Hierbei handelt es sich um Näherungen, jedoch nicht um
die exakte Abbildung der Realität, weswegen bis heute die Modelle immer wieder weiterentwickelt und verbessert werden. Eine CFD (Computional Fluid Dynamics)Simulation bringt meist die besten Ergebnisse, ist jedoch sehr aufwendig und muss für jeden Staubabscheider neu entwickelt werden. Daher wird noch immer an der Weiterentwicklung der mathematischen Modelle gearbeitet, um eine Berechnung zu optimieren, die für alle Staubabscheider gilt. Muschelknautz hat in diesem Bereich über Jahre hinweg geforscht und so eine der
wichtigsten Methoden zur Berechnung von Zyklonabscheidern entwickelt. Diese stimmt oft sehr gut mit der Realität überein. Betrachtet man jedoch die Tiefe des Tauchrohres im Zyklon, fällt auf, dass der Abscheidegrad maximal wird, wenn das Tauchrohr nicht in den Abscheideraum ragt, sondern mit dem Deckel des Zyklons abschließt. Dieses Phänomen tritt weder bei den durchgeführten CFD-Simulationen noch bei den durchgeführten Messungen am Bauteil auf. Ziel der Arbeit ist es, diese Unstimmigkeit zwischen Berechnung und Messung zu untersuchen und Gründe hierfür herauszufinden. Darum wird zunächst der Stand der Technik und das Muschelknautz’sche Modell
vorgestellt, um im Anschluss die Berechnungsmethode genauer zu untersuchen. So soll festgestellt werden, ob die Ursache der Abweichungen zur Realität bei einer Analyse der Berechnungsmethode ersichtlich wird. Beispielsweise soll überprüft werden, ob die Schlussfolgerung einer maximalen Abscheideleistung bei minimaler Tauchrohrtiefe von speziellen Faktoren abhängt. Es wird eine Reihe von Beispielrechnungen durchgeführt, mit deren Hilfe der Zusammenhang
von Abscheidegrad und Tauchrohrtiefe ersichtlich wird. Hierbei werden die Geometrieparameter des Abscheiders variiert, um deren Einfluss auf die Tauchrohrtiefe
zu untersuchen.
An der Technischen Hochschule Köln wird für Studierende des Informatik-Bachelors im vierten Semester das Modul „Berufspraxis Informatik“ angeboten, bei dem erfahrene Informatiker*innen ein Thema aus ihrem Berufsalltag vorstellen. Die einzelnen Veranstaltungen gliedern sich in einen Vortrags- und einen Workshopteil und werden vorranging offline, d. h. vor Ort, z. T. aber auch online angeboten. Um die aktive Beteiligung der Studierenden bei den Veranstaltungsterminen zu erhöhen, wurde eine Lehrintervention durchgeführt: Die Intervention wies einem Teil der Studierenden eine aktive Rolle z. B. als Moderator*in zu. In der anschließenden Datenerhebung wurden insb. hinderliche bzw. förderliche Faktoren für eine gelungene Aktivierung betrachtet. Neben der aktiven Rolle sowie dem persönlichen Interesse hatte einen großen Einfluss auf die Aktivierung, ob die Veranstaltung online oder offline durchgeführt wurde. In der Online-Variante waren es vorrangig technische und organisatorische Aspekte sowie Hemmnisse der Studierenden sich zu melden, die eine gelungene studentische Beteiligung behinderten.
Das prinzipienorientierte Aufsichtssystem von Solvency II erkennt als zentralen Grundsatz, dass nach dem Prinzip „Substanz über Form“ die ökonomische Wirkung eines Risikotransferinstrumentes und nicht die formale Einbettung desselben als Entscheidungskriterium der Berücksichtigungsfähigkeit gilt. Dieser Grundsatz trägt den Entwicklungen auf dem Rückversicherungsmarkt insoweit Rechnung, da dadurch auch alternative Formen des vt. Risikotransfers grundsätzlich Anerkennung finden können, wenn sie den Anerkennungsvoraussetzungen der aufsichtsrechtlichen Vorgaben entsprechen. Dabei zeigt sich, dass der Aufbau und die Mechanik dieser alternativen Formen des vt. Risikotransfer insbesondere eine (ökonomisch) abweichende Bewertung hinsichtlich des vt. Basisrisikos und Ausfallrisikos bedingen können. Kern der vorliegenden Arbeit ist deshalb die Prüfung, inwieweit die Vorgaben von Solvency II diese Unterschiedlichkeit zur Berücksichtigung von vt. Basisrisiko ökonomisch adäquat abbilden. Dabei wird dargestellt, dass insbesondere eine nach Solvency II im Vergleich zum Marktverständnis weit gefasste Definition der Begrifflichkeit sowie eine uneinheitliche Anwendung innerhalb der Gesetzestexte der einheitlichen Berücksichtigung potentiell zuwiderlaufen oder uneinheitliche Prüfungserfordernisse an ökonomisch gleich wirkende Instrumente stellen. Darüber wird hergeleitet, dass die Vorgaben nach Solvency II Regelungen enthalten, welche die ökonomische Wirkung des vt. Basisrisikos (z. B. aus Währungsinkongruenzen) inadäquat widerspiegeln.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Architecural aproaches are considered to simplify the generation of re-usable building blocks in the field of data warehousing. While SAP’s Layer Scalable Architecure (LSA) offers a reference model for creating data warehousing infrastructure based on SAP software, extented reference models are needed to guide the integration of SAP and non-SAP tools. Therefore, SAP’s LSA is compared to the Data Warehouse Architectural Reference Model (DWARM), which aims to cover the classical data warehouse topologies.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
In the present paper a calculation tool for the lifetime prediction of composite materials with focus on local multiaxial
stress states and different local stress ratios within each lamina is developed. The approach is based on repetitiv, progressive in-plane stress calculations using classical laminate theory with subsequent analysis of the material stressing effort and use of appropriate material degradation models. Therefore experimentally data of S-N curves are
used to generate anistropic constant life diagrams for a closer examination of critical fracture planes under any given combination of local stress ratios. The model is verified against various balanced angle plies and multi-directional
laminates with arbitrary stacking sequences and varying stress ratios throughout the analysis. Different sections of the
model, such as residual strength and residual stiffness, are examined and verified over a wide range of load cycles. The obtained results agree very well with the analyzed experimental data.
Hintergrund dieser Studie ist die zunehmende Bedeutung von Versicherungsabschlüssen über das Internet. Vor allem bei der Kfz- Versicherung nimmt der Anteil von Online-Abschlüssen zu. Dabei nutzen die Kunden vermehrt unabhängige Vergleichsportale, wie sie bereits auch im Reise- und Energiemarkt stark verbreitet sind. Zeitgleich sind Vergleichsportale aber auch in die Diskussion gekommen: Fehlende Transparenz, mangelnde Benutzerfreundlichkeit und zum Teil unseriöser Umgang mit Daten wurden in der Presse zumindest einzelnen Portalen vorgeworfen. Die Studie soll daher klären, wie Verbraucher mit Vergleichsportalen umgehen, wie transparent diese sind und wie sich Transparenz und Nutzerfreundlichkeit weiter ausbauen lassen. Dazu testeten wir anhand einer annähernd repräsentativen Stichprobe von 500 internetaktiven privaten Fahrzeughaltern jeweils zwei unterschiedliche Portale von Vergleichsrechnern und zum Vergleich jeweils ein Website eines Direktversicherers. Im Rahmen dieser 1.500 Tests wurden nicht nur Bearbeitungsdauer, Preis und Leistungen der empfohlenen Produkte erfasst. sondern auch die subjektiven Bewertungen der Tester zu Bedienungsfreundlichkeit, Transparenz und Datenschutz. In der Untersuchung wurden 5 gewerbliche Vergleichsportale, 2 Vergleichs- rechner, die von Verbraucherschützern bereitgestellt werden, sowie aus Vergleichsgründen drei Websites von führenden Direktversicherern berücksichtigt. Die Ergebnisse zeigen: Vergleichsportale werben gerne mit dem Versprechen hoher Ersparnisse. Verglichen mit der tatsächlichen derzeitigen Versicherungsausstattung unserer internetaktiven Stichprobe zeigen sich diese Zahlen meist übertrieben. Dennoch: Im Durchschnitt fanden die Tester günstige Verträge. Und mindestens jeder Zweite könnte durch einen Wechsel deutlich sparen – im Mittel etwas mehr als 100 € jährlich. Neben einer breiten Marktübersicht zeichnen sich die besten Portale aus Anwendersicht vor allem durch ihre besondere Benutzerfreund- lichkeit aus. Viel Kritik gibt es dagegen für den Datenhunger und den Eindruck mangelnder Seriosität insbesondere eines der Portale. Ferner wird die Gebühr zur Nutzung des Rechners der Stiftung Warentest bemängelt, obwohl hier zugleich die günstigsten Tarife errechnet wurden. Ein kritisches Thema bei Vergleichsportalen ist die Transparenz der Geschäftsmodelle. Mit Ausnahme der Portale der Direktversicherer und der beiden Angebote der Verbraucherschützer finanzieren sich die getesteten Portale nämlich vorwiegend über Provisionen. Diese erhalten Sie, ähnlich einem normalen Makler oder Vertreter, für die Vertrags- vermittlung von den Versicherungsgesellschaften. Das wurde im Test aber höchstens jedem zweiten Nutzer bewusst. Und in noch einer Frage irrten viele der Befragten: Denn die meisten Portale decken keineswegs den ganzen Markt ab, sondern meist nur einen mehr oder weniger großen Teil der Anbieter. Das führt zu großen Unterschieden in den Produktempfeh- lungen und Preisen je nach genutztem Portal. Wobei kein Portal immer das günstigste ist. Für die Verbraucher empfiehlt es sich daher, jeweils mehrere Portale zu vergleichen. Im Gesamturteil der Anwender schneiden die Vergleichsportale nicht besser oder schlechter ab als die Websites der Direktversicherer. Dennoch: Die besten Portale können den Großteil ihrer jeweiligen Nutzer überzeugen, verbunden mit einer hohen Bereitschaft, die Portale auch in Zukunft wieder zu verwenden. Fazit: Bezüglich Marktabdeckung und Provisionsfinanzierung müssen die Portale ihre Nutzer noch aktiver aufklären. Auch Benutzerfreund- lichkeit ist noch nicht bei allen Vergleichsrechnern gegeben. Und wie überall im Internet gilt auch hier, dass die Anwender vorsichtig mit den persönlichen Daten umgehen sollten. Ansonsten lässt sich aber feststellen: Gute Portale bieten günstige Versicherungen bei moderatem Aufwand. Sie unterstützen die Nutzer bei der Suche nach dem richtigen Versicherungsumfang, erläutern Fachbegriffe, und geben Orientierung und Entscheidungshilfen durch Kundenbewertungen und Testurteile. Das gilt für gewerbliche Portale ebenso wie für die Angebote der Verbraucher- schützer, die ihre Neutralität und ihren Provisionsverzicht allerdings noch etwas mehr betonen müssten, um in der Präferenz der Anwender zu gewinnen.
Vor dem Hintergrund der digitalen Vernetzung vollzieht sich derzeit ein tiefgreifender Wandel des Verbraucherverhaltens. Online-Nutzung im Rahmen von Entscheidungsprozessen wird zur Norm, ‚Always Online‘ dank mobiler Internet-technologie zur Realität. Mehr als in anderen Versicherungssparten ändert das digitalisierte Käuferverhalten auch den Kfz-Versicherungsmarkt. Schon seit Jahren lässt sich ein rapider und bisher ungebremster Anstieg des Anteils online abgeschlossener Verträge beobachten. Insbesondere Vergleichsportale haben eine hohe Bedeutung erlangt und wachsen nicht nur auf Kosten der klassischen personengebundenen Vertriebsformen, sondern zunehmend auch auf Kosten des Direktvertriebs der Versicherer. Das Hinzukommen weiterer Wett- bewerber – insbesondere das von Google angekündigte eigene Vergleichsangebot – dürfte den Wandel nochmals beschleunigen. Vor diesem Hintergrund gibt die vorliegende Studie eine Bestandsaufnahme der Kaufprozesse bei internet-affinen Kfz-Versicherungskunden. Dies erfolgt auf Basis einer Befragung von 1.024 aktuellen Kfz-Versicherungs-Käufern, darunter 60% Versicherungswechsler (bei gleichbleibendem Fahrzeug) und 40% Neuabschließern (nach einem PKW-Kauf). Bei der Stichprobe handelt es sich um geübte Internetnutzer, die aber ansonsten nach Demographie und Fahrzeugmerkmalen annähernd repräsentativ für den Gesamtmarkt sind und so einen Ausblick auf die künftige Mehrheit der deutschen Kfz-Versicherungskäufer erlauben. Die Ergebnisse zeigen: Bei online-affinen Kfz-Versicherungskäufern haben sich bereits ganz neue Informations- und Ent- scheidungswege herausgebildet. Die Nutzung von Onlinemedien im Entscheidungs-prozess ist bei netzaffinen Kunden eine Selbstverständlichkeit. Mediensprünge zwischen unterschiedlichsten Informationsquellen sind – besonders bei Vertragswechslern – Normalität. Dazu gehören gleichermaßen Wechsel zwischen Online- und Offline-Kanälen (wobei „research online, purchase offline“ gegenüber „research offline, purchase online“ derzeit leicht überwiegt) wie auch Sprünge innerhalb der Online- und der Offline-Welt. Dabei suchen die Käufer vor allem einen guten Preis, in der Regel aber abgesichert durch einen „Vertrauensanker“: Eine solche Begrenzung des „wahrgenommenen Kaufrisikos“ kann zum Beispiel durch die Wahl einer bekannten Marke (eines Versicherers oder eines Portals) oder die Beachtung von Empfehlungen oder Bewertungen erfolgen. Diese stammen aus unterschiedlichsten Quellen, wobei die Qualität der Quelle (neutral oder interessengebunden) oft eher unkritisch betrachtet wird.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
The availability of several CPU cores on current computers enables
parallelization and increases the computational power significantly.
Optimization algorithms have to be adapted to exploit these highly
parallelized systems and evaluate multiple candidate solutions in
each iteration. This issue is especially challenging for expensive
optimization problems, where surrogate models are employed to
reduce the load of objective function evaluations.
This paper compares different approaches for surrogate modelbased
optimization in parallel environments. Additionally, an easy
to use method, which was developed for an industrial project, is
proposed. All described algorithms are tested with a variety of
standard benchmark functions. Furthermore, they are applied to
a real-world engineering problem, the electrostatic precipitator
problem. Expensive computational fluid dynamics simulations are
required to estimate the performance of the precipitator. The task
is to optimize a gas-distribution system so that a desired velocity
distribution is achieved for the gas flow throughout the precipitator.
The vast amount of possible configurations leads to a complex
discrete valued optimization problem. The experiments indicate
that a hybrid approach works best, which proposes candidate solutions
based on different surrogate model-based infill criteria and
evolutionary operators.
Diese Arbeit behandelt Rückversicherungsprogramme aus fakultativen und obligatorischen, proportionalen und nichtproportionalen Deckungen. Zunächst wird eine neue Darstellungsweise eingeführt, die nicht nur die Kapazitäten der Bausteine des Rückversicherungsprogramms, sondern auch die Schadenaufteilung transparent macht. Durch Skalierung der Schadenachse mittels der Verteilungsfunktion des Einzelschadens ergibt sich eine anschauliche Darstellung der jeweiligen Erwartungswerte und damit des Prämienbedarfs. Im zweiten Teil der Arbeit wird die Auswirkung nichtproportionaler fakultativer Rückversicherung auf bereits vorhandene obligatorische Rückversicherungen untersucht, insbesondere der so genannte „Kompressionseffekt“. Die Verteilung des Schadens auf die einzelnen Deckungsabschnitte wird graphisch und mit einem Zahlenbeispiel verdeutlicht. Es ergibt sich, dass ein Schadenexzedent auf den Selbstbehalt durch Kompression erheblich benachteiligt wird.
As the amount of data gathered by monitoring systems increases, using computational tools to analyze it becomes a necessity.
Machine learning algorithms can be used in both regression and classification problems, providing useful insights while avoiding the bias and proneness to errors of humans. In this paper, a specific kind of decision tree algorithm, called conditional inference tree, is used to extract relevant knowledge from data that pertains to electrical motors. The model is chosen due to its flexibility, strong statistical foundation, as well as great capabilities to generalize and cope with problems in the data. The obtained knowledge is organized in a structured way and then analyzed in the context of health condition monitoring. The final
results illustrate how the approach can be used to gain insight into the system and present the results in an understandable, user-friendly manner
In diesem Artikel wird die Entwicklung einer neuen Methode zur Risikobewertung von komplexen, technischen Systemen (z.B. Maschinen, Prozessen) dokumentiert. Wir demonstrieren die Anwendung unserer Methode anhand eines Beispiels der Medizintechnik. Ziel ist die quantitative Bewertung von Risiken, die über die Ermittlung der Eintrittswahrscheinlichkeit und des Schadenerwartungswertes hinaus geht. Besonders relevant ist die Berechnung kostenintensiver Groß- schäden. Dazu kombinieren wir Methoden der klassischen ingenieurwissen- schaftlichen Risikoanalyse mit Methoden der Aktuarwissenschaften. Daraus erhalten wir eine neue Methode des quantitativen Risikomanagements zur Berechnung von Gesamtschadenverteilungen komplexer technischer Systeme. Auf diese Weise werden alle modernen Risikomaße (z.B. VaR, Expected Shortfall) zugänglich. Wir demonstrieren die einzelnen Schritte anhand eines konkreten Beispiels aus der Praxis, einem zahnärztlichen Behandlungsstuhl.
Die COVID-19-Pandemie hat die akademische Lehre vor methodisch-didaktische Herausforderungen gestellt. Da von einer künftigen verstärkten Ausrichtung auf digitale Lehr- und Lernprozesse auszugehen ist, wurde mit der Dualen Hochschule Baden-Württemberg als Erhebungskontext eine Skala zur Evaluation digitaler Lehre entwickelt. Die angenommene Faktorenstruktur entlang der vier Prämissen erfolgreicher Online-Sozialisation (Technischer Zugang, Autonomie, Kompetenz, Soziale Eingebundenheit) konnte nicht bestätigt werden; vielmehr deutet das Ergebnis auf ein Zwei-Faktoren-Modell hin, das sich aus der digitalen Lernautonomie und dem digitalitätsbezogenen Kompetenzerleben zusammensetzt. Als Erklärungen werden die Differenzierungsfähigkeit der Studierenden sowie Entfremdungstendenzen im Zeichen von Distant Socializing diskutiert.
Surrogate-assisted optimization has proven to be very successful if applied to industrial problems. The use of a data-driven surrogate model of an objective function during an optimization cycle has many bene ts, such as being cheap to evaluate and further providing both information about the objective landscape and the parameter space. In preliminary work, it was researched how surrogate-assisted optimization can help to optimize the structure of a neural network (NN) controller. In this work, we will focus on how surrogates can help to improve the direct learning process of a transparent feed-forward neural network controller. As an initial case study we will consider a manageable real-world control task: the elevator supervisory group problem (ESGC) using a simplified simulation model. We use this model as a benchmark which should indicate the applicability and performance of surrogate-assisted optimization to this kind of tasks. While the optimization process itself is in this case not onsidered expensive, the results show that surrogate-assisted optimization is capable of outperforming metaheuristic optimization methods for a low number of evaluations. Further the surrogate can be used for signi cance analysis of the inputs and weighted connections to further exploit problem information.
Ziel dieser Arbeit ist es, Versicherungsunternehmen eine Orientierungshilfe in Social Media zu geben. Hierzu wird eine Kategorisierung der vielfältigen Web 2.0-Dienste geboten, die Social Media Matrix, die fünf wesentliche Social Media-Kategorien unterscheidet und hinsichtlich ihrer Eignung für Versicherungsunternehmen bewertet.
Mit der verstärkten Nutzung digitaler Möglichkeiten im Privat- und Berufsleben werden digitale Kanäle auch für Versicherungsfragen immer selbstverständlicher. Am Markt haben sich bereits einige Online-Portale etabliert, die Versicherungsvergleiche und teils auch den Versicherungsabschluss anbieten. Allerdings gibt es bislang erst wenige bekannte Online-Portale für spezielle Zielgruppen wie beispielsweise für das attraktive Segment der Akademiker.
Die vorliegende Veröffentlichung stellt die wesentlichen Ergebnisse einer studentischen Projektarbeit dar, die im Sommersemester 2016 zum Thema „Online-Portal für Akademiker“ durchgeführt wurde. Sie beschreibt Besonderheiten entlang der Customer Journey von Akademikern in Versicherungsfragen und liefert erste Empfehlungen, wie ein Online-Portal für Akademiker gestaltet werden könnte, um ansprechend auf die Zielgruppe zu wirken.
When designing or developing optimization algorithms, test functions are crucial to evaluate
performance. Often, test functions are not sufficiently difficult, diverse, flexible or relevant to real-world
applications. Previously,
test functions with real-world relevance were generated by training a machine learning model based on
real-world data. The model estimation is used as a test function.
We propose a more principled approach using simulation instead of estimation.
Thus, relevant and varied test functions
are created which represent the behavior of real-world fitness landscapes.
Importantly, estimation can lead to excessively smooth test functions
while simulation may avoid this pitfall. Moreover, the simulation
can be conditioned by the data, so that the simulation reproduces the training data
but features diverse behavior in unobserved regions of the search space.
The proposed test function generator is illustrated with an intuitive, one-dimensional
example. To demonstrate the utility of this approach it
is applied to a protein sequence optimization problem.
This application demonstrates the advantages as well as practical limits of simulation-based
test functions.
Benchmark experiments are required to test, compare, tune, and understand optimization algorithms. Ideally, benchmark problems closely reflect real-world problem behavior. Yet, real-world problems are not always readily available for benchmarking. For example, evaluation costs may be too high, or resources are unavailable (e.g., software or equipment). As a solution, data from previous evaluations can be used to train surrogate models which are then used for benchmarking. The goal is to generate test functions on which the performance of an algorithm is similar to that on the real-world objective function. However, predictions from data-driven models tend to be smoother than the ground-truth from which the training data is derived. This is especially problematic when the training data becomes sparse. The resulting benchmarks may not reflect the landscape features of the ground-truth, are too easy, and may lead to biased conclusions.
To resolve this, we use simulation of Gaussian processes instead of estimation (or prediction). This retains the covariance properties estimated during model training. While previous research suggested a decomposition-based approach for a small-scale, discrete problem, we show that the spectral simulation method enables simulation for continuous optimization problems. In a set of experiments with an artificial ground-truth, we demonstrate that this yields more accurate benchmarks than simply predicting with the Gaussian process model.
Es ist schon lange bekannt, dass es ein Nachwuchsproblem im Versicherungs-vertrieb gibt. Die Versicherer haben mit Imageproblemen zu kämpfen – Schlagzeilen über Lustreisen, Falschberatungen oder Provisionsexzesse machen die Runde. Auch der demografische Wandel macht es den Versicherern schwer, geeigneten Nachwuchs für den Vertrieb zu rekrutieren. Da liegt es nahe, dass die Branche sehr daran interessiert ist, mehr Frauen für den Vertrieb zu ge- winnen, zumal sie die erforderlichen Vertriebskompetenzen besitzen. Für Frauen ist die Tätigkeit im Vertrieb allerdings nicht besonders attraktiv; die geringe Sicherheit und die Arbeit am Abend sind die größten Hindernisse, die Frauen nennen. Um die Tätigkeit für Frauen attraktiver zu machen, müssten die Ver- sicherungsunternehmen Anreizsysteme, Strukturen bis hin zur Vertriebskultur verändern. Die Frage ist, ob sich das lohnt. In diesem Zusammenhang ist es für die Unternehmen von besonderer Bedeutung zu wissen, was die Kunden dazu sagen, wenn mehr Frauen im Vertrieb tätig wären.
Die klassische Form der Unternehmenssteuerung durch einfache Unternehmenskenn-ziffern ist inzwischen fast überall durch wertorientierte Steuerungssysteme ersetzt worden, die Risiko und Rendite in sinnvoller Weise gegenüberstellen. In diesem Zusammenhang ist die korrekte Ermittlung des Kapitalbedarfs als dem relevanten Faktor zur Produktion von Versicherungsschutz unverzichtbar. Um hierbei die einzelnen Einflussgrößen hier ursachegerecht separieren zu können, sollte eine adäquate Performancemessung vorgenommen werden.