Refine
Year of publication
- 2016 (27) (remove)
Document Type
- Working Paper (11)
- Report (10)
- Conference Proceeding (4)
- Preprint (2)
Has Fulltext
- yes (27) (remove)
Keywords
- Risikomanagement (4)
- Digitalisierung (3)
- Optimierung (3)
- Solvency II (3)
- Ereignisdefinition (2)
- Forschungsbericht (2)
- Maschinelles Lernen (2)
- Reinsurance (2)
- Rückversicherung (2)
- Soft Computing (2)
- Versicherungswirtschaft (2)
- event definition (2)
- flood events (2)
- 3D Printing (1)
- 3D-Druck (1)
- Akademiker (1)
- Algorithmus (1)
- Angewandte Mathematik (1)
- Asset-Liability-Management (1)
- Automated Learning (1)
- Barwert (1)
- Bayesian Learning (1)
- Benchmarking (1)
- Beratung (1)
- Berichtspflichten (1)
- Bewertete Markov-Kette (1)
- Big Data (1)
- Ccomputational fluid dynamics (1)
- Combined simulation (1)
- Customer Journey (1)
- Data Mining (1)
- Discrete Optimization (1)
- Diversifikation (1)
- Dritte Säule (1)
- Ensemble Methods (1)
- Ensemble based modeling (1)
- Entdeckendes Lernen (1)
- Erfahrungsbericht (1)
- Evolutionary Computation (1)
- Evolutionsstrategie (1)
- Evolutionärer Algorithmus (1)
- Expensive Optimization (1)
- Experiment (1)
- Experimental Algorithmics (1)
- Flowcurve (1)
- Forschendes Lernen (1)
- Forschung (1)
- Forschungsschwerpunkt Rückversicherung (1)
- Forschungsstelle FaRis (1)
- Forschungsstelle Versicherungsmarkt (1)
- Forschungsstelle Versicherungsrecht (1)
- Function Approximation (1)
- Funktionstest (1)
- Genetische Algorithmen (1)
- Genetisches Programmieren (1)
- Globale Optimierung (1)
- Hochschule (1)
- Hot rolling (1)
- IT Architektur (1)
- Imputation (1)
- Informationsverhalten (1)
- Innovation (1)
- Institut für Versicherungswesen (1)
- Internes Modell (1)
- Katastrophe (1)
- Korrelation (1)
- Kriging (1)
- Kundenerfahrungen (1)
- Kundenorientierung (1)
- Lineare Regression (1)
- Machine Learning (1)
- Massive Online Analysis (1)
- Meta-model (1)
- Metal (1)
- Metamodell (1)
- Metamodels (1)
- Model Selection (1)
- Modelierung (1)
- Modeling (1)
- Net Promoter Score (1)
- Numerische Strömungssimulation (1)
- On-line Algorithm (1)
- Online-Portal (1)
- Optimization (1)
- Produktentwicklung (1)
- Promotion (1)
- Prozesse (1)
- Prämienrisiko (1)
- Regression (1)
- Research Report (1)
- Resilience (1)
- Resilienz (1)
- Risiko (1)
- Risikobudgetierung (1)
- Risikomaß (1)
- Schadenmodellierung (1)
- Sensortechnik (1)
- Sequential Parameter Optimization (1)
- Simulation-based Optimization (1)
- Stacked Generalization (1)
- Standardformel (1)
- Surrogate (1)
- Surrogate Mod (1)
- Surrogate Model (1)
- Surrogate Models (1)
- Telematiktarife (1)
- Test Function (1)
- Time Series (1)
- Univariate Data (1)
- Verbraucherverhalten (1)
- Verbraucherzufriedenheit (1)
- Vergleichsportal (1)
- Versicherung (1)
- Versicherungen (1)
- Versicherungswesen (1)
- Versicherungswissenschaft (1)
- Versorgungsstruktur (1)
- Wert (1)
- Wertarchitektur (1)
- Wirtschaftswissenschaften (1)
- charakteristische Funktion (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
Nach einer langen Prozess- und Entwicklungsphase ist Solvency II seit dem 1. Januar 2016 als EU-einheitliches Solvenzsystem für Versicherungen eingeführt, wobei eine nicht unerhebliche Her-ausforderung in diesem Zusammenhang – auch im Hinblick auf die flankierenden Prozesse – die doch sehr extensiven Berichtsanforderungen aus der dritten Säule von Solvency II darstellen, die sich in einen quantitativen Teil mit einer Fülle von Tabellen und in einen qualitativen Teil mit mehreren narrativen Berichten aufteilen.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette durch lineare Interpolation der Übergangsmatrizen und der Einheitsmatrix sowohl eine unterjährliches als auch ein zeitstetige bewertete inhomogene Markov-Kette konstruiert. Beim unterjährlichen Modell liegt der Fokus auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion und einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen. Beim zeitstetigen Modell steht neben der Konstruktion und den üblichen Ergebnissen für zeitstetige Markov-Ketten, die Verallgemeinerung des Restglieds bzw. des Invarianzsatzes im Mittelpunkt des Interesses.
Aufgrund der rasanten technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Marketing sowie Recht & Datenschutz. Aufgrund der enormen Bedeutung und Vielschichtigkeit des Themas hat sich die Forschungsstelle aktuarielles Risikomanagement (FaRis) bei ihrem 10. FaRis & DAV Symposium mit den quantitativen Aspekten des Begriffs auseinandergesetzt.
When using machine learning techniques for learning a function approximation from given data it is often a difficult task to select the right modeling technique.
In many real-world settings is no preliminary knowledge about the objective function available. Then it might be beneficial if the algorithm could learn all models by itself and select the model that suits best to the problem.
This approach is known as automated model selection. In this work we propose a
generalization of this approach.
It combines the predictions of several into one more accurate ensemble surrogate model. This approach is studied in a fundamental way, by first evaluating minimalistic ensembles of only two surrogate models in detail and then proceeding to ensembles with three and more surrogate models.
The results show to what extent combinations of models can perform better than single surrogate models and provides insights into the scalability and robustness of the approach. The study focuses on multi-modal functions topologies, which are important in surrogate-assisted global optimization.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
This paper proposes an experimental methodology for on-line machine learning algorithms, i.e., for algorithms that work on data that are available in a sequential order.
It is demonstrated how established tools from experimental algorithmics (EA) can be applied in the on-line or streaming data setting.
The massive on-line analysis (MOA) framework is used to perform the experiments.
Benefits of a well-defined report structure are discussed.
The application of methods from the EA community to on-line or streaming data is referred to as experimental algorithmics for streaming data (EADS).
Mit der verstärkten Nutzung digitaler Möglichkeiten im Privat- und Berufsleben werden digitale Kanäle auch für Versicherungsfragen immer selbstverständlicher. Am Markt haben sich bereits einige Online-Portale etabliert, die Versicherungsvergleiche und teils auch den Versicherungsabschluss anbieten. Allerdings gibt es bislang erst wenige bekannte Online-Portale für spezielle Zielgruppen wie beispielsweise für das attraktive Segment der Akademiker.
Die vorliegende Veröffentlichung stellt die wesentlichen Ergebnisse einer studentischen Projektarbeit dar, die im Sommersemester 2016 zum Thema „Online-Portal für Akademiker“ durchgeführt wurde. Sie beschreibt Besonderheiten entlang der Customer Journey von Akademikern in Versicherungsfragen und liefert erste Empfehlungen, wie ein Online-Portal für Akademiker gestaltet werden könnte, um ansprechend auf die Zielgruppe zu wirken.
Forschendes Lernen versteht sich als ein methodisches Prinzip, das Forschungsorientierung und Verknüpfung von Forschung und Lehre in die Studiengänge und Lehrveranstaltungen integriert und für studentische Lernprozesse nutzbringend anwendet. Studierende sind dabei Teil der Scientific Community.
Dieser Artikel ist ein Erfahrungsbericht, in dem das Konzept des „Forschenden Lernens“ in einer Variante vorgestellt wird, die in den letzten zehn Jahren an einer deutschen Fachhochschule für ingenieurwissenschaftliche Studiengänge entwickelt wurde.
Da es „das“ Forschende Lernen nicht gibt, werden zunächst die für diesen Artikel relevanten Gesichtspunkte zusammengestellt. Darauf aufbauend wird ein Prozessmodell des Forschenden Lernens vorgestellt. Dieses Modell ermöglicht Forschendes Lernen für Bachelor- und Masterstudierende sowie für Doktorandinnen und Doktoranden.