Refine
Year of publication
Document Type
- Working Paper (75)
- Report (52)
- Conference Proceeding (25)
- Book (16)
- Article (10)
- Preprint (7)
- Doctoral Thesis (3)
- Other (1)
Language
- German (137)
- English (51)
- Multiple languages (1)
Has Fulltext
- yes (189)
Keywords
- Versicherungswirtschaft (36)
- Optimierung (20)
- Forschungsbericht (19)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (10)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (76)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (24)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (11)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (5)
- Zentrum für Lehrentwicklung (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 02 / Köln International School of Design (3)
- Fakultät 07 / Institut für Nachrichtentechnik (2)
In den Kommunen wird ein vernetztes, integriertes Handeln durch eine institutionelle Zergliederung der Daseinsvorsorge in eine Vielzahl funktionaler Teilaufgaben behindert. In der Folge dieser Fragmentierung erfahren die Adressaten soziale Dienstleistungen in den Sozialräumen ihres Stadtteils oder Stadtteils funktions- und hierarchiebezogen – d.h. vertikal und horizontal – getrennt. Wegen der Barrieren des engen Ressortdenkens und der fehlenden Transparenz agieren die professionellen Akteure relativ isoliert auf den „operativen Inseln“ fachlicher Zuständigkeiten. Gemeinsame Schnittstellen werden kaum wahrgenommen, was zum Aufbau von ineffizienten Doppelstrukturen und Mehrfachangeboten geführt hat. Vor diesem Hintergrund besteht die innovative Idee darin, in der Kommune eine wirkungsvolle und effiziente Netzwerkversorgung zwischen isolierten Agenturen, professionellen Dienstleistern und ehrenamtlich engagierter Bürger/innen zu entwickeln. Denn das dafür erforderliche organisatorische Verfahren der Netzwerkkooperation, das im Profitbereich bereits seit den 90er Jahren etabliert ist (vgl. Zulieferernetze der Mobilitätsindustrie) wartet im Non-Profit-Sektor noch auf die systematische Einführung. Die wissenschaftlichen und sozialpolitischen Diskurse des letzten Jahrzehnts verdeutlichen jedoch vermehrt den hohen Bedarf einer vernetzungsorientierten Organisationsentwicklung der kommunalen Daseinsvorsorge und ihrer Verwaltungsagenturen. Auf der Ebene der Sozialräume von Stadtteilen und Stadtbezirken, aber auch innerhalb der zentralen Kommunalverwaltung sollen aus diesem Grund sowohl Hierarchiebarrieren zwischen Die Qualitätsentwicklung hängt entscheidend davon ab, ob diese Barrieren überwunden werden und sowohl eine integrierte Vorgehensweise der professionellen Akteure gefunden wird als auch der Anschluss an die zivilgesellschaftlichen Potenziale gelingt. Vor diesem Hintergrund untersucht das Projekt „CityNet“ die Koordination professioneller und ehrenamtlicher Interventionen verschiedener Ressorts, um die individuellen und sozialen Bedürfnisse der Bevölkerung wirkungsvoll und effizient zu sichern. Im Ergebnis werden Instrumente der „Netzwerkplanung“ entwickelt, mit denen die bisher isolierten Leistungen der einzelnen Infrastrukturen und Dienstleistungsanbieter im Sozialraum miteinander bedarfsorientiert und adressatenfokussiert verbunden werden.
Im Jahre 2009 wurde ein Forschungsschwerpunkt „Verteilte Mobile Applikationen“ gegründet, der Forschungsaktivitäten im Bereich der technischen Informatik bündelt. Um Ergebnisse laufender Arbeiten aus den Forschungs- und Entwicklungs-aktivitäten des Forschungsschwerpunkts nach außen zu kommunizieren und um Informatiker und Informationstechniker außerhalb des Forschungsschwerpunkts z.B. aus dem Kölner Raum einzuladen, neue Ergebnisse aus Wissenschaft und technischer Anwendung zu publizieren, wird diese WEB Schriftenreihe gegründet, in der forschungsorientierte Aufsätze und Monographien veröffentlicht werden können. Die erste Nummer der Reihe behandelt Themen wie die Systemarchitektur verteilter mobiler Anwendungen, REST-konforme Web Services, Bildverarbeitungs-algorithmen zur Prägeschrifterkennung und zuverlässige eingebettete Systeme (DCSB Bord).
Mit einem Anlagevolumen von rund 872 Mrd. €1 sind die deutschen Lebensversicherer mit Abstand die wichtigsten institutionellen Kapitalanleger für die Altersvorsorge. Sie stehen vor der Herausforderung, das Geld ihrer Kunden rentabel und zugleich sicher am Kapitalmarkt anzulegen. Derzeit bietet eine Neuanlage in Staatspapiere höchster Bonität eine Rendite, die kaum ausreicht die Preissteigerung auszugleichen und teilweise deutlich niedriger ist als der Bestand- Rechnungszins. Das Geschäftsmodell der klassischen Lebensversicherung mit den Jahrzehnte- umspannenden Zinsgarantien steht zur Disposition: Niedrigzinsphase und der Übergang einem zum kapitalmarktorientierten Aufsichtsmodell (Solvency 2) zwingen die Lebensversicherer über Alternativen nachzudenken. Beim 2. FaRis & DAV-Symposium wurde das Thema „Alternative Zinsgarantien in der Lebensversicherung“ von verschiedenen Seiten beleuchtet. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
There is a strong need for sound statistical analysis of simulation and optimization algorithms. Based on this analysis, improved parameter settings can be determined. This will be referred to as tuning. Model-based investigations are common approaches in simulation and optimization. The sequential parameter optimization toolbox (SPOT), which is implemented as a package for the statistical programming language R, provides sophisticated means for tuning and understanding simulation and optimization algorithms. The toolbox includes methods for tuning based on classical regression and analysis of variance techniques; tree-based models such as classification and regressions trees (CART) and random forest; Gaussian process models (Kriging), and combinations of different meta-modeling approaches. This article exemplifies how an existing optimization algorithm, namely simulated annealing, can be tuned using the SPOT framework.
Formerly, multi-criteria optimization algorithms were often tested using tens of thousands function evaluations. In many real-world settings function evaluations are very costly or the available budget is very limited. Several methods were developed to solve these cost-extensive multi-criteria optimization problems by reducing the number of function evaluations by means of surrogate optimization. In this study, we apply different multi-criteria surrogate optimization methods to improve (tune) an event-detection software for water-quality monitoring. For tuning two important parameters of this software, four state-of-the-art methods are compared: S-Metric-Selection Efficient Global Optimization (SMS-EGO), S-Metric-Expected Improvement for Efficient Global Optimization SExI-EGO, Euclidean Distance based Expected Improvement Euclid-EI (here referred to as MEI-SPOT due to its implementation in the Sequential Parameter Optimization Toolbox SPOT) and a multi-criteria approach based on SPO (MSPOT). Analyzing the performance of the different methods provides insight into the working-mechanisms of cutting-edge multi-criteria solvers. As one of the approaches, namely MSPOT, does not consider the prediction variance of the surrogate model, it is of interest whether this can lead to premature convergence on the practical tuning problem. Furthermore, all four approaches will be compared to a simple SMS-EMOA to validate that the use of surrogate models is justified on this problem.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Sowohl der Zinssatz als auch die Wahrscheinlichkeiten liegen dabei normalerweise als Jahreswerte vor, die Zahlungen hingegen erfolgen meist unterjährlich. In der vorliegenden Arbeit wird für diesen unterjährlichen Fall ein auf der Theorie der Markov-Ketten basierendes Modell zur Barwertberechnung behandelt. Die unterjährlichen Wahrscheinlichkeiten ergeben sich dabei durch Linearisierung der Jahreswerte, als unterjährliches Zinsmodell wird die gemischte Verzinsung – alternativ mit dem relativen Zinssatz und dem konformen Zinssatz – betrachtet.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
Das Verhältnis zwischen privater Gestaltung und staatlicher Regulierung in der Versicherungswirtschaft war das herausfordernde Thema des 16. Kölner Versicherungssymposiums 2011 und des vorliegenden Tagungsbandes. In dem allgemeinen Teil werden in Grundsatzbeiträgen die Positionen erwünschter und unerwünschter ordnungspolitischer Eingriffe in die Privatautonomie des Versicherungsmarkts dargestellt. In den anschließenden fünf Arbeitsgruppen zu den Bereichen Lebensversicherung, Krankenversicherung, Pflegeversicherung, Sachversicherungen und Haftpflichtversicherungen wurde das Spannungsverhältnis behandelt. Neben den Expertenstatements sind auch die Diskussionsbeiträge der Tagungsteilnehmer festgehalten.
Hintergrund dieser Studie ist die zunehmende Bedeutung von Versicherungsabschlüssen über das Internet. Vor allem bei der Kfz- Versicherung nimmt der Anteil von Online-Abschlüssen zu. Dabei nutzen die Kunden vermehrt unabhängige Vergleichsportale, wie sie bereits auch im Reise- und Energiemarkt stark verbreitet sind. Zeitgleich sind Vergleichsportale aber auch in die Diskussion gekommen: Fehlende Transparenz, mangelnde Benutzerfreundlichkeit und zum Teil unseriöser Umgang mit Daten wurden in der Presse zumindest einzelnen Portalen vorgeworfen. Die Studie soll daher klären, wie Verbraucher mit Vergleichsportalen umgehen, wie transparent diese sind und wie sich Transparenz und Nutzerfreundlichkeit weiter ausbauen lassen. Dazu testeten wir anhand einer annähernd repräsentativen Stichprobe von 500 internetaktiven privaten Fahrzeughaltern jeweils zwei unterschiedliche Portale von Vergleichsrechnern und zum Vergleich jeweils ein Website eines Direktversicherers. Im Rahmen dieser 1.500 Tests wurden nicht nur Bearbeitungsdauer, Preis und Leistungen der empfohlenen Produkte erfasst. sondern auch die subjektiven Bewertungen der Tester zu Bedienungsfreundlichkeit, Transparenz und Datenschutz. In der Untersuchung wurden 5 gewerbliche Vergleichsportale, 2 Vergleichs- rechner, die von Verbraucherschützern bereitgestellt werden, sowie aus Vergleichsgründen drei Websites von führenden Direktversicherern berücksichtigt. Die Ergebnisse zeigen: Vergleichsportale werben gerne mit dem Versprechen hoher Ersparnisse. Verglichen mit der tatsächlichen derzeitigen Versicherungsausstattung unserer internetaktiven Stichprobe zeigen sich diese Zahlen meist übertrieben. Dennoch: Im Durchschnitt fanden die Tester günstige Verträge. Und mindestens jeder Zweite könnte durch einen Wechsel deutlich sparen – im Mittel etwas mehr als 100 € jährlich. Neben einer breiten Marktübersicht zeichnen sich die besten Portale aus Anwendersicht vor allem durch ihre besondere Benutzerfreund- lichkeit aus. Viel Kritik gibt es dagegen für den Datenhunger und den Eindruck mangelnder Seriosität insbesondere eines der Portale. Ferner wird die Gebühr zur Nutzung des Rechners der Stiftung Warentest bemängelt, obwohl hier zugleich die günstigsten Tarife errechnet wurden. Ein kritisches Thema bei Vergleichsportalen ist die Transparenz der Geschäftsmodelle. Mit Ausnahme der Portale der Direktversicherer und der beiden Angebote der Verbraucherschützer finanzieren sich die getesteten Portale nämlich vorwiegend über Provisionen. Diese erhalten Sie, ähnlich einem normalen Makler oder Vertreter, für die Vertrags- vermittlung von den Versicherungsgesellschaften. Das wurde im Test aber höchstens jedem zweiten Nutzer bewusst. Und in noch einer Frage irrten viele der Befragten: Denn die meisten Portale decken keineswegs den ganzen Markt ab, sondern meist nur einen mehr oder weniger großen Teil der Anbieter. Das führt zu großen Unterschieden in den Produktempfeh- lungen und Preisen je nach genutztem Portal. Wobei kein Portal immer das günstigste ist. Für die Verbraucher empfiehlt es sich daher, jeweils mehrere Portale zu vergleichen. Im Gesamturteil der Anwender schneiden die Vergleichsportale nicht besser oder schlechter ab als die Websites der Direktversicherer. Dennoch: Die besten Portale können den Großteil ihrer jeweiligen Nutzer überzeugen, verbunden mit einer hohen Bereitschaft, die Portale auch in Zukunft wieder zu verwenden. Fazit: Bezüglich Marktabdeckung und Provisionsfinanzierung müssen die Portale ihre Nutzer noch aktiver aufklären. Auch Benutzerfreund- lichkeit ist noch nicht bei allen Vergleichsrechnern gegeben. Und wie überall im Internet gilt auch hier, dass die Anwender vorsichtig mit den persönlichen Daten umgehen sollten. Ansonsten lässt sich aber feststellen: Gute Portale bieten günstige Versicherungen bei moderatem Aufwand. Sie unterstützen die Nutzer bei der Suche nach dem richtigen Versicherungsumfang, erläutern Fachbegriffe, und geben Orientierung und Entscheidungshilfen durch Kundenbewertungen und Testurteile. Das gilt für gewerbliche Portale ebenso wie für die Angebote der Verbraucher- schützer, die ihre Neutralität und ihren Provisionsverzicht allerdings noch etwas mehr betonen müssten, um in der Präferenz der Anwender zu gewinnen.
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose a methodology to overcome these difficulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This paper combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
In diesem Artikel wird die Entwicklung einer neuen Methode zur Risikobewertung von komplexen, technischen Systemen (z.B. Maschinen, Prozessen) dokumentiert. Wir demonstrieren die Anwendung unserer Methode anhand eines Beispiels der Medizintechnik. Ziel ist die quantitative Bewertung von Risiken, die über die Ermittlung der Eintrittswahrscheinlichkeit und des Schadenerwartungswertes hinaus geht. Besonders relevant ist die Berechnung kostenintensiver Groß- schäden. Dazu kombinieren wir Methoden der klassischen ingenieurwissen- schaftlichen Risikoanalyse mit Methoden der Aktuarwissenschaften. Daraus erhalten wir eine neue Methode des quantitativen Risikomanagements zur Berechnung von Gesamtschadenverteilungen komplexer technischer Systeme. Auf diese Weise werden alle modernen Risikomaße (z.B. VaR, Expected Shortfall) zugänglich. Wir demonstrieren die einzelnen Schritte anhand eines konkreten Beispiels aus der Praxis, einem zahnärztlichen Behandlungsstuhl.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Mit Hilfe von internen Modellen kann man in der Schadenversicherung das Risiko / Rendite Profil einer Neugeschäftsstrategie bewerten und Entscheidungen daraus ableiten. Dabei kann man i. d. R. nur einzelne Strategien miteinander vergleichen, aber kein allgemein gültiges Optimum herleiten. Unter bestimmten Voraussetzungen ist es allerdings möglich, für das (Brutto) Neugeschäft auch geschlossene Lösungen für diese Fragestellung zu finden. Selbst wenn diese Voraussetzungen in der Reinform meistens kaum vorliegen, ergeben sich doch aus diesem Ansatz einige interessante Implikationen für die Unternehmenssteuerung. Insbesondere können solche Ansätze dafür verwendet werden, bessere „Startwerte“ zu finden, die dann mit internen Modellen getestet werden können.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Viele der dabei verwendeten Modelle sind gedächtnislos. In der vorliegenden Arbeit wird für diese Fälle ein Modell, das auf der Theorie der Markov- Ketten basiert, eingeführt. Aus dieser Modellierung ergibt sich u.a. eine grundlegende Bewertungsformel. In drei unterschiedlichen ökonomischen Beispielen wird gezeigt, dass die Anwendung dieser Bewertungsformel zu den Standardbewertungsansätzen führt. Das primäre Ziel der Arbeit ist dabei nicht die Darstellung neuer Ergebnisse, sondern die grundlegende Aufbereitung der Thematik. Dabei soll die Ausarbeitung eine Basis für weitere Anwendungen schaffen und als Grundlagen für eine EDVtechnische Umsetzung dienen.
Diese Arbeit behandelt Rückversicherungsprogramme aus fakultativen und obligatorischen, proportionalen und nichtproportionalen Deckungen. Zunächst wird eine neue Darstellungsweise eingeführt, die nicht nur die Kapazitäten der Bausteine des Rückversicherungsprogramms, sondern auch die Schadenaufteilung transparent macht. Durch Skalierung der Schadenachse mittels der Verteilungsfunktion des Einzelschadens ergibt sich eine anschauliche Darstellung der jeweiligen Erwartungswerte und damit des Prämienbedarfs. Im zweiten Teil der Arbeit wird die Auswirkung nichtproportionaler fakultativer Rückversicherung auf bereits vorhandene obligatorische Rückversicherungen untersucht, insbesondere der so genannte „Kompressionseffekt“. Die Verteilung des Schadens auf die einzelnen Deckungsabschnitte wird graphisch und mit einem Zahlenbeispiel verdeutlicht. Es ergibt sich, dass ein Schadenexzedent auf den Selbstbehalt durch Kompression erheblich benachteiligt wird.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht den einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparvermögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In der hier vorliegenden Arbeit untersuchen wir zeit-diskrete Versionen des Modells, die wir mit Hilfe von Monte-Carlo-Simulationen auswerten. Hierbei berechnen wir verschiedenen Rendite-Risiko-Profile des kollektiven Sparens und vergleichen diese mit entsprechenden Profilen für nicht-kollektive Anlagestrategien (Constant-Mix-, Buy-and- Hold- und CPPI-Strategien). Der Vergleich zeigt einen klaren komparativen Vorteil des kollektiven Sparens.
Ziel dieser Arbeit ist es, Versicherungsunternehmen eine Orientierungshilfe in Social Media zu geben. Hierzu wird eine Kategorisierung der vielfältigen Web 2.0-Dienste geboten, die Social Media Matrix, die fünf wesentliche Social Media-Kategorien unterscheidet und hinsichtlich ihrer Eignung für Versicherungsunternehmen bewertet.
Interne Modelle in der Schadenversicherung gehen üblicherweise vom ökonomischen Kapital nach einem Jahr als zugrunde gelegter stochastischer Zielfunktion aus. Dieses basiert auf der sofortigen Realisation aller Aktiva und Passiva zu Marktpreisen, was nicht immer eine realistische Hypothese darstellt. Beim Embedded Value (der in der Schadenversicherung noch nicht so etabliert ist wie in der Lebensversicherung) werden die Werte der Aktiva und Passiva erst über die Zeit realisiert. Sinnvoll angewendet kann dieses Konzept somit einen deutlich realistischeren Ansatz für ein internes Modell in der Schadenversicherung liefern als die Modellierung auf Basis des ökonomischen Kapitals.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des abgelaufenen Jahres 2011. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem ersten Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen. Schließlich geben wir auch einen kurzen Ausblick auf die für 2012 geplanten Aktivitäten.
Mit dem Konzept des „Embedded Values“ soll der Langfristigkeit von Lebensversicherungsverträgen Rechnung getragen werden, wobei in der operativen Anwendung erste Schwachstellen des Konzeptes ersichtlich geworden sind. In der Schadenversicherung ist dieses Konzept im Rahmen der Risikosteuerung derzeit noch nicht etabliert, findet aber bereits im Rahmen der integrierten Gesamtsteuerung auf Gruppenebene erste Anwendung. Insofern ist es konsequent, zumindest im Hinblick auf mittelfristige Entwicklungsperspektiven den MCEV auch bei der wertorientierten Unternehmenssteuerung in der Nichtlebensversicherung in Betracht zu ziehen. Dadurch gibt sich im Hinblick auf die Risikosteuerung auf Gruppenebene ein insgesamt stimmiges Bild, das aber durchaus kritisch zu hinterfragen ist.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Die Diskussionsforen der Forschungsstelle Versicherungsrecht behandeln zweimal pro Jahr aktuelle Fragestellungen und neuere Rechtsprechung zum Thema Versicherungsrecht. Die Veranstaltung wendet sich an Versicherungsjuristen, mit Versicherungsrecht befasste Rechtsanwälte und an Betriebswirte, die sich in ihrer beruflichen Praxis mit rechtlichen Fragestellungen beschäftigen müssen. Die Ergebnisse des 6. Diskussionsforums vom 25. September 2012 an der FH Köln sind in diesem Tagungsbericht zusammengefasst.
Das vernetzte Automobil bezeichnet die Möglichkeit, über Mobilfunknetze (oder auch WLAN) aus einem Fahrzeug heraus Daten z.B. zum aktuellen Betriebszustand des Fahrzeugs, zur aktuellen Position oder zur Fahrweise an unterschiedlichste Empfänger weiterzuleiten. Auf Basis dieser Technik sind ein automatisches Notrufsystem sowie zahlreiche Mehrwertdienste rund um Service und Verkehrs-steuerung realisierbar. Bisherige, kostenpflichtige Angebote konnten sich im Markt noch nicht breit durchsetzen. Die von der EU-Kommission für 2015 geplante verpflichtende Neueinführung des automatischen Notrufsystems „eCall“ wird der Verbreitung dieser Systeme aber einen deutlichen Schub geben. Mit der Hoffnung auf sinkende Zahlen von Unfallopfern gehen allerdings Bedenken einher bezüglich Datenschutz. Hinzu kommt die Sorge von Verbraucherschützern und einigen Marktteilnehmern (z.B. Pannendiensten, freien Werkstätten, Teilehändlern und Versicherern) vor einer gewissen „Monopolisierung“ der Kfz-Hersteller im After-Sales-Market, soweit alleine diese Zugriff auf die mobilen Daten erhalten. Vor diesem Hintergrund untersucht diese Studie die derzeitige Kenntnis und Akzeptanz des automatischen Notrufsystems „eCall“ sowie die Akzeptanz darüber hinausgehender Mehrwertdienste. Dazu wurde eine annähernd repräsentative Stichprobe von 1.021 privaten PKWHaltern in Deutschland befragt. Die Ergebnisse zeigen, dass eCall als Notfallsystem zwar noch wenig bekannt ist, aber nach kurzer Erläuterung hohe Akzeptanz findet und nach Ansicht der großen Mehrheit der Befragten automatisch in allen Neufahrzeugen installiert werden sollte. Die damit verbundenen Mehrkosten beim Autokauf werden in Kauf genommen. Bedeutsamer erscheint dagegen der Schutz der persönlichen Daten. Als Empfänger der gesendeten Information werden im Falle eines Unfalls vorrangig Rettungsdienste, aber auch Polizei und Pannendienste gewünscht. Zudem könnten sich viele Fahrzeughalter die Weiterleitung an ihren Versicherer oder eine Verkehrsleitzentrale vorstellen. Deutlich zurückhaltender zeigen sich die Autofahrer aber, wenn es um die Übermittlung von Daten jenseits von Unfällen geht. Insbesondere eine automatische Übermittlung von Informationen erreicht hier durchgehend nur geringe Akzeptanzwerte. Die Option, die Datenübermittlung selbst zu beeinflussen, sei es durch Voreinstellung oder fallweise Aktivierung, erhöht die Akzeptanz zwar deutlich, dennoch fanden sich außerhalb des Unfallszenarios keine Anlässe, in denen die Mehrheit eine Datenweitergabe befürwortete. Diese Zurückhaltung gilt auch für den Austausch mit Werkstätten und Kfz-Herstellern. Insbesondere eine automatische Datenübermittlung wird von den meisten Autofahrern abgelehnt. Wahlfreiheit erhöht auch hier die Akzeptanz, insbesondere Daten zum Betriebszustand des Fahrzeuges zu übertragen. Die Akzeptanz-Unterschiede zwischen verschiedenen Bevölkerungsgruppen - sei es nach Alter, Status oder Autotypen - sind insgesamt eher gering. Auch die generelle politische Orientierung schlägt sich nur bedingt in der Akzeptanz von eCall und Mehrwertdiensten wieder. Insgesamt wird deutlich: Wenn es nicht unmittelbar um die Sicherheit geht, braucht es überzeugender Argumente, um die Mehrheit der Autofahrer von weiteren Anwendungen zu überzeugen. Wahlfreiheit ist ein wichtiger Parameter zur Erhöhung der Akzeptanz. Ebenso bedeutsam ist ein überzeugender Datenschutz. Allerdings zeigt ein Auseinanderklaffen zwischen hohen datenschutzbezogenen Erwartungen einerseits und dem tatsächlichem Umgang mit datensensiblen Diensten in verschiedensten Lebensbereichen andererseits, dass ein erheblicher Teil der Bevölkerung bereit ist, ihr grundsätzliches Verlangen nach Anonymität zugunsten konkreter Vergünstigungen außer Acht zu lassen. Hier wären unter dem Aspekt des Verbraucherschutzes regulatorische Maßnahmen anzudenken.
Der MCEV stellt nicht nur in der Lebensversicherung, sondern auch in der Schadenversicherung einen alternativen Ansatz dar, um den ökonomischen Wert eines Unternehmens zu ermitteln. Dabei ist die Ermittlung des MCEV in der Schaden-versicherung durchaus weniger komplex als in der Lebensversicherung, da das Phänomen der Stochastik in der Stochastik i. d. R. nicht auftritt. In dieser Arbeit ist für die Schadenversicherung ein vereinfachtes Formelwerk für den MCEV ohne Renewals dargestellt, mit dem die wichtigsten Auswirkungen des Embedded Values in der Scha-denversicherung getestet werden kann.
In den Wirtschaftswissenschaften liegen die für Bewertungen benötigten Daten normalerweise als Jahreswerte vor, z.B. Zinssätze oder Sterblichkeiten in der Finanz- und Versicherungsmathematik. Darauf aufbauend lassen sich Markov-Ketten mit einem jährlichen Zeitraster konstruieren. Zu bewertende Zahlungen hingegen erfolgen meist unterjährlich. Der vorliegende Artikel beschäftigt sich mit der Frage, wie aus einer Markov-Kette mit jährlichem Zeitraster, eine Markov-Kette mit unterjährlichem Zeitraster konstruiert werden kann. Dabei stehen Markov-Ketten, deren Übergangsmatrizen als obere Dreiecks-matrizen gegeben sind, im Mittelpunkt des Interesses. Es werden zwei Ansätze und deren Anwendung dargestellt. Der erste Ansatz basiert auf der T-ten Wurzel der Übergangsmatrizen, der zweite Ansatz auf einer Linearisierung der Übergangsmatrizen.
Angetrieben durch technische Innovationen und den Prozess der Globalisierung tendieren Organisationen seit rund einem Jahrzehnt dazu, Kooperationsnetzwerke mit anderen Unternehmen höher zu gewichten als die Arbeit in monobetrieblichen Strukturen. Diese Tendenz zeigt sich sowohl in bedarfswirtschaftlichen als auch erwerbswirtschaftlichen Organisationen. Beide „organisationalen Felder“ sind in verschiedene organisationale Kontexte eingebettet und verfolgen Kooperationsstrategien, die zu unterschiedlichen Kooperationsmustern führen. Um das Fachwissen über netzwerkorientierte Organisationsentwicklung weiter zu entwickeln und marktfähig zu machen, wurde an der Fachhochschule Köln ein interdisziplinäres Forschungsprojekt initiiert. An dem Forschungsvorhaben sind die Fakultäten für angewandte Sozialwissenschaften, für Wirtschaftswissen-schaften und für Fahrzeugsysteme und Produktion beteiligt, die unterschiedliche organisationale Felder repräsentieren. Die Fakultät für angewandte Sozial-wissenschaften fokussiert auf bedarfswirtschaftliche Organisationen im Feld der Sozialwirtschaft. Im Blickfeld der Fakultäten für Wirtschaftswissenschaften und für Fahrzeugsysteme und Produktion stehen erwerbswirtschaftliche Organisationen aus den Feldern der mittelständischen Wirtschaft und der Mobilitätswirtschaft. Im Verlauf des Forschungsprozesses wurden (1) im Rahmen einer Situationsanalyse eine quantitative Befragung von Profit- und Non-Profit-Organisationen in Nordrhein-Westfalen durchgeführt und Ergebnisse zum Stellenwert der Netzwerk-organisation in den aktuellen Organisationsstrategien und -konzepten gewonnen. Durch vertiefende qualitative Fallanalysen in Form von Bedarfsanalysen (2) sind Erfolgsfaktoren und Unterstützungsbedarfe bei einer Einbindung von Organisationen in eine Netzwerkkooperation aufgedeckt worden. In diesem Bericht erfolgt (3) die Beschreibung und Begründung induktiv abgeleiteter Beratungs-instrumente. Dafür werden zunächst relevante Forschungsergebnisse zusammengefasst und anschließend die von ihnen abgeleiteten Erfolgsfaktoren sowie Beratungs- und Unterstützungsbedarfe tabellarisch geclustert. Auf dieser Grundlage werden die Entwicklung von Beratungs- und Unterstützungsinstrumenten und die Modifizierung bestehender Ansätze für die Netzwerkberatung - differenziert nach den besonderen Anforderungen des bedarfswirtschaftlichen und des erwerbs-wirtschaftlichen Bereiches - theoretisch begründet. Die entwickelten Beratungsinstrumente werden nach Netzwerkentwicklungsphasen katalogisiert. Zusätzlich wird angegeben, was das jeweilige Instrument leistet und wo seine Grenzen sind. Zudem erfolgt für jedes Instrument die detaillierte Beschreibung der Ziele und des Anwendungsprozesses. Schließlich werden ausgewählte Module Beratungsinstrumente in zwei der drei organisationalen Felder zur Anwendung gebracht. Ziel ist die Beschreibung eines Best-Practice-Beratungsprozesses.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.
Multi-criteria optimization has gained increasing attention during the last decades. This article exemplifies multi-criteria features, which are implemented in the statistical software package SPOT. It describes related software packages such as mco and emoa and gives a comprehensive introduction to simple multi criteria optimization tasks. Several hands-on examples are used for illustration. The article is well-suited as a starting point for performing multi-criteria optimization tasks with SPOT.
Die klassische Form der Unternehmenssteuerung durch einfache Unternehmenskenn-ziffern ist inzwischen fast überall durch wertorientierte Steuerungssysteme ersetzt worden, die Risiko und Rendite in sinnvoller Weise gegenüberstellen. In diesem Zusammenhang ist die korrekte Ermittlung des Kapitalbedarfs als dem relevanten Faktor zur Produktion von Versicherungsschutz unverzichtbar. Um hierbei die einzelnen Einflussgrößen hier ursachegerecht separieren zu können, sollte eine adäquate Performancemessung vorgenommen werden.
RGP is genetic programming system based on, as well as fully integrated into, the R environment. The system implements classical tree-based genetic programming as well as other variants including, for example, strongly typed genetic programming and Pareto genetic programming. It strives for high modularity through a consistent architecture that allows the customization and replacement of every algorithm component, while maintaining accessibility for new users by adhering to the "convention over configuration" principle.
Die Prämienbestimmung ist nicht nur vor dem Hintergrund von Unisex ein über viele Versicherungssparten aktuell diskutiertes Thema. Häufige Veränderungen des Rechtsrahmens, die stete Entwicklung neuer Produkte, Weiterentwicklungen der Methoden und geänderte Anforderungen des Marktes beeinflussen die Wahl der Rechnungsgrundlagen als Basis der Prämienkalkulation. Einigen ausgewählten Fragestellungen aus diesem Umfeld ist das 3. FaRis & DAV-Symposium nachge-gangen. Dazu wurden Sterblichkeit und Lebenserwartung als zentrale biometrische Rechnungsgrundlagen der Personenversicherung ebenso thematisiert wie die schwierige Herleitung geeigneter Rechnungsgrundlagen für neuere Formen der Invaliditätsversicherung. Auch die Grenzen, an die der Aktuar gelegentlich stößt, und der erforderliche Pragmatismus bei der Suche nach Lösungen wurden angesprochen. Besondere Aufmerksamkeit wurde auch der betrieblichen Alters-versorgung zugewendet, die sich trotz des unsicheren rechtlichen Rahmens intensiv mit der Einführung von Unisex-Tarifen beschäftigt. Ein vertiefter Blick auf die Kalkulationsansätze in der Schaden-versicherung und den damit verbundenen Informationsbedarf für das Management rundeten das Programm ab. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
Dieser Schlussbericht beschreibt die im Projekt „Methoden der Computational Intelligence für Vorhersagemodelle in der Finanzund Wasserwirtschaft“ (FIWA) im Zeitraum von Juni 2009 bis einschließlich November 2012 erzielten Ergebnisse. In der Praxis werden für diese Vorhersagemodelle Verfahren der linearen und nichtlinearen Regression, NN, Support Vector Machines (SVM) und viele weitere Verfahren eingesetzt. Das Projekt FIWA befasste sich mit der Entwicklung modularer Systeme zur Analyse und Prognose von Daten aus der Finanz- und Wasserwirtschaft mittels Verfahren der Computational Intelligence (CI) mit methodischem Fokus auf dem CI-Unterbereich Genetic Programming (GP). Ein zentrales Ergebnis der wissenschaftlichtechnischen Arbeit im Projekt FIWA ist die Entwicklung der Open-Source Software RGP. Dabei handelt es sich um ein Software- Framework für GP, welches auf die automatische Erstellung von Vorhersagemodellen spezialisiert ist. Für die Finanzwirtschaft stand ein Handelssimulator zu Verfügung, der auf Basis von echten Finanzdaten die Qualität verschiedener Strategien testen kann. Dieser wurde im Projekt weiterentwickelt. GP wurde genutzt, um auf Basis der Simulationen genaue Vorhersagen und damit verbesserte Handelsstrategien zu entwerfen. Auch für die Wasserwirtschaft wurden Prognoseverfahren mit GP entwickelt. Der Schwerpunkt lag dabei auf der Füllstandprognose für Regenüberlaufbecken. Hier konnten moderne Verfahren mit GP oder SVM klassische Methoden deutlich schlagen oder verbessern. Auch der Einsatz von Sequentieller Parameter Optimierung zeigte signifikante Verbesserungen für die Prognosegenauigkeit. Dabei war die Kombination von klassischen Methoden und GP besonders erfolgreich. GP ist nach wie vor ein sehr aktives Forschungsgebiet und erlaubt auch für die Folgezeit zahlreiche Kooperationen mit den Partnern der Fachhochschule Köln. Sowohl für technische Anwendungen als auch zur Lösung von Forschungsfragen bieten sich zahlreiche Möglichkeiten an.
This paper introduces UniFIeD, a new data preprocessing method for time series. UniFIeD can cope with large intervals of missing data. A scalable test function generator, which allows the simulation of time series with different gap sizes, is presented additionally. An experimental study demonstrates that (i) UniFIeD shows a significant better performance than simple imputation methods and (ii) UniFIeD is able to handle situations, where advanced imputation methods fail. The results are independent from the underlying error measurements.
Die betriebliche Altersversorgung ist neben der gesetzlichen und der privaten Altersvorsorge eine der drei Säulen der Alterssicherung in Deutschland. Ende 2012 beliefen sich die Deckungsmittel der betrieblichen Altersversorgung in Deutschland auf 500,7 Milliarden Euro. Im Zeitraum 2009 bis 2011 hatten ca. 60% aller sozialversicherungspflichtigen Arbeitnehmer eine Anwartschaft auf betriebliche Altersversorgung. Mit Pensionsplänen sind aus Sicht der Unternehmen Risiken verbunden, die es zu erkennen, zu bewerten und zu steuern gilt. Wie ist der aktuelle Stand des Risikomanagements in der betrieblichen Altersversorgung in Deutschland? Dieser Frage ging das 4. FaRis & DAV-Symposium anhand ausgewählter Aspekte nach. Die Vorträge des Symposiums sind in diesem Konferenzband zusammengefasst.
Vor dem Hintergrund der digitalen Vernetzung vollzieht sich derzeit ein tiefgreifender Wandel des Verbraucherverhaltens. Online-Nutzung im Rahmen von Entscheidungsprozessen wird zur Norm, ‚Always Online‘ dank mobiler Internet-technologie zur Realität. Mehr als in anderen Versicherungssparten ändert das digitalisierte Käuferverhalten auch den Kfz-Versicherungsmarkt. Schon seit Jahren lässt sich ein rapider und bisher ungebremster Anstieg des Anteils online abgeschlossener Verträge beobachten. Insbesondere Vergleichsportale haben eine hohe Bedeutung erlangt und wachsen nicht nur auf Kosten der klassischen personengebundenen Vertriebsformen, sondern zunehmend auch auf Kosten des Direktvertriebs der Versicherer. Das Hinzukommen weiterer Wett- bewerber – insbesondere das von Google angekündigte eigene Vergleichsangebot – dürfte den Wandel nochmals beschleunigen. Vor diesem Hintergrund gibt die vorliegende Studie eine Bestandsaufnahme der Kaufprozesse bei internet-affinen Kfz-Versicherungskunden. Dies erfolgt auf Basis einer Befragung von 1.024 aktuellen Kfz-Versicherungs-Käufern, darunter 60% Versicherungswechsler (bei gleichbleibendem Fahrzeug) und 40% Neuabschließern (nach einem PKW-Kauf). Bei der Stichprobe handelt es sich um geübte Internetnutzer, die aber ansonsten nach Demographie und Fahrzeugmerkmalen annähernd repräsentativ für den Gesamtmarkt sind und so einen Ausblick auf die künftige Mehrheit der deutschen Kfz-Versicherungskäufer erlauben. Die Ergebnisse zeigen: Bei online-affinen Kfz-Versicherungskäufern haben sich bereits ganz neue Informations- und Ent- scheidungswege herausgebildet. Die Nutzung von Onlinemedien im Entscheidungs-prozess ist bei netzaffinen Kunden eine Selbstverständlichkeit. Mediensprünge zwischen unterschiedlichsten Informationsquellen sind – besonders bei Vertragswechslern – Normalität. Dazu gehören gleichermaßen Wechsel zwischen Online- und Offline-Kanälen (wobei „research online, purchase offline“ gegenüber „research offline, purchase online“ derzeit leicht überwiegt) wie auch Sprünge innerhalb der Online- und der Offline-Welt. Dabei suchen die Käufer vor allem einen guten Preis, in der Regel aber abgesichert durch einen „Vertrauensanker“: Eine solche Begrenzung des „wahrgenommenen Kaufrisikos“ kann zum Beispiel durch die Wahl einer bekannten Marke (eines Versicherers oder eines Portals) oder die Beachtung von Empfehlungen oder Bewertungen erfolgen. Diese stammen aus unterschiedlichsten Quellen, wobei die Qualität der Quelle (neutral oder interessengebunden) oft eher unkritisch betrachtet wird.
Die Solvency II Standardformel erlaubt zusätzlich zum Ansatz einer Verlust- absorbierung durch Rückstellungen auch den Ansatz einer Verlustabsorbierung durch latente Steuern. Die Verlustabsorbierung durch latente Steuern hängt davon ab, wie werthaltig aktivierte latente Steuern in einer Marktwertbilanz für einen vordefinierten Verlustfall sind. Hier gibt die Standardformel keine klaren Vorgaben, sondern verlangt für den Ansatz einer Verlustabsorbierung und damit einhergehend einer Minderung des Solvenzkapitalbedarfs eine Einschätzung der Werthaltigkeit aktivierter latenter Steuern.
Cyclone Dust Separators are devices often used to filter solid particles from flue gas. Such cyclones are supposed to filter as much solid particles from the carrying gas as possible. At the same time, they should only introduce a minimal pressure loss to the system. Hence, collection efficiency has to be maximized and pressure loss minimized. Both the collection efficiency and pressure loss are heavily influenced by the cyclones geometry. In this paper, we optimize seven geometrical parameters of an analytical cyclone model. Furthermore, noise variables are introduced to the model, representing the non-deterministic structure of the real-world problem. This is used to investigate robustness and sensitivity of solutions. Both the deterministic as well as the stochastic model are optimized with an SMS-EMOA. The SMS-EMOA is compared to a single objective optimization algorithm. For the harder, stochastic optimization problem, a surrogate-model-supported SMS-EMOA is compared against the model-free SMS-EMOA. The model supported approach yields better solutions with the same run-time budget.
Nicht nur seit den jüngsten Flutereignissen ist das Thema „Naturkatastrophen“ bekanntlich in aller Munde. Auch jüngere Mitmenschen haben inzwischen schon relativ häufig sogenannte „Jahrhundert-Fluten“ erlebt. Ob es sich dabei wirklich um Auswirkungen eines weltweiten Klimawandels handelt, ist unter rein wissenschaftlichen Gesichtspunkten über die relativ kurzen Beobachtungszeiträume schwer beweisbar. Fakt ist allerdings, dass Elementarereignisse sich kaum noch in unberührten Gegenden ereignen, so dass die Schadenaufwendungen im Vergleich zur Vergangenheit angestiegen sind. Hier stellt sich also in jedem Fall die Frage nach der generellen Versicherbarkeit. Aber es gibt noch andere Katastrophenereignisse, die die Versicherungsindustrie treffen können.
In facing recent natural and man-made disasters Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) calls for integrative thinking and learning across cultures, disciplines and institutions. In times of increasing complexity, insecurity and uncertainty thinking outside the box becomes essential. This first volume of “Integrative Risk and Security Research” presents related research contributions developed in the context of the 2013 DAAD Alumni Summer School "Coping with Disasters and Climate Extremes - Challenges & Cooperation Potential". It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making.
Learning board games by self-play has a long tradition in computational intelligence for games. Based on Tesauro’s seminal success with TD-Gammon in 1994, many successful agents use temporal difference learning today. But in order to be successful with temporal difference learning on game tasks, often a careful selection of features and a large number of training games is necessary. Even for board games of moderate complexity like Connect-4, we found in previous work that a very rich initial feature set and several millions of game plays are required. In this work we investigate different approaches of online-adaptable learning rates like Incremental Delta Bar Delta (IDBD) or Temporal Coherence Learning (TCL) whether they have the potential to speed up learning for such a complex task. We propose a new variant of TCL with geometric step size changes. We compare those algorithms with several other state-of-the-art learning rate adaptation algorithms and perform a case study on the sensitivity with respect to their meta parameters. We show that in this set of learning algorithms those with geometric step size changes outperform those other algorithms with constant step size changes. Algorithms with nonlinear output functions are slightly better than linear ones. Algorithms with geometric step size changes learn faster by a factor of 4 as compared to previously published results on the task Connect-4.
This paper comprises results on innovation as an outcome of several activities of the Research Centre Insurance Market of the Cologne University of Applied Sciences. It starts with a basic research article on innovation in the insurance industry (section A). Thereafter, conference contributions of the 17th Cologne Insurance Symposium on innovation examine the role of law and actuarial services on the one hand (section B) and present examples of innovation within the insurance industry on the other hand (section C). The final section presents some examples of the project work of the bachelor and master courses as well as a description of the innovative teaching module PAM/PAM (section D).
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
SOMA - Systematische Optimierung von Modellen in IT- und Automatisierungstechnik (Schlussbericht)
(2013)
Das im Rahmen der Förderlinie IngenieurNachwuchs geförderte Forschungsvorhaben Systematische Optimierung von Modellen für Informations- und Automatisierungs-technik (kurz: SOMA) startete im August 2009. Eine wesentliche Zielsetzung war die Entwicklung und Optimierung von Modellen zur Prognose von Zielgrößen. Ein wichtiges Merkmal ist dabei die effiziente Optimierung dieser Modelle, welche es ermöglichen soll, mit einer streng limitierten Anzahl an Auswertungen gute Parametereinstellungen zu bestimmen. Mithilfe dieser genaueren Parametrierungen der unterliegenden Modelle können unter Einbeziehung neuer merkmalserzeugender Verfahren insbesondere für kleine und mittelständische Unternehmen verbesserte Lösungen erzielt werden. Als direkter Gewinn derartiger Verbesserungen konnte für KMUs ein geeignetes Framework für Modellierungs- und Prognoseaufgaben be- reitgestellt werden, sodass mit geringem technischem und personellen Aufwand performante und nahezu optimale Lösungen erzielt werden können. Dieser Schluss-bericht beschreibt die im Projekt durchgeführten Maßnahmen und Ergebnisse.
Es ist schon lange bekannt, dass es ein Nachwuchsproblem im Versicherungs-vertrieb gibt. Die Versicherer haben mit Imageproblemen zu kämpfen – Schlagzeilen über Lustreisen, Falschberatungen oder Provisionsexzesse machen die Runde. Auch der demografische Wandel macht es den Versicherern schwer, geeigneten Nachwuchs für den Vertrieb zu rekrutieren. Da liegt es nahe, dass die Branche sehr daran interessiert ist, mehr Frauen für den Vertrieb zu ge- winnen, zumal sie die erforderlichen Vertriebskompetenzen besitzen. Für Frauen ist die Tätigkeit im Vertrieb allerdings nicht besonders attraktiv; die geringe Sicherheit und die Arbeit am Abend sind die größten Hindernisse, die Frauen nennen. Um die Tätigkeit für Frauen attraktiver zu machen, müssten die Ver- sicherungsunternehmen Anreizsysteme, Strukturen bis hin zur Vertriebskultur verändern. Die Frage ist, ob sich das lohnt. In diesem Zusammenhang ist es für die Unternehmen von besonderer Bedeutung zu wissen, was die Kunden dazu sagen, wenn mehr Frauen im Vertrieb tätig wären.
Für eine angemessene Modellierung von Nat Cat Risiken (beispielsweise im Zusammenhang mit einer Rückversicherungsoptimierung) verwendet man üblicherweise Event Loss Tabellen, die von professionellen externen Anbietern mit regelmäßigen Aktualisierungen zur Verfügung gestellt werden. Diese Modelle sind i. d. R. sehr kostspielig, so dass sie oft nur von Rückversicherern oder Rückversicherungsmaklern für die Anwendung auf die eigenen Kundenportfolios lizenziert werden. Alternativ dazu kann mit öffentlich verfügbaren Informationen eine (wenn auch im Vergleich zu professionellen externen Modellen) vereinfachte Nat Cat Modellierung durchgeführt werden, die Erkenntnisse für eine Rückversicherungsoptimierung ermöglicht.
Für Schadenreserven existieren keine hinreichend fungiblen Märkte und somit auch keine Marktpreise im klassischen Sinn. Für eine Fair Value Bewertung bedarf es also eines geeigneten Modellansatzes. In der Schadenversicherung wird üblicher- weise der Transaktionswert modelliert, wobei hier die korrekte Modellierung der Kapitalkosten einer der zentralen Punkte ist. Der Fair Value der zedierten Reserven kann als Differenz zwischen dem Fair Value der Bruttoreserven und dem Fair Value der Nettoreserven angesetzt werden. Dieser Ansatz berücksichtigt allerdings nicht das Bonitätsrisiko des Rückversicherers. Eine adäquate Anpassung des Bewertungsmodells ist demnach erforderlich.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Dabei liegt jeder Barwertberechnung ein geeignetes Zinsmodell zugrunde. Bei einem speziellen Zinsmodell – der relativ gemischten Verzinsung – lassen sich einfache nichttriviale Beispiele/Zahlungsströme konstruieren, bei denen der Barwert bei jedem Zinssatz null ist. In der vorliegenden Arbeit wird die Frage untersucht, ob es bei anderen Zinsmodellen ebenfalls solche Zahlungsströme gibt. Im Hauptsatz kann die Beantwortung dieser Frage mit Mitteln der Analysis auf die Existenz von Lösungen eines homogenen linearen Gleichungssystems zurückgeführt werden.
An essential task for operation and planning of biogas plants is the optimization of substrate feed mixtures. Optimizing the monetary gain requires the determination of the exact amounts of maize, manure, grass silage, and other substrates. Accurate simulation models are mandatory for this optimization, because the underlying chemical processes are very slow. The simulation models themselves may be time-consuming to evaluate, hence we show how to use surrogate-model-based approaches to optimize biogas plants efficiently. In detail, a Kriging surrogate is employed. To improve model quality of this surrogate, we integrate cheaply available data into the optimization process. Doing so, Multi-fidelity modeling methods like Co-Kriging are employed. Furthermore, a two-layered modeling approach is employed to avoid deterioration of model quality due to discontinuities in the search space. At the same time, the cheaply available data is shown to be very useful for initialization of the employed optimization algorithms. Overall, we show how biogas plants can be efficiently modeled using data-driven methods, avoiding discontinuities as well as including cheaply available data. The application of the derived surrogate models to an optimization process is shown to be very difficult, yet successful for a lower problem dimension.
Modell und Wirklichkeit. Proceedings zum 5. FaRis & DAV Symposium am 6. Dezember 2013 in Köln
(2014)
Das 5. FaRis & DAV Symposium stand unter dem Leitthema „Modell und Wirklich-keit“. Modelle sind zweckorientierte Verdichtungen der Wirklichkeit. Aktuare können nicht die Zukunft vorausberechnen, sie versuchen aber mit Hilfe von Modellen abzuschätzen, was alles in der Zukunft passieren kann. Sie sind darin scheinbar sehr erfolgreich, denn die Versicherungsgesellschaften haben bisher „den Stürmen der Zeit“ erfolgreich widerstanden und haben den Menschen Ver- sicherungsschutz gewährt. Schaut man allerdings auf die Finanzmärkte – sie sind Teil der ökonomischen Wirklichkeit – so lehrt die jüngere Vergangenheit, dass die Realität sich nicht an die Modelle gehalten hat. Da die Finanzmärkte die Versicherungswirtschaft immer stärker durchdringen, können künftig unvollstän- dige oder falsche Modelle die Stabilität der Versicherungswirtschaft gefährden. Modelle prägen jedoch auch die Wahrnehmung der Wirklichkeit und beeinflussen daher die Wirklichkeit. So hat die Modellwelt des Solvency II-Systems massiven Einfluss auf das Produktangebot der Versicherungsunter-nehmen, nicht immer zum Vorteil der Versicherungsnehmer. Das Symposium sollte kritisch hinterfragen, (1) inwieweit unsere aktuariellen „Modellwelten“ noch ihren Zweck erfüllen, (2) wo die grundsätzlichen Grenzen der Modellbildung liegen, (3) in welche Richtung wir unsere Modelle überdenken müssen und (4) welche alternativen Ansätze zur Verfügung stehen.
Am speziellen Fall der Studierenden des Instituts für Versicherungswesen an der Fachhochschule Köln wurde untersucht, wie das Medium E-Book eingeschätzt wird. Die empirische Untersuchung sollte im Wesentlichen die folgende Fragestellung beantworten: Welche Merkmale von E-Book und gedrucktem Buch bestimmen die Ein- stellung der Studierenden zu ihnen? Dabei griff das Projektteam zunächst auf die von K. Messner u.a. vorgeschlagene Skala zur Einstellung gegenüber E-Books zurück (Book Lovers, Technophiles, Printers, and Pragmatists: The Social and Demographic Structure of User Attitudes Toware e-Books, in: College and research libraries, 2012, Nr. 5, Jg. 73, S. 420 ff.). Für die Erhebung wählte das Projektteam die Methode einer Online-Befragung, die sich an aktuell Studierende und ehemalige Studierende des Instituts richtete. Die Befragung folgt einem standardisierten Ansatz und konnte auf 189 verwertbare Fragebögen zurückgreifen. Untersucht wurde der Einfluss folgender Faktoren: Alter, Geschlecht, Vorerfahrung mit digitalen Texten, Internetaffinität und grund-legende Einstellung zur Digitalisierung der Lebensbereiche. Mehrere Regressions- und Pfadanalyse-Ansätze ergaben: Die beiden stärksten Einflussfaktoren waren Vorerfahrung mit digitalen Texten und Internetaffinität; von Geschlecht ging nur eine indirekte Wirkung über Internetaffinität aus. Alter spielte keine Rolle, und auch für die grundlegende Einstellung zur Digitalisierung der Lebensbereiche konnte kein Zusammenhang zur Präferenz von E-Books aufgewiesen werden.
Die lineare Regression ist das bekannteste Verfahren zur Fehlerausgleichung, welches relativ einfach umgesetzt werden kann. Verallgemeinerte lineare Modelle sind eine zweckmäßige Erweiterung dieses Verfahrens, können aber aufgrund ihrer hohen Komplexität i. d. R. nur mit spezieller Software gerechnet werden. Aus diesem Grund wird in dieser Arbeit anhand eines fiktiven Storno-bestandes illustriert, wie man Ausgleichsrechnungen auch mit Hilfe von Gauß Markow Modellen durchführen kann, die mittels EXCEL und Visual Basic ebenfalls noch vergleichsweise einfach umsetzbar sind.
We propose to apply typed Genetic Programming (GP) to the problem of finding surrogate-model ensembles for global optimization on compute-intensive target functions. In a model ensemble, base-models such as linear models, random forest models, or Kriging models, as well as pre- and post-processing methods, are combined. In theory, an optimal ensemble will join the strengths of its comprising base-models while avoiding their weaknesses, offering higher prediction accuracy and robustness. This study defines a grammar of model ensemble expressions and searches the set for optimal ensembles via GP. We performed an extensive experimental study based on 10 different objective functions and 2 sets of base-models. We arrive at promising results, as on unseen test data, our ensembles perform not significantly worse than the best base-model.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
Aufgrund der aktuellen gesetzlichen Rahmenbedingungen können Energieversorger von erneuerbaren Energien (Windkraft, Sonnenenergie, Geothermie) relativ stabile Erträge über längere Zeiträume generieren, so dass eine Investition in erneuerbare Energien für ein Versicherungsunternehmen eine attraktive Anlage darstellen kann. In dieser Arbeit soll daher mit einem vereinfachten Modell analysiert werden, wie eine solche Kapitalanlage sich auf das allgemeine ALM eines Versicherungsunternehmens auswirkt.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Sind diese Zahlungsströme mit Risiken behaftet, so kann der Barwert als Zufallsvariable interpretiert werden. In der vorliegenden Arbeit wird der risikobehaftete Zahlungsstrom als bewertete inhomogene Markov-Kette modelliert. Als Hauptergebnis wird eine Formel für die charakteristische Funktion bzw. die momentenerzeugende Funktion der Zufallsvariablen „Barwert“ hergeleitet. Damit ist die Verteilung der Zufallsvariablen eindeutig festgelegt. In konkreten Fallbeispielen wird gezeigt, wie man mit einer EDV-technischen Umsetzung der Formel den Erwartungswert, die Varianz und die Standardabweichung der Zufallsvariablen „Barwert“ ermitteln kann.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools in der Regel intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standardformel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Ein Wiki ist eine Form von Social Software, die sich insbesondere zur Unterstützung der kollaborativen Wissensverarbeitung eignet und zunehmend im Unternehmenskontext eingesetzt wird. Ein Wiki lebt vom Prinzip der kollektiven Intelligenz. Somit wird die Schaffung einer kritischen Masse an Nutzern zum Erfolgsfaktor. Erkennt der Nutzer einen echten Mehrwert, so ist er gewillt, die Anwendung zu nutzen. Um diesen Mehrwert zu generieren, erfordert es eine funktionale Integration in die Arbeitsprozesse und die Systemlandschaft des Unternehmens. Um dies zu gewährleisten, wird in der vorliegenden Veröffentlichung eine idealtypische Vorgehensweise zur Einführung eines Wikis entwickelt. Es wird gezeigt, wie sich der Grundgedanke des prozessorientierten Wissensmanagements auf die Konzeption eines Wikis übertragen lässt. Die erarbeiteten theoretischen Grundlagen werden an der beispielhaften fachlichen Konzeption eines Wikis zur Unterstützung des Wissensmanagements im Produktentwicklungsprozess eines Lebens-versicherers angewendet. Zu diesem Zweck werden Anwendungsszenarien entwickelt, in denen die Nutzer durch den Einsatz des Wikis profitieren.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Dieser Schlussbericht beschreibt die im Projekt „CI-basierte mehrkriterielle Optimierungsverfahren für Anwendungen in der Industrie“ (CIMO) im Zeitraum von November 2011 bis einschließlich Oktober 2014 erzielten Ergebnisse. Für aufwändige Optimierungsprobleme aus der Industrie wurden geeignete Lösungsverfahren entwickelt. Der Schwerpunkt lag hierbei auf Methoden aus den Bereichen Computational Intelligence (CI) und Surrogatmodellierung. Diese bieten die Möglichkeit, wichtige Herausforderung von aufwändigen, komplexen Optimierungsproblemen zu lösen. Die entwickelten Methoden können verschiedene konfliktäre Zielgrößen berücksichtigen, verschiedene Hierarchieebenen des Problems in die Optimierung integrieren, Nebenbedingungen beachten, vektorielle aber auch strukturierte Daten verarbeiten (kombinatorische Optimierung) sowie die Notwendigkeit teurer/zeitaufwändiger Zielfunktionsberechnungen reduzieren. Die entwickelten Methoden wurden schwerpunktmäßig auf einer Problemstellung aus der Kraftwerkstechnik angewendet, nämlich der Optimierung der Geometrie eines Fliehkraftabscheiders (auch: Zyklon), der Staubanteile aus Abgasen filtert. Das Optimierungsproblem, das diese FIiehkraftabscheider aufwerfen, führt zu konfliktären Zielsetzungen (z.B. Druckverlust, Abscheidegrad). Zyklone können unter anderem über aufwändige Computational Fluid Dynamics (CFD) Simulationen berechnet werden, es stehen aber auch einfache analytische Gleichungen als Schätzung zu Verfügung. Die Verknüpfung von beidem zeigt hier beispielhaft wie Hierarchieebenen eines Optimierungsproblems mit den Methoden des Projektes verbunden werden können. Neben dieser Schwerpunktanwendung konnte auch gezeigt werden, dass die Methoden in vielen weiteren Bereichen Erfolgreich zur Anwendung kommen können: Biogaserzeugung, Wasserwirtschaft, Stahlindustrie. Die besondere Herausforderung der behandelten Probleme und Methoden bietet viele wichtige Forschungsmöglichkeiten für zukünftige Projekte, die derzeit durch die Projektpartner vorbereitet werden.
Land-use intensification and urbanisation processes are degrading ecosystem services in the Guapiaçu-Macacu watershed in the state of Rio de Janeiro, Brazil. Paying farmers to forgo agricultural production activities in order to restore natural watershed services might be a viable means of securing water resources over the long term for the approximately 2.5 million urban water users in the region. This study quantified the costs of changing current land-use patterns to enhance watershed services. These costs are compared to estimates of the avoided water treatment costs for the public potable water supply as a proxy of willingness-to-pay for watershed services. Farm-household data was used to estimate the opportunity costs of abandoning current land uses in order to allow natural vegetation succession; a process that is very likely to improve water quality in terms of reducing erosion and subsequently water turbidity. Opportunity cost estimates were extrapolated to the watershed scale based on land-use classifications and a vulnerability analysis for identifying priority areas for watershed management interventions. Water quality and treatment cost data from the primary local water treatment plant (principal water user in the study area) were analysed to assess the potential demand for watershed services. The conversion of agricultural land uses for the benefit of watershed service provision was found to entail high opportunity costs in the study area, which is near the city of Rio de Janeiro. Alternative, relatively low-cost practices that support watershed conservation do exist for the livestock production systems. Other options include: implementing soil conservation techniques, permanent protection of areas that are vulnerable to erosion, protecting and restoring riparian and headwater areas, and applying more sustainable agricultural practices. These measures have the potential to directly reduce the amount of sediment and nutrients reaching water bodies and, in turn, decrease the costs of treatment required for providing the potable water supply. Based on treatment costs, the state water utility company’s willingness-to-pay for watershed services alone will not be sufficient to compensate farmers for forgoing agricultural production activities in order to improve the provision of additional watershed services. The results suggest that the opportunity costs of land-cover changes at the scale needed to improve water quality will likely exceed the cost of additional investments in water treatment. Monetary incentives conditioned on specific adjustments to existing production systems could offer a complementary role for improving watershed services. The willingness-to-pay analysis, however, only focused on chemical treatment costs and one of a potentially wide range of ecosystem services provided by the natural vegetation in the Guapiaçu-Macacu watershed (water quality maintenance for potable water provision). Other ecosystem services provided by forest cover include carbon sequestration and storage, moderation of extreme weather events, regulation of water flows, landscape aesthetics, and biodiversity protection. Factoring these additional ecosystem services into the willingness-to-pay equation is likely to change the conclusions of the assessment in favour of additional conservation action, either through payments for ecosystem services (PES) or other policy instruments. This effort contributes to the growing body of related scientific literature by offering additional knowledge on how to combine spatially explicit economic and environmental information to provide valuable insights into the feasibility of implementing PES schemes at the scale of entire watersheds. This is relevant to helping inform decision-making processes with respect to the economic scope of incentive-based watershed management in the context of the Guapiaçu-Macacu watershed. Furthermore, the findings of this research can serve long-term watershed conservation initiatives and public policy in other watersheds of the Atlantic Forest biome by facilitating the targeting of conservation incentives for a cost-effective watershed management.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
This volume addresses the topics of Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) from the perspective of participants of the DAAD Alumni Summer School 2013. Contributions from 16 countries are gathered in this volume, thereby sharing specific knowledge on climate extremes, disasters, adaptation and prevention measures as well as current strategies in a range of different national contexts. The DAAD Alumni Summer School opened up a forum for integrative thinking and learning across cultures, disciplines and institutions. This volume is directly linked to the first volume of the series and presents a further outcome of the Summer School 2013. It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making. The outcomes presented in the two volumes are a starting point for further international & transdisciplinary knowledge exchange activities planned for the upcoming years.
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
Management des Langlebigkeitsrisikos. Proceedings zum 7. FaRis & DAV Symposium am 5.12.2014 in Köln
(2015)
Die säkulare Sterblichkeitsverbesserung stellt seit langem alle Alterssicherungssysteme vor große Herausforderungen. Nicht zuletzt die Lebensversicherungswirtschaft als klassischer Anbieter von privaten Rentenversicherungen ist davon betroffen. Eine Analyse der Sterblichkeitsentwicklung kann unter ganz unterschiedlichen Blickwinkeln durchgeführt werden; einige wichtige Aspekte wurden beim 7. FaRis & DAV-Symposium vertieft behandelt.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools i. d. R. intensive Vorarbeiten benötigt werden. Im ersten Teil wurden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. In diesem Teil wird die Projektion der Standardformel auf das Folgejahr durchgeführt und es werden weitere Anwendungen an Hand dieses durchgängigen Datenmodells erläutert.
Economic Scenario Generators (ESGs) sind zu einem unverzichtbaren Instrument für das Risikomanagement von Versicherungsunternehmen geworden. Auf Grund der Langfristigkeit ihres Geschäftsmodells nutzen insbesondere Lebensversicherer ESGs zur wertorientierten Steuerung. Mit Einführung von Solvency II zum 1.1.2016 werden ESGs verstärkt auch bei der Berechnung des erforderlichen Solvenzkapitals eingesetzt. Stochastische Modellierungen der Kapitalmärkte bilden die Grundlage jedes ESGs. Die Modellannahmen und erst recht die Kalibrierung der Modelle bedingen einen sehr großen Gestaltungsspielraum beim Einsatz von ESGs. Das Symposium gibt Anstöße für die Beurteilung der Qualität eines ESGs. Ein weiterer Schwerpunkt des Symposiums ist das Thema "Liquiditäts(risiko-)management für Versicherer". Liquidität ist die Fähigkeit eines Unternehmens, seinen Zahlungsverpflichtungen jederzeit in vollem Umfang nachzukommen. Liquiditätsrisiken erwachsen bei einem Versicherungsunternehmen vor allem aus einer illiquiden Kapitalanlage, aber auch aus der Unsicherheit hinsichtlich des Zeitpunkts und der Höhe der versicherungstechnischen Verpflichtungen. Auf dem Symposium werden Methoden des Liquiditätsmanagements und Methoden der Steuerung des Liquiditätsrisikos vorgestellt und diskutiert.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Ziel des Forschungsprojektes "Mehrkriterielle CI-basierte Optimierungsverfahren für den industriellen Einsatz" (MCIOP) war die Verringerung von Schadstoffemissionen in Kohlekraftwerken. Der wissenschaftliche Fokus lag auf der Entwicklung von Methoden, die in der Lage sind, interpretierbare Modelle für die Schadstoffemissionen automatisch zu generieren. Hierzu wurden mehrkriterielle Optimierungsverfahren entwickelt und eingesetzt. Zur Zeit- und Kostenreduktion wurde die Optimierung durch Surrogat-Modelle erfolgen, die abgestuft mit aufwändigeren Simulationen zum Einsatz kamen („optimization via simulation“). Bei der Untersuchung von Staubabscheidern konnten durch eine mehrkriterielle Optimierung unterschiedliche Zielgrößen, wie z.B. Abscheidegrad und Druckverlust, gleichzeitig berücksichtigt werden.
Dieser Bericht beschreibt die im Projekt MCIOP im Zeitraum von August 2011 bis einschließlich Juni 2015 erzielten Ergebnisse.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Forschendes Lernen versteht sich als ein methodisches Prinzip, das Forschungsorientierung und Verknüpfung von Forschung und Lehre in die Studiengänge und Lehrveranstaltungen integriert und für studentische Lernprozesse nutzbringend anwendet. Studierende sind dabei Teil der Scientific Community.
Dieser Artikel ist ein Erfahrungsbericht, in dem das Konzept des „Forschenden Lernens“ in einer Variante vorgestellt wird, die in den letzten zehn Jahren an einer deutschen Fachhochschule für ingenieurwissenschaftliche Studiengänge entwickelt wurde.
Da es „das“ Forschende Lernen nicht gibt, werden zunächst die für diesen Artikel relevanten Gesichtspunkte zusammengestellt. Darauf aufbauend wird ein Prozessmodell des Forschenden Lernens vorgestellt. Dieses Modell ermöglicht Forschendes Lernen für Bachelor- und Masterstudierende sowie für Doktorandinnen und Doktoranden.
Die neue Welt ist intuitiv und leicht. Die Toleranz der Kunden gegenüber Umständlichkeit und Intransparenz sinkt. Andere Branchen bemühen sich schon heute darum, Kundenbedürfnisse jenseits der Industriegrenzen zu erkennen und zu bedienen. Erfahrungen, die Kunden in der digitalen Welt in anderen Branchen machen, prägen zunehmend ihre Erwartungen auch an Versicherungsunternehmen. Dies stellt die Assekuranz vor enorme Herausforderungen, da sie oft noch eher produktorientiert als kundenzentriert agiert. Der vorliegende Symposiumsband fasst die Kernaussagen der Fachvorträge des 20. Kölner Versicherungssymposiums zusammen. Es werden Ansätze von Versicherungsunternehmen vorgestellt, die sich schon heute darum bemühen, Kundenorientierung zu verbessern und positive Kundenerlebnisse zu ermöglichen.
This paper proposes an experimental methodology for on-line machine learning algorithms, i.e., for algorithms that work on data that are available in a sequential order.
It is demonstrated how established tools from experimental algorithmics (EA) can be applied in the on-line or streaming data setting.
The massive on-line analysis (MOA) framework is used to perform the experiments.
Benefits of a well-defined report structure are discussed.
The application of methods from the EA community to on-line or streaming data is referred to as experimental algorithmics for streaming data (EADS).
In this paper we present a comparison of different data driven modeling methods. The first instance of a data driven linear Bayesian model is compared with several linear regression models, a Kriging model and a genetic programming model.
The models are build on industrial data for the development of a robust gas sensor.
The data contain limited amount of samples and a high variance.
The mean square error of the models implemented in a test dataset is used as the comparison strategy.
The results indicate that standard linear regression approaches as well as Kriging and GP show good results,
whereas the Bayesian approach, despite the fact that it requires additional resources, does not lead to improved results.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette durch lineare Interpolation der Übergangsmatrizen und der Einheitsmatrix sowohl eine unterjährliches als auch ein zeitstetige bewertete inhomogene Markov-Kette konstruiert. Beim unterjährlichen Modell liegt der Fokus auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion und einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen. Beim zeitstetigen Modell steht neben der Konstruktion und den üblichen Ergebnissen für zeitstetige Markov-Ketten, die Verallgemeinerung des Restglieds bzw. des Invarianzsatzes im Mittelpunkt des Interesses.
Nach einer langen Prozess- und Entwicklungsphase ist Solvency II seit dem 1. Januar 2016 als EU-einheitliches Solvenzsystem für Versicherungen eingeführt, wobei eine nicht unerhebliche Her-ausforderung in diesem Zusammenhang – auch im Hinblick auf die flankierenden Prozesse – die doch sehr extensiven Berichtsanforderungen aus der dritten Säule von Solvency II darstellen, die sich in einen quantitativen Teil mit einer Fülle von Tabellen und in einen qualitativen Teil mit mehreren narrativen Berichten aufteilen.
When using machine learning techniques for learning a function approximation from given data it is often a difficult task to select the right modeling technique.
In many real-world settings is no preliminary knowledge about the objective function available. Then it might be beneficial if the algorithm could learn all models by itself and select the model that suits best to the problem.
This approach is known as automated model selection. In this work we propose a
generalization of this approach.
It combines the predictions of several into one more accurate ensemble surrogate model. This approach is studied in a fundamental way, by first evaluating minimalistic ensembles of only two surrogate models in detail and then proceeding to ensembles with three and more surrogate models.
The results show to what extent combinations of models can perform better than single surrogate models and provides insights into the scalability and robustness of the approach. The study focuses on multi-modal functions topologies, which are important in surrogate-assisted global optimization.
Ein großer Teil der älteren Bevölkerung lebt relativ zurückgezogen und ist nur eingeschränkt in das sozialräumliche Umfeld eingebunden. Mit zunehmendem Alter werden die sozialen Netzwerke kleiner und sind stärker durch familiäre Beziehungen geprägt. Allerdings sind die Familienbezüge räumlich entfernt oder sozial prekär, ebenso Kontakte in die Nachbarschaft oder ins weitere Umfeld im Quartier. Auch wenn Kontakte auf vereinzelte Familienbeziehungen oder auf einen engen Ausschnitt des herkunftskulturellen Milieus konzentriert bleiben, ist eine aktive Teilhabe schwach ausgeprägt. Einerseits handelt es sich um einen freiwilligen und bewussten sozialen Rückzug; andererseits resultieren die Gründe für das zurückgezogene Leben aus körperlichen, sozialen und/oder kognitiven Einschränkungen. Die zu Grunde liegenden Bewältigungsstrategien sind mit dem Risiko sozialer Isolation verbunden und münden in eine reduzierte Lebensqualität und die Anfälligkeit für Krankheiten aller Art.
Mit zunehmendem Lebensalter treten darüber hinaus neue Fragen auf, die die Orientierung im Alltag älterer Menschen betreffen: Das betrifft beispielsweise das selbstbestimmte Wohnen, die Gestaltung des Wochen- und Tagesablaufs und reicht bis zur Inanspruchnahme von Dienstleistungen. Ältere Menschen wissen häufig nicht, an wen sie sich mit ihren Fragen wenden können. Vor diesem Hintergrund besteht der Bedarf eines lokalen Lotsensystems, das die Fragen älterer Menschen nicht nur aufnehmen kann, sondern für sie Anschlüsse zu den „richtigen“ Stellen herstellt.
Im Projekt SONA („Seniorenorientierte Navigation“) wurde im Zeitraum 2012-2015 in Zusammenarbeit mit der Sozialverwaltung der Stadt Mülheim an der Ruhr ein Infrastrukturmodell von „Wegweisern“ bzw. „Lotsen“ entwickelt und erprobt, das sowohl die Funktion der Vermittlung von Informationen und Wegen in den verschiedenen Feldern des alltäglichen Lebens als auch die von „Kümmerern“ für Belange älterer Menschen übernimmt. Gefördert wurde das Projektvorhaben im Rahmen der SILQUA-FH-Förderlinie („Soziale Innovationen im Alter“) des Bundeministeriums für Bildung und Forschung mit dem Ziel, den Herausforderungen, die sich angesichts des demografischen Wandels ergeben, angemessen Rechnung zu tragen. Im Vordergrund der Forschungsaktivitäten stand die Verbesserung der Lebensqualität älterer Menschen sowie die Erhaltung und Stärkung ihrer Autonomie.
Der vorliegende Abschlussbericht stellt einen integrierten Handlungsrahmen dar, in dem auf zweierlei Wege über die Ergebnisse des Projekts referiert wird; zum einen werden Erfahrungen und Ergebnisse aus dem Projekt SONA vorgestellt, um sie für die Wissenschaft und Praxis nutzbar zu machen. Zum anderen werden allgemeine Handlungsempfehlungen ausgesprochen, um die Transfermöglichkeiten des Projekts zu erörtern. Zu den zentralen Ergebnissen zählt in diesem Kontext beispielsweise, dass ein Lotsensystem nur dann nachhaltig verankert werden kann, wenn es eine zentrale Koordinations- und Steuerungsverantwortlichkeit gibt. Darüber hinaus ist die Implementierung eines prozesshaften Qualitätsmanagements empfehlenswert, um die interne Organisation mit den Lotsen und Ansprechpartnern in den Themenfeldern sowie den Kontakt mit den Bürgern so zu gestalten, dass auf die Bedürfnisse der verschiedenen Zielgruppen passgenau reagiert werden kann.
In zwei vorangegangen Arbeiten wurde an Hand des durchgängigen Datenmodells der IVW Privat AG die Standardformel und deren wichtigsten Anwendungen diskutiert. In dieser Ausarbeitung wird ergänzend dazu die Konzeption eines internen Modells auf Basis dieses Datenmodells erläutert und die Ergebnisse denjenigen aus den Berechnungen des Standardmodells gegenübergestellt.
This report presents a practical approach to stacked generalization in surrogate model based optimization. It exemplifies the integration of stacking methods into the surrogate model building process. First, a brief overview of the current state in surrogate model based opti- mization is presented. Stacked generalization is introduced as a promising ensemble surrogate modeling approach. Then two examples (the first is based on a real world application and the second on a set of artificial test functions) are presented. These examples clearly illustrate two properties of stacked generalization: (i) combining information from two poor performing models can result in a good performing model and (ii) even if the ensemble contains a good performing model, combining its information with information from poor performing models results in a relatively small performance decrease only.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Quantitatives Risikomanagement. Proceedings zum 9. FaRis & DAV Symposium am 4. Dezember 2015 in Köln
(2016)
Das quantitative Risikomanagement nimmt an Bedeutung immer weiter zu. Hierbei spielt natürlich die interne Modellierung von Risiken eine entscheidende Rolle. In diesem Zusammenhang sind die verschiedenen Modellansätze zu beleuchten und Risikomaße bzw. Risikoaggregationsmethoden im Rahmen der Bewertung kritisch zu hinterfragen. Nicht zu vernachlässigen ist in der Betrachtung des Zusammenspiels verschiedener Risiken und somit auch in der Modellierung gerade bei Versicherungsunternehmen das Asset-Liability-Management.
Das Projekt „Integrierte Sozialplanung für die Versorgung im Alter“ (Akronym: ISPInoVA) der Technischen Hochschule Köln (TH Köln) zielt auf die Entwicklung eines neuen Modells einer integrierten Sozialplanung ab. Einbezogen werden hierbei (1) die verschiedenen Ressort- und Fachbereichsperspektiven (z.B. soziale Hilfe, Gesundheit, Wohnen etc.), (2) die unterschiedlichen Bedarfsgruppen im kommunalen Raum und (3) alle kommunalen Managementebenen. Ein besonderer Fokus wird gelegt auf Beteiligung und Partizipation der verschiedenen beteiligten Akteure sowie auf Innovationen in der Alterspolitik.
Das Erkenntnisinteresse im Rahmen des Schweizer Teilprojektes „Gestaltung der Alterspolitik, Beteiligung und Partizipation in ausgewählten Schweizer Städten und Gemeinden“ liegt im Verständnis und der Analyse aktueller Entwicklungen in der Sozialplanung für ältere Menschen in Schweizer Städten und Gemeinden sowie bei der Frage nach Beteiligungs- und Partizipationsformen, nach möglichen Innovationspromotoren und dem Bezug zur Sozialraumorientierung.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
Standardformel und weitere Anwendungen am Beispiel des durchgängigen Datenmodells der „IVW Leben AG“
(2016)
Der Aufbau der Standardformel ist relativ komplex, wobei für die Durchführung der Berechnungen intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungs-schritte an Hand des durchgängigen Datenmodells der „IVW Leben AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standard-formel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Mit der verstärkten Nutzung digitaler Möglichkeiten im Privat- und Berufsleben werden digitale Kanäle auch für Versicherungsfragen immer selbstverständlicher. Am Markt haben sich bereits einige Online-Portale etabliert, die Versicherungsvergleiche und teils auch den Versicherungsabschluss anbieten. Allerdings gibt es bislang erst wenige bekannte Online-Portale für spezielle Zielgruppen wie beispielsweise für das attraktive Segment der Akademiker.
Die vorliegende Veröffentlichung stellt die wesentlichen Ergebnisse einer studentischen Projektarbeit dar, die im Sommersemester 2016 zum Thema „Online-Portal für Akademiker“ durchgeführt wurde. Sie beschreibt Besonderheiten entlang der Customer Journey von Akademikern in Versicherungsfragen und liefert erste Empfehlungen, wie ein Online-Portal für Akademiker gestaltet werden könnte, um ansprechend auf die Zielgruppe zu wirken.
Aufgrund der rasanten technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Marketing sowie Recht & Datenschutz. Aufgrund der enormen Bedeutung und Vielschichtigkeit des Themas hat sich die Forschungsstelle aktuarielles Risikomanagement (FaRis) bei ihrem 10. FaRis & DAV Symposium mit den quantitativen Aspekten des Begriffs auseinandergesetzt.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.