Refine
Year of publication
Document Type
- Working Paper (87)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (162)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (218) (remove)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
An der Technischen Hochschule Köln wird für Studierende des Informatik-Bachelors im vierten Semester das Modul „Berufspraxis Informatik“ angeboten, bei dem erfahrene Informatiker*innen ein Thema aus ihrem Berufsalltag vorstellen. Die einzelnen Veranstaltungen gliedern sich in einen Vortrags- und einen Workshopteil und werden vorranging offline, d. h. vor Ort, z. T. aber auch online angeboten. Um die aktive Beteiligung der Studierenden bei den Veranstaltungsterminen zu erhöhen, wurde eine Lehrintervention durchgeführt: Die Intervention wies einem Teil der Studierenden eine aktive Rolle z. B. als Moderator*in zu. In der anschließenden Datenerhebung wurden insb. hinderliche bzw. förderliche Faktoren für eine gelungene Aktivierung betrachtet. Neben der aktiven Rolle sowie dem persönlichen Interesse hatte einen großen Einfluss auf die Aktivierung, ob die Veranstaltung online oder offline durchgeführt wurde. In der Online-Variante waren es vorrangig technische und organisatorische Aspekte sowie Hemmnisse der Studierenden sich zu melden, die eine gelungene studentische Beteiligung behinderten.
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
In diesem Beitrag wird ein auf die Lehre in einer Einführungsveranstaltung Statistik für Wirtschaftsingenieure zugeschnittenes digitales Lehrformat der klassischen Präsenzvorlesung aus früheren Jahren gegenübergestellt. Im Mittelpunkt steht der Vergleich der Prüfungsergebnisse verbunden mit der klassischen Vorlesung in den vier Studienjahren vor der COVID-19-Pandemie mit den Ergebnissen zur Online-Lehrveranstaltung des Studienjahres 2020/2021 − mit dem für die Autoren überraschenden Resultat, dass die Prüflinge unter den neuen Rahmenbedingungen signifikant besser abschnitten als in der Vergangenheit. Die Diskussion der empirischen Ergebnisse schließt Verbesserungspotentiale für künftige Präsenz-, Online- und Hybrid-Lehrveranstaltungen mit ein.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Dabei liegt jeder Barwertberechnung ein geeignetes Zinsmodell zugrunde. Bei einem speziellen Zinsmodell – der relativ gemischten Verzinsung – lassen sich einfache nichttriviale Beispiele/Zahlungsströme konstruieren, bei denen der Barwert bei jedem Zinssatz null ist. In der vorliegenden Arbeit wird die Frage untersucht, ob es bei anderen Zinsmodellen ebenfalls solche Zahlungsströme gibt. Im Hauptsatz kann die Beantwortung dieser Frage mit Mitteln der Analysis auf die Existenz von Lösungen eines homogenen linearen Gleichungssystems zurückgeführt werden.
Am speziellen Fall der Studierenden des Instituts für Versicherungswesen an der Fachhochschule Köln wurde untersucht, wie das Medium E-Book eingeschätzt wird. Die empirische Untersuchung sollte im Wesentlichen die folgende Fragestellung beantworten: Welche Merkmale von E-Book und gedrucktem Buch bestimmen die Ein- stellung der Studierenden zu ihnen? Dabei griff das Projektteam zunächst auf die von K. Messner u.a. vorgeschlagene Skala zur Einstellung gegenüber E-Books zurück (Book Lovers, Technophiles, Printers, and Pragmatists: The Social and Demographic Structure of User Attitudes Toware e-Books, in: College and research libraries, 2012, Nr. 5, Jg. 73, S. 420 ff.). Für die Erhebung wählte das Projektteam die Methode einer Online-Befragung, die sich an aktuell Studierende und ehemalige Studierende des Instituts richtete. Die Befragung folgt einem standardisierten Ansatz und konnte auf 189 verwertbare Fragebögen zurückgreifen. Untersucht wurde der Einfluss folgender Faktoren: Alter, Geschlecht, Vorerfahrung mit digitalen Texten, Internetaffinität und grund-legende Einstellung zur Digitalisierung der Lebensbereiche. Mehrere Regressions- und Pfadanalyse-Ansätze ergaben: Die beiden stärksten Einflussfaktoren waren Vorerfahrung mit digitalen Texten und Internetaffinität; von Geschlecht ging nur eine indirekte Wirkung über Internetaffinität aus. Alter spielte keine Rolle, und auch für die grundlegende Einstellung zur Digitalisierung der Lebensbereiche konnte kein Zusammenhang zur Präferenz von E-Books aufgewiesen werden.
Der Fokus dieses Artikels liegt auf den zwischenmenschlichen Herausforderungen und Dynamiken, die dem Teamteaching, bspw. in Form eines Lehr-Duos in der Praxis immanent sind. Hierbei wiederum liegt der Schwerpunkt der Untersuchung auf einer lösungsorientierten Perspektive. Der Hypothese folgend, dass Wertschätzung ein elementarer Faktor interdisziplinärer Lehre ist, wird diese definitorisch, konzeptionell und theoretisch beleuchtet. Hier ergibt sich die Korrelation der professionellen und der persönlichen Ebene als wichtiges Merkmal der Wertschätzung im Teamteaching.
Ein großer Teil der älteren Bevölkerung lebt relativ zurückgezogen und ist nur eingeschränkt in das sozialräumliche Umfeld eingebunden. Mit zunehmendem Alter werden die sozialen Netzwerke kleiner und sind stärker durch familiäre Beziehungen geprägt. Allerdings sind die Familienbezüge räumlich entfernt oder sozial prekär, ebenso Kontakte in die Nachbarschaft oder ins weitere Umfeld im Quartier. Auch wenn Kontakte auf vereinzelte Familienbeziehungen oder auf einen engen Ausschnitt des herkunftskulturellen Milieus konzentriert bleiben, ist eine aktive Teilhabe schwach ausgeprägt. Einerseits handelt es sich um einen freiwilligen und bewussten sozialen Rückzug; andererseits resultieren die Gründe für das zurückgezogene Leben aus körperlichen, sozialen und/oder kognitiven Einschränkungen. Die zu Grunde liegenden Bewältigungsstrategien sind mit dem Risiko sozialer Isolation verbunden und münden in eine reduzierte Lebensqualität und die Anfälligkeit für Krankheiten aller Art.
Mit zunehmendem Lebensalter treten darüber hinaus neue Fragen auf, die die Orientierung im Alltag älterer Menschen betreffen: Das betrifft beispielsweise das selbstbestimmte Wohnen, die Gestaltung des Wochen- und Tagesablaufs und reicht bis zur Inanspruchnahme von Dienstleistungen. Ältere Menschen wissen häufig nicht, an wen sie sich mit ihren Fragen wenden können. Vor diesem Hintergrund besteht der Bedarf eines lokalen Lotsensystems, das die Fragen älterer Menschen nicht nur aufnehmen kann, sondern für sie Anschlüsse zu den „richtigen“ Stellen herstellt.
Im Projekt SONA („Seniorenorientierte Navigation“) wurde im Zeitraum 2012-2015 in Zusammenarbeit mit der Sozialverwaltung der Stadt Mülheim an der Ruhr ein Infrastrukturmodell von „Wegweisern“ bzw. „Lotsen“ entwickelt und erprobt, das sowohl die Funktion der Vermittlung von Informationen und Wegen in den verschiedenen Feldern des alltäglichen Lebens als auch die von „Kümmerern“ für Belange älterer Menschen übernimmt. Gefördert wurde das Projektvorhaben im Rahmen der SILQUA-FH-Förderlinie („Soziale Innovationen im Alter“) des Bundeministeriums für Bildung und Forschung mit dem Ziel, den Herausforderungen, die sich angesichts des demografischen Wandels ergeben, angemessen Rechnung zu tragen. Im Vordergrund der Forschungsaktivitäten stand die Verbesserung der Lebensqualität älterer Menschen sowie die Erhaltung und Stärkung ihrer Autonomie.
Der vorliegende Abschlussbericht stellt einen integrierten Handlungsrahmen dar, in dem auf zweierlei Wege über die Ergebnisse des Projekts referiert wird; zum einen werden Erfahrungen und Ergebnisse aus dem Projekt SONA vorgestellt, um sie für die Wissenschaft und Praxis nutzbar zu machen. Zum anderen werden allgemeine Handlungsempfehlungen ausgesprochen, um die Transfermöglichkeiten des Projekts zu erörtern. Zu den zentralen Ergebnissen zählt in diesem Kontext beispielsweise, dass ein Lotsensystem nur dann nachhaltig verankert werden kann, wenn es eine zentrale Koordinations- und Steuerungsverantwortlichkeit gibt. Darüber hinaus ist die Implementierung eines prozesshaften Qualitätsmanagements empfehlenswert, um die interne Organisation mit den Lotsen und Ansprechpartnern in den Themenfeldern sowie den Kontakt mit den Bürgern so zu gestalten, dass auf die Bedürfnisse der verschiedenen Zielgruppen passgenau reagiert werden kann.
Die Solvency II Standardformel erlaubt zusätzlich zum Ansatz einer Verlust- absorbierung durch Rückstellungen auch den Ansatz einer Verlustabsorbierung durch latente Steuern. Die Verlustabsorbierung durch latente Steuern hängt davon ab, wie werthaltig aktivierte latente Steuern in einer Marktwertbilanz für einen vordefinierten Verlustfall sind. Hier gibt die Standardformel keine klaren Vorgaben, sondern verlangt für den Ansatz einer Verlustabsorbierung und damit einhergehend einer Minderung des Solvenzkapitalbedarfs eine Einschätzung der Werthaltigkeit aktivierter latenter Steuern.
Hintergrund dieser Studie ist die zunehmende Bedeutung von Versicherungsabschlüssen über das Internet. Vor allem bei der Kfz- Versicherung nimmt der Anteil von Online-Abschlüssen zu. Dabei nutzen die Kunden vermehrt unabhängige Vergleichsportale, wie sie bereits auch im Reise- und Energiemarkt stark verbreitet sind. Zeitgleich sind Vergleichsportale aber auch in die Diskussion gekommen: Fehlende Transparenz, mangelnde Benutzerfreundlichkeit und zum Teil unseriöser Umgang mit Daten wurden in der Presse zumindest einzelnen Portalen vorgeworfen. Die Studie soll daher klären, wie Verbraucher mit Vergleichsportalen umgehen, wie transparent diese sind und wie sich Transparenz und Nutzerfreundlichkeit weiter ausbauen lassen. Dazu testeten wir anhand einer annähernd repräsentativen Stichprobe von 500 internetaktiven privaten Fahrzeughaltern jeweils zwei unterschiedliche Portale von Vergleichsrechnern und zum Vergleich jeweils ein Website eines Direktversicherers. Im Rahmen dieser 1.500 Tests wurden nicht nur Bearbeitungsdauer, Preis und Leistungen der empfohlenen Produkte erfasst. sondern auch die subjektiven Bewertungen der Tester zu Bedienungsfreundlichkeit, Transparenz und Datenschutz. In der Untersuchung wurden 5 gewerbliche Vergleichsportale, 2 Vergleichs- rechner, die von Verbraucherschützern bereitgestellt werden, sowie aus Vergleichsgründen drei Websites von führenden Direktversicherern berücksichtigt. Die Ergebnisse zeigen: Vergleichsportale werben gerne mit dem Versprechen hoher Ersparnisse. Verglichen mit der tatsächlichen derzeitigen Versicherungsausstattung unserer internetaktiven Stichprobe zeigen sich diese Zahlen meist übertrieben. Dennoch: Im Durchschnitt fanden die Tester günstige Verträge. Und mindestens jeder Zweite könnte durch einen Wechsel deutlich sparen – im Mittel etwas mehr als 100 € jährlich. Neben einer breiten Marktübersicht zeichnen sich die besten Portale aus Anwendersicht vor allem durch ihre besondere Benutzerfreund- lichkeit aus. Viel Kritik gibt es dagegen für den Datenhunger und den Eindruck mangelnder Seriosität insbesondere eines der Portale. Ferner wird die Gebühr zur Nutzung des Rechners der Stiftung Warentest bemängelt, obwohl hier zugleich die günstigsten Tarife errechnet wurden. Ein kritisches Thema bei Vergleichsportalen ist die Transparenz der Geschäftsmodelle. Mit Ausnahme der Portale der Direktversicherer und der beiden Angebote der Verbraucherschützer finanzieren sich die getesteten Portale nämlich vorwiegend über Provisionen. Diese erhalten Sie, ähnlich einem normalen Makler oder Vertreter, für die Vertrags- vermittlung von den Versicherungsgesellschaften. Das wurde im Test aber höchstens jedem zweiten Nutzer bewusst. Und in noch einer Frage irrten viele der Befragten: Denn die meisten Portale decken keineswegs den ganzen Markt ab, sondern meist nur einen mehr oder weniger großen Teil der Anbieter. Das führt zu großen Unterschieden in den Produktempfeh- lungen und Preisen je nach genutztem Portal. Wobei kein Portal immer das günstigste ist. Für die Verbraucher empfiehlt es sich daher, jeweils mehrere Portale zu vergleichen. Im Gesamturteil der Anwender schneiden die Vergleichsportale nicht besser oder schlechter ab als die Websites der Direktversicherer. Dennoch: Die besten Portale können den Großteil ihrer jeweiligen Nutzer überzeugen, verbunden mit einer hohen Bereitschaft, die Portale auch in Zukunft wieder zu verwenden. Fazit: Bezüglich Marktabdeckung und Provisionsfinanzierung müssen die Portale ihre Nutzer noch aktiver aufklären. Auch Benutzerfreund- lichkeit ist noch nicht bei allen Vergleichsrechnern gegeben. Und wie überall im Internet gilt auch hier, dass die Anwender vorsichtig mit den persönlichen Daten umgehen sollten. Ansonsten lässt sich aber feststellen: Gute Portale bieten günstige Versicherungen bei moderatem Aufwand. Sie unterstützen die Nutzer bei der Suche nach dem richtigen Versicherungsumfang, erläutern Fachbegriffe, und geben Orientierung und Entscheidungshilfen durch Kundenbewertungen und Testurteile. Das gilt für gewerbliche Portale ebenso wie für die Angebote der Verbraucher- schützer, die ihre Neutralität und ihren Provisionsverzicht allerdings noch etwas mehr betonen müssten, um in der Präferenz der Anwender zu gewinnen.
Der MCEV stellt nicht nur in der Lebensversicherung, sondern auch in der Schadenversicherung einen alternativen Ansatz dar, um den ökonomischen Wert eines Unternehmens zu ermitteln. Dabei ist die Ermittlung des MCEV in der Schaden-versicherung durchaus weniger komplex als in der Lebensversicherung, da das Phänomen der Stochastik in der Stochastik i. d. R. nicht auftritt. In dieser Arbeit ist für die Schadenversicherung ein vereinfachtes Formelwerk für den MCEV ohne Renewals dargestellt, mit dem die wichtigsten Auswirkungen des Embedded Values in der Scha-denversicherung getestet werden kann.
Für eine angemessene Modellierung von Nat Cat Risiken (beispielsweise im Zusammenhang mit einer Rückversicherungsoptimierung) verwendet man üblicherweise Event Loss Tabellen, die von professionellen externen Anbietern mit regelmäßigen Aktualisierungen zur Verfügung gestellt werden. Diese Modelle sind i. d. R. sehr kostspielig, so dass sie oft nur von Rückversicherern oder Rückversicherungsmaklern für die Anwendung auf die eigenen Kundenportfolios lizenziert werden. Alternativ dazu kann mit öffentlich verfügbaren Informationen eine (wenn auch im Vergleich zu professionellen externen Modellen) vereinfachte Nat Cat Modellierung durchgeführt werden, die Erkenntnisse für eine Rückversicherungsoptimierung ermöglicht.
Real-world problems such as computational fluid dynamics simulations and finite element analyses are computationally expensive. A standard approach to mitigating the high computational expense is Surrogate-Based Optimization (SBO). Yet, due to the high-dimensionality of many simulation problems, SBO is not directly applicable or not efficient. Reducing the dimensionality of the search space is one method to overcome this limitation. In addition to the applicability of SBO, dimensionality reduction enables easier data handling and improved data and model interpretability. Regularization is considered as one state-of-the-art technique for dimensionality reduction. We propose a hybridization approach called Regularized-Surrogate-Optimization (RSO) aimed at overcoming difficulties related to high-dimensionality. It couples standard Kriging-based SBO with regularization techniques. The employed regularization methods are based on three adaptations of the least absolute shrinkage and selection operator (LASSO). In addition, tree-based methods are analyzed as an alternative variable selection method. An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than standard SBO to obtain comparable results. The pros and cons of the RSO approach are discussed, and recommendations for practitioners are presented.
Die klassische Form der Unternehmenssteuerung durch einfache Unternehmenskenn-ziffern ist inzwischen fast überall durch wertorientierte Steuerungssysteme ersetzt worden, die Risiko und Rendite in sinnvoller Weise gegenüberstellen. In diesem Zusammenhang ist die korrekte Ermittlung des Kapitalbedarfs als dem relevanten Faktor zur Produktion von Versicherungsschutz unverzichtbar. Um hierbei die einzelnen Einflussgrößen hier ursachegerecht separieren zu können, sollte eine adäquate Performancemessung vorgenommen werden.
Die Reinhaltung der Luft spielt heute mehr denn je eine wichtige Rolle. In Gesellschaft und Politik wird über Dieselfahrverbote in Innenstädten diskutiert, um die Feinstaubbelastung in den Städten zu senken. Besonders die Industrie steht vor der Aufgabe, den Partikelausstoß zu senken und Wege zu finden, um eine gesunde Luft zu wahren. Zur Abgasreinigung werden oft Filter eingesetzt. Diese weisen aber hohe Energieverluste auf. Die ständige Reinigung oder der Wechsel der Filter kostet Zeit und Geld. Daher ist neben Filtern eine der gängigsten Methoden die Abgasreinigung durch Staubabscheider. Staubabscheider funktionieren filterlos. Dadurch entfällt eine wiederkehrende Filterreinigung, beziehungsweise der regelmäßige Filtertausch. Die Technik der Staubabscheider hat ihren Ursprung in der Natur. Aus der Betrachtung von Zyklonen (in den Tropen vorkommende Wirbelstürme) wurde ein Verfahren entwickelt, um staubhaltige Fluide von den Verunreinigungen zu trennen. Die Abgasreinigung mittels Zyklon-Staubabscheider wird in vielen verschiedenen
Industrien eingesetzt, heutzutage meist als Vorabscheider. Beispiele hierfür sind die
braunkohleverarbeitende Industrie, die Gesteinsindustrie und die papier- oder holzverarbeitende Industrie, insbesondere dort, wo viel Staub oder auch größere Späne in die Luft gelangen. Auch im Alltag sind Zyklon-Staubabscheider zu finden. Hier kommen sie in beutellosen Staubsaugern oder als Vorabscheider von Staubsaugern bei der Holzverarbeitung zum Einsatz.
Die Vorgänge im Staubabscheider-Zyklon sind bereits durch mathematische Modelle beschrieben worden. Hierbei handelt es sich um Näherungen, jedoch nicht um
die exakte Abbildung der Realität, weswegen bis heute die Modelle immer wieder weiterentwickelt und verbessert werden. Eine CFD (Computional Fluid Dynamics)Simulation bringt meist die besten Ergebnisse, ist jedoch sehr aufwendig und muss für jeden Staubabscheider neu entwickelt werden. Daher wird noch immer an der Weiterentwicklung der mathematischen Modelle gearbeitet, um eine Berechnung zu optimieren, die für alle Staubabscheider gilt. Muschelknautz hat in diesem Bereich über Jahre hinweg geforscht und so eine der
wichtigsten Methoden zur Berechnung von Zyklonabscheidern entwickelt. Diese stimmt oft sehr gut mit der Realität überein. Betrachtet man jedoch die Tiefe des Tauchrohres im Zyklon, fällt auf, dass der Abscheidegrad maximal wird, wenn das Tauchrohr nicht in den Abscheideraum ragt, sondern mit dem Deckel des Zyklons abschließt. Dieses Phänomen tritt weder bei den durchgeführten CFD-Simulationen noch bei den durchgeführten Messungen am Bauteil auf. Ziel der Arbeit ist es, diese Unstimmigkeit zwischen Berechnung und Messung zu untersuchen und Gründe hierfür herauszufinden. Darum wird zunächst der Stand der Technik und das Muschelknautz’sche Modell
vorgestellt, um im Anschluss die Berechnungsmethode genauer zu untersuchen. So soll festgestellt werden, ob die Ursache der Abweichungen zur Realität bei einer Analyse der Berechnungsmethode ersichtlich wird. Beispielsweise soll überprüft werden, ob die Schlussfolgerung einer maximalen Abscheideleistung bei minimaler Tauchrohrtiefe von speziellen Faktoren abhängt. Es wird eine Reihe von Beispielrechnungen durchgeführt, mit deren Hilfe der Zusammenhang
von Abscheidegrad und Tauchrohrtiefe ersichtlich wird. Hierbei werden die Geometrieparameter des Abscheiders variiert, um deren Einfluss auf die Tauchrohrtiefe
zu untersuchen.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
This paper introduces UniFIeD, a new data preprocessing method for time series. UniFIeD can cope with large intervals of missing data. A scalable test function generator, which allows the simulation of time series with different gap sizes, is presented additionally. An experimental study demonstrates that (i) UniFIeD shows a significant better performance than simple imputation methods and (ii) UniFIeD is able to handle situations, where advanced imputation methods fail. The results are independent from the underlying error measurements.
Verunreinigungen im Wassernetz können weite Teile der Bevölkerung unmittelbar gefährden. Gefahrenpotenziale bestehen dabei nicht nur durch mögliche kriminelle Handlungen und terroristische Anschläge. Auch Betriebsstörungen, Systemfehler und Naturkatastrophen können zu Verunreinigungen führen.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Drinking water supply and distribution systems are critical infrastructure that has to be well maintained for the safety of the public. One important tool in the maintenance of water distribution systems (WDS) is flushing. Flushing is a process carried out in a periodic fashion to clean sediments and other contaminants in the water pipes. Given the different topographies, water composition and supply demand between WDS no single flushing strategy is suitable for all of them. In this report a non-exhaustive overview of optimization methods for flushing in WDS is given. Implementation of optimization methods for the flushing procedure and the flushing planing are presented. Suggestions are given as a possible option to optimise existing flushing planing frameworks.
Land-use intensification and urbanisation processes are degrading ecosystem services in the Guapiaçu-Macacu watershed in the state of Rio de Janeiro, Brazil. Paying farmers to forgo agricultural production activities in order to restore natural watershed services might be a viable means of securing water resources over the long term for the approximately 2.5 million urban water users in the region. This study quantified the costs of changing current land-use patterns to enhance watershed services. These costs are compared to estimates of the avoided water treatment costs for the public potable water supply as a proxy of willingness-to-pay for watershed services. Farm-household data was used to estimate the opportunity costs of abandoning current land uses in order to allow natural vegetation succession; a process that is very likely to improve water quality in terms of reducing erosion and subsequently water turbidity. Opportunity cost estimates were extrapolated to the watershed scale based on land-use classifications and a vulnerability analysis for identifying priority areas for watershed management interventions. Water quality and treatment cost data from the primary local water treatment plant (principal water user in the study area) were analysed to assess the potential demand for watershed services. The conversion of agricultural land uses for the benefit of watershed service provision was found to entail high opportunity costs in the study area, which is near the city of Rio de Janeiro. Alternative, relatively low-cost practices that support watershed conservation do exist for the livestock production systems. Other options include: implementing soil conservation techniques, permanent protection of areas that are vulnerable to erosion, protecting and restoring riparian and headwater areas, and applying more sustainable agricultural practices. These measures have the potential to directly reduce the amount of sediment and nutrients reaching water bodies and, in turn, decrease the costs of treatment required for providing the potable water supply. Based on treatment costs, the state water utility company’s willingness-to-pay for watershed services alone will not be sufficient to compensate farmers for forgoing agricultural production activities in order to improve the provision of additional watershed services. The results suggest that the opportunity costs of land-cover changes at the scale needed to improve water quality will likely exceed the cost of additional investments in water treatment. Monetary incentives conditioned on specific adjustments to existing production systems could offer a complementary role for improving watershed services. The willingness-to-pay analysis, however, only focused on chemical treatment costs and one of a potentially wide range of ecosystem services provided by the natural vegetation in the Guapiaçu-Macacu watershed (water quality maintenance for potable water provision). Other ecosystem services provided by forest cover include carbon sequestration and storage, moderation of extreme weather events, regulation of water flows, landscape aesthetics, and biodiversity protection. Factoring these additional ecosystem services into the willingness-to-pay equation is likely to change the conclusions of the assessment in favour of additional conservation action, either through payments for ecosystem services (PES) or other policy instruments. This effort contributes to the growing body of related scientific literature by offering additional knowledge on how to combine spatially explicit economic and environmental information to provide valuable insights into the feasibility of implementing PES schemes at the scale of entire watersheds. This is relevant to helping inform decision-making processes with respect to the economic scope of incentive-based watershed management in the context of the Guapiaçu-Macacu watershed. Furthermore, the findings of this research can serve long-term watershed conservation initiatives and public policy in other watersheds of the Atlantic Forest biome by facilitating the targeting of conservation incentives for a cost-effective watershed management.
The fashion industry is one of the most harmful industries in the world. Many garments are produced and dyed on a petroleum base; vast amounts of water are used in the production of textiles and garments; and environmentally harmful chemicals are released into the environment during production. Working towards sustainability in fashion is more relevant than ever. One way of doing this is to design garments with nature. To do so, I am presenting an example of biotechnology in the field of dyeing techniques. The project is innovative and future-driven in that it offers alternatives to industrial, petroleum-based dyeing techniques. A number of bacteria produce different colored pigments. The bacteria strain Janthinobacterium lividum, for example, is considered nontoxic and safe to handle. It is found in nature on the skin of the red-backed salamander. The bacteria produce dark purple pigments called violacein. With the pigment’s antifungal and antibacterial characteristics, it protects itself and its host from intruders. Can the pigment, however, be applied to dye textiles?
Surrogate-assisted optimization has proven to be very successful if applied to industrial problems. The use of a data-driven surrogate model of an objective function during an optimization cycle has many bene ts, such as being cheap to evaluate and further providing both information about the objective landscape and the parameter space. In preliminary work, it was researched how surrogate-assisted optimization can help to optimize the structure of a neural network (NN) controller. In this work, we will focus on how surrogates can help to improve the direct learning process of a transparent feed-forward neural network controller. As an initial case study we will consider a manageable real-world control task: the elevator supervisory group problem (ESGC) using a simplified simulation model. We use this model as a benchmark which should indicate the applicability and performance of surrogate-assisted optimization to this kind of tasks. While the optimization process itself is in this case not onsidered expensive, the results show that surrogate-assisted optimization is capable of outperforming metaheuristic optimization methods for a low number of evaluations. Further the surrogate can be used for signi cance analysis of the inputs and weighted connections to further exploit problem information.
Faserverbundwerkstoffe (FVW) und Composites haben in der Luft- und Raumfahrtindustrie, im Automobilbau, beim Bau von Windenergieanlagen und in vielen weiteren zukunftsträchtigen Branchen eine große Bedeutung. Maßnahmen, die ein Erkennen von Schädigungen simultan zur Entstehung ermöglichen und Restbetriebszeiten prognostizieren können, sind geeignet, die Lebensdauer von FVW-Konstruktionen zu erhöhen. Darüber hinaus ist eine zustandsorientierte und somit kosteneffektive Wartung dieser Bauteile möglich.
Sowohl die Prognose, als auch die Detektion von Schäden würde den ressourcenschonenden Einsatz dieser Werkstoff-gruppe ermöglichen. Das sogenannte Structural Health Monitoring (SHM) bezeichnet in diesem Zusammenhang eine Methode, die es ermöglicht, kontinuierlich Anhalts-punkte über die Funktionsfähigkeit von Bauteilen und Konstruktionen zu erhalten.
Dieser Artikel beschreibt die Planung, Durchführung und Analyse von SHM-Experimenten. Das Hauptziel bestand in der Planung von Experimenten zur Gewinnung von Messdaten mittels piezoelektrischen Elementen auf Versuchstafeln, bei denen bewusst trukturbeschädigungen eingebracht wurden. Statistische Auswertungsmethoden sollen auf ihre Eignung getestet werden, Rückschlüsse aus den experimentell gewonnenen Daten auf die Art der Strukturbeschädigungen zu ziehen.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools in der Regel intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standardformel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Standardformel und weitere Anwendungen am Beispiel des durchgängigen Datenmodells der „IVW Leben AG“
(2016)
Der Aufbau der Standardformel ist relativ komplex, wobei für die Durchführung der Berechnungen intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungs-schritte an Hand des durchgängigen Datenmodells der „IVW Leben AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standard-formel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools i. d. R. intensive Vorarbeiten benötigt werden. Im ersten Teil wurden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. In diesem Teil wird die Projektion der Standardformel auf das Folgejahr durchgeführt und es werden weitere Anwendungen an Hand dieses durchgängigen Datenmodells erläutert.
This report presents a practical approach to stacked generalization in surrogate model based optimization. It exemplifies the integration of stacking methods into the surrogate model building process. First, a brief overview of the current state in surrogate model based opti- mization is presented. Stacked generalization is introduced as a promising ensemble surrogate modeling approach. Then two examples (the first is based on a real world application and the second on a set of artificial test functions) are presented. These examples clearly illustrate two properties of stacked generalization: (i) combining information from two poor performing models can result in a good performing model and (ii) even if the ensemble contains a good performing model, combining its information with information from poor performing models results in a relatively small performance decrease only.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht den einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparvermögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In der hier vorliegenden Arbeit untersuchen wir zeit-diskrete Versionen des Modells, die wir mit Hilfe von Monte-Carlo-Simulationen auswerten. Hierbei berechnen wir verschiedenen Rendite-Risiko-Profile des kollektiven Sparens und vergleichen diese mit entsprechenden Profilen für nicht-kollektive Anlagestrategien (Constant-Mix-, Buy-and- Hold- und CPPI-Strategien). Der Vergleich zeigt einen klaren komparativen Vorteil des kollektiven Sparens.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Die neue Welt ist intuitiv und leicht. Die Toleranz der Kunden gegenüber Umständlichkeit und Intransparenz sinkt. Andere Branchen bemühen sich schon heute darum, Kundenbedürfnisse jenseits der Industriegrenzen zu erkennen und zu bedienen. Erfahrungen, die Kunden in der digitalen Welt in anderen Branchen machen, prägen zunehmend ihre Erwartungen auch an Versicherungsunternehmen. Dies stellt die Assekuranz vor enorme Herausforderungen, da sie oft noch eher produktorientiert als kundenzentriert agiert. Der vorliegende Symposiumsband fasst die Kernaussagen der Fachvorträge des 20. Kölner Versicherungssymposiums zusammen. Es werden Ansätze von Versicherungsunternehmen vorgestellt, die sich schon heute darum bemühen, Kundenorientierung zu verbessern und positive Kundenerlebnisse zu ermöglichen.
SOMA - Systematische Optimierung von Modellen in IT- und Automatisierungstechnik (Schlussbericht)
(2013)
Das im Rahmen der Förderlinie IngenieurNachwuchs geförderte Forschungsvorhaben Systematische Optimierung von Modellen für Informations- und Automatisierungs-technik (kurz: SOMA) startete im August 2009. Eine wesentliche Zielsetzung war die Entwicklung und Optimierung von Modellen zur Prognose von Zielgrößen. Ein wichtiges Merkmal ist dabei die effiziente Optimierung dieser Modelle, welche es ermöglichen soll, mit einer streng limitierten Anzahl an Auswertungen gute Parametereinstellungen zu bestimmen. Mithilfe dieser genaueren Parametrierungen der unterliegenden Modelle können unter Einbeziehung neuer merkmalserzeugender Verfahren insbesondere für kleine und mittelständische Unternehmen verbesserte Lösungen erzielt werden. Als direkter Gewinn derartiger Verbesserungen konnte für KMUs ein geeignetes Framework für Modellierungs- und Prognoseaufgaben be- reitgestellt werden, sodass mit geringem technischem und personellen Aufwand performante und nahezu optimale Lösungen erzielt werden können. Dieser Schluss-bericht beschreibt die im Projekt durchgeführten Maßnahmen und Ergebnisse.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
When designing or developing optimization algorithms, test functions are crucial to evaluate
performance. Often, test functions are not sufficiently difficult, diverse, flexible or relevant to real-world
applications. Previously,
test functions with real-world relevance were generated by training a machine learning model based on
real-world data. The model estimation is used as a test function.
We propose a more principled approach using simulation instead of estimation.
Thus, relevant and varied test functions
are created which represent the behavior of real-world fitness landscapes.
Importantly, estimation can lead to excessively smooth test functions
while simulation may avoid this pitfall. Moreover, the simulation
can be conditioned by the data, so that the simulation reproduces the training data
but features diverse behavior in unobserved regions of the search space.
The proposed test function generator is illustrated with an intuitive, one-dimensional
example. To demonstrate the utility of this approach it
is applied to a protein sequence optimization problem.
This application demonstrates the advantages as well as practical limits of simulation-based
test functions.
Cyclone Dust Separators are devices often used to filter solid particles from flue gas. Such cyclones are supposed to filter as much solid particles from the carrying gas as possible. At the same time, they should only introduce a minimal pressure loss to the system. Hence, collection efficiency has to be maximized and pressure loss minimized. Both the collection efficiency and pressure loss are heavily influenced by the cyclones geometry. In this paper, we optimize seven geometrical parameters of an analytical cyclone model. Furthermore, noise variables are introduced to the model, representing the non-deterministic structure of the real-world problem. This is used to investigate robustness and sensitivity of solutions. Both the deterministic as well as the stochastic model are optimized with an SMS-EMOA. The SMS-EMOA is compared to a single objective optimization algorithm. For the harder, stochastic optimization problem, a surrogate-model-supported SMS-EMOA is compared against the model-free SMS-EMOA. The model supported approach yields better solutions with the same run-time budget.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Sensor placement for contaminant detection in water distribution systems (WDS) has become a topic of great interest aiming to secure a population's water supply. Several approaches can be found in the literature with differences ranging from the objective selected to optimize to the methods implemented to solve the optimization problem. In this work we aim to give an overview of the current work in sensor placement with focus on contaminant detection for WDS. We present some of the objectives for which the sensor placement problem is defined along with common optimization algorithms and Toolkits available to help with algorithm testing and comparison.
In den letzten Jahren hat sich an den Hochschulen und Universitäten im deutschsprachigen Raum eine große Vielfalt des Scholarship of Teaching and Learning (SoTL) herausgebildet. An der zunehmenden Verbreitung und Rezeption ist zu erkennen, dass SoTL vielfältige Potentiale für die (Weiter-)Entwicklung und engere Verzahnung fachspezifischer Lehre mit dem hochschuldidaktischen Gesamtanspruch aufweist. Ziel dieses Forschungsbands ist es, auf Basis einer Bestandsaufnahme ausgewählter aktueller SoTL-Projekte an deutschsprachigen Hochschulen eine forschungsgeleitete Auseinandersetzung mit der Hochschullehre zu führen, in der insbesondere Lehrende, Forschende und Hochschuldidaktiker*innen, aber auch Studierende involviert sind. Der Band versammelt Beiträge zu den Themenfeldern Entwicklung innovativer Lehrformate und Anwendungen, Förderung reflexiver Kompetenzen sowie SoTL und Gemeinschaft – Institutions-, disziplinen- und statusgruppenübergreifende Zusammenarbeit und richtet sich an Hochschullehrende und Forschende aller Fachdisziplinen.
Die betriebliche Altersversorgung ist neben der gesetzlichen und der privaten Altersvorsorge eine der drei Säulen der Alterssicherung in Deutschland. Ende 2012 beliefen sich die Deckungsmittel der betrieblichen Altersversorgung in Deutschland auf 500,7 Milliarden Euro. Im Zeitraum 2009 bis 2011 hatten ca. 60% aller sozialversicherungspflichtigen Arbeitnehmer eine Anwartschaft auf betriebliche Altersversorgung. Mit Pensionsplänen sind aus Sicht der Unternehmen Risiken verbunden, die es zu erkennen, zu bewerten und zu steuern gilt. Wie ist der aktuelle Stand des Risikomanagements in der betrieblichen Altersversorgung in Deutschland? Dieser Frage ging das 4. FaRis & DAV-Symposium anhand ausgewählter Aspekte nach. Die Vorträge des Symposiums sind in diesem Konferenzband zusammengefasst.
Resilienz bezeichnet die Fähigkeit eines Systems nach einem exogenen Schock wieder in den Normalzustand zurück zu kehren. Wenn beispielsweise durch eine Katastrophe die Wasserversorgung der Bevölkerung nicht mehr gewährleistet ist, so geht es nicht um die Frage, was die Wiederherstellung der Versorgung kostet, sondern mit welchen Maßnahmen die Wiederherstellung überhaupt möglich ist. Eine Versorgungsstruktur ist also so zu gestalten, dass im Vorfeld schon klar ist, wie sie im Katastrophenfall wieder hergestellt werden kann. Bezogen auf ein Wirtschaftsunternehmen ist die Frage nach der Resilienz eine Erweiterung des klassischen Risikomanagements. Das 11. FaRis & DAV-Symposium bot einen Einblick in die Resilienzanalyse beim Katastrophenschutz, zeigte wie ein Resilienz-Management für ein Wirtschaftsunternehmen aussehen kann und schließlich wurde das Resilienz-Konzept auf Fragen der Versicherungsaufsicht übertragen.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
In 2021 feiert die Technische Hochschule Köln (TH Köln) ihr 50-jähriges Jubiläum und damit auch das Institut für Versicherungswesen (ivwKöln), wobei sich inzwischen Forschung, Lehre und Transfer in die Praxis auf alle Risikofelder des Versicherungsgeschäfts und alle Kompetenzbereiche der Versicherungsunternehmen beziehen. Anlässlich dieses Jubiläums hat das ivwKöln daher in einem Band „Risiko im Wandel. Herausforderung für die Versicherungswirtschaft“, der in 2022 als Open Access erscheinen wird, die Vielfalt von Forschung und Praxis aller Mitwirkenden an der Arbeit des Institutes gebündelt zusammengefasst. Der nachfolgende Beitrag soll schon vorab einen Überblick der verschiedenen Forschungsthemen geben.
Die zunehmende Automatisierung sowie Vernetzung des automobilen Verkehrs besitzt potenziell tiefgreifende Auswirkungen auf die Kfz-Versicherung. Neben der Frage nach der Haftung für Verkehrsunfälle spielen dabei ebenso eine sich verändernde Risikolandschaft sowie mögliche Verschiebungen der Kundenschnittstelle durch servicebasierte Mobilitätskonzepte eine strategisch zentrale Rolle. Darüber hinaus führt die zunehmende Vernetzung der Fahrzeuge zu einem sich verschärfenden Wettkampf um den Zugriff auf relevante Daten aus dem Fahrzeug.
Beim 14. FaRis & DAV Symposium beleuchteten die Vortragenden diese Fragen hinsichtlich ihrer Auswirkungen auf das Geschäftsmodell der Kfz-Versicherung, um auf dieser Basis die Herausforderungen und mögliche Lösungsansätze zu diskutieren.
Die Frage, ob Big Data und Künstliche Intelligenz (KI) die Versicherungswirtschaft revolutionieren, beschäftigt schon seit einiger Zeit unsere Gesellschaft sowie im Besonderen die Versicherungsbranche. Die Fortschritte in jüngster Vergangenheit in der KI und bei der Auswertung großer Datenmengen sowie die große mediale Aufmerksamkeit sind immens. Somit waren Big Data und Künstliche Intelligenz auch die diesjährigen vielversprechenden Themen des 24. Kölner Versicherungs-
symposiums der TH Köln am 14. November 2019: Das ivwKöln hatte zum fachlichen Austausch eingeladen, ein attraktives Vortragsprogramm zusammengestellt und Networking-Gelegenheiten für die Gäste aus Forschung und Praxis vorbereitet. Der vorliegende Proceedings-Band umfasst die Vortragsinhalte der verschiedenen Referenten.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Architecural aproaches are considered to simplify the generation of re-usable building blocks in the field of data warehousing. While SAP’s Layer Scalable Architecure (LSA) offers a reference model for creating data warehousing infrastructure based on SAP software, extented reference models are needed to guide the integration of SAP and non-SAP tools. Therefore, SAP’s LSA is compared to the Data Warehouse Architectural Reference Model (DWARM), which aims to cover the classical data warehouse topologies.
Recovery after extreme events - Lessons learned and remaining challenges in Disaster Risk Reduction
(2017)
Disasters such as the Indian Ocean Tsunami 2004, but also other extreme events such as cyclones, earthquakes and tsunami substantially affect the lives of many thousands of people - they are events radically and abruptly changing local circumstances and needs. At the same time they can significantly reshape global paradigms of Disaster Risk Reduction (DRR). Such events also bring to light the challenges in coordinating assistance from the “global community” with all the intended and un-intended effects. Two of the most pressing questions therefore are whether the different actors have learned from the disaster and whether processes of DRR and livelihood improvements have been implemented successfully.
This volume gathers selected papers addressing the following key questions:
- Lessons learned: Which lessons have been learned in a way that a difference can be seen today for the livelihoods and resilience of local people in the regions affected?
- Lessons to be Learned: Despite the body of knowledge created and reflected in a good number of lessons learned studies – what is still unsolved or needs to be emphasized?
- Monitoring and evaluation: Which DRR measures have been perpetuated and how can they be monitored and evaluated scientifically?
- Resilience effects and (unintended) side-effects: Which coping, recovery and adaptation measures are
supported by the resilience paradigm and which other areas are side-lined, neglected or even contrary to the intended effects?
- Dynamics in risk: In which cases has resilience building taken place? In which cases have ulnerabilities
been shifted internally or new vulnerabilities been created?
- Relocation/resettlement: How did the relocation/resettlement process of displaced people take place and what are its long-term effects?
- Urban-rural divide: How have DRR measures in urban vs. rural areas differed and which linkages but also rifts in rehabilitation and reconstruction initiatives can be observed between the two?
- Early warning: What is the future of Early Warning and how can important top-down information chains benefit from or be balanced with bottom-up feedback of users and affected people?
It appears that extreme disaster events spark a plethora of actions in academia, civil society, media, policy, private sector and other organisations. Tragic, as such disasters are, they offer incentives for learning, locally and globally. Lately, disaster impacts have in many cases been detracted through the application of knowledge and experience gained from previous events. However, there are still a number of challenges with regards to learning from past disasters
Die Prämienbestimmung ist nicht nur vor dem Hintergrund von Unisex ein über viele Versicherungssparten aktuell diskutiertes Thema. Häufige Veränderungen des Rechtsrahmens, die stete Entwicklung neuer Produkte, Weiterentwicklungen der Methoden und geänderte Anforderungen des Marktes beeinflussen die Wahl der Rechnungsgrundlagen als Basis der Prämienkalkulation. Einigen ausgewählten Fragestellungen aus diesem Umfeld ist das 3. FaRis & DAV-Symposium nachge-gangen. Dazu wurden Sterblichkeit und Lebenserwartung als zentrale biometrische Rechnungsgrundlagen der Personenversicherung ebenso thematisiert wie die schwierige Herleitung geeigneter Rechnungsgrundlagen für neuere Formen der Invaliditätsversicherung. Auch die Grenzen, an die der Aktuar gelegentlich stößt, und der erforderliche Pragmatismus bei der Suche nach Lösungen wurden angesprochen. Besondere Aufmerksamkeit wurde auch der betrieblichen Alters-versorgung zugewendet, die sich trotz des unsicheren rechtlichen Rahmens intensiv mit der Einführung von Unisex-Tarifen beschäftigt. Ein vertiefter Blick auf die Kalkulationsansätze in der Schaden-versicherung und den damit verbundenen Informationsbedarf für das Management rundeten das Programm ab. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
Quantitatives Risikomanagement. Proceedings zum 9. FaRis & DAV Symposium am 4. Dezember 2015 in Köln
(2016)
Das quantitative Risikomanagement nimmt an Bedeutung immer weiter zu. Hierbei spielt natürlich die interne Modellierung von Risiken eine entscheidende Rolle. In diesem Zusammenhang sind die verschiedenen Modellansätze zu beleuchten und Risikomaße bzw. Risikoaggregationsmethoden im Rahmen der Bewertung kritisch zu hinterfragen. Nicht zu vernachlässigen ist in der Betrachtung des Zusammenspiels verschiedener Risiken und somit auch in der Modellierung gerade bei Versicherungsunternehmen das Asset-Liability-Management.