Refine
Year of publication
Document Type
- Working Paper (91)
- Report (56)
- Conference Proceeding (28)
- Book (20)
- Article (17)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (167)
- English (60)
- Multiple languages (4)
Has Fulltext
- yes (231)
Keywords
- Versicherungswirtschaft (37)
- Forschungsbericht (21)
- Optimierung (20)
- Hochschuldidaktik (19)
- Risikomanagement (17)
- Versicherungsmathematik (14)
- Optimization (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (81)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (22)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (13)
- Fakultät 02 / Köln International School of Design (10)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
Quantitatives Risikomanagement. Proceedings zum 9. FaRis & DAV Symposium am 4. Dezember 2015 in Köln
(2016)
Das quantitative Risikomanagement nimmt an Bedeutung immer weiter zu. Hierbei spielt natürlich die interne Modellierung von Risiken eine entscheidende Rolle. In diesem Zusammenhang sind die verschiedenen Modellansätze zu beleuchten und Risikomaße bzw. Risikoaggregationsmethoden im Rahmen der Bewertung kritisch zu hinterfragen. Nicht zu vernachlässigen ist in der Betrachtung des Zusammenspiels verschiedener Risiken und somit auch in der Modellierung gerade bei Versicherungsunternehmen das Asset-Liability-Management.
Das Projekt „Integrierte Sozialplanung für die Versorgung im Alter“ (Akronym: ISPInoVA) der Technischen Hochschule Köln (TH Köln) zielt auf die Entwicklung eines neuen Modells einer integrierten Sozialplanung ab. Einbezogen werden hierbei (1) die verschiedenen Ressort- und Fachbereichsperspektiven (z.B. soziale Hilfe, Gesundheit, Wohnen etc.), (2) die unterschiedlichen Bedarfsgruppen im kommunalen Raum und (3) alle kommunalen Managementebenen. Ein besonderer Fokus wird gelegt auf Beteiligung und Partizipation der verschiedenen beteiligten Akteure sowie auf Innovationen in der Alterspolitik.
Das Erkenntnisinteresse im Rahmen des Schweizer Teilprojektes „Gestaltung der Alterspolitik, Beteiligung und Partizipation in ausgewählten Schweizer Städten und Gemeinden“ liegt im Verständnis und der Analyse aktueller Entwicklungen in der Sozialplanung für ältere Menschen in Schweizer Städten und Gemeinden sowie bei der Frage nach Beteiligungs- und Partizipationsformen, nach möglichen Innovationspromotoren und dem Bezug zur Sozialraumorientierung.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
Standardformel und weitere Anwendungen am Beispiel des durchgängigen Datenmodells der „IVW Leben AG“
(2016)
Der Aufbau der Standardformel ist relativ komplex, wobei für die Durchführung der Berechnungen intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungs-schritte an Hand des durchgängigen Datenmodells der „IVW Leben AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standard-formel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Mit der verstärkten Nutzung digitaler Möglichkeiten im Privat- und Berufsleben werden digitale Kanäle auch für Versicherungsfragen immer selbstverständlicher. Am Markt haben sich bereits einige Online-Portale etabliert, die Versicherungsvergleiche und teils auch den Versicherungsabschluss anbieten. Allerdings gibt es bislang erst wenige bekannte Online-Portale für spezielle Zielgruppen wie beispielsweise für das attraktive Segment der Akademiker.
Die vorliegende Veröffentlichung stellt die wesentlichen Ergebnisse einer studentischen Projektarbeit dar, die im Sommersemester 2016 zum Thema „Online-Portal für Akademiker“ durchgeführt wurde. Sie beschreibt Besonderheiten entlang der Customer Journey von Akademikern in Versicherungsfragen und liefert erste Empfehlungen, wie ein Online-Portal für Akademiker gestaltet werden könnte, um ansprechend auf die Zielgruppe zu wirken.
Aufgrund der rasanten technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Marketing sowie Recht & Datenschutz. Aufgrund der enormen Bedeutung und Vielschichtigkeit des Themas hat sich die Forschungsstelle aktuarielles Risikomanagement (FaRis) bei ihrem 10. FaRis & DAV Symposium mit den quantitativen Aspekten des Begriffs auseinandergesetzt.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.