Refine
Year of publication
Document Type
- Working Paper (69)
- Report (52)
- Conference Proceeding (24)
- Book (15)
- Article (7)
- Preprint (7)
- Doctoral Thesis (3)
- Other (1)
Has Fulltext
- yes (178)
Keywords
- Versicherungswirtschaft (36)
- Optimierung (20)
- Forschungsbericht (19)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (10)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (75)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (22)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (11)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (2)
- Zentrum für Lehrentwicklung (2)
- Fakultät 07 / Institut für Nachrichtentechnik (1)
In den Kommunen wird ein vernetztes, integriertes Handeln durch eine institutionelle Zergliederung der Daseinsvorsorge in eine Vielzahl funktionaler Teilaufgaben behindert. In der Folge dieser Fragmentierung erfahren die Adressaten soziale Dienstleistungen in den Sozialräumen ihres Stadtteils oder Stadtteils funktions- und hierarchiebezogen – d.h. vertikal und horizontal – getrennt. Wegen der Barrieren des engen Ressortdenkens und der fehlenden Transparenz agieren die professionellen Akteure relativ isoliert auf den „operativen Inseln“ fachlicher Zuständigkeiten. Gemeinsame Schnittstellen werden kaum wahrgenommen, was zum Aufbau von ineffizienten Doppelstrukturen und Mehrfachangeboten geführt hat. Vor diesem Hintergrund besteht die innovative Idee darin, in der Kommune eine wirkungsvolle und effiziente Netzwerkversorgung zwischen isolierten Agenturen, professionellen Dienstleistern und ehrenamtlich engagierter Bürger/innen zu entwickeln. Denn das dafür erforderliche organisatorische Verfahren der Netzwerkkooperation, das im Profitbereich bereits seit den 90er Jahren etabliert ist (vgl. Zulieferernetze der Mobilitätsindustrie) wartet im Non-Profit-Sektor noch auf die systematische Einführung. Die wissenschaftlichen und sozialpolitischen Diskurse des letzten Jahrzehnts verdeutlichen jedoch vermehrt den hohen Bedarf einer vernetzungsorientierten Organisationsentwicklung der kommunalen Daseinsvorsorge und ihrer Verwaltungsagenturen. Auf der Ebene der Sozialräume von Stadtteilen und Stadtbezirken, aber auch innerhalb der zentralen Kommunalverwaltung sollen aus diesem Grund sowohl Hierarchiebarrieren zwischen Die Qualitätsentwicklung hängt entscheidend davon ab, ob diese Barrieren überwunden werden und sowohl eine integrierte Vorgehensweise der professionellen Akteure gefunden wird als auch der Anschluss an die zivilgesellschaftlichen Potenziale gelingt. Vor diesem Hintergrund untersucht das Projekt „CityNet“ die Koordination professioneller und ehrenamtlicher Interventionen verschiedener Ressorts, um die individuellen und sozialen Bedürfnisse der Bevölkerung wirkungsvoll und effizient zu sichern. Im Ergebnis werden Instrumente der „Netzwerkplanung“ entwickelt, mit denen die bisher isolierten Leistungen der einzelnen Infrastrukturen und Dienstleistungsanbieter im Sozialraum miteinander bedarfsorientiert und adressatenfokussiert verbunden werden.
This volume addresses the topics of Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) from the perspective of participants of the DAAD Alumni Summer School 2013. Contributions from 16 countries are gathered in this volume, thereby sharing specific knowledge on climate extremes, disasters, adaptation and prevention measures as well as current strategies in a range of different national contexts. The DAAD Alumni Summer School opened up a forum for integrative thinking and learning across cultures, disciplines and institutions. This volume is directly linked to the first volume of the series and presents a further outcome of the Summer School 2013. It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making. The outcomes presented in the two volumes are a starting point for further international & transdisciplinary knowledge exchange activities planned for the upcoming years.
Learning board games by self-play has a long tradition in computational intelligence for games. Based on Tesauro’s seminal success with TD-Gammon in 1994, many successful agents use temporal difference learning today. But in order to be successful with temporal difference learning on game tasks, often a careful selection of features and a large number of training games is necessary. Even for board games of moderate complexity like Connect-4, we found in previous work that a very rich initial feature set and several millions of game plays are required. In this work we investigate different approaches of online-adaptable learning rates like Incremental Delta Bar Delta (IDBD) or Temporal Coherence Learning (TCL) whether they have the potential to speed up learning for such a complex task. We propose a new variant of TCL with geometric step size changes. We compare those algorithms with several other state-of-the-art learning rate adaptation algorithms and perform a case study on the sensitivity with respect to their meta parameters. We show that in this set of learning algorithms those with geometric step size changes outperform those other algorithms with constant step size changes. Algorithms with nonlinear output functions are slightly better than linear ones. Algorithms with geometric step size changes learn faster by a factor of 4 as compared to previously published results on the task Connect-4.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose a methodology to overcome these difficulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This paper combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Forschendes Lernen versteht sich als ein methodisches Prinzip, das Forschungsorientierung und Verknüpfung von Forschung und Lehre in die Studiengänge und Lehrveranstaltungen integriert und für studentische Lernprozesse nutzbringend anwendet. Studierende sind dabei Teil der Scientific Community.
Dieser Artikel ist ein Erfahrungsbericht, in dem das Konzept des „Forschenden Lernens“ in einer Variante vorgestellt wird, die in den letzten zehn Jahren an einer deutschen Fachhochschule für ingenieurwissenschaftliche Studiengänge entwickelt wurde.
Da es „das“ Forschende Lernen nicht gibt, werden zunächst die für diesen Artikel relevanten Gesichtspunkte zusammengestellt. Darauf aufbauend wird ein Prozessmodell des Forschenden Lernens vorgestellt. Dieses Modell ermöglicht Forschendes Lernen für Bachelor- und Masterstudierende sowie für Doktorandinnen und Doktoranden.
This paper proposes an experimental methodology for on-line machine learning algorithms, i.e., for algorithms that work on data that are available in a sequential order.
It is demonstrated how established tools from experimental algorithmics (EA) can be applied in the on-line or streaming data setting.
The massive on-line analysis (MOA) framework is used to perform the experiments.
Benefits of a well-defined report structure are discussed.
The application of methods from the EA community to on-line or streaming data is referred to as experimental algorithmics for streaming data (EADS).
This report presents a practical approach to stacked generalization in surrogate model based optimization. It exemplifies the integration of stacking methods into the surrogate model building process. First, a brief overview of the current state in surrogate model based opti- mization is presented. Stacked generalization is introduced as a promising ensemble surrogate modeling approach. Then two examples (the first is based on a real world application and the second on a set of artificial test functions) are presented. These examples clearly illustrate two properties of stacked generalization: (i) combining information from two poor performing models can result in a good performing model and (ii) even if the ensemble contains a good performing model, combining its information with information from poor performing models results in a relatively small performance decrease only.
Faserverbundwerkstoffe (FVW) und Composites haben in der Luft- und Raumfahrtindustrie, im Automobilbau, beim Bau von Windenergieanlagen und in vielen weiteren zukunftsträchtigen Branchen eine große Bedeutung. Maßnahmen, die ein Erkennen von Schädigungen simultan zur Entstehung ermöglichen und Restbetriebszeiten prognostizieren können, sind geeignet, die Lebensdauer von FVW-Konstruktionen zu erhöhen. Darüber hinaus ist eine zustandsorientierte und somit kosteneffektive Wartung dieser Bauteile möglich.
Sowohl die Prognose, als auch die Detektion von Schäden würde den ressourcenschonenden Einsatz dieser Werkstoff-gruppe ermöglichen. Das sogenannte Structural Health Monitoring (SHM) bezeichnet in diesem Zusammenhang eine Methode, die es ermöglicht, kontinuierlich Anhalts-punkte über die Funktionsfähigkeit von Bauteilen und Konstruktionen zu erhalten.
Dieser Artikel beschreibt die Planung, Durchführung und Analyse von SHM-Experimenten. Das Hauptziel bestand in der Planung von Experimenten zur Gewinnung von Messdaten mittels piezoelektrischen Elementen auf Versuchstafeln, bei denen bewusst trukturbeschädigungen eingebracht wurden. Statistische Auswertungsmethoden sollen auf ihre Eignung getestet werden, Rückschlüsse aus den experimentell gewonnenen Daten auf die Art der Strukturbeschädigungen zu ziehen.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Dieser Schlussbericht beschreibt die im Projekt „Methoden der Computational Intelligence für Vorhersagemodelle in der Finanzund Wasserwirtschaft“ (FIWA) im Zeitraum von Juni 2009 bis einschließlich November 2012 erzielten Ergebnisse. In der Praxis werden für diese Vorhersagemodelle Verfahren der linearen und nichtlinearen Regression, NN, Support Vector Machines (SVM) und viele weitere Verfahren eingesetzt. Das Projekt FIWA befasste sich mit der Entwicklung modularer Systeme zur Analyse und Prognose von Daten aus der Finanz- und Wasserwirtschaft mittels Verfahren der Computational Intelligence (CI) mit methodischem Fokus auf dem CI-Unterbereich Genetic Programming (GP). Ein zentrales Ergebnis der wissenschaftlichtechnischen Arbeit im Projekt FIWA ist die Entwicklung der Open-Source Software RGP. Dabei handelt es sich um ein Software- Framework für GP, welches auf die automatische Erstellung von Vorhersagemodellen spezialisiert ist. Für die Finanzwirtschaft stand ein Handelssimulator zu Verfügung, der auf Basis von echten Finanzdaten die Qualität verschiedener Strategien testen kann. Dieser wurde im Projekt weiterentwickelt. GP wurde genutzt, um auf Basis der Simulationen genaue Vorhersagen und damit verbesserte Handelsstrategien zu entwerfen. Auch für die Wasserwirtschaft wurden Prognoseverfahren mit GP entwickelt. Der Schwerpunkt lag dabei auf der Füllstandprognose für Regenüberlaufbecken. Hier konnten moderne Verfahren mit GP oder SVM klassische Methoden deutlich schlagen oder verbessern. Auch der Einsatz von Sequentieller Parameter Optimierung zeigte signifikante Verbesserungen für die Prognosegenauigkeit. Dabei war die Kombination von klassischen Methoden und GP besonders erfolgreich. GP ist nach wie vor ein sehr aktives Forschungsgebiet und erlaubt auch für die Folgezeit zahlreiche Kooperationen mit den Partnern der Fachhochschule Köln. Sowohl für technische Anwendungen als auch zur Lösung von Forschungsfragen bieten sich zahlreiche Möglichkeiten an.
Ziel des Forschungsprojektes "Mehrkriterielle CI-basierte Optimierungsverfahren für den industriellen Einsatz" (MCIOP) war die Verringerung von Schadstoffemissionen in Kohlekraftwerken. Der wissenschaftliche Fokus lag auf der Entwicklung von Methoden, die in der Lage sind, interpretierbare Modelle für die Schadstoffemissionen automatisch zu generieren. Hierzu wurden mehrkriterielle Optimierungsverfahren entwickelt und eingesetzt. Zur Zeit- und Kostenreduktion wurde die Optimierung durch Surrogat-Modelle erfolgen, die abgestuft mit aufwändigeren Simulationen zum Einsatz kamen („optimization via simulation“). Bei der Untersuchung von Staubabscheidern konnten durch eine mehrkriterielle Optimierung unterschiedliche Zielgrößen, wie z.B. Abscheidegrad und Druckverlust, gleichzeitig berücksichtigt werden.
Dieser Bericht beschreibt die im Projekt MCIOP im Zeitraum von August 2011 bis einschließlich Juni 2015 erzielten Ergebnisse.
The performance of optimization algorithms relies crucially on their parameterizations. Finding good parameter settings is called algorithm tuning. Using
a simple simulated annealing algorithm, we will demonstrate how optimization algorithms can be tuned using the Sequential Parameter Optimization Toolbox (SPOT). SPOT provides several tools for automated and interactive tuning. The underlying concepts of the SPOT approach are explained. This includes key techniques such as exploratory fitness landscape analysis and response surface methodology. Many examples illustrate
how SPOT can be used for understanding the performance of algorithms and gaining insight into algorithm behavior. Furthermore, we demonstrate how SPOT can be used as an optimizer and how a sophisticated ensemble approach is able to combine several meta models via stacking.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Cyclone separators are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation, which necessary for constructing efficient cyclones. Several simulation tools can be run in parallel, e.g., long running CFD simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. There are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, whereas analytical models do not. Combining results from models with different input-output structure is of great interest. This combination inspired the development of a new methodology. An optimization via multimodel simulation approach, which combines results from different models, is introduced.
Using cyclonic dust separators (cyclones) as a real-world simulation problem, the feasibility of this approach is demonstrated. Pros and cons of this approach are discussed and experiences from the experiments are presented.
Furthermore, technical problems, which are related to 3D-printing approaches, are discussed.
Dieser Schlussbericht beschreibt die im Projekt „CI-basierte mehrkriterielle Optimierungsverfahren für Anwendungen in der Industrie“ (CIMO) im Zeitraum von November 2011 bis einschließlich Oktober 2014 erzielten Ergebnisse. Für aufwändige Optimierungsprobleme aus der Industrie wurden geeignete Lösungsverfahren entwickelt. Der Schwerpunkt lag hierbei auf Methoden aus den Bereichen Computational Intelligence (CI) und Surrogatmodellierung. Diese bieten die Möglichkeit, wichtige Herausforderung von aufwändigen, komplexen Optimierungsproblemen zu lösen. Die entwickelten Methoden können verschiedene konfliktäre Zielgrößen berücksichtigen, verschiedene Hierarchieebenen des Problems in die Optimierung integrieren, Nebenbedingungen beachten, vektorielle aber auch strukturierte Daten verarbeiten (kombinatorische Optimierung) sowie die Notwendigkeit teurer/zeitaufwändiger Zielfunktionsberechnungen reduzieren. Die entwickelten Methoden wurden schwerpunktmäßig auf einer Problemstellung aus der Kraftwerkstechnik angewendet, nämlich der Optimierung der Geometrie eines Fliehkraftabscheiders (auch: Zyklon), der Staubanteile aus Abgasen filtert. Das Optimierungsproblem, das diese FIiehkraftabscheider aufwerfen, führt zu konfliktären Zielsetzungen (z.B. Druckverlust, Abscheidegrad). Zyklone können unter anderem über aufwändige Computational Fluid Dynamics (CFD) Simulationen berechnet werden, es stehen aber auch einfache analytische Gleichungen als Schätzung zu Verfügung. Die Verknüpfung von beidem zeigt hier beispielhaft wie Hierarchieebenen eines Optimierungsproblems mit den Methoden des Projektes verbunden werden können. Neben dieser Schwerpunktanwendung konnte auch gezeigt werden, dass die Methoden in vielen weiteren Bereichen Erfolgreich zur Anwendung kommen können: Biogaserzeugung, Wasserwirtschaft, Stahlindustrie. Die besondere Herausforderung der behandelten Probleme und Methoden bietet viele wichtige Forschungsmöglichkeiten für zukünftige Projekte, die derzeit durch die Projektpartner vorbereitet werden.
There is a strong need for sound statistical analysis of simulation and optimization algorithms. Based on this analysis, improved parameter settings can be determined. This will be referred to as tuning. Model-based investigations are common approaches in simulation and optimization. The sequential parameter optimization toolbox (SPOT), which is implemented as a package for the statistical programming language R, provides sophisticated means for tuning and understanding simulation and optimization algorithms. The toolbox includes methods for tuning based on classical regression and analysis of variance techniques; tree-based models such as classification and regressions trees (CART) and random forest; Gaussian process models (Kriging), and combinations of different meta-modeling approaches. This article exemplifies how an existing optimization algorithm, namely simulated annealing, can be tuned using the SPOT framework.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Cyclone Dust Separators are devices often used to filter solid particles from flue gas. Such cyclones are supposed to filter as much solid particles from the carrying gas as possible. At the same time, they should only introduce a minimal pressure loss to the system. Hence, collection efficiency has to be maximized and pressure loss minimized. Both the collection efficiency and pressure loss are heavily influenced by the cyclones geometry. In this paper, we optimize seven geometrical parameters of an analytical cyclone model. Furthermore, noise variables are introduced to the model, representing the non-deterministic structure of the real-world problem. This is used to investigate robustness and sensitivity of solutions. Both the deterministic as well as the stochastic model are optimized with an SMS-EMOA. The SMS-EMOA is compared to a single objective optimization algorithm. For the harder, stochastic optimization problem, a surrogate-model-supported SMS-EMOA is compared against the model-free SMS-EMOA. The model supported approach yields better solutions with the same run-time budget.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
EventDetectR: An efficient Event Detection System (EDS) capable of detecting unexpected water quality conditions. This approach uses multiple algorithms to model the relationship between various multivariate water quality signals. Then the residuals of the models were utilized in constructing the event detection algorithm, which provides a continuous measure of the probability of an event at every time step. The proposed framework was tested for water contamination events with industrial data from automated water quality sensors. The results showed that the framework is reliable with better performance and is highly suitable for event detection.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
Im 50. Jubiläumsjahr der TH Köln haben wir uns einem bislang wenig behandelten Thema gewidmet, nämlich der Kunst an den Gebäuden der Technischen Hochschule Köln.
Die TH Köln verfügt als größte Fachhochschule in Deutschland über zwei Standorte in Köln, den Campus Südstadt und den Campus Deutz. Darüber hinaus gibt es zwei weitere Standorte in Gummersbach und Leverkusen. Da sich die künstlerischen Objekte ausschließlich an den Gebäuden innerhalb des Stadtgebiets von Köln befinden, beschränkt sich diese Betrachtung auf die historischen Gebäude des Campus Südstadt sowie auf den maßgeblich in den 1970er Jahren entstandenen Komplex des Campus Deutz.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum. Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen. Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
Im Band 2/2019 werden Ergebnisse und Inhalte der Definitionphase des Deutsch-Iranischen Projektes „Basis-Infrastrukturen und Services einer inklusiven Katastrophenresilienz im Iran – Basic Infrastructures and Services for Enhancing Inclusive Community Disaster Resilience in Iran“ (INCOR) veröffentlicht. Er gibt einen Überblick über die Inhalte des Projekts und beleuchtet die Hintergründe und Konzeption. Weiter werden Synergien zwischen dem Resilienz-Ansatz für Kritische Infrastrukturen und dem Ansatz der „inclusiveness“ nach UN HABITAT beschrieben. Außerdem wird über die Iranisch-Deutschen Experten Workshops in Teheran und Köln berichtet, welche den internationalen Austausch von Katastrophenschutz-Managern förderten. Abschließend werden Möglichkeiten genannt, wie INCOR dem Sendai Framework beiträgt.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
In facing recent natural and man-made disasters Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) calls for integrative thinking and learning across cultures, disciplines and institutions. In times of increasing complexity, insecurity and uncertainty thinking outside the box becomes essential. This first volume of “Integrative Risk and Security Research” presents related research contributions developed in the context of the 2013 DAAD Alumni Summer School "Coping with Disasters and Climate Extremes - Challenges & Cooperation Potential". It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
RGP is genetic programming system based on, as well as fully integrated into, the R environment. The system implements classical tree-based genetic programming as well as other variants including, for example, strongly typed genetic programming and Pareto genetic programming. It strives for high modularity through a consistent architecture that allows the customization and replacement of every algorithm component, while maintaining accessibility for new users by adhering to the "convention over configuration" principle.
We propose to apply typed Genetic Programming (GP) to the problem of finding surrogate-model ensembles for global optimization on compute-intensive target functions. In a model ensemble, base-models such as linear models, random forest models, or Kriging models, as well as pre- and post-processing methods, are combined. In theory, an optimal ensemble will join the strengths of its comprising base-models while avoiding their weaknesses, offering higher prediction accuracy and robustness. This study defines a grammar of model ensemble expressions and searches the set for optimal ensembles via GP. We performed an extensive experimental study based on 10 different objective functions and 2 sets of base-models. We arrive at promising results, as on unseen test data, our ensembles perform not significantly worse than the best base-model.
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
When using machine learning techniques for learning a function approximation from given data it is often a difficult task to select the right modeling technique.
In many real-world settings is no preliminary knowledge about the objective function available. Then it might be beneficial if the algorithm could learn all models by itself and select the model that suits best to the problem.
This approach is known as automated model selection. In this work we propose a
generalization of this approach.
It combines the predictions of several into one more accurate ensemble surrogate model. This approach is studied in a fundamental way, by first evaluating minimalistic ensembles of only two surrogate models in detail and then proceeding to ensembles with three and more surrogate models.
The results show to what extent combinations of models can perform better than single surrogate models and provides insights into the scalability and robustness of the approach. The study focuses on multi-modal functions topologies, which are important in surrogate-assisted global optimization.
This paper introduces UniFIeD, a new data preprocessing method for time series. UniFIeD can cope with large intervals of missing data. A scalable test function generator, which allows the simulation of time series with different gap sizes, is presented additionally. An experimental study demonstrates that (i) UniFIeD shows a significant better performance than simple imputation methods and (ii) UniFIeD is able to handle situations, where advanced imputation methods fail. The results are independent from the underlying error measurements.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht den einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparvermögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In der hier vorliegenden Arbeit untersuchen wir zeit-diskrete Versionen des Modells, die wir mit Hilfe von Monte-Carlo-Simulationen auswerten. Hierbei berechnen wir verschiedenen Rendite-Risiko-Profile des kollektiven Sparens und vergleichen diese mit entsprechenden Profilen für nicht-kollektive Anlagestrategien (Constant-Mix-, Buy-and- Hold- und CPPI-Strategien). Der Vergleich zeigt einen klaren komparativen Vorteil des kollektiven Sparens.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Resilienz bezeichnet die Fähigkeit eines Systems nach einem exogenen Schock wieder in den Normalzustand zurück zu kehren. Wenn beispielsweise durch eine Katastrophe die Wasserversorgung der Bevölkerung nicht mehr gewährleistet ist, so geht es nicht um die Frage, was die Wiederherstellung der Versorgung kostet, sondern mit welchen Maßnahmen die Wiederherstellung überhaupt möglich ist. Eine Versorgungsstruktur ist also so zu gestalten, dass im Vorfeld schon klar ist, wie sie im Katastrophenfall wieder hergestellt werden kann. Bezogen auf ein Wirtschaftsunternehmen ist die Frage nach der Resilienz eine Erweiterung des klassischen Risikomanagements. Das 11. FaRis & DAV-Symposium bot einen Einblick in die Resilienzanalyse beim Katastrophenschutz, zeigte wie ein Resilienz-Management für ein Wirtschaftsunternehmen aussehen kann und schließlich wurde das Resilienz-Konzept auf Fragen der Versicherungsaufsicht übertragen.
Die Forschungsstelle finanzielles & aktuarielles Risikomanagement (FaRis) organisiert Anfang Juni und Dezember eines Jahres gemeinsam mit der Deutschen Aktuarvereinigung (DAV) gemeinsame Symposien zu relevanten aktuariellen Themen. Wegen des Weltkongresses der Aktuare vom 4. bis zum 8. Juni in Berlin wurde das üblicherweise zeitgleich stattfindende FaRis & DAV Symposium als „FaRis at ICA“ veranstaltet – im Sinne einer Zusammenfassung aller Kongressbeiträge von FaRis-Mitgliedern als Überblick für die in FaRis abgedeckten Forschungsgebiete. Die Kurzversionen dieser Beiträge sind in diesem Tagungsband zusammengestellt. Der nur alle vier Jahre stattfindende Weltkongress der Aktuare ist der bedeutsamste Kongress zu allen aktuariellen Fragestellungen. Mit etwa 2.700 nationalen und internationalen Teilnehmern war der ICA 2018 in Berlin der teilnehmerstärkste Kongress seit dem ersten Weltkongress 1895 in Brüssel.
Mit einem Anlagevolumen von rund 872 Mrd. €1 sind die deutschen Lebensversicherer mit Abstand die wichtigsten institutionellen Kapitalanleger für die Altersvorsorge. Sie stehen vor der Herausforderung, das Geld ihrer Kunden rentabel und zugleich sicher am Kapitalmarkt anzulegen. Derzeit bietet eine Neuanlage in Staatspapiere höchster Bonität eine Rendite, die kaum ausreicht die Preissteigerung auszugleichen und teilweise deutlich niedriger ist als der Bestand- Rechnungszins. Das Geschäftsmodell der klassischen Lebensversicherung mit den Jahrzehnte- umspannenden Zinsgarantien steht zur Disposition: Niedrigzinsphase und der Übergang einem zum kapitalmarktorientierten Aufsichtsmodell (Solvency 2) zwingen die Lebensversicherer über Alternativen nachzudenken. Beim 2. FaRis & DAV-Symposium wurde das Thema „Alternative Zinsgarantien in der Lebensversicherung“ von verschiedenen Seiten beleuchtet. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
Modell und Wirklichkeit. Proceedings zum 5. FaRis & DAV Symposium am 6. Dezember 2013 in Köln
(2014)
Das 5. FaRis & DAV Symposium stand unter dem Leitthema „Modell und Wirklich-keit“. Modelle sind zweckorientierte Verdichtungen der Wirklichkeit. Aktuare können nicht die Zukunft vorausberechnen, sie versuchen aber mit Hilfe von Modellen abzuschätzen, was alles in der Zukunft passieren kann. Sie sind darin scheinbar sehr erfolgreich, denn die Versicherungsgesellschaften haben bisher „den Stürmen der Zeit“ erfolgreich widerstanden und haben den Menschen Ver- sicherungsschutz gewährt. Schaut man allerdings auf die Finanzmärkte – sie sind Teil der ökonomischen Wirklichkeit – so lehrt die jüngere Vergangenheit, dass die Realität sich nicht an die Modelle gehalten hat. Da die Finanzmärkte die Versicherungswirtschaft immer stärker durchdringen, können künftig unvollstän- dige oder falsche Modelle die Stabilität der Versicherungswirtschaft gefährden. Modelle prägen jedoch auch die Wahrnehmung der Wirklichkeit und beeinflussen daher die Wirklichkeit. So hat die Modellwelt des Solvency II-Systems massiven Einfluss auf das Produktangebot der Versicherungsunter-nehmen, nicht immer zum Vorteil der Versicherungsnehmer. Das Symposium sollte kritisch hinterfragen, (1) inwieweit unsere aktuariellen „Modellwelten“ noch ihren Zweck erfüllen, (2) wo die grundsätzlichen Grenzen der Modellbildung liegen, (3) in welche Richtung wir unsere Modelle überdenken müssen und (4) welche alternativen Ansätze zur Verfügung stehen.
Bewertungsportale, in denen man seine Meinung zu Gütern oder Dienstleistungen äußern kann, sind seit einiger Zeit bekannt und verbreitet. Kann durch sie die Nachfrageseite eine neue, informationsgestützte Machtposition erlangen? Ein Projektteam des Instituts für Versicherungswesen an der TH Köln (ivwKöln) hat sich dieser Frage gewidmet und zunächst kontrastierende Hypothesen aus der Gegenüberstellung des informationsökonomischen und des diffusionstheoretischen Ansatzes entwickelt. Eine Hypothesengruppe bezog sich auf die Frage, von welchen Faktoren die Nachfrage und Wertschätzung von Bewertungsportalen abhängig ist, eine andere unterstellte, dass globale Produkteigenschaften auf der Dimension Such-, Erfahrungs-, Vertrauenseigenschaften sich auf die Nutzung von Portalen auswirkten. Untersucht wurden deshalb sehr unterschiedliche Portale, für Kleidung, Restaurants, Ärzte und Versicherungen. Empirische Grundlage war eine online-gestützte Befragung mit einem Convenience-Sample von 114 Befragten. Neben Studierenden des ivwKöln wurden Angestellte und Personen im Rentenalter zur Teilnahme motiviert, um eine breite Altersstreuung zu erreichen. Die Ergebnisse zur ersten Hypothesengruppe sprechen eindeutig für den diffusionstheoretischen Ansatz. Bei den beiden analysierbaren Portalen (Restaurants und Ärzte) ergibt sich: Entscheidende Faktoren für den Besuch von Restaurantportalen sind Internetaffinität, Alter, Produktinvolvement und Meinungsführerschaft; für den Besuch von Ärzteportalen sind es Internetaffinität und Produktinvolvement. Damit ist auch klar, dass sich die Machtposition der Nachfrager durch die Nutzung von Portalen allenfalls selektiv verstärkt. Die zweite Hypothese, dass Portalnutzung auch von globalen Produkteigenschaften abhängig sei, ließ sich nicht bestätigen.
Am speziellen Fall der Studierenden des Instituts für Versicherungswesen an der Fachhochschule Köln wurde untersucht, wie das Medium E-Book eingeschätzt wird. Die empirische Untersuchung sollte im Wesentlichen die folgende Fragestellung beantworten: Welche Merkmale von E-Book und gedrucktem Buch bestimmen die Ein- stellung der Studierenden zu ihnen? Dabei griff das Projektteam zunächst auf die von K. Messner u.a. vorgeschlagene Skala zur Einstellung gegenüber E-Books zurück (Book Lovers, Technophiles, Printers, and Pragmatists: The Social and Demographic Structure of User Attitudes Toware e-Books, in: College and research libraries, 2012, Nr. 5, Jg. 73, S. 420 ff.). Für die Erhebung wählte das Projektteam die Methode einer Online-Befragung, die sich an aktuell Studierende und ehemalige Studierende des Instituts richtete. Die Befragung folgt einem standardisierten Ansatz und konnte auf 189 verwertbare Fragebögen zurückgreifen. Untersucht wurde der Einfluss folgender Faktoren: Alter, Geschlecht, Vorerfahrung mit digitalen Texten, Internetaffinität und grund-legende Einstellung zur Digitalisierung der Lebensbereiche. Mehrere Regressions- und Pfadanalyse-Ansätze ergaben: Die beiden stärksten Einflussfaktoren waren Vorerfahrung mit digitalen Texten und Internetaffinität; von Geschlecht ging nur eine indirekte Wirkung über Internetaffinität aus. Alter spielte keine Rolle, und auch für die grundlegende Einstellung zur Digitalisierung der Lebensbereiche konnte kein Zusammenhang zur Präferenz von E-Books aufgewiesen werden.
Der MCEV stellt nicht nur in der Lebensversicherung, sondern auch in der Schadenversicherung einen alternativen Ansatz dar, um den ökonomischen Wert eines Unternehmens zu ermitteln. Dabei ist die Ermittlung des MCEV in der Schaden-versicherung durchaus weniger komplex als in der Lebensversicherung, da das Phänomen der Stochastik in der Stochastik i. d. R. nicht auftritt. In dieser Arbeit ist für die Schadenversicherung ein vereinfachtes Formelwerk für den MCEV ohne Renewals dargestellt, mit dem die wichtigsten Auswirkungen des Embedded Values in der Scha-denversicherung getestet werden kann.
Die Solvency II Standardformel erlaubt zusätzlich zum Ansatz einer Verlust- absorbierung durch Rückstellungen auch den Ansatz einer Verlustabsorbierung durch latente Steuern. Die Verlustabsorbierung durch latente Steuern hängt davon ab, wie werthaltig aktivierte latente Steuern in einer Marktwertbilanz für einen vordefinierten Verlustfall sind. Hier gibt die Standardformel keine klaren Vorgaben, sondern verlangt für den Ansatz einer Verlustabsorbierung und damit einhergehend einer Minderung des Solvenzkapitalbedarfs eine Einschätzung der Werthaltigkeit aktivierter latenter Steuern.
Mit Hilfe von internen Modellen kann man in der Schadenversicherung das Risiko / Rendite Profil einer Neugeschäftsstrategie bewerten und Entscheidungen daraus ableiten. Dabei kann man i. d. R. nur einzelne Strategien miteinander vergleichen, aber kein allgemein gültiges Optimum herleiten. Unter bestimmten Voraussetzungen ist es allerdings möglich, für das (Brutto) Neugeschäft auch geschlossene Lösungen für diese Fragestellung zu finden. Selbst wenn diese Voraussetzungen in der Reinform meistens kaum vorliegen, ergeben sich doch aus diesem Ansatz einige interessante Implikationen für die Unternehmenssteuerung. Insbesondere können solche Ansätze dafür verwendet werden, bessere „Startwerte“ zu finden, die dann mit internen Modellen getestet werden können.
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
In zwei vorangegangen Arbeiten wurde an Hand des durchgängigen Datenmodells der IVW Privat AG die Standardformel und deren wichtigsten Anwendungen diskutiert. In dieser Ausarbeitung wird ergänzend dazu die Konzeption eines internen Modells auf Basis dieses Datenmodells erläutert und die Ergebnisse denjenigen aus den Berechnungen des Standardmodells gegenübergestellt.
Nicht nur seit den jüngsten Flutereignissen ist das Thema „Naturkatastrophen“ bekanntlich in aller Munde. Auch jüngere Mitmenschen haben inzwischen schon relativ häufig sogenannte „Jahrhundert-Fluten“ erlebt. Ob es sich dabei wirklich um Auswirkungen eines weltweiten Klimawandels handelt, ist unter rein wissenschaftlichen Gesichtspunkten über die relativ kurzen Beobachtungszeiträume schwer beweisbar. Fakt ist allerdings, dass Elementarereignisse sich kaum noch in unberührten Gegenden ereignen, so dass die Schadenaufwendungen im Vergleich zur Vergangenheit angestiegen sind. Hier stellt sich also in jedem Fall die Frage nach der generellen Versicherbarkeit. Aber es gibt noch andere Katastrophenereignisse, die die Versicherungsindustrie treffen können.
Mit dem Konzept des „Embedded Values“ soll der Langfristigkeit von Lebensversicherungsverträgen Rechnung getragen werden, wobei in der operativen Anwendung erste Schwachstellen des Konzeptes ersichtlich geworden sind. In der Schadenversicherung ist dieses Konzept im Rahmen der Risikosteuerung derzeit noch nicht etabliert, findet aber bereits im Rahmen der integrierten Gesamtsteuerung auf Gruppenebene erste Anwendung. Insofern ist es konsequent, zumindest im Hinblick auf mittelfristige Entwicklungsperspektiven den MCEV auch bei der wertorientierten Unternehmenssteuerung in der Nichtlebensversicherung in Betracht zu ziehen. Dadurch gibt sich im Hinblick auf die Risikosteuerung auf Gruppenebene ein insgesamt stimmiges Bild, das aber durchaus kritisch zu hinterfragen ist.
Für eine angemessene Modellierung von Nat Cat Risiken (beispielsweise im Zusammenhang mit einer Rückversicherungsoptimierung) verwendet man üblicherweise Event Loss Tabellen, die von professionellen externen Anbietern mit regelmäßigen Aktualisierungen zur Verfügung gestellt werden. Diese Modelle sind i. d. R. sehr kostspielig, so dass sie oft nur von Rückversicherern oder Rückversicherungsmaklern für die Anwendung auf die eigenen Kundenportfolios lizenziert werden. Alternativ dazu kann mit öffentlich verfügbaren Informationen eine (wenn auch im Vergleich zu professionellen externen Modellen) vereinfachte Nat Cat Modellierung durchgeführt werden, die Erkenntnisse für eine Rückversicherungsoptimierung ermöglicht.
Für Schadenreserven existieren keine hinreichend fungiblen Märkte und somit auch keine Marktpreise im klassischen Sinn. Für eine Fair Value Bewertung bedarf es also eines geeigneten Modellansatzes. In der Schadenversicherung wird üblicher- weise der Transaktionswert modelliert, wobei hier die korrekte Modellierung der Kapitalkosten einer der zentralen Punkte ist. Der Fair Value der zedierten Reserven kann als Differenz zwischen dem Fair Value der Bruttoreserven und dem Fair Value der Nettoreserven angesetzt werden. Dieser Ansatz berücksichtigt allerdings nicht das Bonitätsrisiko des Rückversicherers. Eine adäquate Anpassung des Bewertungsmodells ist demnach erforderlich.
Interne Modelle in der Schadenversicherung gehen üblicherweise vom ökonomischen Kapital nach einem Jahr als zugrunde gelegter stochastischer Zielfunktion aus. Dieses basiert auf der sofortigen Realisation aller Aktiva und Passiva zu Marktpreisen, was nicht immer eine realistische Hypothese darstellt. Beim Embedded Value (der in der Schadenversicherung noch nicht so etabliert ist wie in der Lebensversicherung) werden die Werte der Aktiva und Passiva erst über die Zeit realisiert. Sinnvoll angewendet kann dieses Konzept somit einen deutlich realistischeren Ansatz für ein internes Modell in der Schadenversicherung liefern als die Modellierung auf Basis des ökonomischen Kapitals.
Die lineare Regression ist das bekannteste Verfahren zur Fehlerausgleichung, welches relativ einfach umgesetzt werden kann. Verallgemeinerte lineare Modelle sind eine zweckmäßige Erweiterung dieses Verfahrens, können aber aufgrund ihrer hohen Komplexität i. d. R. nur mit spezieller Software gerechnet werden. Aus diesem Grund wird in dieser Arbeit anhand eines fiktiven Storno-bestandes illustriert, wie man Ausgleichsrechnungen auch mit Hilfe von Gauß Markow Modellen durchführen kann, die mittels EXCEL und Visual Basic ebenfalls noch vergleichsweise einfach umsetzbar sind.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools in der Regel intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standardformel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools i. d. R. intensive Vorarbeiten benötigt werden. Im ersten Teil wurden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. In diesem Teil wird die Projektion der Standardformel auf das Folgejahr durchgeführt und es werden weitere Anwendungen an Hand dieses durchgängigen Datenmodells erläutert.
Nach einer langen Prozess- und Entwicklungsphase ist Solvency II seit dem 1. Januar 2016 als EU-einheitliches Solvenzsystem für Versicherungen eingeführt, wobei eine nicht unerhebliche Her-ausforderung in diesem Zusammenhang – auch im Hinblick auf die flankierenden Prozesse – die doch sehr extensiven Berichtsanforderungen aus der dritten Säule von Solvency II darstellen, die sich in einen quantitativen Teil mit einer Fülle von Tabellen und in einen qualitativen Teil mit mehreren narrativen Berichten aufteilen.
Aufgrund der aktuellen gesetzlichen Rahmenbedingungen können Energieversorger von erneuerbaren Energien (Windkraft, Sonnenenergie, Geothermie) relativ stabile Erträge über längere Zeiträume generieren, so dass eine Investition in erneuerbare Energien für ein Versicherungsunternehmen eine attraktive Anlage darstellen kann. In dieser Arbeit soll daher mit einem vereinfachten Modell analysiert werden, wie eine solche Kapitalanlage sich auf das allgemeine ALM eines Versicherungsunternehmens auswirkt.
Mit der „IVW Privat AG“ liegt ein relativ durchgängiges Datenmodell eines Schadenversicherungs-unternehmens vor, mit dem in vorangegangenen Publikationen eine Vielzahl von Solvency II Anwen-dungen illustriert werden konnten. Ergänzend dazu sollen in dieser Publikation unterschiedliche Bewertungsansätze für das verfügbare Kapital vorgestellt und miteinander verglichen werden – ausgehend vom sicherheitsorientierten HGB Kapital bis hin zum Marktkonsistenten Embedded Value (MCEV).
Standardformel und weitere Anwendungen am Beispiel des durchgängigen Datenmodells der „IVW Leben AG“
(2016)
Der Aufbau der Standardformel ist relativ komplex, wobei für die Durchführung der Berechnungen intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungs-schritte an Hand des durchgängigen Datenmodells der „IVW Leben AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standard-formel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Big Data für Versicherungen. Proceedings zum 21. Kölner Versicherungssymposium am 3.11.2016 in Köln
(2017)
Aufgrund der schnellen technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Kundenmanagement sowie Recht & Datenschutz.
Wegen der hohen Bedeutung haben die Forschungsbereiche des ivwKöln für 2016 „Big Data“ als übergreifendes Forschungsthema gewählt. Im 21. Kölner Versicherungs-symposium wurde daher das Themenfeld in seiner Vielschichtigkeit von Referenten aus mehreren
Fachrichtungen skizziert.
Social learning enables multiple robots to share learned experiences while completing a task. The literature offers examples where robots trained with social learning reach a higher performance compared to their individual learning counterparts. No explanation has been advanced for that observation. In this research, we present experimental results suggesting that a lack of tuning of the parameters in social learning experiments could be the cause. In other words: the better the parameter settings are tuned, the less social learning can improve the system performance.
To maximize the throughput of a hot rolling mill,
the number of passes has to be reduced. This can be achieved by maximizing the thickness reduction in each pass. For this purpose, exact predictions of roll force and torque are required. Hence, the predictive models that describe the physical behavior of the product have to be accurate and cover a wide range of different materials.
Due to market requirements a lot of new materials are tested and rolled. If these materials are chosen to be rolled more often, a suitable flow curve has to be established. It is not reasonable to determine those flow curves in laboratory, because of costs and time. A strong demand for quick parameter determination and the optimization of flow curve parameter with minimum costs is the logical consequence. Therefore parameter estimation and the optimization with real data, which were collected during previous runs, is a promising idea. Producers benefit from this data-driven approach and receive a huge gain in flexibility when rolling new
materials, optimizing current production, and increasing quality. This concept would also allow to optimize flow curve parameters, which have already been treated by standard methods. In this article, a new data-driven approach for predicting the physical behavior of the product and setting important parameters is presented.
We demonstrate how the prediction quality of the roll force and roll torque can be optimized sustainably. This offers the opportunity to continuously increase the workload in each pass to the theoretical maximum while product quality and process stability can also be improved.
In den Wirtschaftswissenschaften liegen die für Bewertungen benötigten Daten normalerweise als Jahreswerte vor, z.B. Zinssätze oder Sterblichkeiten in der Finanz- und Versicherungsmathematik. Darauf aufbauend lassen sich Markov-Ketten mit einem jährlichen Zeitraster konstruieren. Zu bewertende Zahlungen hingegen erfolgen meist unterjährlich. Der vorliegende Artikel beschäftigt sich mit der Frage, wie aus einer Markov-Kette mit jährlichem Zeitraster, eine Markov-Kette mit unterjährlichem Zeitraster konstruiert werden kann. Dabei stehen Markov-Ketten, deren Übergangsmatrizen als obere Dreiecks-matrizen gegeben sind, im Mittelpunkt des Interesses. Es werden zwei Ansätze und deren Anwendung dargestellt. Der erste Ansatz basiert auf der T-ten Wurzel der Übergangsmatrizen, der zweite Ansatz auf einer Linearisierung der Übergangsmatrizen.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Sind diese Zahlungsströme mit Risiken behaftet, so kann der Barwert als Zufallsvariable interpretiert werden. In der vorliegenden Arbeit wird der risikobehaftete Zahlungsstrom als bewertete inhomogene Markov-Kette modelliert. Als Hauptergebnis wird eine Formel für die charakteristische Funktion bzw. die momentenerzeugende Funktion der Zufallsvariablen „Barwert“ hergeleitet. Damit ist die Verteilung der Zufallsvariablen eindeutig festgelegt. In konkreten Fallbeispielen wird gezeigt, wie man mit einer EDV-technischen Umsetzung der Formel den Erwartungswert, die Varianz und die Standardabweichung der Zufallsvariablen „Barwert“ ermitteln kann.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Sowohl der Zinssatz als auch die Wahrscheinlichkeiten liegen dabei normalerweise als Jahreswerte vor, die Zahlungen hingegen erfolgen meist unterjährlich. In der vorliegenden Arbeit wird für diesen unterjährlichen Fall ein auf der Theorie der Markov-Ketten basierendes Modell zur Barwertberechnung behandelt. Die unterjährlichen Wahrscheinlichkeiten ergeben sich dabei durch Linearisierung der Jahreswerte, als unterjährliches Zinsmodell wird die gemischte Verzinsung – alternativ mit dem relativen Zinssatz und dem konformen Zinssatz – betrachtet.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Dabei liegt jeder Barwertberechnung ein geeignetes Zinsmodell zugrunde. Bei einem speziellen Zinsmodell – der relativ gemischten Verzinsung – lassen sich einfache nichttriviale Beispiele/Zahlungsströme konstruieren, bei denen der Barwert bei jedem Zinssatz null ist. In der vorliegenden Arbeit wird die Frage untersucht, ob es bei anderen Zinsmodellen ebenfalls solche Zahlungsströme gibt. Im Hauptsatz kann die Beantwortung dieser Frage mit Mitteln der Analysis auf die Existenz von Lösungen eines homogenen linearen Gleichungssystems zurückgeführt werden.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Viele der dabei verwendeten Modelle sind gedächtnislos. In der vorliegenden Arbeit wird für diese Fälle ein Modell, das auf der Theorie der Markov- Ketten basiert, eingeführt. Aus dieser Modellierung ergibt sich u.a. eine grundlegende Bewertungsformel. In drei unterschiedlichen ökonomischen Beispielen wird gezeigt, dass die Anwendung dieser Bewertungsformel zu den Standardbewertungsansätzen führt. Das primäre Ziel der Arbeit ist dabei nicht die Darstellung neuer Ergebnisse, sondern die grundlegende Aufbereitung der Thematik. Dabei soll die Ausarbeitung eine Basis für weitere Anwendungen schaffen und als Grundlagen für eine EDVtechnische Umsetzung dienen.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette durch lineare Interpolation der Übergangsmatrizen und der Einheitsmatrix sowohl eine unterjährliches als auch ein zeitstetige bewertete inhomogene Markov-Kette konstruiert. Beim unterjährlichen Modell liegt der Fokus auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion und einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen. Beim zeitstetigen Modell steht neben der Konstruktion und den üblichen Ergebnissen für zeitstetige Markov-Ketten, die Verallgemeinerung des Restglieds bzw. des Invarianzsatzes im Mittelpunkt des Interesses.
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
In der vorliegenden Arbeit werden in drei Fallbeispielen aus dem Bereich der betrieblichen Altersversorgung die Versorgungszusagen mithilfe von bewerteten inhomogenen Markov-Ketten modelliert. Dabei liegt der Fokus auf den Pfaden der Markov-Ketten. Es wird anhand der Fallbeispiele gezeigt, wie man mithilfe der Pfade den Erwartungswert und die Standardabweichung der Zufallsvariablen „Barwert aller zukünftigen Zahlungen“ berechnen kann. Darüber hinaus ist es auf Basis der Pfade möglich, in Bezug auf diese Zufallsvariable auch Wahrscheinlichkeiten von speziellen Ereignissen und Risikomaße – Value at Risk und Expected Shortfall – zu berechnen.
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette eine unterjährliche bewertete inhomogene Markov-Kette konstruiert. Die Konstruktion der unterjährlichen Übergangsmatrizen basiert auf der Taylorreihe der Potenzfunktion bzw. deren Partialsummen. Dieser Ansatz ist eine Verallgemeinerung des Falls, dass die unterjährlichen Übergangsmatrizen durch Interpolation der jährlichen Übergangsmatrizen und der Einheitsmatrix definiert werden. Anschließend liegt der Fokus der Arbeit auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion, einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen und dessen Anwendung in zwei Fallbeispielen.
Markov-Ketten haben bei der Modellierung von ökonomischen Sachverhalten eine Vielzahl von Anwendungen. In den Wirtschaftswissenschaften steht oft ein Portfolio von Markov -Ketten im Mittelpunkt des Interesses, z.B. das Kreditportfolio einer Bank oder das Vertragsportfolio einer Versicherung. In den meisten Modellen wird dabei die stochastische Unabhängigkeit der unterschiedlichen Markov-Ketten vorausgesetzt. In der vorliegenden Arbeit wird ein Modell zur Berücksichtigung einer Abhängigkeitsstruktur in einem solchen Portfolio vorgestellt. Die Abhängigkeiten werden dabei mit einer Familie von Copulas modelliert und werden bei den Übergangsmatrizen berücksichtigt.
Die betriebliche Altersversorgung ist neben der gesetzlichen und der privaten Altersvorsorge eine der drei Säulen der Alterssicherung in Deutschland. Ende 2012 beliefen sich die Deckungsmittel der betrieblichen Altersversorgung in Deutschland auf 500,7 Milliarden Euro. Im Zeitraum 2009 bis 2011 hatten ca. 60% aller sozialversicherungspflichtigen Arbeitnehmer eine Anwartschaft auf betriebliche Altersversorgung. Mit Pensionsplänen sind aus Sicht der Unternehmen Risiken verbunden, die es zu erkennen, zu bewerten und zu steuern gilt. Wie ist der aktuelle Stand des Risikomanagements in der betrieblichen Altersversorgung in Deutschland? Dieser Frage ging das 4. FaRis & DAV-Symposium anhand ausgewählter Aspekte nach. Die Vorträge des Symposiums sind in diesem Konferenzband zusammengefasst.
SOMA - Systematische Optimierung von Modellen in IT- und Automatisierungstechnik (Schlussbericht)
(2013)
Das im Rahmen der Förderlinie IngenieurNachwuchs geförderte Forschungsvorhaben Systematische Optimierung von Modellen für Informations- und Automatisierungs-technik (kurz: SOMA) startete im August 2009. Eine wesentliche Zielsetzung war die Entwicklung und Optimierung von Modellen zur Prognose von Zielgrößen. Ein wichtiges Merkmal ist dabei die effiziente Optimierung dieser Modelle, welche es ermöglichen soll, mit einer streng limitierten Anzahl an Auswertungen gute Parametereinstellungen zu bestimmen. Mithilfe dieser genaueren Parametrierungen der unterliegenden Modelle können unter Einbeziehung neuer merkmalserzeugender Verfahren insbesondere für kleine und mittelständische Unternehmen verbesserte Lösungen erzielt werden. Als direkter Gewinn derartiger Verbesserungen konnte für KMUs ein geeignetes Framework für Modellierungs- und Prognoseaufgaben be- reitgestellt werden, sodass mit geringem technischem und personellen Aufwand performante und nahezu optimale Lösungen erzielt werden können. Dieser Schluss-bericht beschreibt die im Projekt durchgeführten Maßnahmen und Ergebnisse.
Die Reinhaltung der Luft spielt heute mehr denn je eine wichtige Rolle. In Gesellschaft und Politik wird über Dieselfahrverbote in Innenstädten diskutiert, um die Feinstaubbelastung in den Städten zu senken. Besonders die Industrie steht vor der Aufgabe, den Partikelausstoß zu senken und Wege zu finden, um eine gesunde Luft zu wahren. Zur Abgasreinigung werden oft Filter eingesetzt. Diese weisen aber hohe Energieverluste auf. Die ständige Reinigung oder der Wechsel der Filter kostet Zeit und Geld. Daher ist neben Filtern eine der gängigsten Methoden die Abgasreinigung durch Staubabscheider. Staubabscheider funktionieren filterlos. Dadurch entfällt eine wiederkehrende Filterreinigung, beziehungsweise der regelmäßige Filtertausch. Die Technik der Staubabscheider hat ihren Ursprung in der Natur. Aus der Betrachtung von Zyklonen (in den Tropen vorkommende Wirbelstürme) wurde ein Verfahren entwickelt, um staubhaltige Fluide von den Verunreinigungen zu trennen. Die Abgasreinigung mittels Zyklon-Staubabscheider wird in vielen verschiedenen
Industrien eingesetzt, heutzutage meist als Vorabscheider. Beispiele hierfür sind die
braunkohleverarbeitende Industrie, die Gesteinsindustrie und die papier- oder holzverarbeitende Industrie, insbesondere dort, wo viel Staub oder auch größere Späne in die Luft gelangen. Auch im Alltag sind Zyklon-Staubabscheider zu finden. Hier kommen sie in beutellosen Staubsaugern oder als Vorabscheider von Staubsaugern bei der Holzverarbeitung zum Einsatz.
Die Vorgänge im Staubabscheider-Zyklon sind bereits durch mathematische Modelle beschrieben worden. Hierbei handelt es sich um Näherungen, jedoch nicht um
die exakte Abbildung der Realität, weswegen bis heute die Modelle immer wieder weiterentwickelt und verbessert werden. Eine CFD (Computional Fluid Dynamics)Simulation bringt meist die besten Ergebnisse, ist jedoch sehr aufwendig und muss für jeden Staubabscheider neu entwickelt werden. Daher wird noch immer an der Weiterentwicklung der mathematischen Modelle gearbeitet, um eine Berechnung zu optimieren, die für alle Staubabscheider gilt. Muschelknautz hat in diesem Bereich über Jahre hinweg geforscht und so eine der
wichtigsten Methoden zur Berechnung von Zyklonabscheidern entwickelt. Diese stimmt oft sehr gut mit der Realität überein. Betrachtet man jedoch die Tiefe des Tauchrohres im Zyklon, fällt auf, dass der Abscheidegrad maximal wird, wenn das Tauchrohr nicht in den Abscheideraum ragt, sondern mit dem Deckel des Zyklons abschließt. Dieses Phänomen tritt weder bei den durchgeführten CFD-Simulationen noch bei den durchgeführten Messungen am Bauteil auf. Ziel der Arbeit ist es, diese Unstimmigkeit zwischen Berechnung und Messung zu untersuchen und Gründe hierfür herauszufinden. Darum wird zunächst der Stand der Technik und das Muschelknautz’sche Modell
vorgestellt, um im Anschluss die Berechnungsmethode genauer zu untersuchen. So soll festgestellt werden, ob die Ursache der Abweichungen zur Realität bei einer Analyse der Berechnungsmethode ersichtlich wird. Beispielsweise soll überprüft werden, ob die Schlussfolgerung einer maximalen Abscheideleistung bei minimaler Tauchrohrtiefe von speziellen Faktoren abhängt. Es wird eine Reihe von Beispielrechnungen durchgeführt, mit deren Hilfe der Zusammenhang
von Abscheidegrad und Tauchrohrtiefe ersichtlich wird. Hierbei werden die Geometrieparameter des Abscheiders variiert, um deren Einfluss auf die Tauchrohrtiefe
zu untersuchen.
Das prinzipienorientierte Aufsichtssystem von Solvency II erkennt als zentralen Grundsatz, dass nach dem Prinzip „Substanz über Form“ die ökonomische Wirkung eines Risikotransferinstrumentes und nicht die formale Einbettung desselben als Entscheidungskriterium der Berücksichtigungsfähigkeit gilt. Dieser Grundsatz trägt den Entwicklungen auf dem Rückversicherungsmarkt insoweit Rechnung, da dadurch auch alternative Formen des vt. Risikotransfers grundsätzlich Anerkennung finden können, wenn sie den Anerkennungsvoraussetzungen der aufsichtsrechtlichen Vorgaben entsprechen. Dabei zeigt sich, dass der Aufbau und die Mechanik dieser alternativen Formen des vt. Risikotransfer insbesondere eine (ökonomisch) abweichende Bewertung hinsichtlich des vt. Basisrisikos und Ausfallrisikos bedingen können. Kern der vorliegenden Arbeit ist deshalb die Prüfung, inwieweit die Vorgaben von Solvency II diese Unterschiedlichkeit zur Berücksichtigung von vt. Basisrisiko ökonomisch adäquat abbilden. Dabei wird dargestellt, dass insbesondere eine nach Solvency II im Vergleich zum Marktverständnis weit gefasste Definition der Begrifflichkeit sowie eine uneinheitliche Anwendung innerhalb der Gesetzestexte der einheitlichen Berücksichtigung potentiell zuwiderlaufen oder uneinheitliche Prüfungserfordernisse an ökonomisch gleich wirkende Instrumente stellen. Darüber wird hergeleitet, dass die Vorgaben nach Solvency II Regelungen enthalten, welche die ökonomische Wirkung des vt. Basisrisikos (z. B. aus Währungsinkongruenzen) inadäquat widerspiegeln.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Architecural aproaches are considered to simplify the generation of re-usable building blocks in the field of data warehousing. While SAP’s Layer Scalable Architecure (LSA) offers a reference model for creating data warehousing infrastructure based on SAP software, extented reference models are needed to guide the integration of SAP and non-SAP tools. Therefore, SAP’s LSA is compared to the Data Warehouse Architectural Reference Model (DWARM), which aims to cover the classical data warehouse topologies.
Das Betriebsrentenstärkungsgesetz stellt eine Novellierung der betrieblichen Altersversorgung (bAV) in Deutschland dar. Mit dem kürzlich verabschiedeten Gesetz wird erstmals die Möglichkeit geschaffen, die reine Beitragszusage (rBZ) ohne Leistungsgarantie auf tarifvertraglichem Weg zu vereinbaren. Die Höhe der späteren Versorgungsleistung der Arbeitnehmer wird somit zum einen durch die entrichteten Beiträge an den Versorgungsträger determiniert. Zum anderen bestimmt der Erfolg der im Kollektiv zu organisierenden Kapitalanlage mit einem ebenfalls gemeinschaftlichen Risikobudget zu einem wesentlichen Teil die spätere Versorgungsleistung. Die Kapitalanlage steht somit stärker denn je im Spannungsfeld zwischen Rendite und Risiko. Konkret ist eine potentiell höhere Zielrente durch eine chancenorientierte Kapitalanlage gegen das Risiko einer nachhaltigen Unterdeckung und einer damit verbundenen Kürzung der Zielrente abzuwägen. Um diese Abwägung bestmöglich zu treffen und die Wahrscheinlichkeit einer nachhaltigen Unterdeckung zu minimieren, müssen die Kapitalanlage effizient gestaltet und Extremrisiken vermieden werden. Im Falle der erfolgreichen Einführung der rBZ ergeben sich zudem Auswirkungen auf die Kapitalanlage für bestehende Systeme. Basierend auf der Entwicklung der bAV-Landschaft in dem Vereinigten Königreich seit der Einführung von DC-Plänen ist anzunehmen, dass auch in Deutschland eine schrittweise Schließung der leistungsgarantierten Systeme erfolgt. Das daraus resultierende, ausbleibende Neugeschäft bei den bestehenden Systemen ist im Rahmen der Kapitalanlage durch eine Verschiebung des Fokus von Rendite und Deckungsgrad hin zu den benötigten Cashflows zur Bedeckung der Rentenzahlung zu adjustieren. Auf dem 13. FaRis & DAV Symposium referierten Altersversorgungs- und Kapitalmarktexperten zu der Ausrichtung und Implementierung der Kapitalanlage für die Zielrente.
Nach einem Jahr Corona-bedingter Pause fand das FaRis & DAV-Symposium am 10. Dezember 2021 an der Technischen Hochschule Köln statt. Unter dem Titel „Aktuelle Herausforderungen an das aktuarielle und finanzielle Risikomanagement durch COVID-19 und die anhaltende Niedrigzinsphase“ beleuchtete das virtuell durchgeführte 16. FaRis & DAV-Symposium Symposium die aktuelle Situation der Lebensversicherungen und der betrieblichen Altersversorgung aus unterschiedlichen Blickwinkeln. Im ersten Teil der Veranstaltung lag der Fokus auf der Kapitalanlage. Im zweiten Teil wurde die Abschätzung der Pandemie-Folgen auf Pensionskassen thematisiert und um einen Blick auf den Status Quo sowie die Zukunft des Geschäftsmodells der Lebensversicherungen und betrieblichen Altersversorgung ergänzt.
Der vorliegende Tagungsband stellt eine Zusammenfassung der Themen des Symposiums dar.
Verunreinigungen im Wassernetz können weite Teile der Bevölkerung unmittelbar gefährden. Gefahrenpotenziale bestehen dabei nicht nur durch mögliche kriminelle Handlungen und terroristische Anschläge. Auch Betriebsstörungen, Systemfehler und Naturkatastrophen können zu Verunreinigungen führen.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
In the present paper a calculation tool for the lifetime prediction of composite materials with focus on local multiaxial
stress states and different local stress ratios within each lamina is developed. The approach is based on repetitiv, progressive in-plane stress calculations using classical laminate theory with subsequent analysis of the material stressing effort and use of appropriate material degradation models. Therefore experimentally data of S-N curves are
used to generate anistropic constant life diagrams for a closer examination of critical fracture planes under any given combination of local stress ratios. The model is verified against various balanced angle plies and multi-directional
laminates with arbitrary stacking sequences and varying stress ratios throughout the analysis. Different sections of the
model, such as residual strength and residual stiffness, are examined and verified over a wide range of load cycles. The obtained results agree very well with the analyzed experimental data.
Das vernetzte Automobil bezeichnet die Möglichkeit, über Mobilfunknetze (oder auch WLAN) aus einem Fahrzeug heraus Daten z.B. zum aktuellen Betriebszustand des Fahrzeugs, zur aktuellen Position oder zur Fahrweise an unterschiedlichste Empfänger weiterzuleiten. Auf Basis dieser Technik sind ein automatisches Notrufsystem sowie zahlreiche Mehrwertdienste rund um Service und Verkehrs-steuerung realisierbar. Bisherige, kostenpflichtige Angebote konnten sich im Markt noch nicht breit durchsetzen. Die von der EU-Kommission für 2015 geplante verpflichtende Neueinführung des automatischen Notrufsystems „eCall“ wird der Verbreitung dieser Systeme aber einen deutlichen Schub geben. Mit der Hoffnung auf sinkende Zahlen von Unfallopfern gehen allerdings Bedenken einher bezüglich Datenschutz. Hinzu kommt die Sorge von Verbraucherschützern und einigen Marktteilnehmern (z.B. Pannendiensten, freien Werkstätten, Teilehändlern und Versicherern) vor einer gewissen „Monopolisierung“ der Kfz-Hersteller im After-Sales-Market, soweit alleine diese Zugriff auf die mobilen Daten erhalten. Vor diesem Hintergrund untersucht diese Studie die derzeitige Kenntnis und Akzeptanz des automatischen Notrufsystems „eCall“ sowie die Akzeptanz darüber hinausgehender Mehrwertdienste. Dazu wurde eine annähernd repräsentative Stichprobe von 1.021 privaten PKWHaltern in Deutschland befragt. Die Ergebnisse zeigen, dass eCall als Notfallsystem zwar noch wenig bekannt ist, aber nach kurzer Erläuterung hohe Akzeptanz findet und nach Ansicht der großen Mehrheit der Befragten automatisch in allen Neufahrzeugen installiert werden sollte. Die damit verbundenen Mehrkosten beim Autokauf werden in Kauf genommen. Bedeutsamer erscheint dagegen der Schutz der persönlichen Daten. Als Empfänger der gesendeten Information werden im Falle eines Unfalls vorrangig Rettungsdienste, aber auch Polizei und Pannendienste gewünscht. Zudem könnten sich viele Fahrzeughalter die Weiterleitung an ihren Versicherer oder eine Verkehrsleitzentrale vorstellen. Deutlich zurückhaltender zeigen sich die Autofahrer aber, wenn es um die Übermittlung von Daten jenseits von Unfällen geht. Insbesondere eine automatische Übermittlung von Informationen erreicht hier durchgehend nur geringe Akzeptanzwerte. Die Option, die Datenübermittlung selbst zu beeinflussen, sei es durch Voreinstellung oder fallweise Aktivierung, erhöht die Akzeptanz zwar deutlich, dennoch fanden sich außerhalb des Unfallszenarios keine Anlässe, in denen die Mehrheit eine Datenweitergabe befürwortete. Diese Zurückhaltung gilt auch für den Austausch mit Werkstätten und Kfz-Herstellern. Insbesondere eine automatische Datenübermittlung wird von den meisten Autofahrern abgelehnt. Wahlfreiheit erhöht auch hier die Akzeptanz, insbesondere Daten zum Betriebszustand des Fahrzeuges zu übertragen. Die Akzeptanz-Unterschiede zwischen verschiedenen Bevölkerungsgruppen - sei es nach Alter, Status oder Autotypen - sind insgesamt eher gering. Auch die generelle politische Orientierung schlägt sich nur bedingt in der Akzeptanz von eCall und Mehrwertdiensten wieder. Insgesamt wird deutlich: Wenn es nicht unmittelbar um die Sicherheit geht, braucht es überzeugender Argumente, um die Mehrheit der Autofahrer von weiteren Anwendungen zu überzeugen. Wahlfreiheit ist ein wichtiger Parameter zur Erhöhung der Akzeptanz. Ebenso bedeutsam ist ein überzeugender Datenschutz. Allerdings zeigt ein Auseinanderklaffen zwischen hohen datenschutzbezogenen Erwartungen einerseits und dem tatsächlichem Umgang mit datensensiblen Diensten in verschiedensten Lebensbereichen andererseits, dass ein erheblicher Teil der Bevölkerung bereit ist, ihr grundsätzliches Verlangen nach Anonymität zugunsten konkreter Vergünstigungen außer Acht zu lassen. Hier wären unter dem Aspekt des Verbraucherschutzes regulatorische Maßnahmen anzudenken.