Refine
Year of publication
Document Type
- Working Paper (86)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (161)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (217)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (77)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette eine unterjährliche bewertete inhomogene Markov-Kette konstruiert. Die Konstruktion der unterjährlichen Übergangsmatrizen basiert auf der Taylorreihe der Potenzfunktion bzw. deren Partialsummen. Dieser Ansatz ist eine Verallgemeinerung des Falls, dass die unterjährlichen Übergangsmatrizen durch Interpolation der jährlichen Übergangsmatrizen und der Einheitsmatrix definiert werden. Anschließend liegt der Fokus der Arbeit auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion, einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen und dessen Anwendung in zwei Fallbeispielen.
Markov-Ketten haben bei der Modellierung von ökonomischen Sachverhalten eine Vielzahl von Anwendungen. In den Wirtschaftswissenschaften steht oft ein Portfolio von Markov -Ketten im Mittelpunkt des Interesses, z.B. das Kreditportfolio einer Bank oder das Vertragsportfolio einer Versicherung. In den meisten Modellen wird dabei die stochastische Unabhängigkeit der unterschiedlichen Markov-Ketten vorausgesetzt. In der vorliegenden Arbeit wird ein Modell zur Berücksichtigung einer Abhängigkeitsstruktur in einem solchen Portfolio vorgestellt. Die Abhängigkeiten werden dabei mit einer Familie von Copulas modelliert und werden bei den Übergangsmatrizen berücksichtigt.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
Die betriebliche Altersversorgung ist neben der gesetzlichen und der privaten Altersvorsorge eine der drei Säulen der Alterssicherung in Deutschland. Ende 2012 beliefen sich die Deckungsmittel der betrieblichen Altersversorgung in Deutschland auf 500,7 Milliarden Euro. Im Zeitraum 2009 bis 2011 hatten ca. 60% aller sozialversicherungspflichtigen Arbeitnehmer eine Anwartschaft auf betriebliche Altersversorgung. Mit Pensionsplänen sind aus Sicht der Unternehmen Risiken verbunden, die es zu erkennen, zu bewerten und zu steuern gilt. Wie ist der aktuelle Stand des Risikomanagements in der betrieblichen Altersversorgung in Deutschland? Dieser Frage ging das 4. FaRis & DAV-Symposium anhand ausgewählter Aspekte nach. Die Vorträge des Symposiums sind in diesem Konferenzband zusammengefasst.
SOMA - Systematische Optimierung von Modellen in IT- und Automatisierungstechnik (Schlussbericht)
(2013)
Das im Rahmen der Förderlinie IngenieurNachwuchs geförderte Forschungsvorhaben Systematische Optimierung von Modellen für Informations- und Automatisierungs-technik (kurz: SOMA) startete im August 2009. Eine wesentliche Zielsetzung war die Entwicklung und Optimierung von Modellen zur Prognose von Zielgrößen. Ein wichtiges Merkmal ist dabei die effiziente Optimierung dieser Modelle, welche es ermöglichen soll, mit einer streng limitierten Anzahl an Auswertungen gute Parametereinstellungen zu bestimmen. Mithilfe dieser genaueren Parametrierungen der unterliegenden Modelle können unter Einbeziehung neuer merkmalserzeugender Verfahren insbesondere für kleine und mittelständische Unternehmen verbesserte Lösungen erzielt werden. Als direkter Gewinn derartiger Verbesserungen konnte für KMUs ein geeignetes Framework für Modellierungs- und Prognoseaufgaben be- reitgestellt werden, sodass mit geringem technischem und personellen Aufwand performante und nahezu optimale Lösungen erzielt werden können. Dieser Schluss-bericht beschreibt die im Projekt durchgeführten Maßnahmen und Ergebnisse.
Scholarship of Teaching and Learning (SoTL) wird in der Regel als sozialwissenschaftliches Projekt beschrieben, das an die Lehrenden und ihre Fachkulturen ‚von außen‘ durch die Hochschuldidaktik herangetragen wird (z.B. Wyss, 2018; Szczyrba, 2016). Doch kann die Hochschuldidaktik SoTL auch als ein Anliegen an Lehrende formulieren, aus den Fächern heraus gemeinsam mit den Studierenden eine gemeinsame Wissenschaftspraxis zu implementieren, die das Bildungsanliegen der Studierenden mit dem der Lehrenden verknüpft. Basierend auf dem Verständnis von Huber (2018), dass SoTL die wissenschaftliche Befassung mit der Lehre und dem Lernen der Studierenden im eigenen Fach ist, kann Lehre an Hochschulen durch SoTL zu einer wissenschaftlich begründeten Praxis werden und auf praktischer Klugheit i.S.v. phronesis basieren (Kreber, 2015, S. 568ff.; Dunne, 1993).
Der Beitrag konzipiert SoTL auf der Basis geisteswissenschaftlicher Theorieansätze, um hochschuldidaktisch fundierte und beforschte Lehrkonzepte breiter als auf der Ebene der Technikentwicklung (techne) zu begründen. Dazu stützt er sich auf Ansätze von MacIntyre (Praxis, Tugendethik), Bernstein (singulars und regions), Andresen (Fachwissenschaftspraxis), Mezirow (Reflexionsstruktur) und Nussbaum (Reflexion von Zielen). Angelehnt an diese Ansätze erschließt er das SoTL darauf, wie Lehrende theoretisch und methodologisch fundiert mit ihren Studierenden ergründen können, wie die hochschulischen Fächer mit internalisierten Werten als ‚interne Güter‘ bereicherte Absolvent*innen hervorbringen können.
Die Reinhaltung der Luft spielt heute mehr denn je eine wichtige Rolle. In Gesellschaft und Politik wird über Dieselfahrverbote in Innenstädten diskutiert, um die Feinstaubbelastung in den Städten zu senken. Besonders die Industrie steht vor der Aufgabe, den Partikelausstoß zu senken und Wege zu finden, um eine gesunde Luft zu wahren. Zur Abgasreinigung werden oft Filter eingesetzt. Diese weisen aber hohe Energieverluste auf. Die ständige Reinigung oder der Wechsel der Filter kostet Zeit und Geld. Daher ist neben Filtern eine der gängigsten Methoden die Abgasreinigung durch Staubabscheider. Staubabscheider funktionieren filterlos. Dadurch entfällt eine wiederkehrende Filterreinigung, beziehungsweise der regelmäßige Filtertausch. Die Technik der Staubabscheider hat ihren Ursprung in der Natur. Aus der Betrachtung von Zyklonen (in den Tropen vorkommende Wirbelstürme) wurde ein Verfahren entwickelt, um staubhaltige Fluide von den Verunreinigungen zu trennen. Die Abgasreinigung mittels Zyklon-Staubabscheider wird in vielen verschiedenen
Industrien eingesetzt, heutzutage meist als Vorabscheider. Beispiele hierfür sind die
braunkohleverarbeitende Industrie, die Gesteinsindustrie und die papier- oder holzverarbeitende Industrie, insbesondere dort, wo viel Staub oder auch größere Späne in die Luft gelangen. Auch im Alltag sind Zyklon-Staubabscheider zu finden. Hier kommen sie in beutellosen Staubsaugern oder als Vorabscheider von Staubsaugern bei der Holzverarbeitung zum Einsatz.
Die Vorgänge im Staubabscheider-Zyklon sind bereits durch mathematische Modelle beschrieben worden. Hierbei handelt es sich um Näherungen, jedoch nicht um
die exakte Abbildung der Realität, weswegen bis heute die Modelle immer wieder weiterentwickelt und verbessert werden. Eine CFD (Computional Fluid Dynamics)Simulation bringt meist die besten Ergebnisse, ist jedoch sehr aufwendig und muss für jeden Staubabscheider neu entwickelt werden. Daher wird noch immer an der Weiterentwicklung der mathematischen Modelle gearbeitet, um eine Berechnung zu optimieren, die für alle Staubabscheider gilt. Muschelknautz hat in diesem Bereich über Jahre hinweg geforscht und so eine der
wichtigsten Methoden zur Berechnung von Zyklonabscheidern entwickelt. Diese stimmt oft sehr gut mit der Realität überein. Betrachtet man jedoch die Tiefe des Tauchrohres im Zyklon, fällt auf, dass der Abscheidegrad maximal wird, wenn das Tauchrohr nicht in den Abscheideraum ragt, sondern mit dem Deckel des Zyklons abschließt. Dieses Phänomen tritt weder bei den durchgeführten CFD-Simulationen noch bei den durchgeführten Messungen am Bauteil auf. Ziel der Arbeit ist es, diese Unstimmigkeit zwischen Berechnung und Messung zu untersuchen und Gründe hierfür herauszufinden. Darum wird zunächst der Stand der Technik und das Muschelknautz’sche Modell
vorgestellt, um im Anschluss die Berechnungsmethode genauer zu untersuchen. So soll festgestellt werden, ob die Ursache der Abweichungen zur Realität bei einer Analyse der Berechnungsmethode ersichtlich wird. Beispielsweise soll überprüft werden, ob die Schlussfolgerung einer maximalen Abscheideleistung bei minimaler Tauchrohrtiefe von speziellen Faktoren abhängt. Es wird eine Reihe von Beispielrechnungen durchgeführt, mit deren Hilfe der Zusammenhang
von Abscheidegrad und Tauchrohrtiefe ersichtlich wird. Hierbei werden die Geometrieparameter des Abscheiders variiert, um deren Einfluss auf die Tauchrohrtiefe
zu untersuchen.
In diesem Beitrag wird ein auf die Lehre in einer Einführungsveranstaltung Statistik für Wirtschaftsingenieure zugeschnittenes digitales Lehrformat der klassischen Präsenzvorlesung aus früheren Jahren gegenübergestellt. Im Mittelpunkt steht der Vergleich der Prüfungsergebnisse verbunden mit der klassischen Vorlesung in den vier Studienjahren vor der COVID-19-Pandemie mit den Ergebnissen zur Online-Lehrveranstaltung des Studienjahres 2020/2021 − mit dem für die Autoren überraschenden Resultat, dass die Prüflinge unter den neuen Rahmenbedingungen signifikant besser abschnitten als in der Vergangenheit. Die Diskussion der empirischen Ergebnisse schließt Verbesserungspotentiale für künftige Präsenz-, Online- und Hybrid-Lehrveranstaltungen mit ein.
An der Technischen Hochschule Köln wird für Studierende des Informatik-Bachelors im vierten Semester das Modul „Berufspraxis Informatik“ angeboten, bei dem erfahrene Informatiker*innen ein Thema aus ihrem Berufsalltag vorstellen. Die einzelnen Veranstaltungen gliedern sich in einen Vortrags- und einen Workshopteil und werden vorranging offline, d. h. vor Ort, z. T. aber auch online angeboten. Um die aktive Beteiligung der Studierenden bei den Veranstaltungsterminen zu erhöhen, wurde eine Lehrintervention durchgeführt: Die Intervention wies einem Teil der Studierenden eine aktive Rolle z. B. als Moderator*in zu. In der anschließenden Datenerhebung wurden insb. hinderliche bzw. förderliche Faktoren für eine gelungene Aktivierung betrachtet. Neben der aktiven Rolle sowie dem persönlichen Interesse hatte einen großen Einfluss auf die Aktivierung, ob die Veranstaltung online oder offline durchgeführt wurde. In der Online-Variante waren es vorrangig technische und organisatorische Aspekte sowie Hemmnisse der Studierenden sich zu melden, die eine gelungene studentische Beteiligung behinderten.
Hermann Arnold. Eine vergessene Verbindung zwischen Peter Behrens und Ludwig Mies van der Rohe
(2024)
Nach einer bedeutenden Schulreform kurz nach der Jahrhundertwende war der Architekt Hermann Peter Arnold der erste Leiter einer Architekturklasse an der Kunstgewerbeschule Aachen. Er brachte als junger Lehrer und Architekt Ideenwelten von der Darmstädter Künstlerkolonie Mathildenhöhe sowie aus dem Atelier von Peter Behrens nach Aachen. Seine Person, wie auch seine Prägung der ersten Generation von Architektur-Absolventen der Kunstgewerbeschule soll hier erstmals untersucht werden.
Zu seinen Schülern zählen neben Ludwig Mies van der Rohe Namen wie Peter Großmann, Emil Fahrenkamp, sowie vorwiegend in Aachen tätige Baumeister wie Franz Dominick, Ferdinand Goebbels oder Fritz Toussaint. Insbesondere die Verbindung zu Mies van der Rohe ist bemerkenswert. Wenig bekannt war bisher die Bedeutung seines Studiums an den Aachener Gewerbe- und
Kunstgewerbeschulen, bevor er die schicksalhaften Schritte nach Berlin und später nach Chicago ging. Insbesondere die Verbindung zu seinem Lehrer Hermann Arnold wird hier fokussiert betrachtet. Sie stellt sich als Erklärungsmodell für das Frühwerk, sowie als unbekannte Brücke zu Mies späterem einflussreichen Arbeitgeber Peter Behrens heraus.
Der Beitrag zeigt, wie systemisches Coaching als lösungsorientiertes Beratungsverfahren in Arbeitsweltkontexten hilfreich sein kann, um Personen und Organisationen im Umgang mit Komplexität zu begleiten. In ingenieurwissenschaftlichen Kontexten eingesetzt, unterstützt Coaching (angehende) Ingenieur*innen dabei, ein ganzheitlich-systemisches Verständnis des digitalen Wandels zu entwickeln und zentrale Kompetenzen wie Reflexionsfähigkeit zu erwerben. Im ersten Teil werden Anforderungen an eine zukunftsfähige Ingenieur*innenausbildung und deren Umsetzung an der Fakultät für Anlagen, Energie- und Maschinensysteme der TH Köln sowie Arbeitsweisen und Grundannahmen systemischen Coachings vorgestellt. Die Wirksamkeit des Einsatzes von Coaching in der Lehre wird an der Fakultät begleitend erforscht. Dazu werden im zweiten Teil zunächst Herausforderungen beim Einsatz von Coaching im Hochschulkontext und mögliche Dilemmata für Coaches benannt. Im Anschluss werden die Ergebnisse zweier Studien vorgestellt, die den Einsatz von Projektcoaching und Leadership-Coaching in projektbasierten Modulen mit großen Teilnehmer*innenzahlen an der Fakultät untersuchen. Die Forschungsergebnisse stützen zum einen die Annahme, dass das hier konzipierte Coaching die Studierenden dabei begleitet, Metakompetenzen wie Reflexionsfähigkeit und Self-Awareness zu entwickeln. Zum anderen unterstreichen die Ergebnisse das Vorgehen der Fakultät, Kompetenzen nicht nur einmalig im Studium, sondern aufeinander aufbauend durchgängig zu trainieren. Der Beitrag schließt mit einem Ausblick für Praxis und Forschung. Die Konzepte sind anschlussfähig sowohl für den Einsatz in anderen Disziplinen als auch an Beratungskonzepte für Lehrende. Fazit ist, dass eine didaktische und curriculare Verankerung von Coaching Studierende dabei unterstützen kann, eine systemische Haltung zu entwickeln und sie damit auf den digitalen Wandel sowie zukünftige Führungsaufgaben vorbereitet.
Das prinzipienorientierte Aufsichtssystem von Solvency II erkennt als zentralen Grundsatz, dass nach dem Prinzip „Substanz über Form“ die ökonomische Wirkung eines Risikotransferinstrumentes und nicht die formale Einbettung desselben als Entscheidungskriterium der Berücksichtigungsfähigkeit gilt. Dieser Grundsatz trägt den Entwicklungen auf dem Rückversicherungsmarkt insoweit Rechnung, da dadurch auch alternative Formen des vt. Risikotransfers grundsätzlich Anerkennung finden können, wenn sie den Anerkennungsvoraussetzungen der aufsichtsrechtlichen Vorgaben entsprechen. Dabei zeigt sich, dass der Aufbau und die Mechanik dieser alternativen Formen des vt. Risikotransfer insbesondere eine (ökonomisch) abweichende Bewertung hinsichtlich des vt. Basisrisikos und Ausfallrisikos bedingen können. Kern der vorliegenden Arbeit ist deshalb die Prüfung, inwieweit die Vorgaben von Solvency II diese Unterschiedlichkeit zur Berücksichtigung von vt. Basisrisiko ökonomisch adäquat abbilden. Dabei wird dargestellt, dass insbesondere eine nach Solvency II im Vergleich zum Marktverständnis weit gefasste Definition der Begrifflichkeit sowie eine uneinheitliche Anwendung innerhalb der Gesetzestexte der einheitlichen Berücksichtigung potentiell zuwiderlaufen oder uneinheitliche Prüfungserfordernisse an ökonomisch gleich wirkende Instrumente stellen. Darüber wird hergeleitet, dass die Vorgaben nach Solvency II Regelungen enthalten, welche die ökonomische Wirkung des vt. Basisrisikos (z. B. aus Währungsinkongruenzen) inadäquat widerspiegeln.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Architecural aproaches are considered to simplify the generation of re-usable building blocks in the field of data warehousing. While SAP’s Layer Scalable Architecure (LSA) offers a reference model for creating data warehousing infrastructure based on SAP software, extented reference models are needed to guide the integration of SAP and non-SAP tools. Therefore, SAP’s LSA is compared to the Data Warehouse Architectural Reference Model (DWARM), which aims to cover the classical data warehouse topologies.
Das Betriebsrentenstärkungsgesetz stellt eine Novellierung der betrieblichen Altersversorgung (bAV) in Deutschland dar. Mit dem kürzlich verabschiedeten Gesetz wird erstmals die Möglichkeit geschaffen, die reine Beitragszusage (rBZ) ohne Leistungsgarantie auf tarifvertraglichem Weg zu vereinbaren. Die Höhe der späteren Versorgungsleistung der Arbeitnehmer wird somit zum einen durch die entrichteten Beiträge an den Versorgungsträger determiniert. Zum anderen bestimmt der Erfolg der im Kollektiv zu organisierenden Kapitalanlage mit einem ebenfalls gemeinschaftlichen Risikobudget zu einem wesentlichen Teil die spätere Versorgungsleistung. Die Kapitalanlage steht somit stärker denn je im Spannungsfeld zwischen Rendite und Risiko. Konkret ist eine potentiell höhere Zielrente durch eine chancenorientierte Kapitalanlage gegen das Risiko einer nachhaltigen Unterdeckung und einer damit verbundenen Kürzung der Zielrente abzuwägen. Um diese Abwägung bestmöglich zu treffen und die Wahrscheinlichkeit einer nachhaltigen Unterdeckung zu minimieren, müssen die Kapitalanlage effizient gestaltet und Extremrisiken vermieden werden. Im Falle der erfolgreichen Einführung der rBZ ergeben sich zudem Auswirkungen auf die Kapitalanlage für bestehende Systeme. Basierend auf der Entwicklung der bAV-Landschaft in dem Vereinigten Königreich seit der Einführung von DC-Plänen ist anzunehmen, dass auch in Deutschland eine schrittweise Schließung der leistungsgarantierten Systeme erfolgt. Das daraus resultierende, ausbleibende Neugeschäft bei den bestehenden Systemen ist im Rahmen der Kapitalanlage durch eine Verschiebung des Fokus von Rendite und Deckungsgrad hin zu den benötigten Cashflows zur Bedeckung der Rentenzahlung zu adjustieren. Auf dem 13. FaRis & DAV Symposium referierten Altersversorgungs- und Kapitalmarktexperten zu der Ausrichtung und Implementierung der Kapitalanlage für die Zielrente.
Nach einem Jahr Corona-bedingter Pause fand das FaRis & DAV-Symposium am 10. Dezember 2021 an der Technischen Hochschule Köln statt. Unter dem Titel „Aktuelle Herausforderungen an das aktuarielle und finanzielle Risikomanagement durch COVID-19 und die anhaltende Niedrigzinsphase“ beleuchtete das virtuell durchgeführte 16. FaRis & DAV-Symposium Symposium die aktuelle Situation der Lebensversicherungen und der betrieblichen Altersversorgung aus unterschiedlichen Blickwinkeln. Im ersten Teil der Veranstaltung lag der Fokus auf der Kapitalanlage. Im zweiten Teil wurde die Abschätzung der Pandemie-Folgen auf Pensionskassen thematisiert und um einen Blick auf den Status Quo sowie die Zukunft des Geschäftsmodells der Lebensversicherungen und betrieblichen Altersversorgung ergänzt.
Der vorliegende Tagungsband stellt eine Zusammenfassung der Themen des Symposiums dar.
Verunreinigungen im Wassernetz können weite Teile der Bevölkerung unmittelbar gefährden. Gefahrenpotenziale bestehen dabei nicht nur durch mögliche kriminelle Handlungen und terroristische Anschläge. Auch Betriebsstörungen, Systemfehler und Naturkatastrophen können zu Verunreinigungen führen.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
In the present paper a calculation tool for the lifetime prediction of composite materials with focus on local multiaxial
stress states and different local stress ratios within each lamina is developed. The approach is based on repetitiv, progressive in-plane stress calculations using classical laminate theory with subsequent analysis of the material stressing effort and use of appropriate material degradation models. Therefore experimentally data of S-N curves are
used to generate anistropic constant life diagrams for a closer examination of critical fracture planes under any given combination of local stress ratios. The model is verified against various balanced angle plies and multi-directional
laminates with arbitrary stacking sequences and varying stress ratios throughout the analysis. Different sections of the
model, such as residual strength and residual stiffness, are examined and verified over a wide range of load cycles. The obtained results agree very well with the analyzed experimental data.
Hochschulen spielen aufgrund ihrer Infrastruktur und ihrem Angebot an Entrepreneurship Education eine zentrale Rolle im Start-up-Ökosystem. Eine wichtige Herausforderung in der Hochschulkommunikation besteht darin, einen Kommunikationskanal zu finden, der aus Sicht der Studierenden Spaß macht und zu mehr Durchdringung der Themen Entrepreneurship und Gründung führt. Nur so können die Studierenden passgenau über bestehende Angebote informiert, zu ihrer Nutzung motiviert und ein Output in Form von mehr unternehmerischem Denken und Handeln sowie Gründungen generiert werden.
Gerade im Gründungskontext, wo spezifische Angebote einer kleinen, schon interessierten und gleichzeitig einer großen, potenziell interessierten Zielgruppe nähergebracht werden sollen, ist die Wahl der „richtigen“ Kommunikationsstrategie komplex. Beispielhaft für diese Herausforderung wird die Gründungsinitiative StartUpLab@TH Köln aus hochschulkommunikativer Sicht betrachtet und die Etablierung eines Instagram-Kanals geprüft.
Das vernetzte Automobil bezeichnet die Möglichkeit, über Mobilfunknetze (oder auch WLAN) aus einem Fahrzeug heraus Daten z.B. zum aktuellen Betriebszustand des Fahrzeugs, zur aktuellen Position oder zur Fahrweise an unterschiedlichste Empfänger weiterzuleiten. Auf Basis dieser Technik sind ein automatisches Notrufsystem sowie zahlreiche Mehrwertdienste rund um Service und Verkehrs-steuerung realisierbar. Bisherige, kostenpflichtige Angebote konnten sich im Markt noch nicht breit durchsetzen. Die von der EU-Kommission für 2015 geplante verpflichtende Neueinführung des automatischen Notrufsystems „eCall“ wird der Verbreitung dieser Systeme aber einen deutlichen Schub geben. Mit der Hoffnung auf sinkende Zahlen von Unfallopfern gehen allerdings Bedenken einher bezüglich Datenschutz. Hinzu kommt die Sorge von Verbraucherschützern und einigen Marktteilnehmern (z.B. Pannendiensten, freien Werkstätten, Teilehändlern und Versicherern) vor einer gewissen „Monopolisierung“ der Kfz-Hersteller im After-Sales-Market, soweit alleine diese Zugriff auf die mobilen Daten erhalten. Vor diesem Hintergrund untersucht diese Studie die derzeitige Kenntnis und Akzeptanz des automatischen Notrufsystems „eCall“ sowie die Akzeptanz darüber hinausgehender Mehrwertdienste. Dazu wurde eine annähernd repräsentative Stichprobe von 1.021 privaten PKWHaltern in Deutschland befragt. Die Ergebnisse zeigen, dass eCall als Notfallsystem zwar noch wenig bekannt ist, aber nach kurzer Erläuterung hohe Akzeptanz findet und nach Ansicht der großen Mehrheit der Befragten automatisch in allen Neufahrzeugen installiert werden sollte. Die damit verbundenen Mehrkosten beim Autokauf werden in Kauf genommen. Bedeutsamer erscheint dagegen der Schutz der persönlichen Daten. Als Empfänger der gesendeten Information werden im Falle eines Unfalls vorrangig Rettungsdienste, aber auch Polizei und Pannendienste gewünscht. Zudem könnten sich viele Fahrzeughalter die Weiterleitung an ihren Versicherer oder eine Verkehrsleitzentrale vorstellen. Deutlich zurückhaltender zeigen sich die Autofahrer aber, wenn es um die Übermittlung von Daten jenseits von Unfällen geht. Insbesondere eine automatische Übermittlung von Informationen erreicht hier durchgehend nur geringe Akzeptanzwerte. Die Option, die Datenübermittlung selbst zu beeinflussen, sei es durch Voreinstellung oder fallweise Aktivierung, erhöht die Akzeptanz zwar deutlich, dennoch fanden sich außerhalb des Unfallszenarios keine Anlässe, in denen die Mehrheit eine Datenweitergabe befürwortete. Diese Zurückhaltung gilt auch für den Austausch mit Werkstätten und Kfz-Herstellern. Insbesondere eine automatische Datenübermittlung wird von den meisten Autofahrern abgelehnt. Wahlfreiheit erhöht auch hier die Akzeptanz, insbesondere Daten zum Betriebszustand des Fahrzeuges zu übertragen. Die Akzeptanz-Unterschiede zwischen verschiedenen Bevölkerungsgruppen - sei es nach Alter, Status oder Autotypen - sind insgesamt eher gering. Auch die generelle politische Orientierung schlägt sich nur bedingt in der Akzeptanz von eCall und Mehrwertdiensten wieder. Insgesamt wird deutlich: Wenn es nicht unmittelbar um die Sicherheit geht, braucht es überzeugender Argumente, um die Mehrheit der Autofahrer von weiteren Anwendungen zu überzeugen. Wahlfreiheit ist ein wichtiger Parameter zur Erhöhung der Akzeptanz. Ebenso bedeutsam ist ein überzeugender Datenschutz. Allerdings zeigt ein Auseinanderklaffen zwischen hohen datenschutzbezogenen Erwartungen einerseits und dem tatsächlichem Umgang mit datensensiblen Diensten in verschiedensten Lebensbereichen andererseits, dass ein erheblicher Teil der Bevölkerung bereit ist, ihr grundsätzliches Verlangen nach Anonymität zugunsten konkreter Vergünstigungen außer Acht zu lassen. Hier wären unter dem Aspekt des Verbraucherschutzes regulatorische Maßnahmen anzudenken.
This paper comprises results on innovation as an outcome of several activities of the Research Centre Insurance Market of the Cologne University of Applied Sciences. It starts with a basic research article on innovation in the insurance industry (section A). Thereafter, conference contributions of the 17th Cologne Insurance Symposium on innovation examine the role of law and actuarial services on the one hand (section B) and present examples of innovation within the insurance industry on the other hand (section C). The final section presents some examples of the project work of the bachelor and master courses as well as a description of the innovative teaching module PAM/PAM (section D).
Hintergrund dieser Studie ist die zunehmende Bedeutung von Versicherungsabschlüssen über das Internet. Vor allem bei der Kfz- Versicherung nimmt der Anteil von Online-Abschlüssen zu. Dabei nutzen die Kunden vermehrt unabhängige Vergleichsportale, wie sie bereits auch im Reise- und Energiemarkt stark verbreitet sind. Zeitgleich sind Vergleichsportale aber auch in die Diskussion gekommen: Fehlende Transparenz, mangelnde Benutzerfreundlichkeit und zum Teil unseriöser Umgang mit Daten wurden in der Presse zumindest einzelnen Portalen vorgeworfen. Die Studie soll daher klären, wie Verbraucher mit Vergleichsportalen umgehen, wie transparent diese sind und wie sich Transparenz und Nutzerfreundlichkeit weiter ausbauen lassen. Dazu testeten wir anhand einer annähernd repräsentativen Stichprobe von 500 internetaktiven privaten Fahrzeughaltern jeweils zwei unterschiedliche Portale von Vergleichsrechnern und zum Vergleich jeweils ein Website eines Direktversicherers. Im Rahmen dieser 1.500 Tests wurden nicht nur Bearbeitungsdauer, Preis und Leistungen der empfohlenen Produkte erfasst. sondern auch die subjektiven Bewertungen der Tester zu Bedienungsfreundlichkeit, Transparenz und Datenschutz. In der Untersuchung wurden 5 gewerbliche Vergleichsportale, 2 Vergleichs- rechner, die von Verbraucherschützern bereitgestellt werden, sowie aus Vergleichsgründen drei Websites von führenden Direktversicherern berücksichtigt. Die Ergebnisse zeigen: Vergleichsportale werben gerne mit dem Versprechen hoher Ersparnisse. Verglichen mit der tatsächlichen derzeitigen Versicherungsausstattung unserer internetaktiven Stichprobe zeigen sich diese Zahlen meist übertrieben. Dennoch: Im Durchschnitt fanden die Tester günstige Verträge. Und mindestens jeder Zweite könnte durch einen Wechsel deutlich sparen – im Mittel etwas mehr als 100 € jährlich. Neben einer breiten Marktübersicht zeichnen sich die besten Portale aus Anwendersicht vor allem durch ihre besondere Benutzerfreund- lichkeit aus. Viel Kritik gibt es dagegen für den Datenhunger und den Eindruck mangelnder Seriosität insbesondere eines der Portale. Ferner wird die Gebühr zur Nutzung des Rechners der Stiftung Warentest bemängelt, obwohl hier zugleich die günstigsten Tarife errechnet wurden. Ein kritisches Thema bei Vergleichsportalen ist die Transparenz der Geschäftsmodelle. Mit Ausnahme der Portale der Direktversicherer und der beiden Angebote der Verbraucherschützer finanzieren sich die getesteten Portale nämlich vorwiegend über Provisionen. Diese erhalten Sie, ähnlich einem normalen Makler oder Vertreter, für die Vertrags- vermittlung von den Versicherungsgesellschaften. Das wurde im Test aber höchstens jedem zweiten Nutzer bewusst. Und in noch einer Frage irrten viele der Befragten: Denn die meisten Portale decken keineswegs den ganzen Markt ab, sondern meist nur einen mehr oder weniger großen Teil der Anbieter. Das führt zu großen Unterschieden in den Produktempfeh- lungen und Preisen je nach genutztem Portal. Wobei kein Portal immer das günstigste ist. Für die Verbraucher empfiehlt es sich daher, jeweils mehrere Portale zu vergleichen. Im Gesamturteil der Anwender schneiden die Vergleichsportale nicht besser oder schlechter ab als die Websites der Direktversicherer. Dennoch: Die besten Portale können den Großteil ihrer jeweiligen Nutzer überzeugen, verbunden mit einer hohen Bereitschaft, die Portale auch in Zukunft wieder zu verwenden. Fazit: Bezüglich Marktabdeckung und Provisionsfinanzierung müssen die Portale ihre Nutzer noch aktiver aufklären. Auch Benutzerfreund- lichkeit ist noch nicht bei allen Vergleichsrechnern gegeben. Und wie überall im Internet gilt auch hier, dass die Anwender vorsichtig mit den persönlichen Daten umgehen sollten. Ansonsten lässt sich aber feststellen: Gute Portale bieten günstige Versicherungen bei moderatem Aufwand. Sie unterstützen die Nutzer bei der Suche nach dem richtigen Versicherungsumfang, erläutern Fachbegriffe, und geben Orientierung und Entscheidungshilfen durch Kundenbewertungen und Testurteile. Das gilt für gewerbliche Portale ebenso wie für die Angebote der Verbraucher- schützer, die ihre Neutralität und ihren Provisionsverzicht allerdings noch etwas mehr betonen müssten, um in der Präferenz der Anwender zu gewinnen.
Vor dem Hintergrund der digitalen Vernetzung vollzieht sich derzeit ein tiefgreifender Wandel des Verbraucherverhaltens. Online-Nutzung im Rahmen von Entscheidungsprozessen wird zur Norm, ‚Always Online‘ dank mobiler Internet-technologie zur Realität. Mehr als in anderen Versicherungssparten ändert das digitalisierte Käuferverhalten auch den Kfz-Versicherungsmarkt. Schon seit Jahren lässt sich ein rapider und bisher ungebremster Anstieg des Anteils online abgeschlossener Verträge beobachten. Insbesondere Vergleichsportale haben eine hohe Bedeutung erlangt und wachsen nicht nur auf Kosten der klassischen personengebundenen Vertriebsformen, sondern zunehmend auch auf Kosten des Direktvertriebs der Versicherer. Das Hinzukommen weiterer Wett- bewerber – insbesondere das von Google angekündigte eigene Vergleichsangebot – dürfte den Wandel nochmals beschleunigen. Vor diesem Hintergrund gibt die vorliegende Studie eine Bestandsaufnahme der Kaufprozesse bei internet-affinen Kfz-Versicherungskunden. Dies erfolgt auf Basis einer Befragung von 1.024 aktuellen Kfz-Versicherungs-Käufern, darunter 60% Versicherungswechsler (bei gleichbleibendem Fahrzeug) und 40% Neuabschließern (nach einem PKW-Kauf). Bei der Stichprobe handelt es sich um geübte Internetnutzer, die aber ansonsten nach Demographie und Fahrzeugmerkmalen annähernd repräsentativ für den Gesamtmarkt sind und so einen Ausblick auf die künftige Mehrheit der deutschen Kfz-Versicherungskäufer erlauben. Die Ergebnisse zeigen: Bei online-affinen Kfz-Versicherungskäufern haben sich bereits ganz neue Informations- und Ent- scheidungswege herausgebildet. Die Nutzung von Onlinemedien im Entscheidungs-prozess ist bei netzaffinen Kunden eine Selbstverständlichkeit. Mediensprünge zwischen unterschiedlichsten Informationsquellen sind – besonders bei Vertragswechslern – Normalität. Dazu gehören gleichermaßen Wechsel zwischen Online- und Offline-Kanälen (wobei „research online, purchase offline“ gegenüber „research offline, purchase online“ derzeit leicht überwiegt) wie auch Sprünge innerhalb der Online- und der Offline-Welt. Dabei suchen die Käufer vor allem einen guten Preis, in der Regel aber abgesichert durch einen „Vertrauensanker“: Eine solche Begrenzung des „wahrgenommenen Kaufrisikos“ kann zum Beispiel durch die Wahl einer bekannten Marke (eines Versicherers oder eines Portals) oder die Beachtung von Empfehlungen oder Bewertungen erfolgen. Diese stammen aus unterschiedlichsten Quellen, wobei die Qualität der Quelle (neutral oder interessengebunden) oft eher unkritisch betrachtet wird.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten deutlich von den realen Risiken ab. Zudem sind die meisten Menschen durch das Denken in Wahrscheinlichkeiten und hohe Zahlen überfordert. In einer (weitgehend) repräsentativen Bevölkerungsumfrage wurden vom 31.3. bis zum 2.4.2020 insgesamt 2.028 Personen zur Wahrnehmung von Risiken rund um die Corona-Pandemie sowie zur Fähigkeit der Einschätzung exponentieller Entwicklungen befragt.
Die wichtigsten Ergebnisse lassen sich wie folgt zusammenfassen:
Exponentielle Entwicklungen – wie im Falle einer Pandemie gegeben - entziehen sich weitgehend dem menschlichen Vorstellungsvermögen. Das Gleiche gilt für die gigantischen Geldbeträge, die als Hilfsmaßnahmen für die Wirtschaft beschlossen wurden. Diese werden – vereinfacht ausgedrückt - nur noch als „unglaublich viel Geld“ wahrgenommen.
Die Sorgen vor Corona sind – wenig überraschend – in den Köpfen der Bürger überaus präsent. Nur ein kleiner Anteil der Bevölkerung sorgt sich nach eigenen Aussagen gar nicht oder kaum über eine mögliche Ansteckung. Jeder zweite fürchtet eine wirtschaftlichen Notlage, und vierzig Prozent bangen sogar um ihr Leben.
Zum Vergleich haben wir einige weitere Sorgen mit erfasst, die wir bereits in einer Studie im August 2016 erhoben hatten. Damals war Krebs – gemeinsam mit Verkehrsunfällen – die weitaus präsenteste von insgesamt 30 abgefragten Sorgen. Die Angst vor einem Terroranschlag lag bei den Befragten ebenfalls weit vorne. Aber kein Thema hatte die Bürger damals so „im Griff“ wie zum jetzigen Erhebungszeitpunkt die Corona-Krise.
Andere Gefahren scheinen durch Corona nur in moderatem Umfang verdrängt zu werden: Krebs oder Herzinfarkt besorgen tendenziell etwas weniger Menschen, als das in „normalen“ Zeiten der Fall ist. Die vor vier Jahren noch höchst präsente Bedrohung durch Terrorismus ist hingegen zu großen Teilen aus dem Alltagserleben verschwunden.
Wird anstelle des „Bauches“ der „Kopf“ angesprochen, so ändert sich die Reihenfolge der Risiken nicht wesentlich. Ebenso wie Herzinfarkt und Krebs werden auch die Ansteckung und eine wirtschaftliche Notlage von weiten Teilen der Bevölkerung als eine realistische Bedrohung angesehen.
Ausnahme hiervon ist der mögliche Tod durch den Corona-Virus, der sich in den alltäglichen Ängsten (siehe oben Punkt 2) deutlich mehr niederschlägt, als wenn etwas nüchterner über konkrete Wahrscheinlichkeiten nachgedacht wird. Erst in der Altersgruppe ab 55 Jahren steigen auch hier die Werte deutlich an. Sie bleiben aber auch dann realistischerweise unter den Werten für einen Herzinfarkt oder eine Krebserkrankung.
Im Großen und Ganzen hielten sich die Menschen an die auferlegten Verbote: Die Mehrheit folgt diesen zumindest aus eigener Sicht „voll und ganz“. Gut jeder Dritte nimmt es aber nicht so ganz genau, und insgesamt ca. 5% bekennen sich dazu, die Regeln eher oder gar nicht zu befolgen.
Die Frage, wer am ehesten gegen die Regeln verstößt, lässt sich anhand soziodemographischer Daten kaum eindeutig beantworten. Zwar steigt der Anteil derer, die die Regeln „voll und ganz befolgen“, ab ca. 45 Jahren leicht an, insgesamt zeigen sich aber alle Altersgruppen weitgehend „regelkonform“. Noch geringer sind die Unterschiede nach Einkommen, Bildung oder Bundesland. Am ehesten findet sich noch eine Abweichung nach Geschlecht, indem Männer die Regeln etwas „lockerer“ auslegen.
Der Bedarf an Tests ist hoch, eine Mehrheit würde gerne einen Corona-Test vornehmen.
Angetrieben durch technische Innovationen und den Prozess der Globalisierung tendieren Organisationen seit rund einem Jahrzehnt dazu, Kooperationsnetzwerke mit anderen Unternehmen höher zu gewichten als die Arbeit in monobetrieblichen Strukturen. Diese Tendenz zeigt sich sowohl in bedarfswirtschaftlichen als auch erwerbswirtschaftlichen Organisationen. Beide „organisationalen Felder“ sind in verschiedene organisationale Kontexte eingebettet und verfolgen Kooperationsstrategien, die zu unterschiedlichen Kooperationsmustern führen. Um das Fachwissen über netzwerkorientierte Organisationsentwicklung weiter zu entwickeln und marktfähig zu machen, wurde an der Fachhochschule Köln ein interdisziplinäres Forschungsprojekt initiiert. An dem Forschungsvorhaben sind die Fakultäten für angewandte Sozialwissenschaften, für Wirtschaftswissen-schaften und für Fahrzeugsysteme und Produktion beteiligt, die unterschiedliche organisationale Felder repräsentieren. Die Fakultät für angewandte Sozial-wissenschaften fokussiert auf bedarfswirtschaftliche Organisationen im Feld der Sozialwirtschaft. Im Blickfeld der Fakultäten für Wirtschaftswissenschaften und für Fahrzeugsysteme und Produktion stehen erwerbswirtschaftliche Organisationen aus den Feldern der mittelständischen Wirtschaft und der Mobilitätswirtschaft. Im Verlauf des Forschungsprozesses wurden (1) im Rahmen einer Situationsanalyse eine quantitative Befragung von Profit- und Non-Profit-Organisationen in Nordrhein-Westfalen durchgeführt und Ergebnisse zum Stellenwert der Netzwerk-organisation in den aktuellen Organisationsstrategien und -konzepten gewonnen. Durch vertiefende qualitative Fallanalysen in Form von Bedarfsanalysen (2) sind Erfolgsfaktoren und Unterstützungsbedarfe bei einer Einbindung von Organisationen in eine Netzwerkkooperation aufgedeckt worden. In diesem Bericht erfolgt (3) die Beschreibung und Begründung induktiv abgeleiteter Beratungs-instrumente. Dafür werden zunächst relevante Forschungsergebnisse zusammengefasst und anschließend die von ihnen abgeleiteten Erfolgsfaktoren sowie Beratungs- und Unterstützungsbedarfe tabellarisch geclustert. Auf dieser Grundlage werden die Entwicklung von Beratungs- und Unterstützungsinstrumenten und die Modifizierung bestehender Ansätze für die Netzwerkberatung - differenziert nach den besonderen Anforderungen des bedarfswirtschaftlichen und des erwerbs-wirtschaftlichen Bereiches - theoretisch begründet. Die entwickelten Beratungsinstrumente werden nach Netzwerkentwicklungsphasen katalogisiert. Zusätzlich wird angegeben, was das jeweilige Instrument leistet und wo seine Grenzen sind. Zudem erfolgt für jedes Instrument die detaillierte Beschreibung der Ziele und des Anwendungsprozesses. Schließlich werden ausgewählte Module Beratungsinstrumente in zwei der drei organisationalen Felder zur Anwendung gebracht. Ziel ist die Beschreibung eines Best-Practice-Beratungsprozesses.
Das „Glossar zum Wissensmanagement im Bevölkerungsschutz“ von Norf, Tiller und Fekete (2019) stellt die wesentlichen Begriffe und Konzepte zu Wissensmanagement und seiner Bedeutung für den Bevölkerungsschutz vor. Das Glossar ist ein Ergebnis des Forschungsprojektes WAKE (https://wake-project.eu/), das Lösungsansätze für den bestmöglichen Umgang mit Wissen im Bevölkerungsschutz entwickelt. Ein besonderes Augenmerk liegt dabei auf der Aufarbeitung der Flüchtlingssituation 2015/2016. Es geht um die Frage, wie das darin erworbene Wissen und die dabei gemachten Erfahrungen strukturiert gesammelt, gesichert, aufgearbeitet und für spätere Szenarien genutzt werden können. Das Glossar kann und soll kein Ratgeber für die praktische Einführung von Wissensmanagement in Behörden und Organisationen mit Sicherheitsaufgabe (BOS) sein. Denn für die Einführung eines Wissensmanagements kann es kein Patentrezept geben. Es muss in jedem einzelnen Fall eine individuell zugeschnittene, praktische Wissensmanagementlösung erarbeitet werden. Allerdings entwickelt das WAKE-Projekt, aufbauend auf dem Glossar, Empfehlungen zur Einführung oder Verbesserung eines Wissensmanagements im Organisationsalltag und in Einsatzsituationen im Bevölkerungsschutz.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Der Beitrag behandelt die Dokumentation und Bauaufnahme sowohl der Geometrie, als auch nicht-stofflicher Eigenschaften der Johannes-Kirche in Bochum von Hans Scharoun. Die vorgestellte Methodik zielt darauf ab, Eigenschaften des Raumes erforschen zu können, die über die reine Geometrie und Materialität hinausgehen, um auch solche bauhistorischen und denkmalpflegerischen Werte fassen zu können.
In this paper we present a comparison of different data driven modeling methods. The first instance of a data driven linear Bayesian model is compared with several linear regression models, a Kriging model and a genetic programming model.
The models are build on industrial data for the development of a robust gas sensor.
The data contain limited amount of samples and a high variance.
The mean square error of the models implemented in a test dataset is used as the comparison strategy.
The results indicate that standard linear regression approaches as well as Kriging and GP show good results,
whereas the Bayesian approach, despite the fact that it requires additional resources, does not lead to improved results.
Modelling Zero-inflated Rainfall Data through the Use of Gaussian Process and Bayesian Regression
(2018)
Rainfall is a key parameter for understanding the water cycle. An accurate rainfall measurement is vital in the development of hydrological models. By means of indirect measurement, satellites can nowadays estimate the rainfall around the world. However, these measurements are not always accurate. As a first approach to generate a bias-corrected rainfall estimate using satellite data, the performance of Gaussian process and Bayesian regression is studied. The results show Gaussian process as the better option for this dataset but leave place to improvements on both modelling strategies.
Sensor placement for contaminant detection in water distribution systems (WDS) has become a topic of great interest aiming to secure a population's water supply. Several approaches can be found in the literature with differences ranging from the objective selected to optimize to the methods implemented to solve the optimization problem. In this work we aim to give an overview of the current work in sensor placement with focus on contaminant detection for WDS. We present some of the objectives for which the sensor placement problem is defined along with common optimization algorithms and Toolkits available to help with algorithm testing and comparison.
Drinking water supply and distribution systems are critical infrastructure that has to be well maintained for the safety of the public. One important tool in the maintenance of water distribution systems (WDS) is flushing. Flushing is a process carried out in a periodic fashion to clean sediments and other contaminants in the water pipes. Given the different topographies, water composition and supply demand between WDS no single flushing strategy is suitable for all of them. In this report a non-exhaustive overview of optimization methods for flushing in WDS is given. Implementation of optimization methods for the flushing procedure and the flushing planing are presented. Suggestions are given as a possible option to optimise existing flushing planing frameworks.
Many black-box optimization problems rely on simulations to evaluate the quality of candidate solutions. These evaluations can be computationally expensive and very time-consuming. We present and approach to mitigate this problem by taking into consideration two factors: The number of evaluations and the execution time. We aim to keep the number of evaluations low by using Bayesian optimization (BO) – known to be sample efficient– and to reduce wall-clock times by executing parallel evaluations. Four parallelization methods using BO as optimizer are compared against the inherently parallel CMA-ES. Each method is evaluated on all the 24 objective functions of the Black-Box-Optimization-Benchmarking test suite in their 20-dimensional versions. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on most of the test functions, also on higher dimensions.
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
We propose a hybridization approach called Regularized-Surrogate- Optimization (RSO) aimed at overcoming difficulties related to high- dimensionality. It combines standard Kriging-based SMBO with regularization techniques. The employed regularization methods use the least absolute shrinkage and selection operator (LASSO). An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than Kriging to obtain comparable results. The pros and cons of the RSO approach are discussed and recommendations for practitioners are presented.
Real-world problems such as computational fluid dynamics simulations and finite element analyses are computationally expensive. A standard approach to mitigating the high computational expense is Surrogate-Based Optimization (SBO). Yet, due to the high-dimensionality of many simulation problems, SBO is not directly applicable or not efficient. Reducing the dimensionality of the search space is one method to overcome this limitation. In addition to the applicability of SBO, dimensionality reduction enables easier data handling and improved data and model interpretability. Regularization is considered as one state-of-the-art technique for dimensionality reduction. We propose a hybridization approach called Regularized-Surrogate-Optimization (RSO) aimed at overcoming difficulties related to high-dimensionality. It couples standard Kriging-based SBO with regularization techniques. The employed regularization methods are based on three adaptations of the least absolute shrinkage and selection operator (LASSO). In addition, tree-based methods are analyzed as an alternative variable selection method. An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than standard SBO to obtain comparable results. The pros and cons of the RSO approach are discussed, and recommendations for practitioners are presented.
Surrogate-based optimization relies on so-called infill criteria (acquisition functions) to decide which point to evaluate next. When Kriging is used as the surrogate model of choice (also called Bayesian optimization), one of the most frequently chosen criteria is expected improvement. We argue that the popularity of expected improvement largely relies on its theoretical properties rather than empirically validated performance. Few results from the literature show evidence, that under certain conditions, expected improvement may perform worse than something as simple as the predicted value of the surrogate model. We benchmark both infill criteria in an extensive empirical study on the ‘BBOB’ function set. This investigation includes a detailed study of the impact of problem dimensionality on algorithm performance. The results support the hypothesis that exploration loses importance with increasing problem dimensionality. A statistical analysis reveals that the purely exploitative search with the predicted value criterion performs better on most problems of five or higher dimensions. Possible reasons for these results are discussed. In addition, we give an in-depth guide for choosing the infill criteria based on prior knowledge about the problem at hand, its dimensionality, and the available budget.
The availability of several CPU cores on current computers enables
parallelization and increases the computational power significantly.
Optimization algorithms have to be adapted to exploit these highly
parallelized systems and evaluate multiple candidate solutions in
each iteration. This issue is especially challenging for expensive
optimization problems, where surrogate models are employed to
reduce the load of objective function evaluations.
This paper compares different approaches for surrogate modelbased
optimization in parallel environments. Additionally, an easy
to use method, which was developed for an industrial project, is
proposed. All described algorithms are tested with a variety of
standard benchmark functions. Furthermore, they are applied to
a real-world engineering problem, the electrostatic precipitator
problem. Expensive computational fluid dynamics simulations are
required to estimate the performance of the precipitator. The task
is to optimize a gas-distribution system so that a desired velocity
distribution is achieved for the gas flow throughout the precipitator.
The vast amount of possible configurations leads to a complex
discrete valued optimization problem. The experiments indicate
that a hybrid approach works best, which proposes candidate solutions
based on different surrogate model-based infill criteria and
evolutionary operators.
Diese Arbeit behandelt Rückversicherungsprogramme aus fakultativen und obligatorischen, proportionalen und nichtproportionalen Deckungen. Zunächst wird eine neue Darstellungsweise eingeführt, die nicht nur die Kapazitäten der Bausteine des Rückversicherungsprogramms, sondern auch die Schadenaufteilung transparent macht. Durch Skalierung der Schadenachse mittels der Verteilungsfunktion des Einzelschadens ergibt sich eine anschauliche Darstellung der jeweiligen Erwartungswerte und damit des Prämienbedarfs. Im zweiten Teil der Arbeit wird die Auswirkung nichtproportionaler fakultativer Rückversicherung auf bereits vorhandene obligatorische Rückversicherungen untersucht, insbesondere der so genannte „Kompressionseffekt“. Die Verteilung des Schadens auf die einzelnen Deckungsabschnitte wird graphisch und mit einem Zahlenbeispiel verdeutlicht. Es ergibt sich, dass ein Schadenexzedent auf den Selbstbehalt durch Kompression erheblich benachteiligt wird.
Land-use intensification and urbanisation processes are degrading ecosystem services in the Guapiaçu-Macacu watershed in the state of Rio de Janeiro, Brazil. Paying farmers to forgo agricultural production activities in order to restore natural watershed services might be a viable means of securing water resources over the long term for the approximately 2.5 million urban water users in the region. This study quantified the costs of changing current land-use patterns to enhance watershed services. These costs are compared to estimates of the avoided water treatment costs for the public potable water supply as a proxy of willingness-to-pay for watershed services. Farm-household data was used to estimate the opportunity costs of abandoning current land uses in order to allow natural vegetation succession; a process that is very likely to improve water quality in terms of reducing erosion and subsequently water turbidity. Opportunity cost estimates were extrapolated to the watershed scale based on land-use classifications and a vulnerability analysis for identifying priority areas for watershed management interventions. Water quality and treatment cost data from the primary local water treatment plant (principal water user in the study area) were analysed to assess the potential demand for watershed services. The conversion of agricultural land uses for the benefit of watershed service provision was found to entail high opportunity costs in the study area, which is near the city of Rio de Janeiro. Alternative, relatively low-cost practices that support watershed conservation do exist for the livestock production systems. Other options include: implementing soil conservation techniques, permanent protection of areas that are vulnerable to erosion, protecting and restoring riparian and headwater areas, and applying more sustainable agricultural practices. These measures have the potential to directly reduce the amount of sediment and nutrients reaching water bodies and, in turn, decrease the costs of treatment required for providing the potable water supply. Based on treatment costs, the state water utility company’s willingness-to-pay for watershed services alone will not be sufficient to compensate farmers for forgoing agricultural production activities in order to improve the provision of additional watershed services. The results suggest that the opportunity costs of land-cover changes at the scale needed to improve water quality will likely exceed the cost of additional investments in water treatment. Monetary incentives conditioned on specific adjustments to existing production systems could offer a complementary role for improving watershed services. The willingness-to-pay analysis, however, only focused on chemical treatment costs and one of a potentially wide range of ecosystem services provided by the natural vegetation in the Guapiaçu-Macacu watershed (water quality maintenance for potable water provision). Other ecosystem services provided by forest cover include carbon sequestration and storage, moderation of extreme weather events, regulation of water flows, landscape aesthetics, and biodiversity protection. Factoring these additional ecosystem services into the willingness-to-pay equation is likely to change the conclusions of the assessment in favour of additional conservation action, either through payments for ecosystem services (PES) or other policy instruments. This effort contributes to the growing body of related scientific literature by offering additional knowledge on how to combine spatially explicit economic and environmental information to provide valuable insights into the feasibility of implementing PES schemes at the scale of entire watersheds. This is relevant to helping inform decision-making processes with respect to the economic scope of incentive-based watershed management in the context of the Guapiaçu-Macacu watershed. Furthermore, the findings of this research can serve long-term watershed conservation initiatives and public policy in other watersheds of the Atlantic Forest biome by facilitating the targeting of conservation incentives for a cost-effective watershed management.
Quantitatives Risikomanagement. Proceedings zum 9. FaRis & DAV Symposium am 4. Dezember 2015 in Köln
(2016)
Das quantitative Risikomanagement nimmt an Bedeutung immer weiter zu. Hierbei spielt natürlich die interne Modellierung von Risiken eine entscheidende Rolle. In diesem Zusammenhang sind die verschiedenen Modellansätze zu beleuchten und Risikomaße bzw. Risikoaggregationsmethoden im Rahmen der Bewertung kritisch zu hinterfragen. Nicht zu vernachlässigen ist in der Betrachtung des Zusammenspiels verschiedener Risiken und somit auch in der Modellierung gerade bei Versicherungsunternehmen das Asset-Liability-Management.
Die zunehmende Automatisierung sowie Vernetzung des automobilen Verkehrs besitzt potenziell tiefgreifende Auswirkungen auf die Kfz-Versicherung. Neben der Frage nach der Haftung für Verkehrsunfälle spielen dabei ebenso eine sich verändernde Risikolandschaft sowie mögliche Verschiebungen der Kundenschnittstelle durch servicebasierte Mobilitätskonzepte eine strategisch zentrale Rolle. Darüber hinaus führt die zunehmende Vernetzung der Fahrzeuge zu einem sich verschärfenden Wettkampf um den Zugriff auf relevante Daten aus dem Fahrzeug.
Beim 14. FaRis & DAV Symposium beleuchteten die Vortragenden diese Fragen hinsichtlich ihrer Auswirkungen auf das Geschäftsmodell der Kfz-Versicherung, um auf dieser Basis die Herausforderungen und mögliche Lösungsansätze zu diskutieren.
As the amount of data gathered by monitoring systems increases, using computational tools to analyze it becomes a necessity.
Machine learning algorithms can be used in both regression and classification problems, providing useful insights while avoiding the bias and proneness to errors of humans. In this paper, a specific kind of decision tree algorithm, called conditional inference tree, is used to extract relevant knowledge from data that pertains to electrical motors. The model is chosen due to its flexibility, strong statistical foundation, as well as great capabilities to generalize and cope with problems in the data. The obtained knowledge is organized in a structured way and then analyzed in the context of health condition monitoring. The final
results illustrate how the approach can be used to gain insight into the system and present the results in an understandable, user-friendly manner
In diesem Artikel wird die Entwicklung einer neuen Methode zur Risikobewertung von komplexen, technischen Systemen (z.B. Maschinen, Prozessen) dokumentiert. Wir demonstrieren die Anwendung unserer Methode anhand eines Beispiels der Medizintechnik. Ziel ist die quantitative Bewertung von Risiken, die über die Ermittlung der Eintrittswahrscheinlichkeit und des Schadenerwartungswertes hinaus geht. Besonders relevant ist die Berechnung kostenintensiver Groß- schäden. Dazu kombinieren wir Methoden der klassischen ingenieurwissen- schaftlichen Risikoanalyse mit Methoden der Aktuarwissenschaften. Daraus erhalten wir eine neue Methode des quantitativen Risikomanagements zur Berechnung von Gesamtschadenverteilungen komplexer technischer Systeme. Auf diese Weise werden alle modernen Risikomaße (z.B. VaR, Expected Shortfall) zugänglich. Wir demonstrieren die einzelnen Schritte anhand eines konkreten Beispiels aus der Praxis, einem zahnärztlichen Behandlungsstuhl.
Über mathematische Methoden und Verfahren der Künstlichen Intelligenz wird auch in der Versicherungsbranche und speziell in den Aktuarwissenschaften zunehmend intensiver diskutiert. Dazu zählen insbesondere auch Themen des Risikomanagements der Unternehmen. Bedeutende Aspekte sind dabei die Risikomessung, die Risikobeurteilung sowie die Risikokommunikation im Zuge von Solvency II. Vor diesem Hintergrund widmen wir das 15. FaRis-Symposium der Künstlichen Intelligenz im Risikomanagement. Unsere Referenten berichten in ihren Vorträgen von verschiedenen Projekten, in denen sie Künstliche Intelligenz im Risikomanagement erfolgreich eingesetzt haben. Sie referieren über Chancen und Herausforderungen sowie über zukünftige Themenfeldern der Aktuarinnen und Aktuare in Deutschland.
Aktuell kommen in der Versicherungsbranche zunehmend neue Geschäftsmodelle und innovative Technologien zum Einsatz. Das betrifft nicht nur einzelne Aufgaben und Funktionen, wie zum Beispiel den Vertrieb von Versicherungen. Vielmehr beobachten wir Innovationen durch Unternehmen (den „InsurTechs“) entlang der gesamten Wertschöpfungskette und sogar Neugründungen von Versicherungsunternehmen. Viele Unternehmer und Investoren beabsichtigen, mit ihren Ideen nachhaltige Lösungen zu entwickeln und das Produkt „Versicherung“ mit kundenorientierten Lösungen zu verbessern. Zum 12. Symposium hatten wir junge InsurTech-Unternehmen aus den verschiedenen Versicherungssparten eingeladen. Gründer und Vorstände berichteten am InsurTech-Standort Köln von ihren Visionen und vom aktuellen Umsetzungsstand in der Praxis.
BLANK ist formuliert um direkte Zusammenhänge von Theorie als Inspiration für gestalterische (als auch künstlerische) Konzeption und daraus resultierenden praktischen Ergebnissen herauszustellen. Zu diesem Zweck ist die Rezeptionsästhetik als Grundlage herangezogen worden. Fotografische Arbeiten werden innerhalb des Bildbands, BLANK in Beziehung gesetzt um theoretische Aspekte von Rezeption wahrzunehmen.
Ein großer Teil der älteren Bevölkerung lebt relativ zurückgezogen und ist nur eingeschränkt in das sozialräumliche Umfeld eingebunden. Mit zunehmendem Alter werden die sozialen Netzwerke kleiner und sind stärker durch familiäre Beziehungen geprägt. Allerdings sind die Familienbezüge räumlich entfernt oder sozial prekär, ebenso Kontakte in die Nachbarschaft oder ins weitere Umfeld im Quartier. Auch wenn Kontakte auf vereinzelte Familienbeziehungen oder auf einen engen Ausschnitt des herkunftskulturellen Milieus konzentriert bleiben, ist eine aktive Teilhabe schwach ausgeprägt. Einerseits handelt es sich um einen freiwilligen und bewussten sozialen Rückzug; andererseits resultieren die Gründe für das zurückgezogene Leben aus körperlichen, sozialen und/oder kognitiven Einschränkungen. Die zu Grunde liegenden Bewältigungsstrategien sind mit dem Risiko sozialer Isolation verbunden und münden in eine reduzierte Lebensqualität und die Anfälligkeit für Krankheiten aller Art.
Mit zunehmendem Lebensalter treten darüber hinaus neue Fragen auf, die die Orientierung im Alltag älterer Menschen betreffen: Das betrifft beispielsweise das selbstbestimmte Wohnen, die Gestaltung des Wochen- und Tagesablaufs und reicht bis zur Inanspruchnahme von Dienstleistungen. Ältere Menschen wissen häufig nicht, an wen sie sich mit ihren Fragen wenden können. Vor diesem Hintergrund besteht der Bedarf eines lokalen Lotsensystems, das die Fragen älterer Menschen nicht nur aufnehmen kann, sondern für sie Anschlüsse zu den „richtigen“ Stellen herstellt.
Im Projekt SONA („Seniorenorientierte Navigation“) wurde im Zeitraum 2012-2015 in Zusammenarbeit mit der Sozialverwaltung der Stadt Mülheim an der Ruhr ein Infrastrukturmodell von „Wegweisern“ bzw. „Lotsen“ entwickelt und erprobt, das sowohl die Funktion der Vermittlung von Informationen und Wegen in den verschiedenen Feldern des alltäglichen Lebens als auch die von „Kümmerern“ für Belange älterer Menschen übernimmt. Gefördert wurde das Projektvorhaben im Rahmen der SILQUA-FH-Förderlinie („Soziale Innovationen im Alter“) des Bundeministeriums für Bildung und Forschung mit dem Ziel, den Herausforderungen, die sich angesichts des demografischen Wandels ergeben, angemessen Rechnung zu tragen. Im Vordergrund der Forschungsaktivitäten stand die Verbesserung der Lebensqualität älterer Menschen sowie die Erhaltung und Stärkung ihrer Autonomie.
Der vorliegende Abschlussbericht stellt einen integrierten Handlungsrahmen dar, in dem auf zweierlei Wege über die Ergebnisse des Projekts referiert wird; zum einen werden Erfahrungen und Ergebnisse aus dem Projekt SONA vorgestellt, um sie für die Wissenschaft und Praxis nutzbar zu machen. Zum anderen werden allgemeine Handlungsempfehlungen ausgesprochen, um die Transfermöglichkeiten des Projekts zu erörtern. Zu den zentralen Ergebnissen zählt in diesem Kontext beispielsweise, dass ein Lotsensystem nur dann nachhaltig verankert werden kann, wenn es eine zentrale Koordinations- und Steuerungsverantwortlichkeit gibt. Darüber hinaus ist die Implementierung eines prozesshaften Qualitätsmanagements empfehlenswert, um die interne Organisation mit den Lotsen und Ansprechpartnern in den Themenfeldern sowie den Kontakt mit den Bürgern so zu gestalten, dass auf die Bedürfnisse der verschiedenen Zielgruppen passgenau reagiert werden kann.