Refine
Year of publication
Document Type
- Working Paper (75)
- Report (52)
- Conference Proceeding (25)
- Book (16)
- Article (10)
- Preprint (7)
- Doctoral Thesis (3)
- Other (1)
Language
- German (137)
- English (51)
- Multiple languages (1)
Has Fulltext
- yes (189)
Keywords
- Versicherungswirtschaft (36)
- Optimierung (20)
- Forschungsbericht (19)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (10)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (76)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (24)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (11)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (5)
- Zentrum für Lehrentwicklung (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 02 / Köln International School of Design (3)
- Fakultät 07 / Institut für Nachrichtentechnik (2)
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
An der Technischen Hochschule Köln wird für Studierende des Informatik-Bachelors im vierten Semester das Modul „Berufspraxis Informatik“ angeboten, bei dem erfahrene Informatiker*innen ein Thema aus ihrem Berufsalltag vorstellen. Die einzelnen Veranstaltungen gliedern sich in einen Vortrags- und einen Workshopteil und werden vorranging offline, d. h. vor Ort, z. T. aber auch online angeboten. Um die aktive Beteiligung der Studierenden bei den Veranstaltungsterminen zu erhöhen, wurde eine Lehrintervention durchgeführt: Die Intervention wies einem Teil der Studierenden eine aktive Rolle z. B. als Moderator*in zu. In der anschließenden Datenerhebung wurden insb. hinderliche bzw. förderliche Faktoren für eine gelungene Aktivierung betrachtet. Neben der aktiven Rolle sowie dem persönlichen Interesse hatte einen großen Einfluss auf die Aktivierung, ob die Veranstaltung online oder offline durchgeführt wurde. In der Online-Variante waren es vorrangig technische und organisatorische Aspekte sowie Hemmnisse der Studierenden sich zu melden, die eine gelungene studentische Beteiligung behinderten.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
Der Beitrag behandelt ein zum Teil im nationalsozialistischen ductus gehaltenes Urteil des Reichsgerichts zur sog. „Führerscheinklausel“ in der Kraftfahrtversicherung aus dem Jahre 1941. Hintergrund dieses Urteil war eine verbrecherische „Anordnung“ von Heinrich Himmler, welche jüdischen Deutschen das Fahren von Kraftfahrzeugen verbot.
Der Verfasser kam auf dieses Urteil, als er im Archiv der BGH-Bibliothek die unveröffentlichten Urteile des Versicherungssenates des Reichsgerichtes zwischen 1939 bis 1945 durcharbeitete. Im Bundesarchiv konnte der Autor sodann die Gerichtsakte einsehen und ferner die Personalakten der entscheidenden Reichsgerichtsräte. Der Verfasser geht auch auf das Schicksal des später im Rahmen der Schoa ermordeten jüdischen Fahrers ein.
Dieses Urteil des Versicherungssenates belegt anschaulich, insbesondere unter Berücksichtigung der erfolgten Auswertung auch seiner übrigen Rechtsprechung, wie im Bereich des Zivilrechtes die Gerichte ihre Rechtsprechung auch nach der „Machtergreifung“ scheinbar normal weiterführten, teilweise auch Klage von Juden stattgaben und auch sind beim Versicherungssenat des Reichsgerichtet direkte politische Enflussnahmen nicht zu belegen. Aber wie die Auswertung des Verfassers rund um das „Führerscheinurteil“ belegt, war dies auch nicht notwendig, da denn Richter bewusst gewesen sein dürfte, wie sie einerseits formaljuristisch „richtig“ entscheiden, anderseits sich gegenüber den nationalsozialistischen Machthabers nicht angreifbar machen.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
The fashion industry is one of the most harmful industries in the world. Many garments are produced and dyed on a petroleum base; vast amounts of water are used in the production of textiles and garments; and environmentally harmful chemicals are released into the environment during production. Working towards sustainability in fashion is more relevant than ever. One way of doing this is to design garments with nature. To do so, I am presenting an example of biotechnology in the field of dyeing techniques. The project is innovative and future-driven in that it offers alternatives to industrial, petroleum-based dyeing techniques. A number of bacteria produce different colored pigments. The bacteria strain Janthinobacterium lividum, for example, is considered nontoxic and safe to handle. It is found in nature on the skin of the red-backed salamander. The bacteria produce dark purple pigments called violacein. With the pigment’s antifungal and antibacterial characteristics, it protects itself and its host from intruders. Can the pigment, however, be applied to dye textiles?
Epidemic Geographies
(2023)
This essay is a shortened version of a final BA thesis, written during the global pandemic of covid-19, dominating media reports, public life, and private experience in the quarantine society in the months of April to July 2020. Yet this thesis was also a test, a quiet personal one. To focus on current conditions and events allowed to shift the perspective from familiar contexts to unknown environments. It allowed to try out whether the subjects of our studies can be applied to a ‘real world context’ besides works that often only retrospectively comment on preexisting conditions. Parallel to this text two video works were developed. While the first (Heatmap Urbanism - https://vimeo.com/469567011) offers a visual inquiry into the urban implications of pandemic contact tracing, the second (Relational Topographies - https://vimeo.com/469582311) presents the cartographic speculations that are conceived in this essay.
BLANK ist formuliert um direkte Zusammenhänge von Theorie als Inspiration für gestalterische (als auch künstlerische) Konzeption und daraus resultierenden praktischen Ergebnissen herauszustellen. Zu diesem Zweck ist die Rezeptionsästhetik als Grundlage herangezogen worden. Fotografische Arbeiten werden innerhalb des Bildbands, BLANK in Beziehung gesetzt um theoretische Aspekte von Rezeption wahrzunehmen.
Hermann Arnold. Eine vergessene Verbindung zwischen Peter Behrens und Ludwig Mies van der Rohe
(2024)
Nach einer bedeutenden Schulreform kurz nach der Jahrhundertwende war der Architekt Hermann Peter Arnold der erste Leiter einer Architekturklasse an der Kunstgewerbeschule Aachen. Er brachte als junger Lehrer und Architekt Ideenwelten von der Darmstädter Künstlerkolonie Mathildenhöhe sowie aus dem Atelier von Peter Behrens nach Aachen. Seine Person, wie auch seine Prägung der ersten Generation von Architektur-Absolventen der Kunstgewerbeschule soll hier erstmals untersucht werden.
Zu seinen Schülern zählen neben Ludwig Mies van der Rohe Namen wie Peter Großmann, Emil Fahrenkamp, sowie vorwiegend in Aachen tätige Baumeister wie Franz Dominick, Ferdinand Goebbels oder Fritz Toussaint. Insbesondere die Verbindung zu Mies van der Rohe ist bemerkenswert. Wenig bekannt war bisher die Bedeutung seines Studiums an den Aachener Gewerbe- und
Kunstgewerbeschulen, bevor er die schicksalhaften Schritte nach Berlin und später nach Chicago ging. Insbesondere die Verbindung zu seinem Lehrer Hermann Arnold wird hier fokussiert betrachtet. Sie stellt sich als Erklärungsmodell für das Frühwerk, sowie als unbekannte Brücke zu Mies späterem einflussreichen Arbeitgeber Peter Behrens heraus.
Die COVID-19-Pandemie hat die akademische Lehre vor methodisch-didaktische Herausforderungen gestellt. Da von einer künftigen verstärkten Ausrichtung auf digitale Lehr- und Lernprozesse auszugehen ist, wurde mit der Dualen Hochschule Baden-Württemberg als Erhebungskontext eine Skala zur Evaluation digitaler Lehre entwickelt. Die angenommene Faktorenstruktur entlang der vier Prämissen erfolgreicher Online-Sozialisation (Technischer Zugang, Autonomie, Kompetenz, Soziale Eingebundenheit) konnte nicht bestätigt werden; vielmehr deutet das Ergebnis auf ein Zwei-Faktoren-Modell hin, das sich aus der digitalen Lernautonomie und dem digitalitätsbezogenen Kompetenzerleben zusammensetzt. Als Erklärungen werden die Differenzierungsfähigkeit der Studierenden sowie Entfremdungstendenzen im Zeichen von Distant Socializing diskutiert.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Nach einem Jahr Corona-bedingter Pause fand das FaRis & DAV-Symposium am 10. Dezember 2021 an der Technischen Hochschule Köln statt. Unter dem Titel „Aktuelle Herausforderungen an das aktuarielle und finanzielle Risikomanagement durch COVID-19 und die anhaltende Niedrigzinsphase“ beleuchtete das virtuell durchgeführte 16. FaRis & DAV-Symposium Symposium die aktuelle Situation der Lebensversicherungen und der betrieblichen Altersversorgung aus unterschiedlichen Blickwinkeln. Im ersten Teil der Veranstaltung lag der Fokus auf der Kapitalanlage. Im zweiten Teil wurde die Abschätzung der Pandemie-Folgen auf Pensionskassen thematisiert und um einen Blick auf den Status Quo sowie die Zukunft des Geschäftsmodells der Lebensversicherungen und betrieblichen Altersversorgung ergänzt.
Der vorliegende Tagungsband stellt eine Zusammenfassung der Themen des Symposiums dar.
Markov-Ketten haben bei der Modellierung von ökonomischen Sachverhalten eine Vielzahl von Anwendungen. In den Wirtschaftswissenschaften steht oft ein Portfolio von Markov -Ketten im Mittelpunkt des Interesses, z.B. das Kreditportfolio einer Bank oder das Vertragsportfolio einer Versicherung. In den meisten Modellen wird dabei die stochastische Unabhängigkeit der unterschiedlichen Markov-Ketten vorausgesetzt. In der vorliegenden Arbeit wird ein Modell zur Berücksichtigung einer Abhängigkeitsstruktur in einem solchen Portfolio vorgestellt. Die Abhängigkeiten werden dabei mit einer Familie von Copulas modelliert und werden bei den Übergangsmatrizen berücksichtigt.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
In 2021 feiert die Technische Hochschule Köln (TH Köln) ihr 50-jähriges Jubiläum und damit auch das Institut für Versicherungswesen (ivwKöln), wobei sich inzwischen Forschung, Lehre und Transfer in die Praxis auf alle Risikofelder des Versicherungsgeschäfts und alle Kompetenzbereiche der Versicherungsunternehmen beziehen. Anlässlich dieses Jubiläums hat das ivwKöln daher in einem Band „Risiko im Wandel. Herausforderung für die Versicherungswirtschaft“, der in 2022 als Open Access erscheinen wird, die Vielfalt von Forschung und Praxis aller Mitwirkenden an der Arbeit des Institutes gebündelt zusammengefasst. Der nachfolgende Beitrag soll schon vorab einen Überblick der verschiedenen Forschungsthemen geben.
Über mathematische Methoden und Verfahren der Künstlichen Intelligenz wird auch in der Versicherungsbranche und speziell in den Aktuarwissenschaften zunehmend intensiver diskutiert. Dazu zählen insbesondere auch Themen des Risikomanagements der Unternehmen. Bedeutende Aspekte sind dabei die Risikomessung, die Risikobeurteilung sowie die Risikokommunikation im Zuge von Solvency II. Vor diesem Hintergrund widmen wir das 15. FaRis-Symposium der Künstlichen Intelligenz im Risikomanagement. Unsere Referenten berichten in ihren Vorträgen von verschiedenen Projekten, in denen sie Künstliche Intelligenz im Risikomanagement erfolgreich eingesetzt haben. Sie referieren über Chancen und Herausforderungen sowie über zukünftige Themenfeldern der Aktuarinnen und Aktuare in Deutschland.
Ausgelöst durch die COVID-19-Pandemie im Sommersemester 2020 fanden Hochschulen eine große Bandbreite an lokalen Lösungen für die Ad-hoc Umstellung auf digitale Lehre. Über Notfalllösungen hinaus stellt sich für die Zukunft der Hochschullehre die Frage, welche Chancen hybride Hochschullehre bietet. Dies berührt vor allem notwendige Veränderungen der Makroebene der strukturellen Rahmenbedingungen für das Lehren und Lernen an der Hochschule als Organisation, die auch von den rechtlichen Vorgaben und dem politischen Diskurs zu Studien- und Bildungszielen geprägt ist. Der Band versammelt unterschiedliche Ansätze hochschuldidaktischer Forschung und geht der Frage nach, welche Implikationen sich aus erhobenen empirischen Daten für die Hochschulbildung und die lehrbezogene Hochschulentwicklung ableiten lassen.
Der Band behandelt auf der Makroebene die Themen:
I. Bewertung und Akzeptanz sich verändernder Lehrstrukturen
II. Rahmenbedingungen digitaler/hybrider Lehre aus der Sicht von Lehrenden und Studierenden
III. Die Rolle der Hochschuldidaktik in der Entwicklung digitaler/hybrider Lehrstrukturen
IV. Methodische Bezugsrahmen für die strategische Hochschulentwicklung im Kontext der Digitalisierung
Gegründet 1829, prägte die Papierfabrik Zanders das Wirtschaftsleben der Stadt Bergisch Gladbach über fast 200 Jahre nachhaltig. Auf dem 37 ha großen Werkgelände finden sich Gebäude aus den verschiedenen Epochen der Papierfabrik und dokumentieren die wechselvolle Geschichte der Firma. Die in diesem Studienprojekt bearbeiteten historischen Werkhallen wurden zusammen mit elf weiteren Objekten auf dem Firmengelände als Baudenkmal in die Denkmalliste der Stadt Bergisch Gladbach aufgenommen. Die erarbeiteten Projekte zeigen verschiedene Wege der Nutzung auf.
Im 50. Jubiläumsjahr der TH Köln haben wir uns einem bislang wenig behandelten Thema gewidmet, nämlich der Kunst an den Gebäuden der Technischen Hochschule Köln.
Die TH Köln verfügt als größte Fachhochschule in Deutschland über zwei Standorte in Köln, den Campus Südstadt und den Campus Deutz. Darüber hinaus gibt es zwei weitere Standorte in Gummersbach und Leverkusen. Da sich die künstlerischen Objekte ausschließlich an den Gebäuden innerhalb des Stadtgebiets von Köln befinden, beschränkt sich diese Betrachtung auf die historischen Gebäude des Campus Südstadt sowie auf den maßgeblich in den 1970er Jahren entstandenen Komplex des Campus Deutz.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Der Beitrag behandelt die Dokumentation und Bauaufnahme sowohl der Geometrie, als auch nicht-stofflicher Eigenschaften der Johannes-Kirche in Bochum von Hans Scharoun. Die vorgestellte Methodik zielt darauf ab, Eigenschaften des Raumes erforschen zu können, die über die reine Geometrie und Materialität hinausgehen, um auch solche bauhistorischen und denkmalpflegerischen Werte fassen zu können.
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
Drinking water supply and distribution systems are critical infrastructure that has to be well maintained for the safety of the public. One important tool in the maintenance of water distribution systems (WDS) is flushing. Flushing is a process carried out in a periodic fashion to clean sediments and other contaminants in the water pipes. Given the different topographies, water composition and supply demand between WDS no single flushing strategy is suitable for all of them. In this report a non-exhaustive overview of optimization methods for flushing in WDS is given. Implementation of optimization methods for the flushing procedure and the flushing planing are presented. Suggestions are given as a possible option to optimise existing flushing planing frameworks.
EventDetectR: An efficient Event Detection System (EDS) capable of detecting unexpected water quality conditions. This approach uses multiple algorithms to model the relationship between various multivariate water quality signals. Then the residuals of the models were utilized in constructing the event detection algorithm, which provides a continuous measure of the probability of an event at every time step. The proposed framework was tested for water contamination events with industrial data from automated water quality sensors. The results showed that the framework is reliable with better performance and is highly suitable for event detection.
Sensor placement for contaminant detection in water distribution systems (WDS) has become a topic of great interest aiming to secure a population's water supply. Several approaches can be found in the literature with differences ranging from the objective selected to optimize to the methods implemented to solve the optimization problem. In this work we aim to give an overview of the current work in sensor placement with focus on contaminant detection for WDS. We present some of the objectives for which the sensor placement problem is defined along with common optimization algorithms and Toolkits available to help with algorithm testing and comparison.
Benchmark experiments are required to test, compare, tune, and understand optimization algorithms. Ideally, benchmark problems closely reflect real-world problem behavior. Yet, real-world problems are not always readily available for benchmarking. For example, evaluation costs may be too high, or resources are unavailable (e.g., software or equipment). As a solution, data from previous evaluations can be used to train surrogate models which are then used for benchmarking. The goal is to generate test functions on which the performance of an algorithm is similar to that on the real-world objective function. However, predictions from data-driven models tend to be smoother than the ground-truth from which the training data is derived. This is especially problematic when the training data becomes sparse. The resulting benchmarks may not reflect the landscape features of the ground-truth, are too easy, and may lead to biased conclusions.
To resolve this, we use simulation of Gaussian processes instead of estimation (or prediction). This retains the covariance properties estimated during model training. While previous research suggested a decomposition-based approach for a small-scale, discrete problem, we show that the spectral simulation method enables simulation for continuous optimization problems. In a set of experiments with an artificial ground-truth, we demonstrate that this yields more accurate benchmarks than simply predicting with the Gaussian process model.
Many black-box optimization problems rely on simulations to evaluate the quality of candidate solutions. These evaluations can be computationally expensive and very time-consuming. We present and approach to mitigate this problem by taking into consideration two factors: The number of evaluations and the execution time. We aim to keep the number of evaluations low by using Bayesian optimization (BO) – known to be sample efficient– and to reduce wall-clock times by executing parallel evaluations. Four parallelization methods using BO as optimizer are compared against the inherently parallel CMA-ES. Each method is evaluated on all the 24 objective functions of the Black-Box-Optimization-Benchmarking test suite in their 20-dimensional versions. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on most of the test functions, also on higher dimensions.
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
Surrogate-based optimization relies on so-called infill criteria (acquisition functions) to decide which point to evaluate next. When Kriging is used as the surrogate model of choice (also called Bayesian optimization), one of the most frequently chosen criteria is expected improvement. We argue that the popularity of expected improvement largely relies on its theoretical properties rather than empirically validated performance. Few results from the literature show evidence, that under certain conditions, expected improvement may perform worse than something as simple as the predicted value of the surrogate model. We benchmark both infill criteria in an extensive empirical study on the ‘BBOB’ function set. This investigation includes a detailed study of the impact of problem dimensionality on algorithm performance. The results support the hypothesis that exploration loses importance with increasing problem dimensionality. A statistical analysis reveals that the purely exploitative search with the predicted value criterion performs better on most problems of five or higher dimensions. Possible reasons for these results are discussed. In addition, we give an in-depth guide for choosing the infill criteria based on prior knowledge about the problem at hand, its dimensionality, and the available budget.
Real-world problems such as computational fluid dynamics simulations and finite element analyses are computationally expensive. A standard approach to mitigating the high computational expense is Surrogate-Based Optimization (SBO). Yet, due to the high-dimensionality of many simulation problems, SBO is not directly applicable or not efficient. Reducing the dimensionality of the search space is one method to overcome this limitation. In addition to the applicability of SBO, dimensionality reduction enables easier data handling and improved data and model interpretability. Regularization is considered as one state-of-the-art technique for dimensionality reduction. We propose a hybridization approach called Regularized-Surrogate-Optimization (RSO) aimed at overcoming difficulties related to high-dimensionality. It couples standard Kriging-based SBO with regularization techniques. The employed regularization methods are based on three adaptations of the least absolute shrinkage and selection operator (LASSO). In addition, tree-based methods are analyzed as an alternative variable selection method. An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than standard SBO to obtain comparable results. The pros and cons of the RSO approach are discussed, and recommendations for practitioners are presented.
We propose a hybridization approach called Regularized-Surrogate- Optimization (RSO) aimed at overcoming difficulties related to high- dimensionality. It combines standard Kriging-based SMBO with regularization techniques. The employed regularization methods use the least absolute shrinkage and selection operator (LASSO). An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than Kriging to obtain comparable results. The pros and cons of the RSO approach are discussed and recommendations for practitioners are presented.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Die Frage, ob Big Data und Künstliche Intelligenz (KI) die Versicherungswirtschaft revolutionieren, beschäftigt schon seit einiger Zeit unsere Gesellschaft sowie im Besonderen die Versicherungsbranche. Die Fortschritte in jüngster Vergangenheit in der KI und bei der Auswertung großer Datenmengen sowie die große mediale Aufmerksamkeit sind immens. Somit waren Big Data und Künstliche Intelligenz auch die diesjährigen vielversprechenden Themen des 24. Kölner Versicherungs-
symposiums der TH Köln am 14. November 2019: Das ivwKöln hatte zum fachlichen Austausch eingeladen, ein attraktives Vortragsprogramm zusammengestellt und Networking-Gelegenheiten für die Gäste aus Forschung und Praxis vorbereitet. Der vorliegende Proceedings-Band umfasst die Vortragsinhalte der verschiedenen Referenten.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten deutlich von den realen Risiken ab. Zudem sind die meisten Menschen durch das Denken in Wahrscheinlichkeiten und hohe Zahlen überfordert. In einer (weitgehend) repräsentativen Bevölkerungsumfrage wurden vom 31.3. bis zum 2.4.2020 insgesamt 2.028 Personen zur Wahrnehmung von Risiken rund um die Corona-Pandemie sowie zur Fähigkeit der Einschätzung exponentieller Entwicklungen befragt.
Die wichtigsten Ergebnisse lassen sich wie folgt zusammenfassen:
Exponentielle Entwicklungen – wie im Falle einer Pandemie gegeben - entziehen sich weitgehend dem menschlichen Vorstellungsvermögen. Das Gleiche gilt für die gigantischen Geldbeträge, die als Hilfsmaßnahmen für die Wirtschaft beschlossen wurden. Diese werden – vereinfacht ausgedrückt - nur noch als „unglaublich viel Geld“ wahrgenommen.
Die Sorgen vor Corona sind – wenig überraschend – in den Köpfen der Bürger überaus präsent. Nur ein kleiner Anteil der Bevölkerung sorgt sich nach eigenen Aussagen gar nicht oder kaum über eine mögliche Ansteckung. Jeder zweite fürchtet eine wirtschaftlichen Notlage, und vierzig Prozent bangen sogar um ihr Leben.
Zum Vergleich haben wir einige weitere Sorgen mit erfasst, die wir bereits in einer Studie im August 2016 erhoben hatten. Damals war Krebs – gemeinsam mit Verkehrsunfällen – die weitaus präsenteste von insgesamt 30 abgefragten Sorgen. Die Angst vor einem Terroranschlag lag bei den Befragten ebenfalls weit vorne. Aber kein Thema hatte die Bürger damals so „im Griff“ wie zum jetzigen Erhebungszeitpunkt die Corona-Krise.
Andere Gefahren scheinen durch Corona nur in moderatem Umfang verdrängt zu werden: Krebs oder Herzinfarkt besorgen tendenziell etwas weniger Menschen, als das in „normalen“ Zeiten der Fall ist. Die vor vier Jahren noch höchst präsente Bedrohung durch Terrorismus ist hingegen zu großen Teilen aus dem Alltagserleben verschwunden.
Wird anstelle des „Bauches“ der „Kopf“ angesprochen, so ändert sich die Reihenfolge der Risiken nicht wesentlich. Ebenso wie Herzinfarkt und Krebs werden auch die Ansteckung und eine wirtschaftliche Notlage von weiten Teilen der Bevölkerung als eine realistische Bedrohung angesehen.
Ausnahme hiervon ist der mögliche Tod durch den Corona-Virus, der sich in den alltäglichen Ängsten (siehe oben Punkt 2) deutlich mehr niederschlägt, als wenn etwas nüchterner über konkrete Wahrscheinlichkeiten nachgedacht wird. Erst in der Altersgruppe ab 55 Jahren steigen auch hier die Werte deutlich an. Sie bleiben aber auch dann realistischerweise unter den Werten für einen Herzinfarkt oder eine Krebserkrankung.
Im Großen und Ganzen hielten sich die Menschen an die auferlegten Verbote: Die Mehrheit folgt diesen zumindest aus eigener Sicht „voll und ganz“. Gut jeder Dritte nimmt es aber nicht so ganz genau, und insgesamt ca. 5% bekennen sich dazu, die Regeln eher oder gar nicht zu befolgen.
Die Frage, wer am ehesten gegen die Regeln verstößt, lässt sich anhand soziodemographischer Daten kaum eindeutig beantworten. Zwar steigt der Anteil derer, die die Regeln „voll und ganz befolgen“, ab ca. 45 Jahren leicht an, insgesamt zeigen sich aber alle Altersgruppen weitgehend „regelkonform“. Noch geringer sind die Unterschiede nach Einkommen, Bildung oder Bundesland. Am ehesten findet sich noch eine Abweichung nach Geschlecht, indem Männer die Regeln etwas „lockerer“ auslegen.
Der Bedarf an Tests ist hoch, eine Mehrheit würde gerne einen Corona-Test vornehmen.
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
Im Band 2/2019 werden Ergebnisse und Inhalte der Definitionphase des Deutsch-Iranischen Projektes „Basis-Infrastrukturen und Services einer inklusiven Katastrophenresilienz im Iran – Basic Infrastructures and Services for Enhancing Inclusive Community Disaster Resilience in Iran“ (INCOR) veröffentlicht. Er gibt einen Überblick über die Inhalte des Projekts und beleuchtet die Hintergründe und Konzeption. Weiter werden Synergien zwischen dem Resilienz-Ansatz für Kritische Infrastrukturen und dem Ansatz der „inclusiveness“ nach UN HABITAT beschrieben. Außerdem wird über die Iranisch-Deutschen Experten Workshops in Teheran und Köln berichtet, welche den internationalen Austausch von Katastrophenschutz-Managern förderten. Abschließend werden Möglichkeiten genannt, wie INCOR dem Sendai Framework beiträgt.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
Das „Glossar zum Wissensmanagement im Bevölkerungsschutz“ von Norf, Tiller und Fekete (2019) stellt die wesentlichen Begriffe und Konzepte zu Wissensmanagement und seiner Bedeutung für den Bevölkerungsschutz vor. Das Glossar ist ein Ergebnis des Forschungsprojektes WAKE (https://wake-project.eu/), das Lösungsansätze für den bestmöglichen Umgang mit Wissen im Bevölkerungsschutz entwickelt. Ein besonderes Augenmerk liegt dabei auf der Aufarbeitung der Flüchtlingssituation 2015/2016. Es geht um die Frage, wie das darin erworbene Wissen und die dabei gemachten Erfahrungen strukturiert gesammelt, gesichert, aufgearbeitet und für spätere Szenarien genutzt werden können. Das Glossar kann und soll kein Ratgeber für die praktische Einführung von Wissensmanagement in Behörden und Organisationen mit Sicherheitsaufgabe (BOS) sein. Denn für die Einführung eines Wissensmanagements kann es kein Patentrezept geben. Es muss in jedem einzelnen Fall eine individuell zugeschnittene, praktische Wissensmanagementlösung erarbeitet werden. Allerdings entwickelt das WAKE-Projekt, aufbauend auf dem Glossar, Empfehlungen zur Einführung oder Verbesserung eines Wissensmanagements im Organisationsalltag und in Einsatzsituationen im Bevölkerungsschutz.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Die zunehmende Automatisierung sowie Vernetzung des automobilen Verkehrs besitzt potenziell tiefgreifende Auswirkungen auf die Kfz-Versicherung. Neben der Frage nach der Haftung für Verkehrsunfälle spielen dabei ebenso eine sich verändernde Risikolandschaft sowie mögliche Verschiebungen der Kundenschnittstelle durch servicebasierte Mobilitätskonzepte eine strategisch zentrale Rolle. Darüber hinaus führt die zunehmende Vernetzung der Fahrzeuge zu einem sich verschärfenden Wettkampf um den Zugriff auf relevante Daten aus dem Fahrzeug.
Beim 14. FaRis & DAV Symposium beleuchteten die Vortragenden diese Fragen hinsichtlich ihrer Auswirkungen auf das Geschäftsmodell der Kfz-Versicherung, um auf dieser Basis die Herausforderungen und mögliche Lösungsansätze zu diskutieren.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Das Betriebsrentenstärkungsgesetz stellt eine Novellierung der betrieblichen Altersversorgung (bAV) in Deutschland dar. Mit dem kürzlich verabschiedeten Gesetz wird erstmals die Möglichkeit geschaffen, die reine Beitragszusage (rBZ) ohne Leistungsgarantie auf tarifvertraglichem Weg zu vereinbaren. Die Höhe der späteren Versorgungsleistung der Arbeitnehmer wird somit zum einen durch die entrichteten Beiträge an den Versorgungsträger determiniert. Zum anderen bestimmt der Erfolg der im Kollektiv zu organisierenden Kapitalanlage mit einem ebenfalls gemeinschaftlichen Risikobudget zu einem wesentlichen Teil die spätere Versorgungsleistung. Die Kapitalanlage steht somit stärker denn je im Spannungsfeld zwischen Rendite und Risiko. Konkret ist eine potentiell höhere Zielrente durch eine chancenorientierte Kapitalanlage gegen das Risiko einer nachhaltigen Unterdeckung und einer damit verbundenen Kürzung der Zielrente abzuwägen. Um diese Abwägung bestmöglich zu treffen und die Wahrscheinlichkeit einer nachhaltigen Unterdeckung zu minimieren, müssen die Kapitalanlage effizient gestaltet und Extremrisiken vermieden werden. Im Falle der erfolgreichen Einführung der rBZ ergeben sich zudem Auswirkungen auf die Kapitalanlage für bestehende Systeme. Basierend auf der Entwicklung der bAV-Landschaft in dem Vereinigten Königreich seit der Einführung von DC-Plänen ist anzunehmen, dass auch in Deutschland eine schrittweise Schließung der leistungsgarantierten Systeme erfolgt. Das daraus resultierende, ausbleibende Neugeschäft bei den bestehenden Systemen ist im Rahmen der Kapitalanlage durch eine Verschiebung des Fokus von Rendite und Deckungsgrad hin zu den benötigten Cashflows zur Bedeckung der Rentenzahlung zu adjustieren. Auf dem 13. FaRis & DAV Symposium referierten Altersversorgungs- und Kapitalmarktexperten zu der Ausrichtung und Implementierung der Kapitalanlage für die Zielrente.
The availability of several CPU cores on current computers enables
parallelization and increases the computational power significantly.
Optimization algorithms have to be adapted to exploit these highly
parallelized systems and evaluate multiple candidate solutions in
each iteration. This issue is especially challenging for expensive
optimization problems, where surrogate models are employed to
reduce the load of objective function evaluations.
This paper compares different approaches for surrogate modelbased
optimization in parallel environments. Additionally, an easy
to use method, which was developed for an industrial project, is
proposed. All described algorithms are tested with a variety of
standard benchmark functions. Furthermore, they are applied to
a real-world engineering problem, the electrostatic precipitator
problem. Expensive computational fluid dynamics simulations are
required to estimate the performance of the precipitator. The task
is to optimize a gas-distribution system so that a desired velocity
distribution is achieved for the gas flow throughout the precipitator.
The vast amount of possible configurations leads to a complex
discrete valued optimization problem. The experiments indicate
that a hybrid approach works best, which proposes candidate solutions
based on different surrogate model-based infill criteria and
evolutionary operators.
Die Reinhaltung der Luft spielt heute mehr denn je eine wichtige Rolle. In Gesellschaft und Politik wird über Dieselfahrverbote in Innenstädten diskutiert, um die Feinstaubbelastung in den Städten zu senken. Besonders die Industrie steht vor der Aufgabe, den Partikelausstoß zu senken und Wege zu finden, um eine gesunde Luft zu wahren. Zur Abgasreinigung werden oft Filter eingesetzt. Diese weisen aber hohe Energieverluste auf. Die ständige Reinigung oder der Wechsel der Filter kostet Zeit und Geld. Daher ist neben Filtern eine der gängigsten Methoden die Abgasreinigung durch Staubabscheider. Staubabscheider funktionieren filterlos. Dadurch entfällt eine wiederkehrende Filterreinigung, beziehungsweise der regelmäßige Filtertausch. Die Technik der Staubabscheider hat ihren Ursprung in der Natur. Aus der Betrachtung von Zyklonen (in den Tropen vorkommende Wirbelstürme) wurde ein Verfahren entwickelt, um staubhaltige Fluide von den Verunreinigungen zu trennen. Die Abgasreinigung mittels Zyklon-Staubabscheider wird in vielen verschiedenen
Industrien eingesetzt, heutzutage meist als Vorabscheider. Beispiele hierfür sind die
braunkohleverarbeitende Industrie, die Gesteinsindustrie und die papier- oder holzverarbeitende Industrie, insbesondere dort, wo viel Staub oder auch größere Späne in die Luft gelangen. Auch im Alltag sind Zyklon-Staubabscheider zu finden. Hier kommen sie in beutellosen Staubsaugern oder als Vorabscheider von Staubsaugern bei der Holzverarbeitung zum Einsatz.
Die Vorgänge im Staubabscheider-Zyklon sind bereits durch mathematische Modelle beschrieben worden. Hierbei handelt es sich um Näherungen, jedoch nicht um
die exakte Abbildung der Realität, weswegen bis heute die Modelle immer wieder weiterentwickelt und verbessert werden. Eine CFD (Computional Fluid Dynamics)Simulation bringt meist die besten Ergebnisse, ist jedoch sehr aufwendig und muss für jeden Staubabscheider neu entwickelt werden. Daher wird noch immer an der Weiterentwicklung der mathematischen Modelle gearbeitet, um eine Berechnung zu optimieren, die für alle Staubabscheider gilt. Muschelknautz hat in diesem Bereich über Jahre hinweg geforscht und so eine der
wichtigsten Methoden zur Berechnung von Zyklonabscheidern entwickelt. Diese stimmt oft sehr gut mit der Realität überein. Betrachtet man jedoch die Tiefe des Tauchrohres im Zyklon, fällt auf, dass der Abscheidegrad maximal wird, wenn das Tauchrohr nicht in den Abscheideraum ragt, sondern mit dem Deckel des Zyklons abschließt. Dieses Phänomen tritt weder bei den durchgeführten CFD-Simulationen noch bei den durchgeführten Messungen am Bauteil auf. Ziel der Arbeit ist es, diese Unstimmigkeit zwischen Berechnung und Messung zu untersuchen und Gründe hierfür herauszufinden. Darum wird zunächst der Stand der Technik und das Muschelknautz’sche Modell
vorgestellt, um im Anschluss die Berechnungsmethode genauer zu untersuchen. So soll festgestellt werden, ob die Ursache der Abweichungen zur Realität bei einer Analyse der Berechnungsmethode ersichtlich wird. Beispielsweise soll überprüft werden, ob die Schlussfolgerung einer maximalen Abscheideleistung bei minimaler Tauchrohrtiefe von speziellen Faktoren abhängt. Es wird eine Reihe von Beispielrechnungen durchgeführt, mit deren Hilfe der Zusammenhang
von Abscheidegrad und Tauchrohrtiefe ersichtlich wird. Hierbei werden die Geometrieparameter des Abscheiders variiert, um deren Einfluss auf die Tauchrohrtiefe
zu untersuchen.
Modelling Zero-inflated Rainfall Data through the Use of Gaussian Process and Bayesian Regression
(2018)
Rainfall is a key parameter for understanding the water cycle. An accurate rainfall measurement is vital in the development of hydrological models. By means of indirect measurement, satellites can nowadays estimate the rainfall around the world. However, these measurements are not always accurate. As a first approach to generate a bias-corrected rainfall estimate using satellite data, the performance of Gaussian process and Bayesian regression is studied. The results show Gaussian process as the better option for this dataset but leave place to improvements on both modelling strategies.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum. Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen. Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Surrogate-based optimization and nature-inspired metaheuristics have become the state of the art in solving real-world optimization problems. Still, it is difficult for beginners and even experts to get an overview that explains their advantages in comparison to the large number of available methods in the scope of continuous optimization. Available taxonomies lack the integration of surrogate-based approaches and thus their embedding in the larger context of this broad field.
This article presents a taxonomy of the field, which further matches the idea of nature-inspired algorithms, as it is based on the human behavior in path finding. Intuitive analogies make it easy to conceive the most basic principles of the search algorithms, even for beginners and non-experts in this area of research. However, this scheme does not oversimplify the high complexity of the different algorithms, as the class identifier only defines a descriptive meta-level of the algorithm search strategies. The taxonomy was established by exploring and matching algorithm schemes, extracting similarities and differences, and creating a set of classification indicators to distinguish between five distinct classes. In practice, this taxonomy allows recommendations for the applicability of the corresponding algorithms and helps developers trying to create or improve their own algorithms.
In the present paper a calculation tool for the lifetime prediction of composite materials with focus on local multiaxial
stress states and different local stress ratios within each lamina is developed. The approach is based on repetitiv, progressive in-plane stress calculations using classical laminate theory with subsequent analysis of the material stressing effort and use of appropriate material degradation models. Therefore experimentally data of S-N curves are
used to generate anistropic constant life diagrams for a closer examination of critical fracture planes under any given combination of local stress ratios. The model is verified against various balanced angle plies and multi-directional
laminates with arbitrary stacking sequences and varying stress ratios throughout the analysis. Different sections of the
model, such as residual strength and residual stiffness, are examined and verified over a wide range of load cycles. The obtained results agree very well with the analyzed experimental data.
Architecural aproaches are considered to simplify the generation of re-usable building blocks in the field of data warehousing. While SAP’s Layer Scalable Architecure (LSA) offers a reference model for creating data warehousing infrastructure based on SAP software, extented reference models are needed to guide the integration of SAP and non-SAP tools. Therefore, SAP’s LSA is compared to the Data Warehouse Architectural Reference Model (DWARM), which aims to cover the classical data warehouse topologies.
Die Forschungsstelle finanzielles & aktuarielles Risikomanagement (FaRis) organisiert Anfang Juni und Dezember eines Jahres gemeinsam mit der Deutschen Aktuarvereinigung (DAV) gemeinsame Symposien zu relevanten aktuariellen Themen. Wegen des Weltkongresses der Aktuare vom 4. bis zum 8. Juni in Berlin wurde das üblicherweise zeitgleich stattfindende FaRis & DAV Symposium als „FaRis at ICA“ veranstaltet – im Sinne einer Zusammenfassung aller Kongressbeiträge von FaRis-Mitgliedern als Überblick für die in FaRis abgedeckten Forschungsgebiete. Die Kurzversionen dieser Beiträge sind in diesem Tagungsband zusammengestellt. Der nur alle vier Jahre stattfindende Weltkongress der Aktuare ist der bedeutsamste Kongress zu allen aktuariellen Fragestellungen. Mit etwa 2.700 nationalen und internationalen Teilnehmern war der ICA 2018 in Berlin der teilnehmerstärkste Kongress seit dem ersten Weltkongress 1895 in Brüssel.
In der vorliegenden Arbeit werden in drei Fallbeispielen aus dem Bereich der betrieblichen Altersversorgung die Versorgungszusagen mithilfe von bewerteten inhomogenen Markov-Ketten modelliert. Dabei liegt der Fokus auf den Pfaden der Markov-Ketten. Es wird anhand der Fallbeispiele gezeigt, wie man mithilfe der Pfade den Erwartungswert und die Standardabweichung der Zufallsvariablen „Barwert aller zukünftigen Zahlungen“ berechnen kann. Darüber hinaus ist es auf Basis der Pfade möglich, in Bezug auf diese Zufallsvariable auch Wahrscheinlichkeiten von speziellen Ereignissen und Risikomaße – Value at Risk und Expected Shortfall – zu berechnen.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
Aktuell kommen in der Versicherungsbranche zunehmend neue Geschäftsmodelle und innovative Technologien zum Einsatz. Das betrifft nicht nur einzelne Aufgaben und Funktionen, wie zum Beispiel den Vertrieb von Versicherungen. Vielmehr beobachten wir Innovationen durch Unternehmen (den „InsurTechs“) entlang der gesamten Wertschöpfungskette und sogar Neugründungen von Versicherungsunternehmen. Viele Unternehmer und Investoren beabsichtigen, mit ihren Ideen nachhaltige Lösungen zu entwickeln und das Produkt „Versicherung“ mit kundenorientierten Lösungen zu verbessern. Zum 12. Symposium hatten wir junge InsurTech-Unternehmen aus den verschiedenen Versicherungssparten eingeladen. Gründer und Vorstände berichteten am InsurTech-Standort Köln von ihren Visionen und vom aktuellen Umsetzungsstand in der Praxis.
Der vorliegende Band versucht, einen ersten Überblick über die Inhalte und Wesensmerkmale des noch relativ jungen Studiengangs und Forschungsbereichs Rettungsingenieurwesen an der TH Köln (früher FH Köln) zu schaffen. Damit kann der Sammelband zwar nicht für alle Ausprägungen des „Rettungsingenieurwesens“ (oder Rescue Engineering) auch an anderen Hochschulen stehen. Jedoch soll er einen ersten Eindruck ermöglichen und zwar für Außenstehende aber durchaus auch für Studierende und Kollegen an der TH Köln, was „Rettungsingenieurwesen“ überhaupt ist, und welche fachlichen, methodischen und auch anwendungsbezogenen Inhalte es beinhaltet. Abgrenzungen zu Nachbarstudiengängen oder Aufgabenfeldern sind nicht einfach und auch dieser Sammelband kann nur einen ersten Aufschlag anbieten. Jedoch wird es in fünf oder zehn Jahren einmal interessant sein, wie und wohin sich dieser Studiengang, aber auch die gleichzeitig am Institut für Rettungsingenieurwesen (IRG) stattfindende Forschung hin entwickelt haben wird. Somit dient dieser Band nicht nur der Begriffsbestimmung und inhaltlichen weiteren Ausgestaltung; er soll auch dazu einladen, mit zu überlegen, in welche Richtung sich Lehre und Forschung noch entwickeln könnten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Das prinzipienorientierte Aufsichtssystem von Solvency II erkennt als zentralen Grundsatz, dass nach dem Prinzip „Substanz über Form“ die ökonomische Wirkung eines Risikotransferinstrumentes und nicht die formale Einbettung desselben als Entscheidungskriterium der Berücksichtigungsfähigkeit gilt. Dieser Grundsatz trägt den Entwicklungen auf dem Rückversicherungsmarkt insoweit Rechnung, da dadurch auch alternative Formen des vt. Risikotransfers grundsätzlich Anerkennung finden können, wenn sie den Anerkennungsvoraussetzungen der aufsichtsrechtlichen Vorgaben entsprechen. Dabei zeigt sich, dass der Aufbau und die Mechanik dieser alternativen Formen des vt. Risikotransfer insbesondere eine (ökonomisch) abweichende Bewertung hinsichtlich des vt. Basisrisikos und Ausfallrisikos bedingen können. Kern der vorliegenden Arbeit ist deshalb die Prüfung, inwieweit die Vorgaben von Solvency II diese Unterschiedlichkeit zur Berücksichtigung von vt. Basisrisiko ökonomisch adäquat abbilden. Dabei wird dargestellt, dass insbesondere eine nach Solvency II im Vergleich zum Marktverständnis weit gefasste Definition der Begrifflichkeit sowie eine uneinheitliche Anwendung innerhalb der Gesetzestexte der einheitlichen Berücksichtigung potentiell zuwiderlaufen oder uneinheitliche Prüfungserfordernisse an ökonomisch gleich wirkende Instrumente stellen. Darüber wird hergeleitet, dass die Vorgaben nach Solvency II Regelungen enthalten, welche die ökonomische Wirkung des vt. Basisrisikos (z. B. aus Währungsinkongruenzen) inadäquat widerspiegeln.
Bewertungsportale, in denen man seine Meinung zu Gütern oder Dienstleistungen äußern kann, sind seit einiger Zeit bekannt und verbreitet. Kann durch sie die Nachfrageseite eine neue, informationsgestützte Machtposition erlangen? Ein Projektteam des Instituts für Versicherungswesen an der TH Köln (ivwKöln) hat sich dieser Frage gewidmet und zunächst kontrastierende Hypothesen aus der Gegenüberstellung des informationsökonomischen und des diffusionstheoretischen Ansatzes entwickelt. Eine Hypothesengruppe bezog sich auf die Frage, von welchen Faktoren die Nachfrage und Wertschätzung von Bewertungsportalen abhängig ist, eine andere unterstellte, dass globale Produkteigenschaften auf der Dimension Such-, Erfahrungs-, Vertrauenseigenschaften sich auf die Nutzung von Portalen auswirkten. Untersucht wurden deshalb sehr unterschiedliche Portale, für Kleidung, Restaurants, Ärzte und Versicherungen. Empirische Grundlage war eine online-gestützte Befragung mit einem Convenience-Sample von 114 Befragten. Neben Studierenden des ivwKöln wurden Angestellte und Personen im Rentenalter zur Teilnahme motiviert, um eine breite Altersstreuung zu erreichen. Die Ergebnisse zur ersten Hypothesengruppe sprechen eindeutig für den diffusionstheoretischen Ansatz. Bei den beiden analysierbaren Portalen (Restaurants und Ärzte) ergibt sich: Entscheidende Faktoren für den Besuch von Restaurantportalen sind Internetaffinität, Alter, Produktinvolvement und Meinungsführerschaft; für den Besuch von Ärzteportalen sind es Internetaffinität und Produktinvolvement. Damit ist auch klar, dass sich die Machtposition der Nachfrager durch die Nutzung von Portalen allenfalls selektiv verstärkt. Die zweite Hypothese, dass Portalnutzung auch von globalen Produkteigenschaften abhängig sei, ließ sich nicht bestätigen.
Surrogate-assisted optimization has proven to be very successful if applied to industrial problems. The use of a data-driven surrogate model of an objective function during an optimization cycle has many bene ts, such as being cheap to evaluate and further providing both information about the objective landscape and the parameter space. In preliminary work, it was researched how surrogate-assisted optimization can help to optimize the structure of a neural network (NN) controller. In this work, we will focus on how surrogates can help to improve the direct learning process of a transparent feed-forward neural network controller. As an initial case study we will consider a manageable real-world control task: the elevator supervisory group problem (ESGC) using a simplified simulation model. We use this model as a benchmark which should indicate the applicability and performance of surrogate-assisted optimization to this kind of tasks. While the optimization process itself is in this case not onsidered expensive, the results show that surrogate-assisted optimization is capable of outperforming metaheuristic optimization methods for a low number of evaluations. Further the surrogate can be used for signi cance analysis of the inputs and weighted connections to further exploit problem information.
The performance of optimization algorithms relies crucially on their parameterizations. Finding good parameter settings is called algorithm tuning. Using
a simple simulated annealing algorithm, we will demonstrate how optimization algorithms can be tuned using the Sequential Parameter Optimization Toolbox (SPOT). SPOT provides several tools for automated and interactive tuning. The underlying concepts of the SPOT approach are explained. This includes key techniques such as exploratory fitness landscape analysis and response surface methodology. Many examples illustrate
how SPOT can be used for understanding the performance of algorithms and gaining insight into algorithm behavior. Furthermore, we demonstrate how SPOT can be used as an optimizer and how a sophisticated ensemble approach is able to combine several meta models via stacking.
To maximize the throughput of a hot rolling mill,
the number of passes has to be reduced. This can be achieved by maximizing the thickness reduction in each pass. For this purpose, exact predictions of roll force and torque are required. Hence, the predictive models that describe the physical behavior of the product have to be accurate and cover a wide range of different materials.
Due to market requirements a lot of new materials are tested and rolled. If these materials are chosen to be rolled more often, a suitable flow curve has to be established. It is not reasonable to determine those flow curves in laboratory, because of costs and time. A strong demand for quick parameter determination and the optimization of flow curve parameter with minimum costs is the logical consequence. Therefore parameter estimation and the optimization with real data, which were collected during previous runs, is a promising idea. Producers benefit from this data-driven approach and receive a huge gain in flexibility when rolling new
materials, optimizing current production, and increasing quality. This concept would also allow to optimize flow curve parameters, which have already been treated by standard methods. In this article, a new data-driven approach for predicting the physical behavior of the product and setting important parameters is presented.
We demonstrate how the prediction quality of the roll force and roll torque can be optimized sustainably. This offers the opportunity to continuously increase the workload in each pass to the theoretical maximum while product quality and process stability can also be improved.
Resilienz bezeichnet die Fähigkeit eines Systems nach einem exogenen Schock wieder in den Normalzustand zurück zu kehren. Wenn beispielsweise durch eine Katastrophe die Wasserversorgung der Bevölkerung nicht mehr gewährleistet ist, so geht es nicht um die Frage, was die Wiederherstellung der Versorgung kostet, sondern mit welchen Maßnahmen die Wiederherstellung überhaupt möglich ist. Eine Versorgungsstruktur ist also so zu gestalten, dass im Vorfeld schon klar ist, wie sie im Katastrophenfall wieder hergestellt werden kann. Bezogen auf ein Wirtschaftsunternehmen ist die Frage nach der Resilienz eine Erweiterung des klassischen Risikomanagements. Das 11. FaRis & DAV-Symposium bot einen Einblick in die Resilienzanalyse beim Katastrophenschutz, zeigte wie ein Resilienz-Management für ein Wirtschaftsunternehmen aussehen kann und schließlich wurde das Resilienz-Konzept auf Fragen der Versicherungsaufsicht übertragen.
Recovery after extreme events - Lessons learned and remaining challenges in Disaster Risk Reduction
(2017)
Disasters such as the Indian Ocean Tsunami 2004, but also other extreme events such as cyclones, earthquakes and tsunami substantially affect the lives of many thousands of people - they are events radically and abruptly changing local circumstances and needs. At the same time they can significantly reshape global paradigms of Disaster Risk Reduction (DRR). Such events also bring to light the challenges in coordinating assistance from the “global community” with all the intended and un-intended effects. Two of the most pressing questions therefore are whether the different actors have learned from the disaster and whether processes of DRR and livelihood improvements have been implemented successfully.
This volume gathers selected papers addressing the following key questions:
- Lessons learned: Which lessons have been learned in a way that a difference can be seen today for the livelihoods and resilience of local people in the regions affected?
- Lessons to be Learned: Despite the body of knowledge created and reflected in a good number of lessons learned studies – what is still unsolved or needs to be emphasized?
- Monitoring and evaluation: Which DRR measures have been perpetuated and how can they be monitored and evaluated scientifically?
- Resilience effects and (unintended) side-effects: Which coping, recovery and adaptation measures are
supported by the resilience paradigm and which other areas are side-lined, neglected or even contrary to the intended effects?
- Dynamics in risk: In which cases has resilience building taken place? In which cases have ulnerabilities
been shifted internally or new vulnerabilities been created?
- Relocation/resettlement: How did the relocation/resettlement process of displaced people take place and what are its long-term effects?
- Urban-rural divide: How have DRR measures in urban vs. rural areas differed and which linkages but also rifts in rehabilitation and reconstruction initiatives can be observed between the two?
- Early warning: What is the future of Early Warning and how can important top-down information chains benefit from or be balanced with bottom-up feedback of users and affected people?
It appears that extreme disaster events spark a plethora of actions in academia, civil society, media, policy, private sector and other organisations. Tragic, as such disasters are, they offer incentives for learning, locally and globally. Lately, disaster impacts have in many cases been detracted through the application of knowledge and experience gained from previous events. However, there are still a number of challenges with regards to learning from past disasters
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette eine unterjährliche bewertete inhomogene Markov-Kette konstruiert. Die Konstruktion der unterjährlichen Übergangsmatrizen basiert auf der Taylorreihe der Potenzfunktion bzw. deren Partialsummen. Dieser Ansatz ist eine Verallgemeinerung des Falls, dass die unterjährlichen Übergangsmatrizen durch Interpolation der jährlichen Übergangsmatrizen und der Einheitsmatrix definiert werden. Anschließend liegt der Fokus der Arbeit auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion, einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen und dessen Anwendung in zwei Fallbeispielen.
Social learning enables multiple robots to share learned experiences while completing a task. The literature offers examples where robots trained with social learning reach a higher performance compared to their individual learning counterparts. No explanation has been advanced for that observation. In this research, we present experimental results suggesting that a lack of tuning of the parameters in social learning experiments could be the cause. In other words: the better the parameter settings are tuned, the less social learning can improve the system performance.
Verunreinigungen im Wassernetz können weite Teile der Bevölkerung unmittelbar gefährden. Gefahrenpotenziale bestehen dabei nicht nur durch mögliche kriminelle Handlungen und terroristische Anschläge. Auch Betriebsstörungen, Systemfehler und Naturkatastrophen können zu Verunreinigungen führen.
When designing or developing optimization algorithms, test functions are crucial to evaluate
performance. Often, test functions are not sufficiently difficult, diverse, flexible or relevant to real-world
applications. Previously,
test functions with real-world relevance were generated by training a machine learning model based on
real-world data. The model estimation is used as a test function.
We propose a more principled approach using simulation instead of estimation.
Thus, relevant and varied test functions
are created which represent the behavior of real-world fitness landscapes.
Importantly, estimation can lead to excessively smooth test functions
while simulation may avoid this pitfall. Moreover, the simulation
can be conditioned by the data, so that the simulation reproduces the training data
but features diverse behavior in unobserved regions of the search space.
The proposed test function generator is illustrated with an intuitive, one-dimensional
example. To demonstrate the utility of this approach it
is applied to a protein sequence optimization problem.
This application demonstrates the advantages as well as practical limits of simulation-based
test functions.
Mit der „IVW Privat AG“ liegt ein relativ durchgängiges Datenmodell eines Schadenversicherungs-unternehmens vor, mit dem in vorangegangenen Publikationen eine Vielzahl von Solvency II Anwen-dungen illustriert werden konnten. Ergänzend dazu sollen in dieser Publikation unterschiedliche Bewertungsansätze für das verfügbare Kapital vorgestellt und miteinander verglichen werden – ausgehend vom sicherheitsorientierten HGB Kapital bis hin zum Marktkonsistenten Embedded Value (MCEV).
As the amount of data gathered by monitoring systems increases, using computational tools to analyze it becomes a necessity.
Machine learning algorithms can be used in both regression and classification problems, providing useful insights while avoiding the bias and proneness to errors of humans. In this paper, a specific kind of decision tree algorithm, called conditional inference tree, is used to extract relevant knowledge from data that pertains to electrical motors. The model is chosen due to its flexibility, strong statistical foundation, as well as great capabilities to generalize and cope with problems in the data. The obtained knowledge is organized in a structured way and then analyzed in the context of health condition monitoring. The final
results illustrate how the approach can be used to gain insight into the system and present the results in an understandable, user-friendly manner
Faserverbundwerkstoffe (FVW) und Composites haben in der Luft- und Raumfahrtindustrie, im Automobilbau, beim Bau von Windenergieanlagen und in vielen weiteren zukunftsträchtigen Branchen eine große Bedeutung. Maßnahmen, die ein Erkennen von Schädigungen simultan zur Entstehung ermöglichen und Restbetriebszeiten prognostizieren können, sind geeignet, die Lebensdauer von FVW-Konstruktionen zu erhöhen. Darüber hinaus ist eine zustandsorientierte und somit kosteneffektive Wartung dieser Bauteile möglich.
Sowohl die Prognose, als auch die Detektion von Schäden würde den ressourcenschonenden Einsatz dieser Werkstoff-gruppe ermöglichen. Das sogenannte Structural Health Monitoring (SHM) bezeichnet in diesem Zusammenhang eine Methode, die es ermöglicht, kontinuierlich Anhalts-punkte über die Funktionsfähigkeit von Bauteilen und Konstruktionen zu erhalten.
Dieser Artikel beschreibt die Planung, Durchführung und Analyse von SHM-Experimenten. Das Hauptziel bestand in der Planung von Experimenten zur Gewinnung von Messdaten mittels piezoelektrischen Elementen auf Versuchstafeln, bei denen bewusst trukturbeschädigungen eingebracht wurden. Statistische Auswertungsmethoden sollen auf ihre Eignung getestet werden, Rückschlüsse aus den experimentell gewonnenen Daten auf die Art der Strukturbeschädigungen zu ziehen.
Big Data für Versicherungen. Proceedings zum 21. Kölner Versicherungssymposium am 3.11.2016 in Köln
(2017)
Aufgrund der schnellen technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Kundenmanagement sowie Recht & Datenschutz.
Wegen der hohen Bedeutung haben die Forschungsbereiche des ivwKöln für 2016 „Big Data“ als übergreifendes Forschungsthema gewählt. Im 21. Kölner Versicherungs-symposium wurde daher das Themenfeld in seiner Vielschichtigkeit von Referenten aus mehreren
Fachrichtungen skizziert.
Das Institut für Rettungsingenieurwesen und Gefahrenabwehr der Technischen Hochschule Köln veranstaltet seit November 2014 die abendliche Vortragsreihe „Risky Monday“, in der Experten aus Wissenschaft und Praxis verschiedene Ansätze, Themen und Denkweisen des interdisziplinären Risiko- und Krisenmanagements präsentieren So erlangen unsere Zuhörer neben Einblicke in gesellschaftliche und technische Aspekte des nationalen Bevölkerungsschutzes und der internationalen humanitären Hilfe, auch Wissen über die zugrunde liegenden konzeptionellen und wissenschaftlichen Ansätze. Die vorliegende Ausgabe bietet einen Überblick über die bis zum Wintersemester 2015/2016 stattgefundenen Vorträge, die beruflichen Hintergründe der Vortragenden und Möglichkeiten für Kooperationen im Rahmen von Bachelor- oder Masterarbeiten. Darüber hinaus finden sich in dieser Ausgabe Diskussionsbeiträge der Vortragenden zu Notfall- und Krisenmanagement in Verwaltungsbehörden, psychosozialer Unterstützung und Stakeholder-Beteiligung in der Katastrophenvorsorge.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Cyclone separators are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation, which necessary for constructing efficient cyclones. Several simulation tools can be run in parallel, e.g., long running CFD simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. There are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, whereas analytical models do not. Combining results from models with different input-output structure is of great interest. This combination inspired the development of a new methodology. An optimization via multimodel simulation approach, which combines results from different models, is introduced.
Using cyclonic dust separators (cyclones) as a real-world simulation problem, the feasibility of this approach is demonstrated. Pros and cons of this approach are discussed and experiences from the experiments are presented.
Furthermore, technical problems, which are related to 3D-printing approaches, are discussed.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
Aufgrund der rasanten technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Marketing sowie Recht & Datenschutz. Aufgrund der enormen Bedeutung und Vielschichtigkeit des Themas hat sich die Forschungsstelle aktuarielles Risikomanagement (FaRis) bei ihrem 10. FaRis & DAV Symposium mit den quantitativen Aspekten des Begriffs auseinandergesetzt.
Mit der verstärkten Nutzung digitaler Möglichkeiten im Privat- und Berufsleben werden digitale Kanäle auch für Versicherungsfragen immer selbstverständlicher. Am Markt haben sich bereits einige Online-Portale etabliert, die Versicherungsvergleiche und teils auch den Versicherungsabschluss anbieten. Allerdings gibt es bislang erst wenige bekannte Online-Portale für spezielle Zielgruppen wie beispielsweise für das attraktive Segment der Akademiker.
Die vorliegende Veröffentlichung stellt die wesentlichen Ergebnisse einer studentischen Projektarbeit dar, die im Sommersemester 2016 zum Thema „Online-Portal für Akademiker“ durchgeführt wurde. Sie beschreibt Besonderheiten entlang der Customer Journey von Akademikern in Versicherungsfragen und liefert erste Empfehlungen, wie ein Online-Portal für Akademiker gestaltet werden könnte, um ansprechend auf die Zielgruppe zu wirken.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.
Standardformel und weitere Anwendungen am Beispiel des durchgängigen Datenmodells der „IVW Leben AG“
(2016)
Der Aufbau der Standardformel ist relativ komplex, wobei für die Durchführung der Berechnungen intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungs-schritte an Hand des durchgängigen Datenmodells der „IVW Leben AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standard-formel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
Das Projekt „Integrierte Sozialplanung für die Versorgung im Alter“ (Akronym: ISPInoVA) der Technischen Hochschule Köln (TH Köln) zielt auf die Entwicklung eines neuen Modells einer integrierten Sozialplanung ab. Einbezogen werden hierbei (1) die verschiedenen Ressort- und Fachbereichsperspektiven (z.B. soziale Hilfe, Gesundheit, Wohnen etc.), (2) die unterschiedlichen Bedarfsgruppen im kommunalen Raum und (3) alle kommunalen Managementebenen. Ein besonderer Fokus wird gelegt auf Beteiligung und Partizipation der verschiedenen beteiligten Akteure sowie auf Innovationen in der Alterspolitik.
Das Erkenntnisinteresse im Rahmen des Schweizer Teilprojektes „Gestaltung der Alterspolitik, Beteiligung und Partizipation in ausgewählten Schweizer Städten und Gemeinden“ liegt im Verständnis und der Analyse aktueller Entwicklungen in der Sozialplanung für ältere Menschen in Schweizer Städten und Gemeinden sowie bei der Frage nach Beteiligungs- und Partizipationsformen, nach möglichen Innovationspromotoren und dem Bezug zur Sozialraumorientierung.
Quantitatives Risikomanagement. Proceedings zum 9. FaRis & DAV Symposium am 4. Dezember 2015 in Köln
(2016)
Das quantitative Risikomanagement nimmt an Bedeutung immer weiter zu. Hierbei spielt natürlich die interne Modellierung von Risiken eine entscheidende Rolle. In diesem Zusammenhang sind die verschiedenen Modellansätze zu beleuchten und Risikomaße bzw. Risikoaggregationsmethoden im Rahmen der Bewertung kritisch zu hinterfragen. Nicht zu vernachlässigen ist in der Betrachtung des Zusammenspiels verschiedener Risiken und somit auch in der Modellierung gerade bei Versicherungsunternehmen das Asset-Liability-Management.
Der momentane Rückversicherungsmarkt impliziert als „Käufermarkt“ einen direkten Ab-rieb der Rückversicherungsprämien und eine zusätzliche Aufweichung der Vertragsbedingungen. Als ein beliebter Ansatzpunkt zur Aufweichung des Vertragsinhaltes erweist sich die Ereignisdefinition. Dabei sollten Erst- und Rückversicherer allerdings auch in gegenwärtiger Marktphase die grundsätzlichen Anforderungen an die Definition eines Ereignisses berücksichtigen: Zunächst ist Grundvoraussetzung, dass die Eindeutigkeit der Ereignisdefinition im Interesse beider Vertragsparteien Sicherheit bezüglich der materiellen Wirkung des Rückversicherungsvertrages herstellt. Außerdem sollte eine adäquate Formulierung der zeitlichen, räumlichen und ursächlichen Ansatzpunkte der Ereignisdefinition dazu führen, dass die zugrundeliegenden Schadener-eignisse möglichst angemessen und homogen abgebildet werden. Kern der vorliegenden Arbeit ist die Prüfung, inwieweit eine marktgängige Ereignisdefinition die Anforderungen der Eindeutigkeit und Kongruenz mit dem darunterliegenden Originalrisiko hinsichtlich Überschwemmungsereignissen erfüllt. Diese wird sodann mit einer Ereignisdefinition der „Munich Re“ verglichen. Darüber hinaus wird anhand des Sturmereignisses Hilal 2008 gezeigt, welche Folgen eine fehlende Eindeutigkeit der Vertragsbedingungen besitzen kann.