Refine
Year of publication
- 2016 (27) (remove)
Document Type
- Working Paper (11)
- Report (10)
- Conference Proceeding (4)
- Preprint (2)
Has Fulltext
- yes (27)
Keywords
- Risikomanagement (4)
- Digitalisierung (3)
- Optimierung (3)
- Solvency II (3)
- Ereignisdefinition (2)
- Forschungsbericht (2)
- Maschinelles Lernen (2)
- Reinsurance (2)
- Rückversicherung (2)
- Soft Computing (2)
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
Das Projekt „Integrierte Sozialplanung für die Versorgung im Alter“ (Akronym: ISPInoVA) der Technischen Hochschule Köln (TH Köln) zielt auf die Entwicklung eines neuen Modells einer integrierten Sozialplanung ab. Einbezogen werden hierbei (1) die verschiedenen Ressort- und Fachbereichsperspektiven (z.B. soziale Hilfe, Gesundheit, Wohnen etc.), (2) die unterschiedlichen Bedarfsgruppen im kommunalen Raum und (3) alle kommunalen Managementebenen. Ein besonderer Fokus wird gelegt auf Beteiligung und Partizipation der verschiedenen beteiligten Akteure sowie auf Innovationen in der Alterspolitik.
Das Erkenntnisinteresse im Rahmen des Schweizer Teilprojektes „Gestaltung der Alterspolitik, Beteiligung und Partizipation in ausgewählten Schweizer Städten und Gemeinden“ liegt im Verständnis und der Analyse aktueller Entwicklungen in der Sozialplanung für ältere Menschen in Schweizer Städten und Gemeinden sowie bei der Frage nach Beteiligungs- und Partizipationsformen, nach möglichen Innovationspromotoren und dem Bezug zur Sozialraumorientierung.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
In zwei vorangegangen Arbeiten wurde an Hand des durchgängigen Datenmodells der IVW Privat AG die Standardformel und deren wichtigsten Anwendungen diskutiert. In dieser Ausarbeitung wird ergänzend dazu die Konzeption eines internen Modells auf Basis dieses Datenmodells erläutert und die Ergebnisse denjenigen aus den Berechnungen des Standardmodells gegenübergestellt.
Ziel des Forschungsprojektes "Mehrkriterielle CI-basierte Optimierungsverfahren für den industriellen Einsatz" (MCIOP) war die Verringerung von Schadstoffemissionen in Kohlekraftwerken. Der wissenschaftliche Fokus lag auf der Entwicklung von Methoden, die in der Lage sind, interpretierbare Modelle für die Schadstoffemissionen automatisch zu generieren. Hierzu wurden mehrkriterielle Optimierungsverfahren entwickelt und eingesetzt. Zur Zeit- und Kostenreduktion wurde die Optimierung durch Surrogat-Modelle erfolgen, die abgestuft mit aufwändigeren Simulationen zum Einsatz kamen („optimization via simulation“). Bei der Untersuchung von Staubabscheidern konnten durch eine mehrkriterielle Optimierung unterschiedliche Zielgrößen, wie z.B. Abscheidegrad und Druckverlust, gleichzeitig berücksichtigt werden.
Dieser Bericht beschreibt die im Projekt MCIOP im Zeitraum von August 2011 bis einschließlich Juni 2015 erzielten Ergebnisse.
To maximize the throughput of a hot rolling mill,
the number of passes has to be reduced. This can be achieved by maximizing the thickness reduction in each pass. For this purpose, exact predictions of roll force and torque are required. Hence, the predictive models that describe the physical behavior of the product have to be accurate and cover a wide range of different materials.
Due to market requirements a lot of new materials are tested and rolled. If these materials are chosen to be rolled more often, a suitable flow curve has to be established. It is not reasonable to determine those flow curves in laboratory, because of costs and time. A strong demand for quick parameter determination and the optimization of flow curve parameter with minimum costs is the logical consequence. Therefore parameter estimation and the optimization with real data, which were collected during previous runs, is a promising idea. Producers benefit from this data-driven approach and receive a huge gain in flexibility when rolling new
materials, optimizing current production, and increasing quality. This concept would also allow to optimize flow curve parameters, which have already been treated by standard methods. In this article, a new data-driven approach for predicting the physical behavior of the product and setting important parameters is presented.
We demonstrate how the prediction quality of the roll force and roll torque can be optimized sustainably. This offers the opportunity to continuously increase the workload in each pass to the theoretical maximum while product quality and process stability can also be improved.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
In this paper we present a comparison of different data driven modeling methods. The first instance of a data driven linear Bayesian model is compared with several linear regression models, a Kriging model and a genetic programming model.
The models are build on industrial data for the development of a robust gas sensor.
The data contain limited amount of samples and a high variance.
The mean square error of the models implemented in a test dataset is used as the comparison strategy.
The results indicate that standard linear regression approaches as well as Kriging and GP show good results,
whereas the Bayesian approach, despite the fact that it requires additional resources, does not lead to improved results.