Refine
Year of publication
Document Type
- Working Paper (85)
- Report (54)
- Conference Proceeding (27)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (160)
- English (52)
- Multiple languages (3)
Has Fulltext
- yes (215)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (77)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (25)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 07 / Institut für Nachrichtentechnik (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Der Fokus dieses Artikels liegt auf den zwischenmenschlichen Herausforderungen und Dynamiken, die dem Teamteaching, bspw. in Form eines Lehr-Duos in der Praxis immanent sind. Hierbei wiederum liegt der Schwerpunkt der Untersuchung auf einer lösungsorientierten Perspektive. Der Hypothese folgend, dass Wertschätzung ein elementarer Faktor interdisziplinärer Lehre ist, wird diese definitorisch, konzeptionell und theoretisch beleuchtet. Hier ergibt sich die Korrelation der professionellen und der persönlichen Ebene als wichtiges Merkmal der Wertschätzung im Teamteaching.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
Dieser Schlussbericht beschreibt die im Projekt „CI-basierte mehrkriterielle Optimierungsverfahren für Anwendungen in der Industrie“ (CIMO) im Zeitraum von November 2011 bis einschließlich Oktober 2014 erzielten Ergebnisse. Für aufwändige Optimierungsprobleme aus der Industrie wurden geeignete Lösungsverfahren entwickelt. Der Schwerpunkt lag hierbei auf Methoden aus den Bereichen Computational Intelligence (CI) und Surrogatmodellierung. Diese bieten die Möglichkeit, wichtige Herausforderung von aufwändigen, komplexen Optimierungsproblemen zu lösen. Die entwickelten Methoden können verschiedene konfliktäre Zielgrößen berücksichtigen, verschiedene Hierarchieebenen des Problems in die Optimierung integrieren, Nebenbedingungen beachten, vektorielle aber auch strukturierte Daten verarbeiten (kombinatorische Optimierung) sowie die Notwendigkeit teurer/zeitaufwändiger Zielfunktionsberechnungen reduzieren. Die entwickelten Methoden wurden schwerpunktmäßig auf einer Problemstellung aus der Kraftwerkstechnik angewendet, nämlich der Optimierung der Geometrie eines Fliehkraftabscheiders (auch: Zyklon), der Staubanteile aus Abgasen filtert. Das Optimierungsproblem, das diese FIiehkraftabscheider aufwerfen, führt zu konfliktären Zielsetzungen (z.B. Druckverlust, Abscheidegrad). Zyklone können unter anderem über aufwändige Computational Fluid Dynamics (CFD) Simulationen berechnet werden, es stehen aber auch einfache analytische Gleichungen als Schätzung zu Verfügung. Die Verknüpfung von beidem zeigt hier beispielhaft wie Hierarchieebenen eines Optimierungsproblems mit den Methoden des Projektes verbunden werden können. Neben dieser Schwerpunktanwendung konnte auch gezeigt werden, dass die Methoden in vielen weiteren Bereichen Erfolgreich zur Anwendung kommen können: Biogaserzeugung, Wasserwirtschaft, Stahlindustrie. Die besondere Herausforderung der behandelten Probleme und Methoden bietet viele wichtige Forschungsmöglichkeiten für zukünftige Projekte, die derzeit durch die Projektpartner vorbereitet werden.
There is a strong need for sound statistical analysis of simulation and optimization algorithms. Based on this analysis, improved parameter settings can be determined. This will be referred to as tuning. Model-based investigations are common approaches in simulation and optimization. The sequential parameter optimization toolbox (SPOT), which is implemented as a package for the statistical programming language R, provides sophisticated means for tuning and understanding simulation and optimization algorithms. The toolbox includes methods for tuning based on classical regression and analysis of variance techniques; tree-based models such as classification and regressions trees (CART) and random forest; Gaussian process models (Kriging), and combinations of different meta-modeling approaches. This article exemplifies how an existing optimization algorithm, namely simulated annealing, can be tuned using the SPOT framework.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
Cyclone separators are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation, which necessary for constructing efficient cyclones. Several simulation tools can be run in parallel, e.g., long running CFD simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. There are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, whereas analytical models do not. Combining results from models with different input-output structure is of great interest. This combination inspired the development of a new methodology. An optimization via multimodel simulation approach, which combines results from different models, is introduced.
Using cyclonic dust separators (cyclones) as a real-world simulation problem, the feasibility of this approach is demonstrated. Pros and cons of this approach are discussed and experiences from the experiments are presented.
Furthermore, technical problems, which are related to 3D-printing approaches, are discussed.
Die steigende Komplexität der Produktionssysteme, insbesondere im Maschinenbau, führt zu einer Belastung für Automatisierer und Anlagenbauer. Um dieser Belastung entgegenzuwirken, bietet Industrie 4.0 mit Cyber-physischen Systemen und intelligenten Automatisierungssystemen eine Lösung. Dabei wird menschliches Expertenwissen in die Automatisierung verlagert, indem Ziele deklarativ formuliert werden, anstatt prozedurale Handlungsabläufe zu beschreiben. Dieser Ansatz ermöglicht es intelligenten Systemen, ausreichenden Handlungsspielraum zu haben und den menschlichen Aufwand bei der Optimierung, Inbetriebnahme und Anlagenumbau zu reduzieren. Um intelligente Automation umzusetzen, werden neue Automatisierungstechniken und Software-Services benötigt, die verschiedene Methoden wie maschinelles Lernen, Condition-Monitoring und Diagnose-Algorithmen sowie Optimierungsverfahren nutzen. Derzeit werden diese Services unabhängig voneinander implementiert und die Schnittstellen sind oft proprietär, was den Austausch von Daten, Modellen und Ergebnissen erschwert. Dennoch strebt Industrie 4.0 die Zusammenarbeit von Geräten und Komponenten unterschiedlicher Hersteller an. Als ein Lösungsansatz wurde in diesem Projekt eine kognitive Referenzarchitektur entwickelt, welche die genannten Punkte adressiert.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
The performance of optimization algorithms relies crucially on their parameterizations. Finding good parameter settings is called algorithm tuning. Using
a simple simulated annealing algorithm, we will demonstrate how optimization algorithms can be tuned using the Sequential Parameter Optimization Toolbox (SPOT). SPOT provides several tools for automated and interactive tuning. The underlying concepts of the SPOT approach are explained. This includes key techniques such as exploratory fitness landscape analysis and response surface methodology. Many examples illustrate
how SPOT can be used for understanding the performance of algorithms and gaining insight into algorithm behavior. Furthermore, we demonstrate how SPOT can be used as an optimizer and how a sophisticated ensemble approach is able to combine several meta models via stacking.
Dieser Schlussbericht beschreibt die im Projekt „Methoden der Computational Intelligence für Vorhersagemodelle in der Finanzund Wasserwirtschaft“ (FIWA) im Zeitraum von Juni 2009 bis einschließlich November 2012 erzielten Ergebnisse. In der Praxis werden für diese Vorhersagemodelle Verfahren der linearen und nichtlinearen Regression, NN, Support Vector Machines (SVM) und viele weitere Verfahren eingesetzt. Das Projekt FIWA befasste sich mit der Entwicklung modularer Systeme zur Analyse und Prognose von Daten aus der Finanz- und Wasserwirtschaft mittels Verfahren der Computational Intelligence (CI) mit methodischem Fokus auf dem CI-Unterbereich Genetic Programming (GP). Ein zentrales Ergebnis der wissenschaftlichtechnischen Arbeit im Projekt FIWA ist die Entwicklung der Open-Source Software RGP. Dabei handelt es sich um ein Software- Framework für GP, welches auf die automatische Erstellung von Vorhersagemodellen spezialisiert ist. Für die Finanzwirtschaft stand ein Handelssimulator zu Verfügung, der auf Basis von echten Finanzdaten die Qualität verschiedener Strategien testen kann. Dieser wurde im Projekt weiterentwickelt. GP wurde genutzt, um auf Basis der Simulationen genaue Vorhersagen und damit verbesserte Handelsstrategien zu entwerfen. Auch für die Wasserwirtschaft wurden Prognoseverfahren mit GP entwickelt. Der Schwerpunkt lag dabei auf der Füllstandprognose für Regenüberlaufbecken. Hier konnten moderne Verfahren mit GP oder SVM klassische Methoden deutlich schlagen oder verbessern. Auch der Einsatz von Sequentieller Parameter Optimierung zeigte signifikante Verbesserungen für die Prognosegenauigkeit. Dabei war die Kombination von klassischen Methoden und GP besonders erfolgreich. GP ist nach wie vor ein sehr aktives Forschungsgebiet und erlaubt auch für die Folgezeit zahlreiche Kooperationen mit den Partnern der Fachhochschule Köln. Sowohl für technische Anwendungen als auch zur Lösung von Forschungsfragen bieten sich zahlreiche Möglichkeiten an.
Ziel des Forschungsprojektes "Mehrkriterielle CI-basierte Optimierungsverfahren für den industriellen Einsatz" (MCIOP) war die Verringerung von Schadstoffemissionen in Kohlekraftwerken. Der wissenschaftliche Fokus lag auf der Entwicklung von Methoden, die in der Lage sind, interpretierbare Modelle für die Schadstoffemissionen automatisch zu generieren. Hierzu wurden mehrkriterielle Optimierungsverfahren entwickelt und eingesetzt. Zur Zeit- und Kostenreduktion wurde die Optimierung durch Surrogat-Modelle erfolgen, die abgestuft mit aufwändigeren Simulationen zum Einsatz kamen („optimization via simulation“). Bei der Untersuchung von Staubabscheidern konnten durch eine mehrkriterielle Optimierung unterschiedliche Zielgrößen, wie z.B. Abscheidegrad und Druckverlust, gleichzeitig berücksichtigt werden.
Dieser Bericht beschreibt die im Projekt MCIOP im Zeitraum von August 2011 bis einschließlich Juni 2015 erzielten Ergebnisse.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
Faserverbundwerkstoffe (FVW) und Composites haben in der Luft- und Raumfahrtindustrie, im Automobilbau, beim Bau von Windenergieanlagen und in vielen weiteren zukunftsträchtigen Branchen eine große Bedeutung. Maßnahmen, die ein Erkennen von Schädigungen simultan zur Entstehung ermöglichen und Restbetriebszeiten prognostizieren können, sind geeignet, die Lebensdauer von FVW-Konstruktionen zu erhöhen. Darüber hinaus ist eine zustandsorientierte und somit kosteneffektive Wartung dieser Bauteile möglich.
Sowohl die Prognose, als auch die Detektion von Schäden würde den ressourcenschonenden Einsatz dieser Werkstoff-gruppe ermöglichen. Das sogenannte Structural Health Monitoring (SHM) bezeichnet in diesem Zusammenhang eine Methode, die es ermöglicht, kontinuierlich Anhalts-punkte über die Funktionsfähigkeit von Bauteilen und Konstruktionen zu erhalten.
Dieser Artikel beschreibt die Planung, Durchführung und Analyse von SHM-Experimenten. Das Hauptziel bestand in der Planung von Experimenten zur Gewinnung von Messdaten mittels piezoelektrischen Elementen auf Versuchstafeln, bei denen bewusst trukturbeschädigungen eingebracht wurden. Statistische Auswertungsmethoden sollen auf ihre Eignung getestet werden, Rückschlüsse aus den experimentell gewonnenen Daten auf die Art der Strukturbeschädigungen zu ziehen.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose a methodology to overcome these difficulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This paper combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Forschendes Lernen versteht sich als ein methodisches Prinzip, das Forschungsorientierung und Verknüpfung von Forschung und Lehre in die Studiengänge und Lehrveranstaltungen integriert und für studentische Lernprozesse nutzbringend anwendet. Studierende sind dabei Teil der Scientific Community.
Dieser Artikel ist ein Erfahrungsbericht, in dem das Konzept des „Forschenden Lernens“ in einer Variante vorgestellt wird, die in den letzten zehn Jahren an einer deutschen Fachhochschule für ingenieurwissenschaftliche Studiengänge entwickelt wurde.
Da es „das“ Forschende Lernen nicht gibt, werden zunächst die für diesen Artikel relevanten Gesichtspunkte zusammengestellt. Darauf aufbauend wird ein Prozessmodell des Forschenden Lernens vorgestellt. Dieses Modell ermöglicht Forschendes Lernen für Bachelor- und Masterstudierende sowie für Doktorandinnen und Doktoranden.
This paper proposes an experimental methodology for on-line machine learning algorithms, i.e., for algorithms that work on data that are available in a sequential order.
It is demonstrated how established tools from experimental algorithmics (EA) can be applied in the on-line or streaming data setting.
The massive on-line analysis (MOA) framework is used to perform the experiments.
Benefits of a well-defined report structure are discussed.
The application of methods from the EA community to on-line or streaming data is referred to as experimental algorithmics for streaming data (EADS).
This report presents a practical approach to stacked generalization in surrogate model based optimization. It exemplifies the integration of stacking methods into the surrogate model building process. First, a brief overview of the current state in surrogate model based opti- mization is presented. Stacked generalization is introduced as a promising ensemble surrogate modeling approach. Then two examples (the first is based on a real world application and the second on a set of artificial test functions) are presented. These examples clearly illustrate two properties of stacked generalization: (i) combining information from two poor performing models can result in a good performing model and (ii) even if the ensemble contains a good performing model, combining its information with information from poor performing models results in a relatively small performance decrease only.
Learning board games by self-play has a long tradition in computational intelligence for games. Based on Tesauro’s seminal success with TD-Gammon in 1994, many successful agents use temporal difference learning today. But in order to be successful with temporal difference learning on game tasks, often a careful selection of features and a large number of training games is necessary. Even for board games of moderate complexity like Connect-4, we found in previous work that a very rich initial feature set and several millions of game plays are required. In this work we investigate different approaches of online-adaptable learning rates like Incremental Delta Bar Delta (IDBD) or Temporal Coherence Learning (TCL) whether they have the potential to speed up learning for such a complex task. We propose a new variant of TCL with geometric step size changes. We compare those algorithms with several other state-of-the-art learning rate adaptation algorithms and perform a case study on the sensitivity with respect to their meta parameters. We show that in this set of learning algorithms those with geometric step size changes outperform those other algorithms with constant step size changes. Algorithms with nonlinear output functions are slightly better than linear ones. Algorithms with geometric step size changes learn faster by a factor of 4 as compared to previously published results on the task Connect-4.
This volume addresses the topics of Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) from the perspective of participants of the DAAD Alumni Summer School 2013. Contributions from 16 countries are gathered in this volume, thereby sharing specific knowledge on climate extremes, disasters, adaptation and prevention measures as well as current strategies in a range of different national contexts. The DAAD Alumni Summer School opened up a forum for integrative thinking and learning across cultures, disciplines and institutions. This volume is directly linked to the first volume of the series and presents a further outcome of the Summer School 2013. It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making. The outcomes presented in the two volumes are a starting point for further international & transdisciplinary knowledge exchange activities planned for the upcoming years.
In den Kommunen wird ein vernetztes, integriertes Handeln durch eine institutionelle Zergliederung der Daseinsvorsorge in eine Vielzahl funktionaler Teilaufgaben behindert. In der Folge dieser Fragmentierung erfahren die Adressaten soziale Dienstleistungen in den Sozialräumen ihres Stadtteils oder Stadtteils funktions- und hierarchiebezogen – d.h. vertikal und horizontal – getrennt. Wegen der Barrieren des engen Ressortdenkens und der fehlenden Transparenz agieren die professionellen Akteure relativ isoliert auf den „operativen Inseln“ fachlicher Zuständigkeiten. Gemeinsame Schnittstellen werden kaum wahrgenommen, was zum Aufbau von ineffizienten Doppelstrukturen und Mehrfachangeboten geführt hat. Vor diesem Hintergrund besteht die innovative Idee darin, in der Kommune eine wirkungsvolle und effiziente Netzwerkversorgung zwischen isolierten Agenturen, professionellen Dienstleistern und ehrenamtlich engagierter Bürger/innen zu entwickeln. Denn das dafür erforderliche organisatorische Verfahren der Netzwerkkooperation, das im Profitbereich bereits seit den 90er Jahren etabliert ist (vgl. Zulieferernetze der Mobilitätsindustrie) wartet im Non-Profit-Sektor noch auf die systematische Einführung. Die wissenschaftlichen und sozialpolitischen Diskurse des letzten Jahrzehnts verdeutlichen jedoch vermehrt den hohen Bedarf einer vernetzungsorientierten Organisationsentwicklung der kommunalen Daseinsvorsorge und ihrer Verwaltungsagenturen. Auf der Ebene der Sozialräume von Stadtteilen und Stadtbezirken, aber auch innerhalb der zentralen Kommunalverwaltung sollen aus diesem Grund sowohl Hierarchiebarrieren zwischen Die Qualitätsentwicklung hängt entscheidend davon ab, ob diese Barrieren überwunden werden und sowohl eine integrierte Vorgehensweise der professionellen Akteure gefunden wird als auch der Anschluss an die zivilgesellschaftlichen Potenziale gelingt. Vor diesem Hintergrund untersucht das Projekt „CityNet“ die Koordination professioneller und ehrenamtlicher Interventionen verschiedener Ressorts, um die individuellen und sozialen Bedürfnisse der Bevölkerung wirkungsvoll und effizient zu sichern. Im Ergebnis werden Instrumente der „Netzwerkplanung“ entwickelt, mit denen die bisher isolierten Leistungen der einzelnen Infrastrukturen und Dienstleistungsanbieter im Sozialraum miteinander bedarfsorientiert und adressatenfokussiert verbunden werden.
Im Jahre 2009 wurde ein Forschungsschwerpunkt „Verteilte Mobile Applikationen“ gegründet, der Forschungsaktivitäten im Bereich der technischen Informatik bündelt. Um Ergebnisse laufender Arbeiten aus den Forschungs- und Entwicklungs-aktivitäten des Forschungsschwerpunkts nach außen zu kommunizieren und um Informatiker und Informationstechniker außerhalb des Forschungsschwerpunkts z.B. aus dem Kölner Raum einzuladen, neue Ergebnisse aus Wissenschaft und technischer Anwendung zu publizieren, wird diese WEB Schriftenreihe gegründet, in der forschungsorientierte Aufsätze und Monographien veröffentlicht werden können. Die erste Nummer der Reihe behandelt Themen wie die Systemarchitektur verteilter mobiler Anwendungen, REST-konforme Web Services, Bildverarbeitungs-algorithmen zur Prägeschrifterkennung und zuverlässige eingebettete Systeme (DCSB Bord).
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Die Diskussionsforen der Forschungsstelle Versicherungsrecht behandeln zweimal pro Jahr aktuelle Fragestellungen und neuere Rechtsprechung zum Thema Versicherungsrecht. Die Veranstaltung wendet sich an Versicherungsjuristen, mit Versicherungsrecht befasste Rechtsanwälte und an Betriebswirte, die sich in ihrer beruflichen Praxis mit rechtlichen Fragestellungen beschäftigen müssen. Die Ergebnisse des 6. Diskussionsforums vom 25. September 2012 an der FH Köln sind in diesem Tagungsbericht zusammengefasst.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Das Verhältnis zwischen privater Gestaltung und staatlicher Regulierung in der Versicherungswirtschaft war das herausfordernde Thema des 16. Kölner Versicherungssymposiums 2011 und des vorliegenden Tagungsbandes. In dem allgemeinen Teil werden in Grundsatzbeiträgen die Positionen erwünschter und unerwünschter ordnungspolitischer Eingriffe in die Privatautonomie des Versicherungsmarkts dargestellt. In den anschließenden fünf Arbeitsgruppen zu den Bereichen Lebensversicherung, Krankenversicherung, Pflegeversicherung, Sachversicherungen und Haftpflichtversicherungen wurde das Spannungsverhältnis behandelt. Neben den Expertenstatements sind auch die Diskussionsbeiträge der Tagungsteilnehmer festgehalten.
Die klassische Form der Unternehmenssteuerung durch einfache Unternehmenskenn-ziffern ist inzwischen fast überall durch wertorientierte Steuerungssysteme ersetzt worden, die Risiko und Rendite in sinnvoller Weise gegenüberstellen. In diesem Zusammenhang ist die korrekte Ermittlung des Kapitalbedarfs als dem relevanten Faktor zur Produktion von Versicherungsschutz unverzichtbar. Um hierbei die einzelnen Einflussgrößen hier ursachegerecht separieren zu können, sollte eine adäquate Performancemessung vorgenommen werden.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des abgelaufenen Jahres 2011. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem ersten Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen. Schließlich geben wir auch einen kurzen Ausblick auf die für 2012 geplanten Aktivitäten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Gegründet 1829, prägte die Papierfabrik Zanders das Wirtschaftsleben der Stadt Bergisch Gladbach über fast 200 Jahre nachhaltig. Auf dem 37 ha großen Werkgelände finden sich Gebäude aus den verschiedenen Epochen der Papierfabrik und dokumentieren die wechselvolle Geschichte der Firma. Die in diesem Studienprojekt bearbeiteten historischen Werkhallen wurden zusammen mit elf weiteren Objekten auf dem Firmengelände als Baudenkmal in die Denkmalliste der Stadt Bergisch Gladbach aufgenommen. Die erarbeiteten Projekte zeigen verschiedene Wege der Nutzung auf.
Zahlreiche Untersuchungen, die in Reaktion auf die pandemiebedingte Ausnahmesituation im Sommer 2020 durchgeführt wurden, bieten Anhaltspunkte für Gestaltungsaufgaben an Hochschulen auf dem Weg zur hybriden Lehre. Hochschulinterne Befragungen von Studierenden, Lehrenden und Verwaltungspersonal geben Einblicke, genauso wie hochschulübergreifende Untersuchungen ausgewählter Zielgruppen bzw. spezifischer Fragestellungen. Die gewonnenen Einblicke in digitales bzw. hybrides Lehren und Lernen sind Gegenstand dieses Bandes. Er versammelt unterschiedliche Ansätze hochschuldidaktischer Forschung zur Gestaltung von Lehr-Lernsituationen und -prozessen, zu Studienprogrammen und -phasen sowie zu Programmen der Lehrkompetenzentwicklung. Der Band geht der Frage nach, welche Implikationen sich aus den vielfältig erhobenen empirischen Daten für die Hochschulbildung und die (hybride) Hochschullehre ableiten lassen.
Der Band widmet sich auf Mikro- und Mesoebene, basierend auf Forschungsdesigns wie SoTL, Evaluationsstudien, lokaler Hochschuldidaktikforschung zu Studienerfolg, hochschuldidaktischer Begleitforschung und Forschung zum Scholarship of Academic Development (SoAD), den Themen:
I. Lernen in Beziehung − Lehre als sozialer Raum
II. Studienmotivation −Studienerfolg
III. Lehrreflexion −Lehrtransformation
Ausgelöst durch die COVID-19-Pandemie im Sommersemester 2020 fanden Hochschulen eine große Bandbreite an lokalen Lösungen für die Ad-hoc Umstellung auf digitale Lehre. Über Notfalllösungen hinaus stellt sich für die Zukunft der Hochschullehre die Frage, welche Chancen hybride Hochschullehre bietet. Dies berührt vor allem notwendige Veränderungen der Makroebene der strukturellen Rahmenbedingungen für das Lehren und Lernen an der Hochschule als Organisation, die auch von den rechtlichen Vorgaben und dem politischen Diskurs zu Studien- und Bildungszielen geprägt ist. Der Band versammelt unterschiedliche Ansätze hochschuldidaktischer Forschung und geht der Frage nach, welche Implikationen sich aus erhobenen empirischen Daten für die Hochschulbildung und die lehrbezogene Hochschulentwicklung ableiten lassen.
Der Band behandelt auf der Makroebene die Themen:
I. Bewertung und Akzeptanz sich verändernder Lehrstrukturen
II. Rahmenbedingungen digitaler/hybrider Lehre aus der Sicht von Lehrenden und Studierenden
III. Die Rolle der Hochschuldidaktik in der Entwicklung digitaler/hybrider Lehrstrukturen
IV. Methodische Bezugsrahmen für die strategische Hochschulentwicklung im Kontext der Digitalisierung
In 2021 feiert die Technische Hochschule Köln (TH Köln) ihr 50-jähriges Jubiläum und damit auch das Institut für Versicherungswesen (ivwKöln), wobei sich inzwischen Forschung, Lehre und Transfer in die Praxis auf alle Risikofelder des Versicherungsgeschäfts und alle Kompetenzbereiche der Versicherungsunternehmen beziehen. Anlässlich dieses Jubiläums hat das ivwKöln daher in einem Band „Risiko im Wandel. Herausforderung für die Versicherungswirtschaft“, der in 2022 als Open Access erscheinen wird, die Vielfalt von Forschung und Praxis aller Mitwirkenden an der Arbeit des Institutes gebündelt zusammengefasst. Der nachfolgende Beitrag soll schon vorab einen Überblick der verschiedenen Forschungsthemen geben.
Der vorliegende Band versucht, einen ersten Überblick über die Inhalte und Wesensmerkmale des noch relativ jungen Studiengangs und Forschungsbereichs Rettungsingenieurwesen an der TH Köln (früher FH Köln) zu schaffen. Damit kann der Sammelband zwar nicht für alle Ausprägungen des „Rettungsingenieurwesens“ (oder Rescue Engineering) auch an anderen Hochschulen stehen. Jedoch soll er einen ersten Eindruck ermöglichen und zwar für Außenstehende aber durchaus auch für Studierende und Kollegen an der TH Köln, was „Rettungsingenieurwesen“ überhaupt ist, und welche fachlichen, methodischen und auch anwendungsbezogenen Inhalte es beinhaltet. Abgrenzungen zu Nachbarstudiengängen oder Aufgabenfeldern sind nicht einfach und auch dieser Sammelband kann nur einen ersten Aufschlag anbieten. Jedoch wird es in fünf oder zehn Jahren einmal interessant sein, wie und wohin sich dieser Studiengang, aber auch die gleichzeitig am Institut für Rettungsingenieurwesen (IRG) stattfindende Forschung hin entwickelt haben wird. Somit dient dieser Band nicht nur der Begriffsbestimmung und inhaltlichen weiteren Ausgestaltung; er soll auch dazu einladen, mit zu überlegen, in welche Richtung sich Lehre und Forschung noch entwickeln könnten.
Das Handlungsfeld Lehre und Studium ist nicht mehr als nur erfahrungsgeleitete, routineförmig verlaufende Praxis zu betrachten, sondern als wissenschaftliches Arbeitsgebiet zu etablieren und damit systematischer und wissenschaftlich fundierter Reflexion und Gestaltung zugänglich zu machen. Der Band zeigt, wie dies durch Intensivierung, Verbreitung und Diskussion von forschenden Ansätzen in der hochschuldidaktischen Praxis gelingt. Die Beiträge bieten mit ihren theoretischen, konzeptionellen und empirischen Zugängen einen Fundus wissenschaftlicher Erkenntnisse, die eine evidenzbasierte Entwicklung von Lehre und Studium ermöglichen. Insbesondere das hochschuldidaktische Handeln kann daher durch solche Forschung evidenzbasiert fundiert erfolgen.
Band I des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ macht Vielfalt und Offenheit als tragende Elemente einer wertbezogenen Hochschuldidaktik zum Thema. Aufgezeigt wird eine theorie- und praxisgeleitete Diskussion mit Blick auf grundlegende Zusammenhänge von Didaktik, Vielfalt und Offenheit für eine Hochschulbildung in Bewegung. Ein wertschätzender Umgang mit Vielfalt und Offenheit ist im Hochschulkontext zwar keineswegs auf die Hochschuldidaktik begrenzt; sie ist ein Akteur unter mehreren. Doch der Blick in hochschuldidaktische Theorie- und Praxisbestände weist eine besondere Dynamik und Dichte auf. Die Zusammenschau der Beiträge macht deutlich, dass die diskursiv gestaltete Auseinandersetzung und Weiterentwicklung einer wertbezogenen Hochschuldidaktik unter dem Dach von Offenheit und Vielfalt voraussetzungsvoll ist und bei weitem nicht on the go ausgehandelt werden kann.
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren.
Der vorliegende Band II des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ befasst sich mit der Kultur des Ermöglichens: Welche Werte stehen im Vordergrund und welche rücken in den Hintergrund, wenn man versucht, eine Kultur des Ermöglichens an einer Hochschule zu etablieren? Was ist nötig, damit Maßnahmen nicht fremde Schlaglichter in einer schon existierenden Kultur bleiben, sondern (scheinbar) Bekanntes langfristig in einem neuen Licht erscheinen lassen? Wie ermöglichen Maßnahmen, sich anders miteinander zu treffen und sich zu begegnen, um Bildung zu gestalten? Die hier versammelten Beiträge zur Ebene der Lehrveranstaltung, der Fakultäten, der (Fach-) Kollegien sowie der Hochschule als Organisation zeigen, welchen Beitrag die Hochschuldidaktik im Rahmen einer wertebezogenen Profilbildung für eine solche Kultur leisten kann.
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren
Im vorliegenden Band III des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ wird eine mehrperspektivische, wissenschaftliche Auseinandersetzung um Qualität der Hochschulbildung geführt. Die Beitrage nähern sich aus unterschiedlichen Perspektiven folgenden Fragen an: Wie kann die Hochschuldidaktik durch die Analyse und Erforschung des Qualitätsbegriffs dazu beitragen, hochschul-, wirtschafts- und gesellschaftspolitische Herausforderungen als Chance für Hochschulentwicklung zu betrachten? Welche Fragen ergeben sich mit Blick auf Qualitätsentwicklung, welche Werteaspekte sind damit verbunden, und wie wirkt sich dies auf hochschulische Profilbildungsprozesse aus? Welche Veränderungsprozesse werden durch die Reflexion von Qualitätsfragen initiiert und wie wird dadurch tiefgreifende und nachhaltige Veränderung erzielt?
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren.
Band IV des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ widmet sich der Frage, welchen Einfluss die Hochschuldidaktik auf Selbstverständnisse und Werte in der Hochschulentwicklung nehmen kann und soll. Wie kann sich die Hochschuldidaktik durch Scholarship of Academic Development wissenschaftlich fundieren und professionalisieren? Und welche Rolle nimmt sie für das Scholarship of Teaching and Learning ein? Wie können Hochschuldidaktik und Hochschullehre durch forschende Zugänge miteinander und voneinander lernen? Eine weitere Perspektive der Beiträge liegt auf der Frage, wie Forschung zur studentischen Perspektive auf das Hochschullernen die Lehre anders oder neu ausrichten kann.
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren.