Refine
Year of publication
Document Type
- Working Paper (87)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (162)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (218)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
In den Kommunen wird ein vernetztes, integriertes Handeln durch eine institutionelle Zergliederung der Daseinsvorsorge in eine Vielzahl funktionaler Teilaufgaben behindert. In der Folge dieser Fragmentierung erfahren die Adressaten soziale Dienstleistungen in den Sozialräumen ihres Stadtteils oder Stadtteils funktions- und hierarchiebezogen – d.h. vertikal und horizontal – getrennt. Wegen der Barrieren des engen Ressortdenkens und der fehlenden Transparenz agieren die professionellen Akteure relativ isoliert auf den „operativen Inseln“ fachlicher Zuständigkeiten. Gemeinsame Schnittstellen werden kaum wahrgenommen, was zum Aufbau von ineffizienten Doppelstrukturen und Mehrfachangeboten geführt hat. Vor diesem Hintergrund besteht die innovative Idee darin, in der Kommune eine wirkungsvolle und effiziente Netzwerkversorgung zwischen isolierten Agenturen, professionellen Dienstleistern und ehrenamtlich engagierter Bürger/innen zu entwickeln. Denn das dafür erforderliche organisatorische Verfahren der Netzwerkkooperation, das im Profitbereich bereits seit den 90er Jahren etabliert ist (vgl. Zulieferernetze der Mobilitätsindustrie) wartet im Non-Profit-Sektor noch auf die systematische Einführung. Die wissenschaftlichen und sozialpolitischen Diskurse des letzten Jahrzehnts verdeutlichen jedoch vermehrt den hohen Bedarf einer vernetzungsorientierten Organisationsentwicklung der kommunalen Daseinsvorsorge und ihrer Verwaltungsagenturen. Auf der Ebene der Sozialräume von Stadtteilen und Stadtbezirken, aber auch innerhalb der zentralen Kommunalverwaltung sollen aus diesem Grund sowohl Hierarchiebarrieren zwischen Die Qualitätsentwicklung hängt entscheidend davon ab, ob diese Barrieren überwunden werden und sowohl eine integrierte Vorgehensweise der professionellen Akteure gefunden wird als auch der Anschluss an die zivilgesellschaftlichen Potenziale gelingt. Vor diesem Hintergrund untersucht das Projekt „CityNet“ die Koordination professioneller und ehrenamtlicher Interventionen verschiedener Ressorts, um die individuellen und sozialen Bedürfnisse der Bevölkerung wirkungsvoll und effizient zu sichern. Im Ergebnis werden Instrumente der „Netzwerkplanung“ entwickelt, mit denen die bisher isolierten Leistungen der einzelnen Infrastrukturen und Dienstleistungsanbieter im Sozialraum miteinander bedarfsorientiert und adressatenfokussiert verbunden werden.
This volume addresses the topics of Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) from the perspective of participants of the DAAD Alumni Summer School 2013. Contributions from 16 countries are gathered in this volume, thereby sharing specific knowledge on climate extremes, disasters, adaptation and prevention measures as well as current strategies in a range of different national contexts. The DAAD Alumni Summer School opened up a forum for integrative thinking and learning across cultures, disciplines and institutions. This volume is directly linked to the first volume of the series and presents a further outcome of the Summer School 2013. It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making. The outcomes presented in the two volumes are a starting point for further international & transdisciplinary knowledge exchange activities planned for the upcoming years.
Das im März 2024 vorgestellte Rentenpaket II der Ampelregierung sieht vor, das Rentenniveau zu stabilisieren und gleichzeitig eine schuldenfinanzierte Kapitaldeckung (Generationenkapital) einzuführen.
Allerdings führen diese Maßnahmen im Umlageverfahren zu einer einseitigen Belastung der jüngeren Generationen, die auch nicht durch den Aufbau des Generationenkapitals gemildert wird, wie die Ausführungen in diesem Artikel zeigen.
Learning board games by self-play has a long tradition in computational intelligence for games. Based on Tesauro’s seminal success with TD-Gammon in 1994, many successful agents use temporal difference learning today. But in order to be successful with temporal difference learning on game tasks, often a careful selection of features and a large number of training games is necessary. Even for board games of moderate complexity like Connect-4, we found in previous work that a very rich initial feature set and several millions of game plays are required. In this work we investigate different approaches of online-adaptable learning rates like Incremental Delta Bar Delta (IDBD) or Temporal Coherence Learning (TCL) whether they have the potential to speed up learning for such a complex task. We propose a new variant of TCL with geometric step size changes. We compare those algorithms with several other state-of-the-art learning rate adaptation algorithms and perform a case study on the sensitivity with respect to their meta parameters. We show that in this set of learning algorithms those with geometric step size changes outperform those other algorithms with constant step size changes. Algorithms with nonlinear output functions are slightly better than linear ones. Algorithms with geometric step size changes learn faster by a factor of 4 as compared to previously published results on the task Connect-4.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose a methodology to overcome these difficulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This paper combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Forschendes Lernen versteht sich als ein methodisches Prinzip, das Forschungsorientierung und Verknüpfung von Forschung und Lehre in die Studiengänge und Lehrveranstaltungen integriert und für studentische Lernprozesse nutzbringend anwendet. Studierende sind dabei Teil der Scientific Community.
Dieser Artikel ist ein Erfahrungsbericht, in dem das Konzept des „Forschenden Lernens“ in einer Variante vorgestellt wird, die in den letzten zehn Jahren an einer deutschen Fachhochschule für ingenieurwissenschaftliche Studiengänge entwickelt wurde.
Da es „das“ Forschende Lernen nicht gibt, werden zunächst die für diesen Artikel relevanten Gesichtspunkte zusammengestellt. Darauf aufbauend wird ein Prozessmodell des Forschenden Lernens vorgestellt. Dieses Modell ermöglicht Forschendes Lernen für Bachelor- und Masterstudierende sowie für Doktorandinnen und Doktoranden.
This paper proposes an experimental methodology for on-line machine learning algorithms, i.e., for algorithms that work on data that are available in a sequential order.
It is demonstrated how established tools from experimental algorithmics (EA) can be applied in the on-line or streaming data setting.
The massive on-line analysis (MOA) framework is used to perform the experiments.
Benefits of a well-defined report structure are discussed.
The application of methods from the EA community to on-line or streaming data is referred to as experimental algorithmics for streaming data (EADS).
This report presents a practical approach to stacked generalization in surrogate model based optimization. It exemplifies the integration of stacking methods into the surrogate model building process. First, a brief overview of the current state in surrogate model based opti- mization is presented. Stacked generalization is introduced as a promising ensemble surrogate modeling approach. Then two examples (the first is based on a real world application and the second on a set of artificial test functions) are presented. These examples clearly illustrate two properties of stacked generalization: (i) combining information from two poor performing models can result in a good performing model and (ii) even if the ensemble contains a good performing model, combining its information with information from poor performing models results in a relatively small performance decrease only.
Faserverbundwerkstoffe (FVW) und Composites haben in der Luft- und Raumfahrtindustrie, im Automobilbau, beim Bau von Windenergieanlagen und in vielen weiteren zukunftsträchtigen Branchen eine große Bedeutung. Maßnahmen, die ein Erkennen von Schädigungen simultan zur Entstehung ermöglichen und Restbetriebszeiten prognostizieren können, sind geeignet, die Lebensdauer von FVW-Konstruktionen zu erhöhen. Darüber hinaus ist eine zustandsorientierte und somit kosteneffektive Wartung dieser Bauteile möglich.
Sowohl die Prognose, als auch die Detektion von Schäden würde den ressourcenschonenden Einsatz dieser Werkstoff-gruppe ermöglichen. Das sogenannte Structural Health Monitoring (SHM) bezeichnet in diesem Zusammenhang eine Methode, die es ermöglicht, kontinuierlich Anhalts-punkte über die Funktionsfähigkeit von Bauteilen und Konstruktionen zu erhalten.
Dieser Artikel beschreibt die Planung, Durchführung und Analyse von SHM-Experimenten. Das Hauptziel bestand in der Planung von Experimenten zur Gewinnung von Messdaten mittels piezoelektrischen Elementen auf Versuchstafeln, bei denen bewusst trukturbeschädigungen eingebracht wurden. Statistische Auswertungsmethoden sollen auf ihre Eignung getestet werden, Rückschlüsse aus den experimentell gewonnenen Daten auf die Art der Strukturbeschädigungen zu ziehen.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Dieser Schlussbericht beschreibt die im Projekt „Methoden der Computational Intelligence für Vorhersagemodelle in der Finanzund Wasserwirtschaft“ (FIWA) im Zeitraum von Juni 2009 bis einschließlich November 2012 erzielten Ergebnisse. In der Praxis werden für diese Vorhersagemodelle Verfahren der linearen und nichtlinearen Regression, NN, Support Vector Machines (SVM) und viele weitere Verfahren eingesetzt. Das Projekt FIWA befasste sich mit der Entwicklung modularer Systeme zur Analyse und Prognose von Daten aus der Finanz- und Wasserwirtschaft mittels Verfahren der Computational Intelligence (CI) mit methodischem Fokus auf dem CI-Unterbereich Genetic Programming (GP). Ein zentrales Ergebnis der wissenschaftlichtechnischen Arbeit im Projekt FIWA ist die Entwicklung der Open-Source Software RGP. Dabei handelt es sich um ein Software- Framework für GP, welches auf die automatische Erstellung von Vorhersagemodellen spezialisiert ist. Für die Finanzwirtschaft stand ein Handelssimulator zu Verfügung, der auf Basis von echten Finanzdaten die Qualität verschiedener Strategien testen kann. Dieser wurde im Projekt weiterentwickelt. GP wurde genutzt, um auf Basis der Simulationen genaue Vorhersagen und damit verbesserte Handelsstrategien zu entwerfen. Auch für die Wasserwirtschaft wurden Prognoseverfahren mit GP entwickelt. Der Schwerpunkt lag dabei auf der Füllstandprognose für Regenüberlaufbecken. Hier konnten moderne Verfahren mit GP oder SVM klassische Methoden deutlich schlagen oder verbessern. Auch der Einsatz von Sequentieller Parameter Optimierung zeigte signifikante Verbesserungen für die Prognosegenauigkeit. Dabei war die Kombination von klassischen Methoden und GP besonders erfolgreich. GP ist nach wie vor ein sehr aktives Forschungsgebiet und erlaubt auch für die Folgezeit zahlreiche Kooperationen mit den Partnern der Fachhochschule Köln. Sowohl für technische Anwendungen als auch zur Lösung von Forschungsfragen bieten sich zahlreiche Möglichkeiten an.
Ziel des Forschungsprojektes "Mehrkriterielle CI-basierte Optimierungsverfahren für den industriellen Einsatz" (MCIOP) war die Verringerung von Schadstoffemissionen in Kohlekraftwerken. Der wissenschaftliche Fokus lag auf der Entwicklung von Methoden, die in der Lage sind, interpretierbare Modelle für die Schadstoffemissionen automatisch zu generieren. Hierzu wurden mehrkriterielle Optimierungsverfahren entwickelt und eingesetzt. Zur Zeit- und Kostenreduktion wurde die Optimierung durch Surrogat-Modelle erfolgen, die abgestuft mit aufwändigeren Simulationen zum Einsatz kamen („optimization via simulation“). Bei der Untersuchung von Staubabscheidern konnten durch eine mehrkriterielle Optimierung unterschiedliche Zielgrößen, wie z.B. Abscheidegrad und Druckverlust, gleichzeitig berücksichtigt werden.
Dieser Bericht beschreibt die im Projekt MCIOP im Zeitraum von August 2011 bis einschließlich Juni 2015 erzielten Ergebnisse.
The performance of optimization algorithms relies crucially on their parameterizations. Finding good parameter settings is called algorithm tuning. Using
a simple simulated annealing algorithm, we will demonstrate how optimization algorithms can be tuned using the Sequential Parameter Optimization Toolbox (SPOT). SPOT provides several tools for automated and interactive tuning. The underlying concepts of the SPOT approach are explained. This includes key techniques such as exploratory fitness landscape analysis and response surface methodology. Many examples illustrate
how SPOT can be used for understanding the performance of algorithms and gaining insight into algorithm behavior. Furthermore, we demonstrate how SPOT can be used as an optimizer and how a sophisticated ensemble approach is able to combine several meta models via stacking.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Die steigende Komplexität der Produktionssysteme, insbesondere im Maschinenbau, führt zu einer Belastung für Automatisierer und Anlagenbauer. Um dieser Belastung entgegenzuwirken, bietet Industrie 4.0 mit Cyber-physischen Systemen und intelligenten Automatisierungssystemen eine Lösung. Dabei wird menschliches Expertenwissen in die Automatisierung verlagert, indem Ziele deklarativ formuliert werden, anstatt prozedurale Handlungsabläufe zu beschreiben. Dieser Ansatz ermöglicht es intelligenten Systemen, ausreichenden Handlungsspielraum zu haben und den menschlichen Aufwand bei der Optimierung, Inbetriebnahme und Anlagenumbau zu reduzieren. Um intelligente Automation umzusetzen, werden neue Automatisierungstechniken und Software-Services benötigt, die verschiedene Methoden wie maschinelles Lernen, Condition-Monitoring und Diagnose-Algorithmen sowie Optimierungsverfahren nutzen. Derzeit werden diese Services unabhängig voneinander implementiert und die Schnittstellen sind oft proprietär, was den Austausch von Daten, Modellen und Ergebnissen erschwert. Dennoch strebt Industrie 4.0 die Zusammenarbeit von Geräten und Komponenten unterschiedlicher Hersteller an. Als ein Lösungsansatz wurde in diesem Projekt eine kognitive Referenzarchitektur entwickelt, welche die genannten Punkte adressiert.
Cyclone separators are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation, which necessary for constructing efficient cyclones. Several simulation tools can be run in parallel, e.g., long running CFD simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. There are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, whereas analytical models do not. Combining results from models with different input-output structure is of great interest. This combination inspired the development of a new methodology. An optimization via multimodel simulation approach, which combines results from different models, is introduced.
Using cyclonic dust separators (cyclones) as a real-world simulation problem, the feasibility of this approach is demonstrated. Pros and cons of this approach are discussed and experiences from the experiments are presented.
Furthermore, technical problems, which are related to 3D-printing approaches, are discussed.
Dieser Schlussbericht beschreibt die im Projekt „CI-basierte mehrkriterielle Optimierungsverfahren für Anwendungen in der Industrie“ (CIMO) im Zeitraum von November 2011 bis einschließlich Oktober 2014 erzielten Ergebnisse. Für aufwändige Optimierungsprobleme aus der Industrie wurden geeignete Lösungsverfahren entwickelt. Der Schwerpunkt lag hierbei auf Methoden aus den Bereichen Computational Intelligence (CI) und Surrogatmodellierung. Diese bieten die Möglichkeit, wichtige Herausforderung von aufwändigen, komplexen Optimierungsproblemen zu lösen. Die entwickelten Methoden können verschiedene konfliktäre Zielgrößen berücksichtigen, verschiedene Hierarchieebenen des Problems in die Optimierung integrieren, Nebenbedingungen beachten, vektorielle aber auch strukturierte Daten verarbeiten (kombinatorische Optimierung) sowie die Notwendigkeit teurer/zeitaufwändiger Zielfunktionsberechnungen reduzieren. Die entwickelten Methoden wurden schwerpunktmäßig auf einer Problemstellung aus der Kraftwerkstechnik angewendet, nämlich der Optimierung der Geometrie eines Fliehkraftabscheiders (auch: Zyklon), der Staubanteile aus Abgasen filtert. Das Optimierungsproblem, das diese FIiehkraftabscheider aufwerfen, führt zu konfliktären Zielsetzungen (z.B. Druckverlust, Abscheidegrad). Zyklone können unter anderem über aufwändige Computational Fluid Dynamics (CFD) Simulationen berechnet werden, es stehen aber auch einfache analytische Gleichungen als Schätzung zu Verfügung. Die Verknüpfung von beidem zeigt hier beispielhaft wie Hierarchieebenen eines Optimierungsproblems mit den Methoden des Projektes verbunden werden können. Neben dieser Schwerpunktanwendung konnte auch gezeigt werden, dass die Methoden in vielen weiteren Bereichen Erfolgreich zur Anwendung kommen können: Biogaserzeugung, Wasserwirtschaft, Stahlindustrie. Die besondere Herausforderung der behandelten Probleme und Methoden bietet viele wichtige Forschungsmöglichkeiten für zukünftige Projekte, die derzeit durch die Projektpartner vorbereitet werden.
There is a strong need for sound statistical analysis of simulation and optimization algorithms. Based on this analysis, improved parameter settings can be determined. This will be referred to as tuning. Model-based investigations are common approaches in simulation and optimization. The sequential parameter optimization toolbox (SPOT), which is implemented as a package for the statistical programming language R, provides sophisticated means for tuning and understanding simulation and optimization algorithms. The toolbox includes methods for tuning based on classical regression and analysis of variance techniques; tree-based models such as classification and regressions trees (CART) and random forest; Gaussian process models (Kriging), and combinations of different meta-modeling approaches. This article exemplifies how an existing optimization algorithm, namely simulated annealing, can be tuned using the SPOT framework.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
Der Fokus dieses Artikels liegt auf den zwischenmenschlichen Herausforderungen und Dynamiken, die dem Teamteaching, bspw. in Form eines Lehr-Duos in der Praxis immanent sind. Hierbei wiederum liegt der Schwerpunkt der Untersuchung auf einer lösungsorientierten Perspektive. Der Hypothese folgend, dass Wertschätzung ein elementarer Faktor interdisziplinärer Lehre ist, wird diese definitorisch, konzeptionell und theoretisch beleuchtet. Hier ergibt sich die Korrelation der professionellen und der persönlichen Ebene als wichtiges Merkmal der Wertschätzung im Teamteaching.
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Ziel dieser innerinstitutionellen Studie ist es, herauszufinden, wie die didaktische Umsetzung des Forschenden Lernens (FL) gelingen kann. 24 Lehrende aus allen Fakultäten der TH Köln wurden dazu als Expert*innen für ihre Lehrveranstaltungen in einer qualitativen Interviewstudie befragt. Im Fokus standen dabei die Herausforderungen, Erfolgsfaktoren und Weiterentwicklungsideen mit diesem Lehrformat, die Lehrende für sich identifiziert haben. Die Auswertung des Datenmaterials erfolgte mittels Qualitativer Inhaltsanalyse nach Mayring (2010). Die Ergebnisse zeichnen ein Bild von Forschendem Lernen, das sich über alle Handlungsebenen von Studium und Lehre erstreckt – von (äußeren) Rahmenbedingungen wie z.B. der Kooperationen mit Dritten über hochschulweite Fragestellungen wie die nach der Prüfungsgestaltung bis hin zum konkreten Lehr- und Lerngeschehen. Diese Studie bietet der Hochschuldidaktik eine evidenzbasierte Grundlage für Weiterbildung und Beratung sowie Lehrenden einen Orientierungsrahmen, um FL mehrdimensional zu planen und umzusetzen.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
Cyclone Dust Separators are devices often used to filter solid particles from flue gas. Such cyclones are supposed to filter as much solid particles from the carrying gas as possible. At the same time, they should only introduce a minimal pressure loss to the system. Hence, collection efficiency has to be maximized and pressure loss minimized. Both the collection efficiency and pressure loss are heavily influenced by the cyclones geometry. In this paper, we optimize seven geometrical parameters of an analytical cyclone model. Furthermore, noise variables are introduced to the model, representing the non-deterministic structure of the real-world problem. This is used to investigate robustness and sensitivity of solutions. Both the deterministic as well as the stochastic model are optimized with an SMS-EMOA. The SMS-EMOA is compared to a single objective optimization algorithm. For the harder, stochastic optimization problem, a surrogate-model-supported SMS-EMOA is compared against the model-free SMS-EMOA. The model supported approach yields better solutions with the same run-time budget.
In dieser Untersuchung wird gezeigt, dass die Kubatur des Innenraums der im frühen 11. Jh. erbauten Bartholomäuskapelle in Paderborn auf einer geometrischen Konstruktion beruht.
Religiöse Bezüge mit Anleihen aus der Antike spielten bestimmt eine wesentliche Rolle, doch ansonsten ist hier die Geometrie keineswegs als Selbstzweck zu betrachten. Planung und Bauausführung wurden durch die Befolgung einer „geometrischen Logik“, enorm vereinfacht, Proportionen und Harmonien ergaben sich daraus. Die grundlegende Voraussetzung für alle hier aufgeführten Betrachtungen bildet die Dokumentation mit 3D-Laserscanning, welche einen hochgenauen verformungsgerechten „digitalen Zwilling“ am Computer erzeugt. Alle benötigten Maße können so abgegriffen werden, ohne aufwendige Nachmessungen am Objekt durchführen zu müssen. Für das Auffinden einer belastbaren geometrischen Konstruktion bildet wiederum die Analyse der über die Jahrhunderte aufgetretenen Deformationen eine unabdingbare Voraussetzung,
da sonst die baubedingten Unregelmäßigkeiten nicht erkannt werden können.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
In diesem Beitrag geht es um eine Forschungsarbeit, die im Rahmen eines lehrbezogenen Forschungs- und Entwicklungsprojekts während des Sommersemesters 2021 zur Zeit der COVID-19-Pandemie in einem Anfänger*innen-Übersetzungskurs und zwei Fortgeschrittenen-Übersetzungskursen des Bachelorstudiengangs Mehrsprachige Kommunikation durchgeführt wurde. In diesen Kursen wurde eine digitale Gruppenarbeit angeboten, die von den meisten Studierenden besser als erwartet angenommen wurde. Dabei stellte sich heraus, dass diese Form der Arbeit Studierende dazu motivieren kann, trotz verschiedener Standorte gemeinsam an einem Projekt zu arbeiten. Zudem wurde die Annahme bestätigt, dass mit fortschreitender Spezialisierung der Studierenden eine stärkere Aktivierung bei digitaler Gruppenarbeit festzustellen ist. Da die Studierenden größtenteils auch eine Verbesserung ihrer Übersetzungs- und Sozialkompetenz wahrnahmen und diese Lehrform als Abwechslung zur gewöhnlichen Vorgehensweise empfanden, kann digitale Gruppenarbeit in Übersetzungskursen als empfehlenswert gelten.
EventDetectR: An efficient Event Detection System (EDS) capable of detecting unexpected water quality conditions. This approach uses multiple algorithms to model the relationship between various multivariate water quality signals. Then the residuals of the models were utilized in constructing the event detection algorithm, which provides a continuous measure of the probability of an event at every time step. The proposed framework was tested for water contamination events with industrial data from automated water quality sensors. The results showed that the framework is reliable with better performance and is highly suitable for event detection.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
Im 50. Jubiläumsjahr der TH Köln haben wir uns einem bislang wenig behandelten Thema gewidmet, nämlich der Kunst an den Gebäuden der Technischen Hochschule Köln.
Die TH Köln verfügt als größte Fachhochschule in Deutschland über zwei Standorte in Köln, den Campus Südstadt und den Campus Deutz. Darüber hinaus gibt es zwei weitere Standorte in Gummersbach und Leverkusen. Da sich die künstlerischen Objekte ausschließlich an den Gebäuden innerhalb des Stadtgebiets von Köln befinden, beschränkt sich diese Betrachtung auf die historischen Gebäude des Campus Südstadt sowie auf den maßgeblich in den 1970er Jahren entstandenen Komplex des Campus Deutz.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum. Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen. Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
Die Arbeit beschreibt die Entwicklung und Verbreitung künstlicher Intelligenz (KI) und die damit verbundenen Herausforderungen und Chancen. Es wird hervorgehoben, dass trotz des offensichtlichen Nutzens von KI, Bedenken hinsichtlich unerwünschter Nebenwirkungen durch fehlerhafte oder missbräuchliche Anwendungen bestehen. Um diese Herausforderungen zu bewältigen, wird ein Ansatz vorgeschlagen, der als “konviviale künstliche Intelligenz” bezeichnet wird. Dieser Ansatz zielt auf ein harmonisches Zusammenspiel zwischen KI und Mensch ab und betont die Notwendigkeit einer menschenzentrierten Gestaltung bei der Entwicklung und Implementierung von KI-Modellen.
In einer Veranstaltung sitzen viele Studierende, in einer nächsten auf einmal deutlich weniger. Woran liegt das? Und weiß man, ob ein*e Student*in regelmäßig kommt oder nicht? Ist die Anwesenheit überhaupt von Relevanz? Für Lehrende stehen über das eigene Modul hinaus häufig nur geringe Informationen zur Verfügung, wann, in welchen anderen Modulen und mit welchem Aufwand Studierende eines Semesters mit Selbststudienaufgaben oder begleitenden Prüfungsleistungen wie z. B. Hausarbeiten, Praktika, Präsentationen, Lernkontrollen usw. beschäftigt werden. Aus Sicht der jeweiligen Lehrenden sind diese didaktischen Mittel gut begründet, können jedoch insbesondere dann zu Spitzen in der studentischen Workload führen, wenn keine organisatorische Abstimmung mit Kolleg*innen erfolgt. Diskussionen über die richtige Lehrorganisation und das geeignete Maß an Lernanforderungen bleiben erfahrungsgemäß in Hochschulgremien häufig ohne klares Ergebnis, so dass ein Wunsch nach Objektivierung der subjektiven Meinungen entsteht, der speziell eine Abstimmung der in das Lernen investierten Zeit mit den von den Modulen gestellten Lernanforderungen betrifft. Derartige Fragen waren die Initialzündung zum nachfolgend beschriebenen Projekt, das noch nicht vollumfänglich abgeschlossen ist.
Die Erfassung der von Studierenden in ihr Lernen investierten Zeit und die hieraus abzuleitenden Erkenntnisse sind seit den ZEITLast-Untersuchungen von Schulmeister & Metzger (2011) verbreitet. Jedoch macht es einen Unterschied, ob man einem Kreis von in einem Studiengang lehrenden Professor*innen die validen Ergebnisse einer Studie vorträgt oder ob eine Untersuchung im eigenen Studiengang durchgeführt und somit ‚am eigenen Leib‘ erfahren wird, um dann auf der Basis der Ergebnisse gemeinsam die Zukunft neu zu gestalten. Jedoch, wie bringt man diesen Prozess in Gang?
Der Beitrag zeigt zentrale Elemente eines im Studiengang B.Eng. Fahrzeugtechnik der TH-Köln durchgeführten Lehrentwicklungsvorhabens, insbesondere die gewählte Strategie zur Legitimierung einer Workloadstudie (Faßbender et al., 2018), die formulierten Forschungsfragen, die Methodik, die bisher gewonnenen Ergebnisse und Erkenntnisse sowie ein Fazit mit einem Ausblick.
Im Band 2/2019 werden Ergebnisse und Inhalte der Definitionphase des Deutsch-Iranischen Projektes „Basis-Infrastrukturen und Services einer inklusiven Katastrophenresilienz im Iran – Basic Infrastructures and Services for Enhancing Inclusive Community Disaster Resilience in Iran“ (INCOR) veröffentlicht. Er gibt einen Überblick über die Inhalte des Projekts und beleuchtet die Hintergründe und Konzeption. Weiter werden Synergien zwischen dem Resilienz-Ansatz für Kritische Infrastrukturen und dem Ansatz der „inclusiveness“ nach UN HABITAT beschrieben. Außerdem wird über die Iranisch-Deutschen Experten Workshops in Teheran und Köln berichtet, welche den internationalen Austausch von Katastrophenschutz-Managern förderten. Abschließend werden Möglichkeiten genannt, wie INCOR dem Sendai Framework beiträgt.
Die Hochwasser- oder Flutereignisse aufgrund von Starkregen im Juli 2021 haben in Deutschland und angrenzenden Ländern ein bis dato nicht bekanntes Ausmaß an Todesopfern und Verlusten hinterlassen. Es ist wichtig aus solchen Ereignissen zu lernen, um künftig besser auf solche Situationen vorbereitet zu sein. Dieser Sammelband beinhaltet Erfahrungsberichte und Betrachtungen von Studierenden und Mitarbeiter:innen des Instituts für Rettungsingenieurwesen und Gefahrenabwehr (IRG), der TH Köln, sowie weiteren Personen, die im Bereich Gefahrenabwehr, Bevölkerungs- Katastrophen-, Zivilschutz tätig sind, oder sich mit Themen wie Naturgefahren und Katastrophenrisikomanagement befassen. Viele Studierende sind gleichzeitig in Organisationen der Feuerwehr, des Rettungsdiensts oder anderer Hilfsorganisationen neben dem Studium tätig, wie auch viele Alumni des IRG. Aber auch jene, die nicht operativ tätig sind, haben wichtige Beobachtungen durch Kontakte oder sogar eigene Schäden machen können.
In einem ersten Austausch unter Studierenden des IRG Anfang August 2021 wurde festgestellt, wie wertvoll ein neutraler Austausch ist, und eine Offenlegung von Erfahrungen, Kritik und Lösungsideen, ohne Personen oder einzelne Organisationen allein dabei zu kritisieren. Da es mitunter an solchen Austauschmöglichkeiten zwischen den Organisationen der Gefahrenabwehr fehlt, soll dieser Sammelband eine solche Möglichkeit bieten.
Um der Bandbreite an unterschiedlichen Hintergründen gerecht zu werden und vor allem im Sinne der Sache, um möglichst viele auch verschiedene Erfahrungen und Perspektiven zu sammeln, oder diese zu bestätigen, finden sich in diesem Sammelband Beiträge unterschiedlicher Länge und Sprache. Eine offene Bewertung auch aus unterschiedlichen Sichtweisen ist sehr wertvoll, um ein ganzheitlicheres Bild der ganzen Lage zu erhalten. Zum damaligen Zeitpunkt in den ersten Monaten nach dem Hochwasser beherrschten Themen wie Koordination der Einsatzkräfte, Verfügbarkeit und Ausfall technischer Ausrüstung aber auch Verpflegung, kritische Infrastruktur, Alarmierung und Warnung den Austausch.
Inhaltlich ist dieser Sammelband ebenfalls bewusst nicht eingegrenzt, damit eine große Bandbreite an Aspekten dokumentiert werden kann. Aufgrund der inhaltlichen Auslegung der Lehre und Forschung am IRG werden bestimmte Themenbereiche wie etwa Einsatzorganisationen, Stabsarbeit, Frühwarnung, kritische Infrastruktur, verwundbare Personengruppen etc. häufiger behandelt als andere Themen. Es werden auch Beiträge aus laufenden Forschungsprojekten u.a. zu kritischer Infrastruktur, Notwasserversorgung, Integration von Einsatzkräften eingebunden. Die Ergebnisse einer Umfrage zur Zufriedenheit der Einsatzkräfte werden dargestellt und diskutiert.
Für alle diese Themen dient jedoch hauptsächlich die Grundidee eine Klammer; was kann man im relativ neutralen Rahmen einer Hochschule äußern, und der Gesellschaft durch solch eine Dokumentation an die Hand geben, um die Erfahrungen zu dokumentieren und eine Diskussion anzuregen, was man daraus lernen könnte. Eine Hochschule kann nur einen Rahmen z.B. für Ideen, Wissenstransfer oder Technologien bieten. Aber alle, die daran mitarbeiten, als Studierende, Mitarbeiter:innen oder kooperierende Partner:innen, sind gleichzeitig Teil der Gesellschaft, die sich nicht alltäglich mit Krisen und Katastrophen dieses Ausmaßes befassen muss. Laut einer Definition von Katastrophen zeichnen sich diese durch ihren Überraschungseffekt, oder durch die Über-wältigung der Fähigkeiten Einzelner oder ganzer Gemeinden aus. Es gibt wenige, die sich damit langfristig planerisch befassen, weil solche Ereignisse zum Glück relativ selten lokal vorkommen. Oft steht man vor einem Rechtfertigungsproblem, weil in unserer Hochleistungsgesellschaft im Alltag wie auch in Katastrophen alles perfekt funktionieren soll. Aber es gibt den Spruch „There is no glory in prevention“ auch deswegen, weil tägliche Unfälle und Beinahestörfälle nahezu unbemerkt von ehrenamtlichen sowie hauptberuflichen Einsatzkräften bewältigt werden. Hier hat leider wieder eine Flutkatastrophe gezeigt, wo die Grenzen der Vorbereitung und in der Bewältigung liegen. Für den Wiederaufbau und das Lernen für die Vorbereitung auf andere Ereignisse und Katastrophen ist es daher wichtig, Lehren zu ziehen, diese zu dokumentieren und der Öffentlichkeit zur Verfügung zu stellen.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
In facing recent natural and man-made disasters Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) calls for integrative thinking and learning across cultures, disciplines and institutions. In times of increasing complexity, insecurity and uncertainty thinking outside the box becomes essential. This first volume of “Integrative Risk and Security Research” presents related research contributions developed in the context of the 2013 DAAD Alumni Summer School "Coping with Disasters and Climate Extremes - Challenges & Cooperation Potential". It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
RGP is genetic programming system based on, as well as fully integrated into, the R environment. The system implements classical tree-based genetic programming as well as other variants including, for example, strongly typed genetic programming and Pareto genetic programming. It strives for high modularity through a consistent architecture that allows the customization and replacement of every algorithm component, while maintaining accessibility for new users by adhering to the "convention over configuration" principle.