Open Access
Refine
Year of publication
Document Type
- Working Paper (86)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (161)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (217)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
Institute
- Fakultät 04 / Institut für Versicherungswesen (77)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
An essential task for operation and planning of biogas plants is the optimization of substrate feed mixtures. Optimizing the monetary gain requires the determination of the exact amounts of maize, manure, grass silage, and other substrates. Accurate simulation models are mandatory for this optimization, because the underlying chemical processes are very slow. The simulation models themselves may be time-consuming to evaluate, hence we show how to use surrogate-model-based approaches to optimize biogas plants efficiently. In detail, a Kriging surrogate is employed. To improve model quality of this surrogate, we integrate cheaply available data into the optimization process. Doing so, Multi-fidelity modeling methods like Co-Kriging are employed. Furthermore, a two-layered modeling approach is employed to avoid deterioration of model quality due to discontinuities in the search space. At the same time, the cheaply available data is shown to be very useful for initialization of the employed optimization algorithms. Overall, we show how biogas plants can be efficiently modeled using data-driven methods, avoiding discontinuities as well as including cheaply available data. The application of the derived surrogate models to an optimization process is shown to be very difficult, yet successful for a lower problem dimension.
Ob Tweet, TikTok-Video oder Elevator Pitch – Informationen pointiert zu verdichten entwickelt sich zur Kunst. Das Format One Slide About (nachfolgend OSA) fordert Kursteilnehmer*innen auf, ein Thema oder eine wissenschaftliche Studie auf einem einzelnen Slide einer Präsentation zu verdichten und diesen den Kommiliton*innen in einem max. 180 Sekunden langen Vortrag vorzustellen. Dieses Format wurde in unterschiedlicher Umsetzung erprobt, mit den Teilnehmer*innen diskutiert und anschließend in Form einer quantitativen Befragung unter folgender Forschungsfragestellung evaluiert: Lässt sich mit dem Format One Slide About sowohl Informationskompetenz üben als auch eine Lehrveranstaltung inhaltlich ergänzen?
Angetrieben durch technische Innovationen und den Prozess der Globalisierung tendieren Organisationen seit rund einem Jahrzehnt dazu, Kooperationsnetzwerke mit anderen Unternehmen höher zu gewichten als die Arbeit in monobetrieblichen Strukturen. Diese Tendenz zeigt sich sowohl in bedarfswirtschaftlichen als auch erwerbswirtschaftlichen Organisationen. Beide „organisationalen Felder“ sind in verschiedene organisationale Kontexte eingebettet und verfolgen Kooperationsstrategien, die zu unterschiedlichen Kooperationsmustern führen. Um das Fachwissen über netzwerkorientierte Organisationsentwicklung weiter zu entwickeln und marktfähig zu machen, wurde an der Fachhochschule Köln ein interdisziplinäres Forschungsprojekt initiiert. An dem Forschungsvorhaben sind die Fakultäten für angewandte Sozialwissenschaften, für Wirtschaftswissen-schaften und für Fahrzeugsysteme und Produktion beteiligt, die unterschiedliche organisationale Felder repräsentieren. Die Fakultät für angewandte Sozial-wissenschaften fokussiert auf bedarfswirtschaftliche Organisationen im Feld der Sozialwirtschaft. Im Blickfeld der Fakultäten für Wirtschaftswissenschaften und für Fahrzeugsysteme und Produktion stehen erwerbswirtschaftliche Organisationen aus den Feldern der mittelständischen Wirtschaft und der Mobilitätswirtschaft. Im Verlauf des Forschungsprozesses wurden (1) im Rahmen einer Situationsanalyse eine quantitative Befragung von Profit- und Non-Profit-Organisationen in Nordrhein-Westfalen durchgeführt und Ergebnisse zum Stellenwert der Netzwerk-organisation in den aktuellen Organisationsstrategien und -konzepten gewonnen. Durch vertiefende qualitative Fallanalysen in Form von Bedarfsanalysen (2) sind Erfolgsfaktoren und Unterstützungsbedarfe bei einer Einbindung von Organisationen in eine Netzwerkkooperation aufgedeckt worden. In diesem Bericht erfolgt (3) die Beschreibung und Begründung induktiv abgeleiteter Beratungs-instrumente. Dafür werden zunächst relevante Forschungsergebnisse zusammengefasst und anschließend die von ihnen abgeleiteten Erfolgsfaktoren sowie Beratungs- und Unterstützungsbedarfe tabellarisch geclustert. Auf dieser Grundlage werden die Entwicklung von Beratungs- und Unterstützungsinstrumenten und die Modifizierung bestehender Ansätze für die Netzwerkberatung - differenziert nach den besonderen Anforderungen des bedarfswirtschaftlichen und des erwerbs-wirtschaftlichen Bereiches - theoretisch begründet. Die entwickelten Beratungsinstrumente werden nach Netzwerkentwicklungsphasen katalogisiert. Zusätzlich wird angegeben, was das jeweilige Instrument leistet und wo seine Grenzen sind. Zudem erfolgt für jedes Instrument die detaillierte Beschreibung der Ziele und des Anwendungsprozesses. Schließlich werden ausgewählte Module Beratungsinstrumente in zwei der drei organisationalen Felder zur Anwendung gebracht. Ziel ist die Beschreibung eines Best-Practice-Beratungsprozesses.
Learning board games by self-play has a long tradition in computational intelligence for games. Based on Tesauro’s seminal success with TD-Gammon in 1994, many successful agents use temporal difference learning today. But in order to be successful with temporal difference learning on game tasks, often a careful selection of features and a large number of training games is necessary. Even for board games of moderate complexity like Connect-4, we found in previous work that a very rich initial feature set and several millions of game plays are required. In this work we investigate different approaches of online-adaptable learning rates like Incremental Delta Bar Delta (IDBD) or Temporal Coherence Learning (TCL) whether they have the potential to speed up learning for such a complex task. We propose a new variant of TCL with geometric step size changes. We compare those algorithms with several other state-of-the-art learning rate adaptation algorithms and perform a case study on the sensitivity with respect to their meta parameters. We show that in this set of learning algorithms those with geometric step size changes outperform those other algorithms with constant step size changes. Algorithms with nonlinear output functions are slightly better than linear ones. Algorithms with geometric step size changes learn faster by a factor of 4 as compared to previously published results on the task Connect-4.
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
Cyclone separators are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation, which necessary for constructing efficient cyclones. Several simulation tools can be run in parallel, e.g., long running CFD simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. There are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, whereas analytical models do not. Combining results from models with different input-output structure is of great interest. This combination inspired the development of a new methodology. An optimization via multimodel simulation approach, which combines results from different models, is introduced.
Using cyclonic dust separators (cyclones) as a real-world simulation problem, the feasibility of this approach is demonstrated. Pros and cons of this approach are discussed and experiences from the experiments are presented.
Furthermore, technical problems, which are related to 3D-printing approaches, are discussed.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
Many black-box optimization problems rely on simulations to evaluate the quality of candidate solutions. These evaluations can be computationally expensive and very time-consuming. We present and approach to mitigate this problem by taking into consideration two factors: The number of evaluations and the execution time. We aim to keep the number of evaluations low by using Bayesian optimization (BO) – known to be sample efficient– and to reduce wall-clock times by executing parallel evaluations. Four parallelization methods using BO as optimizer are compared against the inherently parallel CMA-ES. Each method is evaluated on all the 24 objective functions of the Black-Box-Optimization-Benchmarking test suite in their 20-dimensional versions. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on most of the test functions, also on higher dimensions.