Refine
Year of publication
Document Type
- Working Paper (71)
- Report (48)
- Conference Proceeding (22)
- Book (13)
- Preprint (7)
- Article (6)
- Other (5)
- Doctoral Thesis (3)
Keywords
- Versicherungswirtschaft (31)
- Optimierung (20)
- Risikomanagement (15)
- Forschungsbericht (13)
- Optimization (13)
- Versicherungsmathematik (11)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (8)
- Hochschuldidaktik (7)
- Resilienz (7)
- Rückversicherung (7)
- Schadenversicherung (7)
- Solvency II (7)
- Digitalisierung (6)
- Forschung (6)
- Institut für Versicherungswesen (6)
- Simulation (6)
- Barwert (5)
- Benchmarking (5)
- Embedded Value (5)
- Evolutionärer Algorithmus (5)
- Forschungsstelle Versicherungsmarkt (5)
- Globale Optimierung (5)
- Hochschule (5)
- Hochschulentwicklung (5)
- Markov-Ketten (5)
- Versicherungswissenschaft (5)
- Altersversorgung (4)
- Bewertete Markov-Kette (4)
- Big Data (4)
- Disaster Risk Reduction (4)
- Forschungsstelle FaRis (4)
- Hochschulbildung (4)
- Kapitalanlage (4)
- Lebensversicherung (4)
- Metaheuristik (4)
- Modeling (4)
- Research Report (4)
- Resilience (4)
- Risiko (4)
- Verwundbarkeit (4)
- Wirtschaftswissenschaften (4)
- insurance (4)
- Betriebliche Altersversorgung (3)
- Computational Intelligence (3)
- Extreme Events (3)
- Forschungsstelle Versicherungsrecht (3)
- Genetic Programming (3)
- Genetisches Programmieren (3)
- Hochschulforschung (3)
- Interne Modelle (3)
- Kraftfahrtversicherung (3)
- Kriging (3)
- Krisenmanagement (3)
- Markov-Kette (3)
- Maschinelles Lernen (3)
- Mehrkriterielle Optimierung (3)
- Natural Hazards (3)
- Naturgefahr (3)
- Required Capital (3)
- Risk Management (3)
- Sequential Parameter Optimization (3)
- Sequentielle Parameter Optimierung (3)
- Soziale Software (3)
- Standardformel (3)
- Surrogate (3)
- Surrogate Models (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Versicherungswesen (3)
- Versuchsplanung (3)
- Vulnerability (3)
- 3D Printing (2)
- Anpassung (2)
- Architektur (2)
- Asset-Liability-Management (2)
- Baudenkmal (2)
- Bayesian Optimization (2)
- Bevölkerungsschutz (2)
- Charakteristische Funktion (2)
- Climate Change Adaptation (2)
- Co-Kriging (2)
- Combined simulation (2)
- Design of Experiments (2)
- Deutsche Aktuarvereinigung (2)
- Direktversicherung (2)
- Economic Value Added (2)
- Ensemble Methods (2)
- Entdeckendes Lernen (2)
- Ereignisdefinition (2)
- Event Detection (2)
- Evolutionary Algorithms (2)
- Evolutionary Computation (2)
- Evolutionsstrategie (2)
- Evolutionäre Algorithmen (2)
- Farbmittel (2)
- Feldafinger Brandkasse (2)
- Finanzmathematik (2)
- Forschendes Lernen (2)
- Forschungsbericht; Research Report (2)
- Forschungsschwerpunkt Rückversicherung (2)
- Gaussian Process (2)
- Genetische Algorithmen (2)
- Hochschulprofile (2)
- Holbein, Hans, 1460-1524 (2)
- IVW Köln (2)
- Imputation (2)
- Katastrophe (2)
- Klimawandelanpassung (2)
- Klimaänderung (2)
- Kollektive Sparprozesse (2)
- Kölner Forschungsstelle Rückversicherung (2)
- Künstliche Intelligenz (2)
- Langlebigkeitsrisiko (2)
- Lernende Hochschule (2)
- MCEV (2)
- Machine Learning (2)
- Maltechnik (2)
- Marketing (2)
- Markov Chain (2)
- Markowitz Optimierung (2)
- Metamodel (2)
- Mikroökonomie (2)
- Multi-Criteria Optimization (2)
- Multiobjective Optimization (2)
- Onlineversicherung (2)
- Optimierungsproblem (2)
- Parallelization (2)
- Performanceoptimierung (2)
- Produktionstheorie (2)
- Prognose (2)
- R (2)
- Regression (2)
- Reinsurance (2)
- Risikobehaftete Zahlungsströme (2)
- Sozialmanagement (2)
- Surrogat-Modellierung (2)
- Surrogate Modeling (2)
- Surrogate-based (2)
- Taxonomie (2)
- Taxonomy (2)
- Telematik (2)
- Test Function (2)
- Unterzeichnung (2)
- Versicherungsbranche (2)
- Versicherungsmarkt (2)
- Versicherungsrecht (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- Wissensmanagement (2)
- Zeitreihenanalyse (2)
- Zivilschutz (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- 3D-Druck (1)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Adaptive Schrittweite (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- Aktuare (1)
- Algorithm Tuning (1)
- Algorithmus (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Angewandte Mathematik (1)
- Architekt (1)
- Architektur <Informatik> (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Ausgleichsverfahren (1)
- Authentizität (1)
- Automated Driving (1)
- Automated Learning (1)
- Automation (1)
- Automatisiertes Fahren (1)
- Autowerkstätten (1)
- Auxiliaries (1)
- BBOB (1)
- Backtesting (1)
- Basis-Infrastrukturen und Services (1)
- Basisrisiko (1)
- Bauaufnahme (1)
- Bayesian Learning (1)
- Bayesian Regression (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Berichtspflichten (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big data platform (1)
- BigWa (1)
- Bildungsforschung (1)
- Bildungsgut (1)
- Bildungsstandard (1)
- Binomialmodell (1)
- Biogas (1)
- Biogas Plant (1)
- Biometrie (1)
- Board Games (1)
- Brazil (1)
- Business Case Innovation (1)
- Business Intelligence (1)
- COVID-19 (1)
- Cairns-Blake-Dowd Modell (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Cashflow (1)
- Cashflow-Matching (1)
- Ccomputational fluid dynamics (1)
- Central limit theorem (1)
- Check24 (1)
- Civil Protection (1)
- Coaching (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Computational fluid dynamics (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Curriculumentwicklung (1)
- Curriculumevaluation (1)
- Customer Journey (1)
- Customized Distribution (1)
- Cyclone Dust Separator (1)
- DA-Direkt (1)
- DAX (1)
- Data Analysis (1)
- Data Mining (1)
- Data Modelling (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Datenschutz (1)
- Decision tree (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Digitale Medien (1)
- Digitales Zeitalter (1)
- Disaster Relief Forces (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Diversifikation (1)
- Diversity (1)
- Diversity Management (1)
- Dritte Säule (1)
- E-Book (1)
- Economic Scenario Generator (1)
- Effizienz einer Rückversicherungslösung (1)
- Einsatzkräfte (1)
- Electrostatic Precipitator (1)
- Emotionen (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Ensemble based modeling (1)
- Enterprise 2.0 (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Entstauber (1)
- Erfahrungsbericht (1)
- Ermöglichen (1)
- Erneuerbare Energien (1)
- Evaluation (1)
- Evidenzbasierung (1)
- Evolution Strategies (1)
- Evolutionary Robotics (1)
- Evolutionsstrategien (1)
- Expected Improvement (1)
- Expensive Optimization (1)
- Experiment (1)
- Experimental Algorithmics (1)
- FH Köln (1)
- FaRis (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faktorinvestments (1)
- Faserverbundwerkstoffe (1)
- Feature selection (1)
- Fehlende Daten (1)
- Fehlerbaum Analyse (1)
- Finanzwirtschaft (1)
- Flood (1)
- Flowcurve (1)
- Flushing (1)
- Flüchtlingssituation 2015/2016 (1)
- Forschungsformate (1)
- Forschungsstelle (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Freikirchliche Johanneskirche (Bochum) (1)
- Frequency Severity Model (1)
- Function Approximation (1)
- Funktionstest (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- Gefahrenabwehr (1)
- Genetic Algorithms (1)
- Genetic programming (1)
- Genetische Programmierung (1)
- Geschichte (1)
- Gesellschaft (1)
- Gesellschaftlicher Wandel (1)
- Glaspartikel (1)
- Glaspulver (1)
- HUK24 (1)
- Hans Scharoun (1)
- Health condition monitoring (1)
- Helfer (1)
- Heston Model (1)
- Heuristics (1)
- Hochschulbildungsforschung (1)
- Hochschuldidaktische Forschung (1)
- Hochschulplanung (1)
- Hochschulprofil (1)
- Hochschulsystem (1)
- Hochwasser (1)
- Holbein, Hans (1)
- Hot rolling (1)
- INCOR (1)
- IT Architektur (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationsverhalten (1)
- Ingenieurstudium (1)
- Innerinstitutionelle Forschung (1)
- Innovation (1)
- Innovationsakzeptanz (1)
- Innovative Geschäftsmodelle (1)
- Institute for Insurance Studies (1)
- InsurTechs (1)
- Insurance Linked Securities (ILS) (1)
- Intergene (1)
- Internes Modell (1)
- Johannes-Kirche (1)
- KI (1)
- Kapitalanlagerisiko (1)
- Kapitalmarkt (1)
- Kapitalmarktrisiken (1)
- Katastrophenereignis (1)
- Katastrophenmodellierung (1)
- Katastrophenschutz (1)
- Kfz-Versicherung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge extraction (1)
- Kognition (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompetenzentwicklung (1)
- Kompression (1)
- Konsumenteninformation (1)
- Korrelation (1)
- Krankenversicherung (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenerfahrungen (1)
- Kundenorientierung (1)
- Kundenverhalten (1)
- Köln (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Lehr- und Lernkonzepte (1)
- Lehre (1)
- Lehrentwicklung (1)
- Lehrformate (1)
- Lehrkompetenzentwicklung (1)
- Lehrkultur (1)
- Lehrplanentwicklung (1)
- Lernende Organisation (1)
- Lernkultur (1)
- Lessons learned (1)
- Lichtmessung (1)
- Lifetime Prediction (1)
- Lineare Regression (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Machine learning (1)
- Maklerwordings (1)
- Man-Made-Katastrophen (1)
- Marktanteile (1)
- Massendaten (1)
- Massive Online Analysis (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metaheuristics (1)
- Metal (1)
- Metamodell (1)
- Metamodels (1)
- Methode von Heligman-Pollard (1)
- Missing Data (1)
- Mixed Models (1)
- Mixed-Effects Models (1)
- Mobilitäts-Ökosysteme (1)
- Model Calibration (1)
- Model Selection (1)
- Modelierung (1)
- Modell (1)
- Modelling (1)
- Modellkalibrierung (1)
- Modelllernen (1)
- Moderne (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Motivation (1)
- Motor Insurance (1)
- Movementanalyse (1)
- Multi-Agent Systems (1)
- Multi-criteria Optimization (1)
- Multi-fidelity (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Museum (1)
- N-tuple Systems (1)
- Nachkriegsmoderne (1)
- Nat Cat (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Naturkatastrophen (1)
- Net Promoter Score (1)
- Netzwerk (1)
- Netzwerkberatung (1)
- Netzwerke (1)
- Neue Medien (1)
- Neural Networks (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Notrufsystem (1)
- Numerische Strömungssimulation (1)
- Offenheit (1)
- On-line Algorithm (1)
- Online Adaptation (1)
- Online Information Review (1)
- Online-Portal (1)
- Optische Zeichenerkennung (1)
- Ordnungspolitik (1)
- Organisationsentwicklung (1)
- Pandemien (1)
- Pannendienst (1)
- Parallelisierung (1)
- Parameter Tuning (1)
- Parametertuning (1)
- Pensionskasse (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Personenversicherungsmathematik (1)
- Pflegeversicherung (1)
- Plywise Analysis (1)
- Predictive Analytics (1)
- Present Value (1)
- Priced Markov Chain (1)
- Produktentwicklung (1)
- Produktentwicklungsprozess (1)
- Profilbildung (1)
- Prokrastination (1)
- Promotion (1)
- Prozesse (1)
- Prägeschrifterkennung (1)
- Prämienrisiko (1)
- Qualität in Lehre und Studium (1)
- Qualitätsbegriff (1)
- Qualitätsentwicklung (1)
- Qualitätskultur (1)
- REST-konforme Web Services (1)
- RFID (1)
- Raderthal (1)
- Referenzmodell (1)
- Regulierung (1)
- Reifegradmodell (1)
- Reinforcement Learning (1)
- Rendite (1)
- Rettungsingenieurwesen (1)
- Rettungskostenersatz (1)
- Return on Risk Adjusted Capital (1)
- Risiko , Risikomanagement , Krisenmanagement , Gefahrenabwehr (1)
- Risiko-Rendite-Profile (1)
- Risikobudgetierung (1)
- Risikomanagement technischer Systeme (1)
- Risikomaß (1)
- Risikoneutrale Bewertung (1)
- Risikosteuerung (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Rundfunk (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- SOTL (1)
- SPOT (1)
- Schadenmodellierung (1)
- Scholarship of Teaching and Learning (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Sendegebäude (1)
- Sensor placement (1)
- Sensortechnik (1)
- Signalanalyse (1)
- Silberstift (1)
- Simulated annealing (1)
- Simulation-based Optimization (1)
- Simulationsmodell (1)
- Social Learning (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Software (1)
- Soziale Medien (1)
- Sozialer Wandel (1)
- Sozialraum (1)
- Spülen (1)
- Stacked Generalization (1)
- Stacking (1)
- Standardisierung (1)
- Statistics (1)
- Statistische Versuchsplanung (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Structural Health Monitoring (1)
- Studiengangsentwicklung (1)
- Supervision (1)
- Surrogate Mod (1)
- Surrogate Model (1)
- Surrogate Optimization (1)
- Surrogate model (1)
- Surrogate model based optimization (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogates (1)
- Surrogatmodellbasierte Optimierung (1)
- System Identification (1)
- Systemarchitektur für verteilte (1)
- Systemidentifikation (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Technische Informatik (1)
- Technische Versicherung (1)
- Telematics Data (1)
- Telematiktarife (1)
- Temporal Difference Learning (TDL) (1)
- Test function generator (1)
- Testgröße (1)
- Time Series (1)
- Time-series (1)
- Transparenz (1)
- Trinkwasser (1)
- Trinkwasserversorgung (1)
- Umfrage (1)
- Umnutzung (1)
- Univariate Data (1)
- Unsicherheit (1)
- Unternehmensgründung (1)
- Unternehmensplanung (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Value at Risk (1)
- Value-Based-Management (1)
- Variable reduction (1)
- Varianzanalyse (1)
- Verantwortung (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Verbraucherzufriedenheit (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versorgungsstruktur (1)
- Verteilungsanpassung (1)
- Verunreinigung (1)
- Vielfalt (1)
- Volkswirtschaftslehre (1)
- Vorverarbeitung (1)
- WSDL (1)
- Wahrnehmung (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wasserverteilung (1)
- Wasserwirtschaft (1)
- Water Distribution Systems (1)
- Water Quality Monitoring (1)
- Water distribution systems (1)
- Web Services (1)
- Wert (1)
- Wertarchitektur (1)
- Werte (1)
- Wertethik (1)
- Wertorientierte Steuerung (1)
- Wiki (1)
- Wissen (1)
- Wissenschaftspraxis (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Word-of-Mouth (1)
- Workloaderhebung (1)
- World Wide Web 2.0 (1)
- Zeitreihe (1)
- Zentraler Grenzwertsatz (1)
- Zielrente (1)
- Zins (1)
- Zinsgarantien (1)
- Zinsmodelle (1)
- Zufriedenheit (1)
- Zusammengesetzte Poisson-Verteilung (1)
- Zuverlässige eingebettete Systeme (1)
- Zylon Enstauber (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- bottlenecks (1)
- charakteristische Funktion (1)
- classification (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- eCall (1)
- economic assessment (1)
- ecosystem services (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- faris (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- mobile Anwendungen (1)
- model-assisted optimization (1)
- modellbasierte Optimierung (1)
- opportunity costs (1)
- regression (1)
- reinsurance (1)
- reinsurance programs (1)
- scholarship of academic development (1)
- scholarship of teaching and learning (1)
- social media maturity model (1)
- social media strategy (1)
- studentisches Lernen (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- vorvertragliche Anzeigepflicht (1)
- water resources (1)
- watershed protection (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Ökosystem-Dienstleistungen (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (69)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 04 / Institut für Betriebswirtschaftslehre (12)
- Fakultät für Wirtschafts- und Rechtswissenschaften (F04) (9)
- Zentrum für Lehrentwicklung (7)
- Fakultät für Anlagen, Energie- und Maschinensysteme (F09) (6)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für Angewandtes Management und Organisation in der Sozialen Arbeit (2)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (2)
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
Drinking water supply and distribution systems are critical infrastructure that has to be well maintained for the safety of the public. One important tool in the maintenance of water distribution systems (WDS) is flushing. Flushing is a process carried out in a periodic fashion to clean sediments and other contaminants in the water pipes. Given the different topographies, water composition and supply demand between WDS no single flushing strategy is suitable for all of them. In this report a non-exhaustive overview of optimization methods for flushing in WDS is given. Implementation of optimization methods for the flushing procedure and the flushing planing are presented. Suggestions are given as a possible option to optimise existing flushing planing frameworks.
Ziel dieser innerinstitutionellen Studie ist es, herauszufinden, wie die didaktische Umsetzung des Forschenden Lernens (FL) gelingen kann. 24 Lehrende aus allen Fakultäten der TH Köln wurden dazu als Expert*innen für ihre Lehrveranstaltungen in einer qualitativen Interviewstudie befragt. Im Fokus standen dabei die Herausforderungen, Erfolgsfaktoren und Weiterentwicklungsideen mit diesem Lehrformat, die Lehrende für sich identifiziert haben. Die Auswertung des Datenmaterials erfolgte mittels Qualitativer Inhaltsanalyse nach Mayring (2010). Die Ergebnisse zeichnen ein Bild von Forschendem Lernen, das sich über alle Handlungsebenen von Studium und Lehre erstreckt – von (äußeren) Rahmenbedingungen wie z.B. der Kooperationen mit Dritten über hochschulweite Fragestellungen wie die nach der Prüfungsgestaltung bis hin zum konkreten Lehr- und Lerngeschehen. Diese Studie bietet der Hochschuldidaktik eine evidenzbasierte Grundlage für Weiterbildung und Beratung sowie Lehrenden einen Orientierungsrahmen, um FL mehrdimensional zu planen und umzusetzen.
Der Beitrag behandelt die Dokumentation und Bauaufnahme sowohl der Geometrie, als auch nicht-stofflicher Eigenschaften der Johannes-Kirche in Bochum von Hans Scharoun. Die vorgestellte Methodik zielt darauf ab, Eigenschaften des Raumes erforschen zu können, die über die reine Geometrie und Materialität hinausgehen, um auch solche bauhistorischen und denkmalpflegerischen Werte fassen zu können.
Die Frage, ob Big Data und Künstliche Intelligenz (KI) die Versicherungswirtschaft revolutionieren, beschäftigt schon seit einiger Zeit unsere Gesellschaft sowie im Besonderen die Versicherungsbranche. Die Fortschritte in jüngster Vergangenheit in der KI und bei der Auswertung großer Datenmengen sowie die große mediale Aufmerksamkeit sind immens. Somit waren Big Data und Künstliche Intelligenz auch die diesjährigen vielversprechenden Themen des 24. Kölner Versicherungs-
symposiums der TH Köln am 14. November 2019: Das ivwKöln hatte zum fachlichen Austausch eingeladen, ein attraktives Vortragsprogramm zusammengestellt und Networking-Gelegenheiten für die Gäste aus Forschung und Praxis vorbereitet. Der vorliegende Proceedings-Band umfasst die Vortragsinhalte der verschiedenen Referenten.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten deutlich von den realen Risiken ab. Zudem sind die meisten Menschen durch das Denken in Wahrscheinlichkeiten und hohe Zahlen überfordert. In einer (weitgehend) repräsentativen Bevölkerungsumfrage wurden vom 31.3. bis zum 2.4.2020 insgesamt 2.028 Personen zur Wahrnehmung von Risiken rund um die Corona-Pandemie sowie zur Fähigkeit der Einschätzung exponentieller Entwicklungen befragt.
Die wichtigsten Ergebnisse lassen sich wie folgt zusammenfassen:
Exponentielle Entwicklungen – wie im Falle einer Pandemie gegeben - entziehen sich weitgehend dem menschlichen Vorstellungsvermögen. Das Gleiche gilt für die gigantischen Geldbeträge, die als Hilfsmaßnahmen für die Wirtschaft beschlossen wurden. Diese werden – vereinfacht ausgedrückt - nur noch als „unglaublich viel Geld“ wahrgenommen.
Die Sorgen vor Corona sind – wenig überraschend – in den Köpfen der Bürger überaus präsent. Nur ein kleiner Anteil der Bevölkerung sorgt sich nach eigenen Aussagen gar nicht oder kaum über eine mögliche Ansteckung. Jeder zweite fürchtet eine wirtschaftlichen Notlage, und vierzig Prozent bangen sogar um ihr Leben.
Zum Vergleich haben wir einige weitere Sorgen mit erfasst, die wir bereits in einer Studie im August 2016 erhoben hatten. Damals war Krebs – gemeinsam mit Verkehrsunfällen – die weitaus präsenteste von insgesamt 30 abgefragten Sorgen. Die Angst vor einem Terroranschlag lag bei den Befragten ebenfalls weit vorne. Aber kein Thema hatte die Bürger damals so „im Griff“ wie zum jetzigen Erhebungszeitpunkt die Corona-Krise.
Andere Gefahren scheinen durch Corona nur in moderatem Umfang verdrängt zu werden: Krebs oder Herzinfarkt besorgen tendenziell etwas weniger Menschen, als das in „normalen“ Zeiten der Fall ist. Die vor vier Jahren noch höchst präsente Bedrohung durch Terrorismus ist hingegen zu großen Teilen aus dem Alltagserleben verschwunden.
Wird anstelle des „Bauches“ der „Kopf“ angesprochen, so ändert sich die Reihenfolge der Risiken nicht wesentlich. Ebenso wie Herzinfarkt und Krebs werden auch die Ansteckung und eine wirtschaftliche Notlage von weiten Teilen der Bevölkerung als eine realistische Bedrohung angesehen.
Ausnahme hiervon ist der mögliche Tod durch den Corona-Virus, der sich in den alltäglichen Ängsten (siehe oben Punkt 2) deutlich mehr niederschlägt, als wenn etwas nüchterner über konkrete Wahrscheinlichkeiten nachgedacht wird. Erst in der Altersgruppe ab 55 Jahren steigen auch hier die Werte deutlich an. Sie bleiben aber auch dann realistischerweise unter den Werten für einen Herzinfarkt oder eine Krebserkrankung.
Im Großen und Ganzen hielten sich die Menschen an die auferlegten Verbote: Die Mehrheit folgt diesen zumindest aus eigener Sicht „voll und ganz“. Gut jeder Dritte nimmt es aber nicht so ganz genau, und insgesamt ca. 5% bekennen sich dazu, die Regeln eher oder gar nicht zu befolgen.
Die Frage, wer am ehesten gegen die Regeln verstößt, lässt sich anhand soziodemographischer Daten kaum eindeutig beantworten. Zwar steigt der Anteil derer, die die Regeln „voll und ganz befolgen“, ab ca. 45 Jahren leicht an, insgesamt zeigen sich aber alle Altersgruppen weitgehend „regelkonform“. Noch geringer sind die Unterschiede nach Einkommen, Bildung oder Bundesland. Am ehesten findet sich noch eine Abweichung nach Geschlecht, indem Männer die Regeln etwas „lockerer“ auslegen.
Der Bedarf an Tests ist hoch, eine Mehrheit würde gerne einen Corona-Test vornehmen.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Real-world problems such as computational fluid dynamics simulations and finite element analyses are computationally expensive. A standard approach to mitigating the high computational expense is Surrogate-Based Optimization (SBO). Yet, due to the high-dimensionality of many simulation problems, SBO is not directly applicable or not efficient. Reducing the dimensionality of the search space is one method to overcome this limitation. In addition to the applicability of SBO, dimensionality reduction enables easier data handling and improved data and model interpretability. Regularization is considered as one state-of-the-art technique for dimensionality reduction. We propose a hybridization approach called Regularized-Surrogate-Optimization (RSO) aimed at overcoming difficulties related to high-dimensionality. It couples standard Kriging-based SBO with regularization techniques. The employed regularization methods are based on three adaptations of the least absolute shrinkage and selection operator (LASSO). In addition, tree-based methods are analyzed as an alternative variable selection method. An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than standard SBO to obtain comparable results. The pros and cons of the RSO approach are discussed, and recommendations for practitioners are presented.
Surrogate-based optimization relies on so-called infill criteria (acquisition functions) to decide which point to evaluate next. When Kriging is used as the surrogate model of choice (also called Bayesian optimization), one of the most frequently chosen criteria is expected improvement. We argue that the popularity of expected improvement largely relies on its theoretical properties rather than empirically validated performance. Few results from the literature show evidence, that under certain conditions, expected improvement may perform worse than something as simple as the predicted value of the surrogate model. We benchmark both infill criteria in an extensive empirical study on the ‘BBOB’ function set. This investigation includes a detailed study of the impact of problem dimensionality on algorithm performance. The results support the hypothesis that exploration loses importance with increasing problem dimensionality. A statistical analysis reveals that the purely exploitative search with the predicted value criterion performs better on most problems of five or higher dimensions. Possible reasons for these results are discussed. In addition, we give an in-depth guide for choosing the infill criteria based on prior knowledge about the problem at hand, its dimensionality, and the available budget.
Benchmark experiments are required to test, compare, tune, and understand optimization algorithms. Ideally, benchmark problems closely reflect real-world problem behavior. Yet, real-world problems are not always readily available for benchmarking. For example, evaluation costs may be too high, or resources are unavailable (e.g., software or equipment). As a solution, data from previous evaluations can be used to train surrogate models which are then used for benchmarking. The goal is to generate test functions on which the performance of an algorithm is similar to that on the real-world objective function. However, predictions from data-driven models tend to be smoother than the ground-truth from which the training data is derived. This is especially problematic when the training data becomes sparse. The resulting benchmarks may not reflect the landscape features of the ground-truth, are too easy, and may lead to biased conclusions.
To resolve this, we use simulation of Gaussian processes instead of estimation (or prediction). This retains the covariance properties estimated during model training. While previous research suggested a decomposition-based approach for a small-scale, discrete problem, we show that the spectral simulation method enables simulation for continuous optimization problems. In a set of experiments with an artificial ground-truth, we demonstrate that this yields more accurate benchmarks than simply predicting with the Gaussian process model.
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
Sensor placement for contaminant detection in water distribution systems (WDS) has become a topic of great interest aiming to secure a population's water supply. Several approaches can be found in the literature with differences ranging from the objective selected to optimize to the methods implemented to solve the optimization problem. In this work we aim to give an overview of the current work in sensor placement with focus on contaminant detection for WDS. We present some of the objectives for which the sensor placement problem is defined along with common optimization algorithms and Toolkits available to help with algorithm testing and comparison.
Many black-box optimization problems rely on simulations to evaluate the quality of candidate solutions. These evaluations can be computationally expensive and very time-consuming. We present and approach to mitigate this problem by taking into consideration two factors: The number of evaluations and the execution time. We aim to keep the number of evaluations low by using Bayesian optimization (BO) – known to be sample efficient– and to reduce wall-clock times by executing parallel evaluations. Four parallelization methods using BO as optimizer are compared against the inherently parallel CMA-ES. Each method is evaluated on all the 24 objective functions of the Black-Box-Optimization-Benchmarking test suite in their 20-dimensional versions. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on most of the test functions, also on higher dimensions.
We propose a hybridization approach called Regularized-Surrogate- Optimization (RSO) aimed at overcoming difficulties related to high- dimensionality. It combines standard Kriging-based SMBO with regularization techniques. The employed regularization methods use the least absolute shrinkage and selection operator (LASSO). An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than Kriging to obtain comparable results. The pros and cons of the RSO approach are discussed and recommendations for practitioners are presented.