Refine
Year of publication
Document Type
- Working Paper (87)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (162)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (218)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
- Research Report (8)
- Rückversicherung (8)
- Versicherungswissenschaft (8)
- Digitalisierung (7)
- Institut für Versicherungswesen (7)
- Resilienz (7)
- Schadenversicherung (7)
- Solvency II (7)
- Hochschule (6)
- Hochschulentwicklung (6)
- Hochschulforschung (6)
- Simulation (6)
- Barwert (5)
- Benchmarking (5)
- Bewertete Markov-Kette (5)
- Embedded Value (5)
- Evolutionärer Algorithmus (5)
- Forschungsstelle Versicherungsmarkt (5)
- Globale Optimierung (5)
- Markov-Ketten (5)
- Risiko (5)
- Technische Informatik (5)
- Versicherungsrecht (5)
- Altersversorgung (4)
- Baudenkmal (4)
- Big Data (4)
- Disaster Risk Reduction (4)
- Forschungsstelle FaRis (4)
- Hochschulbildung (4)
- Hochschullehre (4)
- Kapitalanlage (4)
- Künstliche Intelligenz (4)
- Lebensversicherung (4)
- Lehrentwicklung (4)
- Markov-Kette (4)
- Maschinelles Lernen (4)
- Metaheuristik (4)
- Modeling (4)
- Resilience (4)
- Soziale Software (4)
- Verwundbarkeit (4)
- Wirtschaftswissenschaften (4)
- insurance (4)
- Architektur (3)
- Architekturgeschichte (3)
- Betriebliche Altersversorgung (3)
- Computational Intelligence (3)
- Digitale Lehre (3)
- E-Learning (3)
- Extreme Events (3)
- Forschendes Lernen (3)
- Forschungsstelle Versicherungsrecht (3)
- Genetic Programming (3)
- Genetisches Programmieren (3)
- Hybride Lehre (3)
- Interne Modelle (3)
- Kraftfahrtversicherung (3)
- Kriging (3)
- Krisenmanagement (3)
- Köln (3)
- Lehre (3)
- Marketing (3)
- Markov Chain (3)
- Mehrkriterielle Optimierung (3)
- Natural Hazards (3)
- Naturgefahr (3)
- Required Capital (3)
- Risk Management (3)
- Sequential Parameter Optimization (3)
- Sequentielle Parameter Optimierung (3)
- Standardformel (3)
- Surrogate (3)
- Surrogate Models (3)
- Versicherungsbranche (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Versicherungswesen (3)
- Versuchsplanung (3)
- Vulnerability (3)
- Zivilschutz (3)
- 3D Printing (2)
- Anpassung (2)
- Asset-Liability-Management (2)
- Bayesian Optimization (2)
- Bergisch Gladbach (2)
- Bevölkerungsschutz (2)
- COVID-19 (2)
- Charakteristische Funktion (2)
- Climate Change Adaptation (2)
- Co-Kriging (2)
- Combined simulation (2)
- Denkmalpflege (2)
- Design (2)
- Design of Experiments (2)
- Deutsche Aktuarvereinigung (2)
- Didaktik (2)
- Direktversicherung (2)
- Economic Value Added (2)
- Ensemble Methods (2)
- Entdeckendes Lernen (2)
- Ereignisdefinition (2)
- Event Detection (2)
- Evolutionary Algorithms (2)
- Evolutionary Computation (2)
- Evolutionsstrategie (2)
- Evolutionäre Algorithmen (2)
- FaRis (2)
- Farbmittel (2)
- Feldafinger Brandkasse (2)
- Finanzmathematik (2)
- Forschungsschwerpunkt Rückversicherung (2)
- Gaussian Process (2)
- Gefahrenabwehr (2)
- Genetische Algorithmen (2)
- Geschichte (2)
- Hochschulprofile (2)
- Hochwasser (2)
- Holbein, Hans, 1460-1524 (2)
- IVW Köln (2)
- Imputation (2)
- Kapitalmarkt (2)
- Katastrophe (2)
- Katastrophenschutz (2)
- Klimawandelanpassung (2)
- Klimaänderung (2)
- Kollektive Sparprozesse (2)
- Kölner Forschungsstelle Rückversicherung (2)
- Langlebigkeitsrisiko (2)
- Lehramt (2)
- Lehrevaluation (2)
- Lernende Hochschule (2)
- MCEV (2)
- Machine Learning (2)
- Maltechnik (2)
- Markowitz Optimierung (2)
- Metamodel (2)
- Mikroökonomie (2)
- Moderne (2)
- Motivation (2)
- Multi-Criteria Optimization (2)
- Multiobjective Optimization (2)
- Nachkriegsmoderne (2)
- Online-Sozialisation (2)
- Onlineversicherung (2)
- Optimierungsproblem (2)
- Papierfabrik J. W. Zanders (2)
- Parallelization (2)
- Performanceoptimierung (2)
- Priced Markov Chain (2)
- Produktionstheorie (2)
- Prognose (2)
- R (2)
- Regression (2)
- Reinforcement Learning (2)
- Reinsurance (2)
- Risikobehaftete Zahlungsströme (2)
- Scholarship of Teaching and Learning (2)
- Sozialmanagement (2)
- Surrogat-Modellierung (2)
- Surrogate Modeling (2)
- Surrogate-based (2)
- Taxonomie (2)
- Taxonomy (2)
- Telematik (2)
- Test Function (2)
- Unterzeichnung (2)
- Value at Risk (2)
- Versicherungsmarkt (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- Wissensmanagement (2)
- Zeitreihenanalyse (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- 3D-Druck (1)
- Aachen (1)
- Abbruch (1)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Adaptive Schrittweite (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- Aktivierung (1)
- Aktuare (1)
- Algorithm Tuning (1)
- Algorithmus (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Angewandte Mathematik (1)
- Architekt (1)
- Architektur <Informatik> (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Ausbildung (1)
- Ausgleichsverfahren (1)
- Authentizität (1)
- Automated Driving (1)
- Automated Learning (1)
- Automation (1)
- Automatisiertes Fahren (1)
- Autowerkstätten (1)
- Auxiliaries (1)
- BBOB (1)
- BLANK (1)
- Backtesting (1)
- Bacteria (1)
- Bakterien (1)
- Bartholomäuskapelle (1)
- Basis-Infrastrukturen und Services (1)
- Basisrisiko (1)
- Bauaufnahme (1)
- Bauen im Bestand (1)
- Bauforschung (1)
- Baugeschichte (1)
- Bayesian Learning (1)
- Bayesian Regression (1)
- Behrens, Peter (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Berichtspflichten (1)
- Berlin (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big data platform (1)
- BigWa (1)
- Bildungsforschung (1)
- Bildungsgut (1)
- Bildungsstandard (1)
- Binomialmodell (1)
- Biogas (1)
- Biogas Plant (1)
- Biometrie (1)
- Biotechnologie (1)
- Biotechnology (1)
- Blended Learning (1)
- Board Games (1)
- Brazil (1)
- Brutalismus (1)
- Business Case Innovation (1)
- Business Intelligence (1)
- CAN-Bus (1)
- Cairns-Blake-Dowd Modell (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Cashflow (1)
- Cashflow-Matching (1)
- Ccomputational fluid dynamics (1)
- Central limit theorem (1)
- Check24 (1)
- Civil Protection (1)
- Coaching (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Computational fluid dynamics (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Copula (1)
- Curriculumentwicklung (1)
- Curriculumevaluation (1)
- Customer Journey (1)
- Customized Distribution (1)
- Cyber-physische Produktionssysteme (1)
- Cyclone Dust Separator (1)
- Cyclotron Sensor Data (1)
- DA-Direkt (1)
- DAX (1)
- Data Analysis (1)
- Data Mining (1)
- Data Modelling (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Datenschutz (1)
- Decision tree (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Digitale Gruppenarbeit (1)
- Digitale Kompetenz (1)
- Digitale Medien (1)
- Digitales Zeitalter (1)
- Disaster Relief Forces (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Diversifikation (1)
- Diversity (1)
- Diversity Management (1)
- Dritte Säule (1)
- Dye (1)
- E-Book (1)
- Economic Scenario Generator (1)
- Effizienz einer Rückversicherungslösung (1)
- Einsatzkräfte (1)
- Electrostatic Precipitator (1)
- Emotionen (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Ensemble based modeling (1)
- Enterprise 2.0 (1)
- Entrepreneurship (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Entstauber (1)
- Entwurf (1)
- Erfahrungsbericht (1)
- Erfahrungsberichte (1)
- Ermöglichen (1)
- Erneuerbare Energien (1)
- Evaluation (1)
- Evidenzbasierung (1)
- Evolution Strategies (1)
- Evolutionary Robotics (1)
- Evolutionsstrategien (1)
- Expected Improvement (1)
- Expensive Optimization (1)
- Experiment (1)
- Experimental Algorithmics (1)
- FH Köln (1)
- FPGA ML (1)
- Fachhochschule (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faktorinvestments (1)
- Faserverbundwerkstoffe (1)
- Feature selection (1)
- Fehlende Daten (1)
- Fehlerbaum Analyse (1)
- Fernunterricht (1)
- Finanzwirtschaft (1)
- Flood (1)
- Flowcurve (1)
- Flushing (1)
- Flut 2021 (1)
- Flüchtlingssituation 2015/2016 (1)
- Forschungsformate (1)
- Forschungsstelle (1)
- Fotografie (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Freikirchliche Johanneskirche (Bochum) (1)
- Frequency Severity Model (1)
- Fréchet-Hoeffding-Bounds (1)
- Fréchet-Hoeffding-Schranken (1)
- Function Approximation (1)
- Funktionstest (1)
- Färben (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- Gemischtes Lehrformat (1)
- Generationengerechtigkeit (1)
- Genetic Algorithms (1)
- Genetic programming (1)
- Genetische Programmierung (1)
- Geografie (1)
- Geometrie (1)
- Gesellschaft (1)
- Gesellschaftlicher Wandel (1)
- Gestaltung (1)
- Gewölbe (1)
- Glaspartikel (1)
- Glaspulver (1)
- Gründungskultur (1)
- HUK24 (1)
- Hans Scharoun (1)
- Health condition monitoring (1)
- Helfer (1)
- Heston Model (1)
- Heuristics (1)
- Hochschulbau (1)
- Hochschulbildungsforschung (1)
- Hochschuldidaktische Forschung (1)
- Hochschulkommunikation (1)
- Hochschulplanung (1)
- Hochschulprofil (1)
- Hochschulsystem (1)
- Hochwasser 2021 (1)
- Holbein, Hans (1)
- Hot rolling (1)
- Hybrides Lehren und Lernen (1)
- Hängekuppeln (1)
- INCOR (1)
- IT Architektur (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationskompetenz (1)
- Informationsverhalten (1)
- Informationsvermittlung (1)
- Ingenieurstudium (1)
- Innenarchitektur (1)
- Innenraum (1)
- Innerinstitutionelle Forschung (1)
- Innovation (1)
- Innovationsakzeptanz (1)
- Innovative Geschäftsmodelle (1)
- Instagram (1)
- Institute for Insurance Studies (1)
- InsurTechs (1)
- Insurance Linked Securities (ILS) (1)
- Integriertes Lernen (1)
- Intergene (1)
- Internes Modell (1)
- Johannes-Kirche (1)
- Jugendstil (1)
- KI (1)
- Kapelle (1)
- Kapitalanlagerisiko (1)
- Kapitalmarktrisiken (1)
- Katastrophenereignis (1)
- Katastrophenmodellierung (1)
- Katastrophenrisikomanagement (1)
- Kfz-Versicherung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge extraction (1)
- Kognition (1)
- Kognitive Referenzarchitektur (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompetenzentwicklung (1)
- Kompression (1)
- Konstruktionsgeschichte (1)
- Konstruktivismus (1)
- Konsumenteninformation (1)
- Korrelation (1)
- Korrelationsmatrix (1)
- Krankenversicherung (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenerfahrungen (1)
- Kundenorientierung (1)
- Kundenverhalten (1)
- Kunst am Bau (1)
- Kunstgewerbeschule (1)
- Kurzpräsentation (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Lehr- und Lernkonzepte (1)
- Lehr-/Lernforschung (1)
- Lehr-/Lernkonzepte (1)
- Lehrformate (1)
- Lehrinterventionen (1)
- Lehrkompetenzentwicklung (1)
- Lehrkultur (1)
- Lehrplanentwicklung (1)
- Lehrszenarien (1)
- Lehrveranstaltung (1)
- Lernende Organisation (1)
- Lernkultur (1)
- Lernmotivation (1)
- Lessons learned (1)
- Lichtmessung (1)
- Lifetime Prediction (1)
- Lineare Regression (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Machine learning (1)
- Maklerwordings (1)
- Man-Made-Katastrophen (1)
- Marktanteile (1)
- Massendaten (1)
- Massive Online Analysis (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metaheuristics (1)
- Metal (1)
- Metamodell (1)
- Metamodels (1)
- Methode von Heligman-Pollard (1)
- Mies van der Rohe, Ludwig (1)
- Missing Data (1)
- Missing Data Imputation (1)
- Mixed Models (1)
- Mixed-Effects Models (1)
- Mixed-Methods-Ansatz (1)
- Mobilitäts-Ökosysteme (1)
- Mode (1)
- Model Calibration (1)
- Model Selection (1)
- Modelierung (1)
- Modell (1)
- Modelling (1)
- Modellkalibrierung (1)
- Modelllernen (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Motor Insurance (1)
- Movementanalyse (1)
- Multi-Agent Systems (1)
- Multi-criteria Optimization (1)
- Multi-fidelity (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Museum (1)
- N-tuple Systems (1)
- Nachhaltigkeit (1)
- Nat Cat (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Naturkatastrophen (1)
- Net Promoter Score (1)
- Netzwerk (1)
- Netzwerkberatung (1)
- Netzwerke (1)
- Neue Medien (1)
- Neural Network (1)
- Neural Networks (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Notrufsystem (1)
- Numerische Strömungssimulation (1)
- Offenheit (1)
- On-line Algorithm (1)
- Online Adaptation (1)
- Online Information Review (1)
- Online-Portal (1)
- Open RAN (1)
- Optische Zeichenerkennung (1)
- Ordnungspolitik (1)
- Organisationsentwicklung (1)
- PID Control (1)
- Paderborn (1)
- Pandemie (1)
- Pandemien (1)
- Pannendienst (1)
- Papierfabrik (1)
- Parallelisierung (1)
- Parameter Tuning (1)
- Parametertuning (1)
- Peer-Feedback (1)
- Pensionskasse (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Personenversicherungsmathematik (1)
- Pflegeversicherung (1)
- Planimetrische Komposition (1)
- Plywise Analysis (1)
- Praxis (1)
- Predictive Analytics (1)
- Present Value (1)
- Produktentwicklung (1)
- Produktentwicklungsprozess (1)
- Profilbildung (1)
- Prokrastination (1)
- Promotion (1)
- Proportion (1)
- Prozesse (1)
- Prägeschrifterkennung (1)
- Prämienrisiko (1)
- Prüfungsdaten (1)
- Qualität in Lehre und Studium (1)
- Qualitätsbegriff (1)
- Qualitätsentwicklung (1)
- Qualitätskultur (1)
- Quantitatives Risikomanagement (1)
- REST-konforme Web Services (1)
- RFID (1)
- Raderthal (1)
- Railroad Network (1)
- Rathaus (1)
- Referenzmodell (1)
- Reflexion (1)
- Reform (1)
- Regulierung (1)
- Reifegradmodell (1)
- Rendite (1)
- Rente (1)
- Rentenversicherung (1)
- Rettungsingenieurwesen (1)
- Rettungskostenersatz (1)
- Return on Risk Adjusted Capital (1)
- Rezeptionsästhetik (1)
- Rezeptionsästhetische Praxis (1)
- Risiko , Risikomanagement , Krisenmanagement , Gefahrenabwehr (1)
- Risiko-Rendite-Profile (1)
- Risikoaggregation (1)
- Risikobudgetierung (1)
- Risikomanagement technischer Systeme (1)
- Risikomaß (1)
- Risikoneutrale Bewertung (1)
- Risikosteuerung (1)
- Risk & Rescue GIS-Lab (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Romanik (1)
- Rundfunk (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- SOTL (1)
- SPOT (1)
- Schadenmodellierung (1)
- Selbstbestimmungstheorie (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Sendegebäude (1)
- Sensor placement (1)
- Sensortechnik (1)
- Signalanalyse (1)
- Silberstift (1)
- Simulated annealing (1)
- Simulation-based Optimization (1)
- Simulationsmodell (1)
- Social Learning (1)
- Social Media (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Social-Media-Kommunikation (1)
- Software (1)
- Soziale Medien (1)
- Sozialer Wandel (1)
- Sozialraum (1)
- Spülen (1)
- Stacked Generalization (1)
- Stacking (1)
- Standardisierung (1)
- Starkregen (1)
- Statistics (1)
- Statistik (1)
- Statistische Versuchsplanung (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Strategie (1)
- Structural Health Monitoring (1)
- Studiengangsentwicklung (1)
- Studierendenaktivierung (1)
- Superficial Images (1)
- Supervision (1)
- Surrogate Mod (1)
- Surrogate Model (1)
- Surrogate Optimization (1)
- Surrogate model (1)
- Surrogate model based optimization (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogates (1)
- Surrogatmodellbasierte Optimierung (1)
- Sustainability (1)
- Synagoge (1)
- System Identification (1)
- Systemarchitektur für verteilte (1)
- Systemidentifikation (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Teamteaching (1)
- Technische Hochschule Köln (1)
- Technische Versicherung (1)
- Telematics Data (1)
- Telematiktarife (1)
- Temporal Difference Learning (TDL) (1)
- Test function generator (1)
- Testgröße (1)
- Textiles (1)
- Time Series (1)
- Time-series (1)
- Traffic Density Classification (1)
- Transparenz (1)
- Trinkwasser (1)
- Trinkwasserversorgung (1)
- Umfrage (1)
- Umlageverfahren (1)
- Umnutzung (1)
- Univariate Data (1)
- Unsicherheit (1)
- Unternehmensgründung (1)
- Unternehmensplanung (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Unterrichtsplanung (1)
- Unterrichtssimulation (1)
- Value-Based-Management (1)
- Variable reduction (1)
- Varianzanalyse (1)
- Verantwortung (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Verbraucherzufriedenheit (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versciherungsmathematik (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versorgungsstruktur (1)
- Verteilungsanpassung (1)
- Verunreinigung (1)
- Vielfalt (1)
- Volkswirtschaftslehre (1)
- Vorbild (1)
- Vorgehensmodell (1)
- Vorverarbeitung (1)
- WSDL (1)
- Wahrnehmung (1)
- Walther Ruoff (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wasserverteilung (1)
- Wasserwirtschaft (1)
- Water Distribution Systems (1)
- Water Quality Monitoring (1)
- Water distribution systems (1)
- Web Services (1)
- Wert (1)
- Wertarchitektur (1)
- Werte (1)
- Wertethik (1)
- Wertorientierte Steuerung (1)
- Wertschätzung (1)
- Wiki (1)
- Wissen (1)
- Wissenschaftspraxis (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Word-of-Mouth (1)
- Workloaderhebung (1)
- World Wide Web 2.0 (1)
- Zeitreihe (1)
- Zentraler Grenzwertsatz (1)
- Zielrente (1)
- Zins (1)
- Zinsgarantien (1)
- Zinsmodelle (1)
- Zufriedenheit (1)
- Zusammengesetzte Poisson-Verteilung (1)
- Zuverlässige eingebettete Systeme (1)
- Zylon Enstauber (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- bottlenecks (1)
- charakteristische Funktion (1)
- classification (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- eCall (1)
- economic assessment (1)
- ecosystem services (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- faris (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- mobile Anwendungen (1)
- model-assisted optimization (1)
- modellbasierte Optimierung (1)
- opportunity costs (1)
- regression (1)
- reinsurance (1)
- reinsurance programs (1)
- scholarship of academic development (1)
- scholarship of teaching and learning (1)
- social media maturity model (1)
- social media strategy (1)
- studentisches Lernen (1)
- team teaching (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- vorvertragliche Anzeigepflicht (1)
- water resources (1)
- watershed protection (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Ökosystem-Dienstleistungen (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- Übersetzen (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
To maximize the throughput of a hot rolling mill,
the number of passes has to be reduced. This can be achieved by maximizing the thickness reduction in each pass. For this purpose, exact predictions of roll force and torque are required. Hence, the predictive models that describe the physical behavior of the product have to be accurate and cover a wide range of different materials.
Due to market requirements a lot of new materials are tested and rolled. If these materials are chosen to be rolled more often, a suitable flow curve has to be established. It is not reasonable to determine those flow curves in laboratory, because of costs and time. A strong demand for quick parameter determination and the optimization of flow curve parameter with minimum costs is the logical consequence. Therefore parameter estimation and the optimization with real data, which were collected during previous runs, is a promising idea. Producers benefit from this data-driven approach and receive a huge gain in flexibility when rolling new
materials, optimizing current production, and increasing quality. This concept would also allow to optimize flow curve parameters, which have already been treated by standard methods. In this article, a new data-driven approach for predicting the physical behavior of the product and setting important parameters is presented.
We demonstrate how the prediction quality of the roll force and roll torque can be optimized sustainably. This offers the opportunity to continuously increase the workload in each pass to the theoretical maximum while product quality and process stability can also be improved.
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
Formerly, multi-criteria optimization algorithms were often tested using tens of thousands function evaluations. In many real-world settings function evaluations are very costly or the available budget is very limited. Several methods were developed to solve these cost-extensive multi-criteria optimization problems by reducing the number of function evaluations by means of surrogate optimization. In this study, we apply different multi-criteria surrogate optimization methods to improve (tune) an event-detection software for water-quality monitoring. For tuning two important parameters of this software, four state-of-the-art methods are compared: S-Metric-Selection Efficient Global Optimization (SMS-EGO), S-Metric-Expected Improvement for Efficient Global Optimization SExI-EGO, Euclidean Distance based Expected Improvement Euclid-EI (here referred to as MEI-SPOT due to its implementation in the Sequential Parameter Optimization Toolbox SPOT) and a multi-criteria approach based on SPO (MSPOT). Analyzing the performance of the different methods provides insight into the working-mechanisms of cutting-edge multi-criteria solvers. As one of the approaches, namely MSPOT, does not consider the prediction variance of the surrogate model, it is of interest whether this can lead to premature convergence on the practical tuning problem. Furthermore, all four approaches will be compared to a simple SMS-EMOA to validate that the use of surrogate models is justified on this problem.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
In this paper we present a comparison of different data driven modeling methods. The first instance of a data driven linear Bayesian model is compared with several linear regression models, a Kriging model and a genetic programming model.
The models are build on industrial data for the development of a robust gas sensor.
The data contain limited amount of samples and a high variance.
The mean square error of the models implemented in a test dataset is used as the comparison strategy.
The results indicate that standard linear regression approaches as well as Kriging and GP show good results,
whereas the Bayesian approach, despite the fact that it requires additional resources, does not lead to improved results.
Modell und Wirklichkeit. Proceedings zum 5. FaRis & DAV Symposium am 6. Dezember 2013 in Köln
(2014)
Das 5. FaRis & DAV Symposium stand unter dem Leitthema „Modell und Wirklich-keit“. Modelle sind zweckorientierte Verdichtungen der Wirklichkeit. Aktuare können nicht die Zukunft vorausberechnen, sie versuchen aber mit Hilfe von Modellen abzuschätzen, was alles in der Zukunft passieren kann. Sie sind darin scheinbar sehr erfolgreich, denn die Versicherungsgesellschaften haben bisher „den Stürmen der Zeit“ erfolgreich widerstanden und haben den Menschen Ver- sicherungsschutz gewährt. Schaut man allerdings auf die Finanzmärkte – sie sind Teil der ökonomischen Wirklichkeit – so lehrt die jüngere Vergangenheit, dass die Realität sich nicht an die Modelle gehalten hat. Da die Finanzmärkte die Versicherungswirtschaft immer stärker durchdringen, können künftig unvollstän- dige oder falsche Modelle die Stabilität der Versicherungswirtschaft gefährden. Modelle prägen jedoch auch die Wahrnehmung der Wirklichkeit und beeinflussen daher die Wirklichkeit. So hat die Modellwelt des Solvency II-Systems massiven Einfluss auf das Produktangebot der Versicherungsunter-nehmen, nicht immer zum Vorteil der Versicherungsnehmer. Das Symposium sollte kritisch hinterfragen, (1) inwieweit unsere aktuariellen „Modellwelten“ noch ihren Zweck erfüllen, (2) wo die grundsätzlichen Grenzen der Modellbildung liegen, (3) in welche Richtung wir unsere Modelle überdenken müssen und (4) welche alternativen Ansätze zur Verfügung stehen.
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
Modelling Zero-inflated Rainfall Data through the Use of Gaussian Process and Bayesian Regression
(2018)
Rainfall is a key parameter for understanding the water cycle. An accurate rainfall measurement is vital in the development of hydrological models. By means of indirect measurement, satellites can nowadays estimate the rainfall around the world. However, these measurements are not always accurate. As a first approach to generate a bias-corrected rainfall estimate using satellite data, the performance of Gaussian process and Bayesian regression is studied. The results show Gaussian process as the better option for this dataset but leave place to improvements on both modelling strategies.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Sind diese Zahlungsströme mit Risiken behaftet, so kann der Barwert als Zufallsvariable interpretiert werden. In der vorliegenden Arbeit wird der risikobehaftete Zahlungsstrom als bewertete inhomogene Markov-Kette modelliert. Als Hauptergebnis wird eine Formel für die charakteristische Funktion bzw. die momentenerzeugende Funktion der Zufallsvariablen „Barwert“ hergeleitet. Damit ist die Verteilung der Zufallsvariablen eindeutig festgelegt. In konkreten Fallbeispielen wird gezeigt, wie man mit einer EDV-technischen Umsetzung der Formel den Erwartungswert, die Varianz und die Standardabweichung der Zufallsvariablen „Barwert“ ermitteln kann.
An essential task for operation and planning of biogas plants is the optimization of substrate feed mixtures. Optimizing the monetary gain requires the determination of the exact amounts of maize, manure, grass silage, and other substrates. Accurate simulation models are mandatory for this optimization, because the underlying chemical processes are very slow. The simulation models themselves may be time-consuming to evaluate, hence we show how to use surrogate-model-based approaches to optimize biogas plants efficiently. In detail, a Kriging surrogate is employed. To improve model quality of this surrogate, we integrate cheaply available data into the optimization process. Doing so, Multi-fidelity modeling methods like Co-Kriging are employed. Furthermore, a two-layered modeling approach is employed to avoid deterioration of model quality due to discontinuities in the search space. At the same time, the cheaply available data is shown to be very useful for initialization of the employed optimization algorithms. Overall, we show how biogas plants can be efficiently modeled using data-driven methods, avoiding discontinuities as well as including cheaply available data. The application of the derived surrogate models to an optimization process is shown to be very difficult, yet successful for a lower problem dimension.
Ob Tweet, TikTok-Video oder Elevator Pitch – Informationen pointiert zu verdichten entwickelt sich zur Kunst. Das Format One Slide About (nachfolgend OSA) fordert Kursteilnehmer*innen auf, ein Thema oder eine wissenschaftliche Studie auf einem einzelnen Slide einer Präsentation zu verdichten und diesen den Kommiliton*innen in einem max. 180 Sekunden langen Vortrag vorzustellen. Dieses Format wurde in unterschiedlicher Umsetzung erprobt, mit den Teilnehmer*innen diskutiert und anschließend in Form einer quantitativen Befragung unter folgender Forschungsfragestellung evaluiert: Lässt sich mit dem Format One Slide About sowohl Informationskompetenz üben als auch eine Lehrveranstaltung inhaltlich ergänzen?
Angetrieben durch technische Innovationen und den Prozess der Globalisierung tendieren Organisationen seit rund einem Jahrzehnt dazu, Kooperationsnetzwerke mit anderen Unternehmen höher zu gewichten als die Arbeit in monobetrieblichen Strukturen. Diese Tendenz zeigt sich sowohl in bedarfswirtschaftlichen als auch erwerbswirtschaftlichen Organisationen. Beide „organisationalen Felder“ sind in verschiedene organisationale Kontexte eingebettet und verfolgen Kooperationsstrategien, die zu unterschiedlichen Kooperationsmustern führen. Um das Fachwissen über netzwerkorientierte Organisationsentwicklung weiter zu entwickeln und marktfähig zu machen, wurde an der Fachhochschule Köln ein interdisziplinäres Forschungsprojekt initiiert. An dem Forschungsvorhaben sind die Fakultäten für angewandte Sozialwissenschaften, für Wirtschaftswissen-schaften und für Fahrzeugsysteme und Produktion beteiligt, die unterschiedliche organisationale Felder repräsentieren. Die Fakultät für angewandte Sozial-wissenschaften fokussiert auf bedarfswirtschaftliche Organisationen im Feld der Sozialwirtschaft. Im Blickfeld der Fakultäten für Wirtschaftswissenschaften und für Fahrzeugsysteme und Produktion stehen erwerbswirtschaftliche Organisationen aus den Feldern der mittelständischen Wirtschaft und der Mobilitätswirtschaft. Im Verlauf des Forschungsprozesses wurden (1) im Rahmen einer Situationsanalyse eine quantitative Befragung von Profit- und Non-Profit-Organisationen in Nordrhein-Westfalen durchgeführt und Ergebnisse zum Stellenwert der Netzwerk-organisation in den aktuellen Organisationsstrategien und -konzepten gewonnen. Durch vertiefende qualitative Fallanalysen in Form von Bedarfsanalysen (2) sind Erfolgsfaktoren und Unterstützungsbedarfe bei einer Einbindung von Organisationen in eine Netzwerkkooperation aufgedeckt worden. In diesem Bericht erfolgt (3) die Beschreibung und Begründung induktiv abgeleiteter Beratungs-instrumente. Dafür werden zunächst relevante Forschungsergebnisse zusammengefasst und anschließend die von ihnen abgeleiteten Erfolgsfaktoren sowie Beratungs- und Unterstützungsbedarfe tabellarisch geclustert. Auf dieser Grundlage werden die Entwicklung von Beratungs- und Unterstützungsinstrumenten und die Modifizierung bestehender Ansätze für die Netzwerkberatung - differenziert nach den besonderen Anforderungen des bedarfswirtschaftlichen und des erwerbs-wirtschaftlichen Bereiches - theoretisch begründet. Die entwickelten Beratungsinstrumente werden nach Netzwerkentwicklungsphasen katalogisiert. Zusätzlich wird angegeben, was das jeweilige Instrument leistet und wo seine Grenzen sind. Zudem erfolgt für jedes Instrument die detaillierte Beschreibung der Ziele und des Anwendungsprozesses. Schließlich werden ausgewählte Module Beratungsinstrumente in zwei der drei organisationalen Felder zur Anwendung gebracht. Ziel ist die Beschreibung eines Best-Practice-Beratungsprozesses.
Learning board games by self-play has a long tradition in computational intelligence for games. Based on Tesauro’s seminal success with TD-Gammon in 1994, many successful agents use temporal difference learning today. But in order to be successful with temporal difference learning on game tasks, often a careful selection of features and a large number of training games is necessary. Even for board games of moderate complexity like Connect-4, we found in previous work that a very rich initial feature set and several millions of game plays are required. In this work we investigate different approaches of online-adaptable learning rates like Incremental Delta Bar Delta (IDBD) or Temporal Coherence Learning (TCL) whether they have the potential to speed up learning for such a complex task. We propose a new variant of TCL with geometric step size changes. We compare those algorithms with several other state-of-the-art learning rate adaptation algorithms and perform a case study on the sensitivity with respect to their meta parameters. We show that in this set of learning algorithms those with geometric step size changes outperform those other algorithms with constant step size changes. Algorithms with nonlinear output functions are slightly better than linear ones. Algorithms with geometric step size changes learn faster by a factor of 4 as compared to previously published results on the task Connect-4.
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
Cyclone separators are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation, which necessary for constructing efficient cyclones. Several simulation tools can be run in parallel, e.g., long running CFD simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. There are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, whereas analytical models do not. Combining results from models with different input-output structure is of great interest. This combination inspired the development of a new methodology. An optimization via multimodel simulation approach, which combines results from different models, is introduced.
Using cyclonic dust separators (cyclones) as a real-world simulation problem, the feasibility of this approach is demonstrated. Pros and cons of this approach are discussed and experiences from the experiments are presented.
Furthermore, technical problems, which are related to 3D-printing approaches, are discussed.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
Many black-box optimization problems rely on simulations to evaluate the quality of candidate solutions. These evaluations can be computationally expensive and very time-consuming. We present and approach to mitigate this problem by taking into consideration two factors: The number of evaluations and the execution time. We aim to keep the number of evaluations low by using Bayesian optimization (BO) – known to be sample efficient– and to reduce wall-clock times by executing parallel evaluations. Four parallelization methods using BO as optimizer are compared against the inherently parallel CMA-ES. Each method is evaluated on all the 24 objective functions of the Black-Box-Optimization-Benchmarking test suite in their 20-dimensional versions. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on most of the test functions, also on higher dimensions.
Mit Hilfe von internen Modellen kann man in der Schadenversicherung das Risiko / Rendite Profil einer Neugeschäftsstrategie bewerten und Entscheidungen daraus ableiten. Dabei kann man i. d. R. nur einzelne Strategien miteinander vergleichen, aber kein allgemein gültiges Optimum herleiten. Unter bestimmten Voraussetzungen ist es allerdings möglich, für das (Brutto) Neugeschäft auch geschlossene Lösungen für diese Fragestellung zu finden. Selbst wenn diese Voraussetzungen in der Reinform meistens kaum vorliegen, ergeben sich doch aus diesem Ansatz einige interessante Implikationen für die Unternehmenssteuerung. Insbesondere können solche Ansätze dafür verwendet werden, bessere „Startwerte“ zu finden, die dann mit internen Modellen getestet werden können.
Scholarship of Teaching and Learning (SoTL) wird in der Regel als sozialwissenschaftliches Projekt beschrieben, das an die Lehrenden und ihre Fachkulturen ‚von außen‘ durch die Hochschuldidaktik herangetragen wird (z.B. Wyss, 2018; Szczyrba, 2016). Doch kann die Hochschuldidaktik SoTL auch als ein Anliegen an Lehrende formulieren, aus den Fächern heraus gemeinsam mit den Studierenden eine gemeinsame Wissenschaftspraxis zu implementieren, die das Bildungsanliegen der Studierenden mit dem der Lehrenden verknüpft. Basierend auf dem Verständnis von Huber (2018), dass SoTL die wissenschaftliche Befassung mit der Lehre und dem Lernen der Studierenden im eigenen Fach ist, kann Lehre an Hochschulen durch SoTL zu einer wissenschaftlich begründeten Praxis werden und auf praktischer Klugheit i.S.v. phronesis basieren (Kreber, 2015, S. 568ff.; Dunne, 1993).
Der Beitrag konzipiert SoTL auf der Basis geisteswissenschaftlicher Theorieansätze, um hochschuldidaktisch fundierte und beforschte Lehrkonzepte breiter als auf der Ebene der Technikentwicklung (techne) zu begründen. Dazu stützt er sich auf Ansätze von MacIntyre (Praxis, Tugendethik), Bernstein (singulars und regions), Andresen (Fachwissenschaftspraxis), Mezirow (Reflexionsstruktur) und Nussbaum (Reflexion von Zielen). Angelehnt an diese Ansätze erschließt er das SoTL darauf, wie Lehrende theoretisch und methodologisch fundiert mit ihren Studierenden ergründen können, wie die hochschulischen Fächer mit internalisierten Werten als ‚interne Güter‘ bereicherte Absolvent*innen hervorbringen können.
Das Verhältnis zwischen privater Gestaltung und staatlicher Regulierung in der Versicherungswirtschaft war das herausfordernde Thema des 16. Kölner Versicherungssymposiums 2011 und des vorliegenden Tagungsbandes. In dem allgemeinen Teil werden in Grundsatzbeiträgen die Positionen erwünschter und unerwünschter ordnungspolitischer Eingriffe in die Privatautonomie des Versicherungsmarkts dargestellt. In den anschließenden fünf Arbeitsgruppen zu den Bereichen Lebensversicherung, Krankenversicherung, Pflegeversicherung, Sachversicherungen und Haftpflichtversicherungen wurde das Spannungsverhältnis behandelt. Neben den Expertenstatements sind auch die Diskussionsbeiträge der Tagungsteilnehmer festgehalten.
Die Diskussionsforen der Forschungsstelle Versicherungsrecht behandeln zweimal pro Jahr aktuelle Fragestellungen und neuere Rechtsprechung zum Thema Versicherungsrecht. Die Veranstaltung wendet sich an Versicherungsjuristen, mit Versicherungsrecht befasste Rechtsanwälte und an Betriebswirte, die sich in ihrer beruflichen Praxis mit rechtlichen Fragestellungen beschäftigen müssen. Die Ergebnisse des 6. Diskussionsforums vom 25. September 2012 an der FH Köln sind in diesem Tagungsbericht zusammengefasst.
Der Beitrag zeigt, wie systemisches Coaching als lösungsorientiertes Beratungsverfahren in Arbeitsweltkontexten hilfreich sein kann, um Personen und Organisationen im Umgang mit Komplexität zu begleiten. In ingenieurwissenschaftlichen Kontexten eingesetzt, unterstützt Coaching (angehende) Ingenieur*innen dabei, ein ganzheitlich-systemisches Verständnis des digitalen Wandels zu entwickeln und zentrale Kompetenzen wie Reflexionsfähigkeit zu erwerben. Im ersten Teil werden Anforderungen an eine zukunftsfähige Ingenieur*innenausbildung und deren Umsetzung an der Fakultät für Anlagen, Energie- und Maschinensysteme der TH Köln sowie Arbeitsweisen und Grundannahmen systemischen Coachings vorgestellt. Die Wirksamkeit des Einsatzes von Coaching in der Lehre wird an der Fakultät begleitend erforscht. Dazu werden im zweiten Teil zunächst Herausforderungen beim Einsatz von Coaching im Hochschulkontext und mögliche Dilemmata für Coaches benannt. Im Anschluss werden die Ergebnisse zweier Studien vorgestellt, die den Einsatz von Projektcoaching und Leadership-Coaching in projektbasierten Modulen mit großen Teilnehmer*innenzahlen an der Fakultät untersuchen. Die Forschungsergebnisse stützen zum einen die Annahme, dass das hier konzipierte Coaching die Studierenden dabei begleitet, Metakompetenzen wie Reflexionsfähigkeit und Self-Awareness zu entwickeln. Zum anderen unterstreichen die Ergebnisse das Vorgehen der Fakultät, Kompetenzen nicht nur einmalig im Studium, sondern aufeinander aufbauend durchgängig zu trainieren. Der Beitrag schließt mit einem Ausblick für Praxis und Forschung. Die Konzepte sind anschlussfähig sowohl für den Einsatz in anderen Disziplinen als auch an Beratungskonzepte für Lehrende. Fazit ist, dass eine didaktische und curriculare Verankerung von Coaching Studierende dabei unterstützen kann, eine systemische Haltung zu entwickeln und sie damit auf den digitalen Wandel sowie zukünftige Führungsaufgaben vorbereitet.
In den Kommunen wird ein vernetztes, integriertes Handeln durch eine institutionelle Zergliederung der Daseinsvorsorge in eine Vielzahl funktionaler Teilaufgaben behindert. In der Folge dieser Fragmentierung erfahren die Adressaten soziale Dienstleistungen in den Sozialräumen ihres Stadtteils oder Stadtteils funktions- und hierarchiebezogen – d.h. vertikal und horizontal – getrennt. Wegen der Barrieren des engen Ressortdenkens und der fehlenden Transparenz agieren die professionellen Akteure relativ isoliert auf den „operativen Inseln“ fachlicher Zuständigkeiten. Gemeinsame Schnittstellen werden kaum wahrgenommen, was zum Aufbau von ineffizienten Doppelstrukturen und Mehrfachangeboten geführt hat. Vor diesem Hintergrund besteht die innovative Idee darin, in der Kommune eine wirkungsvolle und effiziente Netzwerkversorgung zwischen isolierten Agenturen, professionellen Dienstleistern und ehrenamtlich engagierter Bürger/innen zu entwickeln. Denn das dafür erforderliche organisatorische Verfahren der Netzwerkkooperation, das im Profitbereich bereits seit den 90er Jahren etabliert ist (vgl. Zulieferernetze der Mobilitätsindustrie) wartet im Non-Profit-Sektor noch auf die systematische Einführung. Die wissenschaftlichen und sozialpolitischen Diskurse des letzten Jahrzehnts verdeutlichen jedoch vermehrt den hohen Bedarf einer vernetzungsorientierten Organisationsentwicklung der kommunalen Daseinsvorsorge und ihrer Verwaltungsagenturen. Auf der Ebene der Sozialräume von Stadtteilen und Stadtbezirken, aber auch innerhalb der zentralen Kommunalverwaltung sollen aus diesem Grund sowohl Hierarchiebarrieren zwischen Die Qualitätsentwicklung hängt entscheidend davon ab, ob diese Barrieren überwunden werden und sowohl eine integrierte Vorgehensweise der professionellen Akteure gefunden wird als auch der Anschluss an die zivilgesellschaftlichen Potenziale gelingt. Vor diesem Hintergrund untersucht das Projekt „CityNet“ die Koordination professioneller und ehrenamtlicher Interventionen verschiedener Ressorts, um die individuellen und sozialen Bedürfnisse der Bevölkerung wirkungsvoll und effizient zu sichern. Im Ergebnis werden Instrumente der „Netzwerkplanung“ entwickelt, mit denen die bisher isolierten Leistungen der einzelnen Infrastrukturen und Dienstleistungsanbieter im Sozialraum miteinander bedarfsorientiert und adressatenfokussiert verbunden werden.
In diesem Artikel wird die Entwicklung einer neuen Methode zur Risikobewertung von komplexen, technischen Systemen (z.B. Maschinen, Prozessen) dokumentiert. Wir demonstrieren die Anwendung unserer Methode anhand eines Beispiels der Medizintechnik. Ziel ist die quantitative Bewertung von Risiken, die über die Ermittlung der Eintrittswahrscheinlichkeit und des Schadenerwartungswertes hinaus geht. Besonders relevant ist die Berechnung kostenintensiver Groß- schäden. Dazu kombinieren wir Methoden der klassischen ingenieurwissen- schaftlichen Risikoanalyse mit Methoden der Aktuarwissenschaften. Daraus erhalten wir eine neue Methode des quantitativen Risikomanagements zur Berechnung von Gesamtschadenverteilungen komplexer technischer Systeme. Auf diese Weise werden alle modernen Risikomaße (z.B. VaR, Expected Shortfall) zugänglich. Wir demonstrieren die einzelnen Schritte anhand eines konkreten Beispiels aus der Praxis, einem zahnärztlichen Behandlungsstuhl.
Quantitatives Risikomanagement. Proceedings zum 9. FaRis & DAV Symposium am 4. Dezember 2015 in Köln
(2016)
Das quantitative Risikomanagement nimmt an Bedeutung immer weiter zu. Hierbei spielt natürlich die interne Modellierung von Risiken eine entscheidende Rolle. In diesem Zusammenhang sind die verschiedenen Modellansätze zu beleuchten und Risikomaße bzw. Risikoaggregationsmethoden im Rahmen der Bewertung kritisch zu hinterfragen. Nicht zu vernachlässigen ist in der Betrachtung des Zusammenspiels verschiedener Risiken und somit auch in der Modellierung gerade bei Versicherungsunternehmen das Asset-Liability-Management.
Die Prämienbestimmung ist nicht nur vor dem Hintergrund von Unisex ein über viele Versicherungssparten aktuell diskutiertes Thema. Häufige Veränderungen des Rechtsrahmens, die stete Entwicklung neuer Produkte, Weiterentwicklungen der Methoden und geänderte Anforderungen des Marktes beeinflussen die Wahl der Rechnungsgrundlagen als Basis der Prämienkalkulation. Einigen ausgewählten Fragestellungen aus diesem Umfeld ist das 3. FaRis & DAV-Symposium nachge-gangen. Dazu wurden Sterblichkeit und Lebenserwartung als zentrale biometrische Rechnungsgrundlagen der Personenversicherung ebenso thematisiert wie die schwierige Herleitung geeigneter Rechnungsgrundlagen für neuere Formen der Invaliditätsversicherung. Auch die Grenzen, an die der Aktuar gelegentlich stößt, und der erforderliche Pragmatismus bei der Suche nach Lösungen wurden angesprochen. Besondere Aufmerksamkeit wurde auch der betrieblichen Alters-versorgung zugewendet, die sich trotz des unsicheren rechtlichen Rahmens intensiv mit der Einführung von Unisex-Tarifen beschäftigt. Ein vertiefter Blick auf die Kalkulationsansätze in der Schaden-versicherung und den damit verbundenen Informationsbedarf für das Management rundeten das Programm ab. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
Recovery after extreme events - Lessons learned and remaining challenges in Disaster Risk Reduction
(2017)
Disasters such as the Indian Ocean Tsunami 2004, but also other extreme events such as cyclones, earthquakes and tsunami substantially affect the lives of many thousands of people - they are events radically and abruptly changing local circumstances and needs. At the same time they can significantly reshape global paradigms of Disaster Risk Reduction (DRR). Such events also bring to light the challenges in coordinating assistance from the “global community” with all the intended and un-intended effects. Two of the most pressing questions therefore are whether the different actors have learned from the disaster and whether processes of DRR and livelihood improvements have been implemented successfully.
This volume gathers selected papers addressing the following key questions:
- Lessons learned: Which lessons have been learned in a way that a difference can be seen today for the livelihoods and resilience of local people in the regions affected?
- Lessons to be Learned: Despite the body of knowledge created and reflected in a good number of lessons learned studies – what is still unsolved or needs to be emphasized?
- Monitoring and evaluation: Which DRR measures have been perpetuated and how can they be monitored and evaluated scientifically?
- Resilience effects and (unintended) side-effects: Which coping, recovery and adaptation measures are
supported by the resilience paradigm and which other areas are side-lined, neglected or even contrary to the intended effects?
- Dynamics in risk: In which cases has resilience building taken place? In which cases have ulnerabilities
been shifted internally or new vulnerabilities been created?
- Relocation/resettlement: How did the relocation/resettlement process of displaced people take place and what are its long-term effects?
- Urban-rural divide: How have DRR measures in urban vs. rural areas differed and which linkages but also rifts in rehabilitation and reconstruction initiatives can be observed between the two?
- Early warning: What is the future of Early Warning and how can important top-down information chains benefit from or be balanced with bottom-up feedback of users and affected people?
It appears that extreme disaster events spark a plethora of actions in academia, civil society, media, policy, private sector and other organisations. Tragic, as such disasters are, they offer incentives for learning, locally and globally. Lately, disaster impacts have in many cases been detracted through the application of knowledge and experience gained from previous events. However, there are still a number of challenges with regards to learning from past disasters
Architecural aproaches are considered to simplify the generation of re-usable building blocks in the field of data warehousing. While SAP’s Layer Scalable Architecure (LSA) offers a reference model for creating data warehousing infrastructure based on SAP software, extented reference models are needed to guide the integration of SAP and non-SAP tools. Therefore, SAP’s LSA is compared to the Data Warehouse Architectural Reference Model (DWARM), which aims to cover the classical data warehouse topologies.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
Die Frage, ob Big Data und Künstliche Intelligenz (KI) die Versicherungswirtschaft revolutionieren, beschäftigt schon seit einiger Zeit unsere Gesellschaft sowie im Besonderen die Versicherungsbranche. Die Fortschritte in jüngster Vergangenheit in der KI und bei der Auswertung großer Datenmengen sowie die große mediale Aufmerksamkeit sind immens. Somit waren Big Data und Künstliche Intelligenz auch die diesjährigen vielversprechenden Themen des 24. Kölner Versicherungs-
symposiums der TH Köln am 14. November 2019: Das ivwKöln hatte zum fachlichen Austausch eingeladen, ein attraktives Vortragsprogramm zusammengestellt und Networking-Gelegenheiten für die Gäste aus Forschung und Praxis vorbereitet. Der vorliegende Proceedings-Band umfasst die Vortragsinhalte der verschiedenen Referenten.
Die zunehmende Automatisierung sowie Vernetzung des automobilen Verkehrs besitzt potenziell tiefgreifende Auswirkungen auf die Kfz-Versicherung. Neben der Frage nach der Haftung für Verkehrsunfälle spielen dabei ebenso eine sich verändernde Risikolandschaft sowie mögliche Verschiebungen der Kundenschnittstelle durch servicebasierte Mobilitätskonzepte eine strategisch zentrale Rolle. Darüber hinaus führt die zunehmende Vernetzung der Fahrzeuge zu einem sich verschärfenden Wettkampf um den Zugriff auf relevante Daten aus dem Fahrzeug.
Beim 14. FaRis & DAV Symposium beleuchteten die Vortragenden diese Fragen hinsichtlich ihrer Auswirkungen auf das Geschäftsmodell der Kfz-Versicherung, um auf dieser Basis die Herausforderungen und mögliche Lösungsansätze zu diskutieren.
In 2021 feiert die Technische Hochschule Köln (TH Köln) ihr 50-jähriges Jubiläum und damit auch das Institut für Versicherungswesen (ivwKöln), wobei sich inzwischen Forschung, Lehre und Transfer in die Praxis auf alle Risikofelder des Versicherungsgeschäfts und alle Kompetenzbereiche der Versicherungsunternehmen beziehen. Anlässlich dieses Jubiläums hat das ivwKöln daher in einem Band „Risiko im Wandel. Herausforderung für die Versicherungswirtschaft“, der in 2022 als Open Access erscheinen wird, die Vielfalt von Forschung und Praxis aller Mitwirkenden an der Arbeit des Institutes gebündelt zusammengefasst. Der nachfolgende Beitrag soll schon vorab einen Überblick der verschiedenen Forschungsthemen geben.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
Resilienz bezeichnet die Fähigkeit eines Systems nach einem exogenen Schock wieder in den Normalzustand zurück zu kehren. Wenn beispielsweise durch eine Katastrophe die Wasserversorgung der Bevölkerung nicht mehr gewährleistet ist, so geht es nicht um die Frage, was die Wiederherstellung der Versorgung kostet, sondern mit welchen Maßnahmen die Wiederherstellung überhaupt möglich ist. Eine Versorgungsstruktur ist also so zu gestalten, dass im Vorfeld schon klar ist, wie sie im Katastrophenfall wieder hergestellt werden kann. Bezogen auf ein Wirtschaftsunternehmen ist die Frage nach der Resilienz eine Erweiterung des klassischen Risikomanagements. Das 11. FaRis & DAV-Symposium bot einen Einblick in die Resilienzanalyse beim Katastrophenschutz, zeigte wie ein Resilienz-Management für ein Wirtschaftsunternehmen aussehen kann und schließlich wurde das Resilienz-Konzept auf Fragen der Versicherungsaufsicht übertragen.
Die betriebliche Altersversorgung ist neben der gesetzlichen und der privaten Altersvorsorge eine der drei Säulen der Alterssicherung in Deutschland. Ende 2012 beliefen sich die Deckungsmittel der betrieblichen Altersversorgung in Deutschland auf 500,7 Milliarden Euro. Im Zeitraum 2009 bis 2011 hatten ca. 60% aller sozialversicherungspflichtigen Arbeitnehmer eine Anwartschaft auf betriebliche Altersversorgung. Mit Pensionsplänen sind aus Sicht der Unternehmen Risiken verbunden, die es zu erkennen, zu bewerten und zu steuern gilt. Wie ist der aktuelle Stand des Risikomanagements in der betrieblichen Altersversorgung in Deutschland? Dieser Frage ging das 4. FaRis & DAV-Symposium anhand ausgewählter Aspekte nach. Die Vorträge des Symposiums sind in diesem Konferenzband zusammengefasst.
In den letzten Jahren hat sich an den Hochschulen und Universitäten im deutschsprachigen Raum eine große Vielfalt des Scholarship of Teaching and Learning (SoTL) herausgebildet. An der zunehmenden Verbreitung und Rezeption ist zu erkennen, dass SoTL vielfältige Potentiale für die (Weiter-)Entwicklung und engere Verzahnung fachspezifischer Lehre mit dem hochschuldidaktischen Gesamtanspruch aufweist. Ziel dieses Forschungsbands ist es, auf Basis einer Bestandsaufnahme ausgewählter aktueller SoTL-Projekte an deutschsprachigen Hochschulen eine forschungsgeleitete Auseinandersetzung mit der Hochschullehre zu führen, in der insbesondere Lehrende, Forschende und Hochschuldidaktiker*innen, aber auch Studierende involviert sind. Der Band versammelt Beiträge zu den Themenfeldern Entwicklung innovativer Lehrformate und Anwendungen, Förderung reflexiver Kompetenzen sowie SoTL und Gemeinschaft – Institutions-, disziplinen- und statusgruppenübergreifende Zusammenarbeit und richtet sich an Hochschullehrende und Forschende aller Fachdisziplinen.
Sensor placement for contaminant detection in water distribution systems (WDS) has become a topic of great interest aiming to secure a population's water supply. Several approaches can be found in the literature with differences ranging from the objective selected to optimize to the methods implemented to solve the optimization problem. In this work we aim to give an overview of the current work in sensor placement with focus on contaminant detection for WDS. We present some of the objectives for which the sensor placement problem is defined along with common optimization algorithms and Toolkits available to help with algorithm testing and comparison.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
Cyclone Dust Separators are devices often used to filter solid particles from flue gas. Such cyclones are supposed to filter as much solid particles from the carrying gas as possible. At the same time, they should only introduce a minimal pressure loss to the system. Hence, collection efficiency has to be maximized and pressure loss minimized. Both the collection efficiency and pressure loss are heavily influenced by the cyclones geometry. In this paper, we optimize seven geometrical parameters of an analytical cyclone model. Furthermore, noise variables are introduced to the model, representing the non-deterministic structure of the real-world problem. This is used to investigate robustness and sensitivity of solutions. Both the deterministic as well as the stochastic model are optimized with an SMS-EMOA. The SMS-EMOA is compared to a single objective optimization algorithm. For the harder, stochastic optimization problem, a surrogate-model-supported SMS-EMOA is compared against the model-free SMS-EMOA. The model supported approach yields better solutions with the same run-time budget.
When designing or developing optimization algorithms, test functions are crucial to evaluate
performance. Often, test functions are not sufficiently difficult, diverse, flexible or relevant to real-world
applications. Previously,
test functions with real-world relevance were generated by training a machine learning model based on
real-world data. The model estimation is used as a test function.
We propose a more principled approach using simulation instead of estimation.
Thus, relevant and varied test functions
are created which represent the behavior of real-world fitness landscapes.
Importantly, estimation can lead to excessively smooth test functions
while simulation may avoid this pitfall. Moreover, the simulation
can be conditioned by the data, so that the simulation reproduces the training data
but features diverse behavior in unobserved regions of the search space.
The proposed test function generator is illustrated with an intuitive, one-dimensional
example. To demonstrate the utility of this approach it
is applied to a protein sequence optimization problem.
This application demonstrates the advantages as well as practical limits of simulation-based
test functions.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
SOMA - Systematische Optimierung von Modellen in IT- und Automatisierungstechnik (Schlussbericht)
(2013)
Das im Rahmen der Förderlinie IngenieurNachwuchs geförderte Forschungsvorhaben Systematische Optimierung von Modellen für Informations- und Automatisierungs-technik (kurz: SOMA) startete im August 2009. Eine wesentliche Zielsetzung war die Entwicklung und Optimierung von Modellen zur Prognose von Zielgrößen. Ein wichtiges Merkmal ist dabei die effiziente Optimierung dieser Modelle, welche es ermöglichen soll, mit einer streng limitierten Anzahl an Auswertungen gute Parametereinstellungen zu bestimmen. Mithilfe dieser genaueren Parametrierungen der unterliegenden Modelle können unter Einbeziehung neuer merkmalserzeugender Verfahren insbesondere für kleine und mittelständische Unternehmen verbesserte Lösungen erzielt werden. Als direkter Gewinn derartiger Verbesserungen konnte für KMUs ein geeignetes Framework für Modellierungs- und Prognoseaufgaben be- reitgestellt werden, sodass mit geringem technischem und personellen Aufwand performante und nahezu optimale Lösungen erzielt werden können. Dieser Schluss-bericht beschreibt die im Projekt durchgeführten Maßnahmen und Ergebnisse.
Die neue Welt ist intuitiv und leicht. Die Toleranz der Kunden gegenüber Umständlichkeit und Intransparenz sinkt. Andere Branchen bemühen sich schon heute darum, Kundenbedürfnisse jenseits der Industriegrenzen zu erkennen und zu bedienen. Erfahrungen, die Kunden in der digitalen Welt in anderen Branchen machen, prägen zunehmend ihre Erwartungen auch an Versicherungsunternehmen. Dies stellt die Assekuranz vor enorme Herausforderungen, da sie oft noch eher produktorientiert als kundenzentriert agiert. Der vorliegende Symposiumsband fasst die Kernaussagen der Fachvorträge des 20. Kölner Versicherungssymposiums zusammen. Es werden Ansätze von Versicherungsunternehmen vorgestellt, die sich schon heute darum bemühen, Kundenorientierung zu verbessern und positive Kundenerlebnisse zu ermöglichen.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.