Refine
Year of publication
Document Type
- Working Paper (86)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (161)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (217)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
- Research Report (8)
- Rückversicherung (8)
- Versicherungswissenschaft (8)
- Digitalisierung (7)
- Institut für Versicherungswesen (7)
- Resilienz (7)
- Schadenversicherung (7)
- Solvency II (7)
- Hochschule (6)
- Hochschulentwicklung (6)
- Hochschulforschung (6)
- Simulation (6)
- Barwert (5)
- Benchmarking (5)
- Bewertete Markov-Kette (5)
- Embedded Value (5)
- Evolutionärer Algorithmus (5)
- Forschungsstelle Versicherungsmarkt (5)
- Globale Optimierung (5)
- Markov-Ketten (5)
- Risiko (5)
- Technische Informatik (5)
- Versicherungsrecht (5)
- Altersversorgung (4)
- Baudenkmal (4)
- Big Data (4)
- Disaster Risk Reduction (4)
- Forschungsstelle FaRis (4)
- Hochschulbildung (4)
- Hochschullehre (4)
- Kapitalanlage (4)
- Künstliche Intelligenz (4)
- Lebensversicherung (4)
- Lehrentwicklung (4)
- Markov-Kette (4)
- Maschinelles Lernen (4)
- Metaheuristik (4)
- Modeling (4)
- Resilience (4)
- Soziale Software (4)
- Verwundbarkeit (4)
- Wirtschaftswissenschaften (4)
- insurance (4)
- Architektur (3)
- Architekturgeschichte (3)
- Betriebliche Altersversorgung (3)
- Computational Intelligence (3)
- Digitale Lehre (3)
- E-Learning (3)
- Extreme Events (3)
- Forschendes Lernen (3)
- Forschungsstelle Versicherungsrecht (3)
- Genetic Programming (3)
- Genetisches Programmieren (3)
- Hybride Lehre (3)
- Interne Modelle (3)
- Kraftfahrtversicherung (3)
- Kriging (3)
- Krisenmanagement (3)
- Köln (3)
- Lehre (3)
- Marketing (3)
- Markov Chain (3)
- Mehrkriterielle Optimierung (3)
- Natural Hazards (3)
- Naturgefahr (3)
- Required Capital (3)
- Risk Management (3)
- Sequential Parameter Optimization (3)
- Sequentielle Parameter Optimierung (3)
- Standardformel (3)
- Surrogate (3)
- Surrogate Models (3)
- Versicherungsbranche (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Versicherungswesen (3)
- Versuchsplanung (3)
- Vulnerability (3)
- Zivilschutz (3)
- 3D Printing (2)
- Anpassung (2)
- Asset-Liability-Management (2)
- Bayesian Optimization (2)
- Bergisch Gladbach (2)
- Bevölkerungsschutz (2)
- COVID-19 (2)
- Charakteristische Funktion (2)
- Climate Change Adaptation (2)
- Co-Kriging (2)
- Combined simulation (2)
- Denkmalpflege (2)
- Design (2)
- Design of Experiments (2)
- Deutsche Aktuarvereinigung (2)
- Didaktik (2)
- Direktversicherung (2)
- Economic Value Added (2)
- Ensemble Methods (2)
- Entdeckendes Lernen (2)
- Ereignisdefinition (2)
- Event Detection (2)
- Evolutionary Algorithms (2)
- Evolutionary Computation (2)
- Evolutionsstrategie (2)
- Evolutionäre Algorithmen (2)
- FaRis (2)
- Farbmittel (2)
- Feldafinger Brandkasse (2)
- Finanzmathematik (2)
- Forschungsschwerpunkt Rückversicherung (2)
- Gaussian Process (2)
- Gefahrenabwehr (2)
- Genetische Algorithmen (2)
- Geschichte (2)
- Hochschulprofile (2)
- Hochwasser (2)
- Holbein, Hans, 1460-1524 (2)
- IVW Köln (2)
- Imputation (2)
- Kapitalmarkt (2)
- Katastrophe (2)
- Katastrophenschutz (2)
- Klimawandelanpassung (2)
- Klimaänderung (2)
- Kollektive Sparprozesse (2)
- Kölner Forschungsstelle Rückversicherung (2)
- Langlebigkeitsrisiko (2)
- Lehramt (2)
- Lehrevaluation (2)
- Lernende Hochschule (2)
- MCEV (2)
- Machine Learning (2)
- Maltechnik (2)
- Markowitz Optimierung (2)
- Metamodel (2)
- Mikroökonomie (2)
- Moderne (2)
- Motivation (2)
- Multi-Criteria Optimization (2)
- Multiobjective Optimization (2)
- Nachkriegsmoderne (2)
- Online-Sozialisation (2)
- Onlineversicherung (2)
- Optimierungsproblem (2)
- Papierfabrik J. W. Zanders (2)
- Parallelization (2)
- Performanceoptimierung (2)
- Priced Markov Chain (2)
- Produktionstheorie (2)
- Prognose (2)
- R (2)
- Regression (2)
- Reinforcement Learning (2)
- Reinsurance (2)
- Risikobehaftete Zahlungsströme (2)
- Scholarship of Teaching and Learning (2)
- Sozialmanagement (2)
- Surrogat-Modellierung (2)
- Surrogate Modeling (2)
- Surrogate-based (2)
- Taxonomie (2)
- Taxonomy (2)
- Telematik (2)
- Test Function (2)
- Unterzeichnung (2)
- Value at Risk (2)
- Versicherungsmarkt (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- Wissensmanagement (2)
- Zeitreihenanalyse (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- 3D-Druck (1)
- Aachen (1)
- Abbruch (1)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Adaptive Schrittweite (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- Aktivierung (1)
- Aktuare (1)
- Algorithm Tuning (1)
- Algorithmus (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Angewandte Mathematik (1)
- Architekt (1)
- Architektur <Informatik> (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Ausbildung (1)
- Ausgleichsverfahren (1)
- Authentizität (1)
- Automated Driving (1)
- Automated Learning (1)
- Automation (1)
- Automatisiertes Fahren (1)
- Autowerkstätten (1)
- Auxiliaries (1)
- BBOB (1)
- BLANK (1)
- Backtesting (1)
- Bacteria (1)
- Bakterien (1)
- Bartholomäuskapelle (1)
- Basis-Infrastrukturen und Services (1)
- Basisrisiko (1)
- Bauaufnahme (1)
- Bauen im Bestand (1)
- Bauforschung (1)
- Baugeschichte (1)
- Bayesian Learning (1)
- Bayesian Regression (1)
- Behrens, Peter (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Berichtspflichten (1)
- Berlin (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big data platform (1)
- BigWa (1)
- Bildungsforschung (1)
- Bildungsgut (1)
- Bildungsstandard (1)
- Binomialmodell (1)
- Biogas (1)
- Biogas Plant (1)
- Biometrie (1)
- Biotechnologie (1)
- Biotechnology (1)
- Blended Learning (1)
- Board Games (1)
- Brazil (1)
- Brutalismus (1)
- Business Case Innovation (1)
- Business Intelligence (1)
- CAN-Bus (1)
- Cairns-Blake-Dowd Modell (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Cashflow (1)
- Cashflow-Matching (1)
- Ccomputational fluid dynamics (1)
- Central limit theorem (1)
- Check24 (1)
- Civil Protection (1)
- Coaching (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Computational fluid dynamics (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Copula (1)
- Curriculumentwicklung (1)
- Curriculumevaluation (1)
- Customer Journey (1)
- Customized Distribution (1)
- Cyber-physische Produktionssysteme (1)
- Cyclone Dust Separator (1)
- Cyclotron Sensor Data (1)
- DA-Direkt (1)
- DAX (1)
- Data Analysis (1)
- Data Mining (1)
- Data Modelling (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Datenschutz (1)
- Decision tree (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Digitale Gruppenarbeit (1)
- Digitale Kompetenz (1)
- Digitale Medien (1)
- Digitales Zeitalter (1)
- Disaster Relief Forces (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Diversifikation (1)
- Diversity (1)
- Diversity Management (1)
- Dritte Säule (1)
- Dye (1)
- E-Book (1)
- Economic Scenario Generator (1)
- Effizienz einer Rückversicherungslösung (1)
- Einsatzkräfte (1)
- Electrostatic Precipitator (1)
- Emotionen (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Ensemble based modeling (1)
- Enterprise 2.0 (1)
- Entrepreneurship (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Entstauber (1)
- Entwurf (1)
- Erfahrungsbericht (1)
- Erfahrungsberichte (1)
- Ermöglichen (1)
- Erneuerbare Energien (1)
- Evaluation (1)
- Evidenzbasierung (1)
- Evolution Strategies (1)
- Evolutionary Robotics (1)
- Evolutionsstrategien (1)
- Expected Improvement (1)
- Expensive Optimization (1)
- Experiment (1)
- Experimental Algorithmics (1)
- FH Köln (1)
- FPGA ML (1)
- Fachhochschule (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faktorinvestments (1)
- Faserverbundwerkstoffe (1)
- Feature selection (1)
- Fehlende Daten (1)
- Fehlerbaum Analyse (1)
- Fernunterricht (1)
- Finanzwirtschaft (1)
- Flood (1)
- Flowcurve (1)
- Flushing (1)
- Flut 2021 (1)
- Flüchtlingssituation 2015/2016 (1)
- Forschungsformate (1)
- Forschungsstelle (1)
- Fotografie (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Freikirchliche Johanneskirche (Bochum) (1)
- Frequency Severity Model (1)
- Fréchet-Hoeffding-Bounds (1)
- Fréchet-Hoeffding-Schranken (1)
- Function Approximation (1)
- Funktionstest (1)
- Färben (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- Gemischtes Lehrformat (1)
- Genetic Algorithms (1)
- Genetic programming (1)
- Genetische Programmierung (1)
- Geografie (1)
- Geometrie (1)
- Gesellschaft (1)
- Gesellschaftlicher Wandel (1)
- Gestaltung (1)
- Gewölbe (1)
- Glaspartikel (1)
- Glaspulver (1)
- Gründungskultur (1)
- HUK24 (1)
- Hans Scharoun (1)
- Health condition monitoring (1)
- Helfer (1)
- Heston Model (1)
- Heuristics (1)
- Hochschulbau (1)
- Hochschulbildungsforschung (1)
- Hochschuldidaktische Forschung (1)
- Hochschulkommunikation (1)
- Hochschulplanung (1)
- Hochschulprofil (1)
- Hochschulsystem (1)
- Hochwasser 2021 (1)
- Holbein, Hans (1)
- Hot rolling (1)
- Hybrides Lehren und Lernen (1)
- Hängekuppeln (1)
- INCOR (1)
- IT Architektur (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationskompetenz (1)
- Informationsverhalten (1)
- Informationsvermittlung (1)
- Ingenieurstudium (1)
- Innenarchitektur (1)
- Innenraum (1)
- Innerinstitutionelle Forschung (1)
- Innovation (1)
- Innovationsakzeptanz (1)
- Innovative Geschäftsmodelle (1)
- Instagram (1)
- Institute for Insurance Studies (1)
- InsurTechs (1)
- Insurance Linked Securities (ILS) (1)
- Integriertes Lernen (1)
- Intergene (1)
- Internes Modell (1)
- Johannes-Kirche (1)
- Jugendstil (1)
- KI (1)
- Kapelle (1)
- Kapitalanlagerisiko (1)
- Kapitalmarktrisiken (1)
- Katastrophenereignis (1)
- Katastrophenmodellierung (1)
- Katastrophenrisikomanagement (1)
- Kfz-Versicherung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge extraction (1)
- Kognition (1)
- Kognitive Referenzarchitektur (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompetenzentwicklung (1)
- Kompression (1)
- Konstruktionsgeschichte (1)
- Konstruktivismus (1)
- Konsumenteninformation (1)
- Korrelation (1)
- Korrelationsmatrix (1)
- Krankenversicherung (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenerfahrungen (1)
- Kundenorientierung (1)
- Kundenverhalten (1)
- Kunst am Bau (1)
- Kunstgewerbeschule (1)
- Kurzpräsentation (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Lehr- und Lernkonzepte (1)
- Lehr-/Lernforschung (1)
- Lehr-/Lernkonzepte (1)
- Lehrformate (1)
- Lehrinterventionen (1)
- Lehrkompetenzentwicklung (1)
- Lehrkultur (1)
- Lehrplanentwicklung (1)
- Lehrszenarien (1)
- Lehrveranstaltung (1)
- Lernende Organisation (1)
- Lernkultur (1)
- Lernmotivation (1)
- Lessons learned (1)
- Lichtmessung (1)
- Lifetime Prediction (1)
- Lineare Regression (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Machine learning (1)
- Maklerwordings (1)
- Man-Made-Katastrophen (1)
- Marktanteile (1)
- Massendaten (1)
- Massive Online Analysis (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metaheuristics (1)
- Metal (1)
- Metamodell (1)
- Metamodels (1)
- Methode von Heligman-Pollard (1)
- Mies van der Rohe, Ludwig (1)
- Missing Data (1)
- Missing Data Imputation (1)
- Mixed Models (1)
- Mixed-Effects Models (1)
- Mixed-Methods-Ansatz (1)
- Mobilitäts-Ökosysteme (1)
- Mode (1)
- Model Calibration (1)
- Model Selection (1)
- Modelierung (1)
- Modell (1)
- Modelling (1)
- Modellkalibrierung (1)
- Modelllernen (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Motor Insurance (1)
- Movementanalyse (1)
- Multi-Agent Systems (1)
- Multi-criteria Optimization (1)
- Multi-fidelity (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Museum (1)
- N-tuple Systems (1)
- Nachhaltigkeit (1)
- Nat Cat (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Naturkatastrophen (1)
- Net Promoter Score (1)
- Netzwerk (1)
- Netzwerkberatung (1)
- Netzwerke (1)
- Neue Medien (1)
- Neural Network (1)
- Neural Networks (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Notrufsystem (1)
- Numerische Strömungssimulation (1)
- Offenheit (1)
- On-line Algorithm (1)
- Online Adaptation (1)
- Online Information Review (1)
- Online-Portal (1)
- Open RAN (1)
- Optische Zeichenerkennung (1)
- Ordnungspolitik (1)
- Organisationsentwicklung (1)
- PID Control (1)
- Paderborn (1)
- Pandemie (1)
- Pandemien (1)
- Pannendienst (1)
- Papierfabrik (1)
- Parallelisierung (1)
- Parameter Tuning (1)
- Parametertuning (1)
- Peer-Feedback (1)
- Pensionskasse (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Personenversicherungsmathematik (1)
- Pflegeversicherung (1)
- Planimetrische Komposition (1)
- Plywise Analysis (1)
- Praxis (1)
- Predictive Analytics (1)
- Present Value (1)
- Produktentwicklung (1)
- Produktentwicklungsprozess (1)
- Profilbildung (1)
- Prokrastination (1)
- Promotion (1)
- Proportion (1)
- Prozesse (1)
- Prägeschrifterkennung (1)
- Prämienrisiko (1)
- Prüfungsdaten (1)
- Qualität in Lehre und Studium (1)
- Qualitätsbegriff (1)
- Qualitätsentwicklung (1)
- Qualitätskultur (1)
- Quantitatives Risikomanagement (1)
- REST-konforme Web Services (1)
- RFID (1)
- Raderthal (1)
- Railroad Network (1)
- Rathaus (1)
- Referenzmodell (1)
- Reflexion (1)
- Reform (1)
- Regulierung (1)
- Reifegradmodell (1)
- Rendite (1)
- Rettungsingenieurwesen (1)
- Rettungskostenersatz (1)
- Return on Risk Adjusted Capital (1)
- Rezeptionsästhetik (1)
- Rezeptionsästhetische Praxis (1)
- Risiko , Risikomanagement , Krisenmanagement , Gefahrenabwehr (1)
- Risiko-Rendite-Profile (1)
- Risikoaggregation (1)
- Risikobudgetierung (1)
- Risikomanagement technischer Systeme (1)
- Risikomaß (1)
- Risikoneutrale Bewertung (1)
- Risikosteuerung (1)
- Risk & Rescue GIS-Lab (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Romanik (1)
- Rundfunk (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- SOTL (1)
- SPOT (1)
- Schadenmodellierung (1)
- Selbstbestimmungstheorie (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Sendegebäude (1)
- Sensor placement (1)
- Sensortechnik (1)
- Signalanalyse (1)
- Silberstift (1)
- Simulated annealing (1)
- Simulation-based Optimization (1)
- Simulationsmodell (1)
- Social Learning (1)
- Social Media (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Social-Media-Kommunikation (1)
- Software (1)
- Soziale Medien (1)
- Sozialer Wandel (1)
- Sozialraum (1)
- Spülen (1)
- Stacked Generalization (1)
- Stacking (1)
- Standardisierung (1)
- Starkregen (1)
- Statistics (1)
- Statistik (1)
- Statistische Versuchsplanung (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Strategie (1)
- Structural Health Monitoring (1)
- Studiengangsentwicklung (1)
- Studierendenaktivierung (1)
- Superficial Images (1)
- Supervision (1)
- Surrogate Mod (1)
- Surrogate Model (1)
- Surrogate Optimization (1)
- Surrogate model (1)
- Surrogate model based optimization (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogates (1)
- Surrogatmodellbasierte Optimierung (1)
- Sustainability (1)
- Synagoge (1)
- System Identification (1)
- Systemarchitektur für verteilte (1)
- Systemidentifikation (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Teamteaching (1)
- Technische Hochschule Köln (1)
- Technische Versicherung (1)
- Telematics Data (1)
- Telematiktarife (1)
- Temporal Difference Learning (TDL) (1)
- Test function generator (1)
- Testgröße (1)
- Textiles (1)
- Time Series (1)
- Time-series (1)
- Traffic Density Classification (1)
- Transparenz (1)
- Trinkwasser (1)
- Trinkwasserversorgung (1)
- Umfrage (1)
- Umnutzung (1)
- Univariate Data (1)
- Unsicherheit (1)
- Unternehmensgründung (1)
- Unternehmensplanung (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Unterrichtsplanung (1)
- Unterrichtssimulation (1)
- Value-Based-Management (1)
- Variable reduction (1)
- Varianzanalyse (1)
- Verantwortung (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Verbraucherzufriedenheit (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versciherungsmathematik (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versorgungsstruktur (1)
- Verteilungsanpassung (1)
- Verunreinigung (1)
- Vielfalt (1)
- Volkswirtschaftslehre (1)
- Vorbild (1)
- Vorgehensmodell (1)
- Vorverarbeitung (1)
- WSDL (1)
- Wahrnehmung (1)
- Walther Ruoff (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wasserverteilung (1)
- Wasserwirtschaft (1)
- Water Distribution Systems (1)
- Water Quality Monitoring (1)
- Water distribution systems (1)
- Web Services (1)
- Wert (1)
- Wertarchitektur (1)
- Werte (1)
- Wertethik (1)
- Wertorientierte Steuerung (1)
- Wertschätzung (1)
- Wiki (1)
- Wissen (1)
- Wissenschaftspraxis (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Word-of-Mouth (1)
- Workloaderhebung (1)
- World Wide Web 2.0 (1)
- Zeitreihe (1)
- Zentraler Grenzwertsatz (1)
- Zielrente (1)
- Zins (1)
- Zinsgarantien (1)
- Zinsmodelle (1)
- Zufriedenheit (1)
- Zusammengesetzte Poisson-Verteilung (1)
- Zuverlässige eingebettete Systeme (1)
- Zylon Enstauber (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- bottlenecks (1)
- charakteristische Funktion (1)
- classification (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- eCall (1)
- economic assessment (1)
- ecosystem services (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- faris (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- mobile Anwendungen (1)
- model-assisted optimization (1)
- modellbasierte Optimierung (1)
- opportunity costs (1)
- regression (1)
- reinsurance (1)
- reinsurance programs (1)
- scholarship of academic development (1)
- scholarship of teaching and learning (1)
- social media maturity model (1)
- social media strategy (1)
- studentisches Lernen (1)
- team teaching (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- vorvertragliche Anzeigepflicht (1)
- water resources (1)
- watershed protection (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Ökosystem-Dienstleistungen (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- Übersetzen (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (77)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
When using machine learning techniques for learning a function approximation from given data it is often a difficult task to select the right modeling technique.
In many real-world settings is no preliminary knowledge about the objective function available. Then it might be beneficial if the algorithm could learn all models by itself and select the model that suits best to the problem.
This approach is known as automated model selection. In this work we propose a
generalization of this approach.
It combines the predictions of several into one more accurate ensemble surrogate model. This approach is studied in a fundamental way, by first evaluating minimalistic ensembles of only two surrogate models in detail and then proceeding to ensembles with three and more surrogate models.
The results show to what extent combinations of models can perform better than single surrogate models and provides insights into the scalability and robustness of the approach. The study focuses on multi-modal functions topologies, which are important in surrogate-assisted global optimization.
This paper introduces UniFIeD, a new data preprocessing method for time series. UniFIeD can cope with large intervals of missing data. A scalable test function generator, which allows the simulation of time series with different gap sizes, is presented additionally. An experimental study demonstrates that (i) UniFIeD shows a significant better performance than simple imputation methods and (ii) UniFIeD is able to handle situations, where advanced imputation methods fail. The results are independent from the underlying error measurements.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht den einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparvermögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In der hier vorliegenden Arbeit untersuchen wir zeit-diskrete Versionen des Modells, die wir mit Hilfe von Monte-Carlo-Simulationen auswerten. Hierbei berechnen wir verschiedenen Rendite-Risiko-Profile des kollektiven Sparens und vergleichen diese mit entsprechenden Profilen für nicht-kollektive Anlagestrategien (Constant-Mix-, Buy-and- Hold- und CPPI-Strategien). Der Vergleich zeigt einen klaren komparativen Vorteil des kollektiven Sparens.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Collective Defined Contribution Plans – Backtesting Based on German Capital Market Data 1950 - 2022
(2022)
Using historical capital market data for Germany (1950-2022) we analyze and compare (individual) defined contribution (IDC-) and collective defined contribution (CDC) pension plans. To this end we define simple asset liability management rules that govern a CDC pension plan and compare these to IDC-plans with the same asset allovation. Our main result is, that the CDC pension plans allow for a significant improvement of the risk return profile compared to individual pension plans. Hereby we consider different risk measures. This empirical study affirms the theoretical results based on stochastic CDC-models.
Resilienz bezeichnet die Fähigkeit eines Systems nach einem exogenen Schock wieder in den Normalzustand zurück zu kehren. Wenn beispielsweise durch eine Katastrophe die Wasserversorgung der Bevölkerung nicht mehr gewährleistet ist, so geht es nicht um die Frage, was die Wiederherstellung der Versorgung kostet, sondern mit welchen Maßnahmen die Wiederherstellung überhaupt möglich ist. Eine Versorgungsstruktur ist also so zu gestalten, dass im Vorfeld schon klar ist, wie sie im Katastrophenfall wieder hergestellt werden kann. Bezogen auf ein Wirtschaftsunternehmen ist die Frage nach der Resilienz eine Erweiterung des klassischen Risikomanagements. Das 11. FaRis & DAV-Symposium bot einen Einblick in die Resilienzanalyse beim Katastrophenschutz, zeigte wie ein Resilienz-Management für ein Wirtschaftsunternehmen aussehen kann und schließlich wurde das Resilienz-Konzept auf Fragen der Versicherungsaufsicht übertragen.
Die Forschungsstelle finanzielles & aktuarielles Risikomanagement (FaRis) organisiert Anfang Juni und Dezember eines Jahres gemeinsam mit der Deutschen Aktuarvereinigung (DAV) gemeinsame Symposien zu relevanten aktuariellen Themen. Wegen des Weltkongresses der Aktuare vom 4. bis zum 8. Juni in Berlin wurde das üblicherweise zeitgleich stattfindende FaRis & DAV Symposium als „FaRis at ICA“ veranstaltet – im Sinne einer Zusammenfassung aller Kongressbeiträge von FaRis-Mitgliedern als Überblick für die in FaRis abgedeckten Forschungsgebiete. Die Kurzversionen dieser Beiträge sind in diesem Tagungsband zusammengestellt. Der nur alle vier Jahre stattfindende Weltkongress der Aktuare ist der bedeutsamste Kongress zu allen aktuariellen Fragestellungen. Mit etwa 2.700 nationalen und internationalen Teilnehmern war der ICA 2018 in Berlin der teilnehmerstärkste Kongress seit dem ersten Weltkongress 1895 in Brüssel.
Mit einem Anlagevolumen von rund 872 Mrd. €1 sind die deutschen Lebensversicherer mit Abstand die wichtigsten institutionellen Kapitalanleger für die Altersvorsorge. Sie stehen vor der Herausforderung, das Geld ihrer Kunden rentabel und zugleich sicher am Kapitalmarkt anzulegen. Derzeit bietet eine Neuanlage in Staatspapiere höchster Bonität eine Rendite, die kaum ausreicht die Preissteigerung auszugleichen und teilweise deutlich niedriger ist als der Bestand- Rechnungszins. Das Geschäftsmodell der klassischen Lebensversicherung mit den Jahrzehnte- umspannenden Zinsgarantien steht zur Disposition: Niedrigzinsphase und der Übergang einem zum kapitalmarktorientierten Aufsichtsmodell (Solvency 2) zwingen die Lebensversicherer über Alternativen nachzudenken. Beim 2. FaRis & DAV-Symposium wurde das Thema „Alternative Zinsgarantien in der Lebensversicherung“ von verschiedenen Seiten beleuchtet. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
Modell und Wirklichkeit. Proceedings zum 5. FaRis & DAV Symposium am 6. Dezember 2013 in Köln
(2014)
Das 5. FaRis & DAV Symposium stand unter dem Leitthema „Modell und Wirklich-keit“. Modelle sind zweckorientierte Verdichtungen der Wirklichkeit. Aktuare können nicht die Zukunft vorausberechnen, sie versuchen aber mit Hilfe von Modellen abzuschätzen, was alles in der Zukunft passieren kann. Sie sind darin scheinbar sehr erfolgreich, denn die Versicherungsgesellschaften haben bisher „den Stürmen der Zeit“ erfolgreich widerstanden und haben den Menschen Ver- sicherungsschutz gewährt. Schaut man allerdings auf die Finanzmärkte – sie sind Teil der ökonomischen Wirklichkeit – so lehrt die jüngere Vergangenheit, dass die Realität sich nicht an die Modelle gehalten hat. Da die Finanzmärkte die Versicherungswirtschaft immer stärker durchdringen, können künftig unvollstän- dige oder falsche Modelle die Stabilität der Versicherungswirtschaft gefährden. Modelle prägen jedoch auch die Wahrnehmung der Wirklichkeit und beeinflussen daher die Wirklichkeit. So hat die Modellwelt des Solvency II-Systems massiven Einfluss auf das Produktangebot der Versicherungsunter-nehmen, nicht immer zum Vorteil der Versicherungsnehmer. Das Symposium sollte kritisch hinterfragen, (1) inwieweit unsere aktuariellen „Modellwelten“ noch ihren Zweck erfüllen, (2) wo die grundsätzlichen Grenzen der Modellbildung liegen, (3) in welche Richtung wir unsere Modelle überdenken müssen und (4) welche alternativen Ansätze zur Verfügung stehen.
Das Rathaus Rodenkirchen im Kölner Süden wurde 1967 nach einem Entwurf des Kölner Architekten Walther Ruoff (1914-1991) erbaut. Er war 1962 als Gewinner aus einem Wettbewerb für ein neues repräsentatves Rathaus der damals eigenständigen Gemeinde hervorgegangen. Es steht bis zuletzt als bauliches Zeugnis von Wachstum und Selbstbewusstsein in der Architektursprache des Brutalismus. 2005 wurde nach langen Debatten der Abriss des Hauses beschlossen. Die Publikation beschäftigt sich mit der Architektur und Bauidee des Rathauses, wie auch mit der Rezeptionsgeschichte, die letztendlich zum bedauerlichen Abbruch führte.
Bewertungsportale, in denen man seine Meinung zu Gütern oder Dienstleistungen äußern kann, sind seit einiger Zeit bekannt und verbreitet. Kann durch sie die Nachfrageseite eine neue, informationsgestützte Machtposition erlangen? Ein Projektteam des Instituts für Versicherungswesen an der TH Köln (ivwKöln) hat sich dieser Frage gewidmet und zunächst kontrastierende Hypothesen aus der Gegenüberstellung des informationsökonomischen und des diffusionstheoretischen Ansatzes entwickelt. Eine Hypothesengruppe bezog sich auf die Frage, von welchen Faktoren die Nachfrage und Wertschätzung von Bewertungsportalen abhängig ist, eine andere unterstellte, dass globale Produkteigenschaften auf der Dimension Such-, Erfahrungs-, Vertrauenseigenschaften sich auf die Nutzung von Portalen auswirkten. Untersucht wurden deshalb sehr unterschiedliche Portale, für Kleidung, Restaurants, Ärzte und Versicherungen. Empirische Grundlage war eine online-gestützte Befragung mit einem Convenience-Sample von 114 Befragten. Neben Studierenden des ivwKöln wurden Angestellte und Personen im Rentenalter zur Teilnahme motiviert, um eine breite Altersstreuung zu erreichen. Die Ergebnisse zur ersten Hypothesengruppe sprechen eindeutig für den diffusionstheoretischen Ansatz. Bei den beiden analysierbaren Portalen (Restaurants und Ärzte) ergibt sich: Entscheidende Faktoren für den Besuch von Restaurantportalen sind Internetaffinität, Alter, Produktinvolvement und Meinungsführerschaft; für den Besuch von Ärzteportalen sind es Internetaffinität und Produktinvolvement. Damit ist auch klar, dass sich die Machtposition der Nachfrager durch die Nutzung von Portalen allenfalls selektiv verstärkt. Die zweite Hypothese, dass Portalnutzung auch von globalen Produkteigenschaften abhängig sei, ließ sich nicht bestätigen.
Am speziellen Fall der Studierenden des Instituts für Versicherungswesen an der Fachhochschule Köln wurde untersucht, wie das Medium E-Book eingeschätzt wird. Die empirische Untersuchung sollte im Wesentlichen die folgende Fragestellung beantworten: Welche Merkmale von E-Book und gedrucktem Buch bestimmen die Ein- stellung der Studierenden zu ihnen? Dabei griff das Projektteam zunächst auf die von K. Messner u.a. vorgeschlagene Skala zur Einstellung gegenüber E-Books zurück (Book Lovers, Technophiles, Printers, and Pragmatists: The Social and Demographic Structure of User Attitudes Toware e-Books, in: College and research libraries, 2012, Nr. 5, Jg. 73, S. 420 ff.). Für die Erhebung wählte das Projektteam die Methode einer Online-Befragung, die sich an aktuell Studierende und ehemalige Studierende des Instituts richtete. Die Befragung folgt einem standardisierten Ansatz und konnte auf 189 verwertbare Fragebögen zurückgreifen. Untersucht wurde der Einfluss folgender Faktoren: Alter, Geschlecht, Vorerfahrung mit digitalen Texten, Internetaffinität und grund-legende Einstellung zur Digitalisierung der Lebensbereiche. Mehrere Regressions- und Pfadanalyse-Ansätze ergaben: Die beiden stärksten Einflussfaktoren waren Vorerfahrung mit digitalen Texten und Internetaffinität; von Geschlecht ging nur eine indirekte Wirkung über Internetaffinität aus. Alter spielte keine Rolle, und auch für die grundlegende Einstellung zur Digitalisierung der Lebensbereiche konnte kein Zusammenhang zur Präferenz von E-Books aufgewiesen werden.
Der Beitrag behandelt ein zum Teil im nationalsozialistischen ductus gehaltenes Urteil des Reichsgerichts zur sog. „Führerscheinklausel“ in der Kraftfahrtversicherung aus dem Jahre 1941. Hintergrund dieses Urteil war eine verbrecherische „Anordnung“ von Heinrich Himmler, welche jüdischen Deutschen das Fahren von Kraftfahrzeugen verbot.
Der Verfasser kam auf dieses Urteil, als er im Archiv der BGH-Bibliothek die unveröffentlichten Urteile des Versicherungssenates des Reichsgerichtes zwischen 1939 bis 1945 durcharbeitete. Im Bundesarchiv konnte der Autor sodann die Gerichtsakte einsehen und ferner die Personalakten der entscheidenden Reichsgerichtsräte. Der Verfasser geht auch auf das Schicksal des später im Rahmen der Schoa ermordeten jüdischen Fahrers ein.
Dieses Urteil des Versicherungssenates belegt anschaulich, insbesondere unter Berücksichtigung der erfolgten Auswertung auch seiner übrigen Rechtsprechung, wie im Bereich des Zivilrechtes die Gerichte ihre Rechtsprechung auch nach der „Machtergreifung“ scheinbar normal weiterführten, teilweise auch Klage von Juden stattgaben und auch sind beim Versicherungssenat des Reichsgerichtet direkte politische Enflussnahmen nicht zu belegen. Aber wie die Auswertung des Verfassers rund um das „Führerscheinurteil“ belegt, war dies auch nicht notwendig, da denn Richter bewusst gewesen sein dürfte, wie sie einerseits formaljuristisch „richtig“ entscheiden, anderseits sich gegenüber den nationalsozialistischen Machthabers nicht angreifbar machen.
Der MCEV stellt nicht nur in der Lebensversicherung, sondern auch in der Schadenversicherung einen alternativen Ansatz dar, um den ökonomischen Wert eines Unternehmens zu ermitteln. Dabei ist die Ermittlung des MCEV in der Schaden-versicherung durchaus weniger komplex als in der Lebensversicherung, da das Phänomen der Stochastik in der Stochastik i. d. R. nicht auftritt. In dieser Arbeit ist für die Schadenversicherung ein vereinfachtes Formelwerk für den MCEV ohne Renewals dargestellt, mit dem die wichtigsten Auswirkungen des Embedded Values in der Scha-denversicherung getestet werden kann.
Die Solvency II Standardformel erlaubt zusätzlich zum Ansatz einer Verlust- absorbierung durch Rückstellungen auch den Ansatz einer Verlustabsorbierung durch latente Steuern. Die Verlustabsorbierung durch latente Steuern hängt davon ab, wie werthaltig aktivierte latente Steuern in einer Marktwertbilanz für einen vordefinierten Verlustfall sind. Hier gibt die Standardformel keine klaren Vorgaben, sondern verlangt für den Ansatz einer Verlustabsorbierung und damit einhergehend einer Minderung des Solvenzkapitalbedarfs eine Einschätzung der Werthaltigkeit aktivierter latenter Steuern.
Mit Hilfe von internen Modellen kann man in der Schadenversicherung das Risiko / Rendite Profil einer Neugeschäftsstrategie bewerten und Entscheidungen daraus ableiten. Dabei kann man i. d. R. nur einzelne Strategien miteinander vergleichen, aber kein allgemein gültiges Optimum herleiten. Unter bestimmten Voraussetzungen ist es allerdings möglich, für das (Brutto) Neugeschäft auch geschlossene Lösungen für diese Fragestellung zu finden. Selbst wenn diese Voraussetzungen in der Reinform meistens kaum vorliegen, ergeben sich doch aus diesem Ansatz einige interessante Implikationen für die Unternehmenssteuerung. Insbesondere können solche Ansätze dafür verwendet werden, bessere „Startwerte“ zu finden, die dann mit internen Modellen getestet werden können.
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
In zwei vorangegangen Arbeiten wurde an Hand des durchgängigen Datenmodells der IVW Privat AG die Standardformel und deren wichtigsten Anwendungen diskutiert. In dieser Ausarbeitung wird ergänzend dazu die Konzeption eines internen Modells auf Basis dieses Datenmodells erläutert und die Ergebnisse denjenigen aus den Berechnungen des Standardmodells gegenübergestellt.
Nicht nur seit den jüngsten Flutereignissen ist das Thema „Naturkatastrophen“ bekanntlich in aller Munde. Auch jüngere Mitmenschen haben inzwischen schon relativ häufig sogenannte „Jahrhundert-Fluten“ erlebt. Ob es sich dabei wirklich um Auswirkungen eines weltweiten Klimawandels handelt, ist unter rein wissenschaftlichen Gesichtspunkten über die relativ kurzen Beobachtungszeiträume schwer beweisbar. Fakt ist allerdings, dass Elementarereignisse sich kaum noch in unberührten Gegenden ereignen, so dass die Schadenaufwendungen im Vergleich zur Vergangenheit angestiegen sind. Hier stellt sich also in jedem Fall die Frage nach der generellen Versicherbarkeit. Aber es gibt noch andere Katastrophenereignisse, die die Versicherungsindustrie treffen können.
Mit dem Konzept des „Embedded Values“ soll der Langfristigkeit von Lebensversicherungsverträgen Rechnung getragen werden, wobei in der operativen Anwendung erste Schwachstellen des Konzeptes ersichtlich geworden sind. In der Schadenversicherung ist dieses Konzept im Rahmen der Risikosteuerung derzeit noch nicht etabliert, findet aber bereits im Rahmen der integrierten Gesamtsteuerung auf Gruppenebene erste Anwendung. Insofern ist es konsequent, zumindest im Hinblick auf mittelfristige Entwicklungsperspektiven den MCEV auch bei der wertorientierten Unternehmenssteuerung in der Nichtlebensversicherung in Betracht zu ziehen. Dadurch gibt sich im Hinblick auf die Risikosteuerung auf Gruppenebene ein insgesamt stimmiges Bild, das aber durchaus kritisch zu hinterfragen ist.
Für eine angemessene Modellierung von Nat Cat Risiken (beispielsweise im Zusammenhang mit einer Rückversicherungsoptimierung) verwendet man üblicherweise Event Loss Tabellen, die von professionellen externen Anbietern mit regelmäßigen Aktualisierungen zur Verfügung gestellt werden. Diese Modelle sind i. d. R. sehr kostspielig, so dass sie oft nur von Rückversicherern oder Rückversicherungsmaklern für die Anwendung auf die eigenen Kundenportfolios lizenziert werden. Alternativ dazu kann mit öffentlich verfügbaren Informationen eine (wenn auch im Vergleich zu professionellen externen Modellen) vereinfachte Nat Cat Modellierung durchgeführt werden, die Erkenntnisse für eine Rückversicherungsoptimierung ermöglicht.
Für Schadenreserven existieren keine hinreichend fungiblen Märkte und somit auch keine Marktpreise im klassischen Sinn. Für eine Fair Value Bewertung bedarf es also eines geeigneten Modellansatzes. In der Schadenversicherung wird üblicher- weise der Transaktionswert modelliert, wobei hier die korrekte Modellierung der Kapitalkosten einer der zentralen Punkte ist. Der Fair Value der zedierten Reserven kann als Differenz zwischen dem Fair Value der Bruttoreserven und dem Fair Value der Nettoreserven angesetzt werden. Dieser Ansatz berücksichtigt allerdings nicht das Bonitätsrisiko des Rückversicherers. Eine adäquate Anpassung des Bewertungsmodells ist demnach erforderlich.
Interne Modelle in der Schadenversicherung gehen üblicherweise vom ökonomischen Kapital nach einem Jahr als zugrunde gelegter stochastischer Zielfunktion aus. Dieses basiert auf der sofortigen Realisation aller Aktiva und Passiva zu Marktpreisen, was nicht immer eine realistische Hypothese darstellt. Beim Embedded Value (der in der Schadenversicherung noch nicht so etabliert ist wie in der Lebensversicherung) werden die Werte der Aktiva und Passiva erst über die Zeit realisiert. Sinnvoll angewendet kann dieses Konzept somit einen deutlich realistischeren Ansatz für ein internes Modell in der Schadenversicherung liefern als die Modellierung auf Basis des ökonomischen Kapitals.
Die lineare Regression ist das bekannteste Verfahren zur Fehlerausgleichung, welches relativ einfach umgesetzt werden kann. Verallgemeinerte lineare Modelle sind eine zweckmäßige Erweiterung dieses Verfahrens, können aber aufgrund ihrer hohen Komplexität i. d. R. nur mit spezieller Software gerechnet werden. Aus diesem Grund wird in dieser Arbeit anhand eines fiktiven Storno-bestandes illustriert, wie man Ausgleichsrechnungen auch mit Hilfe von Gauß Markow Modellen durchführen kann, die mittels EXCEL und Visual Basic ebenfalls noch vergleichsweise einfach umsetzbar sind.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools in der Regel intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standardformel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Der Aufbau der Standardformel ist relativ komplex, wobei für die Befüllung des QIS 5 Berechnungstools i. d. R. intensive Vorarbeiten benötigt werden. Im ersten Teil wurden die wichtigsten Berechnungsschritte an Hand des durchgängigen Datenmodells der „IVW Privat AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. In diesem Teil wird die Projektion der Standardformel auf das Folgejahr durchgeführt und es werden weitere Anwendungen an Hand dieses durchgängigen Datenmodells erläutert.
Nach einer langen Prozess- und Entwicklungsphase ist Solvency II seit dem 1. Januar 2016 als EU-einheitliches Solvenzsystem für Versicherungen eingeführt, wobei eine nicht unerhebliche Her-ausforderung in diesem Zusammenhang – auch im Hinblick auf die flankierenden Prozesse – die doch sehr extensiven Berichtsanforderungen aus der dritten Säule von Solvency II darstellen, die sich in einen quantitativen Teil mit einer Fülle von Tabellen und in einen qualitativen Teil mit mehreren narrativen Berichten aufteilen.
Aufgrund der aktuellen gesetzlichen Rahmenbedingungen können Energieversorger von erneuerbaren Energien (Windkraft, Sonnenenergie, Geothermie) relativ stabile Erträge über längere Zeiträume generieren, so dass eine Investition in erneuerbare Energien für ein Versicherungsunternehmen eine attraktive Anlage darstellen kann. In dieser Arbeit soll daher mit einem vereinfachten Modell analysiert werden, wie eine solche Kapitalanlage sich auf das allgemeine ALM eines Versicherungsunternehmens auswirkt.
Mit der „IVW Privat AG“ liegt ein relativ durchgängiges Datenmodell eines Schadenversicherungs-unternehmens vor, mit dem in vorangegangenen Publikationen eine Vielzahl von Solvency II Anwen-dungen illustriert werden konnten. Ergänzend dazu sollen in dieser Publikation unterschiedliche Bewertungsansätze für das verfügbare Kapital vorgestellt und miteinander verglichen werden – ausgehend vom sicherheitsorientierten HGB Kapital bis hin zum Marktkonsistenten Embedded Value (MCEV).
Standardformel und weitere Anwendungen am Beispiel des durchgängigen Datenmodells der „IVW Leben AG“
(2016)
Der Aufbau der Standardformel ist relativ komplex, wobei für die Durchführung der Berechnungen intensive Vorarbeiten benötigt werden. In dieser Ausarbeitung werden die wichtigsten Berechnungs-schritte an Hand des durchgängigen Datenmodells der „IVW Leben AG“ durchgeführt, um so einen vollständigen Überblick über die wesentlichen Zusammenhänge zu ermöglichen. Dieses vergleichsweise einfache Datenmodell eignet sich dabei nicht allein für die Berechnung der Standard-formel, sondern auch für weitere Anwendungen in diesem Zusammenhang.
Big Data für Versicherungen. Proceedings zum 21. Kölner Versicherungssymposium am 3.11.2016 in Köln
(2017)
Aufgrund der schnellen technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Kundenmanagement sowie Recht & Datenschutz.
Wegen der hohen Bedeutung haben die Forschungsbereiche des ivwKöln für 2016 „Big Data“ als übergreifendes Forschungsthema gewählt. Im 21. Kölner Versicherungs-symposium wurde daher das Themenfeld in seiner Vielschichtigkeit von Referenten aus mehreren
Fachrichtungen skizziert.
Social learning enables multiple robots to share learned experiences while completing a task. The literature offers examples where robots trained with social learning reach a higher performance compared to their individual learning counterparts. No explanation has been advanced for that observation. In this research, we present experimental results suggesting that a lack of tuning of the parameters in social learning experiments could be the cause. In other words: the better the parameter settings are tuned, the less social learning can improve the system performance.
To maximize the throughput of a hot rolling mill,
the number of passes has to be reduced. This can be achieved by maximizing the thickness reduction in each pass. For this purpose, exact predictions of roll force and torque are required. Hence, the predictive models that describe the physical behavior of the product have to be accurate and cover a wide range of different materials.
Due to market requirements a lot of new materials are tested and rolled. If these materials are chosen to be rolled more often, a suitable flow curve has to be established. It is not reasonable to determine those flow curves in laboratory, because of costs and time. A strong demand for quick parameter determination and the optimization of flow curve parameter with minimum costs is the logical consequence. Therefore parameter estimation and the optimization with real data, which were collected during previous runs, is a promising idea. Producers benefit from this data-driven approach and receive a huge gain in flexibility when rolling new
materials, optimizing current production, and increasing quality. This concept would also allow to optimize flow curve parameters, which have already been treated by standard methods. In this article, a new data-driven approach for predicting the physical behavior of the product and setting important parameters is presented.
We demonstrate how the prediction quality of the roll force and roll torque can be optimized sustainably. This offers the opportunity to continuously increase the workload in each pass to the theoretical maximum while product quality and process stability can also be improved.
Ob Tweet, TikTok-Video oder Elevator Pitch – Informationen pointiert zu verdichten entwickelt sich zur Kunst. Das Format One Slide About (nachfolgend OSA) fordert Kursteilnehmer*innen auf, ein Thema oder eine wissenschaftliche Studie auf einem einzelnen Slide einer Präsentation zu verdichten und diesen den Kommiliton*innen in einem max. 180 Sekunden langen Vortrag vorzustellen. Dieses Format wurde in unterschiedlicher Umsetzung erprobt, mit den Teilnehmer*innen diskutiert und anschließend in Form einer quantitativen Befragung unter folgender Forschungsfragestellung evaluiert: Lässt sich mit dem Format One Slide About sowohl Informationskompetenz üben als auch eine Lehrveranstaltung inhaltlich ergänzen?
In den Wirtschaftswissenschaften liegen die für Bewertungen benötigten Daten normalerweise als Jahreswerte vor, z.B. Zinssätze oder Sterblichkeiten in der Finanz- und Versicherungsmathematik. Darauf aufbauend lassen sich Markov-Ketten mit einem jährlichen Zeitraster konstruieren. Zu bewertende Zahlungen hingegen erfolgen meist unterjährlich. Der vorliegende Artikel beschäftigt sich mit der Frage, wie aus einer Markov-Kette mit jährlichem Zeitraster, eine Markov-Kette mit unterjährlichem Zeitraster konstruiert werden kann. Dabei stehen Markov-Ketten, deren Übergangsmatrizen als obere Dreiecks-matrizen gegeben sind, im Mittelpunkt des Interesses. Es werden zwei Ansätze und deren Anwendung dargestellt. Der erste Ansatz basiert auf der T-ten Wurzel der Übergangsmatrizen, der zweite Ansatz auf einer Linearisierung der Übergangsmatrizen.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Sind diese Zahlungsströme mit Risiken behaftet, so kann der Barwert als Zufallsvariable interpretiert werden. In der vorliegenden Arbeit wird der risikobehaftete Zahlungsstrom als bewertete inhomogene Markov-Kette modelliert. Als Hauptergebnis wird eine Formel für die charakteristische Funktion bzw. die momentenerzeugende Funktion der Zufallsvariablen „Barwert“ hergeleitet. Damit ist die Verteilung der Zufallsvariablen eindeutig festgelegt. In konkreten Fallbeispielen wird gezeigt, wie man mit einer EDV-technischen Umsetzung der Formel den Erwartungswert, die Varianz und die Standardabweichung der Zufallsvariablen „Barwert“ ermitteln kann.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Sowohl der Zinssatz als auch die Wahrscheinlichkeiten liegen dabei normalerweise als Jahreswerte vor, die Zahlungen hingegen erfolgen meist unterjährlich. In der vorliegenden Arbeit wird für diesen unterjährlichen Fall ein auf der Theorie der Markov-Ketten basierendes Modell zur Barwertberechnung behandelt. Die unterjährlichen Wahrscheinlichkeiten ergeben sich dabei durch Linearisierung der Jahreswerte, als unterjährliches Zinsmodell wird die gemischte Verzinsung – alternativ mit dem relativen Zinssatz und dem konformen Zinssatz – betrachtet.
Eine wichtige Fragestellung in den Wirtschaftswissenschaften ist die Bewertung von Zahlungsströmen mit dem Barwert. Dabei liegt jeder Barwertberechnung ein geeignetes Zinsmodell zugrunde. Bei einem speziellen Zinsmodell – der relativ gemischten Verzinsung – lassen sich einfache nichttriviale Beispiele/Zahlungsströme konstruieren, bei denen der Barwert bei jedem Zinssatz null ist. In der vorliegenden Arbeit wird die Frage untersucht, ob es bei anderen Zinsmodellen ebenfalls solche Zahlungsströme gibt. Im Hauptsatz kann die Beantwortung dieser Frage mit Mitteln der Analysis auf die Existenz von Lösungen eines homogenen linearen Gleichungssystems zurückgeführt werden.
Zahlungsströme werden vielfach mit dem Barwert, d.h. der Summe der abgezinsten Zahlungen, bewertet. Handelt es sich dabei um Zahlungen, die nicht sicher, d.h. risikobehaftet sind, so gehen neben dem Zinssatz i.d.R. auch Wahrscheinlichkeiten in die Bewertung ein. Viele der dabei verwendeten Modelle sind gedächtnislos. In der vorliegenden Arbeit wird für diese Fälle ein Modell, das auf der Theorie der Markov- Ketten basiert, eingeführt. Aus dieser Modellierung ergibt sich u.a. eine grundlegende Bewertungsformel. In drei unterschiedlichen ökonomischen Beispielen wird gezeigt, dass die Anwendung dieser Bewertungsformel zu den Standardbewertungsansätzen führt. Das primäre Ziel der Arbeit ist dabei nicht die Darstellung neuer Ergebnisse, sondern die grundlegende Aufbereitung der Thematik. Dabei soll die Ausarbeitung eine Basis für weitere Anwendungen schaffen und als Grundlagen für eine EDVtechnische Umsetzung dienen.
In der vorliegenden Arbeit wird ausgehend von einer jährlichen inhomogenen Markov-Kette durch lineare Interpolation der Übergangsmatrizen und der Einheitsmatrix sowohl eine unterjährliches als auch ein zeitstetige bewertete inhomogene Markov-Kette konstruiert. Beim unterjährlichen Modell liegt der Fokus auf der Verteilung der Zufallsvariablen „Barwert des Zahlungsstroms“ bzw. auf der zugehörigen charakteristischen Funktion und einem EDV-technischen Verfahren zur Berechnung der Momente der Zufallsvariablen. Beim zeitstetigen Modell steht neben der Konstruktion und den üblichen Ergebnissen für zeitstetige Markov-Ketten, die Verallgemeinerung des Restglieds bzw. des Invarianzsatzes im Mittelpunkt des Interesses.
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
In der vorliegenden Arbeit werden in drei Fallbeispielen aus dem Bereich der betrieblichen Altersversorgung die Versorgungszusagen mithilfe von bewerteten inhomogenen Markov-Ketten modelliert. Dabei liegt der Fokus auf den Pfaden der Markov-Ketten. Es wird anhand der Fallbeispiele gezeigt, wie man mithilfe der Pfade den Erwartungswert und die Standardabweichung der Zufallsvariablen „Barwert aller zukünftigen Zahlungen“ berechnen kann. Darüber hinaus ist es auf Basis der Pfade möglich, in Bezug auf diese Zufallsvariable auch Wahrscheinlichkeiten von speziellen Ereignissen und Risikomaße – Value at Risk und Expected Shortfall – zu berechnen.