Refine
Year of publication
Document Type
- Working Paper (86)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (161)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (217)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
- Research Report (8)
- Rückversicherung (8)
- Versicherungswissenschaft (8)
- Digitalisierung (7)
- Institut für Versicherungswesen (7)
- Resilienz (7)
- Schadenversicherung (7)
- Solvency II (7)
- Hochschule (6)
- Hochschulentwicklung (6)
- Hochschulforschung (6)
- Simulation (6)
- Barwert (5)
- Benchmarking (5)
- Bewertete Markov-Kette (5)
- Embedded Value (5)
- Evolutionärer Algorithmus (5)
- Forschungsstelle Versicherungsmarkt (5)
- Globale Optimierung (5)
- Markov-Ketten (5)
- Risiko (5)
- Technische Informatik (5)
- Versicherungsrecht (5)
- Altersversorgung (4)
- Baudenkmal (4)
- Big Data (4)
- Disaster Risk Reduction (4)
- Forschungsstelle FaRis (4)
- Hochschulbildung (4)
- Hochschullehre (4)
- Kapitalanlage (4)
- Künstliche Intelligenz (4)
- Lebensversicherung (4)
- Lehrentwicklung (4)
- Markov-Kette (4)
- Maschinelles Lernen (4)
- Metaheuristik (4)
- Modeling (4)
- Resilience (4)
- Soziale Software (4)
- Verwundbarkeit (4)
- Wirtschaftswissenschaften (4)
- insurance (4)
- Architektur (3)
- Architekturgeschichte (3)
- Betriebliche Altersversorgung (3)
- Computational Intelligence (3)
- Digitale Lehre (3)
- E-Learning (3)
- Extreme Events (3)
- Forschendes Lernen (3)
- Forschungsstelle Versicherungsrecht (3)
- Genetic Programming (3)
- Genetisches Programmieren (3)
- Hybride Lehre (3)
- Interne Modelle (3)
- Kraftfahrtversicherung (3)
- Kriging (3)
- Krisenmanagement (3)
- Köln (3)
- Lehre (3)
- Marketing (3)
- Markov Chain (3)
- Mehrkriterielle Optimierung (3)
- Natural Hazards (3)
- Naturgefahr (3)
- Required Capital (3)
- Risk Management (3)
- Sequential Parameter Optimization (3)
- Sequentielle Parameter Optimierung (3)
- Standardformel (3)
- Surrogate (3)
- Surrogate Models (3)
- Versicherungsbranche (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Versicherungswesen (3)
- Versuchsplanung (3)
- Vulnerability (3)
- Zivilschutz (3)
- 3D Printing (2)
- Anpassung (2)
- Asset-Liability-Management (2)
- Bayesian Optimization (2)
- Bergisch Gladbach (2)
- Bevölkerungsschutz (2)
- COVID-19 (2)
- Charakteristische Funktion (2)
- Climate Change Adaptation (2)
- Co-Kriging (2)
- Combined simulation (2)
- Denkmalpflege (2)
- Design (2)
- Design of Experiments (2)
- Deutsche Aktuarvereinigung (2)
- Didaktik (2)
- Direktversicherung (2)
- Economic Value Added (2)
- Ensemble Methods (2)
- Entdeckendes Lernen (2)
- Ereignisdefinition (2)
- Event Detection (2)
- Evolutionary Algorithms (2)
- Evolutionary Computation (2)
- Evolutionsstrategie (2)
- Evolutionäre Algorithmen (2)
- FaRis (2)
- Farbmittel (2)
- Feldafinger Brandkasse (2)
- Finanzmathematik (2)
- Forschungsschwerpunkt Rückversicherung (2)
- Gaussian Process (2)
- Gefahrenabwehr (2)
- Genetische Algorithmen (2)
- Geschichte (2)
- Hochschulprofile (2)
- Hochwasser (2)
- Holbein, Hans, 1460-1524 (2)
- IVW Köln (2)
- Imputation (2)
- Kapitalmarkt (2)
- Katastrophe (2)
- Katastrophenschutz (2)
- Klimawandelanpassung (2)
- Klimaänderung (2)
- Kollektive Sparprozesse (2)
- Kölner Forschungsstelle Rückversicherung (2)
- Langlebigkeitsrisiko (2)
- Lehramt (2)
- Lehrevaluation (2)
- Lernende Hochschule (2)
- MCEV (2)
- Machine Learning (2)
- Maltechnik (2)
- Markowitz Optimierung (2)
- Metamodel (2)
- Mikroökonomie (2)
- Moderne (2)
- Motivation (2)
- Multi-Criteria Optimization (2)
- Multiobjective Optimization (2)
- Nachkriegsmoderne (2)
- Online-Sozialisation (2)
- Onlineversicherung (2)
- Optimierungsproblem (2)
- Papierfabrik J. W. Zanders (2)
- Parallelization (2)
- Performanceoptimierung (2)
- Priced Markov Chain (2)
- Produktionstheorie (2)
- Prognose (2)
- R (2)
- Regression (2)
- Reinforcement Learning (2)
- Reinsurance (2)
- Risikobehaftete Zahlungsströme (2)
- Scholarship of Teaching and Learning (2)
- Sozialmanagement (2)
- Surrogat-Modellierung (2)
- Surrogate Modeling (2)
- Surrogate-based (2)
- Taxonomie (2)
- Taxonomy (2)
- Telematik (2)
- Test Function (2)
- Unterzeichnung (2)
- Value at Risk (2)
- Versicherungsmarkt (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- Wissensmanagement (2)
- Zeitreihenanalyse (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- 3D-Druck (1)
- Aachen (1)
- Abbruch (1)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Adaptive Schrittweite (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- Aktivierung (1)
- Aktuare (1)
- Algorithm Tuning (1)
- Algorithmus (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Angewandte Mathematik (1)
- Architekt (1)
- Architektur <Informatik> (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Ausbildung (1)
- Ausgleichsverfahren (1)
- Authentizität (1)
- Automated Driving (1)
- Automated Learning (1)
- Automation (1)
- Automatisiertes Fahren (1)
- Autowerkstätten (1)
- Auxiliaries (1)
- BBOB (1)
- BLANK (1)
- Backtesting (1)
- Bacteria (1)
- Bakterien (1)
- Bartholomäuskapelle (1)
- Basis-Infrastrukturen und Services (1)
- Basisrisiko (1)
- Bauaufnahme (1)
- Bauen im Bestand (1)
- Bauforschung (1)
- Baugeschichte (1)
- Bayesian Learning (1)
- Bayesian Regression (1)
- Behrens, Peter (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Berichtspflichten (1)
- Berlin (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big data platform (1)
- BigWa (1)
- Bildungsforschung (1)
- Bildungsgut (1)
- Bildungsstandard (1)
- Binomialmodell (1)
- Biogas (1)
- Biogas Plant (1)
- Biometrie (1)
- Biotechnologie (1)
- Biotechnology (1)
- Blended Learning (1)
- Board Games (1)
- Brazil (1)
- Brutalismus (1)
- Business Case Innovation (1)
- Business Intelligence (1)
- CAN-Bus (1)
- Cairns-Blake-Dowd Modell (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Cashflow (1)
- Cashflow-Matching (1)
- Ccomputational fluid dynamics (1)
- Central limit theorem (1)
- Check24 (1)
- Civil Protection (1)
- Coaching (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Computational fluid dynamics (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Copula (1)
- Curriculumentwicklung (1)
- Curriculumevaluation (1)
- Customer Journey (1)
- Customized Distribution (1)
- Cyber-physische Produktionssysteme (1)
- Cyclone Dust Separator (1)
- Cyclotron Sensor Data (1)
- DA-Direkt (1)
- DAX (1)
- Data Analysis (1)
- Data Mining (1)
- Data Modelling (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Datenschutz (1)
- Decision tree (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Digitale Gruppenarbeit (1)
- Digitale Kompetenz (1)
- Digitale Medien (1)
- Digitales Zeitalter (1)
- Disaster Relief Forces (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Diversifikation (1)
- Diversity (1)
- Diversity Management (1)
- Dritte Säule (1)
- Dye (1)
- E-Book (1)
- Economic Scenario Generator (1)
- Effizienz einer Rückversicherungslösung (1)
- Einsatzkräfte (1)
- Electrostatic Precipitator (1)
- Emotionen (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Ensemble based modeling (1)
- Enterprise 2.0 (1)
- Entrepreneurship (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Entstauber (1)
- Entwurf (1)
- Erfahrungsbericht (1)
- Erfahrungsberichte (1)
- Ermöglichen (1)
- Erneuerbare Energien (1)
- Evaluation (1)
- Evidenzbasierung (1)
- Evolution Strategies (1)
- Evolutionary Robotics (1)
- Evolutionsstrategien (1)
- Expected Improvement (1)
- Expensive Optimization (1)
- Experiment (1)
- Experimental Algorithmics (1)
- FH Köln (1)
- FPGA ML (1)
- Fachhochschule (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faktorinvestments (1)
- Faserverbundwerkstoffe (1)
- Feature selection (1)
- Fehlende Daten (1)
- Fehlerbaum Analyse (1)
- Fernunterricht (1)
- Finanzwirtschaft (1)
- Flood (1)
- Flowcurve (1)
- Flushing (1)
- Flut 2021 (1)
- Flüchtlingssituation 2015/2016 (1)
- Forschungsformate (1)
- Forschungsstelle (1)
- Fotografie (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Freikirchliche Johanneskirche (Bochum) (1)
- Frequency Severity Model (1)
- Fréchet-Hoeffding-Bounds (1)
- Fréchet-Hoeffding-Schranken (1)
- Function Approximation (1)
- Funktionstest (1)
- Färben (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- Gemischtes Lehrformat (1)
- Genetic Algorithms (1)
- Genetic programming (1)
- Genetische Programmierung (1)
- Geografie (1)
- Geometrie (1)
- Gesellschaft (1)
- Gesellschaftlicher Wandel (1)
- Gestaltung (1)
- Gewölbe (1)
- Glaspartikel (1)
- Glaspulver (1)
- Gründungskultur (1)
- HUK24 (1)
- Hans Scharoun (1)
- Health condition monitoring (1)
- Helfer (1)
- Heston Model (1)
- Heuristics (1)
- Hochschulbau (1)
- Hochschulbildungsforschung (1)
- Hochschuldidaktische Forschung (1)
- Hochschulkommunikation (1)
- Hochschulplanung (1)
- Hochschulprofil (1)
- Hochschulsystem (1)
- Hochwasser 2021 (1)
- Holbein, Hans (1)
- Hot rolling (1)
- Hybrides Lehren und Lernen (1)
- Hängekuppeln (1)
- INCOR (1)
- IT Architektur (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationskompetenz (1)
- Informationsverhalten (1)
- Informationsvermittlung (1)
- Ingenieurstudium (1)
- Innenarchitektur (1)
- Innenraum (1)
- Innerinstitutionelle Forschung (1)
- Innovation (1)
- Innovationsakzeptanz (1)
- Innovative Geschäftsmodelle (1)
- Instagram (1)
- Institute for Insurance Studies (1)
- InsurTechs (1)
- Insurance Linked Securities (ILS) (1)
- Integriertes Lernen (1)
- Intergene (1)
- Internes Modell (1)
- Johannes-Kirche (1)
- Jugendstil (1)
- KI (1)
- Kapelle (1)
- Kapitalanlagerisiko (1)
- Kapitalmarktrisiken (1)
- Katastrophenereignis (1)
- Katastrophenmodellierung (1)
- Katastrophenrisikomanagement (1)
- Kfz-Versicherung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge extraction (1)
- Kognition (1)
- Kognitive Referenzarchitektur (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompetenzentwicklung (1)
- Kompression (1)
- Konstruktionsgeschichte (1)
- Konstruktivismus (1)
- Konsumenteninformation (1)
- Korrelation (1)
- Korrelationsmatrix (1)
- Krankenversicherung (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenerfahrungen (1)
- Kundenorientierung (1)
- Kundenverhalten (1)
- Kunst am Bau (1)
- Kunstgewerbeschule (1)
- Kurzpräsentation (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Lehr- und Lernkonzepte (1)
- Lehr-/Lernforschung (1)
- Lehr-/Lernkonzepte (1)
- Lehrformate (1)
- Lehrinterventionen (1)
- Lehrkompetenzentwicklung (1)
- Lehrkultur (1)
- Lehrplanentwicklung (1)
- Lehrszenarien (1)
- Lehrveranstaltung (1)
- Lernende Organisation (1)
- Lernkultur (1)
- Lernmotivation (1)
- Lessons learned (1)
- Lichtmessung (1)
- Lifetime Prediction (1)
- Lineare Regression (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Machine learning (1)
- Maklerwordings (1)
- Man-Made-Katastrophen (1)
- Marktanteile (1)
- Massendaten (1)
- Massive Online Analysis (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metaheuristics (1)
- Metal (1)
- Metamodell (1)
- Metamodels (1)
- Methode von Heligman-Pollard (1)
- Mies van der Rohe, Ludwig (1)
- Missing Data (1)
- Missing Data Imputation (1)
- Mixed Models (1)
- Mixed-Effects Models (1)
- Mixed-Methods-Ansatz (1)
- Mobilitäts-Ökosysteme (1)
- Mode (1)
- Model Calibration (1)
- Model Selection (1)
- Modelierung (1)
- Modell (1)
- Modelling (1)
- Modellkalibrierung (1)
- Modelllernen (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Motor Insurance (1)
- Movementanalyse (1)
- Multi-Agent Systems (1)
- Multi-criteria Optimization (1)
- Multi-fidelity (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Museum (1)
- N-tuple Systems (1)
- Nachhaltigkeit (1)
- Nat Cat (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Naturkatastrophen (1)
- Net Promoter Score (1)
- Netzwerk (1)
- Netzwerkberatung (1)
- Netzwerke (1)
- Neue Medien (1)
- Neural Network (1)
- Neural Networks (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Notrufsystem (1)
- Numerische Strömungssimulation (1)
- Offenheit (1)
- On-line Algorithm (1)
- Online Adaptation (1)
- Online Information Review (1)
- Online-Portal (1)
- Open RAN (1)
- Optische Zeichenerkennung (1)
- Ordnungspolitik (1)
- Organisationsentwicklung (1)
- PID Control (1)
- Paderborn (1)
- Pandemie (1)
- Pandemien (1)
- Pannendienst (1)
- Papierfabrik (1)
- Parallelisierung (1)
- Parameter Tuning (1)
- Parametertuning (1)
- Peer-Feedback (1)
- Pensionskasse (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Personenversicherungsmathematik (1)
- Pflegeversicherung (1)
- Planimetrische Komposition (1)
- Plywise Analysis (1)
- Praxis (1)
- Predictive Analytics (1)
- Present Value (1)
- Produktentwicklung (1)
- Produktentwicklungsprozess (1)
- Profilbildung (1)
- Prokrastination (1)
- Promotion (1)
- Proportion (1)
- Prozesse (1)
- Prägeschrifterkennung (1)
- Prämienrisiko (1)
- Prüfungsdaten (1)
- Qualität in Lehre und Studium (1)
- Qualitätsbegriff (1)
- Qualitätsentwicklung (1)
- Qualitätskultur (1)
- Quantitatives Risikomanagement (1)
- REST-konforme Web Services (1)
- RFID (1)
- Raderthal (1)
- Railroad Network (1)
- Rathaus (1)
- Referenzmodell (1)
- Reflexion (1)
- Reform (1)
- Regulierung (1)
- Reifegradmodell (1)
- Rendite (1)
- Rettungsingenieurwesen (1)
- Rettungskostenersatz (1)
- Return on Risk Adjusted Capital (1)
- Rezeptionsästhetik (1)
- Rezeptionsästhetische Praxis (1)
- Risiko , Risikomanagement , Krisenmanagement , Gefahrenabwehr (1)
- Risiko-Rendite-Profile (1)
- Risikoaggregation (1)
- Risikobudgetierung (1)
- Risikomanagement technischer Systeme (1)
- Risikomaß (1)
- Risikoneutrale Bewertung (1)
- Risikosteuerung (1)
- Risk & Rescue GIS-Lab (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Romanik (1)
- Rundfunk (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- SOTL (1)
- SPOT (1)
- Schadenmodellierung (1)
- Selbstbestimmungstheorie (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Sendegebäude (1)
- Sensor placement (1)
- Sensortechnik (1)
- Signalanalyse (1)
- Silberstift (1)
- Simulated annealing (1)
- Simulation-based Optimization (1)
- Simulationsmodell (1)
- Social Learning (1)
- Social Media (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Social-Media-Kommunikation (1)
- Software (1)
- Soziale Medien (1)
- Sozialer Wandel (1)
- Sozialraum (1)
- Spülen (1)
- Stacked Generalization (1)
- Stacking (1)
- Standardisierung (1)
- Starkregen (1)
- Statistics (1)
- Statistik (1)
- Statistische Versuchsplanung (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Strategie (1)
- Structural Health Monitoring (1)
- Studiengangsentwicklung (1)
- Studierendenaktivierung (1)
- Superficial Images (1)
- Supervision (1)
- Surrogate Mod (1)
- Surrogate Model (1)
- Surrogate Optimization (1)
- Surrogate model (1)
- Surrogate model based optimization (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogates (1)
- Surrogatmodellbasierte Optimierung (1)
- Sustainability (1)
- Synagoge (1)
- System Identification (1)
- Systemarchitektur für verteilte (1)
- Systemidentifikation (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Teamteaching (1)
- Technische Hochschule Köln (1)
- Technische Versicherung (1)
- Telematics Data (1)
- Telematiktarife (1)
- Temporal Difference Learning (TDL) (1)
- Test function generator (1)
- Testgröße (1)
- Textiles (1)
- Time Series (1)
- Time-series (1)
- Traffic Density Classification (1)
- Transparenz (1)
- Trinkwasser (1)
- Trinkwasserversorgung (1)
- Umfrage (1)
- Umnutzung (1)
- Univariate Data (1)
- Unsicherheit (1)
- Unternehmensgründung (1)
- Unternehmensplanung (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Unterrichtsplanung (1)
- Unterrichtssimulation (1)
- Value-Based-Management (1)
- Variable reduction (1)
- Varianzanalyse (1)
- Verantwortung (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Verbraucherzufriedenheit (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versciherungsmathematik (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versorgungsstruktur (1)
- Verteilungsanpassung (1)
- Verunreinigung (1)
- Vielfalt (1)
- Volkswirtschaftslehre (1)
- Vorbild (1)
- Vorgehensmodell (1)
- Vorverarbeitung (1)
- WSDL (1)
- Wahrnehmung (1)
- Walther Ruoff (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wasserverteilung (1)
- Wasserwirtschaft (1)
- Water Distribution Systems (1)
- Water Quality Monitoring (1)
- Water distribution systems (1)
- Web Services (1)
- Wert (1)
- Wertarchitektur (1)
- Werte (1)
- Wertethik (1)
- Wertorientierte Steuerung (1)
- Wertschätzung (1)
- Wiki (1)
- Wissen (1)
- Wissenschaftspraxis (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Word-of-Mouth (1)
- Workloaderhebung (1)
- World Wide Web 2.0 (1)
- Zeitreihe (1)
- Zentraler Grenzwertsatz (1)
- Zielrente (1)
- Zins (1)
- Zinsgarantien (1)
- Zinsmodelle (1)
- Zufriedenheit (1)
- Zusammengesetzte Poisson-Verteilung (1)
- Zuverlässige eingebettete Systeme (1)
- Zylon Enstauber (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- bottlenecks (1)
- charakteristische Funktion (1)
- classification (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- eCall (1)
- economic assessment (1)
- ecosystem services (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- faris (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- mobile Anwendungen (1)
- model-assisted optimization (1)
- modellbasierte Optimierung (1)
- opportunity costs (1)
- regression (1)
- reinsurance (1)
- reinsurance programs (1)
- scholarship of academic development (1)
- scholarship of teaching and learning (1)
- social media maturity model (1)
- social media strategy (1)
- studentisches Lernen (1)
- team teaching (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- vorvertragliche Anzeigepflicht (1)
- water resources (1)
- watershed protection (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Ökosystem-Dienstleistungen (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- Übersetzen (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (77)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
An der Technischen Hochschule Köln wird für Studierende des Informatik-Bachelors im vierten Semester das Modul „Berufspraxis Informatik“ angeboten, bei dem erfahrene Informatiker*innen ein Thema aus ihrem Berufsalltag vorstellen. Die einzelnen Veranstaltungen gliedern sich in einen Vortrags- und einen Workshopteil und werden vorranging offline, d. h. vor Ort, z. T. aber auch online angeboten. Um die aktive Beteiligung der Studierenden bei den Veranstaltungsterminen zu erhöhen, wurde eine Lehrintervention durchgeführt: Die Intervention wies einem Teil der Studierenden eine aktive Rolle z. B. als Moderator*in zu. In der anschließenden Datenerhebung wurden insb. hinderliche bzw. förderliche Faktoren für eine gelungene Aktivierung betrachtet. Neben der aktiven Rolle sowie dem persönlichen Interesse hatte einen großen Einfluss auf die Aktivierung, ob die Veranstaltung online oder offline durchgeführt wurde. In der Online-Variante waren es vorrangig technische und organisatorische Aspekte sowie Hemmnisse der Studierenden sich zu melden, die eine gelungene studentische Beteiligung behinderten.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
Der Beitrag behandelt ein zum Teil im nationalsozialistischen ductus gehaltenes Urteil des Reichsgerichts zur sog. „Führerscheinklausel“ in der Kraftfahrtversicherung aus dem Jahre 1941. Hintergrund dieses Urteil war eine verbrecherische „Anordnung“ von Heinrich Himmler, welche jüdischen Deutschen das Fahren von Kraftfahrzeugen verbot.
Der Verfasser kam auf dieses Urteil, als er im Archiv der BGH-Bibliothek die unveröffentlichten Urteile des Versicherungssenates des Reichsgerichtes zwischen 1939 bis 1945 durcharbeitete. Im Bundesarchiv konnte der Autor sodann die Gerichtsakte einsehen und ferner die Personalakten der entscheidenden Reichsgerichtsräte. Der Verfasser geht auch auf das Schicksal des später im Rahmen der Schoa ermordeten jüdischen Fahrers ein.
Dieses Urteil des Versicherungssenates belegt anschaulich, insbesondere unter Berücksichtigung der erfolgten Auswertung auch seiner übrigen Rechtsprechung, wie im Bereich des Zivilrechtes die Gerichte ihre Rechtsprechung auch nach der „Machtergreifung“ scheinbar normal weiterführten, teilweise auch Klage von Juden stattgaben und auch sind beim Versicherungssenat des Reichsgerichtet direkte politische Enflussnahmen nicht zu belegen. Aber wie die Auswertung des Verfassers rund um das „Führerscheinurteil“ belegt, war dies auch nicht notwendig, da denn Richter bewusst gewesen sein dürfte, wie sie einerseits formaljuristisch „richtig“ entscheiden, anderseits sich gegenüber den nationalsozialistischen Machthabers nicht angreifbar machen.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
The fashion industry is one of the most harmful industries in the world. Many garments are produced and dyed on a petroleum base; vast amounts of water are used in the production of textiles and garments; and environmentally harmful chemicals are released into the environment during production. Working towards sustainability in fashion is more relevant than ever. One way of doing this is to design garments with nature. To do so, I am presenting an example of biotechnology in the field of dyeing techniques. The project is innovative and future-driven in that it offers alternatives to industrial, petroleum-based dyeing techniques. A number of bacteria produce different colored pigments. The bacteria strain Janthinobacterium lividum, for example, is considered nontoxic and safe to handle. It is found in nature on the skin of the red-backed salamander. The bacteria produce dark purple pigments called violacein. With the pigment’s antifungal and antibacterial characteristics, it protects itself and its host from intruders. Can the pigment, however, be applied to dye textiles?
Epidemic Geographies
(2023)
This essay is a shortened version of a final BA thesis, written during the global pandemic of covid-19, dominating media reports, public life, and private experience in the quarantine society in the months of April to July 2020. Yet this thesis was also a test, a quiet personal one. To focus on current conditions and events allowed to shift the perspective from familiar contexts to unknown environments. It allowed to try out whether the subjects of our studies can be applied to a ‘real world context’ besides works that often only retrospectively comment on preexisting conditions. Parallel to this text two video works were developed. While the first (Heatmap Urbanism - https://vimeo.com/469567011) offers a visual inquiry into the urban implications of pandemic contact tracing, the second (Relational Topographies - https://vimeo.com/469582311) presents the cartographic speculations that are conceived in this essay.
BLANK ist formuliert um direkte Zusammenhänge von Theorie als Inspiration für gestalterische (als auch künstlerische) Konzeption und daraus resultierenden praktischen Ergebnissen herauszustellen. Zu diesem Zweck ist die Rezeptionsästhetik als Grundlage herangezogen worden. Fotografische Arbeiten werden innerhalb des Bildbands, BLANK in Beziehung gesetzt um theoretische Aspekte von Rezeption wahrzunehmen.
Hermann Arnold. Eine vergessene Verbindung zwischen Peter Behrens und Ludwig Mies van der Rohe
(2024)
Nach einer bedeutenden Schulreform kurz nach der Jahrhundertwende war der Architekt Hermann Peter Arnold der erste Leiter einer Architekturklasse an der Kunstgewerbeschule Aachen. Er brachte als junger Lehrer und Architekt Ideenwelten von der Darmstädter Künstlerkolonie Mathildenhöhe sowie aus dem Atelier von Peter Behrens nach Aachen. Seine Person, wie auch seine Prägung der ersten Generation von Architektur-Absolventen der Kunstgewerbeschule soll hier erstmals untersucht werden.
Zu seinen Schülern zählen neben Ludwig Mies van der Rohe Namen wie Peter Großmann, Emil Fahrenkamp, sowie vorwiegend in Aachen tätige Baumeister wie Franz Dominick, Ferdinand Goebbels oder Fritz Toussaint. Insbesondere die Verbindung zu Mies van der Rohe ist bemerkenswert. Wenig bekannt war bisher die Bedeutung seines Studiums an den Aachener Gewerbe- und
Kunstgewerbeschulen, bevor er die schicksalhaften Schritte nach Berlin und später nach Chicago ging. Insbesondere die Verbindung zu seinem Lehrer Hermann Arnold wird hier fokussiert betrachtet. Sie stellt sich als Erklärungsmodell für das Frühwerk, sowie als unbekannte Brücke zu Mies späterem einflussreichen Arbeitgeber Peter Behrens heraus.
Die Arbeit beschreibt die Entwicklung und Verbreitung künstlicher Intelligenz (KI) und die damit verbundenen Herausforderungen und Chancen. Es wird hervorgehoben, dass trotz des offensichtlichen Nutzens von KI, Bedenken hinsichtlich unerwünschter Nebenwirkungen durch fehlerhafte oder missbräuchliche Anwendungen bestehen. Um diese Herausforderungen zu bewältigen, wird ein Ansatz vorgeschlagen, der als “konviviale künstliche Intelligenz” bezeichnet wird. Dieser Ansatz zielt auf ein harmonisches Zusammenspiel zwischen KI und Mensch ab und betont die Notwendigkeit einer menschenzentrierten Gestaltung bei der Entwicklung und Implementierung von KI-Modellen.
Das Rathaus Rodenkirchen im Kölner Süden wurde 1967 nach einem Entwurf des Kölner Architekten Walther Ruoff (1914-1991) erbaut. Er war 1962 als Gewinner aus einem Wettbewerb für ein neues repräsentatves Rathaus der damals eigenständigen Gemeinde hervorgegangen. Es steht bis zuletzt als bauliches Zeugnis von Wachstum und Selbstbewusstsein in der Architektursprache des Brutalismus. 2005 wurde nach langen Debatten der Abriss des Hauses beschlossen. Die Publikation beschäftigt sich mit der Architektur und Bauidee des Rathauses, wie auch mit der Rezeptionsgeschichte, die letztendlich zum bedauerlichen Abbruch führte.
Die steigende Komplexität der Produktionssysteme, insbesondere im Maschinenbau, führt zu einer Belastung für Automatisierer und Anlagenbauer. Um dieser Belastung entgegenzuwirken, bietet Industrie 4.0 mit Cyber-physischen Systemen und intelligenten Automatisierungssystemen eine Lösung. Dabei wird menschliches Expertenwissen in die Automatisierung verlagert, indem Ziele deklarativ formuliert werden, anstatt prozedurale Handlungsabläufe zu beschreiben. Dieser Ansatz ermöglicht es intelligenten Systemen, ausreichenden Handlungsspielraum zu haben und den menschlichen Aufwand bei der Optimierung, Inbetriebnahme und Anlagenumbau zu reduzieren. Um intelligente Automation umzusetzen, werden neue Automatisierungstechniken und Software-Services benötigt, die verschiedene Methoden wie maschinelles Lernen, Condition-Monitoring und Diagnose-Algorithmen sowie Optimierungsverfahren nutzen. Derzeit werden diese Services unabhängig voneinander implementiert und die Schnittstellen sind oft proprietär, was den Austausch von Daten, Modellen und Ergebnissen erschwert. Dennoch strebt Industrie 4.0 die Zusammenarbeit von Geräten und Komponenten unterschiedlicher Hersteller an. Als ein Lösungsansatz wurde in diesem Projekt eine kognitive Referenzarchitektur entwickelt, welche die genannten Punkte adressiert.
In diesem Beitrag geht es um eine Forschungsarbeit, die im Rahmen eines lehrbezogenen Forschungs- und Entwicklungsprojekts während des Sommersemesters 2021 zur Zeit der COVID-19-Pandemie in einem Anfänger*innen-Übersetzungskurs und zwei Fortgeschrittenen-Übersetzungskursen des Bachelorstudiengangs Mehrsprachige Kommunikation durchgeführt wurde. In diesen Kursen wurde eine digitale Gruppenarbeit angeboten, die von den meisten Studierenden besser als erwartet angenommen wurde. Dabei stellte sich heraus, dass diese Form der Arbeit Studierende dazu motivieren kann, trotz verschiedener Standorte gemeinsam an einem Projekt zu arbeiten. Zudem wurde die Annahme bestätigt, dass mit fortschreitender Spezialisierung der Studierenden eine stärkere Aktivierung bei digitaler Gruppenarbeit festzustellen ist. Da die Studierenden größtenteils auch eine Verbesserung ihrer Übersetzungs- und Sozialkompetenz wahrnahmen und diese Lehrform als Abwechslung zur gewöhnlichen Vorgehensweise empfanden, kann digitale Gruppenarbeit in Übersetzungskursen als empfehlenswert gelten.
In dieser Untersuchung wird gezeigt, dass die Kubatur des Innenraums der im frühen 11. Jh. erbauten Bartholomäuskapelle in Paderborn auf einer geometrischen Konstruktion beruht.
Religiöse Bezüge mit Anleihen aus der Antike spielten bestimmt eine wesentliche Rolle, doch ansonsten ist hier die Geometrie keineswegs als Selbstzweck zu betrachten. Planung und Bauausführung wurden durch die Befolgung einer „geometrischen Logik“, enorm vereinfacht, Proportionen und Harmonien ergaben sich daraus. Die grundlegende Voraussetzung für alle hier aufgeführten Betrachtungen bildet die Dokumentation mit 3D-Laserscanning, welche einen hochgenauen verformungsgerechten „digitalen Zwilling“ am Computer erzeugt. Alle benötigten Maße können so abgegriffen werden, ohne aufwendige Nachmessungen am Objekt durchführen zu müssen. Für das Auffinden einer belastbaren geometrischen Konstruktion bildet wiederum die Analyse der über die Jahrhunderte aufgetretenen Deformationen eine unabdingbare Voraussetzung,
da sonst die baubedingten Unregelmäßigkeiten nicht erkannt werden können.
Die COVID-19-Pandemie hat die akademische Lehre vor methodisch-didaktische Herausforderungen gestellt. Da von einer künftigen verstärkten Ausrichtung auf digitale Lehr- und Lernprozesse auszugehen ist, wurde mit der Dualen Hochschule Baden-Württemberg als Erhebungskontext eine Skala zur Evaluation digitaler Lehre entwickelt. Die angenommene Faktorenstruktur entlang der vier Prämissen erfolgreicher Online-Sozialisation (Technischer Zugang, Autonomie, Kompetenz, Soziale Eingebundenheit) konnte nicht bestätigt werden; vielmehr deutet das Ergebnis auf ein Zwei-Faktoren-Modell hin, das sich aus der digitalen Lernautonomie und dem digitalitätsbezogenen Kompetenzerleben zusammensetzt. Als Erklärungen werden die Differenzierungsfähigkeit der Studierenden sowie Entfremdungstendenzen im Zeichen von Distant Socializing diskutiert.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Hochschulen spielen aufgrund ihrer Infrastruktur und ihrem Angebot an Entrepreneurship Education eine zentrale Rolle im Start-up-Ökosystem. Eine wichtige Herausforderung in der Hochschulkommunikation besteht darin, einen Kommunikationskanal zu finden, der aus Sicht der Studierenden Spaß macht und zu mehr Durchdringung der Themen Entrepreneurship und Gründung führt. Nur so können die Studierenden passgenau über bestehende Angebote informiert, zu ihrer Nutzung motiviert und ein Output in Form von mehr unternehmerischem Denken und Handeln sowie Gründungen generiert werden.
Gerade im Gründungskontext, wo spezifische Angebote einer kleinen, schon interessierten und gleichzeitig einer großen, potenziell interessierten Zielgruppe nähergebracht werden sollen, ist die Wahl der „richtigen“ Kommunikationsstrategie komplex. Beispielhaft für diese Herausforderung wird die Gründungsinitiative StartUpLab@TH Köln aus hochschulkommunikativer Sicht betrachtet und die Etablierung eines Instagram-Kanals geprüft.
Die Hochwasser- oder Flutereignisse aufgrund von Starkregen im Juli 2021 haben in Deutschland und angrenzenden Ländern ein bis dato nicht bekanntes Ausmaß an Todesopfern und Verlusten hinterlassen. Es ist wichtig aus solchen Ereignissen zu lernen, um künftig besser auf solche Situationen vorbereitet zu sein. Dieser Sammelband beinhaltet Erfahrungsberichte und Betrachtungen von Studierenden und Mitarbeiter:innen des Instituts für Rettungsingenieurwesen und Gefahrenabwehr (IRG), der TH Köln, sowie weiteren Personen, die im Bereich Gefahrenabwehr, Bevölkerungs- Katastrophen-, Zivilschutz tätig sind, oder sich mit Themen wie Naturgefahren und Katastrophenrisikomanagement befassen. Viele Studierende sind gleichzeitig in Organisationen der Feuerwehr, des Rettungsdiensts oder anderer Hilfsorganisationen neben dem Studium tätig, wie auch viele Alumni des IRG. Aber auch jene, die nicht operativ tätig sind, haben wichtige Beobachtungen durch Kontakte oder sogar eigene Schäden machen können.
In einem ersten Austausch unter Studierenden des IRG Anfang August 2021 wurde festgestellt, wie wertvoll ein neutraler Austausch ist, und eine Offenlegung von Erfahrungen, Kritik und Lösungsideen, ohne Personen oder einzelne Organisationen allein dabei zu kritisieren. Da es mitunter an solchen Austauschmöglichkeiten zwischen den Organisationen der Gefahrenabwehr fehlt, soll dieser Sammelband eine solche Möglichkeit bieten.
Um der Bandbreite an unterschiedlichen Hintergründen gerecht zu werden und vor allem im Sinne der Sache, um möglichst viele auch verschiedene Erfahrungen und Perspektiven zu sammeln, oder diese zu bestätigen, finden sich in diesem Sammelband Beiträge unterschiedlicher Länge und Sprache. Eine offene Bewertung auch aus unterschiedlichen Sichtweisen ist sehr wertvoll, um ein ganzheitlicheres Bild der ganzen Lage zu erhalten. Zum damaligen Zeitpunkt in den ersten Monaten nach dem Hochwasser beherrschten Themen wie Koordination der Einsatzkräfte, Verfügbarkeit und Ausfall technischer Ausrüstung aber auch Verpflegung, kritische Infrastruktur, Alarmierung und Warnung den Austausch.
Inhaltlich ist dieser Sammelband ebenfalls bewusst nicht eingegrenzt, damit eine große Bandbreite an Aspekten dokumentiert werden kann. Aufgrund der inhaltlichen Auslegung der Lehre und Forschung am IRG werden bestimmte Themenbereiche wie etwa Einsatzorganisationen, Stabsarbeit, Frühwarnung, kritische Infrastruktur, verwundbare Personengruppen etc. häufiger behandelt als andere Themen. Es werden auch Beiträge aus laufenden Forschungsprojekten u.a. zu kritischer Infrastruktur, Notwasserversorgung, Integration von Einsatzkräften eingebunden. Die Ergebnisse einer Umfrage zur Zufriedenheit der Einsatzkräfte werden dargestellt und diskutiert.
Für alle diese Themen dient jedoch hauptsächlich die Grundidee eine Klammer; was kann man im relativ neutralen Rahmen einer Hochschule äußern, und der Gesellschaft durch solch eine Dokumentation an die Hand geben, um die Erfahrungen zu dokumentieren und eine Diskussion anzuregen, was man daraus lernen könnte. Eine Hochschule kann nur einen Rahmen z.B. für Ideen, Wissenstransfer oder Technologien bieten. Aber alle, die daran mitarbeiten, als Studierende, Mitarbeiter:innen oder kooperierende Partner:innen, sind gleichzeitig Teil der Gesellschaft, die sich nicht alltäglich mit Krisen und Katastrophen dieses Ausmaßes befassen muss. Laut einer Definition von Katastrophen zeichnen sich diese durch ihren Überraschungseffekt, oder durch die Über-wältigung der Fähigkeiten Einzelner oder ganzer Gemeinden aus. Es gibt wenige, die sich damit langfristig planerisch befassen, weil solche Ereignisse zum Glück relativ selten lokal vorkommen. Oft steht man vor einem Rechtfertigungsproblem, weil in unserer Hochleistungsgesellschaft im Alltag wie auch in Katastrophen alles perfekt funktionieren soll. Aber es gibt den Spruch „There is no glory in prevention“ auch deswegen, weil tägliche Unfälle und Beinahestörfälle nahezu unbemerkt von ehrenamtlichen sowie hauptberuflichen Einsatzkräften bewältigt werden. Hier hat leider wieder eine Flutkatastrophe gezeigt, wo die Grenzen der Vorbereitung und in der Bewältigung liegen. Für den Wiederaufbau und das Lernen für die Vorbereitung auf andere Ereignisse und Katastrophen ist es daher wichtig, Lehren zu ziehen, diese zu dokumentieren und der Öffentlichkeit zur Verfügung zu stellen.
In den letzten Jahren hat sich an den Hochschulen und Universitäten im deutschsprachigen Raum eine große Vielfalt des Scholarship of Teaching and Learning (SoTL) herausgebildet. An der zunehmenden Verbreitung und Rezeption ist zu erkennen, dass SoTL vielfältige Potentiale für die (Weiter-)Entwicklung und engere Verzahnung fachspezifischer Lehre mit dem hochschuldidaktischen Gesamtanspruch aufweist. Ziel dieses Forschungsbands ist es, auf Basis einer Bestandsaufnahme ausgewählter aktueller SoTL-Projekte an deutschsprachigen Hochschulen eine forschungsgeleitete Auseinandersetzung mit der Hochschullehre zu führen, in der insbesondere Lehrende, Forschende und Hochschuldidaktiker*innen, aber auch Studierende involviert sind. Der Band versammelt Beiträge zu den Themenfeldern Entwicklung innovativer Lehrformate und Anwendungen, Förderung reflexiver Kompetenzen sowie SoTL und Gemeinschaft – Institutions-, disziplinen- und statusgruppenübergreifende Zusammenarbeit und richtet sich an Hochschullehrende und Forschende aller Fachdisziplinen.
Collective Defined Contribution Plans – Backtesting Based on German Capital Market Data 1950 - 2022
(2022)
Using historical capital market data for Germany (1950-2022) we analyze and compare (individual) defined contribution (IDC-) and collective defined contribution (CDC) pension plans. To this end we define simple asset liability management rules that govern a CDC pension plan and compare these to IDC-plans with the same asset allovation. Our main result is, that the CDC pension plans allow for a significant improvement of the risk return profile compared to individual pension plans. Hereby we consider different risk measures. This empirical study affirms the theoretical results based on stochastic CDC-models.
Nach einem Jahr Corona-bedingter Pause fand das FaRis & DAV-Symposium am 10. Dezember 2021 an der Technischen Hochschule Köln statt. Unter dem Titel „Aktuelle Herausforderungen an das aktuarielle und finanzielle Risikomanagement durch COVID-19 und die anhaltende Niedrigzinsphase“ beleuchtete das virtuell durchgeführte 16. FaRis & DAV-Symposium Symposium die aktuelle Situation der Lebensversicherungen und der betrieblichen Altersversorgung aus unterschiedlichen Blickwinkeln. Im ersten Teil der Veranstaltung lag der Fokus auf der Kapitalanlage. Im zweiten Teil wurde die Abschätzung der Pandemie-Folgen auf Pensionskassen thematisiert und um einen Blick auf den Status Quo sowie die Zukunft des Geschäftsmodells der Lebensversicherungen und betrieblichen Altersversorgung ergänzt.
Der vorliegende Tagungsband stellt eine Zusammenfassung der Themen des Symposiums dar.
Die Lehre an Hochschulen in Deutschland befindet sich gegenwärtig im Umbruch. Die Maßnahmen zur Eindämmung der COVID-19-Pandemie haben dazu geführt, dass die Lehre an Hochschulen in Deutschland seit dem Sommersemester 2020 häufig nicht in der gewohnten Form von Präsenzveranstaltungen stattfinden konnte. Die Hochschulen haben mittlerweile eine große Bandbreite lokaler Lösungen für die notwendig gewordene Umstellung auf digitale Lehre umgesetzt. Für die weitere Zukunft der universitären Lehre stellen sich Fragen, die sowohl die methodischdidaktische wie insbesondere auch die
fachliche Ausgestaltung hybrider Lehrkonzepte berühren: Welche Chancen und Potenziale, aber auch Herausforderungen sind mit zunehmend hybrider Hochschullehre verbunden? Inwieweit können Präsenzveranstaltungen sinnvoll durch digitale Formate, weitere Lernorte und informelle Lernprozesse ergänzt werden? Welche Implikationen lassen sich aus den empirischen Daten für die hybride Hochschullehre in den Fächern und im Lehramt und deren jeweiligen Spezifika ableiten? Gegenstand dieses Hrsg.-Bandes sind Einblicke in digitale, aber auch hybride Lehre, die Anlässe zur Reflexion der Förderung spezifisch fachlicher und/oder lehramtsbezogener Kompetenzentwicklungen bieten.
In diesem Beitrag wird ein auf die Lehre in einer Einführungsveranstaltung Statistik für Wirtschaftsingenieure zugeschnittenes digitales Lehrformat der klassischen Präsenzvorlesung aus früheren Jahren gegenübergestellt. Im Mittelpunkt steht der Vergleich der Prüfungsergebnisse verbunden mit der klassischen Vorlesung in den vier Studienjahren vor der COVID-19-Pandemie mit den Ergebnissen zur Online-Lehrveranstaltung des Studienjahres 2020/2021 − mit dem für die Autoren überraschenden Resultat, dass die Prüflinge unter den neuen Rahmenbedingungen signifikant besser abschnitten als in der Vergangenheit. Die Diskussion der empirischen Ergebnisse schließt Verbesserungspotentiale für künftige Präsenz-, Online- und Hybrid-Lehrveranstaltungen mit ein.
Der Fokus dieses Artikels liegt auf den zwischenmenschlichen Herausforderungen und Dynamiken, die dem Teamteaching, bspw. in Form eines Lehr-Duos in der Praxis immanent sind. Hierbei wiederum liegt der Schwerpunkt der Untersuchung auf einer lösungsorientierten Perspektive. Der Hypothese folgend, dass Wertschätzung ein elementarer Faktor interdisziplinärer Lehre ist, wird diese definitorisch, konzeptionell und theoretisch beleuchtet. Hier ergibt sich die Korrelation der professionellen und der persönlichen Ebene als wichtiges Merkmal der Wertschätzung im Teamteaching.
Ob Tweet, TikTok-Video oder Elevator Pitch – Informationen pointiert zu verdichten entwickelt sich zur Kunst. Das Format One Slide About (nachfolgend OSA) fordert Kursteilnehmer*innen auf, ein Thema oder eine wissenschaftliche Studie auf einem einzelnen Slide einer Präsentation zu verdichten und diesen den Kommiliton*innen in einem max. 180 Sekunden langen Vortrag vorzustellen. Dieses Format wurde in unterschiedlicher Umsetzung erprobt, mit den Teilnehmer*innen diskutiert und anschließend in Form einer quantitativen Befragung unter folgender Forschungsfragestellung evaluiert: Lässt sich mit dem Format One Slide About sowohl Informationskompetenz üben als auch eine Lehrveranstaltung inhaltlich ergänzen?
Ergebnisse des Workshops des Forschungsschwerpunkts Verteilte und Mobile Applikationen am 13.1.2011
(2022)
Die vorliegende Ausgabe der „Kölner Beiträge zur Technischen Informatik“ enthält Beiträge zum Workshop des
Forschungsschwerpunkts „Verteilte und Mobile Applikationen“, der am 13. Januar 2011 in Köln stattfand. Die Beiträge
sind Forschungsarbeiten aus den Bereichen:
- Testmodellierung für komplexe Softwaresysteme,
- Entwicklung hochzuverlässiger eingebetteter Systeme,
- Dienstgütemessung und Codectypen bei VoIP, IPTV und WebTV,
- Identifikation von Telefon- SPAM in VoIP Netzwerken
Markov-Ketten haben bei der Modellierung von ökonomischen Sachverhalten eine Vielzahl von Anwendungen. In den Wirtschaftswissenschaften steht oft ein Portfolio von Markov -Ketten im Mittelpunkt des Interesses, z.B. das Kreditportfolio einer Bank oder das Vertragsportfolio einer Versicherung. In den meisten Modellen wird dabei die stochastische Unabhängigkeit der unterschiedlichen Markov-Ketten vorausgesetzt. In der vorliegenden Arbeit wird ein Modell zur Berücksichtigung einer Abhängigkeitsstruktur in einem solchen Portfolio vorgestellt. Die Abhängigkeiten werden dabei mit einer Familie von Copulas modelliert und werden bei den Übergangsmatrizen berücksichtigt.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
In 2021 feiert die Technische Hochschule Köln (TH Köln) ihr 50-jähriges Jubiläum und damit auch das Institut für Versicherungswesen (ivwKöln), wobei sich inzwischen Forschung, Lehre und Transfer in die Praxis auf alle Risikofelder des Versicherungsgeschäfts und alle Kompetenzbereiche der Versicherungsunternehmen beziehen. Anlässlich dieses Jubiläums hat das ivwKöln daher in einem Band „Risiko im Wandel. Herausforderung für die Versicherungswirtschaft“, der in 2022 als Open Access erscheinen wird, die Vielfalt von Forschung und Praxis aller Mitwirkenden an der Arbeit des Institutes gebündelt zusammengefasst. Der nachfolgende Beitrag soll schon vorab einen Überblick der verschiedenen Forschungsthemen geben.
Über mathematische Methoden und Verfahren der Künstlichen Intelligenz wird auch in der Versicherungsbranche und speziell in den Aktuarwissenschaften zunehmend intensiver diskutiert. Dazu zählen insbesondere auch Themen des Risikomanagements der Unternehmen. Bedeutende Aspekte sind dabei die Risikomessung, die Risikobeurteilung sowie die Risikokommunikation im Zuge von Solvency II. Vor diesem Hintergrund widmen wir das 15. FaRis-Symposium der Künstlichen Intelligenz im Risikomanagement. Unsere Referenten berichten in ihren Vorträgen von verschiedenen Projekten, in denen sie Künstliche Intelligenz im Risikomanagement erfolgreich eingesetzt haben. Sie referieren über Chancen und Herausforderungen sowie über zukünftige Themenfeldern der Aktuarinnen und Aktuare in Deutschland.
Ausgelöst durch die COVID-19-Pandemie im Sommersemester 2020 fanden Hochschulen eine große Bandbreite an lokalen Lösungen für die Ad-hoc Umstellung auf digitale Lehre. Über Notfalllösungen hinaus stellt sich für die Zukunft der Hochschullehre die Frage, welche Chancen hybride Hochschullehre bietet. Dies berührt vor allem notwendige Veränderungen der Makroebene der strukturellen Rahmenbedingungen für das Lehren und Lernen an der Hochschule als Organisation, die auch von den rechtlichen Vorgaben und dem politischen Diskurs zu Studien- und Bildungszielen geprägt ist. Der Band versammelt unterschiedliche Ansätze hochschuldidaktischer Forschung und geht der Frage nach, welche Implikationen sich aus erhobenen empirischen Daten für die Hochschulbildung und die lehrbezogene Hochschulentwicklung ableiten lassen.
Der Band behandelt auf der Makroebene die Themen:
I. Bewertung und Akzeptanz sich verändernder Lehrstrukturen
II. Rahmenbedingungen digitaler/hybrider Lehre aus der Sicht von Lehrenden und Studierenden
III. Die Rolle der Hochschuldidaktik in der Entwicklung digitaler/hybrider Lehrstrukturen
IV. Methodische Bezugsrahmen für die strategische Hochschulentwicklung im Kontext der Digitalisierung
Zahlreiche Untersuchungen, die in Reaktion auf die pandemiebedingte Ausnahmesituation im Sommer 2020 durchgeführt wurden, bieten Anhaltspunkte für Gestaltungsaufgaben an Hochschulen auf dem Weg zur hybriden Lehre. Hochschulinterne Befragungen von Studierenden, Lehrenden und Verwaltungspersonal geben Einblicke, genauso wie hochschulübergreifende Untersuchungen ausgewählter Zielgruppen bzw. spezifischer Fragestellungen. Die gewonnenen Einblicke in digitales bzw. hybrides Lehren und Lernen sind Gegenstand dieses Bandes. Er versammelt unterschiedliche Ansätze hochschuldidaktischer Forschung zur Gestaltung von Lehr-Lernsituationen und -prozessen, zu Studienprogrammen und -phasen sowie zu Programmen der Lehrkompetenzentwicklung. Der Band geht der Frage nach, welche Implikationen sich aus den vielfältig erhobenen empirischen Daten für die Hochschulbildung und die (hybride) Hochschullehre ableiten lassen.
Der Band widmet sich auf Mikro- und Mesoebene, basierend auf Forschungsdesigns wie SoTL, Evaluationsstudien, lokaler Hochschuldidaktikforschung zu Studienerfolg, hochschuldidaktischer Begleitforschung und Forschung zum Scholarship of Academic Development (SoAD), den Themen:
I. Lernen in Beziehung − Lehre als sozialer Raum
II. Studienmotivation −Studienerfolg
III. Lehrreflexion −Lehrtransformation
Gegründet 1829, prägte die Papierfabrik Zanders das Wirtschaftsleben der Stadt Bergisch Gladbach über fast 200 Jahre nachhaltig. Auf dem 37 ha großen Werkgelände finden sich Gebäude aus den verschiedenen Epochen der Papierfabrik und dokumentieren die wechselvolle Geschichte der Firma. Die in diesem Studienprojekt bearbeiteten historischen Werkhallen wurden zusammen mit elf weiteren Objekten auf dem Firmengelände als Baudenkmal in die Denkmalliste der Stadt Bergisch Gladbach aufgenommen. Die erarbeiteten Projekte zeigen verschiedene Wege der Nutzung auf.
Im 50. Jubiläumsjahr der TH Köln haben wir uns einem bislang wenig behandelten Thema gewidmet, nämlich der Kunst an den Gebäuden der Technischen Hochschule Köln.
Die TH Köln verfügt als größte Fachhochschule in Deutschland über zwei Standorte in Köln, den Campus Südstadt und den Campus Deutz. Darüber hinaus gibt es zwei weitere Standorte in Gummersbach und Leverkusen. Da sich die künstlerischen Objekte ausschließlich an den Gebäuden innerhalb des Stadtgebiets von Köln befinden, beschränkt sich diese Betrachtung auf die historischen Gebäude des Campus Südstadt sowie auf den maßgeblich in den 1970er Jahren entstandenen Komplex des Campus Deutz.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Der Beitrag behandelt die Dokumentation und Bauaufnahme sowohl der Geometrie, als auch nicht-stofflicher Eigenschaften der Johannes-Kirche in Bochum von Hans Scharoun. Die vorgestellte Methodik zielt darauf ab, Eigenschaften des Raumes erforschen zu können, die über die reine Geometrie und Materialität hinausgehen, um auch solche bauhistorischen und denkmalpflegerischen Werte fassen zu können.
Ziel dieser innerinstitutionellen Studie ist es, herauszufinden, wie die didaktische Umsetzung des Forschenden Lernens (FL) gelingen kann. 24 Lehrende aus allen Fakultäten der TH Köln wurden dazu als Expert*innen für ihre Lehrveranstaltungen in einer qualitativen Interviewstudie befragt. Im Fokus standen dabei die Herausforderungen, Erfolgsfaktoren und Weiterentwicklungsideen mit diesem Lehrformat, die Lehrende für sich identifiziert haben. Die Auswertung des Datenmaterials erfolgte mittels Qualitativer Inhaltsanalyse nach Mayring (2010). Die Ergebnisse zeichnen ein Bild von Forschendem Lernen, das sich über alle Handlungsebenen von Studium und Lehre erstreckt – von (äußeren) Rahmenbedingungen wie z.B. der Kooperationen mit Dritten über hochschulweite Fragestellungen wie die nach der Prüfungsgestaltung bis hin zum konkreten Lehr- und Lerngeschehen. Diese Studie bietet der Hochschuldidaktik eine evidenzbasierte Grundlage für Weiterbildung und Beratung sowie Lehrenden einen Orientierungsrahmen, um FL mehrdimensional zu planen und umzusetzen.
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
Drinking water supply and distribution systems are critical infrastructure that has to be well maintained for the safety of the public. One important tool in the maintenance of water distribution systems (WDS) is flushing. Flushing is a process carried out in a periodic fashion to clean sediments and other contaminants in the water pipes. Given the different topographies, water composition and supply demand between WDS no single flushing strategy is suitable for all of them. In this report a non-exhaustive overview of optimization methods for flushing in WDS is given. Implementation of optimization methods for the flushing procedure and the flushing planing are presented. Suggestions are given as a possible option to optimise existing flushing planing frameworks.
Der Beitrag zeigt, wie systemisches Coaching als lösungsorientiertes Beratungsverfahren in Arbeitsweltkontexten hilfreich sein kann, um Personen und Organisationen im Umgang mit Komplexität zu begleiten. In ingenieurwissenschaftlichen Kontexten eingesetzt, unterstützt Coaching (angehende) Ingenieur*innen dabei, ein ganzheitlich-systemisches Verständnis des digitalen Wandels zu entwickeln und zentrale Kompetenzen wie Reflexionsfähigkeit zu erwerben. Im ersten Teil werden Anforderungen an eine zukunftsfähige Ingenieur*innenausbildung und deren Umsetzung an der Fakultät für Anlagen, Energie- und Maschinensysteme der TH Köln sowie Arbeitsweisen und Grundannahmen systemischen Coachings vorgestellt. Die Wirksamkeit des Einsatzes von Coaching in der Lehre wird an der Fakultät begleitend erforscht. Dazu werden im zweiten Teil zunächst Herausforderungen beim Einsatz von Coaching im Hochschulkontext und mögliche Dilemmata für Coaches benannt. Im Anschluss werden die Ergebnisse zweier Studien vorgestellt, die den Einsatz von Projektcoaching und Leadership-Coaching in projektbasierten Modulen mit großen Teilnehmer*innenzahlen an der Fakultät untersuchen. Die Forschungsergebnisse stützen zum einen die Annahme, dass das hier konzipierte Coaching die Studierenden dabei begleitet, Metakompetenzen wie Reflexionsfähigkeit und Self-Awareness zu entwickeln. Zum anderen unterstreichen die Ergebnisse das Vorgehen der Fakultät, Kompetenzen nicht nur einmalig im Studium, sondern aufeinander aufbauend durchgängig zu trainieren. Der Beitrag schließt mit einem Ausblick für Praxis und Forschung. Die Konzepte sind anschlussfähig sowohl für den Einsatz in anderen Disziplinen als auch an Beratungskonzepte für Lehrende. Fazit ist, dass eine didaktische und curriculare Verankerung von Coaching Studierende dabei unterstützen kann, eine systemische Haltung zu entwickeln und sie damit auf den digitalen Wandel sowie zukünftige Führungsaufgaben vorbereitet.
EventDetectR: An efficient Event Detection System (EDS) capable of detecting unexpected water quality conditions. This approach uses multiple algorithms to model the relationship between various multivariate water quality signals. Then the residuals of the models were utilized in constructing the event detection algorithm, which provides a continuous measure of the probability of an event at every time step. The proposed framework was tested for water contamination events with industrial data from automated water quality sensors. The results showed that the framework is reliable with better performance and is highly suitable for event detection.
Sensor placement for contaminant detection in water distribution systems (WDS) has become a topic of great interest aiming to secure a population's water supply. Several approaches can be found in the literature with differences ranging from the objective selected to optimize to the methods implemented to solve the optimization problem. In this work we aim to give an overview of the current work in sensor placement with focus on contaminant detection for WDS. We present some of the objectives for which the sensor placement problem is defined along with common optimization algorithms and Toolkits available to help with algorithm testing and comparison.
Benchmark experiments are required to test, compare, tune, and understand optimization algorithms. Ideally, benchmark problems closely reflect real-world problem behavior. Yet, real-world problems are not always readily available for benchmarking. For example, evaluation costs may be too high, or resources are unavailable (e.g., software or equipment). As a solution, data from previous evaluations can be used to train surrogate models which are then used for benchmarking. The goal is to generate test functions on which the performance of an algorithm is similar to that on the real-world objective function. However, predictions from data-driven models tend to be smoother than the ground-truth from which the training data is derived. This is especially problematic when the training data becomes sparse. The resulting benchmarks may not reflect the landscape features of the ground-truth, are too easy, and may lead to biased conclusions.
To resolve this, we use simulation of Gaussian processes instead of estimation (or prediction). This retains the covariance properties estimated during model training. While previous research suggested a decomposition-based approach for a small-scale, discrete problem, we show that the spectral simulation method enables simulation for continuous optimization problems. In a set of experiments with an artificial ground-truth, we demonstrate that this yields more accurate benchmarks than simply predicting with the Gaussian process model.
Many black-box optimization problems rely on simulations to evaluate the quality of candidate solutions. These evaluations can be computationally expensive and very time-consuming. We present and approach to mitigate this problem by taking into consideration two factors: The number of evaluations and the execution time. We aim to keep the number of evaluations low by using Bayesian optimization (BO) – known to be sample efficient– and to reduce wall-clock times by executing parallel evaluations. Four parallelization methods using BO as optimizer are compared against the inherently parallel CMA-ES. Each method is evaluated on all the 24 objective functions of the Black-Box-Optimization-Benchmarking test suite in their 20-dimensional versions. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on most of the test functions, also on higher dimensions.
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
Surrogate-based optimization relies on so-called infill criteria (acquisition functions) to decide which point to evaluate next. When Kriging is used as the surrogate model of choice (also called Bayesian optimization), one of the most frequently chosen criteria is expected improvement. We argue that the popularity of expected improvement largely relies on its theoretical properties rather than empirically validated performance. Few results from the literature show evidence, that under certain conditions, expected improvement may perform worse than something as simple as the predicted value of the surrogate model. We benchmark both infill criteria in an extensive empirical study on the ‘BBOB’ function set. This investigation includes a detailed study of the impact of problem dimensionality on algorithm performance. The results support the hypothesis that exploration loses importance with increasing problem dimensionality. A statistical analysis reveals that the purely exploitative search with the predicted value criterion performs better on most problems of five or higher dimensions. Possible reasons for these results are discussed. In addition, we give an in-depth guide for choosing the infill criteria based on prior knowledge about the problem at hand, its dimensionality, and the available budget.
Real-world problems such as computational fluid dynamics simulations and finite element analyses are computationally expensive. A standard approach to mitigating the high computational expense is Surrogate-Based Optimization (SBO). Yet, due to the high-dimensionality of many simulation problems, SBO is not directly applicable or not efficient. Reducing the dimensionality of the search space is one method to overcome this limitation. In addition to the applicability of SBO, dimensionality reduction enables easier data handling and improved data and model interpretability. Regularization is considered as one state-of-the-art technique for dimensionality reduction. We propose a hybridization approach called Regularized-Surrogate-Optimization (RSO) aimed at overcoming difficulties related to high-dimensionality. It couples standard Kriging-based SBO with regularization techniques. The employed regularization methods are based on three adaptations of the least absolute shrinkage and selection operator (LASSO). In addition, tree-based methods are analyzed as an alternative variable selection method. An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than standard SBO to obtain comparable results. The pros and cons of the RSO approach are discussed, and recommendations for practitioners are presented.
We propose a hybridization approach called Regularized-Surrogate- Optimization (RSO) aimed at overcoming difficulties related to high- dimensionality. It combines standard Kriging-based SMBO with regularization techniques. The employed regularization methods use the least absolute shrinkage and selection operator (LASSO). An extensive study is performed on a set of artificial test functions and two real-world applications: the electrostatic precipitator problem and a multilayered composite design problem. Experiments reveal that RSO requires significantly less time than Kriging to obtain comparable results. The pros and cons of the RSO approach are discussed and recommendations for practitioners are presented.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Die Frage, ob Big Data und Künstliche Intelligenz (KI) die Versicherungswirtschaft revolutionieren, beschäftigt schon seit einiger Zeit unsere Gesellschaft sowie im Besonderen die Versicherungsbranche. Die Fortschritte in jüngster Vergangenheit in der KI und bei der Auswertung großer Datenmengen sowie die große mediale Aufmerksamkeit sind immens. Somit waren Big Data und Künstliche Intelligenz auch die diesjährigen vielversprechenden Themen des 24. Kölner Versicherungs-
symposiums der TH Köln am 14. November 2019: Das ivwKöln hatte zum fachlichen Austausch eingeladen, ein attraktives Vortragsprogramm zusammengestellt und Networking-Gelegenheiten für die Gäste aus Forschung und Praxis vorbereitet. Der vorliegende Proceedings-Band umfasst die Vortragsinhalte der verschiedenen Referenten.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten deutlich von den realen Risiken ab. Zudem sind die meisten Menschen durch das Denken in Wahrscheinlichkeiten und hohe Zahlen überfordert. In einer (weitgehend) repräsentativen Bevölkerungsumfrage wurden vom 31.3. bis zum 2.4.2020 insgesamt 2.028 Personen zur Wahrnehmung von Risiken rund um die Corona-Pandemie sowie zur Fähigkeit der Einschätzung exponentieller Entwicklungen befragt.
Die wichtigsten Ergebnisse lassen sich wie folgt zusammenfassen:
Exponentielle Entwicklungen – wie im Falle einer Pandemie gegeben - entziehen sich weitgehend dem menschlichen Vorstellungsvermögen. Das Gleiche gilt für die gigantischen Geldbeträge, die als Hilfsmaßnahmen für die Wirtschaft beschlossen wurden. Diese werden – vereinfacht ausgedrückt - nur noch als „unglaublich viel Geld“ wahrgenommen.
Die Sorgen vor Corona sind – wenig überraschend – in den Köpfen der Bürger überaus präsent. Nur ein kleiner Anteil der Bevölkerung sorgt sich nach eigenen Aussagen gar nicht oder kaum über eine mögliche Ansteckung. Jeder zweite fürchtet eine wirtschaftlichen Notlage, und vierzig Prozent bangen sogar um ihr Leben.
Zum Vergleich haben wir einige weitere Sorgen mit erfasst, die wir bereits in einer Studie im August 2016 erhoben hatten. Damals war Krebs – gemeinsam mit Verkehrsunfällen – die weitaus präsenteste von insgesamt 30 abgefragten Sorgen. Die Angst vor einem Terroranschlag lag bei den Befragten ebenfalls weit vorne. Aber kein Thema hatte die Bürger damals so „im Griff“ wie zum jetzigen Erhebungszeitpunkt die Corona-Krise.
Andere Gefahren scheinen durch Corona nur in moderatem Umfang verdrängt zu werden: Krebs oder Herzinfarkt besorgen tendenziell etwas weniger Menschen, als das in „normalen“ Zeiten der Fall ist. Die vor vier Jahren noch höchst präsente Bedrohung durch Terrorismus ist hingegen zu großen Teilen aus dem Alltagserleben verschwunden.
Wird anstelle des „Bauches“ der „Kopf“ angesprochen, so ändert sich die Reihenfolge der Risiken nicht wesentlich. Ebenso wie Herzinfarkt und Krebs werden auch die Ansteckung und eine wirtschaftliche Notlage von weiten Teilen der Bevölkerung als eine realistische Bedrohung angesehen.
Ausnahme hiervon ist der mögliche Tod durch den Corona-Virus, der sich in den alltäglichen Ängsten (siehe oben Punkt 2) deutlich mehr niederschlägt, als wenn etwas nüchterner über konkrete Wahrscheinlichkeiten nachgedacht wird. Erst in der Altersgruppe ab 55 Jahren steigen auch hier die Werte deutlich an. Sie bleiben aber auch dann realistischerweise unter den Werten für einen Herzinfarkt oder eine Krebserkrankung.
Im Großen und Ganzen hielten sich die Menschen an die auferlegten Verbote: Die Mehrheit folgt diesen zumindest aus eigener Sicht „voll und ganz“. Gut jeder Dritte nimmt es aber nicht so ganz genau, und insgesamt ca. 5% bekennen sich dazu, die Regeln eher oder gar nicht zu befolgen.
Die Frage, wer am ehesten gegen die Regeln verstößt, lässt sich anhand soziodemographischer Daten kaum eindeutig beantworten. Zwar steigt der Anteil derer, die die Regeln „voll und ganz befolgen“, ab ca. 45 Jahren leicht an, insgesamt zeigen sich aber alle Altersgruppen weitgehend „regelkonform“. Noch geringer sind die Unterschiede nach Einkommen, Bildung oder Bundesland. Am ehesten findet sich noch eine Abweichung nach Geschlecht, indem Männer die Regeln etwas „lockerer“ auslegen.
Der Bedarf an Tests ist hoch, eine Mehrheit würde gerne einen Corona-Test vornehmen.
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
Im Band 2/2019 werden Ergebnisse und Inhalte der Definitionphase des Deutsch-Iranischen Projektes „Basis-Infrastrukturen und Services einer inklusiven Katastrophenresilienz im Iran – Basic Infrastructures and Services for Enhancing Inclusive Community Disaster Resilience in Iran“ (INCOR) veröffentlicht. Er gibt einen Überblick über die Inhalte des Projekts und beleuchtet die Hintergründe und Konzeption. Weiter werden Synergien zwischen dem Resilienz-Ansatz für Kritische Infrastrukturen und dem Ansatz der „inclusiveness“ nach UN HABITAT beschrieben. Außerdem wird über die Iranisch-Deutschen Experten Workshops in Teheran und Köln berichtet, welche den internationalen Austausch von Katastrophenschutz-Managern förderten. Abschließend werden Möglichkeiten genannt, wie INCOR dem Sendai Framework beiträgt.
Scholarship of Teaching and Learning (SoTL) wird in der Regel als sozialwissenschaftliches Projekt beschrieben, das an die Lehrenden und ihre Fachkulturen ‚von außen‘ durch die Hochschuldidaktik herangetragen wird (z.B. Wyss, 2018; Szczyrba, 2016). Doch kann die Hochschuldidaktik SoTL auch als ein Anliegen an Lehrende formulieren, aus den Fächern heraus gemeinsam mit den Studierenden eine gemeinsame Wissenschaftspraxis zu implementieren, die das Bildungsanliegen der Studierenden mit dem der Lehrenden verknüpft. Basierend auf dem Verständnis von Huber (2018), dass SoTL die wissenschaftliche Befassung mit der Lehre und dem Lernen der Studierenden im eigenen Fach ist, kann Lehre an Hochschulen durch SoTL zu einer wissenschaftlich begründeten Praxis werden und auf praktischer Klugheit i.S.v. phronesis basieren (Kreber, 2015, S. 568ff.; Dunne, 1993).
Der Beitrag konzipiert SoTL auf der Basis geisteswissenschaftlicher Theorieansätze, um hochschuldidaktisch fundierte und beforschte Lehrkonzepte breiter als auf der Ebene der Technikentwicklung (techne) zu begründen. Dazu stützt er sich auf Ansätze von MacIntyre (Praxis, Tugendethik), Bernstein (singulars und regions), Andresen (Fachwissenschaftspraxis), Mezirow (Reflexionsstruktur) und Nussbaum (Reflexion von Zielen). Angelehnt an diese Ansätze erschließt er das SoTL darauf, wie Lehrende theoretisch und methodologisch fundiert mit ihren Studierenden ergründen können, wie die hochschulischen Fächer mit internalisierten Werten als ‚interne Güter‘ bereicherte Absolvent*innen hervorbringen können.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
Das „Glossar zum Wissensmanagement im Bevölkerungsschutz“ von Norf, Tiller und Fekete (2019) stellt die wesentlichen Begriffe und Konzepte zu Wissensmanagement und seiner Bedeutung für den Bevölkerungsschutz vor. Das Glossar ist ein Ergebnis des Forschungsprojektes WAKE (https://wake-project.eu/), das Lösungsansätze für den bestmöglichen Umgang mit Wissen im Bevölkerungsschutz entwickelt. Ein besonderes Augenmerk liegt dabei auf der Aufarbeitung der Flüchtlingssituation 2015/2016. Es geht um die Frage, wie das darin erworbene Wissen und die dabei gemachten Erfahrungen strukturiert gesammelt, gesichert, aufgearbeitet und für spätere Szenarien genutzt werden können. Das Glossar kann und soll kein Ratgeber für die praktische Einführung von Wissensmanagement in Behörden und Organisationen mit Sicherheitsaufgabe (BOS) sein. Denn für die Einführung eines Wissensmanagements kann es kein Patentrezept geben. Es muss in jedem einzelnen Fall eine individuell zugeschnittene, praktische Wissensmanagementlösung erarbeitet werden. Allerdings entwickelt das WAKE-Projekt, aufbauend auf dem Glossar, Empfehlungen zur Einführung oder Verbesserung eines Wissensmanagements im Organisationsalltag und in Einsatzsituationen im Bevölkerungsschutz.
In einer Veranstaltung sitzen viele Studierende, in einer nächsten auf einmal deutlich weniger. Woran liegt das? Und weiß man, ob ein*e Student*in regelmäßig kommt oder nicht? Ist die Anwesenheit überhaupt von Relevanz? Für Lehrende stehen über das eigene Modul hinaus häufig nur geringe Informationen zur Verfügung, wann, in welchen anderen Modulen und mit welchem Aufwand Studierende eines Semesters mit Selbststudienaufgaben oder begleitenden Prüfungsleistungen wie z. B. Hausarbeiten, Praktika, Präsentationen, Lernkontrollen usw. beschäftigt werden. Aus Sicht der jeweiligen Lehrenden sind diese didaktischen Mittel gut begründet, können jedoch insbesondere dann zu Spitzen in der studentischen Workload führen, wenn keine organisatorische Abstimmung mit Kolleg*innen erfolgt. Diskussionen über die richtige Lehrorganisation und das geeignete Maß an Lernanforderungen bleiben erfahrungsgemäß in Hochschulgremien häufig ohne klares Ergebnis, so dass ein Wunsch nach Objektivierung der subjektiven Meinungen entsteht, der speziell eine Abstimmung der in das Lernen investierten Zeit mit den von den Modulen gestellten Lernanforderungen betrifft. Derartige Fragen waren die Initialzündung zum nachfolgend beschriebenen Projekt, das noch nicht vollumfänglich abgeschlossen ist.
Die Erfassung der von Studierenden in ihr Lernen investierten Zeit und die hieraus abzuleitenden Erkenntnisse sind seit den ZEITLast-Untersuchungen von Schulmeister & Metzger (2011) verbreitet. Jedoch macht es einen Unterschied, ob man einem Kreis von in einem Studiengang lehrenden Professor*innen die validen Ergebnisse einer Studie vorträgt oder ob eine Untersuchung im eigenen Studiengang durchgeführt und somit ‚am eigenen Leib‘ erfahren wird, um dann auf der Basis der Ergebnisse gemeinsam die Zukunft neu zu gestalten. Jedoch, wie bringt man diesen Prozess in Gang?
Der Beitrag zeigt zentrale Elemente eines im Studiengang B.Eng. Fahrzeugtechnik der TH-Köln durchgeführten Lehrentwicklungsvorhabens, insbesondere die gewählte Strategie zur Legitimierung einer Workloadstudie (Faßbender et al., 2018), die formulierten Forschungsfragen, die Methodik, die bisher gewonnenen Ergebnisse und Erkenntnisse sowie ein Fazit mit einem Ausblick.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Band IV des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ widmet sich der Frage, welchen Einfluss die Hochschuldidaktik auf Selbstverständnisse und Werte in der Hochschulentwicklung nehmen kann und soll. Wie kann sich die Hochschuldidaktik durch Scholarship of Academic Development wissenschaftlich fundieren und professionalisieren? Und welche Rolle nimmt sie für das Scholarship of Teaching and Learning ein? Wie können Hochschuldidaktik und Hochschullehre durch forschende Zugänge miteinander und voneinander lernen? Eine weitere Perspektive der Beiträge liegt auf der Frage, wie Forschung zur studentischen Perspektive auf das Hochschullernen die Lehre anders oder neu ausrichten kann.
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren.
Im vorliegenden Band III des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ wird eine mehrperspektivische, wissenschaftliche Auseinandersetzung um Qualität der Hochschulbildung geführt. Die Beitrage nähern sich aus unterschiedlichen Perspektiven folgenden Fragen an: Wie kann die Hochschuldidaktik durch die Analyse und Erforschung des Qualitätsbegriffs dazu beitragen, hochschul-, wirtschafts- und gesellschaftspolitische Herausforderungen als Chance für Hochschulentwicklung zu betrachten? Welche Fragen ergeben sich mit Blick auf Qualitätsentwicklung, welche Werteaspekte sind damit verbunden, und wie wirkt sich dies auf hochschulische Profilbildungsprozesse aus? Welche Veränderungsprozesse werden durch die Reflexion von Qualitätsfragen initiiert und wie wird dadurch tiefgreifende und nachhaltige Veränderung erzielt?
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren.
Die zunehmende Automatisierung sowie Vernetzung des automobilen Verkehrs besitzt potenziell tiefgreifende Auswirkungen auf die Kfz-Versicherung. Neben der Frage nach der Haftung für Verkehrsunfälle spielen dabei ebenso eine sich verändernde Risikolandschaft sowie mögliche Verschiebungen der Kundenschnittstelle durch servicebasierte Mobilitätskonzepte eine strategisch zentrale Rolle. Darüber hinaus führt die zunehmende Vernetzung der Fahrzeuge zu einem sich verschärfenden Wettkampf um den Zugriff auf relevante Daten aus dem Fahrzeug.
Beim 14. FaRis & DAV Symposium beleuchteten die Vortragenden diese Fragen hinsichtlich ihrer Auswirkungen auf das Geschäftsmodell der Kfz-Versicherung, um auf dieser Basis die Herausforderungen und mögliche Lösungsansätze zu diskutieren.
Der vorliegende Band II des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ befasst sich mit der Kultur des Ermöglichens: Welche Werte stehen im Vordergrund und welche rücken in den Hintergrund, wenn man versucht, eine Kultur des Ermöglichens an einer Hochschule zu etablieren? Was ist nötig, damit Maßnahmen nicht fremde Schlaglichter in einer schon existierenden Kultur bleiben, sondern (scheinbar) Bekanntes langfristig in einem neuen Licht erscheinen lassen? Wie ermöglichen Maßnahmen, sich anders miteinander zu treffen und sich zu begegnen, um Bildung zu gestalten? Die hier versammelten Beiträge zur Ebene der Lehrveranstaltung, der Fakultäten, der (Fach-) Kollegien sowie der Hochschule als Organisation zeigen, welchen Beitrag die Hochschuldidaktik im Rahmen einer wertebezogenen Profilbildung für eine solche Kultur leisten kann.
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Das Betriebsrentenstärkungsgesetz stellt eine Novellierung der betrieblichen Altersversorgung (bAV) in Deutschland dar. Mit dem kürzlich verabschiedeten Gesetz wird erstmals die Möglichkeit geschaffen, die reine Beitragszusage (rBZ) ohne Leistungsgarantie auf tarifvertraglichem Weg zu vereinbaren. Die Höhe der späteren Versorgungsleistung der Arbeitnehmer wird somit zum einen durch die entrichteten Beiträge an den Versorgungsträger determiniert. Zum anderen bestimmt der Erfolg der im Kollektiv zu organisierenden Kapitalanlage mit einem ebenfalls gemeinschaftlichen Risikobudget zu einem wesentlichen Teil die spätere Versorgungsleistung. Die Kapitalanlage steht somit stärker denn je im Spannungsfeld zwischen Rendite und Risiko. Konkret ist eine potentiell höhere Zielrente durch eine chancenorientierte Kapitalanlage gegen das Risiko einer nachhaltigen Unterdeckung und einer damit verbundenen Kürzung der Zielrente abzuwägen. Um diese Abwägung bestmöglich zu treffen und die Wahrscheinlichkeit einer nachhaltigen Unterdeckung zu minimieren, müssen die Kapitalanlage effizient gestaltet und Extremrisiken vermieden werden. Im Falle der erfolgreichen Einführung der rBZ ergeben sich zudem Auswirkungen auf die Kapitalanlage für bestehende Systeme. Basierend auf der Entwicklung der bAV-Landschaft in dem Vereinigten Königreich seit der Einführung von DC-Plänen ist anzunehmen, dass auch in Deutschland eine schrittweise Schließung der leistungsgarantierten Systeme erfolgt. Das daraus resultierende, ausbleibende Neugeschäft bei den bestehenden Systemen ist im Rahmen der Kapitalanlage durch eine Verschiebung des Fokus von Rendite und Deckungsgrad hin zu den benötigten Cashflows zur Bedeckung der Rentenzahlung zu adjustieren. Auf dem 13. FaRis & DAV Symposium referierten Altersversorgungs- und Kapitalmarktexperten zu der Ausrichtung und Implementierung der Kapitalanlage für die Zielrente.
Band I des vierteiligen Werkes „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ macht Vielfalt und Offenheit als tragende Elemente einer wertbezogenen Hochschuldidaktik zum Thema. Aufgezeigt wird eine theorie- und praxisgeleitete Diskussion mit Blick auf grundlegende Zusammenhänge von Didaktik, Vielfalt und Offenheit für eine Hochschulbildung in Bewegung. Ein wertschätzender Umgang mit Vielfalt und Offenheit ist im Hochschulkontext zwar keineswegs auf die Hochschuldidaktik begrenzt; sie ist ein Akteur unter mehreren. Doch der Blick in hochschuldidaktische Theorie- und Praxisbestände weist eine besondere Dynamik und Dichte auf. Die Zusammenschau der Beiträge macht deutlich, dass die diskursiv gestaltete Auseinandersetzung und Weiterentwicklung einer wertbezogenen Hochschuldidaktik unter dem Dach von Offenheit und Vielfalt voraussetzungsvoll ist und bei weitem nicht on the go ausgehandelt werden kann.
Die Bände „Profilbildung und Wertefragen in der Hochschulentwicklung I-IV“ beschäftigen sich mit aktuellen hochschuldidaktischen Forschungsansätzen, -ergebnissen und -planungen, die darauf abzielen, den Beitrag der Hochschuldidaktik zu Profilbildung und Wertefragen im Rahmen von Hochschulentwicklungsprozessen zu identifizieren, zu fundieren und zu reflektieren.
The availability of several CPU cores on current computers enables
parallelization and increases the computational power significantly.
Optimization algorithms have to be adapted to exploit these highly
parallelized systems and evaluate multiple candidate solutions in
each iteration. This issue is especially challenging for expensive
optimization problems, where surrogate models are employed to
reduce the load of objective function evaluations.
This paper compares different approaches for surrogate modelbased
optimization in parallel environments. Additionally, an easy
to use method, which was developed for an industrial project, is
proposed. All described algorithms are tested with a variety of
standard benchmark functions. Furthermore, they are applied to
a real-world engineering problem, the electrostatic precipitator
problem. Expensive computational fluid dynamics simulations are
required to estimate the performance of the precipitator. The task
is to optimize a gas-distribution system so that a desired velocity
distribution is achieved for the gas flow throughout the precipitator.
The vast amount of possible configurations leads to a complex
discrete valued optimization problem. The experiments indicate
that a hybrid approach works best, which proposes candidate solutions
based on different surrogate model-based infill criteria and
evolutionary operators.
Die Reinhaltung der Luft spielt heute mehr denn je eine wichtige Rolle. In Gesellschaft und Politik wird über Dieselfahrverbote in Innenstädten diskutiert, um die Feinstaubbelastung in den Städten zu senken. Besonders die Industrie steht vor der Aufgabe, den Partikelausstoß zu senken und Wege zu finden, um eine gesunde Luft zu wahren. Zur Abgasreinigung werden oft Filter eingesetzt. Diese weisen aber hohe Energieverluste auf. Die ständige Reinigung oder der Wechsel der Filter kostet Zeit und Geld. Daher ist neben Filtern eine der gängigsten Methoden die Abgasreinigung durch Staubabscheider. Staubabscheider funktionieren filterlos. Dadurch entfällt eine wiederkehrende Filterreinigung, beziehungsweise der regelmäßige Filtertausch. Die Technik der Staubabscheider hat ihren Ursprung in der Natur. Aus der Betrachtung von Zyklonen (in den Tropen vorkommende Wirbelstürme) wurde ein Verfahren entwickelt, um staubhaltige Fluide von den Verunreinigungen zu trennen. Die Abgasreinigung mittels Zyklon-Staubabscheider wird in vielen verschiedenen
Industrien eingesetzt, heutzutage meist als Vorabscheider. Beispiele hierfür sind die
braunkohleverarbeitende Industrie, die Gesteinsindustrie und die papier- oder holzverarbeitende Industrie, insbesondere dort, wo viel Staub oder auch größere Späne in die Luft gelangen. Auch im Alltag sind Zyklon-Staubabscheider zu finden. Hier kommen sie in beutellosen Staubsaugern oder als Vorabscheider von Staubsaugern bei der Holzverarbeitung zum Einsatz.
Die Vorgänge im Staubabscheider-Zyklon sind bereits durch mathematische Modelle beschrieben worden. Hierbei handelt es sich um Näherungen, jedoch nicht um
die exakte Abbildung der Realität, weswegen bis heute die Modelle immer wieder weiterentwickelt und verbessert werden. Eine CFD (Computional Fluid Dynamics)Simulation bringt meist die besten Ergebnisse, ist jedoch sehr aufwendig und muss für jeden Staubabscheider neu entwickelt werden. Daher wird noch immer an der Weiterentwicklung der mathematischen Modelle gearbeitet, um eine Berechnung zu optimieren, die für alle Staubabscheider gilt. Muschelknautz hat in diesem Bereich über Jahre hinweg geforscht und so eine der
wichtigsten Methoden zur Berechnung von Zyklonabscheidern entwickelt. Diese stimmt oft sehr gut mit der Realität überein. Betrachtet man jedoch die Tiefe des Tauchrohres im Zyklon, fällt auf, dass der Abscheidegrad maximal wird, wenn das Tauchrohr nicht in den Abscheideraum ragt, sondern mit dem Deckel des Zyklons abschließt. Dieses Phänomen tritt weder bei den durchgeführten CFD-Simulationen noch bei den durchgeführten Messungen am Bauteil auf. Ziel der Arbeit ist es, diese Unstimmigkeit zwischen Berechnung und Messung zu untersuchen und Gründe hierfür herauszufinden. Darum wird zunächst der Stand der Technik und das Muschelknautz’sche Modell
vorgestellt, um im Anschluss die Berechnungsmethode genauer zu untersuchen. So soll festgestellt werden, ob die Ursache der Abweichungen zur Realität bei einer Analyse der Berechnungsmethode ersichtlich wird. Beispielsweise soll überprüft werden, ob die Schlussfolgerung einer maximalen Abscheideleistung bei minimaler Tauchrohrtiefe von speziellen Faktoren abhängt. Es wird eine Reihe von Beispielrechnungen durchgeführt, mit deren Hilfe der Zusammenhang
von Abscheidegrad und Tauchrohrtiefe ersichtlich wird. Hierbei werden die Geometrieparameter des Abscheiders variiert, um deren Einfluss auf die Tauchrohrtiefe
zu untersuchen.
Modelling Zero-inflated Rainfall Data through the Use of Gaussian Process and Bayesian Regression
(2018)
Rainfall is a key parameter for understanding the water cycle. An accurate rainfall measurement is vital in the development of hydrological models. By means of indirect measurement, satellites can nowadays estimate the rainfall around the world. However, these measurements are not always accurate. As a first approach to generate a bias-corrected rainfall estimate using satellite data, the performance of Gaussian process and Bayesian regression is studied. The results show Gaussian process as the better option for this dataset but leave place to improvements on both modelling strategies.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum. Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen. Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Surrogate-based optimization and nature-inspired metaheuristics have become the state of the art in solving real-world optimization problems. Still, it is difficult for beginners and even experts to get an overview that explains their advantages in comparison to the large number of available methods in the scope of continuous optimization. Available taxonomies lack the integration of surrogate-based approaches and thus their embedding in the larger context of this broad field.
This article presents a taxonomy of the field, which further matches the idea of nature-inspired algorithms, as it is based on the human behavior in path finding. Intuitive analogies make it easy to conceive the most basic principles of the search algorithms, even for beginners and non-experts in this area of research. However, this scheme does not oversimplify the high complexity of the different algorithms, as the class identifier only defines a descriptive meta-level of the algorithm search strategies. The taxonomy was established by exploring and matching algorithm schemes, extracting similarities and differences, and creating a set of classification indicators to distinguish between five distinct classes. In practice, this taxonomy allows recommendations for the applicability of the corresponding algorithms and helps developers trying to create or improve their own algorithms.
In the present paper a calculation tool for the lifetime prediction of composite materials with focus on local multiaxial
stress states and different local stress ratios within each lamina is developed. The approach is based on repetitiv, progressive in-plane stress calculations using classical laminate theory with subsequent analysis of the material stressing effort and use of appropriate material degradation models. Therefore experimentally data of S-N curves are
used to generate anistropic constant life diagrams for a closer examination of critical fracture planes under any given combination of local stress ratios. The model is verified against various balanced angle plies and multi-directional
laminates with arbitrary stacking sequences and varying stress ratios throughout the analysis. Different sections of the
model, such as residual strength and residual stiffness, are examined and verified over a wide range of load cycles. The obtained results agree very well with the analyzed experimental data.
Architecural aproaches are considered to simplify the generation of re-usable building blocks in the field of data warehousing. While SAP’s Layer Scalable Architecure (LSA) offers a reference model for creating data warehousing infrastructure based on SAP software, extented reference models are needed to guide the integration of SAP and non-SAP tools. Therefore, SAP’s LSA is compared to the Data Warehouse Architectural Reference Model (DWARM), which aims to cover the classical data warehouse topologies.
Die Forschungsstelle finanzielles & aktuarielles Risikomanagement (FaRis) organisiert Anfang Juni und Dezember eines Jahres gemeinsam mit der Deutschen Aktuarvereinigung (DAV) gemeinsame Symposien zu relevanten aktuariellen Themen. Wegen des Weltkongresses der Aktuare vom 4. bis zum 8. Juni in Berlin wurde das üblicherweise zeitgleich stattfindende FaRis & DAV Symposium als „FaRis at ICA“ veranstaltet – im Sinne einer Zusammenfassung aller Kongressbeiträge von FaRis-Mitgliedern als Überblick für die in FaRis abgedeckten Forschungsgebiete. Die Kurzversionen dieser Beiträge sind in diesem Tagungsband zusammengestellt. Der nur alle vier Jahre stattfindende Weltkongress der Aktuare ist der bedeutsamste Kongress zu allen aktuariellen Fragestellungen. Mit etwa 2.700 nationalen und internationalen Teilnehmern war der ICA 2018 in Berlin der teilnehmerstärkste Kongress seit dem ersten Weltkongress 1895 in Brüssel.
Das Handlungsfeld Lehre und Studium ist nicht mehr als nur erfahrungsgeleitete, routineförmig verlaufende Praxis zu betrachten, sondern als wissenschaftliches Arbeitsgebiet zu etablieren und damit systematischer und wissenschaftlich fundierter Reflexion und Gestaltung zugänglich zu machen. Der Band zeigt, wie dies durch Intensivierung, Verbreitung und Diskussion von forschenden Ansätzen in der hochschuldidaktischen Praxis gelingt. Die Beiträge bieten mit ihren theoretischen, konzeptionellen und empirischen Zugängen einen Fundus wissenschaftlicher Erkenntnisse, die eine evidenzbasierte Entwicklung von Lehre und Studium ermöglichen. Insbesondere das hochschuldidaktische Handeln kann daher durch solche Forschung evidenzbasiert fundiert erfolgen.
In der vorliegenden Arbeit werden in drei Fallbeispielen aus dem Bereich der betrieblichen Altersversorgung die Versorgungszusagen mithilfe von bewerteten inhomogenen Markov-Ketten modelliert. Dabei liegt der Fokus auf den Pfaden der Markov-Ketten. Es wird anhand der Fallbeispiele gezeigt, wie man mithilfe der Pfade den Erwartungswert und die Standardabweichung der Zufallsvariablen „Barwert aller zukünftigen Zahlungen“ berechnen kann. Darüber hinaus ist es auf Basis der Pfade möglich, in Bezug auf diese Zufallsvariable auch Wahrscheinlichkeiten von speziellen Ereignissen und Risikomaße – Value at Risk und Expected Shortfall – zu berechnen.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
Aktuell kommen in der Versicherungsbranche zunehmend neue Geschäftsmodelle und innovative Technologien zum Einsatz. Das betrifft nicht nur einzelne Aufgaben und Funktionen, wie zum Beispiel den Vertrieb von Versicherungen. Vielmehr beobachten wir Innovationen durch Unternehmen (den „InsurTechs“) entlang der gesamten Wertschöpfungskette und sogar Neugründungen von Versicherungsunternehmen. Viele Unternehmer und Investoren beabsichtigen, mit ihren Ideen nachhaltige Lösungen zu entwickeln und das Produkt „Versicherung“ mit kundenorientierten Lösungen zu verbessern. Zum 12. Symposium hatten wir junge InsurTech-Unternehmen aus den verschiedenen Versicherungssparten eingeladen. Gründer und Vorstände berichteten am InsurTech-Standort Köln von ihren Visionen und vom aktuellen Umsetzungsstand in der Praxis.
Der vorliegende Band versucht, einen ersten Überblick über die Inhalte und Wesensmerkmale des noch relativ jungen Studiengangs und Forschungsbereichs Rettungsingenieurwesen an der TH Köln (früher FH Köln) zu schaffen. Damit kann der Sammelband zwar nicht für alle Ausprägungen des „Rettungsingenieurwesens“ (oder Rescue Engineering) auch an anderen Hochschulen stehen. Jedoch soll er einen ersten Eindruck ermöglichen und zwar für Außenstehende aber durchaus auch für Studierende und Kollegen an der TH Köln, was „Rettungsingenieurwesen“ überhaupt ist, und welche fachlichen, methodischen und auch anwendungsbezogenen Inhalte es beinhaltet. Abgrenzungen zu Nachbarstudiengängen oder Aufgabenfeldern sind nicht einfach und auch dieser Sammelband kann nur einen ersten Aufschlag anbieten. Jedoch wird es in fünf oder zehn Jahren einmal interessant sein, wie und wohin sich dieser Studiengang, aber auch die gleichzeitig am Institut für Rettungsingenieurwesen (IRG) stattfindende Forschung hin entwickelt haben wird. Somit dient dieser Band nicht nur der Begriffsbestimmung und inhaltlichen weiteren Ausgestaltung; er soll auch dazu einladen, mit zu überlegen, in welche Richtung sich Lehre und Forschung noch entwickeln könnten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Das prinzipienorientierte Aufsichtssystem von Solvency II erkennt als zentralen Grundsatz, dass nach dem Prinzip „Substanz über Form“ die ökonomische Wirkung eines Risikotransferinstrumentes und nicht die formale Einbettung desselben als Entscheidungskriterium der Berücksichtigungsfähigkeit gilt. Dieser Grundsatz trägt den Entwicklungen auf dem Rückversicherungsmarkt insoweit Rechnung, da dadurch auch alternative Formen des vt. Risikotransfers grundsätzlich Anerkennung finden können, wenn sie den Anerkennungsvoraussetzungen der aufsichtsrechtlichen Vorgaben entsprechen. Dabei zeigt sich, dass der Aufbau und die Mechanik dieser alternativen Formen des vt. Risikotransfer insbesondere eine (ökonomisch) abweichende Bewertung hinsichtlich des vt. Basisrisikos und Ausfallrisikos bedingen können. Kern der vorliegenden Arbeit ist deshalb die Prüfung, inwieweit die Vorgaben von Solvency II diese Unterschiedlichkeit zur Berücksichtigung von vt. Basisrisiko ökonomisch adäquat abbilden. Dabei wird dargestellt, dass insbesondere eine nach Solvency II im Vergleich zum Marktverständnis weit gefasste Definition der Begrifflichkeit sowie eine uneinheitliche Anwendung innerhalb der Gesetzestexte der einheitlichen Berücksichtigung potentiell zuwiderlaufen oder uneinheitliche Prüfungserfordernisse an ökonomisch gleich wirkende Instrumente stellen. Darüber wird hergeleitet, dass die Vorgaben nach Solvency II Regelungen enthalten, welche die ökonomische Wirkung des vt. Basisrisikos (z. B. aus Währungsinkongruenzen) inadäquat widerspiegeln.