Refine
Year of publication
Document Type
- Working Paper (86)
- Report (54)
- Conference Proceeding (28)
- Book (20)
- Article (10)
- Other (9)
- Preprint (7)
- Doctoral Thesis (3)
Language
- German (161)
- English (52)
- Multiple languages (4)
Has Fulltext
- yes (217)
Keywords
- Versicherungswirtschaft (36)
- Forschungsbericht (20)
- Optimierung (20)
- Hochschuldidaktik (17)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (11)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
- Research Report (8)
- Rückversicherung (8)
- Versicherungswissenschaft (8)
- Digitalisierung (7)
- Institut für Versicherungswesen (7)
- Resilienz (7)
- Schadenversicherung (7)
- Solvency II (7)
- Hochschule (6)
- Hochschulentwicklung (6)
- Hochschulforschung (6)
- Simulation (6)
- Barwert (5)
- Benchmarking (5)
- Bewertete Markov-Kette (5)
- Embedded Value (5)
- Evolutionärer Algorithmus (5)
- Forschungsstelle Versicherungsmarkt (5)
- Globale Optimierung (5)
- Markov-Ketten (5)
- Risiko (5)
- Technische Informatik (5)
- Versicherungsrecht (5)
- Altersversorgung (4)
- Baudenkmal (4)
- Big Data (4)
- Disaster Risk Reduction (4)
- Forschungsstelle FaRis (4)
- Hochschulbildung (4)
- Hochschullehre (4)
- Kapitalanlage (4)
- Künstliche Intelligenz (4)
- Lebensversicherung (4)
- Lehrentwicklung (4)
- Markov-Kette (4)
- Maschinelles Lernen (4)
- Metaheuristik (4)
- Modeling (4)
- Resilience (4)
- Soziale Software (4)
- Verwundbarkeit (4)
- Wirtschaftswissenschaften (4)
- insurance (4)
- Architektur (3)
- Architekturgeschichte (3)
- Betriebliche Altersversorgung (3)
- Computational Intelligence (3)
- Digitale Lehre (3)
- E-Learning (3)
- Extreme Events (3)
- Forschendes Lernen (3)
- Forschungsstelle Versicherungsrecht (3)
- Genetic Programming (3)
- Genetisches Programmieren (3)
- Hybride Lehre (3)
- Interne Modelle (3)
- Kraftfahrtversicherung (3)
- Kriging (3)
- Krisenmanagement (3)
- Köln (3)
- Lehre (3)
- Marketing (3)
- Markov Chain (3)
- Mehrkriterielle Optimierung (3)
- Natural Hazards (3)
- Naturgefahr (3)
- Required Capital (3)
- Risk Management (3)
- Sequential Parameter Optimization (3)
- Sequentielle Parameter Optimierung (3)
- Standardformel (3)
- Surrogate (3)
- Surrogate Models (3)
- Versicherungsbranche (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Versicherungswesen (3)
- Versuchsplanung (3)
- Vulnerability (3)
- Zivilschutz (3)
- 3D Printing (2)
- Anpassung (2)
- Asset-Liability-Management (2)
- Bayesian Optimization (2)
- Bergisch Gladbach (2)
- Bevölkerungsschutz (2)
- COVID-19 (2)
- Charakteristische Funktion (2)
- Climate Change Adaptation (2)
- Co-Kriging (2)
- Combined simulation (2)
- Denkmalpflege (2)
- Design (2)
- Design of Experiments (2)
- Deutsche Aktuarvereinigung (2)
- Didaktik (2)
- Direktversicherung (2)
- Economic Value Added (2)
- Ensemble Methods (2)
- Entdeckendes Lernen (2)
- Ereignisdefinition (2)
- Event Detection (2)
- Evolutionary Algorithms (2)
- Evolutionary Computation (2)
- Evolutionsstrategie (2)
- Evolutionäre Algorithmen (2)
- FaRis (2)
- Farbmittel (2)
- Feldafinger Brandkasse (2)
- Finanzmathematik (2)
- Forschungsschwerpunkt Rückversicherung (2)
- Gaussian Process (2)
- Gefahrenabwehr (2)
- Genetische Algorithmen (2)
- Geschichte (2)
- Hochschulprofile (2)
- Hochwasser (2)
- Holbein, Hans, 1460-1524 (2)
- IVW Köln (2)
- Imputation (2)
- Kapitalmarkt (2)
- Katastrophe (2)
- Katastrophenschutz (2)
- Klimawandelanpassung (2)
- Klimaänderung (2)
- Kollektive Sparprozesse (2)
- Kölner Forschungsstelle Rückversicherung (2)
- Langlebigkeitsrisiko (2)
- Lehramt (2)
- Lehrevaluation (2)
- Lernende Hochschule (2)
- MCEV (2)
- Machine Learning (2)
- Maltechnik (2)
- Markowitz Optimierung (2)
- Metamodel (2)
- Mikroökonomie (2)
- Moderne (2)
- Motivation (2)
- Multi-Criteria Optimization (2)
- Multiobjective Optimization (2)
- Nachkriegsmoderne (2)
- Online-Sozialisation (2)
- Onlineversicherung (2)
- Optimierungsproblem (2)
- Papierfabrik J. W. Zanders (2)
- Parallelization (2)
- Performanceoptimierung (2)
- Priced Markov Chain (2)
- Produktionstheorie (2)
- Prognose (2)
- R (2)
- Regression (2)
- Reinforcement Learning (2)
- Reinsurance (2)
- Risikobehaftete Zahlungsströme (2)
- Scholarship of Teaching and Learning (2)
- Sozialmanagement (2)
- Surrogat-Modellierung (2)
- Surrogate Modeling (2)
- Surrogate-based (2)
- Taxonomie (2)
- Taxonomy (2)
- Telematik (2)
- Test Function (2)
- Unterzeichnung (2)
- Value at Risk (2)
- Versicherungsmarkt (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- Wissensmanagement (2)
- Zeitreihenanalyse (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- 3D-Druck (1)
- Aachen (1)
- Abbruch (1)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Adaptive Schrittweite (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- Aktivierung (1)
- Aktuare (1)
- Algorithm Tuning (1)
- Algorithmus (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Angewandte Mathematik (1)
- Architekt (1)
- Architektur <Informatik> (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Ausbildung (1)
- Ausgleichsverfahren (1)
- Authentizität (1)
- Automated Driving (1)
- Automated Learning (1)
- Automation (1)
- Automatisiertes Fahren (1)
- Autowerkstätten (1)
- Auxiliaries (1)
- BBOB (1)
- BLANK (1)
- Backtesting (1)
- Bacteria (1)
- Bakterien (1)
- Bartholomäuskapelle (1)
- Basis-Infrastrukturen und Services (1)
- Basisrisiko (1)
- Bauaufnahme (1)
- Bauen im Bestand (1)
- Bauforschung (1)
- Baugeschichte (1)
- Bayesian Learning (1)
- Bayesian Regression (1)
- Behrens, Peter (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Berichtspflichten (1)
- Berlin (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big data platform (1)
- BigWa (1)
- Bildungsforschung (1)
- Bildungsgut (1)
- Bildungsstandard (1)
- Binomialmodell (1)
- Biogas (1)
- Biogas Plant (1)
- Biometrie (1)
- Biotechnologie (1)
- Biotechnology (1)
- Blended Learning (1)
- Board Games (1)
- Brazil (1)
- Brutalismus (1)
- Business Case Innovation (1)
- Business Intelligence (1)
- CAN-Bus (1)
- Cairns-Blake-Dowd Modell (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Cashflow (1)
- Cashflow-Matching (1)
- Ccomputational fluid dynamics (1)
- Central limit theorem (1)
- Check24 (1)
- Civil Protection (1)
- Coaching (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Computational fluid dynamics (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Copula (1)
- Curriculumentwicklung (1)
- Curriculumevaluation (1)
- Customer Journey (1)
- Customized Distribution (1)
- Cyber-physische Produktionssysteme (1)
- Cyclone Dust Separator (1)
- Cyclotron Sensor Data (1)
- DA-Direkt (1)
- DAX (1)
- Data Analysis (1)
- Data Mining (1)
- Data Modelling (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Datenschutz (1)
- Decision tree (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Digitale Gruppenarbeit (1)
- Digitale Kompetenz (1)
- Digitale Medien (1)
- Digitales Zeitalter (1)
- Disaster Relief Forces (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Diversifikation (1)
- Diversity (1)
- Diversity Management (1)
- Dritte Säule (1)
- Dye (1)
- E-Book (1)
- Economic Scenario Generator (1)
- Effizienz einer Rückversicherungslösung (1)
- Einsatzkräfte (1)
- Electrostatic Precipitator (1)
- Emotionen (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Ensemble based modeling (1)
- Enterprise 2.0 (1)
- Entrepreneurship (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Entstauber (1)
- Entwurf (1)
- Erfahrungsbericht (1)
- Erfahrungsberichte (1)
- Ermöglichen (1)
- Erneuerbare Energien (1)
- Evaluation (1)
- Evidenzbasierung (1)
- Evolution Strategies (1)
- Evolutionary Robotics (1)
- Evolutionsstrategien (1)
- Expected Improvement (1)
- Expensive Optimization (1)
- Experiment (1)
- Experimental Algorithmics (1)
- FH Köln (1)
- FPGA ML (1)
- Fachhochschule (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faktorinvestments (1)
- Faserverbundwerkstoffe (1)
- Feature selection (1)
- Fehlende Daten (1)
- Fehlerbaum Analyse (1)
- Fernunterricht (1)
- Finanzwirtschaft (1)
- Flood (1)
- Flowcurve (1)
- Flushing (1)
- Flut 2021 (1)
- Flüchtlingssituation 2015/2016 (1)
- Forschungsformate (1)
- Forschungsstelle (1)
- Fotografie (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Freikirchliche Johanneskirche (Bochum) (1)
- Frequency Severity Model (1)
- Fréchet-Hoeffding-Bounds (1)
- Fréchet-Hoeffding-Schranken (1)
- Function Approximation (1)
- Funktionstest (1)
- Färben (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- Gemischtes Lehrformat (1)
- Genetic Algorithms (1)
- Genetic programming (1)
- Genetische Programmierung (1)
- Geografie (1)
- Geometrie (1)
- Gesellschaft (1)
- Gesellschaftlicher Wandel (1)
- Gestaltung (1)
- Gewölbe (1)
- Glaspartikel (1)
- Glaspulver (1)
- Gründungskultur (1)
- HUK24 (1)
- Hans Scharoun (1)
- Health condition monitoring (1)
- Helfer (1)
- Heston Model (1)
- Heuristics (1)
- Hochschulbau (1)
- Hochschulbildungsforschung (1)
- Hochschuldidaktische Forschung (1)
- Hochschulkommunikation (1)
- Hochschulplanung (1)
- Hochschulprofil (1)
- Hochschulsystem (1)
- Hochwasser 2021 (1)
- Holbein, Hans (1)
- Hot rolling (1)
- Hybrides Lehren und Lernen (1)
- Hängekuppeln (1)
- INCOR (1)
- IT Architektur (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationskompetenz (1)
- Informationsverhalten (1)
- Informationsvermittlung (1)
- Ingenieurstudium (1)
- Innenarchitektur (1)
- Innenraum (1)
- Innerinstitutionelle Forschung (1)
- Innovation (1)
- Innovationsakzeptanz (1)
- Innovative Geschäftsmodelle (1)
- Instagram (1)
- Institute for Insurance Studies (1)
- InsurTechs (1)
- Insurance Linked Securities (ILS) (1)
- Integriertes Lernen (1)
- Intergene (1)
- Internes Modell (1)
- Johannes-Kirche (1)
- Jugendstil (1)
- KI (1)
- Kapelle (1)
- Kapitalanlagerisiko (1)
- Kapitalmarktrisiken (1)
- Katastrophenereignis (1)
- Katastrophenmodellierung (1)
- Katastrophenrisikomanagement (1)
- Kfz-Versicherung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge extraction (1)
- Kognition (1)
- Kognitive Referenzarchitektur (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompetenzentwicklung (1)
- Kompression (1)
- Konstruktionsgeschichte (1)
- Konstruktivismus (1)
- Konsumenteninformation (1)
- Korrelation (1)
- Korrelationsmatrix (1)
- Krankenversicherung (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenerfahrungen (1)
- Kundenorientierung (1)
- Kundenverhalten (1)
- Kunst am Bau (1)
- Kunstgewerbeschule (1)
- Kurzpräsentation (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Lehr- und Lernkonzepte (1)
- Lehr-/Lernforschung (1)
- Lehr-/Lernkonzepte (1)
- Lehrformate (1)
- Lehrinterventionen (1)
- Lehrkompetenzentwicklung (1)
- Lehrkultur (1)
- Lehrplanentwicklung (1)
- Lehrszenarien (1)
- Lehrveranstaltung (1)
- Lernende Organisation (1)
- Lernkultur (1)
- Lernmotivation (1)
- Lessons learned (1)
- Lichtmessung (1)
- Lifetime Prediction (1)
- Lineare Regression (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Machine learning (1)
- Maklerwordings (1)
- Man-Made-Katastrophen (1)
- Marktanteile (1)
- Massendaten (1)
- Massive Online Analysis (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metaheuristics (1)
- Metal (1)
- Metamodell (1)
- Metamodels (1)
- Methode von Heligman-Pollard (1)
- Mies van der Rohe, Ludwig (1)
- Missing Data (1)
- Missing Data Imputation (1)
- Mixed Models (1)
- Mixed-Effects Models (1)
- Mixed-Methods-Ansatz (1)
- Mobilitäts-Ökosysteme (1)
- Mode (1)
- Model Calibration (1)
- Model Selection (1)
- Modelierung (1)
- Modell (1)
- Modelling (1)
- Modellkalibrierung (1)
- Modelllernen (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Motor Insurance (1)
- Movementanalyse (1)
- Multi-Agent Systems (1)
- Multi-criteria Optimization (1)
- Multi-fidelity (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Museum (1)
- N-tuple Systems (1)
- Nachhaltigkeit (1)
- Nat Cat (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Naturkatastrophen (1)
- Net Promoter Score (1)
- Netzwerk (1)
- Netzwerkberatung (1)
- Netzwerke (1)
- Neue Medien (1)
- Neural Network (1)
- Neural Networks (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Notrufsystem (1)
- Numerische Strömungssimulation (1)
- Offenheit (1)
- On-line Algorithm (1)
- Online Adaptation (1)
- Online Information Review (1)
- Online-Portal (1)
- Open RAN (1)
- Optische Zeichenerkennung (1)
- Ordnungspolitik (1)
- Organisationsentwicklung (1)
- PID Control (1)
- Paderborn (1)
- Pandemie (1)
- Pandemien (1)
- Pannendienst (1)
- Papierfabrik (1)
- Parallelisierung (1)
- Parameter Tuning (1)
- Parametertuning (1)
- Peer-Feedback (1)
- Pensionskasse (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Personenversicherungsmathematik (1)
- Pflegeversicherung (1)
- Planimetrische Komposition (1)
- Plywise Analysis (1)
- Praxis (1)
- Predictive Analytics (1)
- Present Value (1)
- Produktentwicklung (1)
- Produktentwicklungsprozess (1)
- Profilbildung (1)
- Prokrastination (1)
- Promotion (1)
- Proportion (1)
- Prozesse (1)
- Prägeschrifterkennung (1)
- Prämienrisiko (1)
- Prüfungsdaten (1)
- Qualität in Lehre und Studium (1)
- Qualitätsbegriff (1)
- Qualitätsentwicklung (1)
- Qualitätskultur (1)
- Quantitatives Risikomanagement (1)
- REST-konforme Web Services (1)
- RFID (1)
- Raderthal (1)
- Railroad Network (1)
- Rathaus (1)
- Referenzmodell (1)
- Reflexion (1)
- Reform (1)
- Regulierung (1)
- Reifegradmodell (1)
- Rendite (1)
- Rettungsingenieurwesen (1)
- Rettungskostenersatz (1)
- Return on Risk Adjusted Capital (1)
- Rezeptionsästhetik (1)
- Rezeptionsästhetische Praxis (1)
- Risiko , Risikomanagement , Krisenmanagement , Gefahrenabwehr (1)
- Risiko-Rendite-Profile (1)
- Risikoaggregation (1)
- Risikobudgetierung (1)
- Risikomanagement technischer Systeme (1)
- Risikomaß (1)
- Risikoneutrale Bewertung (1)
- Risikosteuerung (1)
- Risk & Rescue GIS-Lab (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Romanik (1)
- Rundfunk (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- SOTL (1)
- SPOT (1)
- Schadenmodellierung (1)
- Selbstbestimmungstheorie (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Sendegebäude (1)
- Sensor placement (1)
- Sensortechnik (1)
- Signalanalyse (1)
- Silberstift (1)
- Simulated annealing (1)
- Simulation-based Optimization (1)
- Simulationsmodell (1)
- Social Learning (1)
- Social Media (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Social-Media-Kommunikation (1)
- Software (1)
- Soziale Medien (1)
- Sozialer Wandel (1)
- Sozialraum (1)
- Spülen (1)
- Stacked Generalization (1)
- Stacking (1)
- Standardisierung (1)
- Starkregen (1)
- Statistics (1)
- Statistik (1)
- Statistische Versuchsplanung (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Strategie (1)
- Structural Health Monitoring (1)
- Studiengangsentwicklung (1)
- Studierendenaktivierung (1)
- Superficial Images (1)
- Supervision (1)
- Surrogate Mod (1)
- Surrogate Model (1)
- Surrogate Optimization (1)
- Surrogate model (1)
- Surrogate model based optimization (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogates (1)
- Surrogatmodellbasierte Optimierung (1)
- Sustainability (1)
- Synagoge (1)
- System Identification (1)
- Systemarchitektur für verteilte (1)
- Systemidentifikation (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Teamteaching (1)
- Technische Hochschule Köln (1)
- Technische Versicherung (1)
- Telematics Data (1)
- Telematiktarife (1)
- Temporal Difference Learning (TDL) (1)
- Test function generator (1)
- Testgröße (1)
- Textiles (1)
- Time Series (1)
- Time-series (1)
- Traffic Density Classification (1)
- Transparenz (1)
- Trinkwasser (1)
- Trinkwasserversorgung (1)
- Umfrage (1)
- Umnutzung (1)
- Univariate Data (1)
- Unsicherheit (1)
- Unternehmensgründung (1)
- Unternehmensplanung (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Unterrichtsplanung (1)
- Unterrichtssimulation (1)
- Value-Based-Management (1)
- Variable reduction (1)
- Varianzanalyse (1)
- Verantwortung (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Verbraucherzufriedenheit (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versciherungsmathematik (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versorgungsstruktur (1)
- Verteilungsanpassung (1)
- Verunreinigung (1)
- Vielfalt (1)
- Volkswirtschaftslehre (1)
- Vorbild (1)
- Vorgehensmodell (1)
- Vorverarbeitung (1)
- WSDL (1)
- Wahrnehmung (1)
- Walther Ruoff (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wasserverteilung (1)
- Wasserwirtschaft (1)
- Water Distribution Systems (1)
- Water Quality Monitoring (1)
- Water distribution systems (1)
- Web Services (1)
- Wert (1)
- Wertarchitektur (1)
- Werte (1)
- Wertethik (1)
- Wertorientierte Steuerung (1)
- Wertschätzung (1)
- Wiki (1)
- Wissen (1)
- Wissenschaftspraxis (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Word-of-Mouth (1)
- Workloaderhebung (1)
- World Wide Web 2.0 (1)
- Zeitreihe (1)
- Zentraler Grenzwertsatz (1)
- Zielrente (1)
- Zins (1)
- Zinsgarantien (1)
- Zinsmodelle (1)
- Zufriedenheit (1)
- Zusammengesetzte Poisson-Verteilung (1)
- Zuverlässige eingebettete Systeme (1)
- Zylon Enstauber (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- bottlenecks (1)
- charakteristische Funktion (1)
- classification (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- eCall (1)
- economic assessment (1)
- ecosystem services (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- faris (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- mobile Anwendungen (1)
- model-assisted optimization (1)
- modellbasierte Optimierung (1)
- opportunity costs (1)
- regression (1)
- reinsurance (1)
- reinsurance programs (1)
- scholarship of academic development (1)
- scholarship of teaching and learning (1)
- social media maturity model (1)
- social media strategy (1)
- studentisches Lernen (1)
- team teaching (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- vorvertragliche Anzeigepflicht (1)
- water resources (1)
- watershed protection (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Ökosystem-Dienstleistungen (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- Übersetzen (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (77)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (26)
- Zentrum für Lehrentwicklung (20)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (8)
- Fakultät 07 / Institut für Nachrichtentechnik (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (4)
Die mikroökonomische Produktionstheorie beschreibt ein Produktionsmodell des Outputs als Funktion des Inputs und leitet aus der Grenzkostenfunktion das Angebot her. Überträgt man die-ses Modell auf Versicherungen, so ergibt sich hier der Output im Wesentlichen als Funktion der beiden wichtigsten Inputfaktoren Arbeit und Kapital, wobei diese Sichtweise im Rahmen der wertorientierten Steuerung von Versicherungsunternehmen aber eher unüblich ist. Dennoch ergeben sich aus der mikroökonomischen Sichtweise durchaus auch alternative Erkenntnisse, so dass in dieser Ausarbeitung das mikroökonomische Produktionsmodell unter einigen vereinfachenden Annahmen auf das Produkt Versicherung übertragen und mit der wertorientierten Sichtweise verglichen wird.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
Der MCEV stellt nicht nur in der Lebensversicherung, sondern auch in der Schadenversicherung einen alternativen Ansatz dar, um den ökonomischen Wert eines Unternehmens zu ermitteln. Dabei ist die Ermittlung des MCEV in der Schaden-versicherung durchaus weniger komplex als in der Lebensversicherung, da das Phänomen der Stochastik in der Stochastik i. d. R. nicht auftritt. In dieser Arbeit ist für die Schadenversicherung ein vereinfachtes Formelwerk für den MCEV ohne Renewals dargestellt, mit dem die wichtigsten Auswirkungen des Embedded Values in der Scha-denversicherung getestet werden kann.
Die Solvency II Standardformel erlaubt zusätzlich zum Ansatz einer Verlust- absorbierung durch Rückstellungen auch den Ansatz einer Verlustabsorbierung durch latente Steuern. Die Verlustabsorbierung durch latente Steuern hängt davon ab, wie werthaltig aktivierte latente Steuern in einer Marktwertbilanz für einen vordefinierten Verlustfall sind. Hier gibt die Standardformel keine klaren Vorgaben, sondern verlangt für den Ansatz einer Verlustabsorbierung und damit einhergehend einer Minderung des Solvenzkapitalbedarfs eine Einschätzung der Werthaltigkeit aktivierter latenter Steuern.
Mit Hilfe von internen Modellen kann man in der Schadenversicherung das Risiko / Rendite Profil einer Neugeschäftsstrategie bewerten und Entscheidungen daraus ableiten. Dabei kann man i. d. R. nur einzelne Strategien miteinander vergleichen, aber kein allgemein gültiges Optimum herleiten. Unter bestimmten Voraussetzungen ist es allerdings möglich, für das (Brutto) Neugeschäft auch geschlossene Lösungen für diese Fragestellung zu finden. Selbst wenn diese Voraussetzungen in der Reinform meistens kaum vorliegen, ergeben sich doch aus diesem Ansatz einige interessante Implikationen für die Unternehmenssteuerung. Insbesondere können solche Ansätze dafür verwendet werden, bessere „Startwerte“ zu finden, die dann mit internen Modellen getestet werden können.
Der Beitrag behandelt ein zum Teil im nationalsozialistischen ductus gehaltenes Urteil des Reichsgerichts zur sog. „Führerscheinklausel“ in der Kraftfahrtversicherung aus dem Jahre 1941. Hintergrund dieses Urteil war eine verbrecherische „Anordnung“ von Heinrich Himmler, welche jüdischen Deutschen das Fahren von Kraftfahrzeugen verbot.
Der Verfasser kam auf dieses Urteil, als er im Archiv der BGH-Bibliothek die unveröffentlichten Urteile des Versicherungssenates des Reichsgerichtes zwischen 1939 bis 1945 durcharbeitete. Im Bundesarchiv konnte der Autor sodann die Gerichtsakte einsehen und ferner die Personalakten der entscheidenden Reichsgerichtsräte. Der Verfasser geht auch auf das Schicksal des später im Rahmen der Schoa ermordeten jüdischen Fahrers ein.
Dieses Urteil des Versicherungssenates belegt anschaulich, insbesondere unter Berücksichtigung der erfolgten Auswertung auch seiner übrigen Rechtsprechung, wie im Bereich des Zivilrechtes die Gerichte ihre Rechtsprechung auch nach der „Machtergreifung“ scheinbar normal weiterführten, teilweise auch Klage von Juden stattgaben und auch sind beim Versicherungssenat des Reichsgerichtet direkte politische Enflussnahmen nicht zu belegen. Aber wie die Auswertung des Verfassers rund um das „Führerscheinurteil“ belegt, war dies auch nicht notwendig, da denn Richter bewusst gewesen sein dürfte, wie sie einerseits formaljuristisch „richtig“ entscheiden, anderseits sich gegenüber den nationalsozialistischen Machthabers nicht angreifbar machen.
Am speziellen Fall der Studierenden des Instituts für Versicherungswesen an der Fachhochschule Köln wurde untersucht, wie das Medium E-Book eingeschätzt wird. Die empirische Untersuchung sollte im Wesentlichen die folgende Fragestellung beantworten: Welche Merkmale von E-Book und gedrucktem Buch bestimmen die Ein- stellung der Studierenden zu ihnen? Dabei griff das Projektteam zunächst auf die von K. Messner u.a. vorgeschlagene Skala zur Einstellung gegenüber E-Books zurück (Book Lovers, Technophiles, Printers, and Pragmatists: The Social and Demographic Structure of User Attitudes Toware e-Books, in: College and research libraries, 2012, Nr. 5, Jg. 73, S. 420 ff.). Für die Erhebung wählte das Projektteam die Methode einer Online-Befragung, die sich an aktuell Studierende und ehemalige Studierende des Instituts richtete. Die Befragung folgt einem standardisierten Ansatz und konnte auf 189 verwertbare Fragebögen zurückgreifen. Untersucht wurde der Einfluss folgender Faktoren: Alter, Geschlecht, Vorerfahrung mit digitalen Texten, Internetaffinität und grund-legende Einstellung zur Digitalisierung der Lebensbereiche. Mehrere Regressions- und Pfadanalyse-Ansätze ergaben: Die beiden stärksten Einflussfaktoren waren Vorerfahrung mit digitalen Texten und Internetaffinität; von Geschlecht ging nur eine indirekte Wirkung über Internetaffinität aus. Alter spielte keine Rolle, und auch für die grundlegende Einstellung zur Digitalisierung der Lebensbereiche konnte kein Zusammenhang zur Präferenz von E-Books aufgewiesen werden.
Bewertungsportale, in denen man seine Meinung zu Gütern oder Dienstleistungen äußern kann, sind seit einiger Zeit bekannt und verbreitet. Kann durch sie die Nachfrageseite eine neue, informationsgestützte Machtposition erlangen? Ein Projektteam des Instituts für Versicherungswesen an der TH Köln (ivwKöln) hat sich dieser Frage gewidmet und zunächst kontrastierende Hypothesen aus der Gegenüberstellung des informationsökonomischen und des diffusionstheoretischen Ansatzes entwickelt. Eine Hypothesengruppe bezog sich auf die Frage, von welchen Faktoren die Nachfrage und Wertschätzung von Bewertungsportalen abhängig ist, eine andere unterstellte, dass globale Produkteigenschaften auf der Dimension Such-, Erfahrungs-, Vertrauenseigenschaften sich auf die Nutzung von Portalen auswirkten. Untersucht wurden deshalb sehr unterschiedliche Portale, für Kleidung, Restaurants, Ärzte und Versicherungen. Empirische Grundlage war eine online-gestützte Befragung mit einem Convenience-Sample von 114 Befragten. Neben Studierenden des ivwKöln wurden Angestellte und Personen im Rentenalter zur Teilnahme motiviert, um eine breite Altersstreuung zu erreichen. Die Ergebnisse zur ersten Hypothesengruppe sprechen eindeutig für den diffusionstheoretischen Ansatz. Bei den beiden analysierbaren Portalen (Restaurants und Ärzte) ergibt sich: Entscheidende Faktoren für den Besuch von Restaurantportalen sind Internetaffinität, Alter, Produktinvolvement und Meinungsführerschaft; für den Besuch von Ärzteportalen sind es Internetaffinität und Produktinvolvement. Damit ist auch klar, dass sich die Machtposition der Nachfrager durch die Nutzung von Portalen allenfalls selektiv verstärkt. Die zweite Hypothese, dass Portalnutzung auch von globalen Produkteigenschaften abhängig sei, ließ sich nicht bestätigen.
Das Rathaus Rodenkirchen im Kölner Süden wurde 1967 nach einem Entwurf des Kölner Architekten Walther Ruoff (1914-1991) erbaut. Er war 1962 als Gewinner aus einem Wettbewerb für ein neues repräsentatves Rathaus der damals eigenständigen Gemeinde hervorgegangen. Es steht bis zuletzt als bauliches Zeugnis von Wachstum und Selbstbewusstsein in der Architektursprache des Brutalismus. 2005 wurde nach langen Debatten der Abriss des Hauses beschlossen. Die Publikation beschäftigt sich mit der Architektur und Bauidee des Rathauses, wie auch mit der Rezeptionsgeschichte, die letztendlich zum bedauerlichen Abbruch führte.
Modell und Wirklichkeit. Proceedings zum 5. FaRis & DAV Symposium am 6. Dezember 2013 in Köln
(2014)
Das 5. FaRis & DAV Symposium stand unter dem Leitthema „Modell und Wirklich-keit“. Modelle sind zweckorientierte Verdichtungen der Wirklichkeit. Aktuare können nicht die Zukunft vorausberechnen, sie versuchen aber mit Hilfe von Modellen abzuschätzen, was alles in der Zukunft passieren kann. Sie sind darin scheinbar sehr erfolgreich, denn die Versicherungsgesellschaften haben bisher „den Stürmen der Zeit“ erfolgreich widerstanden und haben den Menschen Ver- sicherungsschutz gewährt. Schaut man allerdings auf die Finanzmärkte – sie sind Teil der ökonomischen Wirklichkeit – so lehrt die jüngere Vergangenheit, dass die Realität sich nicht an die Modelle gehalten hat. Da die Finanzmärkte die Versicherungswirtschaft immer stärker durchdringen, können künftig unvollstän- dige oder falsche Modelle die Stabilität der Versicherungswirtschaft gefährden. Modelle prägen jedoch auch die Wahrnehmung der Wirklichkeit und beeinflussen daher die Wirklichkeit. So hat die Modellwelt des Solvency II-Systems massiven Einfluss auf das Produktangebot der Versicherungsunter-nehmen, nicht immer zum Vorteil der Versicherungsnehmer. Das Symposium sollte kritisch hinterfragen, (1) inwieweit unsere aktuariellen „Modellwelten“ noch ihren Zweck erfüllen, (2) wo die grundsätzlichen Grenzen der Modellbildung liegen, (3) in welche Richtung wir unsere Modelle überdenken müssen und (4) welche alternativen Ansätze zur Verfügung stehen.
Mit einem Anlagevolumen von rund 872 Mrd. €1 sind die deutschen Lebensversicherer mit Abstand die wichtigsten institutionellen Kapitalanleger für die Altersvorsorge. Sie stehen vor der Herausforderung, das Geld ihrer Kunden rentabel und zugleich sicher am Kapitalmarkt anzulegen. Derzeit bietet eine Neuanlage in Staatspapiere höchster Bonität eine Rendite, die kaum ausreicht die Preissteigerung auszugleichen und teilweise deutlich niedriger ist als der Bestand- Rechnungszins. Das Geschäftsmodell der klassischen Lebensversicherung mit den Jahrzehnte- umspannenden Zinsgarantien steht zur Disposition: Niedrigzinsphase und der Übergang einem zum kapitalmarktorientierten Aufsichtsmodell (Solvency 2) zwingen die Lebensversicherer über Alternativen nachzudenken. Beim 2. FaRis & DAV-Symposium wurde das Thema „Alternative Zinsgarantien in der Lebensversicherung“ von verschiedenen Seiten beleuchtet. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
Die Forschungsstelle finanzielles & aktuarielles Risikomanagement (FaRis) organisiert Anfang Juni und Dezember eines Jahres gemeinsam mit der Deutschen Aktuarvereinigung (DAV) gemeinsame Symposien zu relevanten aktuariellen Themen. Wegen des Weltkongresses der Aktuare vom 4. bis zum 8. Juni in Berlin wurde das üblicherweise zeitgleich stattfindende FaRis & DAV Symposium als „FaRis at ICA“ veranstaltet – im Sinne einer Zusammenfassung aller Kongressbeiträge von FaRis-Mitgliedern als Überblick für die in FaRis abgedeckten Forschungsgebiete. Die Kurzversionen dieser Beiträge sind in diesem Tagungsband zusammengestellt. Der nur alle vier Jahre stattfindende Weltkongress der Aktuare ist der bedeutsamste Kongress zu allen aktuariellen Fragestellungen. Mit etwa 2.700 nationalen und internationalen Teilnehmern war der ICA 2018 in Berlin der teilnehmerstärkste Kongress seit dem ersten Weltkongress 1895 in Brüssel.
Resilienz bezeichnet die Fähigkeit eines Systems nach einem exogenen Schock wieder in den Normalzustand zurück zu kehren. Wenn beispielsweise durch eine Katastrophe die Wasserversorgung der Bevölkerung nicht mehr gewährleistet ist, so geht es nicht um die Frage, was die Wiederherstellung der Versorgung kostet, sondern mit welchen Maßnahmen die Wiederherstellung überhaupt möglich ist. Eine Versorgungsstruktur ist also so zu gestalten, dass im Vorfeld schon klar ist, wie sie im Katastrophenfall wieder hergestellt werden kann. Bezogen auf ein Wirtschaftsunternehmen ist die Frage nach der Resilienz eine Erweiterung des klassischen Risikomanagements. Das 11. FaRis & DAV-Symposium bot einen Einblick in die Resilienzanalyse beim Katastrophenschutz, zeigte wie ein Resilienz-Management für ein Wirtschaftsunternehmen aussehen kann und schließlich wurde das Resilienz-Konzept auf Fragen der Versicherungsaufsicht übertragen.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht den einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparvermögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In der hier vorliegenden Arbeit untersuchen wir zeit-diskrete Versionen des Modells, die wir mit Hilfe von Monte-Carlo-Simulationen auswerten. Hierbei berechnen wir verschiedenen Rendite-Risiko-Profile des kollektiven Sparens und vergleichen diese mit entsprechenden Profilen für nicht-kollektive Anlagestrategien (Constant-Mix-, Buy-and- Hold- und CPPI-Strategien). Der Vergleich zeigt einen klaren komparativen Vorteil des kollektiven Sparens.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Collective Defined Contribution Plans – Backtesting Based on German Capital Market Data 1950 - 2022
(2022)
Using historical capital market data for Germany (1950-2022) we analyze and compare (individual) defined contribution (IDC-) and collective defined contribution (CDC) pension plans. To this end we define simple asset liability management rules that govern a CDC pension plan and compare these to IDC-plans with the same asset allovation. Our main result is, that the CDC pension plans allow for a significant improvement of the risk return profile compared to individual pension plans. Hereby we consider different risk measures. This empirical study affirms the theoretical results based on stochastic CDC-models.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
This paper introduces UniFIeD, a new data preprocessing method for time series. UniFIeD can cope with large intervals of missing data. A scalable test function generator, which allows the simulation of time series with different gap sizes, is presented additionally. An experimental study demonstrates that (i) UniFIeD shows a significant better performance than simple imputation methods and (ii) UniFIeD is able to handle situations, where advanced imputation methods fail. The results are independent from the underlying error measurements.
When using machine learning techniques for learning a function approximation from given data it is often a difficult task to select the right modeling technique.
In many real-world settings is no preliminary knowledge about the objective function available. Then it might be beneficial if the algorithm could learn all models by itself and select the model that suits best to the problem.
This approach is known as automated model selection. In this work we propose a
generalization of this approach.
It combines the predictions of several into one more accurate ensemble surrogate model. This approach is studied in a fundamental way, by first evaluating minimalistic ensembles of only two surrogate models in detail and then proceeding to ensembles with three and more surrogate models.
The results show to what extent combinations of models can perform better than single surrogate models and provides insights into the scalability and robustness of the approach. The study focuses on multi-modal functions topologies, which are important in surrogate-assisted global optimization.
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
We propose to apply typed Genetic Programming (GP) to the problem of finding surrogate-model ensembles for global optimization on compute-intensive target functions. In a model ensemble, base-models such as linear models, random forest models, or Kriging models, as well as pre- and post-processing methods, are combined. In theory, an optimal ensemble will join the strengths of its comprising base-models while avoiding their weaknesses, offering higher prediction accuracy and robustness. This study defines a grammar of model ensemble expressions and searches the set for optimal ensembles via GP. We performed an extensive experimental study based on 10 different objective functions and 2 sets of base-models. We arrive at promising results, as on unseen test data, our ensembles perform not significantly worse than the best base-model.
RGP is genetic programming system based on, as well as fully integrated into, the R environment. The system implements classical tree-based genetic programming as well as other variants including, for example, strongly typed genetic programming and Pareto genetic programming. It strives for high modularity through a consistent architecture that allows the customization and replacement of every algorithm component, while maintaining accessibility for new users by adhering to the "convention over configuration" principle.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
In facing recent natural and man-made disasters Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) calls for integrative thinking and learning across cultures, disciplines and institutions. In times of increasing complexity, insecurity and uncertainty thinking outside the box becomes essential. This first volume of “Integrative Risk and Security Research” presents related research contributions developed in the context of the 2013 DAAD Alumni Summer School "Coping with Disasters and Climate Extremes - Challenges & Cooperation Potential". It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
Die Hochwasser- oder Flutereignisse aufgrund von Starkregen im Juli 2021 haben in Deutschland und angrenzenden Ländern ein bis dato nicht bekanntes Ausmaß an Todesopfern und Verlusten hinterlassen. Es ist wichtig aus solchen Ereignissen zu lernen, um künftig besser auf solche Situationen vorbereitet zu sein. Dieser Sammelband beinhaltet Erfahrungsberichte und Betrachtungen von Studierenden und Mitarbeiter:innen des Instituts für Rettungsingenieurwesen und Gefahrenabwehr (IRG), der TH Köln, sowie weiteren Personen, die im Bereich Gefahrenabwehr, Bevölkerungs- Katastrophen-, Zivilschutz tätig sind, oder sich mit Themen wie Naturgefahren und Katastrophenrisikomanagement befassen. Viele Studierende sind gleichzeitig in Organisationen der Feuerwehr, des Rettungsdiensts oder anderer Hilfsorganisationen neben dem Studium tätig, wie auch viele Alumni des IRG. Aber auch jene, die nicht operativ tätig sind, haben wichtige Beobachtungen durch Kontakte oder sogar eigene Schäden machen können.
In einem ersten Austausch unter Studierenden des IRG Anfang August 2021 wurde festgestellt, wie wertvoll ein neutraler Austausch ist, und eine Offenlegung von Erfahrungen, Kritik und Lösungsideen, ohne Personen oder einzelne Organisationen allein dabei zu kritisieren. Da es mitunter an solchen Austauschmöglichkeiten zwischen den Organisationen der Gefahrenabwehr fehlt, soll dieser Sammelband eine solche Möglichkeit bieten.
Um der Bandbreite an unterschiedlichen Hintergründen gerecht zu werden und vor allem im Sinne der Sache, um möglichst viele auch verschiedene Erfahrungen und Perspektiven zu sammeln, oder diese zu bestätigen, finden sich in diesem Sammelband Beiträge unterschiedlicher Länge und Sprache. Eine offene Bewertung auch aus unterschiedlichen Sichtweisen ist sehr wertvoll, um ein ganzheitlicheres Bild der ganzen Lage zu erhalten. Zum damaligen Zeitpunkt in den ersten Monaten nach dem Hochwasser beherrschten Themen wie Koordination der Einsatzkräfte, Verfügbarkeit und Ausfall technischer Ausrüstung aber auch Verpflegung, kritische Infrastruktur, Alarmierung und Warnung den Austausch.
Inhaltlich ist dieser Sammelband ebenfalls bewusst nicht eingegrenzt, damit eine große Bandbreite an Aspekten dokumentiert werden kann. Aufgrund der inhaltlichen Auslegung der Lehre und Forschung am IRG werden bestimmte Themenbereiche wie etwa Einsatzorganisationen, Stabsarbeit, Frühwarnung, kritische Infrastruktur, verwundbare Personengruppen etc. häufiger behandelt als andere Themen. Es werden auch Beiträge aus laufenden Forschungsprojekten u.a. zu kritischer Infrastruktur, Notwasserversorgung, Integration von Einsatzkräften eingebunden. Die Ergebnisse einer Umfrage zur Zufriedenheit der Einsatzkräfte werden dargestellt und diskutiert.
Für alle diese Themen dient jedoch hauptsächlich die Grundidee eine Klammer; was kann man im relativ neutralen Rahmen einer Hochschule äußern, und der Gesellschaft durch solch eine Dokumentation an die Hand geben, um die Erfahrungen zu dokumentieren und eine Diskussion anzuregen, was man daraus lernen könnte. Eine Hochschule kann nur einen Rahmen z.B. für Ideen, Wissenstransfer oder Technologien bieten. Aber alle, die daran mitarbeiten, als Studierende, Mitarbeiter:innen oder kooperierende Partner:innen, sind gleichzeitig Teil der Gesellschaft, die sich nicht alltäglich mit Krisen und Katastrophen dieses Ausmaßes befassen muss. Laut einer Definition von Katastrophen zeichnen sich diese durch ihren Überraschungseffekt, oder durch die Über-wältigung der Fähigkeiten Einzelner oder ganzer Gemeinden aus. Es gibt wenige, die sich damit langfristig planerisch befassen, weil solche Ereignisse zum Glück relativ selten lokal vorkommen. Oft steht man vor einem Rechtfertigungsproblem, weil in unserer Hochleistungsgesellschaft im Alltag wie auch in Katastrophen alles perfekt funktionieren soll. Aber es gibt den Spruch „There is no glory in prevention“ auch deswegen, weil tägliche Unfälle und Beinahestörfälle nahezu unbemerkt von ehrenamtlichen sowie hauptberuflichen Einsatzkräften bewältigt werden. Hier hat leider wieder eine Flutkatastrophe gezeigt, wo die Grenzen der Vorbereitung und in der Bewältigung liegen. Für den Wiederaufbau und das Lernen für die Vorbereitung auf andere Ereignisse und Katastrophen ist es daher wichtig, Lehren zu ziehen, diese zu dokumentieren und der Öffentlichkeit zur Verfügung zu stellen.
Im Band 2/2019 werden Ergebnisse und Inhalte der Definitionphase des Deutsch-Iranischen Projektes „Basis-Infrastrukturen und Services einer inklusiven Katastrophenresilienz im Iran – Basic Infrastructures and Services for Enhancing Inclusive Community Disaster Resilience in Iran“ (INCOR) veröffentlicht. Er gibt einen Überblick über die Inhalte des Projekts und beleuchtet die Hintergründe und Konzeption. Weiter werden Synergien zwischen dem Resilienz-Ansatz für Kritische Infrastrukturen und dem Ansatz der „inclusiveness“ nach UN HABITAT beschrieben. Außerdem wird über die Iranisch-Deutschen Experten Workshops in Teheran und Köln berichtet, welche den internationalen Austausch von Katastrophenschutz-Managern förderten. Abschließend werden Möglichkeiten genannt, wie INCOR dem Sendai Framework beiträgt.
In einer Veranstaltung sitzen viele Studierende, in einer nächsten auf einmal deutlich weniger. Woran liegt das? Und weiß man, ob ein*e Student*in regelmäßig kommt oder nicht? Ist die Anwesenheit überhaupt von Relevanz? Für Lehrende stehen über das eigene Modul hinaus häufig nur geringe Informationen zur Verfügung, wann, in welchen anderen Modulen und mit welchem Aufwand Studierende eines Semesters mit Selbststudienaufgaben oder begleitenden Prüfungsleistungen wie z. B. Hausarbeiten, Praktika, Präsentationen, Lernkontrollen usw. beschäftigt werden. Aus Sicht der jeweiligen Lehrenden sind diese didaktischen Mittel gut begründet, können jedoch insbesondere dann zu Spitzen in der studentischen Workload führen, wenn keine organisatorische Abstimmung mit Kolleg*innen erfolgt. Diskussionen über die richtige Lehrorganisation und das geeignete Maß an Lernanforderungen bleiben erfahrungsgemäß in Hochschulgremien häufig ohne klares Ergebnis, so dass ein Wunsch nach Objektivierung der subjektiven Meinungen entsteht, der speziell eine Abstimmung der in das Lernen investierten Zeit mit den von den Modulen gestellten Lernanforderungen betrifft. Derartige Fragen waren die Initialzündung zum nachfolgend beschriebenen Projekt, das noch nicht vollumfänglich abgeschlossen ist.
Die Erfassung der von Studierenden in ihr Lernen investierten Zeit und die hieraus abzuleitenden Erkenntnisse sind seit den ZEITLast-Untersuchungen von Schulmeister & Metzger (2011) verbreitet. Jedoch macht es einen Unterschied, ob man einem Kreis von in einem Studiengang lehrenden Professor*innen die validen Ergebnisse einer Studie vorträgt oder ob eine Untersuchung im eigenen Studiengang durchgeführt und somit ‚am eigenen Leib‘ erfahren wird, um dann auf der Basis der Ergebnisse gemeinsam die Zukunft neu zu gestalten. Jedoch, wie bringt man diesen Prozess in Gang?
Der Beitrag zeigt zentrale Elemente eines im Studiengang B.Eng. Fahrzeugtechnik der TH-Köln durchgeführten Lehrentwicklungsvorhabens, insbesondere die gewählte Strategie zur Legitimierung einer Workloadstudie (Faßbender et al., 2018), die formulierten Forschungsfragen, die Methodik, die bisher gewonnenen Ergebnisse und Erkenntnisse sowie ein Fazit mit einem Ausblick.
Die Arbeit beschreibt die Entwicklung und Verbreitung künstlicher Intelligenz (KI) und die damit verbundenen Herausforderungen und Chancen. Es wird hervorgehoben, dass trotz des offensichtlichen Nutzens von KI, Bedenken hinsichtlich unerwünschter Nebenwirkungen durch fehlerhafte oder missbräuchliche Anwendungen bestehen. Um diese Herausforderungen zu bewältigen, wird ein Ansatz vorgeschlagen, der als “konviviale künstliche Intelligenz” bezeichnet wird. Dieser Ansatz zielt auf ein harmonisches Zusammenspiel zwischen KI und Mensch ab und betont die Notwendigkeit einer menschenzentrierten Gestaltung bei der Entwicklung und Implementierung von KI-Modellen.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum. Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen. Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
Im 50. Jubiläumsjahr der TH Köln haben wir uns einem bislang wenig behandelten Thema gewidmet, nämlich der Kunst an den Gebäuden der Technischen Hochschule Köln.
Die TH Köln verfügt als größte Fachhochschule in Deutschland über zwei Standorte in Köln, den Campus Südstadt und den Campus Deutz. Darüber hinaus gibt es zwei weitere Standorte in Gummersbach und Leverkusen. Da sich die künstlerischen Objekte ausschließlich an den Gebäuden innerhalb des Stadtgebiets von Köln befinden, beschränkt sich diese Betrachtung auf die historischen Gebäude des Campus Südstadt sowie auf den maßgeblich in den 1970er Jahren entstandenen Komplex des Campus Deutz.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
EventDetectR: An efficient Event Detection System (EDS) capable of detecting unexpected water quality conditions. This approach uses multiple algorithms to model the relationship between various multivariate water quality signals. Then the residuals of the models were utilized in constructing the event detection algorithm, which provides a continuous measure of the probability of an event at every time step. The proposed framework was tested for water contamination events with industrial data from automated water quality sensors. The results showed that the framework is reliable with better performance and is highly suitable for event detection.
In diesem Beitrag geht es um eine Forschungsarbeit, die im Rahmen eines lehrbezogenen Forschungs- und Entwicklungsprojekts während des Sommersemesters 2021 zur Zeit der COVID-19-Pandemie in einem Anfänger*innen-Übersetzungskurs und zwei Fortgeschrittenen-Übersetzungskursen des Bachelorstudiengangs Mehrsprachige Kommunikation durchgeführt wurde. In diesen Kursen wurde eine digitale Gruppenarbeit angeboten, die von den meisten Studierenden besser als erwartet angenommen wurde. Dabei stellte sich heraus, dass diese Form der Arbeit Studierende dazu motivieren kann, trotz verschiedener Standorte gemeinsam an einem Projekt zu arbeiten. Zudem wurde die Annahme bestätigt, dass mit fortschreitender Spezialisierung der Studierenden eine stärkere Aktivierung bei digitaler Gruppenarbeit festzustellen ist. Da die Studierenden größtenteils auch eine Verbesserung ihrer Übersetzungs- und Sozialkompetenz wahrnahmen und diese Lehrform als Abwechslung zur gewöhnlichen Vorgehensweise empfanden, kann digitale Gruppenarbeit in Übersetzungskursen als empfehlenswert gelten.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
In dieser Untersuchung wird gezeigt, dass die Kubatur des Innenraums der im frühen 11. Jh. erbauten Bartholomäuskapelle in Paderborn auf einer geometrischen Konstruktion beruht.
Religiöse Bezüge mit Anleihen aus der Antike spielten bestimmt eine wesentliche Rolle, doch ansonsten ist hier die Geometrie keineswegs als Selbstzweck zu betrachten. Planung und Bauausführung wurden durch die Befolgung einer „geometrischen Logik“, enorm vereinfacht, Proportionen und Harmonien ergaben sich daraus. Die grundlegende Voraussetzung für alle hier aufgeführten Betrachtungen bildet die Dokumentation mit 3D-Laserscanning, welche einen hochgenauen verformungsgerechten „digitalen Zwilling“ am Computer erzeugt. Alle benötigten Maße können so abgegriffen werden, ohne aufwendige Nachmessungen am Objekt durchführen zu müssen. Für das Auffinden einer belastbaren geometrischen Konstruktion bildet wiederum die Analyse der über die Jahrhunderte aufgetretenen Deformationen eine unabdingbare Voraussetzung,
da sonst die baubedingten Unregelmäßigkeiten nicht erkannt werden können.
Cyclone Dust Separators are devices often used to filter solid particles from flue gas. Such cyclones are supposed to filter as much solid particles from the carrying gas as possible. At the same time, they should only introduce a minimal pressure loss to the system. Hence, collection efficiency has to be maximized and pressure loss minimized. Both the collection efficiency and pressure loss are heavily influenced by the cyclones geometry. In this paper, we optimize seven geometrical parameters of an analytical cyclone model. Furthermore, noise variables are introduced to the model, representing the non-deterministic structure of the real-world problem. This is used to investigate robustness and sensitivity of solutions. Both the deterministic as well as the stochastic model are optimized with an SMS-EMOA. The SMS-EMOA is compared to a single objective optimization algorithm. For the harder, stochastic optimization problem, a surrogate-model-supported SMS-EMOA is compared against the model-free SMS-EMOA. The model supported approach yields better solutions with the same run-time budget.
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.